Está en la página 1de 13

Formatos de vídeo digital. Ventajas y desventajas para la postproducción.

(I)

Category: Tecnología audiovisual By Efecto HD


Vamos a iniciar una serie de artículos sobre los formatos digitales de vídeo y sus
características y qué ventajas y desventajas presentan a la hora de usarlos en edición y
postproducción.

Es un tema amplio y por eso es necesario dividirlo en varias partes. Aquí va una
adelanto de lo que vamos a tratar en los siguientes artículos.

La manera en que la señal de vídeo es registrada, comprimida y más tarde enviada a


nuestro sistema de edición, determina las posibilidades de la postproducción.

La capacidad de extraer un buen croma o la capacidad de ejecutar un retoque de color


fino depende en gran medida de la calidad de la señal que estemos tratando.

Cuando se trabaja en cine, el negativo se escanea a máxima calidad (2k, 4k) y se le da


salida en formatos de imagen sin pérdida, con un amplio rango dinámico y un espacio
de color logarítmico (Cineon, DPX), lo que permite que la manipulación de estas
imágenes en postproducción sea limpia, precisa y fidedigna.

En vídeo no ocurre lo mismo pues la recogida de imágenes siempre pasa por un


"muestreo" que implica algo de pérdida y casi siempre una compresión de la señal, a lo
que hay que sumar un menor tamaño de la imagen.

Todo esto hace que la postproducción de vídeo sea menos precisa y hace que tengamos
que prestar la máxima atención a la degradación de la imagen debido a temas de
compresión.

Para mantener siempre al máximo las posibilidades de manipulación de la imagen en


vídeo digital debemos siempre seguir estas premisas:

• 1-La imágenes deben tener la máxima calidad posible que nos pueda
proporcionar la fuente de la que provengan. Hay que evitar degradar la señal
capturando en un formato inferior al que se usó para grabar.

• 2-Debemos procurar que la imágenes no se degeneren en ningún momento a lo


largo de la cadena de procesos aplicados en postproducción. Hay que evitar la
pérdida de generaciones y no realizar renders o recompresiones sobre formatos
ya comprimidos.

Por eso es muy importante tener claro y entender cómo funcionan los formatos de
vídeo digital, cómo registran la señal y cómo proporcionan esa señal a nuestro sistema
de edición, de manera que sepamos cómo tratarla en cada momento.

Para ello es preciso definir los siguientes conceptos, que iremos explicando en los
próximos artículos:

• Tipos de señal de vídeo (RGB, Componentes, S-Video, Compuesto)


• Muestreo de color (4:4:4, 4:2:2, 4:2:0, 4:1:1)

• Profundidad de Color o BitDepth (trabajar en 8 bits o 10 bits)

• Formatos de vídeo y tipo de compresión

Formatos de vídeo digital (II):Tipos de señal de vídeo

Category: Tecnología audiovisual By Efecto HD


VÍDEO EN COMPONENTES, Y/C, COMPUESTO Y SEÑAL RGB

Retomando el artículo anterior vamos a repasar el proceso de captura de la señal de


vídeo.

Del estudio del principal dispositivo de captura de imagen del que disponemos, el ojo
humano, se deriva la tecnología usada en los artefactos creados por el hombre para
registrar imágenes. Esos artefactos, las cámaras, actúan a imagen y semejanza del ojo
humano. Al menos en cierta medida.

No vamos a entrar a detallar el proceso por el cual es posible capturar la luz y enfocar
imágenes a través de ópticas, tal como hace ojo humano, pero sí señalaremos, a grandes
rasgos, cómo se comporta ante las diferentes longitudes de onda que conforman "el
color" de la imagen.

Las células fotorreceptoras que se encuentran en el ojo son sensibles a las distintas
longitudes de onda del espectro electromagnético. Sólo recogen las radiaciones
visibles del espectro, obviamente, que pertenecen a los colores del arcoiris, quedando
fuera, las radiaciones que se encuentran más allá de los colores situados a los márgenes
de ese arcoiris, es decir, infra-rojo y ultra- violetas, no son visibles por el ojo humano.

Esas células fotorreceptoras se denominan conos y bastoncillos, siendo los conos los
responsables principales de la percepción del color. Según estudios, existirían 3 tipos de
conos, sensibles cada uno a longitudes de onda distintas, en concreto a las
correspondiente a los colores ROJO (red), VERDE (green) y AZUL (blue).
Es decir, el ojo sería un dispositivo RGB, que es capaz de reproducir todos los colores
a base de la combinanación aditiva de estos 3 únicos colores.

Ya vamos viendo de dónde nace la selección de estos 3 colores como base para la
captura de imágenes, pero como bien sabemos, al principio la tecnología de la televisión
sólo era capaz de reproducir imágenes en blanco y negro, es decir sólo recogía la
luminancia. Poco a poco se fue desarrollando la tecnología adecuada para reproducir
también el color, pero para ello era fundamental hacerla compatible con la anterior TV
en blanco y negro.

De esta manera, a la señal de luminancia que ya registraba la TV en blanco y negro se le


sumó la señal de crominancia, aportando así la información de color. Esta es la base del
primer tipo de señal de vídeo que vamos a tratar: las señal en COMPONENTES.

SEÑAL COMPONENTES: recoge la luma y la crominancia por separado. Se hizo así


para hacerla compatible con los receptores de TV en blanco y negro de la época. Usa el
modelo triestímulo RGB del ojo humano.
Esta señal se suele representar como YUV, aunque la manera correcta de representarla
es Y' CbCr. Cuando se trata de señal analógica se denomina YPbPr (Y' CbCr es su
traducción digital que es la que nos ocupa en este caso)

Y'= representa la luma, la imagen en escala de grises. Se usa la longitud de onda


correspondiente al color verde para conformar esta señal. Se escogió este color debido a
que las células fotorreceptoras del ojo humano son más sensibles a este tipo de
radiación. El apóstrofo (') nos recuerda que esta señal no es lineal, sino logarítmica, por
lo que requiere corrección de gamma (un tema complejo que trataremos en posteriores
artículos.

CbCr= representa la crominancia (C), la información de color. Los colores rojo(R) y


azul(B) se extraen matemáticamente (B-Y, R-Y) y cabalgan en la señal, separados entre
sí y separados de la luminancia. Aun siendo una manera de comprimir las longitudes de
onda RGB, es una señal de gran calidad usada a nivel profesional.

A partir de aquí, se desarrollaron otro tipo de señales de inferior calidad, pero


igualmente eficientes para reproductores domésticos o aparatos electrónicos más
baratos. Son las señales de S-VÍDEO y la señal COMPUESTA.

SEÑAL S-VÍDEO O Y/C: este tipo de señal se considera de inferior calidad a la


anterior aunque también se suele denominar también "señal en componentes" pues las
señales de luma y croma van también separadas, pero la diferencia es que los dos
componentes de croma (R y B) cabalgan en una misma señal, de ahí su inferior calidad.
SEÑAL VÍDEO COMPUESTO-COMPOSITE: en esta señal, propia de casi todos
los dispositivos de vídeo doméstico, la lumancia y la crominancia se multiplexan
juntas. Se modulan juntas pero en frecuencias diferentes, de manera que la calidad es
muy inferior a las anteriores, debido a las interferencias entre las señales y a la pérdida
que supone incluir los tres componentes en un mismo ancho de banda.

Aparte de estas 3 señales de vídeo existe un tercer tipo que se considera superior a todas
ellas. Se trata de la señal RGB pura.

RGB: como hemos visto al principio de este artículo, el ojo es un dispositivo RGB, por
lo cual, una señal que imite su comportamiento podría reproducir de manera más fiable
los colores y su correspondiente valor de luminancia. Esta señal existe, pero no se usa
habitualmente para capturar vídeo, sino para reproducir colores dentro de sistemas
informáticos. Es el tipo de señal que usan los monitores de ordenador, proyectores y en
general es como reproduce el color la tarjeta gráfica de nuestro ordenador.

En Europa la señal RGB está implementada en los conectores SCART (el famoso
EUROCONECTOR) de manera que sí es frecuente encontrarla fuera del ámbito
informático en reproductores domésticos y en la mayoría de las TVs, en cambio en
países externos a la Unión Europea no se suele usar, sustituyéndose esta señal por Y/C.

En el sistema RGB, no existe la necesidad de añadir una señal de luma pues la escala de
grises y el blanco y el negro puros se forman con la combinación equitativa de los tres
colores.

CAPTURANDO LA SEÑAL DE VÍDEO

A la hora de empezar a trabajar debemos identificar las distintas señales que emita
nuestra cámara o VTR así como las entradas que tengamos en nuestra capturadora de
vídeo. Debemos seleccionar siempre la de mejor calidad, pues presumiblemente nuestra
cámara habrá grabado la señal como mínimo en ese formato.

Aparte de los conectores analógicos que hemos visto, estas pueden ir sobre distintos
tipos de interfaces digitales como por ejemplo firewire, SDI, HDMI, DVI... que
trataremos con detenimiento en artículos posteriores.

Debemos analizar qué señal de vídeo es la mejor y cuál es el interfaz correcto para
introducir una señal sin pérdidas en nuestro sistema de edición.

Formatos de vídeo digital (III): el muestro del color

Category: Tecnología audiovisual By Efecto HD


El muestreo de color o chroma sampling se refiere a la manera en que el dispositivo
de registro de la imagen (el CCD de la cámara) capta la infinita información de
luminosidad y color presentes en una escena y la convierte en una señal "manejable" y
"discreta".

Como ya vimos en el artículo anterior, la información de color y luminosidad se realiza


ponderando el color verde sobre los demás y haciendo prevalecer sobre él la
información de luminosidad. Es así como se conforma la señal en componentes Y'CrCb.
Esos tres componentes, además, se muestrean utilizando una matriz de 4 x 4 pixels,
donde se vierten sus valores. Por eso para representar este muestreo de color se utiliza la
expresión 4:4:4, donde se describe la máxima calidad posible que puede poseer esta
señal: 4 pixels de información de luminosidad/G, 4 pixels para el componente croma R
y 4 pixels para el componente croma B.
Para ahorrar ancho de banda y crear formatos más económicos, esa matriz se simplifica,
normalmente, dejando la información de luminosidad intacta, y las componentes de
croma se promedian e interpolan, dando lugar a otro tipo de muestreo, por ejemplo
4:2:2, donde R y B tienen la mitad de información o 4:1:1, donde se reduce aún más.

Los diferentes formatos de vídeo se clasifican principalmente por el tipo de muestreo de


color que utilizan. Aquí tenemos una clasificación de los principales formato según su
ratio de muestreo:

Chroma sampling ----Formatos de vídeo


----- 4:4:4 -------------->HDCAM SR, imágenes RGB generadas por ordenador
----- 4:2:2 -------------->Betacam Digital, DVC-pro 50, DVC-pro 100 (HD)
----- 4:1:1 --------------->DV, DVC-pro, DV CAM
----- 4:2:0 -------------->HDV, AVCHD
----- 3:1:1 --------------->HD CAM

Normalmente las cámaras son capaces de registrar más información de la que luego
graban. Al grabar sobre cinta, tarjeta o disco duro, la cámara realiza una compresión en
el formato que utilice, perdiéndose así parte de la información previamente registrada
por el CCD.

Por eso no es raro encontrar producciones en las que se graba directamente la señal que
sale de cámara. Desde una salida en componentes se conecta la cámara a un dispositivo
grabador que recoge la señal y la graba sin compresión directamente a disco duro. Hay
cámaras como por ejemplo la Panasonic HC27 que son capaces de dar una señal 4:4:4
pero en cambio graban en DVCpro HD que es 4:2:2.

Es seguro que si grabamos las modestas señales de nuestras pequeñas cámaras HDVs o
AVCHDs directamente a disco sin pasar por ningún compresor, obtendremos más
calidad pues estamos capturando directamente la imagen tal como la registra el CCD.

Soluciones como las proporcionadas por Colorspace Icon permiten grabaciones 4:4:4 a
10 bits directamente desde cámara.
Color sampling en la práctica:

El muestreo de color usado en el material con el que trabajemos es de vital importancia


a la hora de post producir. La máxima calidad vendrá dada por un menor muestro, es
decir, formatos 4:4:4 o 4:2:2 serán los que proporcionen un mayor rango de actuación,
sobre todo cuando retocamos colores o realizamos chromakeys.

Por ejemplo realizar un buen chromakey con material 4:2:0 (el popular HDV) no es
imposible, pero sí sumamente dificultoso pues la falta de información de color, sobre
todo en los bordes de las siluetas, nos pueden dar verdaderos quebraderos de cabeza.
De ahí que sea muy importante elegir el formato adecuado a nuestras producciones. Por
ejemplo Si prevemos un retoque de color exhaustivo y muy preciso o pensamos hacer
un chroma, no debemos bajar de un formato 4:2:2.

Eligiendo el compresor adecuado

Así mismo a la hora de planificar nuestro flujo de trabajo, y sabiendo cuál es el


muestreo usado, debemos elegir el codec adecuado para la captura del material,
intentando no perder un ápice de su calidad inicial.

Lo lógico es mantener el codec correspondiente al formato en que se ha grabado. Si por


ejemplo capturamos en Final Cut a través de Firewire, la captura no es más que un
"trasvase" de datos digitales de la cámara a nuestro disco duro, es decir no se produce
pérdida pues es una mera copia de información.

Si la captura la hacemos a través de otros dispositivos como tarjetas Blackmagic o AJA


contamos con algunas más opciones pues estas tarjetas proporcionan otros tipos de
codec o compresores que podemos usar. En cualquier caso se debe respetar el muestreo
original.
Por ejemplo, podemos capturar un material grabado en DVCpro HD (4:2:2) en el nuevo
codec de Apple ProRes422, que mantiene la calidad del DVCproHD y a la vez permite
reducir el tamaño de los datos, creando archivos mucho más pequeños y manejables.

Por otro lado, capturar un material de inferior calidad en un formato superior tiene poco
sentido pues no vamos a tener más calidad en nuestra imagen. Si por ejemplo hemos
grabado en HDV y capturamos en un codec DVCpro HD, siendo este último 4:2:2 y el
HDV 4:2:0 , sólo obtendremos un archivo de mucho mayor tamaño, pero no con más
información. Tampoco ganaremos mucho capturando sin compresión /uncompressed.

Por el contrario, sí es aconsejable configurar la línea de tiempo o proyecto a la mayor


calidad (10bits) y mantener renders sin compresión ya que cualquier elemento que
añadamos a posteriori como gráficos, degradados, fundidos, textos y retoques de color,
se verán así beneficiados.

El concepto de la profundidad de color o bit-depth lo trataremos con más


detenimiento en el siguiente artículo, pues es un factor que va unido al muestreo de
color y que es determinante en el resultado final de nuestros proyectos.

Formatos de vídeo digital (IV): la profundidad de color

Category: Tecnología audiovisual By Efecto HD


Los sistemas digitales funcionan en bits, la unidad mínima de información que
cualquier ordenador puede entender. Un bit sólo puede tener 2 valores: 1 (on) o 0 (off).
Es la manera en que funciona el sistema binario.
Combinando bits en distinto orden, número y con distintos valores, es como se logra
componer cualquier información digital. A mayor número de bits, más información.

De esta manera, el color en las imágenes digitales, se construye mediante bits. Por
ejemplo una imagen de 1 bit, tendrá sólo valores de blanco (1) y negro(2), con lo cual su
profundidad de color o bit depth será limitada, por no decir mínima.

A medida que aumentamos los bits de color de una imagen, tendremos más valores con
los que representarla.

Normalmente con 8 bits, que equivalen a 256 valores distintos, tenemos suficiente para
representar el color de una imagen y que resulte real para el ojo humano.
Esos 8 bits, en realidad, son bits por cada canal de color (RGB), es decir cuando se
habla de una imagen de 8 bits, nos referimos a 256 niveles de rojo x 256 niveles de
verde x 256 niveles de azul=16777216 de colores.

Hay que tener precaución con esta nomenclatura y hay que especificar a qué se refieren
los bits, pues por ejemplo una imagen de 8 bits por canal, es lo mismo que una imagen
de 24 bits por píxel(8x3), y la podemos por tanto ver definida de las dos maneras.
8 bits por canal RGB (bpc) = 24 bits por píxel (bpp)
8 bits por canal RGB + canal Alpha = 32 bits por píxel (bpp)
16 bits por canal RGB (bpc)= 48 bits por píxel (bpp)

La profundidad de color en el vídeo digital:

Si bien hemos dicho que con 8 bits por canal podemos conseguir una imagen con una
definición de color suficiente para el ojo humano, en vídeo esto no siempre es así.

La mayoría de los formatos de vídeo digital generan imágenes de 8 bits, otros son
capaces de llegar hasta los 10 bits, proporcionando más rango dinámico a la imagen, en
concreto 1024 valores por canal, frente a los 256 proporcionado por los sistemas de 8
bits.

Bit depth----------------------Formatos de vídeo


- 8 bits por componente------> Betacam SP,DV,DVC-pro,DVC-proHD,HD Cam, HDV
-10 bits por componente------>HDCAM SR, Betacam digital, D5, D6

Pero ¿qué nos aporta una mayor profundidad de color en vídeo si una imagen de 8 bits
es suficiente para el ojo humano?
Una mayor profundidad de color nos da un mayor rango de actuación sobre la imagen,
pudiendo ajustar mucho más los retoques de color precisos, los chromas etc... En
general la profundidad de color es beneficiosa para cualquier proceso de postproducción
sobre el material con el que trabajamos.

Pero el precio a pagar cuando trabajamos con un mayor bit-depth, es muy alto en cuanto
a velocidad de proceso de nuestra máquina y al espacio en disco que necesitaremos,
haciendo el proceso de trabajo mucho más lento. Por tanto es esencial saber cuándo y
cómo utilizar una mayor profundidad de color según las necesidades de nuestro
proyecto.

Trabajando con vídeo a 8 bits o a 10 bits.

Como hemos visto, la mayoría de los formatos de vídeo trabajan a 8 bits, que nos
proporciona valores de 0 a 255, donde la ausencia de valor (0) sería negro y el valor
máximo (255) sería blanco.
Pero en realidad, en vídeo digital de 8 bits, el blanco se sitúa en el valor 235, mientras
que el negro se eleva hasta el valor 16. Los valores que situados entre 236-255 y entre
0-16 se reservan para el super-blanco(headroom) y el super-negro (footroom).

Aquí podeis encontrar más información sobre el tema, pues no nos detendremos mucho
en este punto: Black and white levels

Las imágenes a 8 bits suelen bastar para trabajos de edición sencillos, con poca
postproducción, pues en cuanto empezamos a "apretar" las posibilidades de los 8 bits a
base de filtros y retoques avanzados, nos encontraremos con el primer y más grave de
los problemas: el banding o posterización de color.
El banding, aparece sobre todo en degradados de color donde los 256 niveles no son
suficientes para representar la gama completa de colores. Esto es algo inherente a las
imágenes de 8 bits, lo que ocurre que cualquier retoque de color lo acentúa y si además
no tenemos cuidado con el flujo de trabajo y en algún momento de la edición
recomprimimos las imagen con algún codec, el resultado puede ser mucho peor.

Es posible prevenir el banding, o al menos paliarlo, usando varias técnicas.

Si partimos de material en 10 bits la posibilidades de banding son mínimas pues 1024


niveles de color serán suficientes para prevenirlo.

En caso de no poder contar con material grabado a 10 bits podemos hacer lo siguiente:

1- Capturar en codecs de 10bits. Por ejemplo el reciente codec Apple Pro Res 422 de
10 bits permite tamaños de archivo bastante manejables a la vez que mantiene una
profundidad de color de 10 bits. Otra opción muy recomendable es la adquisición de
algún codec Cineform que permite también líneas de tiempo HD a 10 bits sin a penas
sufrimiento del procesador pues están altamente optimizados para ocupar poco y ofrecer
una gran calidad.
En caso de no disponer de ninguno de estos codecs, nos puede servir cualquier otro a 10
bits, el inconveniente serán los enormes archivos con los que estaremos obligados a
trabajar y la consecuente ralentización del trabajo, con lo cual no es muy recomendable.
2-Capturar en el formato nativo a 8 bits pero configurar el proyecto a un bit depth
superior. De esta manera, cualquier retoque adicional, efecto o degradado digital que
añadamos se generará en el nuevo espacio de color de nuestro proyecto. Por ejemplo en
After Effect existe la opción de configurar la línea de tiempo a 8 bits, 16 bits o 32 bits.
Si bien el proceso de trabajo se ralentiza enormemente, ganaremos en calidad, sobre
todo en los degradados de color y desenfoques.

Ojo, pues trabajar en un bit depth alto puede ralentizar el trabajo hasta 4 veces,
haciendo a veces el proceso inviable si no contamos con una buena máquina.
Una solución sería hacer la conversión de bit depth justo al final del proyecto, antes del
render, haciendo que el software calcule de nuevo todo los filtros, efectos y demás, sólo
al final.

Aún así, las imágenes provenientes de fuentes de 8 bits, pueden seguir mostrando un
leve banding, pues aunque sean convertidas a 10 bits, originalmente tienen sólo 256
niveles y eso no se puede variar.
En este caso podemos acudir a viejos trucos que siguen funcionando como por ejemplo
añadir un desenfoque o blur a los degradados y añadirles un poco de filtro de ruido

32 bits-float point:

32 bits o float point (coma flotante) es la máxima profundidad de color que podemos
obtener en un sistema digital. Aquí no hay posibilidad de banding ni artefactos pues
no existe niveles de color como los 256 de los 8 bits ni los 1024 de los 10 bits. En float
point solo existe valores de 0 (negro) a 1 (máximo brillo) con lo cual los valores
intermedios pueden ser infinitos. Por ejemplo si en un sistema de 8 bits el gris está
representado por el valor 128, en un sistema float point, el gris puede ser 0.5892345...
Con todos los decimales posibles... con lo cual la gama de colores es virtualmente
infinita.

Las imágenes generadas por ordenador (CGI) y las imágenes procedentes de software
3D son creadas en este espacio de color, pero al guardarse en formatos de imagen de 8 o
10 bits se remuestrean automáticamente.

Un proyecto configurado en 32 bits, permitirá la máxima calidad en todos los elementos


digitales que añadamos como degradados, en la ejecución de filtros como los
desenfoques y permitirá que las correcciones de color no dañen en exceso las imágenes
en 8 bits con las que estemos trabajando, pero insisto, puede ralentizar nuestro trabajo
hasta un 400%. Es probable que con un proyecto configurado a 16 bits tengamos
suficiente.

Cada vez los equipos de edición son más potentes y permiten sacar partido de una
profundidad de color mayor, si a ello unimos la posibilidad de trabajar en codecs como
el ProRes o los codecs Cineform, aumentaremos enormemente nuestra capacidad post
producir imágenes de calidad.
Formatos de vídeo digital (y V). Resumen

Category: Tecnología audiovisual By Efecto HD


Y para finalizar la serie de artículos sobre vídeo digital, esta tabla resumen recoge los
principales formatos y sus características básicas:
SD (Standard Definition) ITU-R BT. 601
RESOLUCIÓN (pixels) PIXEL ASPECT RATIO Frame rate-Hz

PAL 720x576 4:3 / rectangular 25 fps entrelazazo

(625 líneas 768x576 4:3 / cuadrado


analógicas)

1024x576 16:9 / cuadrado


NTSC 720x480 4:3 / rectangular 29.97 fps entrelazado

(525 líneas 720x540 4:3 / cuadrado


analógicas)

864x486 16:9 / cuadrado


HD (High Definition) ITU-R BT. 709
1920x1080 16:9 / cuadrado Frame rate variable según formato. Posibilidades:

1440x1080 4:3 / rectangular 1080p=23.98, 29.97,24, 30, 25 progresivo

1280x720 16:9 / cuadrado 1080i=25 (50i), 29.97 (59.94i),30 (60i), entrelazado

960x720 4:3 / rectangular 720p=23.98, 29.97, 59.94,24, 30, 601, 25, 50


progresivo

PRINCIPALES FORMATOS DE VÍDEO DIGITAL


FABRICANTE MUESTREO PROFUNDIDAD FLUJO TIPO DE COMPRESIÓN RATIO DE RESOLUCIÓN
DE COLOR DE COLOR DE COMPRESIÓN
DATOS

Mb/s
SD
DV / VARIOS 4:2:0 (PAL) 8 bits 25 DCT 5:1 720x576(PAL)

MINI DV (1996) 4:1:1(NSC) 720x480(NTSC)


DVCPRO PANASONIC 4:1:1 8 bits 25 DCT 5:1 720x576(PAL)
25

720x480(NTSC)
DVCPRO PANASONIC 4:2:2 8 bits 50 DCT 3,3:1 720x576(PAL)
50

720x480(NTSC)
DVCAM SONY 4:2:0 (PAL) 8 bits 25 DCT 5:1 720x576(PAL)

4:1:1(NTSC) 720x480(NTSC)
BETACAM SONY 4:2:2 10 bits 90 DCT 2.3:1 720x576(PAL)
DIGITAL

(1993) 720x480(NTSC)
BETACAM SONY 4:2:2 10 bits 18-170 MPEG2 10:1 720x576(PAL)
SX

(1996) 720x480(NTSC)
MPEG IMX SONY 4:2:2 8 bits 30 MPEG2 6:1 720x576(PAL)

(2001) 40 4:1 720x480(NTSC)

50 3.3:1
XDCAM SONY 4:1:1 / 4:2:0 8 bits 30 DCT 720x576(PAL)
SD

(2003) 4:2:2 40 MPG2 720x480(NTSC)

50
HD
DVCPRO PANASONIC 4:2:2 8 bits 100 DCT 6,7:1 1080 i/p
100 (1440x1080)

(DVCPRO 720p (960x720)


HD)
HDCAM SONY 3:1:1 8 bits 144 MPEG4 4:1 1080 i/p
(1440x1080)

(1997)
HDCAM SONY 4:2:2 10 bits 440 MPEG4 4,2:1 1080 i/p
SR (1920x1080)

(2003) 4:4:4 880 2,7:1


HDV SONY 4:2:0 8 bits 19-25 MPEG2 18:1 1080 i/p
<!--[if 1440x1080,
!supportLineBreakNewLine]- 1920x1080)
JVC ->
<!--[endif]-->
720p
CANON (1280x720)

(2003)
AVCHD PANASONIC 4:2:0 8 bits 18-24 H264/MPEG4 1080 i/p
(1440x1080,
1920x1080)
SONY

720p
(2006) (1280x720)
XDCAM SONY 4:2:0 8 bits 18-50 MPEG2 1080 i/p
HD <!--[if (1440x1080)
!supportLineBreakNewLine]-
->
<!--[endif]--> 720p
(1280x720)

También podría gustarte