Está en la página 1de 21

EL FORMATO DV

El formato DV (Digital Video) es un estándar de vídeo de gama doméstica, industrial y profesional,


es decir, un formato intermedio que incluye desde pequeñas cámaras de mano para uso familiar y
cámaras de televisión "casi” broadcast. Lo amplio del formato ha resultado siempre fuente de
confusión, con defensores entusiastas que se refieren a equipos de intermedio en adelante, y
detractores que lo juzgan por el resultado de las pequeñas cámaras hogareñas. A la inversa,
también se ha utilizado con frecuencia equipamiento subprofesional para registrar material
pensado para salir al aire. Las consecuencias son una muy baja calidad de imagen, ya que no todo
depende del formato, sino que la parte óptica y electrónica de la captura de imágenes en la
cámara tienen mucha responsabilidad. Así, hay cámaras DV de 500 dólares y de 25000 dólares. La
diferencia, por supuesto, es de 24500 dólares, en todo sentido.

El formato de datos se basa en el algoritmo DCT (igual que Beta Digital) y usa como protocolo de
trasmisión de datos el IEEE 1394 o Firewire. Generalmente graba en una cinta de 1/4 de pulgada
con dos tamaños extendidos de tape: mini y large. Los formatos miniDV pueden registrar una hora
de material en formato DV hogareño (DV SP) y cuarenta minutos en formato DVCam (el
profesional). Esto no quiere decir que las cintas económicas DV estén pensadas para el trabajo
diario en entornos profesionales: existen también las cintas DVCam, que son aparentemente más
caras, pero en realidad su posibilidad de reutilización las hace más baratas que sus compañeras
hogareñas. La diferencia es simple: una cinta DV tiene diez micrones de espesor, y una cinta
DVCam tiene quince. La diferencia de calidad está basada en la velocidad de datos, por lo cual, a
mayor velocidad de datos, mayor velocidad de giro de la cinta que tiene que almacenar estos
datos: grabar en DVCam supone un mayor stress para el tape que grabar en DV SP.

Para uso profesional, la cinta tiene que ser grabada en formato DVCam y nunca jamás en formato
DV SP, ya que la diferencia de calidad es demasiado notoria.

El formato DV fue creado en 1996 como un estándar


internacional según la norma IEC 61834, que define el códec
y el tipo de cinta. Fue desarrollado como formato digital de
vídeo para un entorno industrial, pero su excelente relación
calidad-precio provocó que se haya convertido en el
formato predominante en el vídeo doméstico, como Mini
DV, y que hayan surgido las versiones profesionales, DVCAM y DVCPRO. Ambas trabajan en el
formato DV25 (es decir, con formato DV a 25 Mbits por segundo. Existen dos formatos de cinta
DV50, el Digital-S, basado en este estándar pero que graba en cinta de 1/2” (el tape es
exactamente igual que el VHS, el S-VHS y el broadcast MII de Panasonic), que no ha llegado a
prosperar, y un formato DVCPRO 50, que ha tenido alguna repercusión en el mercado
norteamericano. Una de las principales razones del fracaso del Digital-S es que Panasonic prefirió
ir a por el DVCPro (heredero del Hi-8), por la gran diferencia de costos en el hardware respecto del
primero. De otro modo, no hubiera podido competir con el DV de Sony, que fue adoptado
rápidamente en el mercado internacional gracias a la amplia gama de cámaras, decks y accesorios
disponibles, su gran portabilidad y su relativo bajo costo. Su enorme popularidad ha provocado
incluso que sea base comercial para un formato barato de alta definición, el HDV, que sólo
comparte el tipo de cinta.

El DV es un sistema de vídeo digital por componentes que utiliza una frecuencia de muestreo 4:2:0
en PAL y 4:1:1 en NTSC. Para la compresión de vídeo, DV usa el algoritmo DCT con una compresión
intraframe y un ratio 5:1. DV es conocido como DV25 porque el flujo de vídeo resultante es de 25
Mb/s , añadiendo audio, información de track y corrección de errores. El resultado de información
es de unos 13 GB de disco por hora.

El formato DV graba audio PCM sin compresión. Tiene dos configuraciones posibles de audio. Una
permite grabar 2 canales de audio a 48 KHz y 16 bit, y la otra posibilidad 4 canales a 32 KHz y 12
bit; 2 canales de audio original y dos de doblado (audio dubbing) realizado a posteriori en
posproducción. La calidad de la configuración de 2 canales, 48 KHz y 16 bit es ligeramente superior
a la del disco compacto (CD). En el entorno profesional, se debe usar ésta y no la de 32 KHz. El
formato DV SP graba en 32 KHz, y el DVCam en 48 KHz en las versiones de cámara. La opción de
grabar cuatro canales de audio a 32 KHz existe sólo en determinados modelos de grabadoras de
mesa.

Para la conectividad el DV utiliza principalmente la interface IEEE 1394, también conocido como
Firewire e i.Link, que si bien no es parte del formato en sí, está estrechamente ligado a éste.
Cualquier equipo DV, tanto doméstico como profesional, lleva un conector Firewire, que puede
tener conexión de 6 pines o de 4 pines. El Firewire también es usado como puerto serie para
ordenadores -aparte del USB-. Equipos profesionales también pueden transportar la señal DV por
SDI (serial digital) o por los conectores analógicos de video en componentes, aunque en este caso
habrá degradación de la señal por el paso digital-analógico.

Algo muy importante en términos prácticos es que el conector 1394 - que generalmente une la
cámara o la cassettera de mesa a la computadora - requiere algo más de atención que el USB, el e-
SATA o cualquier otro medio de conexión de serie. Transporta sensiblemente más voltaje, y
contrariamente a lo que dice el manual de protocolo de Sony, no es un formato hot-plug. Esto
quiere decir que para conectar el cable entre dos dispositivos, uno de ellos debe estar apagado, o
de otro modo se corre el riesgo de dañarlo en forma permanente. En el caso de la computadora,
esto se resuelve con una placa controladora IEEE 1394, que es algo sencillo de obtener y con un
costo inferior a los 15 dólares. En el caso de la cámara, bueno, se rompió la cámara y no puede
repararse, porque la interface 1394 está integrada a la placa madre de la cámara. O sea, es un
concepto para tener más que en consideración.

La cinta usada para grabar DV tiene un ancho de 1/4” (6,35 mm). Este tipo de cinta tiene tres
versiones distintas. La más conocida es la usada en la gama doméstica, la cinta Mini DV, que
también usan algunos equipos profesionales y semiprofesionales. La rama profesional tiene otras
dos variantes, el tamaño M y el tamaño L. La Mini DV tiene versiones de 30, 60 y 80 minutos. Las
M y L tienen duraciones que van desde 12 a 384
minutos -siempre dependiendo de si se trata de
DV, DVCAM, ProfessionalDV o DVCPRO-. Algo para
tener en cuenta con el formato de cinta, es que no
hablamos de 1/2”, como el VHS o el Betacam, sino
de una cinta mucho más sencilla, menos gruesa,
con un transporte mucho más frágil, pero que
funciona a una velocidad asombrosa. Esto nos
obliga a tratar las cintas con especial cuidado. Uno
de los causantes de más roturas de grabadoras de
mesa y cámaras es la falta de delicadeza para
insertar las cintas. En el caso de las grabadoras de
mesa, el servo de arrastre está centrado, de modo
tal que para insertar la cinta hay que presionar exclusivamente en el centro, y nunca tomarla por
los bordes o los costados para meterla en la grabadora. Es notable la cantidad de equipos -en
especial los más económicos- que se han destruido por esta falta de cuidado.

El éxito de este formato y la búsqueda de nuevos soportes ha llevado a JVC, Sony, Panasonic y
otros fabricantes a desarrollar nuevas posibilidades de grabación. DV se graba sobre un disco duro
portátil, en la propia cámara o en un estacionario. Sony ha creado la gama XDCAM, que utiliza el
Professional Disc como soporte. Se trata de un disco Blu-ray con capacidad para 23 GB. XDCAM
soporta los formatos DVCAM y MPEG IMX. Panasonic apuesta por la tarjeta de memoria con el
modelo P2, un tipo de PCMCIA que aloja en su interior cuatro memorias SD.

Las cámaras pueden llevar a la vez varias memorias e intercambiarse sobre la marcha. El nuevo
formato XDCAM EX funciona con un tipo en particular de XpressCard, de 54 pines, y también
puede registrar en este formato.

En el medio informático, hay una inconsistencia importante de destacar: el orden de los campos.
Este es un formato que se comporta diferente en NTSC que en PAL. De hecho, incluso el subm-
uestreo de color es distinto, como decíamos, 4:1:1 para NTSC y 4:2:0 para PAL -siendo este último
sensiblemente más eficiente- Además, en NTSC el video entrelazado funciona con el campo
inferior primero, mientras que en PAL, tradicionalmente funciona con el campo superior primero.
(ver en el glosario: entrelazado)

El problema es que el DV se ha extendido tanto que existe un códec genérico para DV, el Microsoft
DV, que considera el DV como campo inferior primero en todos los casos. La confusión llega a la
hora de utilizar un equipo con Microsoft Windows que tiene además algún hardware de video -
Matrox, Canopus, Grass Valley, BlackMagic, Aja, Pinnacle o cualquier otro), y entonces nos
encontramos con que los archivos DV producidos con la placa tienen el campo superior primero, y
los archivos DV producidos directamente por IEEE 1394 a la máquina tienen el campo inferior
primero. Ahora: numeremos los campos en un segundo de video:
Cuadro 1: campo 0, campo 1

Cuadro 2: campo 0, campo 1

Cuadro 3: campo 0, campo 1... y así.

Si reproducimos este archivo con los campos


incorrectamente establecidos, nos encontramos
con lo siguiente:

Cuadro1: campo 1, campo 0

Cuadro 2: campo 1, campo 0

Cuadro 3: campo 1, campo 0.

El problema es que esto en algún momento fue registrado en la cinta. Un campo registrado en la
cinta tiene la información de 1:50, un cincuentavo de segundo. Con dos campos consecutivos,
tenemos un cuadro, es decir, 1:25 (recordemos que PAL va a 25 cuadros por segundo). De esta
manera, las dos imágenes complementarias que componen un cuadro no son simultáneas en el
tiempo, sino que tienen un cincuentavo de diferencia entre una y otra. Esto es lo que hace que un
objeto en movimiento veloz se vea en distinta posición en el campo 0 y en el campo 1. Si nosotros
reproducimos esta secuencia de cuadros invirtiendo de a pares, nos encontraremos con el
siguiente problema:

con los campos correctos: 1 2 3 4 5 6 7 8

con los campos incorrectos: 2 1 4 3 6 5 8 7

Esto quiere decir que entre el segundo campo del primer cuadro y el primer campo del segundo
cuadro hay una distancia de 3:50, o sea, un cuadro y un campo, y esta información que
desapareció aparece luego, en el siguiente campo. El resultado es una persona que camina y
descamina, vibrando en el tiempo constantemente, como si temblara violentamente. Por esto es
importante que a la hora de interpretar y producir materiales para reproducir a través de un
hardware (Squid, Pinnacle, Matrox, etc...) tengamos muy en cuenta el orden de los campos a la
hora de generar el material, porque caso contrario nos encontraremos con la frustrante situación
de una imagen que temblequea de modo incontrolable.
Los formatos basados en MPEG-2.

Existen varios formatos de video digital, tanto hogareño como profesional, tanto en cinta como en
formatos de estado sólido, como en formatos informáticos, que están basados en MPEG-2.
Definamos muy simplificadamente el funcionamiento de estos formatos.

MPEG-2 es un estándar industrial que define ciertos parámetros para definir formatos de video.
Todos los "sabores” de MPEG-2 tienen en común una misma secuencia de algoritmos de
compresión, y tienen como diferencia la manera en que se implementan. Por ejemplo, el video en
MPEG-2 en concordancia con DVD genera un stream de video con tres tipos de cuadros: cuadros I
(cuadros enteros, que se guardan completos), cuadros P (cuadros que almacenan sólamente la
diferencia predecible entre el cuadro actual y el anterior) y cuadros B (iguales a los P pero
bidireccionales, también predicen hacia el futuro). Este tipo de compresión se llama compresión
temporal.

Por añadidura a la compresión espacial -que


es qué tanto descarta de la imagen real para
almacenar en un cuadro de video realiza una
compresión temporal: el resultado es un
stream de video que sólo tiene sentido si uno
tiene una cantidad mínima de cuadros, que
tiene que contener al menos un i-frame, un
cuadro sin compresión temporal, para
comparar con el resto. Esta cantidad mínima
de cuadros se llama GOP (GOP = Group Of

Pictures o grupo de imágenes). La estructura GOP varía de formato a formato, y puede ser IP
(cuadros I y cuadros P) o IBP (como en el caso del DVD). Como todos los formatos basados e MPEG
no hay un tamaño libre, sino que tiene que restringirse a ciertos tamaños de cuadro de acuerdo
con el formato. La velocidad de cuadros puede ser de 23,96, 24, 25, 29,97, 30, 50, 60 o variable,
siempre dependiendo de qué clase de MPEG-2 estemos utilizando. Por lo general, en formatos de
definición standard (SD) sólo hay 25 o 29,97. Los formatos basados en MPEG-2 de alta definición
tienen más flexibilidad, en parte porque fueron desarrollados más recientemente.

El MPEG-2 puede ser tanto entrelazado como progresivo (con campos o sin campos) En el caso del
escaneo progresivo, la escala se basa en un único campo por cuadro.

La imagen del vídeo es separada en dos partes: luminancia (Y) y crominancia (también llamadas
señales de diferencia de color U y V) a su vez, son divididos en “Macrobloques” los cuales son la
unidad básica dentro de una imagen. Cada macrobloque es dividido en cuatro bloques de 8X8
píxeles de luminancia. El número de bloques de crominancia 8X8's depende del formato de color
de la fuente. Por ejemplo en el formato común 4:2:0 hay un bloque de croma por macro-bloque
por cada canal haciendo un total de seis bloques por macro-bloque.

En el caso de los cuadros I, la verdadera información de imagen pasada a través del proceso
codificador descrito abajo, los cuadros P y B primero son sujetos a un proceso de “compensación
de movimiento”, en el cual son correlacionados con la imagen previa (y en el caso del cuadro B, la
siguiente). Cada macro-bloque en la imagen P o B es entonces asociada con un área en la imagen
previa o siguiente que este bien correlacionada con alguna de éstas. El “vector de movimiento”
que mapea el macrobloque con su área correlacionada es codificado, y entonces la diferencia
entre las dos áreas es pasada a través del proceso de codificación descrito abajo. Cada bloque es
procesado con un algoritmo que se llama “transformación de coseno discreta” (DCT). El
coeficiente DCT resultante es entonces cuantificado de acuerdo a un esquema predefinido,
reordenado a una máxima probabilidad de una larga hilera de ceros, y codificado.
Finalmente, se aplica un algoritmo de codificación Huffman de tabla fija, conocido como Run
length encoding, para los amigos, RLE. Insisto, esto es información solamente, nos ayuda a saber
qué se puede hacer con este material y qué no.

Los cuadros I codifican redundancia espacial: de dos píxeles idénticos o con cierto márgen de
tolerancia dentro del mismo cuadro, almacenan uno, mientras que los cuadros B y P codifican
redundancia temporal: de dos píxeles predeciblemente iguales entre distintos cuadros adyacentes,
almacenan uno. Esto quiere decir que hay cuadros que no se almacenan completamente: los
cuadros B y P pueden almacenar mucha menos cantidad de información que los I. Estos sólo
tienen sentido por comparación con el cuadro I inmediato anterior, de modo que el resultado es
un formato que es difícil de editar y consume mucho proceso informático para reconstruir en
tiempo real información que no está completamente almacenada. Debido a que los marcos
adyacentes son a menudo similares, los cuadros P pueden ser del 10% del tamaño de un cuadro I,
y el cuadro B al 2% de su tamaño.

La estructura GOP se determina en gran parte por la circunstancia de uso. El DVD, por ejemplo,
utiliza en PAL 12 cuadros por GOP, o sea que sólo hay un cuadro I cada 12, pero no se espera que
se edite en este formato. La calidad de compresión puede variar, y con ella lo que se altera es qué
tan similar tiene que ser un grupo de píxeles a otro para que se considere redundante y no se
almacene: cuanto más similar, más compresión y menos calidad, porque hay una suerte de
"redondeo” en las variables, especialmente en el color. Para el DVD, la velocidad de datos puede ir
de 1,5 a 10,4 Mbps (megabits por segundo) En la práctica, difícilmente superen los 7 Mbps. Esta
tasa de datos puede ser constante (CBR - constant bitrate) o variable (VBR - variable bitrate).

Estos datos nos dicen que un DVD no es un formato apropiado para edición, y debe ser convertido
a un formato más apropiado para poder ser incluido en un proyecto de edición sin comprometer
seriamente la estabilidad y el rendimiento del proyecto. Este proceso previo se llama comúnmente
"legalización de materiales”.

Un stream MPEG-2 puede incluir también audio en formato MPEG layer 2 o MPEG layer 3 LSF, e
incluso una codificación 5.1 compatible con Dolby Digital. También puede tener audio almacenado
directamente como streams Dobly Digital, DTS, LPCM y AC3

Algunas restricciones del DVD:

Resolución de Video:

 NTSC (USA, Japón) Pixels

o 720 x 480

o 704 x 480

o 352 x 480

o 352 x 240

 PAL (Europa) Pixels

o 720 x 576

o 704 x 576

o 352 x 576

o 352 x 288
 Velocidad de cuadros
o 59.94 campos/s

o 50 campos/s

o 23.976 cuadros/s (con banderas de 3:2)

o 29.97 cuadros/s (NTSC)

o 25 cuadros/s (PAL)

El MPEG2- Iframe.
Como formato más de archivo que de distribución se utiliza una versión de MPEG-2 iframe only,
esto es, no tiene compresión temporal, tiene muy buena calidad y es perfectamente reeditable.
Muchos sistemas de emisión en canales, como el Squid, tienen este formato para ingesta y
emisión de contenidos. Sólo tiene cuadros I, y resulta aceptable con velocidades de datos desde 6
Mbps en adelante, con un tope superior sólo limitado por la capacidad del equipo de
descomprimir y reproducir en tiempo real el stream de video. También funciona con un
submuestreo de color de 4:2:0

Otros formatos MPEG-2.


Hay canales en Argentina que han optado para librería y distribución por un formato de Sony, el
Betacam SX, que está basado en MPEG-2 a 18 Mbps, 4:2:2. Si bien aún hoy Pramer y América TV
almacenan y emiten en este formato, lo cierto es que está discontinuado y ya no se fabrica. Por
encima de esto, Sony desarrolló un formato muy impresionante, que sin embargo prácticamente
se discontinuó en favor de los formatos de alta definición. Se siguió utilizando como codec en el
formato XDCAM SD. Se trata, o trataba, de un formato de cinta compatible con el Betacam, que
almacenaba datos en MPEG-2 iframe a 30, 40 y 50 Mbps.
El MPEG4

Es un estándar o una serie de estándares y formatos para la transmisión simultánea de audio y


video. En lo que a los formatos multimedia respecta, existen numerosas implementaciones del
estándar, que abarcan desde video para Internet a formatos para emisión en telepuerto. Los
sistemas de televisión digital están basados en MPEG-4 o MPEG-2, igual que los sistemas de
transmisión satelital, aunque el MPEG-2 se está quedando levemente retrasado en el mundo de la
HDTV por la diferencia de eficiencia contra el MPEG-4.

El MPEG4 es un sistema de formatos bastante complejo pero nos afecta mucho en nuestra tarea
diaria, así que intentaremos al menos hacer una breve descripción muy simplificada de los
formatos involucrados y su implementación para que no nos tome desprevenidos en un futuro.

Formato multiparte.

MPEG-4 está formado por varios estándares, llamados "partes”, que incluyen:

* Parte 1 (ISO/IEC 14496-1): Sistemas: Describe la sincronización y la transmisión simultánea de


audio y vídeo.

*Parte 2 (ISO/IEC 14496-2): Visual: Un códec de compresión para elementos visuales (video,
texturas, imágenes sintéticas, etc.).

Uno de los muchos perfiles definidos en la Parte 2 es el Advanced Simple Profile (ASP).

*Parte 3 (ISO/IEC 14496-3): Audio: Un conjunto de códecs de compresión para la codificación de


flujos de audio; incluyen variantes de Advanced Audio Coding (AAC) así como herramientas de
codificación de audio y habla.
*Parte 4 (ISO/IEC 14496-4): Conformidad: Describe procedimientos para verificar la conformidad
de otras partes del estándar.

*Parte 5 (ISO/IEC 14496-5): Software de referencia: Formado por elementos de software que
demuestran y clarifican las otras partes del estándar.

*Parte 6 (ISO/IEC 14496-6): Delivery Multimedia Integration Framework (DMIF).

*Parte 7 (ISO/IEC 14496-7): Software optimizado de referencia: Contiene ejemplos sobre cómo
realizar implementaciones optimizadas (por ejemplo, en relación con la Parte 5).

*Parte 8 (ISO/IEC 14496-8): Transporte sobre redes IP: Especifica un método para transportar
contenido MPEG-4 sobre redesIP

* Parte 9 (ISO/IEC 14496-9): Hardware de referencia: Provee diseños de hardware que


demuestran implementaciones de otras partes del estándar.

* Parte 10 (ISO/IEC 14496-10): Advanced Video Coding (AVC): Un códec de señales de vídeo
técnicamente idéntico al estándar ITU-T H.264.

* Parte 12 (ISO/IEC 14496-12): Formato para medios audiovisuales basado en ISO: Un formato de
archivos para almacenar contenido multimedia.

* Parte 13 (ISO/IEC 14496-13): Extensiones para el manejo y protección de Propiedad Intelectual


(IPMP).

*Parte 14 (ISO/IEC 14496-14): Formato de archivo MPEG-4: El formato de archivo de contenedor


designado para contenidos MPEG-4; basado en la Parte 12.

*Parte 15 (ISO/IEC 14496-15): Formato de archivo AVC: Para el almacenamiento de vídeo Parte 10,
basado en la Parte 12.

*Parte 16 (ISO/IEC 14496-16): Animation Framework eXtension (AFX).

*Parte 17 (ISO/IEC 14496-17): Formato de subtítulos (en elaboración - el último avance en su


revisión data de enero de 2005).

*Parte 18 (ISO/IEC 14496-18): Compresión y transmisión como flujo de fuentes tipográficas (para
fuentes OpenType).

*Parte 19 (ISO/IEC 14496-19): Flujos de texturas sintetizadas.

*Parte 20 (ISO/IEC 14496-20): Representación liviana de escenas (LASeR).

*Parte 21 (ISO/IEC 14496-21): Extensión de MPEG-J para rendering (en elaboración - el último
avance en su revisión data de enero de 2005).
También es posible definir perfiles a nivel de las partes, dado que una implementación de una
parte no necesariamente contiene toda esa parte.

No todas las partes del MPEG4 tienen una gran importancia para nosotros, de hecho, sólo
relevaremos las principales características del formato, y de las partes

H.264/MPEG-4 AVC o Parte 10.


H.264 o MPEG-4 parte 10 es una norma que define un códec de vídeo de alta compresión. La
intención del proyecto H.264/AVC fue la de crear un medio de transmitir buena calidad con menor
velocidad de datos (bitrate) sin complejizar demasiado la parte computacional. El resultado fue
una implementación de mejor rendimiento que MPEG-2, H.263 o MPEG-4 parte 2.

Características.

El uso inicial del MPEG-4 AVC estuvo enfocado hacia el vídeo de baja calidad para
videoconferencia y aplicaciones por Internet, basado en 8 bits/muestra y con un muestreo de
color de 4:2:0. Un año más tarde se desarrolló un perfil mayor, editable y con una tasa de datos
más alta.

Este conjunto de extensiones denominadas de “perfil alto” son:

* La extensión High que soporta 4:2:0 hasta 8 bits/muestra

* La extensión High-10 que soporta 4:2:0 hasta 10 bits/muestra

* La extensión High 4:2:2 que soporta hasta 4:2:2 y 10 bits/muestra

* La extensión High 4:4:4 que soporta hasta 4:4:4 y 12 bits/muestra y la codificación de


regiones sin pérdidas.

H.264/MPEG-4 AVC no supone una gran tecnología con respecto a las implementaciones
anteriores, y sin embargo es sustantivamente más eficiente. Las diferencias se pueden encontrar a
pequeña escala sobre el principio general de codificación (predicción, transformación,
cuantificación, etc.). La clave de todo ello es la menor cuantia de informacion que se necesita
almacenar en los videos codificados mediante este codec.

Podemos encontrar los mismos tipos de cuadro que en las normas precedentes (cuadros I, P y B ) y
dos nuevas, la SP (Switching P) y la SI (Switching I) que sirven para codificar la transición entre dos
streams de video. Son una evaluación intermedia de un iframe, de modo tal de mejorar los
cambios de escena y pasar de una toma a otra recalculando menor cantidad de información.
Además del DCT, incluye compensación de movimiento, una función que permite modificar el
tamaño de los macrobloques cuando el movimiento es mayor, y a macrobloques más pequeños,
mejor definición del movimiento. El DCT que aplica es más preciso que el de MPEG-2, porque se
basa en macrobloques más pequeños y no tiene problemas de redondeo. También incorpora un
filtro de “deblocking”, un filtro antibloques que mejora la eficacia de compresión y la calidad visual
de las secuencias de vídeo eliminando efectos indeseables de la codificación como por ejemplo el
efecto de bloques. Un ejemplo clásico de aberración de bloques es cuando vemos en una película
por cable un relámpago en la noche, por ejemplo, y vemos como si la imagen estuviera formada
por mosaicos. En realidad, es así, sólo que no debería apreciarse los macrobloques. Esto es porque
si no estamos en un iframe, nos encontramos con un cambio brusco que el codec no llega a
interpretar perfectamente. Por último, tiene un proceso de codificación entrópica, que explora la
lectura del macrobloque en zig zag, para leerlo en dos sentidos inversos y comparar mejorando la
resolución de cada pasada. Esta codificación interna, entrópica, puede ser la UVLC, que se usa para
las cabeceras, y otras dos, VLC y CAVLC, se usan para coeficientes, vectores de movimiento.

Una implementación muy importante de este MPEG-4 es el Panasonic P2, que utiliza el AVC-
INTRA, que es un codec de alta definición, dentro de un contenedor MXF y que es iframe, de modo
que sólo almacena cuadros completos, llegando a una definición de hasta 100 Mbits por segundo.

Estructuras de carpeta de una memoria P2


HDTV.
Este codec se utiliza entre otras cosas para el sistema de HDTV a implementarse en nuestro país, el
SBTVD (en portugués, Sistema Brasileiro de Televisao Digital, en español Sistema Brasileño de
Televisión Digital), también denominado ISDB-Tb (ISDB-T Built-in) o ISDB-T International es un
estándar de televisión digital, basado en el sistema japonés ISDB-T, que inicio sus servicios
comerciales y públicos el 2 de diciembre de 2007 en Brasil.

Se diferencia básicamente de la norma japonesa por el uso del códec MPEG-4 (H.264) para
compresión de vídeo estándar en lugar de MPEG-2 como en ISDB-T, compresión de audio con HE-
AAC, modulación en (BST-OFDM-TI), presentación de 30 cuadros por segundo incluso en
dispositivos portátiles, a diferencia de los 15 cuadros por segundo para equipos móviles en la
norma ISDB-T e interacción utilizando el middleware o software de soporte de aplicaciones
distribuidas o intermediario, desarrollado en Brasil y denominado Ginga, compuesto por los
módulos Ginga-NCL, usado para exhibir documentos en lenguaje NCL y Ginga-J para aplicaciones
escritas en lenguaje Java. Esto ocasiona que los receptores ISDB-T no sean compatibles con las
señales desarrolladas para la norma ISDB-Tb, aunque éstos últimos si son compatibles con los de la
versión original. Además, es posible utilizar SBTVD/ISDB-Tb en 6 Mhz, 7 MHz o 8 MHz si es
requerido porque el sistema es totalmente compatible.

SBTVD fue desarrollado por un grupo de estudio coordinado por el Ministerio de Comunicaciones
y liderado por la Agencia Brasileña de Telecomunicaciones, con el apoyo del Centro de
Investigación y Desarrollo (CPqD). El grupo de estudio estuvo integrado por miembros de otros
diez ministerios brasileños, el Instituto de Tecnología de la Información de Brasil (ITI), varias
universidades brasileñas, organizaciones profesionales de radiodifusión, y los fabricantes de
dispositivos de emisión y recepción. El objetivo del grupo era desarrollar y aplicar un estándar en
Brasil, abordando no sólo cuestiones técnicas y económicas, sino también, y principalmente el
tema de la "inclusión digital” para quienes viven al margen de la actual "sociedad de la
información”. De hecho, en Brasil más del 94% de las familias tiene por lo menos un televisor.

El protocolo para la cooperación técnica con Argentina fue cerrado el 28 de agosto de 2008, el
siguiente paso fue formalizar un acuerdo de los Ministros de Comunicaciones de Brasil, Helio
Costa, y el vecino país de Planificación, Julio De Vido. Este es el paso más importante para que la
Argentina adopte el sistema brasileño de TV digital, con tecnología japonesa. "Brasil está dispuesto
a firmar, ahora depende de Argentina. Ya concluimos la parte técnica” dijo entonces una alta
fuente del gobierno brasileño. Los términos del protocolo técnico con la Argentina proporcionan
un sistema único para ambos países y un intercambio de tecnologías de la información y el uso de
equipos científicos y las plantas. Habrá formación de científicos y otros investigadores.

El acuerdo proporciona el montaje de empresas mixtas para la producción de bienes de


electrónica de consumo. En virtud de un punto de vista técnico, esto es como una "fuerte entre los
dos países y debe ser desarrollado en el contexto del Mercosur. El mercado es muy grande,
porque Brasil tiene 52 millones de hogares con TV abierta y la Argentina, unos 13 millones, cifras
atractivas para cualquier fabricante.

A fines de agosto de 2008, el Ministro de Planificación estuvo en Brasil, acompañado por el


secretario de Comunicaciones, Lisandro Salas, donde mantuvo reuniones con la ministra de la Casa
Civil, Dilma Rousseff, respecto del sistema.

En septiembre de 2008 una misión japonesa desembarcó en la Argentina para reunirse con
representantes de medios locales. Las planas directivas de El Trece, América 2 y Canal 9 se
reunieron con los japoneses.

En octubre de 2008, una misión argentina que reunió a cinco ministros visitó al Primer Ministro
Taro Aso en Japón y firmaron convenios de cooperación técnica. Después de cinco días de
fructífero viaje regresaron a la Argentina.

A partir del 15 de enero de 2009, Televisión Pública, Canal 7 de Buenos Aires ya realiza pruebas
experimentales 24 horas al día, probando la señal digital móvil según fuentes del COMFER (Comité
Federal de Radiodifusión)

El 23 de abril de 2009, conocida ya la adopción de Perú del estándar japonés-brasileño, la


Presidente Cristina Fernández luego de una reunión con el Presidente de Brasil Luiz Ignacio Lula da
Silva en Buenos Aires, anunció que Argentina está más cerca de adoptar el sistema de ISDB-T, pero
desea que parte de la tecnología para ponerlo en funcionamiento se fabrique en el país.

El 26 de agosto de 2009 el Ministro de Comunicaciones de Brasil, Hélio Costa, anuncio que el


secretario de Comunicaciones argentino, Lisandro Salas, le confirmó la decisión de Argentina que
adoptó la norma de TDT vigente en Brasil ISDB-Tb.[25] Esto se hizo oficial el viernes 28 de agosto
de 2009 en Bariloche en el marco de la Cumbre Unasur cuando la Presidente de Argentina, Cristina
Fernández de Kirchner y el Presidente de Brasil, Luiz Inacio Lula da Silva anunciaron el acuerdo
entre ambos países: “Es una inmensa satisfacción saber que el gobierno de Argentina decidió
optar por la norma, aporta un componente tecnológico fundamental para la alianza entre nuestros
países. Adoptar un sistema de tv digital en común permite sembrar la semilla de un polo
tecnológico regional”, dijo el presidente brasileño. “Japón aportará tecnología y no cobrará
regalías por este trabajo en conjunto. Apuntamos a romper el cerco tecnológico entre los países
emergentes y los desarrollados. Este acuerdo nos ha llevado cuatro largos años pero vale la pena”,
declaró Cristina Fernández. El gobierno argentino firmó 2 convenios: con el gobierno de Japón y
con el brasileño, creando un Consejo a nivel gubernamental y Foro Consultivo del sector privado
para hacer el seguimiento de la puesta en marcha de la norma.

El 1 de septiembre de 2009 se aprobó mediante Decreto Presidencial la creación del Sistema


Argentino de Televisión Digital Terrestre (SATVD-T) el que será desarrollado en base al estándar
ISDB-T internacional. También se estableció un lapso de 10 años para completar la transición de la
televisión analógica a la digital.
H.263 o Parte 2.

Para concretar los diversos rangos de aplicación del estándar, desde la baja calidad, como cámaras
de baja resolución, hasta la televisión de alta definición y los DVD, las diferentes herramientas de
codificación del estándar se agrupan, según sus características, en perfiles y niveles. La Parte 2 de
MPEG-4 tiene unos 21 perfiles, entre los que se encuentran: Simple, Advanced Simple, Main, Core,
Advanced Coding Efficiency, Advanced Real Time Simple, etc. Los perfiles más utilizados son los de
Advanced Simple y Simple, que es una parte del anterior. La mayoría de los planes de compresión
de vídeo estandarizan la trama de bits, e implícitamente el decodificador, dejando el diseño del
codificador a implementaciones individuales. De esta manera, las implementaciones para un perfil
en particular (como Xvid o DivX, que son implementaciones del perfil Advanced Simple) son todas
técnicamente iguales en el lado del decodificador. Una posible comparación a esto la encontramos
en un archivo MP3 que puede ser reproducido en cualquier reproductor de MP3, sin importar si ha
sido creado con iTunes, Windows Media Player, LAME o el codificador más común, Fraunhofer.

El Flash Video (FLV).

FLV (Flash Video) es un formato de archivo propietario usado para transmitir video sobre internet
usando Adobe Flash Player (anteriormente conocido como Macromedia Flash Player), desde la
versión 6 a la 10. Los contenidos FLV pueden ser incrustados dentro de archivos SWF. Entre los
sitios más notables que utilizan el formato FLV se encuentran YouTube, Google Video, Reuters.
com, Yahoo! Video y MySpace.

Flash Video puede ser visto en la mayoría de los sistemas operativos, mediante Adobe Flash
Player, el plugin extensamente disponible para navegadores web, o de otros programas de
terceros como MPlayer, VLC media player, o cualquier reproductor que use filtros DirectShow
(tales como Media Player Classic, Windows Media Player, y Windows Media Center) cuando el
filtro ffdshow está instalado.
Los archivos FLV contienen bit streams de video que son una variante del estandar H.263, bajo el
nombre de Sorenson Spark. Flash Player 8 y las nuevas versiones soportan la reproducción de
video On2 TrueMotion VP6. On2 VP6 puede proveer más alta calidad visual que Sorenson Spark,
especialmente cuando se usa un bit rate menor. Por otro lado es computacionalmente más
complejo y por lo tanto puede tener problemas al utilizarse en sistemas con configuraciones
antiguas.

El archivo FLV soporta dos nuevas versiones del llamado códec “screenshare” que es un formato
de codificación diseñado para screencasts. Ambos formatos están basados en mapas de bits y
pueden tener pérdida al reducir la profundidad de color y están comprimidos usando zlib. La
segunda versión es reproducible en el Flash Player 8 o superior.

Existen reproductores gratuitos de FLV, tanto para instalar como para disfrutar en línea.
MP4
Existe una implementación genérica, impulsada por Apple, que es el mp4 y el m4a, formato este
último de preferencia para competir con mp3 y en el que se almacena el audio en iTunes.

YouTube utiliza MP4 para almacenar los archivos de alta definición, por su excelente relación
entre el tamaño del archivo, la velocidad de datos y la calidad en pantalla.

Si algo hay que acotar respecto del MPEG-4, es que cualquier deficiencia en el material de origen
será amplificada cruelmente por el codec a la hora de comprimir el video. Así, una película
codificada en H.264 (como por ejemplo, un BluRay original de Disney) tiene una calidad
espectacular, mientras que si nosotros compramos el DVD en MPEG-2 y lo recodificamos en H.264,
nos vamos a encontrar con que se ve bastante feo.

XDCAM EX, una de las versiones de HD de Sony utiliza archivos mp4, pero curiosamente, sólo
como contenedor. En realidad, el contenido del archivo es un MPEG-2 de GOP largo, que se puede
editar pero no en forma nativa, y requiere render para poder ser transmitido en SD.

Otra característica importante es que el material en MP4, H.264, FLV, WMV y demás sabores del
MPEG-4 con la excepción del AVC-intra de Panasonic, no sirven para ser editados, y es necesario
legalizarlos primero pasando por un software de conversión como Adobe Media Encoder o
Canopus Procoder. Aún cuando Combustion, Final Cut, Premiere, Edius o After Effects no
protesten cuando reciben un mp4, esto no quiere decir que no estemos comprometiendo la
estabilidad y la seguridad del proyecto, por no hablar de la precisión al editar y de la velocidad de
trabajo. Así que los productores tendrán que cuidarse de no entregar material de archivo en MP4
a los editores, y los editores de no usarlo así como viene a la hora de editar.
Anexo:Formatos de compresión multimedia

Formatos de compresión multimedios

ISO/IEC/MPEG: MPEG-1 | MPEG-2 | MPEG-4 | MPEG-4/AVC | ITU-T: H.261 |


Compresión de H.262 | H.263 | H.264 | SMPTE: VC-1
video Otros: AVS | Dirac | Indeo | MJPEG | RealVideo | Theora | VP7 | WMV | Xvid
| DivX | AAC

ISO/IEC/MPEG: MPEG-1 Audio Layer 3 (MP3) | MPEG-1 Audio Layer 2 (MP2)


| AAC | HE-AAC
Compresión de ITU-T: G.711 | G.722 | G.722.1 | G.722.2 | G.723 | G.723.1 | G.726 | G.728 |
audio G.729 | G.729.1 | G.729a
Otros: AC3 | ATRAC | FLAC | iLBC | Monkey's Audio | Musepack | RealAudio
| SHN | Speex | Vorbis | WavPack | WMA

Compresión de ISO/IEC/ITU-T: JPEG | JPEG 2000 | JPEG-LS | JBIG | JBIG2


imágenes Otros: BMP | GIF | ILBM | PCX | PNG | TGA | TIFF | WMP

3GP | ASF | AVI | FLV | Matroska | MP4 | MXF | NUT | Ogg | Ogg Media |
Contenedor
QuickTime | RealMedia
multimedia
Solo audio: AIFF | AU | WAV

También podría gustarte