Está en la página 1de 7

FORMATOS DE VIDEO DIGITAL

INTRODUCCIÓN

Los formatos de video han evolucionado desde el formato de color de la


definición estándar desarrollado por NTSC a finales de la década de 1940. Este
estándar estableció el barrido entrelazado y la codificación del color compuesto. Más
tarde, se desarrollaron las grabadoras de videocinta. El ritmo de los nuevos formatos
se ha acelerado.
La televisión analógica está siendo reemplazada por los formatos digitales, a
pesar de que el compuesto analógico es el formato de entrega mas utilizado para los
receptores terrestres. El estándar de definición es el BT601; este establece las reglas
de la estructura de muestreo que vemos en la compresión MPEG.
La captura digital es una gran ventaja para el streaming: hay menos ruido que
en los sistemas analógicos. Esto proporciona una mejor calidad de imagen a una
velocidad de bits determinada. El codec de compresión y el ruido no se mezclan.
Los formatos de televisión domésticos están cambiando a estándares de alta
definición, hasta alcanzar las 1080 líneas. La cinematografía electrónica está
adoptando una velocidad de frame de 24 para ser compatible con los filmes. Por tanto,
hay una variedad creciente de estándares y formatos de cinta.

VIDEO DIGITAL

La integración completa del vídeo en las computadoras elimina el vídeo


analógico de televisión de las plataformas de distribución multimedia. Si un vídeo clip
se graba como datos en el disco rígido, en un CD-ROM y otro medio de
almacenamiento masivo, dicho clip podrá ser reproducido en el monitor de la
computadora sin necesidad de tarjetas de superposición, reproductores de vídeo disco
ni monitores adicionales. Esta reproducción del vídeo digital se consigue usando
arquitecturas de software como QuickTime o AVI. Como productor o desarrollo
multimedia, es posible que necesite convertir material original de vídeo de su formato
analógico (en cinta de video), todavía común, a un formato digital que sea
manipulable por el sistema informático del usuario final.
La conversión a vídeo digital puede realizarse utilizando hardware de
superposición como el que hemos descrito anteriormente, o bien pasando la
información directamente al disco usando cables FireWire. Para digitalizar
repetidamente una imagen de vide en color cada 1/30 segundos y guardarla en el
disco o en la RAM, requiere un hardware especial, firmware de compresión y
cantidades masivas de espacio de almacenamiento.

1
COMPRESIÓN DE VIDEO

Para digitalizar y almacenar un clip de vídeo de 10 segundos en la computadora


se requiere la transferencia de una enorme cantidad de datos en un espacio de tiempo
breve. La reproducción de un fotograma individual de video digital a 24 bits requiere
casi 1 MB de datos; 30 segundos de video llenarían un gigabyte del disco rígido. El
video a pantalla completa requiere que la computadora transmita datos a una
velocidad cercana a 30 MB por segundo. Este tremendo cuello de botella tecnológico
se supera usando distintos esquemas de compresión de video digital, o codecs
(codificadores/descodificadores). Un codec es el algoritmo que permite comprimir un
vídeo para su distribución y descodificarlo en tiempo real para conseguir una
reproducción rápida. Los algoritmos de compresión de video en tiempo real, como
MPEG, P*64, DVI/Indeo, JPEG, Cinepak, Soreson, ClearVideo, RealVideo y
DVOWave permiten comprimir información de vídeo digital en proporciones que
oscilan entre 50:1 y 200:1. Los esquemas de compresión JPEG, MPEG y P*64
utilizan Discrete Cosine Transform (DCT), un algoritmo de codificación que
cuantifica la capacidad del ojo humano para detectar distorsión en las imágenes y los
colores. Todos estos codecs utilizan algoritmos de compresión con pérdida.
Además de comprimir los datos de video, se están implementando tecnologías de
flujo capaces de proporcionar vídeo de una calidad razonable con un bajo ancho de
banda para el Web. Al iniciar la reproducción en cuanto hay una cantidad de datos
transferidos a la computadora del usuario para mantener la velocidad normal de
reproducción, los usuarios no han de esperar a que se descarguen los archivos
completos para comenzar a ver las imágenes. Microsoft, RealNetworks, Vxtreme,
VDOnet, Xing, Precept, Cubic, Motorola, Vivo, Vosaic y Oracle andan detrás de la
comercialización de la tecnología de flujo de vídeo para el Web.
QuickTIme, la arquitectura de software de Apple para la integración completa de
sonido, animación texto y vídeo (datos que cambian con el paso del tiempo), suele
verse como un estándar de compresión, aunque en realidad es mucho más que eso.

2
PRINCIPALES FORMATOS DE VIDEO

CCIR 601

CCIR 601 es la primera norma sobre la televisión digital, encargándose del


muestreo de la señal. Se aplica solamente en estudios, sin llevar a cabo ningún tipo de
compresión. Dicha norma, ha ido evolucionando desde que fue creada, en los años 80,
lo que hace interesante o imprescindible especificar la familia de parámetros a los
cuales hace referencia. Empezando por la relación de aspecto (4:3 ó 16:9) hasta el
submuestreo de las componentes de color que se aplica (4:4:4 ó 4:2:2). La norma
recomienda que sea usada como base para los estándares de codificación digital, por
los estudios de televisión en países que utilicen un sistema de 525 líneas y 625 líneas.

MPEG

El estándar MPEG ha sido desarrollado por el Moving Picture Experts Group,


que es un grupo de trabajo emanado de la Internet Standards Organization (ISO) y la
Internacional Electro-technical Comisión (IEC) con el objetivo de crear estándares
para la representación digital de películas animadas, junto con audio y otros datos
asociados. Su primera reunión fue en Mayo de 1988 en Ottawa, Canadá. Desde su
primera reunión, el MPEG ha crecido hasta incluir 350 miembros de distintas
industrias y universidades.
MPEG ha normalizado los siguientes formatos de compresión y normas
auxiliares:

• MPEG-1

Usando MPEG-1 se pueden conseguir 1,3 Mbps de vídeo y 250 Kbps en dos
canales de sonido usando tecnología CD-ROM. MPEG2, un sistema completamente
diferente de MPEG1, requiere tasa de transferencia mayores (de 3 a 15 Mbps), pero
ofrece una mejor resolución, calidad de imagen, formatos de video entrelazado,
escalabilidad de la resolución y características de audio multicanal.
MPEG-1 puede convertirse en el método estándar para codificar imágenes en
movimiento, debido a su amplia aceptación tanto en Internet como en DVD-Video.
Para MPEG1, es habitual encontrar en las placas base o en las tarjetas de video el
hardware que permite su reproducción. Los algoritmos de descompresión para
MPEG1, aunque son más lentos que las soluciones por hardware, están ya
incorporados en QuickTime y Microsoft ha licenciado un controlador de MediaMatics
para usarlo en Windows.

• MPEG-2

Es la designación para un grupo de estándares de codificación de audio y vídeo


acordado por MPEG (grupo de expertos en imágenes en movimiento), y publicados
como estándar ISO 13818. MPEG-2 es por lo general usado para codificar audio y
vídeo para señales de transmisión, que incluyen televisión digital terrestre, por satélite
o cable. MPEG-2. Con algunas modificaciones, es también el formato de codificación
usado por los discos SVCD´s y DVD`s comerciales de películas.

3
MPEG-2 es similar a MPEG-1, pero también proporciona soporte para vídeo
entrelazado (el formato utilizado por las televisiones.) MPEG-2 vídeo no está
optimizado para bajas tasas de bits (menores que 1 Mbit/s), pero supera en desempeño
a MPEG-1 a 3 Mbit/s y superiores.
MPEG-2 introduce y define Flujos de Transporte, los cuales son diseñados para
transportar vídeo y audio digital a través de medios impredecibles e inestables, y son
utilizados en transmisiones televisivas. Con algunas mejoras, MPEG-2 es también el
estándar actual de las transmisiones en HDTV. Un descodificador que cumple con el
estándar MPEG-2 deberá ser capaz de reproducir MPEG-1.
MPEG-2 audio, definido en la Parte 3 del estándar, mejora a MPEG-1 audio al
alojar la codificación de programas de audio con más de dos canales. La parte 3 del
estándar admite que sea hecho retro-compatible, permitiendo que descodificadores
MPEG-1 audio puedan descodificar la componente estéreo de los dos canales
maestros, o en una manera no retro-compatible, la cual permite a los codificadores
hacer un mejor uso del ancho de banda disponible. MPEG-2 soporta varios formatos
de audio, incluyendo MPEG-2 AAC.

• MPEG-3

MPEG-3, más conocido como MP3, es un estándar utilizado para audio que
utiliza tecnología de compresión de datos para reducir el espacio que ocupa en
memoria. Los codecs MPEG-1 y MPEG-2 fueron descontinuados luego de que se
globalizó este estándar. Era imposible conseguir la misma calidad de audio con otros
codecs diferentes a este, por lo que ha sido adoptado por casi todos los editores de
sonido.
Debe su nombre en honor a Martin Pablov y Edgard Gordon.

• MPEG-4

MPEG-4 se encuentra aún en fase de desarrollo y ofrecerá un nuevo método


basado en el contenido para asimilar los elementos multimedia. También ofrecerá no
sólo funciones de indexado, hipervínculos, consulta, explotación, carga, descargar y
borrado, sino también <<codificación de datos sintéticos y naturales híbridos>>, lo
que permitirá una integración armoniosa de los objetos audiovisuales sintéticos y
naturales. Con MPEG-4, es posible conseguir múltiples vistas, capas y pistas de
sonido para cada escena, así como vistas estereoscópicas en 3D, acercando el mundo
de la realidad virtual. MPEG-4 puede ajustarse a varias velocidades de descarga, y se
convertirá en el esquema preferido para la distribución de video en el Web.
El vídeo MPEG-4 pretende ofrecer tecnologías estandarizadas que permiten
almacenamiento, transmisión y manipulación eficiente de datos de vídeo en entornos
multimedia. Se trata de un auténtico desafío, dado el amplio espectro de requisitos y
aplicaciones existentes en multimedia. Para poder conseguir este ambicioso objetivo,
más que una solución para un pequeño conjunto de aplicaciones, se están
considerando funcionalidades comunes a grupos de aplicaciones. Por tanto, las
actividades de vídeo en MEPG-4 pretenden ofrecer soluciones en forma de
herramientas y algoritmos que aportará soluciones a las funcionalidades mencionadas,
además de muchas otras.

4
• MPEG-7

Con MPEG-7 se busca la forma de enlazar los elementos del contenido


audiovisual, encontrar y seleccionar la información que el usuario necesita e
identificar y proteger los derechos del contenido. MPEG-7 surge a partir del momento
en que aparece la necesidad de describir los contenidos audiovisuales debido a la
creciente cantidad de información. El hecho de gestionar los contenidos es una tarea
compleja (encontrar, seleccionar, filtrar, organizar... el material audiovisual).
MPEG-7 ofrece un mecanismo para describir información audiovisual, de manera
que sea posible desarrollar sistemas capaces de indexar grandes bases de material
multimedia (este puede incluir: gráficos, imágenes estáticas, audio, modelos 3D,
vídeo y escenarios de cómo estos elementos se combinan) y buscar en estas bases de
materiales manual o automáticamente.
El formato MPEG-7 se asocia de forma natural a los contenidos audiovisuales
comprimidos por los codificadores MPEG-1, MPEG-2 y MPEG-4, de todas formas,
se ha diseñado para que sea independiente del formato del contenido.
MPEG-7 se basa en el lenguaje XML de metadatos en un intento de favorecer la
interoperabilidad y la creación de aplicaciones, aunque para evitar un problema de
exceso de datos se ha creado un compresor llamado BIM (Binary Format for MPEG-
7). Este compresor presenta la ventaja de ser más robusto que XML ante los errores
de transmisión.

• MPEG-21

El estándar MPEG-21 presenta un marco de intercambio de contenido multimedia


legítimo, respetando los derechos de autor y distribución, adecuado también a las
capacidades de los usuarios en cada momento. Este estándar intenta solucionar
muchos problemas existentes hoy en día con la distribución de los contenidos
digitales, principalmente ilegales, con las redes de datos. La existencia de redes punto
a punto ponen en peligro, según las empresas del sector, el desarrollo y la producción
de contenidos.
Su propósito principal es el de establecer, de una manera clara, quiénes son los
participantes de la transacción dentro de un mercado digital, en el que lo bienes no
son más que datos binarios.
La base fundamental en la que se sostiene MPEG-21 es la definición del término
de objeto digital. Estos objetos serán los bienes con los que se comerciará dentro del
mercado establecido en la red MPEG-21. Además se especifica diferente información
como los derechos de propiedad intelectual y de utilización que tiene cada usuario
sobre los objetos digitales disponibles.
El propósito de MPEG-21 es definir un marco abierto para el envío y consumo de
materiales multimedia para que todos los usuarios que intervengan en la cadena de
consumo puedan utilizar el servicio.

5
AVI

El formato AVI fue definido por Microsoft para su tecnología Video for
Windows en 1.992. Posteriormente fue mejorado mediante las extensiones de formato
del grupo OpenDML de la compañía Matrox. Estas extensiones están soportadas por
Microsoft, aunque no de manera oficial. Se conocen como AVI 2.0.

El formato avi permite almacenar simultáneamente un flujo de datos de video y


varios flujos de audio. El formato concreto de estos flujos no es objeto del formato

AVI y es interpretado por un programa externo denominado códec. Es decir, el


audio y el video contenidos en el AVI pueden estar en cualquier formato (AC3/DivX,
u MP3/Xvid, por ejemplo entre otros). Por eso se le considera un formato contenedor.
Para que todos los flujos puedan ser reproducidos simultáneamente es necesario que
se almacenen de manera entrelazada. De esta manera, cada fragmento de archivo tiene
suficiente información como para reproducir unos pocos fotogramas junto con el
sonido correspondiente. Obsérvese que el formato AVI admite varios flujos de datos
de audio, lo que en la práctica significa que puede contener varias bandas sonoras en
varios idiomas. Es el reproductor multimedia quien decide cuál de estos flujos debe
ser reproducido, según las preferencias del usuario. Los archivos AVI se dividen en
fragmentos bien diferenciados denominados chunks. Cada chunk tiene asociado un
identificador denominado etiqueta FourCC. El primer fragmento se denomina
cabecera y su papel es describir meta-información respecto al archivo, por ejemplo,
las dimensiones de la imagen y la velocidad en fotogramas por segundo. El segundo
chunk contiene los flujos entrelazados de audio y video. Opcionalmente, puede existir
un tercer chunk que actúa a modo de índice para el resto de chunks.

M-JPEG

El Motion JPEG utiliza tecnología de codificación intracuadro, que es muy


similar en tecnología a la parte I-frame de los estándares de codificación como el
MPEG-1 y el MPEG-2, sin emplear la predicción intercuadro. La ausencia del uso de
la predicción intercuadro conlleva a una pérdida en la capacidad de compresión, pero
facilitando la edición de video, dado que se pueden realizar ediciones simples en
cualquier cuadro cuando todos estos son I-frames. Los formatos de codificación tales
como el MPEG-2 pueden ser también utilizados basándose meramente en este
principio para proveer capacidades similares de compresión y de edición.

6
Bibliografía:

• STREAMING DE VIDEO Y AUDIO, Editorial: Elsevier, Autor: David


Austerberry.

• MULTIMEDIA, Editorial: McGrawHill, Autor: Tay Vaughan.

• SITEMAS DE TELEVISIÓN, Editorial: McGrawHill, (Ciclos Formativos


de Grado Superior).

• www.wikipedia.com

También podría gustarte