Está en la página 1de 71

COMPRESIÓN DE VIDEO

COMPRESION DE VIDEO
COMPRESIÓN DE VIDEO

TITULACION FIEE: Ing. Luis Degregori C.


1. OBJETIVO

Almacenamiento eficiente de videos (para archivo


y transporte)
Reducir con eficacia el ancho de banda requerido
para transmitir vídeo a través de emisión terrestre,
a través de televisión por cable, a través de
servicios de televisión por satélite.

2 27/02/2020
Conceptos Preliminares
Percepción de las señales audiovisuales

Sistema Visual Humano (HVS)

¿Qué percibe nuestra vista, figuras y colores


visibles, intensidad de luz?

¿Cómo interpreta nuestro cerebro los estímulos


visuales?
Conceptos Preliminares

Sistema Visual Humano (HVS)

• La luz, el espectro visible.


• Fenómeno de la Visión
• El ojo humano
• Mezcla aditiva espacial. Agudeza Visual
• Mezcla aditiva temporal. Memoria Visual
Sistema Visual Humano – Respuesta
del Ojo
• “Sensación de luz”:
– Valoraciones empíricas/perceptuales
• Función de la frecuencia de la luz
• Función de la cantidad de luz
– Dos tipos de receptores en el ojo (bastones y conos)
– Visión Fotópica – Conos (luz suficiente, en TV)
– Visión Escotópica – Bastones (poca luz)

Bastones

Conos
Sistema Visual Humano – El Fenómeno de la Visión
Fuentes primarias o emisivas (aditivas)
[illuminating]
• Emisores de luz (e.g., sol, bombilla,
monitos TV)
• El color percibido depende de la
frecuencia de la
luz emitida
• Siguen ley aditiva
• R+G+B = White (Blanco)
Suma de “luces” generadas
Fuentes secundarias o reflectivas
(substractivas) [reflecting]
• Reflejan una luz incidente (e.g., pintura, tejido
teñido, papel impreso)
• El color percibido depende de la frecuencia de la
luz reflejada
• Frecuencias emitidas – frecuencias absorbidas
• Siguen ley substractiva
• R+G+B = Black (Negro)

Resta de “luces” absorbidas = Suma de “luces” reflejadas


La descripción RGB (del inglés Red, Green, Blue;
"rojo, verde, azul") de un color hace referencia a la
composición del color en términos de la intensidad
de los colores primarios con que se forma: el rojo,
el verde y el azul.
Es un modelo de color basado en la síntesis
aditiva, con el que es posible representar un color
mediante la mezcla por adición de los tres colores
luz primarios.
El rojo se obtiene con (255,0,0), el verde con
(0,255,0) y el azul con (0,0,255),
Una imagen se digitaliza con en conversor A/D; asi
un A/D de 1 bit, sólo podría asignar dos valores: 0
ó 1, presencia de luz o ausencia de ella.
Con un A/D de 8 bits generamos valores de 8
cifras, por lo que combinando ceros y unos
podemos obtener un total de 256 resultados que
equivalen a la cantidad de grises que el ojo
humano podra distinguir.
Con imagenes en color, los
dispositivos digitales vienen
equipados con conversores
de, por lo menos, 24 bits, esto
es, 8 bits para cada canal.
Con esta combinación de 24
números entre unos y ceros,
el resultado es de algo más de
16 millones de posibilidades
(colores) que nuestra visión
sera capaz de reconocer.
La crominancia es el componente de la señal
de vídeo que contiene las informaciones del color.
Por otra parte, la luminancia es el componente de
la señal de vídeo que contiene las informaciones
de la luz o brillo.
2.CONCEPTOS PREVIOS

La reducción de información (compresión) se basa en


eliminar información redundante o irrelevante
aprovechando técnicas de codificación: Intra-frame
(redundancia espacial) y Inter-frame (redundancia
temporal) en imágenes.

15 27/02/2020
3. EL VIDEO
¿Qué es el Video?
El video es la representación de la
visión.
El video es la captura de una
secuencia de imágenes de tal forma
que al ser proyectadas bajo ciertas
condiciones al sistema visual de un
ser humano, se produzca la sensación
de movimiento.
El video se basa en las características
de nuestro sistema visual.
3. EL VIDEO
¿Qué es el Video?
La Persistencia de la Visión

Es un principio establecido por el físico Joseph


Plateau que consiste en una "imperfección" del ojo
que provoca que la imagen se grabe en la retina
durante una fracción de segundo después de que
fue vista.

Por ejemplo cuando alguien nos toma una foto,


segundos después seguimos viendo el puntito
blanco del flash.

Cuando la luz es intensa el proceso es mayor, por


eso las salas de cine están a oscuras, la retina se
adapta a la oscuridad y la luminosidad de la pantalla
hace que la persistencia aumente.
3. EL VIDEO
¿Qué es el Video?
La persistencia de la visión es una propiedad por la cual una imagen es
retenida en nuestra retina por un intervalo pequeño de tiempo antes de que
otra imagen sea tomada.

Nuestro sistema visual puede captar 24 imágenes diferentes en 1


segundo.

Si proyectamos algo a más de 24 imágenes por segundo nuestro


cerebro captará eso como una secuencia de movimiento continuo.

Mientras mayor sea la cantidad de imágenes mayor será la sensación de


movimiento.

A más de 24 imágenes por segundo no logramos distinguir las imágenes


individuales y percibimos un movimiento continuo.
Con imagenes en color, los
dispositivos digitales vienen
equipados con conversores
de, por lo menos, 24 bits, esto
es, 8 bits para cada canal.
Con esta combinación de 24
números entre unos y ceros,
el resultado es de algo más de
16 millones de posibilidades
(colores) que nuestra visión
sera capaz de reconocer.
Si codificamos
cada una de las
componentes
RGB, las tres
deberían
codificarse con
mucha calidad

20
 Se codifican otras tres señales relacionadas con ellas
(luminancia y crominancia).

21
22
23
24
25
De todos los píxeles se obtienen
muestras de luminancia.
De crominancia solo de la mitad
de ellos.

26
27
28
29
30
31
4. DCT (Discrete Cosine Transform)
•Muestra el espectro de frecuencia
contenido en una imagen fija. Una
imagen fija es independiente del
tiempo.
•La DCT muestra el espectro
espacial de frecuencias.

• Pixel : es una muestra de una señal con un valor de amplitud


y contenido de frecuencia implícita (referido al cambio de valor)
en un tiempo finito y breve.
•Los valores de señal de cada pixel se ordenan en una MATRIZ

32 27/02/2020
•Una matriz conduce a un proceso de cálculos de
operación muy grande. La DCT permiten la aplicación por
separado a sub matrices.

•Por convención se aplica la DCT a bloques de 8 x 8


píxeles, sucesivamente. Origina COEFICIENTES en otra
matriz de 8 x 8 (componentes de frecuencia de cada pixel).

•La alta compresión lograda por la DCT es del tipo Lossy


(con pérdidas) y consiste en una nueva operación sobre la
matriz para reducir a cero los coeficientes próximos a
cero.

•Los coeficientes de la matriz transformada son los datos


que representan la imagen. La transmisión de estos datos
se hace uno a uno en una secuencia.
33 27/02/2020
4.1 Transformación DCT (Compresion Espacial)
DCT Coeficientes mas
significativos

Coeficientes 0

Bajas frecuencias Altas frecuencias


34 27/02/2020
5. INTRA-FRAME
Explota la redundancia espacial que existe en una
imagen mediante un análisis frecuencial de la misma.
Se efectúa con la información que contiene la imagen
actual que se esta procesando y no en relación con
cualquier otra imagen de la secuencia de vídeo.
Procesos involucrados
-Transformación (DCT).
-Promediado: tablas de cuantización.
-Escaneo.
-Codificación entrópica.
35 27/02/2020
DCT 8x8
Cada coeficiente representa la contribución de una
frecuencias horizontales y verticales a la imagen

36
5.1 Transformación

37 27/02/2020
5.2 Promediado: tablas de cuantización
Los coeficientes transformados de cada píxel del macrobloque, se
pueden promediar, o no, mediante tablas de cuantización (Q)
cuyos valores resultan de estudios psicovisuales. Su uso supondrá
una degradación de la calidad de la imagen ya que se perderán
los coeficientes transformados del bloque de menor valor
(energía).

38 27/02/2020
5.3 Escaneo
• Leer los coeficientes transformados que serán transmitidos y
ordenarlos.
•Típicamente se utiliza el escaneo "Zigzag" que lee los coeficientes
siguiendo un patrón determinado en forma de zig-zag.

39 27/02/2020
5.4 Codificación entrópica

Existirán muchos valores a 0 para transmitir, por


este motivo se utilizará codificación de longitud fija
(RLC) para transmitir el número de ceros en vez de
cada cero uno a uno.
Enviará un palabra código única en vez de una
cadena de ceros.

40 27/02/2020
5.5 Esquema del Intraframe
En resumen vemos que el intraframe consta de los
siguientes procesos basados en DCT.

Imagen
Original TRANSFORMADA
DESCOMPOSICION
EN BLOQUES COSENO

Imagen
Comprimida
CODIFICACION DE
CUANTIFICADOR
LOS MENSAJES

41 27/02/2020
6. INTER-FRAME prediction.
Explota la correlación temporal entre cuadros
consecutivos para poder codificar con el
mínimo número de bits posibles.
Para codificar, se debe predecir un frame a
partir de frames anteriores y/o futuros,
aplicando sobre éstos un movimiento dictado
por unos vectores de movimiento.
Esta técnica se utiliza en estandares como el
MPEG-2.
42 27/02/2020
Predicción Inter Frame

Se Intenta predecir la imagen siguiente a partir


de las anteriores explotando la redundancia
temporal.
Es muy probable que los bloques sean muy
parecidos en imágenes sucesivas
Se puede utilizar esquemas de predicción tan
sencillos como tomar la imagen anterior a
modo de predicción y transmitir el error
cometido
43
6. INTER-FRAME

•Se divide en bloques, luego el codificador trata de encontrar


un bloque similar al que se codifico previamente. Este proceso
se realiza mediante el algoritmo Block matching.
•Comprime a partir de similitudes entre los fotogramas. Este
método tiene menor calidad.
44 27/02/2020
6. INTER-FRAME (Redundancia Temporal)

Compresión: Compresión:
Solo Compresión
Espacial y Espacial y
Espacial.
Temporal Temporal

I: Intraframe P: Predictivo B: Bidireccional

•Se la secuencia de imágenes (GOP) esta formada por 03 tipos


de cuadros.

•SECUENCIA = I B B P B B P B B P B B P B B.

45 27/02/2020
46
47
(VLC)

Ojo!!

Imagen Predicha

48
49
Es un esquema mas avanzado de predicción de
imagen.
Explota el hecho de que a lo largo del tiempo los
píxeles se desplazan en la pantalla
Por lo tanto sólo transmito el macrobloque de
referencia (mediante el vector de desplazamiento) y
el error cometido
Evidentemente, siempre puedo transmitir el
macrobloque completo, en caso de no encontrar
ninguno que se le parezca
50
 Normalmente la
compensación de
movimiento se basa en
macrobloques 16x16,
mientras que la
redundancia espacial se
basa en bloques de 8x8.
 Sin embargo la precisión
es a nivel de píxel (el
macrobloque referencia
puede estar situado en
cualquier localización)

51
 La carga computacional de buscar el macrobloque que mas se parezca es
muy alta
 Limitamos la búsqueda a una zona determinada
 “Hierarchical block matching”

52
Compromiso entre Tamaño Macrobloque y Bit Rate
Vectores de Desplazamiento
 Macrobloque Grande => Menos información vectores
 Macrobloque Pequeño => Mayor precisión estimación
Utilizamos una combinación de dos técnicas para
reducir el ancho de banda ocupado por los vectores
 Codificación diferencial a partir de vectores anteriores
 VCL sobre predicción de error de codificación diferencial

53
7. Métodos de compresión vídeo digital

•Veamos algunos metodos conocidos


de compresion:

54 27/02/2020
7.1.1 MPEG2 (Norma ISO 13818).
Formato de compresión MPEG2 aparece en 1994.
Ofrece imágenes de calidad, alcanza velocidades
en la Tx. Dx. de 3 a 15 Mbps (Con HDTV).
Usado para codificar audio y vídeo en señales de
transmisión, que incluyen TDT, por satélite o cable.
Admite flujos de vídeo escaneado de manera tanto
progresiva como entrelazada.
Fue usado por los discos SVCD, DVD y ahora Blue
Ray para grabar películas.
Este formato ofrece la transmisión de ficheros de
vídeo digital a pantalla completa.
55 27/02/2020
7.1.1 MPEG2
• Esquema del sistema de compresion MPEG2 Transporte
Streaming: TS
Codific. Flujo
Compresion Empaquetado
Video Primario (PES)

Codific. Flujo
Fuente de
Compresion Empaquetado
A/V Primario (PES)
Audio
Y Datos.
TS
Codific. Flujo
Compresion Empaquetado
Datos Primario (PES)

Sincronismo

Trama tipica
H PAYLOAD
56 27/02/2020 de un PES
4 bytes 184 bytes
7.1.2 MPEG3
El MPEG3, se desarrolló para la televisión digital
de alta calidad aunque el formato MPEG2
también cumplía perfectamente esta función.
Diseñado para tratar señales HDTV entre 20 a 40
Mbits/s.
MPEG-3 no debe confundirse con MPEG-1 Audio
Layer 3, que suele conocerse como MP3.
Como el MPEG3 consumia mayor ancho de
banda que el MPEG2, el mercado abandonó el
MPEG3.
57 27/02/2020
7.1.3 MPEG4 (Norma H.264)
Toma muchas de las características de MPEG-1 y
MPEG-2, aparece en 1999.
Es un formato de muy buena calidad, ideal para
aplicaciones multimediales interactivas.
Factor de compresión mucho más elevado que
otros formatos, ideal para aplicaciones en
internet.
Los usos principales del MPEG-4 son los flujos de
medios audiovisuales, la distribución en DVD, la
transmisión bidireccional por videóconferencia y
emisión de televisión SDTV y HDTV (Con tasas de
solo 9Mbps).
58 27/02/2020
7.1.3 MPEG4 (Norma H.264)
MPEG-4 es un standard dinamico y con los años
van mejorando sus caracteristicas.

59 27/02/2020
7.1.4 MPEG7
Es una representación estándar de la información
audiovisual que permite la descripción de
contenidos.
Puede describir información audiovisual, de manera
que sea posible desarrollar sistemas capaces de
indexar grandes bases de material multimedia .
Este formato codificará además de la imagen, datos
en lenguaje XML de metadatos, en un intento de
favorecer la interoperabilidad y la creación de
aplicaciones.
Sera de gran ayuda para el avance de la nueva
televisión interactiva con introducción de buscadores
60 27/02/2020
de contenidos, búsquedas de audiovisuales etc.
8. Windows Media Video (WMV)

 Es un grupo de algoritmos de compresión que pertenecen a


la compañía Microsoft, y que fue desarrollado por la
empresa para que fuera parte integrante del framework
denominado Windows Media.
 Debido a esto, no es de extrañar que la mayoría de las
veces un archivo audiovisual con extensión .wmv combine
en su interior sonido cuyo formato también pertenece a la
suite, es decir Windows Media Audio.

61 27/02/2020
8. Windows Media Video (WMV)

 De todas formas, es importante destacar que en realidad


cuando hablamos de WMV nos estamos refiriendo
puntualmente al video, de la mismas manera que si
hablamos de WMA es solamente sonido.

 Por ello, el video WMV puede estar dentro de algún


contenedor y de esta manera unido a su respectivo audio
en WMA. Por lo general este contenedor es el llamado ASF,
que incluye audio y video.

62 27/02/2020
9. Theora

 Es un códec de vídeo libre que está siendo desarrollado por


la Fundación Xiph.org, como parte de su proyecto Ogg.
 Basado en el códec VP3 donado por On2 Technologies,
Xiph.org lo ha refinado y extendido dándole el mismo
alcance futuro para mejoras en el codificador como el que
posee el códec de audio Vorbis.

 Google en 2010 empezó a financiar parte del proyecto de


Ogg Theora.

63 27/02/2020
9. Theora
 Theora es un método de compresión de vídeo con pérdidas.
 El vídeo comprimido puede ser almacenado en cualquier
contenedor multimedia conveniente (ej Matroska), pero
generalmente se encuentra en el formato contenedor Ogg
que es el recomendado por Xiph.org y es frecuentemente
usado con el formato de audio Vorbis.
 Theora I es un códec de transformación basado-en-bloque
y compensación de movimiento basada-en-bloque. Esto lo
coloca en la misma clase de códecs que MPEG-1, MPEG-2,
MPEG-4

64 27/02/2020
9. Theora
 Características:
 Compensación de movimiento basada-en-bloque
 Bit rate variable de forma-libre (VBR)
 Tamaño de bloque mínimo de 8x8
 Codificación flexible de la entropía
 Formatos de submuestreo de croma 4:2:0, 4:2:2, y 4:4:4
 8 bits por píxel por color de canal
 Múltiples cuadros (frames) de referencia
 Cuadros intra (I-frames en MPEG), cuadros inter (P-frames en MPEG),
pero no B-frames (en MPEG4 ASP, AVC)
 Tecnologías ya usadas por Vorbis
 Permite transcodificación desde VP3 sin pérdidas
65 27/02/2020
10. Xvid
 Antes XviD es el nombre de un popular códec desarrollado
como un proyecto de software libre, después de que el
proyecto OpenDivX fuera cerrado en julio de 2001.
 Xvid está basado en el estándar MPEG-4 ASP.
 El formato fue creado como una alternativa libre a otros
códecs comerciales de vídeo.
 Su calidad y eficiencia lo han convertido en uno de los códecs
más populares.
 La reproducción de películas Xvid está soportada en los
reproductores de DVD más modernos.

66 27/02/2020
10. Xvid
 Puede comprimir una película completa con una calidad cercana a
la de la fuente original para que ocupe tan solo 700 MB (en
ocasiones 1400 MB, dependiendo de la duración y otros factores).
 Las películas codificadas en Xvid ofrecen vídeos de alta calidad en
archivos de tamaño reducido, además de llevar menos tiempo su
compresión que en MPEG-2 debido a un algoritmo de compresión
más avanzado.
 El vídeo usualmente se combina con audio MP3, o AC3 para
tener audio y vídeo de alta calidad.
 Estos factores y el hecho de que el códec se distribuya de forma
libre han contribuido al éxito de este formato

67 27/02/2020
10. Xvid
 Características
 Uso de B-frames, o fotogramas bidireccionales, que almacenan entre
dos fotogramas, uno anterior y otro posterior.
 Quarter pixel (Q-pel), se trabaja con una precisión doble en los vectores
de movimiento de los bloques en la compensación del movimiento, es
más útil en resoluciones bajas.
 Global motion compensation (GMC) o compensación global de
movimiento, que entra en juego en giros de cámara y zoom, consiste en
almacenar los vectores de movimiento de forma global (en relación a
unos pocos) y consiguiendo hacer que muchos valgan 0, reduciendo su
tamaño.
 Entrelazado, ideal para imágenes entrelazadas como la televisión, ya
que mejora mucho la compresión y el resultado final en estos casos.
 Cuantización adaptativa, es una innovación psicovisual de Xvid, en ella
se emplean diferentes matrices de cuantización por cada macrobloque,
comprimiendo más fuerte aquéllos que son muy claros o muy oscuros,
ya que son menos notables por el ojo que en los de tonalidad media.
68 27/02/2020
11. Ogg
 Es un formato contenedor, desarrollado por la Fundación
Xiph.org y es el formato nativo para los códecs multimedia
que también desarrolla Xiph.org.

 El formato es libre de patentes y abierto al igual que toda la


tecnología de Xiph.org, diseñado para dar un alto grado de
eficiencia en el “streaming" y la compresión de archivos.

Como con la mayoría de formatos contenedores, Ogg


encapsula datos no comprimidos y permite la interpolación
de los datos de audio y de vídeo dentro de un solo formato
conveniente. Otros ejemplos de formatos contenedores son
AVI y Matroska.

69 27/02/2020
11. Ogg
 Incluye un número de códecs separados e independientes de
vídeo y audio, ambos desarrollados en código abierto.

 Los archivos terminados en la extensión ".ogg" pueden ser de
cualquier tipo de archivo Ogg, audio o vídeo, aunque existe la
recomendación de renombrarlos con la extensión ".oga" para
audio y ".ogv" para video.

 Ogg es un contenedor orientado a stream, lo que significa que


puede ser escrito y leído en un solo paso, haciéndolo adecuado
para streaming en internet.

 Esta orientación a stream es la mayor diferencia en diseño sobre


otros formatos contenedores basados-en-archivo.
70 27/02/2020
11. FLV (FLASH VIDEO)

Es un formato contenedor propietario usado


para transmitir video por Internet
usando Adobe FlashPlayer.

Entre los sitios más conocidos que utilizan el


formato FLV se encuentranYouTube, Google
Video, Yahoo! Video y MySpace.

71 27/02/2020

También podría gustarte