Está en la página 1de 42

Teora de la Informacin

2 de mar de 2004 Codificacin de imgenes y v ideo


El clima en el Ro de la Plata...

N: nublado; S: soleado; L: lluvia; T: tormenta

N L N L T S L ...
N N N T N S N ...
N L S S N N S ...
T T S S L S N ...
L L N S L N N ...
L L L T L L N ...
N S L N N L N ...

p(N)=0.5, p(S)=0.25, p(L)=0.125, p(T)=0.125

2 de mar de 2004 Codificacin de imgenes y v ideo 2


Motivacin

Para comunicar estos cuatro smbolos se acuerda usar


el siguiente cdigo:
C(N) = 00
C(S) = 01
C(L) = 10
C(T) = 11

Tpicamente uno se pasa usando el cdigo C(N)=00.


La pregunta es: existe otra codificacin ms
eficiente?

2 de mar de 2004 Codificacin de imgenes y v ideo 3


Formalizacin

Se puede considerar al estado del tiempo como una


variable aleatoria discreta X, con un alfabeto

A={N,L,T,S}
y una funcin de probabilidad

p(x)=Probabilidad(X=x)
con x en A.

2 de mar de 2004 Codificacin de imgenes y v ideo 4


Formalizacin: informacin

Dado que tpicamente esta nublado, el smbolo N


contiene poca informacin, es predecible, es ms
probable, no es noticia.
Informacin. Una medida de la informacin podra ser:

I(x) = -log2(p(x))

I(N) = 1, I(S) = 2, I(L) = 3, I(T) = 3

2 de mar de 2004 Codificacin de imgenes y v ideo 5


Informacin

Qu pasa si supiramos que siempre est nublado (p


(N)=1)?. En este caso I(N) = 0, podemos predecir con
probabilidad 1 que va a estar nublado, no hay
incertidumbre, no hay informacin.

La situacin de mayor incertidumbre es cuando p(N)


=p(L)=p(S)=p(T)=1/4.

2 de mar de 2004 Codificacin de imgenes y v ideo 6


Informacin

Si pudiramos elegir libremente (smbolos


equiprobables) entre 2 smbolos necesitaramos 1 bit,
para 16 smbolos necesitaramos 4 bits y en general
para N smbolos se necesitan log2(N) bits.

log2(N) = -log2(1/N), lo que nos dice que hay una


relacin entre informacin y cantidad de bits
necesarios.

2 de mar de 2004 Codificacin de imgenes y v ideo 7


Entropa

La entropa H(X) es la media de la informacin de la


fuente:

H ( X ) EI ( x) p( x) log 2 p ( x)
X
Idea: La entropa mide la informacin media, y por
tanto, la cantidad media de smbolos necesarios.

2 de mar de 2004 Codificacin de imgenes y v ideo 8


Entropa

Se puede ver fcilmente H(X)>=0. Esto corresponde


al caso de menor incertidumbre

Adems, H(X)<=log(|A|), |A|=cantidad de elementos


A. Lo que corresponde al caso de mayor
incertidumbre, smbolos equiprobables.

2 de mar de 2004 Codificacin de imgenes y v ideo 9


Entropa

Definicin: x es una variable aleatoria discreta


(V.A.D.) con probabilidad p(x) y un conjunto de
mensajes posibles A={x1,...,xN}.
Definicin: Entropa

H ( X ) p ( x) log p ( x)
xA

Observacin: H(X) = E{ -log p(X) }

2 de mar de 2004 Codificacin de imgenes y v ideo 10


Ejemplos de cdigos

Evento Probabilidad Cdigo 1 Cdigo 2

Nublado 0.5 00 0

Sol 0.25 01 10

Lluvia 0.125 10 110

Tormenta 0.125 11 111

2 de mar de 2004 Codificacin de imgenes y v ideo 11


Largo medio
El largo medio de estos cdigos es:

L E{C ( x)} p ( x)C ( x)


X

donde C(x) es el largo de x.


Para este caso
L1 = 2
L2 = 0.5 x 1 + 0.25 x 2 + 0.125 x 3 + 0.125 x 3 = 1.75
H(x) =1.75

Alcanzamos la entropa.

2 de mar de 2004 Codificacin de imgenes y v ideo 12


Largo medio: ejemplo
Fuente con dos smbolos X={x1,x2}, con probabilidades
p1 y p2.

Caso 1
p1=p2=0.5; x1=0; x2=1
H(X)=0.5 x log2(2) + 0.5 x log2(2) = 1
L = 0.5 x 1 + 0.5 x 1 = 1

Caso 2
p1=0.1; p2=0.9; x1=0; x2=1
H(X)=0.1 x log2(10) + 0.9 x log2(10/9) = 0.467
L = 0.1 x 1 + 0.9 x 1 = 1

2 de mar de 2004 Codificacin de imgenes y v ideo 13


Shannon

Se puede demostrar que no existe ningn cdigo que


permita codificar a un bit-rate menor a la entropa.
Teorema (Shannon 1948)

min{L} H ( X )
Se puede demostrar tambin que el bit rate se puede
acercar arbitrariamente a la entropa.

2 de mar de 2004 Codificacin de imgenes y v ideo 14


Entropa conjunta

Definicin: La entropa conjunta H(X,Y) de un par de


variables aleatorias con distribucin p(x,y) es:

H ( X , Y ) E{ log p ( x, y )}
p ( x, y ) log p( x, y )
Teorema (Regla de la cadena):

H ( X , Y ) H ( X ) H (Y | X )

2 de mar de 2004 Codificacin de imgenes y v ideo 15


Entropa Condicional

Definicin: La entropa condicional de dos variables


(X,Y)~p(x,y) es:

H (Y | X ) p( x)H (Y | X x )
x A ( X )

p (x , y ) log p( y | x)
x A ( X ) y A (Y )

Observacin: A(X) es el alfabeto de X

2 de mar de 2004 Codificacin de imgenes y v ideo 16


Kullback-Leibler
Definicin: La entropa relativa o distancia Kullback-
Leibler entre dos distribuciones de probabilidad p(x) y
q(x) se define como:

p( x) p( x)
D( p || q ) p( x) log E log
x A q( x) q( x)

Teorema:
D( p || q ) 0
y la igualdad se cumple si p(x)=q(x)

2 de mar de 2004 Codificacin de imgenes y v ideo 17


Kullback-Leibler: Aplicaciones

Teorema: H(X) <= log(|A|)

Teorema: El condicionar reduce la entropa,


H(Y|X) <= H(Y)
y la igualdad se da si X e Y son independientes.

2 de mar de 2004 Codificacin de imgenes y v ideo 18


Extensin de una fuente

Extensin de orden N
zi=(xi1, xi2, ... , xiN)
p(zi)= p(xi1) p(xi2)... p(xiN)

Teorema:
H(XN)=N.H(X)

2 de mar de 2004 Codificacin de imgenes y v ideo 19


Extensin de una fuente: ejemplo
Fuente con dos smbolos X={x1,x2}, con probabilidades
p1=0.1 y p2=0.9
Z={x1x1, x1x2, x2x1, x2x2}
p(Z)={0.01, 0.09, 0.09, 0.81}

H(Z)=0.01 x log2(100) + 2 x ( 0.09 x log2(100/9) )


+ 0.81xlog2(100/81) = 0.934=2 x 0.467

C1={00,01,10,11}
L1 = 0.01 x 2 + 2 x ( 0.09 x 2 ) + 0.81 x 2 = 2

C2={111,110,10,0}
L2 = 0.01 x 3 + 0.09 x 3 + 0.09 x 2 + 0.81 x 1 = 1,29

2 de mar de 2004 Codificacin de imgenes y v ideo 20


Regla de la cadena

Teorema: (Regla de la cadena) (X1,...,Xn) ~ p(x1,...,xn):

n
H ( X1 ,..., X n ) H ( X i | X i 1 ,..., X1 )
i 1

Teorema:

n
H ( X1 ,..., X n ) H ( X i )
i 1

2 de mar de 2004 Codificacin de imgenes y v ideo 21


Dependencia

Observando el estado del tiempo en das sucesivos se


ve que el estado del tiempo en un da depende del da
anterior y condiciona el siguiente.

No es simplemente una variable aleatoria sin


memoria.

2 de mar de 2004 Codificacin de imgenes y v ideo 22


Formalizacin: Markov de orden k

Una fuente se dice Markov de orden k si smbolos


sucesivos son estadsticamente dependientes, i.e. cada
smbolo depende de los k anteriores

Una fuente MKS se especifica con:

p ( X i x | X i 1 , , X i k )i, k

2 de mar de 2004 Codificacin de imgenes y v ideo 23


MKS: Entropa
La entropa de una fuente markov se define a partir de
la entropa condicional

H ( X | X i1, , X i k )
p( X i x | X i 1, , X i k ) log 2 p( X i x | X i 1 , , X i k )

H MKS ( X ) p ( X i 1 , , X i k ) H ( X | X i 1 , , X i k )

En general HMKS(X) < H DMS(X), por lo tanto, podramos


comprimir an ms!

Vale el resultado H(XN)=N.H(X)

2 de mar de 2004 Codificacin de imgenes y v ideo 24


Mtodos para smbolos
dependientes

Codificacin condicional: Se calculan las nuevas


probabilidades dado el smbolo anterior. (H(X|Y)<H(X)
)

Codificacin en bloques: Se agrupan smbolos


consecutivos en bloques (nuevos smbolos).

Codificacin predictiva: Dado Xi predecimos Xi+1 y


codificamos la diferencia.

2 de mar de 2004 Codificacin de imgenes y v ideo 25


Ejemplo: codificacin
predictiva de imgenes

Idea: Usa la redundancia presente en la imagen (la


correlacin entre los pxeles) para estimar el nivel de
gris en (i,j): (i,j). Error: e(i,j)=(i,j)-I(i,j).

Compresin con prdidas. Los valores de e(i,j) son


cuantificados y comprimidos.

Compresin sin prdidas. La seal e no es


cuantificada.

2 de mar de 2004 Codificacin de imgenes y v ideo 26


Ejemplo: codificacin
predictiva de imgenes

Prediccin lineal. T: template con pxeles anteriores

x ai xi
iT
El alfabeto de los errores de prediccin ser el doble
de grande que el original.

Un buen predictor minimiza el error; el smbolo ms


probable ser el 0.

2 de mar de 2004 Codificacin de imgenes y v ideo 27


Ejemplo: codificacin
predictiva de imgenes

2 de mar de 2004 Codificacin de imgenes y v ideo 28


Ejemplo: codificacin
predictiva de imgenes

La prediccin es =(a+b+c+d)/4.

2 de mar de 2004 Codificacin de imgenes y v ideo 29


Ejemplo: codificacin
predictiva de imgenes

Imagen diferencia y su histograma

2 de mar de 2004 Codificacin de imgenes y v ideo 30


Ejemplo: codificacin
predictiva de imgenes

Cmo hallar los ai ?

I a1 I (i, j 1) a2 I (i 1, j 1) a3 I (i 1, j )
Si asumimos I estacionario con media 0. Encontramos
los ai minimizando la esperanza del error.

a1R( 0,0) a2 R( 0,1) a3 R (1,1) R (1,0)


a1R( 0,1) a 2R (0,0) a3 R (1,0) R(1,1)
a1R(1,1) a2 R(1,0) a3 R( 0,0) R (0,1)

2 de mar de 2004 Codificacin de imgenes y v ideo 31


Cdigos

Definicin: Un cdigo de fuente C, para una V.A.D, es


un mapeo de A a D*, el conjunto de secuencias finitas
de smbolos de una alfabeto D.
N
D* D i

i 1
Observacin: C(x) es el cdigo para x y l(x) su largo

Observacin: Tpicamente usaremos:


D =B = {0,1}

2 de mar de 2004 Codificacin de imgenes y v ideo 32


Cdigos: Largo Esperado

Definicin: El largo esperado de un cdigo de fuente C


es:

L(C ) p ( x)l ( x)
Ejemplo: x A
A={N,S,L,T}
p(N)=1/2 p(S)=1/4 p(L)=p(T)=1/8
C(N)=0 C(S)=10 C(L)=110 C(T)=111.
l(N)=1 l(S)=2 l(L)=l(T)=3
L (C)=1,75

2 de mar de 2004 Codificacin de imgenes y v ideo 33


Cdigos no singulares

Definicin: Un cdigo se dice no singular si cada


elemento de A se mapea en un elemento diferente en
D*.

Definicin: La extensin C* de C es el mapeo de


secuencias de smbolos de A en secuencias de D,
C(x1x2...xn)=C(x1)C(x2)...C(xn)

2 de mar de 2004 Codificacin de imgenes y v ideo 34


Cdigos de decodificacin nica

Definicin: Un cdigo se dice de decodificacin nica


si su extensin es no singular.

Definicin: Un cdigo es instantneo si ninguna


palabra de cdigo es prefijo de otra.

no unvocamente instantneos
singulares decodificables

cdigos no
no
unvocamente instantneos
decodificables
singulares

2 de mar de 2004 Codificacin de imgenes y v ideo 35


Desigualdad de Kraft

Teorema: Para cada cdigo instantneo sobre un


alfabeto de dimensin d=|D|, los largos de las palabras
del cdigo, li , deben satisfacer:

d i
li
1
Dados li que cumplen lo anterior, existe un cdigo
instantneo con esos largos.

2 de mar de 2004 Codificacin de imgenes y v ideo 36


Cdigos ptimos

Teorema: El largo esperado (L) de cualquier cdigo


instantneo (C) para una V.A.D cumple

LC H X
y se da la igualdad si y solo si d-li = pi

(1er. Teorema de Shannon)

2 de mar de 2004 Codificacin de imgenes y v ideo 37


Cotas para el L ptimo

1
Motivacin para log
p x

Teorema: Sean li* los largos de los cdigos ptimos y


L* el largo esperado asociado entonces:

H ( X ) L* H ( X ) 1

2 de mar de 2004 Codificacin de imgenes y v ideo 38


Codificacin en bloques

Que pasa si juntamos smbolos?


C(x1...xn), l(x1...xn)
Definicin: Largo esperado por smbolo
1
Ln p ( x1 ,..., xn ) l ( x1 ...xn )
n
Corolario: Para Xi I.I.D

1
H ( X ) Ln H ( X )
n
2 de mar de 2004 Codificacin de imgenes y v ideo 39
Cdigos de Huffman

Podemos llegar a codificar con H(X) bits?


Idea: Usar cdigos ms cortos para smbolos ms
probables (Cdigo Morse).

Ejemplo. C(N)=0, C(S)=10, C(L)=110, C(T)=111.

Cmo encontrar el cdigo ptimo de forma


sistemtica?

2 de mar de 2004 Codificacin de imgenes y v ideo 40


Algoritmo de Huffman

0 0
0 p(N)=0.5 p(N)=0.5 p(N)=0.5 0

10 10
10 p(S)=0.25 p(S)=0.25

110 p(Y)=0.5 1
110 p(L)=0.125

p(X)=0.25
11
111 p(T)=0.125
111

2 de mar de 2004 Codificacin de imgenes y v ideo 41


Run Length Encoding

til cuando smbolos consecutivos son idnticos. Cada


smbolo es seguido por el nmero de repeticiones.

Zero run length coding

2 de mar de 2004 Codificacin de imgenes y v ideo 42

También podría gustarte