Documentos de Académico
Documentos de Profesional
Documentos de Cultura
2 de mar de 2004
El clima en el Ro de la Plata...
N: nublado; S: soleado; L: lluvia; T: tormenta
N
...
...
...
...
...
...
...
Motivacin
Para comunicar estos cuatro smbolos se acuerda usar
el siguiente cdigo:
C(N) = 00
C(S) = 01
C(L) = 10
C(T) = 11
Tpicamente uno se pasa usando el cdigo C(N)=00.
La pregunta es: existe otra codificacin ms
eficiente?
2 de mar de 2004
Formalizacin
Se puede considerar al estado del tiempo como una
variable aleatoria discreta X, con un alfabeto
A={N,L,T,S}
y una funcin de probabilidad
p(x)=Probabilidad(X=x)
con x en A.
2 de mar de 2004
Formalizacin: informacin
Dado que tpicamente esta nublado, el smbolo N
contiene poca informacin, es predecible, es ms
probable, no es noticia.
Informacin. Una medida de la informacin podra ser:
I(x) = -log2(p(x))
I(N) = 1, I(S) = 2, I(L) = 3, I(T) = 3
2 de mar de 2004
Informacin
Qu pasa si supiramos que siempre est nublado (p
(N)=1)?. En este caso I(N) = 0, podemos predecir con
probabilidad 1 que va a estar nublado, no hay
incertidumbre, no hay informacin.
La situacin de mayor incertidumbre es cuando p(N)
=p(L)=p(S)=p(T)=1/4.
2 de mar de 2004
Informacin
Si
pudiramos
elegir
libremente
(smbolos
equiprobables) entre 2 smbolos necesitaramos 1 bit,
para 16 smbolos necesitaramos 4 bits y en general
para N smbolos se necesitan log2(N) bits.
log2(N) = -log2(1/N), lo que nos dice que hay una
relacin entre informacin y cantidad de bits
necesarios.
2 de mar de 2004
Entropa
La entropa H(X) es la media de la informacin de la
fuente:
H ( X ) EI ( x) p( x) log 2 p ( x)
X
2 de mar de 2004
Entropa
Se puede ver fcilmente H(X)>=0. Esto corresponde
al caso de menor incertidumbre
Adems, H(X)<=log(|A|), |A|=cantidad de elementos
A. Lo que corresponde al caso de mayor
incertidumbre, smbolos equiprobables.
2 de mar de 2004
Entropa
Definicin: x es una variable aleatoria discreta
(V.A.D.) con probabilidad p(x) y un conjunto de
mensajes posibles A={x1,...,xN}.
Definicin: Entropa
H ( X ) p ( x) log p ( x)
xA
2 de mar de 2004
10
Ejemplos de cdigos
2 de mar de 2004
Evento
Probabilidad
Cdigo 1
Cdigo 2
Nublado
0.5
00
Sol
0.25
01
10
Lluvia
0.125
10
110
Tormenta
0.125
11
111
11
Largo medio
El largo medio de estos cdigos es:
2 de mar de 2004
12
13
Shannon
Se puede demostrar que no existe ningn cdigo que
permita codificar a un bit-rate menor a la entropa.
Teorema (Shannon 1948)
min{L} H ( X )
Se puede demostrar tambin que el bit rate se puede
acercar arbitrariamente a la entropa.
2 de mar de 2004
14
Entropa conjunta
Definicin: La entropa conjunta H(X,Y) de un par de
variables aleatorias con distribucin p(x,y) es:
H ( X , Y ) E{ log p ( x, y )}
p ( x, y ) log p( x, y )
Teorema (Regla de la cadena):
H ( X , Y ) H ( X ) H (Y | X )
2 de mar de 2004
15
Entropa Condicional
Definicin: La entropa condicional de dos variables
(X,Y)~p(x,y) es:
H (Y | X )
p( x)H (Y | X x )
x A ( X )
p (x , y ) log p( y | x)
x A ( X ) y A (Y )
2 de mar de 2004
16
Kullback-Leibler
Definicin: La entropa relativa o distancia KullbackLeibler entre dos distribuciones de probabilidad p(x) y
q(x) se define como:
p( x)
p( x)
D( p || q ) p( x) log
E log
x A
q( x)
q( x)
Teorema:
D( p || q ) 0
2 de mar de 2004
17
Kullback-Leibler: Aplicaciones
Teorema: H(X) <= log(|A|)
Teorema: El condicionar reduce la entropa,
H(Y|X) <= H(Y)
y la igualdad se da si X e Y son independientes.
2 de mar de 2004
18
H(XN)=N.H(X)
2 de mar de 2004
19
20
Regla de la cadena
Teorema: (Regla de la cadena) (X1,...,Xn) ~ p(x1,...,xn):
n
H ( X1 ,..., X n ) H ( X i | X i 1 ,..., X1 )
i 1
Teorema:
n
H ( X1 ,..., X n ) H ( X i )
i 1
2 de mar de 2004
21
Dependencia
Observando el estado del tiempo en das sucesivos se
ve que el estado del tiempo en un da depende del da
anterior y condiciona el siguiente.
No es simplemente
memoria.
2 de mar de 2004
una
variable
aleatoria
sin
22
p ( X i x | X i 1 , , X i k )i, k
2 de mar de 2004
23
MKS: Entropa
La entropa de una fuente markov se define a partir de
la entropa condicional
p( X
H ( X | X i1, , X i k )
i
x | X i 1, , X i k ) log 2 p( X i x | X i 1 , , X i k )
H MKS ( X ) p ( X i 1 , , X i k ) H ( X | X i 1 , , X i k )
En general HMKS(X) < H DMS(X), por lo tanto, podramos
comprimir an ms!
Vale el resultado H(XN)=N.H(X)
2 de mar de 2004
24
smbolos
2 de mar de 2004
25
Ejemplo: codificacin
predictiva de imgenes
Idea: Usa la redundancia presente en la imagen (la
correlacin entre los pxeles) para estimar el nivel de
gris en (i,j): (i,j). Error: e(i,j)=(i,j)-I(i,j).
Compresin con prdidas. Los valores de e(i,j) son
cuantificados y comprimidos.
Compresin sin
cuantificada.
2 de mar de 2004
prdidas.
La
seal
no
es
26
Ejemplo: codificacin
predictiva de imgenes
Prediccin lineal. T: template con pxeles anteriores
x ai xi
iT
2 de mar de 2004
27
Ejemplo: codificacin
predictiva de imgenes
2 de mar de 2004
28
Ejemplo: codificacin
predictiva de imgenes
La prediccin es =(a+b+c+d)/4.
2 de mar de 2004
29
Ejemplo: codificacin
predictiva de imgenes
Imagen diferencia y su histograma
2 de mar de 2004
30
Ejemplo: codificacin
predictiva de imgenes
Cmo hallar los ai ?
I a1 I (i, j 1) a2 I (i 1, j 1) a3 I (i 1, j )
Si asumimos I estacionario con media 0. Encontramos
los ai minimizando la esperanza del error.
31
Cdigos
Definicin: Un cdigo de fuente C, para una V.A.D, es
un mapeo de A a D*, el conjunto de secuencias finitas
de smbolos de una alfabeto D.
N
i
D* D
i 1
Observacin: C(x) es el cdigo para x y l(x) su largo
2 de mar de 2004
32
L(C ) p ( x)l ( x)
x A
Ejemplo:
A={N,S,L,T}
p(N)=1/2 p(S)=1/4 p(L)=p(T)=1/8
C(N)=0 C(S)=10 C(L)=110 C(T)=111.
l(N)=1 l(S)=2 l(L)=l(T)=3
L (C)=1,75
2 de mar de 2004
33
Cdigos no singulares
Definicin: Un cdigo se dice no singular si cada
elemento de A se mapea en un elemento diferente en
D*.
Definicin: La extensin C* de C es el mapeo de
secuencias de smbolos de A en secuencias de D,
C(x1x2...xn)=C(x1)C(x2)...C(xn)
2 de mar de 2004
34
no
singulares
cdigos
singulares
2 de mar de 2004
ninguna
unvocamente
decodificables
instantneos
no
unvocamente
decodificables
no
instantneos
35
Desigualdad de Kraft
Teorema: Para cada cdigo instantneo sobre un
alfabeto de dimensin d=|D|, los largos de las palabras
del cdigo, li , deben satisfacer:
li
2 de mar de 2004
36
Cdigos ptimos
Teorema: El largo esperado (L) de cualquier cdigo
instantneo (C) para una V.A.D cumple
LC H X
y se da la igualdad si y solo si d-li = pi
(1er. Teorema de Shannon)
2 de mar de 2004
37
1
log
p x
H ( X ) L* H ( X ) 1
2 de mar de 2004
38
Codificacin en bloques
Que pasa si juntamos smbolos?
C(x1...xn), l(x1...xn)
Definicin: Largo esperado por smbolo
1
Ln p ( x1 ,..., xn ) l ( x1 ...xn )
n
Corolario: Para Xi I.I.D
1
H ( X ) Ln H ( X )
n
2 de mar de 2004
39
Cdigos de Huffman
Podemos llegar a codificar con H(X) bits?
Idea: Usar cdigos ms cortos para smbolos ms
probables (Cdigo Morse).
Ejemplo. C(N)=0, C(S)=10, C(L)=110, C(T)=111.
Cmo encontrar
sistemtica?
2 de mar de 2004
el
cdigo
ptimo
de
forma
40
Algoritmo de Huffman
0
10
110
p(N)=0.5
p(S)=0.25
p(L)=0.125
0
10
p(N)=0.5
p(S)=0.25
p(T)=0.125
2 de mar de 2004
p(N)=0.5
p(Y)=0.5
10
110
p(X)=0.25
111
11
111
41
2 de mar de 2004
42