Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Clase 5 Codificación de Fuentes
Clase 5 Codificación de Fuentes
𝐿 = 𝑃𝑖 𝑙𝑖
𝑖=1
Recordemos que la entropía (para
una fuente nula es:
𝑞
1
En la codificación de fuentes 𝐻 𝑆 = 𝑃𝑖 log( )
se desea buscar un código 𝑃𝑖
𝑖=1
que sea univoco, instantáneo,
además, compacto. Para exigirle al código que sea
𝐿 es posible estimarla tanto instantáneo, aplicamos la la
para fuentes de memoria inecuación de Kraft y obtenemos la
nulas o fuentes de Markov. siguiente desigualdad:
𝐻 𝑆 ≤ 𝐿 . log 𝑟
Donde:
𝑟: es el número de símbolos del
alfabeto código (código r-ario).
Para un código binario, la entropía es:
𝐻 𝑆 ≤𝐿
Lo anterior nos indica que 𝐿 (la longitud media del código
empleado para codificar la fuente S) nunca es menor que la
entropía (Información media por símbolo emitida por la fuente).
𝐿 será mínimo si, y solo si, se eligen las longitudes que siguen la
siguiente condición
1
𝑙𝑖 = 𝑙𝑜𝑔𝑟 ( )
𝑃𝑖
Luego tal logaritmo debe ser un numero entero para cualquier
valor de 𝑖.
Ejemplo 1
Se tiene la siguiente fuente de memoria nula compuesta de 4 símbolos y
son equiprobables.
𝑞
Simbolos Probabilidad 1
𝐻 𝑆 = 𝑃𝑖 log
S1 1/4 𝑃𝑖
𝑖=1
S2 1/4 1 1 1 1 1 1 1 1
𝐻(𝑆) = log + log + log + log
S3 1/4 4 1/4 4 1/4 4 1/4 4 1/4
S4 1/4 𝐻 𝑆 = 2 𝑏𝑖𝑡𝑠/𝑠𝑖𝑚𝑏𝑜𝑙𝑜
NO se puede lograr codificar esta fuente con un código binario
univoco de longitud media inferior a 2 bits/símbolo.
1 Símbolos Código
𝑙𝑖 = 𝑙𝑜𝑔
𝑃𝑖 S1 00
S2 01
1 S3 10
𝑙𝑖 = 𝑙𝑜𝑔 =2
1 S4 11
4
Ejemplo 2
𝑞
Simbolos Probabilidad 1
𝐻 𝑆 = 𝑃𝑖 log
S1 1/2 𝑃𝑖
𝑖=1
S2 1/4 1 1 1 1 1 1 1 1
𝐻(𝑆) = log + log + log + log
S3 1/8 2 1/2 4 1/4 8 1/8 8 1/8
1 1 Simbolos Probabilidad
𝑙2 = 𝑙𝑜𝑔 = 𝑙𝑜𝑔 = 2 𝑏𝑖𝑡𝑠
𝑃2 1 S1 0
4
S2 10
S3 110
1 1
𝑙3 = 𝑙𝑜𝑔 = 𝑙𝑜𝑔 = 3 𝑏𝑖𝑡𝑠 S4 111
𝑃3 1
8
1 1
𝑙4 = 𝑙𝑜𝑔 = 𝑙𝑜𝑔 = 3 𝑏𝑖𝑡𝑠
𝑃4 1
8
Comprobemos el código calculando la longitud media del código.
𝑞
1 1 1 1
𝐿 = 𝑃𝑖 𝑙𝑖 = × 1 + × 2 + × 3 + × 3
2 4 8 8
𝑖=1
𝐿 = 1.75 𝑏𝑖𝑡𝑠/𝑠𝑖𝑚𝑏𝑜𝑙𝑜
En efecto se asegura la longitud mínima posible con estas reglas, el
código es unívoco e instantáneo.
Primer teorema de Shannon o
Teorema de codificación sin ruido
El número medio de símbolos r-arios correspondientes a un símbolo de la
fuente puede hacerse tan pequeño, pero no inferior, a la entropía de la fuente
expresada en unidades de orden r.
𝐿𝑛 1
𝐻𝑟 𝑆 ≤ < 𝐻𝑟 𝑆 +
𝑛 𝑛