Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Podemos denotar una extensión de una fuente 𝑆 como 𝑆 𝑛 , cuyas probabilidades de emisión
se las puede calcular al multiplicar adecuadamente cada una de ellas:
se relacionan: 𝐻 𝑆 𝑛 = 𝑛𝐻(𝑆)
FUENTES DE INFORMACIÓN
EXTENSIÓN DE UNA FUENTE
5
𝑃 ≥ → 𝑃 = 1,666 ≅ 2
3
FUENTES DE INFORMACIÓN
EXTENSIÓN DE UNA FUENTE
La segunda extensión de una fuente de markov de orden 2 con alfabeto 0, 1
2
𝑃≥
22
Sería una fuente de Markov de orden 1 con 𝑞 símbolos.
Es decir, orden 1 con 4 símbolos
FUENTES DE INFORMACIÓN
EXTENSIÓN DE UNA FUENTE
La extensión de una fuente de markov orden 𝒎 𝒕𝒉
Sea 𝑀 → fuente de markov 1er orden con alfabeto 0, 1 y probabilidades de transición
𝑃 0 0 = 0,3 ; 𝑃 1 0 = 0,7 ; 𝑃 0 1 = 0,4 ; 𝑃 1 1 = 0,6
Una segunda extensión de 𝑀 tiene 𝑚 = 1, 𝑛 = 2, 𝑃 = 1 con alfabeto 00, 01, 10, 11 y las
probabilidades de transición serían:
𝑃 00 00 = 𝑃 0 0 𝑃 0 0 = 0,09
𝑃 01 00 = 𝑃 0 0 𝑃 1 0 = 0,21
𝑃 10 00 = 𝑃 1 0 𝑃 0 1 = 0,28
𝑃 11 00 = 𝑃 1 0 𝑃 1 1 = 0,42
𝑃 00 11 = 𝑃 0 1 𝑃 0 0 = 0,12
𝑃 01 11 = 𝑃 0 1 𝑃 1 0 = 0,28
𝑃 10 11 = 𝑃 1 1 𝑃 0 1 = 0,24
𝑃 11 11 = 𝑃 1 1 𝑃 1 1 = 0,36
UNIDAD 1
FUENTES DE INFORMACIÓN
EXTENSIÓN DE UNA FUENTE
TEOREMA:
Si 𝑀𝑛 es la extensión de una fuente de Markov 𝑀, la entropía esta
relacionada por:
𝐻 𝑀𝑛 = 𝑛𝐻(𝑀)
Y
𝐻 𝑀ഥ 𝑛 ≥ 𝐻 𝑀𝑛 = 𝑛𝐻(𝑀)
UNIDAD 1
FUENTES DE INFORMACIÓN