Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1. Introduccin
2. Fundamentos matemticos
Abramson, N.
"Teora de la Informacin y Codificacin"
Paraninfo
Cover, T.
"Elements of Information Theory"
Wiley
Martnez Zaldvar, F.
"Comunicacin de Datos"
SPUPV 95538
Qu es la informacin?
Se identifica con la posesin de alguna idea, significacin, etc., que una vez
compartida, produce en el receptor la adquisicin de un conocimiento (se despeja
incertidumbre sobre algo)
Ejemplo:
Respecto al antes:
El suceso an no ha ocurrido
Slo se puede imaginar y calcular expectativas
En esta etapa, el suceso puede ser verosmil (puede que ocurra), pero ser menos verosmil que lo
cierto (seguro que ocurre) y ms verosmil que lo imposible (nunca ocurrir)
Respecto al despus:
El suceso ya ha ocurrido
Por ejemplo:
En el lmite inferior: quin simula emocin al ver que al terminar un da comienza otro?
En el lmite superior: quin disimula emocin al ver que una gata ha parido una gaviota?
(sorpresa casi infinita)
Por tanto, la informacin es una magnitud medible, igual que pueda ser el peso
(kg) o la potencia (watios)
Transmitida
Almacenada
Modelo:
CODIFICADOR CODIFICADOR 1
FUENTE MODULADOR
DE FUENTE DE CANAL
A A 0 0 000
B B 10 1 111
C C 11 CANAL
DECODIFICADOR DECODIFICADOR
DESTINO DE FUENT E DE CANAL
DEMODULADOR
Codificacin de fuente:
Fax: Codificar texto e imgenes en una secuencia digital para rebajar costes
reduciendo el flujo de bits a enviar lo mximo posible. Norma de fax: MNP 2-5
Codificacin de canal:
Tiempo Probabilidad
Soleado 0,25
Nublado 0,125
Lluvia 0,125
Niebla 0,5
Como todas las palabras cdigo tienen la misma longitud, slo es posible
una interpretacin de la secuencia recibida (cada dos dgitos, se tiene un
smbolo de la fuente)
Soleado 10
Nublado 110
Lluvia 1110
Niebla 0
Se utilizan 7 dgitos binarios para transmitir los mismos smbolos con los que
el cdigo A utilizaba 8 dgitos binarios
Uno de los parmetros utilizados es la longitud media del cdigo (dgitos R-arios
por palabra cdigo).
Soleado 10
Nublado 110
Lluvia 0
Niebla 1110
soleado 0
nublado 01
lluvia 001
niebla 111
111001
Se desea transmitir dgitos binarios a travs de un canal que falla con probabilidad
de error p = 0.1 (10 de cada 100 dgitos que transmite, les cambia su valor):
00001010101011010100 00001010100011010110
CANAL
20 dgitos enviados 2 dgitos errneos
Si se opta por enviar un dgito tres veces repetido en lugar de enviarlo una sola
vez, y se decide por mayora, el codificador de canal realizar la siguiente
trasformacin:
0 000, 1 111
000 111
Para que haya un error en la decodificacin, han de fallar dos o tres dgitos (si
falla uno solo, la correccin ser buena):
Modelado:
0.9 0.972
"0" "0" Al repetir "0" "0"
dgitos
0.1 0.028
0.1 0.028
"1" "1" "1" "1"
0.9 0.972
Problema: disminuye la eficiencia, se enva informacin redundante
controlada, aadida para filosofa de correccin
Fiabilidad vs Eficiencia
El cdigo A con la codificacin de canal anterior (cada dgito repetido tres veces) necesita 6
dgitos de cdigo por smbolo fuente
El cdigo B con la codificacin de canal anterior (cada dgito repetido tres veces) necesita 5,625
dgitos de cdigo por smbolo fuente
TEMA 1 - TEORIA DE LA INFORMACION 29
1. Introduccin
1.3. Transmisin de datos fiable
Dos posibilidades:
Deteccin: detectar errores y pedir retransmisin, tcnica ARQ (Automatic Request). Implica menor
redundancia.
Correccin: cuando se produce un error poder detectarlo y corregirlo, tcnica FEC (Forward Error
Correction). Implica mayor redundancia.
Fcilmente implementable
Normalmente, decodificar es ms costoso que codificar, por tanto esta parte deber ser lo
ms sencilla posible
Canales con menor probabilidad de error (probabilidad lejana de 0.5) precisarn menor
redundancia
Canales con mayor probabilidad de error (probabilidad cercana a 0.5) precisarn mayor
redundancia
Cuestiones de seguridad
Se desea proteger la informacin para que slo los usuarios autorizados puedan
acceder a ella, por ejemplo mediante encriptacin
CODIFICADOR CODIFICADOR
FUENTE CRIPTOGRAFA
DE FUENTE DE CANAL
2.3 Entropa
Casos Favorables
Probabilidad =
Casos Posibles
Reglas bsicas:
p ( x, y )
Probabilidad conjunta de x e y. Por definicin: p( x | y)
p( y)
de la definicin se deduce que: p ( x, y ) = p ( x | y ) p ( y ) = p ( y | x ) p ( x )
p( x | y ) p( y )
Teorema de Bayes: p ( y | x) =
p( x)
TEMA 1 - TEORIA DE LA INFORMACION 37
2. Fundamentos matemticos
2.2. Cuantificacin de la informacin
Evento con probabilidad de ocurrencia alta genera poco conocimiento (despeja poca
incertidumbre) Aporta poca informacin
Evento con probabilidad de ocurrencia baja genera mucho conocimiento (despeja mucha
incertidumbre) Aporta mucha informacin
1
I=f donde p(x) es la probabilidad del suceso x
p( x)
Debe poseer una mtrica lineal: la informacin proporcionada por dos mensajes
debe ser igual a la suma de informacin suministrada por cada uno de ellos:
Shannon propuso una frmula para medir la cantidad de informacin I que proporciona
un suceso en funcin de su probabilidad:
1
I ( x) = log b = log b p ( x) b es la base del logaritmo
p( x)
p(x) es la probabilidad del suceso x
Ejemplo:
{ xi }
Genera smbolos xi m simbolos posibles { x1, x2, x3,...., xm}
con cierta cadencia
Para las fuentes sin memoria el valor de la entropa denotado como H(X)
viene dado por la frmula siguiente:
1
H ( X ) = E [ I ( X = xi ) ] = p ( xi ) I ( X = xi ) = p ( xi ) log a
xi X xi X p ( x )
i
La entropa representa:
Propiedades de la entropa:
H(X)0 (la fuente suministra una informacin media mayor o igual que cero, p(xi) 0 y
log(1/p(xi)) 0)
X no suministra informacin cuando slo emite un mensaje entre todos los posibles, H(X)=0 :
1, i= j 1 1 1 1
{ x1 , x2 ,...., xm } ; p( xi ) = H ( X ) = 0 log + 0 log + " 0 log + 1 log = 0
0, i j 0 0 0 1
Logaritmos
en base 2
1 1
H 2 ( p ) = p log + (1 p ) log H (X ) Si X es binaria H(X) = H(p)
p 1 p
para p = 0 H 2 ( p ) = 0
H 2 = log 2 2 + log 2 ( 2 ) = 1
1 1 1
para p = 1 H 2 ( p ) = 0 2 2 2
bits
H 2 ( p)
Sistema determinista
0 0.5 1 p
TEMA 1 - TEORIA DE LA INFORMACION 48
2. Fundamentos matemticos
2.3. Entropa
Entropa conjunta:
Entropa conjunta:
H(X,Y) = H(Y,X)
Al considerar las fuentes de forma conjunta puede ser que las fuentes tengan
informacin comn
Ejemplo:
Entropa conjunta:
H(X) H (Y ) H(X) H (Y )
H ( X ,Y ) H ( X ,Y )
Entropa condicional:
?
Y
Entropa condicional:
H ( X |Y ) H (Y | X )
H ( X | Y ) = H (X ) H (Y | X ) = H (Y )
Lo que queda por conocer de X conocido Y
Entropa condicional:
Por definicin: H ( X | Y ) H ( X , Y ) H (Y )
H(X)
H (Y ) H(X,Y) = H(Y) + H(X|Y) H(X|Y) = H(X,Y) H(Y)
H ( X |Y ) H (Y | X ) H(Y,X) = H(X) + H(Y|X) H(Y|X) = H(Y,X) H(X)
H(X,Y) = H(Y,X)
H ( X ,Y )
TEMA 1 - TEORIA DE LA INFORMACION 55
2. Fundamentos matemticos
2.4. Entropa de sucesos modelados por dos variables aleatorias
Entropa condicional:
H ( X | Y ) = H ( X , Y ) H (Y )
1 1
H ( X , Y ) = p ( xi , y j ) log = p ( xi , y j ) log =
p ( xi , y j ) i j p ( xi | y j ) p ( y j )
i j
1 1
= p ( xi , y j ) log + p ( xi , y j ) log =
( i j) i j ( j)
i j p x | y p y
1 1 1
= p ( xi , y j ) log + p ( y j ) log = p ( xi , y j ) log + H (Y )
p ( xi | y j ) j p( yj ) i j p ( xi | y j )
i j
1 1
H ( X | Y ) = p ( xi , y j ) log + H (Y ) H (Y ) = p ( xi , y j ) log
p ( xi | y j ) p ( xi | y j )
i j i j
1
H ( X | Y ) = p ( xi , y j ) log
p ( xi | y j )
i j
TEMA 1 - TEORIA DE LA INFORMACION 56
2. Fundamentos matemticos
2.4. Entropa de sucesos modelados por dos variables aleatorias
Entropa condicional:
Interesa que X e Y tengan alto grado de parecido (no significa que tomen los mismos valores)
quiere decir que con los valores de Y se pueda concluir algo sobre los valores de X.
Adems no tienen porqu tener la misma distribucin para los distintos smbolos
TEMA 1 - TEORIA DE LA INFORMACION 57
2. Fundamentos matemticos
2.4. Entropa de sucesos modelados por dos variables aleatorias
Entropa condicional:
Cunto vale H ( X / Y ) ?
2 2 1 p ( y = "0"| x = "1") = p
H ( X | Y ) = p ( xi , y j ) log
p ( xi | y j )
i =1 j =1
p ( y = "1" | x = "1") = 1 p
TEMA 1 - TEORIA DE LA INFORMACION 58
2. Fundamentos matemticos
2.4. Entropa de sucesos modelados por dos variables aleatorias
Entropa condicional:
p ( xi , y j )
p ( xi , y j ) = p ( y j | xi ) p ( xi ) p ( y j ) = p ( xi , y j ) p( xi | y j ) =
n
i =1 p( y j )
La solucin es: H(X|Y) = 0.64 bits por smbolos, queda bastante incertidumbre por despejar, el
canal es muy ruidoso
En un canal ideal sera H(X|Y)=0 (conocida la salida, conozco la entrada sin incertidumbre)
Para la fuente del ejemplo, la entropa es: H ( X ) = p ( x0 ) log 1 + p ( x1 ) log 1 = 0.88 bits
p(x ) p ( x1 )
0
Informacin Mtua:
Es una medida de la informacin que contiene una variable aleatoria sobre otra
H(X )
I ( X ;Y ) H(X): incertidumbre sobre X antes de conocer Y
y antes de conocer X
Informacin Mtua:
Algebraicamente:
1 1
I ( X ; Y ) = H ( X ) H ( X / Y ) = p ( xi ) log p ( xi , y j ) log
( i) i j p ( xi | y j )
i p x
1 1
= p ( xi , y j ) log p ( xi , y j ) log =
p ( xi ) i j p ( xi | y j )
i j
1 1 p ( xi | y j )
p ( xi , y j ) log log = p ( xi , y j ) log
p ( xi ) p ( xi | y j ) i j
p ( xi )
i j
TEMA 1 - TEORIA DE LA INFORMACION 62
2. Fundamentos matemticos
2.4. Entropa de sucesos modelados por dos variables aleatorias
Informacin Mtua:
La informacin entre un par de mensajes puede ser negativa, pero entre dos
fuentes nunca
p( xi | y j ) p( y j | xi )
{ }
I ( X ; Y ) = E I ( xi , y j ) ; I ( xi , y j ) = log
p ( xi )
= log
p( y j )
p ( xi | y j )
{ }
I ( X ; Y ) = E I ( xi , y j ) = p ( xi , y j ) log
p ( xi )
i j
Informacin Mtua:
Propiedades:
La informacin mtua puede ser como mximo igual a la incertidumbre de la variable con menor
entropa:
H(X )
I ( X ;Y )
I(X;Y) H(X)
I(X;Y) H(Y)
H ( X |Y ) H (Y | X )
H (Y )
Ejemplo de Aplicacin:
Tenemos dos monedas, una falsa con 2 caras y una buena con cara y cruz. De
una bolsa sacamos una de las dos monedas, se tira al aire dos veces y se anota
el n de caras. Queremos saber a partir del n de caras cul fue la moneda
escogida. Aumentando el n de tiradas podemos saber cul fue la moneda
escogida?
Ejemplo de Aplicacin:
X Y 0 caras
Proceso 1 cara
2 caras
Falsa: 2 caras
I(X;Y) ?
2 caras
buena 1 cara y 1 cruz
2 cruces
Ejemplo de Aplicacin:
0
1/4
CZ
1
1/2
c c = z z =
4
1
1 1 1
c z = z c = + =
4 4 2
1/4
CC
1
2
Ejemplo de Aplicacin:
1 1
p ( xi = ' CZ ' ) = p ( xi = ' CC ') =
2 2
I ( X ;Y ) = H ( X ) H ( X / Y )
1
H ( X | Y ) = p ( xi , y j ) log
i j p ( xi | yi )
Ejemplo de Aplicacin:
Alfabeto de salida
Alfabeto de entrada 0
1/8
3/8
CZ 1
3/8
1/8 2
CC
1
3
Esta probabilidad va disminuyendo
Ejemplo de Aplicacin:
Informacin Mtua:
Informacin mtua con dos o ms fuentes (en este caso 3 variables aleatorias):
I(Z;X,Y) = H(Z) H(Z|X,Y): Razomaniento idntico a I(X;Y) (slo 2 variables), pero donde
apareca p(yj) ahora se pondr p(xi,yj)
I(Z;X,Y) = I(X,Y;Z)
I(Z;Y) I(Z;X,Y), ya que la fuente X puede aportar informacin sobre Z que no aporta Y
(ejemplo escuchar 3 emisoras de radio)
I (Z ;Y ) I (Z ;Y )
I (Z; X , Y )
Z Y Z Y
X I (Z ; X )
TEMA 1 - TEORIA DE LA INFORMACION 71
2. Fundamentos matemticos
2.5. Teorema del proceso de la Informacin
p ( zi | x j , yl ) = p ( zi | yl )
X Y Z
p(Y | X ) p(Z | Y )
Al ocurrir esto, X Y Z forman una cadena de Markov (no hay memoria de una
caja a otra)
Caracterstica: X i 1 X i X i +1
Las probabilidades de transicin de Xi a X i +1 , no dependen de X i 1
TEMA 1 - TEORIA DE LA INFORMACION 72
2. Fundamentos matemticos
2.5. Teorema del proceso de la Informacin
p ( xi / yi , zi ) = p ( xi / yi )
I ( Z ; X ,Y ) = I ( Z ;Y )
I ( X ;Y , Z ) = I ( X ;Y )
I ( X ; Z ) I ( X ;Y , Z ) =
N I ( X ;Y )
Trans. ant.
I ( X ;Y ) X Y Z
I ( X;Z )
I (Y ; Z )
Aplicacin en comunicaciones:
U I ( X ;Y )
X Y Z I ( X ; Z )
Fuente Cod Canal Canal Dec Canal Destino I ( X ,U )
I (Y ;U )
I (Y ; Z )
3.1 Introduccin
Modelo
La codificacin de fuentes:
El alfabeto de la fuente
El alfabeto del sistema de transmisin
a0 b0
a1 b
1
A C: A B B
an bm
C 1 : B A
Los smbolos del canal sern: (punto y lnea) y el alfabeto fuente ser las letras
del alfabeto ingls ms los diez smbolos decimales
............ ............
.................
X 0,0013
Y 0,0164
Z 0,0005
Es posible que el vector de smbolos de canal asociados a cada vector de smbolos de fuente no
tenga longitud constante
Salida en el instante i-simo modelada con una variable aleatoria Ui, con lo
que se puede aplicar todo lo visto en el apartado 2 Fundamentos
matemticos
Por ejemplo, en el caso de una fuente que emite dos smbolos A y B, en lugar de
cogerlos de uno en uno, esperamos un tiempo y los agrupamos de dos en dos,
con lo que quedaran agrupados como AA, AB, BA y BB (mensajes = agrupacin
de smbolos)
1
H ( S k ) = p ( i ) log
Sk p ( i )
1 1 1
H ( S k ) = p ( i ) log = p( i ) log + p ( i ) log + ...
Sk p ( si1 ) p ( si 2 ) ... p( sik ) Sk p ( si1 ) S k p ( si 2 )
1
... + p ( i ) log
Sk p( sik )
1 1 q
1
k i p(s ) k i1 i 2 ik
p ( ) log = p ( s , s , , s ) log =
p ( si1 ) i1=1
p ( si1 ) log
p( si1 )
= H (S )
S i1 S
En el modelo:
La fuente emite smbolos a los que se desea dar una representacin lgica
(mediante dgitos)
Esta fuente puede considerarse como tal (emite smbolos) o como una fuente de
orden superior (emite mensajes agrupaciones de smbolos)
CODIGO
SMBOLO
Los cdigos de longitud fija sin palabras cdigo repetidas son todos unvocamente
decodificables
Ejemplo:
01 001
No es
unvocamente
01001 decodificable,
hay varias
soluciones en la
010 01 decodificacin
Concatenacin de cadenas 1 2
1 2 = u11 , u12 ,......., u1l1u21 , u22 ,..........u2l 2
Longitud de la concatenacin 1 2 = 1 + 2
1 prefijo de
= 1 + 2 + 3 2 subcadena de
Si
3 sufijo de
TEMA 1 - TEORIA DE LA INFORMACION 91
3. Fuentes discretas y teorema de codificacin de fuentes
3.3. Cdigos Unvocamente Decodificables
Ejemplo:
Concatenacin: 1 * 2 = {0112222}
Longitud concatenacin = | 1 | + | 2 | = 7
La concatenacin se produce al codificar los smbolos de fuente:
A {0112}, B {222}; ABAAAB 0112222011201120112222
Cdigos prefijos
Definicin: un cdigo se llama prefijo si ninguna de sus palabras cdigo son prefijo
de otras palabras cdigo.
Ejemplos:
C = { 1 , 2 ,....., N }
1. C0 = C; i = 1
4. Si Ci C0 No es u.d. y terminamos
INTERSECCIN
(Tienen algo en comn)
5. i = i + 1 , volver al paso 2
A B C D E F
Ejemplo:
3. C1 no est vaco, ni C1 = C0
4. La interseccin de C1 con C0 es
5. i = i + 1 = 2;
Ejemplo:
Ejemplo
01111 01111
01 11 1011 11
Teorema de Kraft
A=0
B=1
C = {00, 01, 10, 11}: No puede existir un cdigo prefijo!
R
i =1
| i |
1
Ordenar las cadenas de forma que 0 1 ......... N (por longitudes de menor a mayor)
j 1
0 = 0, j = R
j i
Calcular los nmeros enteros , 1 j N 1
i =0
j se construye con la representacin en base R de j , precedida de los ceros necesarios para que
su longitud sea la deseada
{ i } ordenando {1,3,3,3,4}
0 1 2 3 4
TEMA 1 - TEORIA DE LA INFORMACION 102
3. Fuentes discretas y teorema de codificacin de fuentes
3.3. Cdigos Unvocamente Decodificables
i =0
1
2 = 2 2 i
=2
31
+2
3 3
=5
i =0
2
3 = 2 3 i
=2
31
+2
3 3
+2
3 3
=6
i =0
3
4 = 2 4 i
=2
4 1
+2
4 3
+2
4 3
+2
4 3
= 14
i =0
i { i } i i (base 2) i
0 1 0 0 0
1 3 4 100 100
2 3 5 101 101
3 3 6 110 110
4 4 14 1110 1110
Teorema de McMillan
Dadas un conjunto de longitudes de palabras cdigo {l1, l2, , lN} = {|1|, |2|, , |N|} y un
alfabeto cdigo de R smbolos, existe un cdigo unvocamente decodificable con esas longitudes
si y slo si se cumple que:
1
R | i |
i =1
Las fuentes y sus caractersticas: emiten smbolos a los que se desea dar un
soporte lgico.
Los cdigos: han de ser unvocamente decodificables y cumplir el teorema de
Kraft-McMillan, existiendo muchos cdigos que cumplen ambos requisitos.
Sea un cdigo que asocia los smbolos de una fuente s1, s2, s3, , sN con las
palabras X1, X2, X3, , XN (de un alfabeto R-ario).
Supongamos que las probabilidades de los smbolos de la fuente son p1, p2, p3, ,
pN y las longitudes de las palabras cdigo l1, l2, l3, , lN
Definiremos la longitud media del cdigo L (medida en dgitos R-arios por palabra
cdigo) por la ecuacin:
N
L = pi li
i =1
N
Con la restriccin: C : R li 1 Alfabeto R-ario
i =1
Se tiene N variables (li con N > 1) y 1 condicin (C), es posible aplicar el mtodo
de Lagrange para minimizar L bajo la condicin C.
N N
1
L = pi li = pi log R = H R (S )
i =1 i =1 pi
TEMA 1 - TEORIA DE LA INFORMACION 108
3. Fuentes discretas y teorema de codificacin de fuentes
3.4. Teorema de codificacin de fuentes
1
Fuentes con li = log R no entero no ser posible encontrar un cdigo
pi
con longitud media igual a la entropa de la fuente (HR(S))
Se definen los cdigo ptimos como aquellos cuya longitud media es igual o
menor que la longitud media de todos los cdigos unvocos que pueden
aplicarse a la misma fuente y el mismo alfabeto (un cdigo ptimo es el de
menor longitud media).
TEMA 1 - TEORIA DE LA INFORMACION 109
3. Fuentes discretas y teorema de codificacin de fuentes
3.4. Teorema de codificacin de fuentes
De tal forma que la longitud media de un cdigo ptimo para cierta fuente no
tiene por qu coincidir con el valor de la entropa de sta (cota mnima
absoluta)
l
As, dada una fuente S de N smbolos con pi = R i y un alfabeto cdigo de R
smbolos, HR(S) (entropa calculada tomando como base de los logaritmos a R)
representa el mnimo nmero medio de smbolos del alfabeto cdigo necesarios
para describir los mensajes de la fuente S
Las longitudes de las palabras cdigo que habr que tomar para codificar S con
un cdigo ptimo son li; cualquier otro conjunto de longitudes para las palabras
cdigo que cumplan K-M, dar lugar a un cdigo no ptimo con longitud media
l
Cdigos ptimos. Caso I, li entero. Ejemplo I (Fte equip. con pi = R i ):
La entropa de la fuente es
4
1
H ( S ) = pi log = 2 bits / simbolo
i =1 pi
Por lo visto hasta ahora, es imposible codificar los smbolos de esta fuente
mediante un cdigo binario unvoco, de longitud inferior a 2 unidades binarias
por smbolo. Cada smbolo de la fuente tiene una probabilidad de 1/4, luego
un cdigo ptimo deber tener cuatro palabras de longitud 2
1
li = log 2 = log 2 4 = 2
TEMA 1 - TEORIA DE LA INFORMACION 1/ 4 112
3. Fuentes discretas y teorema de codificacin de fuentes
3.4. Teorema de codificacin de fuentes
S1 00
S2 01 Algoritmo
S3 10 Cdigos Prefijo
S4 11
li
Cdigos ptimos. Caso I, li entero. Ejemplo II (Fte no equip. con pi = R ):
Para alcanzar el mnimo (1,75 dig. bin. por pal. cd.), se adoptarn palabras de
longitudes respectivamente de 1,2,3,3
TEMA 1 - TEORIA DE LA INFORMACION 114
3. Fuentes discretas y teorema de codificacin de fuentes
3.4. Teorema de codificacin de fuentes
S1 0
S2 10 Algoritmo
S3 110 Cdigos Prefijo
S4 111
1
Cuando se cumple que log R no es entero, parece lgico pensar que
pi
las menores longitudes a escoger se obtendrn al redondear al valor entero
inmediatamente superior, de tal forma que se cumple
1 1
log R li < log R + 1
pi pi
1 1
log R
pi
li
pi
R li R li pi ; R p
i
li
i
i =1
Multiplicando
1 1 por y sumando para todos los
log R li < log R + 1 pi
pi pi
valores de i:
1 1 1 1
pi log R
pi
pi li < pi log R + 1
pi
p log
i
i R
pi
pi li < pi log R + pi 1
i i pi i
H R (S ) L < H R (S ) + 1
Se obtiene un cdigo ptimo para esa fuente al tomar estas longitudes para las
palabras cdigo? La respuesta es: generalmente NO.
2 2 1
LB = 1 + 2 + 2 = 1'33
3 9 9
Este valor supone una notable mejora sobre la longitud media del cdigo A.
1
Cmo conseguir un cdigo ptimo si log R no es entero? Utilizando el
pi
Eficiencia de un cdigo
H R ( S k ) Lk < H R ( S k ) + 1
Lk 1
Dividiendo por k: H R (S ) < H R (S ) +
k k
a) Asignar un smbolo del alfabeto cdigo a cada una de las ltimas R probabilidades
c) Con las probabilidades obtenidas como suma, retroceder la suma, y asignar a cada
sumando como prefijo el cdigo de la suma, junto con un nuevo smbolo del alfabeto
cdigo
Sol.
Ejemplos de codificacin:
Cdigo 1: Cdigo 2:
Longitud Media = 1.4 Longitud Media = 1
a = 100 30.1 a=0 10.1
b = 11 20.2 b=1 10.2
c=0 10.7 c=2 10.7
Extendemos la fuente
U = {aa; ab; ac; ba; bb; bc; ca; cb; cc} k = 2
p = {0.01; 0.02; 0.07;0.02;0.04; 0.14; 0.07;0.14;0.49}
H 3 (U 2 ) = 2 H 3 (U ) = 1.45969
1 5 3
{ i } = {1; 2; 2; 2; 2; 2;3;3;3} + + =11
3 9 27
L2 = 0.49 + 2 ( 0.14 + 0.14 + 0.07 + 0.07 + 0.04 )
+3 ( 0.02 + 0.02 + 0.01) = 1.56 digitos ternarios por palabra codigo
1.56 > H 3 (U 2 )
0 = 0 0 0,49 cc
1 = 3 10 0,14 cb
2 = 4 11 0,14 bc
3 = 5 12 0,07 ac
4 = 6 20 0,07 ca
5 = 7 21 0,04 bb
6 = 24 210 0,02 ab
7 = 25 221 0,02 ba
8 = 26 222 0,01 aa
Codificacin aritmtica
0
1 p
0
p
p
1 1
1 p
p( xi | y j ) = p ( xi ) y p ( y j | xi ) = p ( y j )
H(X|Y) toma su valor mximo H(X).
01 01
X' Y'
BSC
X Y
000 111 000
001
111
La variable X toma valores 0 y 1 y a la salida del canal se tiene Y que toma
valores 0 y 1 tambin
C = max I ( X ; Y )
p( x )
I(X;Y) nos da la informacin que conocemos del smbolo de entrada X por cada
smbolo de salida Y, es decir, la informacin que hacemos llegar a la salida desde la
entrada del canal cada vez que hacemos uso de l.
Lo que nos queda de informacin de X por conocer, H(X|Y), es lo que habr que
estimar y ah es donde puede producirse el error
Queremos la relacin entre X e Y por la fuente que mejor aprovecha el canal (la que
consigue transmitir ms informacin por cada smbolo de canal)
TEMA 1 - TEORIA DE LA INFORMACION 138
4. Canales discretos y teorema de codificacin de canal
4.2. Capacidad de un canal
Ejemplo
1 AY = {0,1}
0 0
ln ( H ( X ) H ( X | Y ) ) ln 1 ln (1 ) (1 ) 1
log 2 = = + + =0
ln 2 d ln 2 ln 2 ln 2 ln 2 1
1 1
ln =0 = 1 = 0.5
TEMA 1 - TEORIA DE LA INFORMACION 139
4. Canales discretos y teorema de codificacin de canal
4.2. Capacidad de un canal
Ejemplo
Canal binario simtrico
0
1 p
0
p
1 1
1 p
1 1 1 1
H (Y | X ) = p ( x = 0 ) p log + (1 p ) log + p ( x = 1) p log + (1 p ) log =
p 1 p p 1 p
1 1
= p log + (1 p ) log = H ( p)
p 1 p
TEMA 1 - TEORIA DE LA INFORMACION 140
4. Canales discretos y teorema de codificacin de canal
4.2. Capacidad de un canal
Ejemplo
Valores posibles de p:
p=0.5, la capacidad es C=0.
p=0 p=1, el canal es determinista y C=1.
Cuando H(Y|X)=0:
Propiedades de la capacidad
Capacidad = 0.32;
Distribucin a la entrada:
P(A)=0.6; P(B)=0.4
En una comunicacin interesa que C sea alto, da igual como sea X (H(X)).
Planteamiento general
X' X
Fuente Cod de fuente Cod de canal CANAL
Planteamiento general
La respuesta es SI
Planteamiento general
Cdigos bloque
Cdigos bloque
Para una k dada, la cadencia del cdigo se acerca a 0 a medida que la longitud
del bloque n crece hasta el infinito
1 Rs L 1
RS = RC =
TS L k TC C
n
Parmetros:
Parmetros:
Cadencia = L Tc / Ts
El canal tiene una capacidad de C unidades R-arias de informacin por dgito R-ario
(los dgitos R-arios son propios del sistema de transmisin digital)
La capacidad del canal siempre sera C 1 unidad R-aria de informacin por dgito
R-ario
Teorema:
Sea una fuente discreta sin memoria con alfabeto fuente S que tiene una entropa H(S)
y produce smbolos cada Ts segundos
Sea un canal discreto sin memoria con capacidad C que es usado cada Tc segundos
H (S ) C
Si existe un esquema de codificacin para el que la
Ts Tc
salida de la fuente puede ser transmitida por el canal y reconstruida en destino con
una probabilidad de error arbitrariamente pequea
C
El parmetro es conocido como tasa crtica
Tc
Teorema:
H (S ) C
Si > no es posible transmitir informacin por el canal y reconstruirla con una
Ts Tc
probabilidad de error todo lo pequea que se quiera
Del teorema anterior es posible extraer la cadencia del codificador de canal para un canal
determinado:
HR(S) son las unidades R-arias de informacin por mensaje, y tambin son los dgitos
R-arios por mensaje (teorema de codificacin de fuentes)
Se trata de la mnima
H(S)/Ts es la entrada al cadencia, k/n, que se
k H ( S )Tc codificador de canal puede conseguir (no se
= C puede comprimir ms de
n min Ts Tc es la salida del
codificador de canal HR(S) dgitos R-arios
por smbolo de fuente)
Teorema:
k C
introducir una probabilidad de error en el sistema:
n 1 H ( Pe )
k C 0.5
4 Pe = 0.29
n 1 H ( Pe ) 1 H ( Pe )
10-2
10-6
10-8
10-10
10-14
1
C 1/3 1/5 1/7 1/9 1/11
Proporcin de mensaje, mensajes binarios/unidades binarias
Pb
k/n
0
0 C