Documentos de Académico
Documentos de Profesional
Documentos de Cultura
10 Canais Com Ruido
10 Canais Com Ruido
87
probabilidad de que se produzca un error en un sı́mbolo no depende de la
posición de éste. En consecuencia, si x = x1 x2 · · · xn e y = y1 y2 · · · yn son
palabras de longitud n, P (y/x) = Πn1 P (yk /xk ).
1/2
?
1/3
1 1
2/3
En este caso, la matriz de probabilidades condicionadas adopta la forma
88
à !
1/2 1/2 0
0 1/3 2/3
y A = {0, 1} es el alfabeto de entradas y B = {0, ?, 1} el de salidas.
89
6.2. Entropı́a condicional
Si X e Y son variables aleatorias, se define
q
X ¡ 1 ¢
H(X/Y = yj ) = P (xi /yj ) log
i=1
P (xi /yj )
q p
X X ¡ 1 ¢
= P (xi /yj )P (yj ) log .
i=1 j=1
P (xi /yj )
Vemos que en la expresión anterior aparecen las probabilidades hacia atrás
P (xi /yj ). H(X/Y ) mide la incertidumbre que persiste sobre la entrada X,
después de haber conocido la salida Y . En términos de información, H(X/Y )
representa la información que queda en X, después de conocer la salida Y .
También se puede interpretar como la cantidad de información sobre X que
se pierde por causa del canal.
= (1 − p)p0 + pp1 ,
90
P (Y = 1) = P (Y = 1/X = 0)P (X = 0) + P (Y = 1/X = 1)P (X = 1) =
= pp0 + (1 − p)p1 .
Ahora podemos determinar H(X/Y = 0) y H(X/Y = 1):
¡ 1 ¢
H(X/Y = 0) = P (X = 0/Y = 0) log +
P (X = 0/Y = 0)
¡ 1 ¢ ¡ 1 ¢ ¡1¢
+P (X = 1/Y = 0) log = (1 − p) log + p log ,
P (X = 1/Y = 0) 1−p p
¡ 1 ¢
H(X/Y = 1) = P (X = 0/Y = 1) log +
P (X = 0/Y = 1)
¡ 1 ¢ ¡1¢ ¡ 1 ¢
+P (X = 1/Y = 1) log = p log + (1 − p) log .
P (X = 1/Y = 1) p 1−p
Resulta que se tiene la igualdad
¡1¢ ¡ 1 ¢
H(X/Y = 0) = H(X/Y = 1) = p log + (1 − p) log .
p 1−p
Finalmente, calculamos H(X/Y ):
q p
X X ¡ 1 ¢
= P (xi , yj ) log =
i=1 j=1
P (xi )P (yj /xi )
91
q p q p
X X 1 ¢ XX
¡ ¡ 1 ¢
= P (xi , yj ) log + P (xi , yj ) log =
i=1 j=1
P (xi ) i=1 j=1
P (yj /xi )
q p
X ¡ 1 ¢X
= log P (xi , yj ) + H(Y /X) =
i=1
P (xi ) j=1
q
X ¡ 1 ¢
= P (xi ) log + H(Y /X) = H(X) + H(Y /X).
i=1
P (xi )
La otra igualdad se prueba de forma similar. ¤
92
Definición 6.3.2. La capacidad de un canal es el máximo de I(X; Y ) cuando
consideramos todas las distribuciones de probabilidad de la entrada X.
93
¡X 1 ¢¡ X ¢
H(Y |X) = P (yj |xi ) log2 P (xi ) =
j
P (yj |xi ) i
X 1
= P (yj |xi ) log2 .
j
P (yj |xi )
Ahora recordemos que el máximo valor de la entropı́a H(Y ) viene dado por
log2 p y se se alcanza cuando Y tiene la distribución uniforme. Terminamos
la demostración mostrando que cuando X lleva la distribución uniforme,
entonces Y también la lleva. Con esto habrı́amos probado la igualdad (6.1).
Supongamos que P (xi ) = 1q , para cada i = 1, 2, .., q y calculemos P (yj ):
1X
= P (Y = yj |x = xi ).
q i
Como el canal es simétrico, también las columnas de la matriz del canal
constan de los mismos números. Por ello, la suma anterior es independiente
de j, lo que prueba que la distribución de Y es uniforme.
¤
94
6.4. Reglas de decodificación
En la transmisión de información por canales con ruido, es primordial
definir una regla de decodificación que minimice la probabilidad media
de error en la transmisión. El problema de la decodificación consiste en elegir,
para cada salida y una palabra-codigo c. Por tanto, una regla de decodifi-
cación será cualquier aplicación f : B n → C. Fijada la aplicación f , si se
recibe la cadena y, diremos que f (y) es la palabra-código que fue enviada
por el canal. Es decir, f −1 (c) = {y ∈ B n : f (y) = c} es el conjunto de todas
las salidas para las que decidiremos (con esta regla de decodificación f ) que
c es la palabra-código que fue enviada.
Ya hemos visto una regla de decodificación muy usada: la regla de decodi-
ficación por el vecino más próximo. Consistı́a en decodificar la cadena recibida
y con la palabra-código más cercana. Surge el problema de que puede haber,
en algún caso, más de una palabra-código a distancia mı́nima. Se puede adop-
tar la decisión de escoger una de las posibles al azar. Por tanto, puede que se
tome una decisión errónea. Precisamente, a continuación vamos a ocuparnos
del problema de determinar la probabilidad de una decodificación incorrecta.
Recordemos que estamos considerando un canal sin memoria. Por ello,
la probabilidad de recibir y, supuesto que se ha enviado la palabra-código c,
viene dada por P (y|x) = Πnk=1 P (yk |xk ).
95
Si el canal debe transmitir n sı́mbolos del alfabeto A para poder enviar k
simbolos de mensaje fuente, la tasa de transmisión es R = nk bits por sı́mbolo.
El número de mensajes fuentes posibles es q k , por tanto, el código debe tener,
al menos, tamaño m = q k . Por ello, se define la tasa de un código general
como
logq m
R= .
n
96
6.7. El Teorema de codificación para un canal
con ruido
El objetivo fundamental en una comunicación es conseguir reproducir el
mensaje fuente a partir del mensaje recibido. En los canales con ruido, parte
de la información fuente se pierde. Esta información que se pierde viene dada
por H(X|Y ) y depende de las probabilidades del canal y de las probabilidades
de la entrada X. Para compensar esta pérdida de información, los mensajes
fuente se codifican antes de ser enviados por el canal. Recordemos que las
palabras-código que sustituyen a los mensajes fuente tienen un número mayor
de bits, por tanto, también es importante elegir un código con una tasa de
transmisión lo más cercana a 1 posible. Es decir, hay que optimizar la tasa de
transmisión y, por otro lado, minimizar la probabilidad de cometer un error
en la decodificación. Se trata, por tanto, de buscar un compromiso entre estos
dos objetivos opuestos.
Terminamos el tema enunciando el Teorema de codificación para un canal
con ruido. En el enunciado del Teorema [x] denota el menor número entero
que es mayor o igual que x.
lı́m Pemax = 0.
n→∞
El teorema nos dice que existen códigos con una tasa de transmisión todo
lo cercana a C que queramos (y para cada uno una regla de decodificación)
97
de modo que la probabilidad máxima de error puede ser tan pequeña como
queramos. Más precisamente, fijados 0 < R < C y ² > 0, siempre existe un
código C y una regla de decodificación f , tales que la tasa de transmisión
del código es, al menos, R y la probabilidad de error a lo más ². De todas
formas, se trata de un resultado teórico que no nos dice la forma de obtener
los códigos sino que nos asegura que dichos códigos existen.
98