Documentos de Académico
Documentos de Profesional
Documentos de Cultura
TRANSMISIÓN DE DATOS
SESION 5:
Presentación del Docente:
Datos/Observaciones
Utilidad
Datos/Observaciones
Logro de la Sesión:
¿Cuál es la utilidad que Ud. considera que tiene el desarrollo del tema
durante la sesión de clases?
Datos/Observaciones
Exposición por el Docente, de la Utilidad del tema:
Datos/Observaciones
EN EL CÁLCULO DE LA ENTROPIA E INFORMACIÓN EN
EL CASO DISCRETO, SE TRATA DE LLEGAR A
DETERMINAR LA FORMA MÁS ECONÓMICA, RÁPIDA
Y SEGURA DE CODIFICAR UN MENSAJE, SIN QUE LA
PRESENCIA DE ALGÚN RUIDO COMPLIQUE SU
TRANSMISIÓN
Datos/Observaciones
ENTROPÍAS A CONSIDERAR EN UN SISTEMA
EN EL CASO DE TENER DOS VARIABLES ALEATORIAS (EJ: TRANSMISOR X Y RECEPTOR Y) SE CONSIDERAN LAS
SIGUIENTES ENTROPIAS PARA MEDIR RELACIONES ENTRE LAS VARIABLES:
▪ H(X,Y) : INFORMACION O ENTROPIA POR PAR DE CARACTERES TRANSMITIDOS Y RECIBIDOS (EN BITS)
Datos/Observaciones
EJEMPLO:
La entropía denota el mínimo número de bits por símbolo necesarios para representar una cadena.
Es un índice que denota la cantidad de información que existe en una fuente de datos (la cadena a
codificar).
X/Y 1 2 3 4
1 0.25 0 0 0 0.25
5 0 0 0.05 0 0.05
Datos/Observaciones
Datos/Observaciones
X/Y 1 2 3 4
1 0.25 0 0 0 0.25
H(Y) = -0.25 log 0.35 – 0.1 log 0.35 – 0.3 log 0.35– 0.05 log 0.35 – 0.1log 0.20 – 0.05
log 0.20– 0.05 log 0.20 – 0.1 log 0.1 = 1.856 bits
H(Y) = -0.35 log 0.35 – 0.35 log 0.35 – 0.2 log 0.2– 0.1 log 0.1 = 1.856 bits
Datos/Observaciones
X/Y 1 2 3 4
1 0.25 0 0 0 0.25
H(X, Y) = -0.25 log 0.25 – 0.1 log 0.1 – 0.3 log 0.3 – 0.05 log 0.05 – 0.1log 0.1 – 0.05
log 0.05 – 0.1 log 0.1 – 0.5 log 0.5 = 2.665 bits
Datos/Observaciones
X/Y 1 2 3 4
1 0.25 0 0 0 0.25
H(X|Y) = -p(x1,y1) log p(x1|y1) - p(x2,y1) log p(x2|y1) - p(x2,y2) log p(x2|y2)
- p(x3,y2) log p(x3|y2) - p(x4,y3) log p(x4|y3) - p(x4,y4) log
p(x4|y4)- p(x5,y3) log p(x5|y3) - p(x5,y4) log p(x5|y4)= 0.809 bits
H(X|Y) = 0.35 H(0.25/0.35, 0.1/0.35)+ 0.35 H(0.3/0.35, 0.05/0.35)+ 0.2
H(0.1/0.2, 0.05/0.2, 0.05/0.2)+ 0.1 H(0.1/0.1)= 0.809 bits
Datos/Observaciones
X/Y 1 2 3 4
1 0.25 0 0 0 0.25
H(Y|X) = - p(y1,x1) log p(y1|x1) - p(y1,x2) log p(y1|x2) - p(y2,x2) log p(y2|x2)-
p(y2,x3) log p(y2|x3) - p(y3,x3) log p(y3|x3) - f(y3,x4) log p(y3|x4)-
f(y3,x4) log p(y3|x4) - p(y3,x5) log p(y3|x5)= 0.6 bits
H(Y|X) = 0.25 H(0.25/0.25) + 0.4 H(0.1/0.4,0.3/0.4)+ 0.15 H(0.05/0.15,
0.1/0.15)+ 0.15 H(0.05/0.15, 0.1/0.15)+ 0.05 H(0.05/0.05)= 0.6 bits
Datos/Observaciones
Hay que notar que H(x,y) < H(X) + H(Y)
Datos/Observaciones
INFORMACION MUTUA
La información mutua I(X;Y) es una medida de la información proveída por los pares de
símbolos (x,y), la relación entre I(X;Y) y la entropía es:
Datos/Observaciones
La capacidad de un canal definida por Shannon es C = max I (X;Y),
Max I (X;Y) es cuando la incertidumbre de lo que se transmitió (X) dado Y es cero o cuando la
incertidumbre de recibir Y dado X es cero:
Datos/Observaciones
PARA UN CANAL LIBRE DE RUIDO (CANAL PERFECTO):
X/Y 1 2 3 4
1 0.25 0 0 0 0.25
2 0 0.25 0 0 0.25
3 0 0 0.25 0 0.25
4 0 0 0 0.25 0.25
0.25 0.25 0.25 0.25
p( x1| y1) = 0.25/0.25 = 1 , p( x2| y2) = 0.25/0.25 = 1, p( x3| y3) = 0.25/0.25 = 1 , p( x4| y4) = 0.25/0.25 = 1,
p( y1| x1) = 0.25/0.25 = 1 , p( y2| x2) = 0.25/0.25 = 1, p( y3| x3) = 0.25/0.25 = 1 , p( y4| x4) = 0.25/0.25 = 1
Todos los otros f(x|y) y f(y|x) son cero
Datos/Observaciones
H(X, Y) = –0.25 log 0.25 –0.25 log 0.25 –0.25 log 0.25 –0.25 log 0.25 = 2 bits
H(X) = –0.25 log 0.25 –0.25 log 0.25–0.25 log 0.25 –0.25 log 0.25 = 2 bits
H(Y) = –0.25 log 0.25 –0.25 log 0.25–0.25 log 0.25 –0.25 log 0.25 = 2 bits
H(Y|X) = - 0.25log1 – 0.25log1 -0.25log1 -0.25log1 = 0
Similarmente H(X | Y) = 0
Para este canal libre de ruido : I(X;Y) = H(X) = H(Y) = H(X,Y) = 2 bits
Datos/Observaciones
PARA UN CANAL CON INPUTS Y OUTPUT INDEPENDIENTES:
X/Y 1 2
0.50 0.50
Datos/Observaciones
PARA UN CANAL LIBRE DE RUIDO (CANAL PERFECTO):
X/Y 1 2
1 0.50 0 0.50 H(Y|X) = 0
2 0 0.50 0.50
0.50 0.50
Datos/Observaciones
ENTROPIA RELATIVA
▪ LA ENTROPÍA RELATIVA ES UNA MEDIDA NO SIMÉTRICA DE LA SIMILITUD O DIFERENCIA
ENTRE DOS FUNCIONES DE DISTRIBUCIÓN DE PROBABILIDAD P(X) Y Q(X). TAMBIÉN ES
CONOCIDA COMO DISTANCIA DE KULLBACK-LEIBLER (KL1 Y KL2), DIVERGENCIA DE LA
INFORMACIÓN O GANANCIA DE LA INFORMACIÓN
▪ LA MEDIDA DE JENSEN/JEFFREYS (SIMÉTRICA) ES LA SUMA DE KL1 Y KL2 : J=KL1+KL2. HAY
MUCHAS OTRAS MEDIDAS DE DIVERGENCIA APARTE DE KL1, KL2 Y J.
▪ KL MIDE EL NÚMERO ESPERADO DE EXTRA BITS REQUERIDOS EN MUESTRAS DE CODIGO
DE P CUANDO SE USA UN CÓDIGO BASADO EN Q, EN LUGAR DE UN CÓDIGO BASADO EN P.
GENERALMENTE P REPRESENTA LA "VERDADERA" DISTRIBUCIÓN DE LOS DATOS,
OBSERVACIONES, O CUALQUIER DISTRIBUCIÓN TEÓRICA. LA MEDIDA Q GENERALMENTE
REPRESENTA UNA TEORÍA, MODELO, DESCRIPCIÓN O APROXIMACIÓN DE P.
Datos/Observaciones
Una divergencia de Kullback-Leibler de 0 indica que las dos
distribuciones en cuestión son idénticas
Datos/Observaciones
Ejemplos de H(x), KL1, KL2 y J:
Hay dos dados (los dos están arreglados!) y por consecuencia dos variables
aleatoria X e Y con los siguientes valores y probabilidades.
Posibles eventos : X = [1, 2, 3, 4, 5, 6], Y = [1, 2, 3, 4, 5, 6]
Ejemplo 1: Funciones de probabilidades discreta:
f(x) = {px1, px2, px3, px4, px5, px6} = {1/3,1/3,1/12,1/12,1/12,1/12},
f(y) = {py1, py2, py3, py4, py5, py6} = {1/12,1/12,1/6,1/6,1/6,1/3}
Datos/Observaciones
Se mide el número esperado de extra bits requeridos en muestras de código de P cuando se usa
un código basado en Q, en lugar de un código basado en P. Generalmente P representa la
"verdadera" distribución de los datos, observaciones, o cualquier distribución teórica. La
medida Q generalmente representa una teoría, modelo, descripción o aproximación de P
Datos/Observaciones
Cierre:
Conclusiones Generales
Datos/Observaciones