Documentos de Académico
Documentos de Profesional
Documentos de Cultura
S TX Datos Utp PG 2022-s4
S TX Datos Utp PG 2022-s4
TRANSMISIÓN DE DATOS
SESION 4:
Presentación del Docente:
Datos/Observaciones
Utilidad
Datos/Observaciones
Logro de la Sesión:
¿Cuál es la utilidad que Ud. considera que tiene el desarrollo del tema
durante la sesión de clases?
Datos/Observaciones
Exposición por el Docente, de la Utilidad del tema:
Datos/Observaciones
LA ENTROPÍA CONDICIONADA
Datos/Observaciones
PUEDE INTERPRETARSE LA ANTERIOR MAGNITUD COMO LA INCERTIDUMBRE DE X DADO
UN VALOR PARTICULAR DE Y , PROMEDIADO POR TODOS LOS VALORES POSIBLES DE Y .
H (X ,Y )
H ( X | Y ) I ( X ;Y ) H (Y | X )
H (X ) H (Y )
Datos/Observaciones
La entropía condicional es un concepto que se construye a partir de las
probabilidades condicionales entre dos variables aleatorias X y Y. La
𝑥𝑖
expresión P cuantifica la probabilidad de que ocurra 𝑥𝑖 dado que 𝑦𝑖 se
𝑦𝑖
Datos/Observaciones
H(X/Y) se interpreta como la incertidumbre promedio sobre la variable X cuando se conoce el
estado de Y.
Intuitivamente H(X/Y) está asociada a la información extra que posee X respecto a Y y a la
información que ambas variables comparten.
Se introduce entonces la regla de la cadena para la entropía, análogo a la regla de la cadena
para la probabilidad conjunta p 𝑥, 𝑦 = 𝑝 𝑥Τ𝑦 . 𝑝 𝑦
Datos/Observaciones
Si se considera el caso en el que un receptor que tiene total conocimiento sobre la
variable Y desea conocer el estado de un posible emisor con conocimiento sobre X. Para
conocer el estado total de X, el emisor debe enviar la información faltante, es decir, la
información que el receptor ignora, que viene dada por la diferencia entre la información
conjunta de X y Y y el prior H(Y ). Por lo tanto la cantidad de bits (en el caso del logaritmo
en base 2) es H(X;Y) - H(Y) que es igual a la entropía condicional H(XjY ). Según esto, la
entropía condicional cuantifica la incertidumbre de Y respecto a X. Por lo tanto
Datos/Observaciones
Es decir, H(X,Y) ≥ H(Y) porque, intuitivamente la cantidad de información conjunta
entre X y Y es mayor o igual a la cantidad de información asociada a Y únicamente.
Datos/Observaciones
H(X,Y)
H(X)
H(Y)
I ( X ;Y ) = H ( X ) − H ( X | Y ) = H (Y ) − H (Y | X )
I ( X ;Y ) = H ( X ) + H (Y ) − H ( X , Y )
H ( X , Y ) = H ( X | Y ) + H (Y | X ) + I ( X ;Y )
H (X ) H (X | Y)
H (Y ) H (Y | X )
Cuando las variables son independientes
H(X,Y)=H(X)+H(Y), la información mutua será nula
I(X;Y)=0.
Datos/Observaciones
Sean X y Y variables aleatorias. Si están correlacionadas existe cierta información
conocida por ambas variables.
La información mutua se introduce para cuantifica esa información y se define como:
Datos/Observaciones
LEY DE ENTROPÍAS TOTALES
Datos/Observaciones
▪ La entropía de un sistema puede verse como una medida del
desorden de sus componentes.
▪ La entropía en teoría de la información guarda relación con la
incertidumbre que existe en cualquier experimento o señal
aleatoria.
▪ La entropía es la cantidad de «ruido» o «desorden» que contiene
o libera un sistema y por lo tanto la cantidad de información que
lleva una señal.
Datos/Observaciones
La Teoría de Shannon, no ilustra acerca del valor de
la información, que depende mucho del contexto.
Datos/Observaciones
ESCUELA DE INGENIERÍA DE REDES Y
COMUNICACIONES
LAS VARIABLES DISCRETAS SON AQUELLAS CUYAS
OBSERVACIONES SE AGRUPAN ‘INHERENTEMENTE’ O
‘NATURALMENTE’ EN CATEGORÍAS, PORQUE DICHAS
VARIABLES POR SU NATURALEZA SÓLO PUEDEN
TOMAR CIERTOS VALORES MUY ESPECÍFICOS
Datos/Observaciones
EN EL CÁLCULO DE LA ENTROPIA E INFORMACIÓN EN
EL CASO DISCRETO, SE TRATA DE LLEGAR A
DETERMINAR LA FORMA MÁS ECONÓMICA, RÁPIDA
Y SEGURA DE CODIFICAR UN MENSAJE, SIN QUE LA
PRESENCIA DE ALGÚN RUIDO COMPLIQUE SU
TRANSMISIÓN
Datos/Observaciones
UN CANAL PUNTO A PUNTO DISCRETO, SE CARACTERIZA:
▪ POR UN CIERTO RÉGIMEN UNIFORME DE TRANSMISIÓN (LA INVERSA DEL TIEMPO NECESARIO PARA LA
TRANSMISIÓN DE CADA SÍMBOLO).
▪ POR UN CIERTO RETARDO DE PROPAGACIÓN (EL TIEMPO NECESARIO PARA QUE UN SÍMBOLO ATRAVIESE EL
CANAL).
▪ POR UN CIERTO ALFABETO (EL CONJUNTO DE LOS SÍMBOLOS QUE PUEDE TRANSMITIR)
o UN ALFABETO DE ENTRADA, CON UN NÚMERO DE ELEMENTOS IGUAL AL DE SÍMBOLOS DISTINTOS QUE
PUEDAN FORMAR PARTE DE LOS MENSAJES QUE SE INTRODUCEN EN EL CANAL;
o UN ALFABETO DE SALIDA (NO NECESARIAMENTE IGUAL AL ALFABETO DE ENTRADA), CON UN NÚMERO DE
ELEMENTOS IGUAL AL DE SÍMBOLOS DISTINTOS QUE SE PUEDAN IDENTIFICAR EN LOS MENSAJES QUE
SALEN DEL CANAL;
o UNA REPRESENTACIÓN ESTOCÁSTICA DEL RUIDO QUE AFECTA A LA TRANSMISIÓN DE LOS MENSAJES.
Datos/Observaciones
FUENTE DISCRETA:
ES UN DISPOSITIVO QUE EMITE CON REGULARIDAD Y DE FORMA ALEATORIA SÍMBOLOS PERTENECIENTES A UN
CIERTO CONJUNTO DISCRETO Y FINITO LLAMADO ALFABETO DE LA FUENTE.
FUENTE DISCRETA SIN MEMORIA:
ES UNA FUENTE DISCRETA EN LA QUE LA EMISIÓN DE CADA SÍMBOLO ES INDEPENDIENTE DE LOS SÍMBOLOS
QUE SE HAYAN EMITIDO CON ANTERIORIDAD.
CANAL DISCRETO:
CANAL POR EL QUE SÓLO SE PUEDEN ENVIAR SECUENCIAS DE SÍMBOLOS DE UN CIERTO ALFABETO; EN EL
SUPUESTO QUE TALES SÍMBOLOS SE ENVÍAN CON UN RÉGIMEN UNIFORME, QUE ES CARACTERÍSTICO DEL
CANAL.
CANAL DISCRETO RUIDOSO SIN MEMORIA:
ES UN CANAL DISCRETO RUIDOSO EN EL QUE EL RUIDO AFECTA DE FORMA INDEPENDIENTE A LA TRANSMISIÓN
DE TODOS LOS SÍMBOLOS.
Datos/Observaciones
ENTROPÍAS A CONSIDERAR EN UN SISTEMA
EN EL CASO DE TENER DOS VARIABLES ALEATORIAS (EJ: TRANSMISOR X Y RECEPTOR Y) SE CONSIDERAN LAS
SIGUIENTES ENTROPIAS PARA MEDIR RELACIONES ENTRE LAS VARIABLES:
▪ H(X,Y) : INFORMACION O ENTROPIA POR PAR DE CARACTERES TRANSMITIDOS Y RECIBIDOS (EN BITS)
Datos/Observaciones
EJEMPLO:
X/Y 1 2 3 4
La entropía denota el mínimo
1 0.25 0 0 0 0.25
número de bits por símbolo
2 0.1 0.3 0 0 0.4
necesarios para representar una
3 0 0.05 0.1 0 0.15 cadena. Es un índice que denota
4 0 0 0.05 0.1 0.15 la cantidad de información que
5 0 0 0.05 0 0.05 existe en una fuente de datos (la
0.35 0.35 0.2 0.1 cadena a codificar).
1 0.25 0 0 0 0.25
H(Y) = -0.25 log 0.35 – 0.1 log 0.35 – 0.3 log 0.35– 0.05 log 0.35 – 0.1log 0.20 – 0.05 log 0.20–
0.05 log 0.20 – 0.1 log 0.1 = 1.856 bits
H(Y) = -0.35 log 0.35 – 0.35 log 0.35 – 0.2 log 0.2– 0.1 log 0.1 = 1.856 bits
H(X, Y) = -0.25 log 0.25 – 0.1 log 0.1 – 0.3 log 0.3 – 0.05 log 0.05 – 0.1log 0.1 – 0.05 log 0.05 –
0.1 log 0.1 – 0.5 log 0.5 = 2.665 bits
H(X|Y) = -p(x1,y1) log p(x1|y1) - p(x2,y1) log p(x2|y1) - p(x2,y2) log p(x2|y2) - p(x3,y2) log
p(x3|y2) - p(x4,y3) log p(x4|y3) - p(x4,y4) log p(x4|y4)- p(x5,y3) log p(x5|y3) -
p(x5,y4) log p(x5|y4)= 0.809 bits
H(X|Y) = 0.35 H(0.25/0.35, 0.1/0.35)+ 0.35 H(0.3/0.35, 0.05/0.35)+ 0.2 H(0.1/0.2, 0.05/0.2,
0.05/0.2)+ 0.1 H(0.1/0.1)= 0.809 bits
ESCUELA DE INGENIERÍA DE REDES Y
COMUNICACIONES
H(Y|X) = - p(y1,x1) log p(y1|x1) - p(y1,x2) log p(y1|x2) - p(y2,x2) log p(y2|x2)-
p(y2,x3) log p(y2|x3) - p(y3,x3) log p(y3|x3) - f(y3,x4) log p(y3|x4)-
f(y3,x4) log p(y3|x4) - p(y3,x5) log p(y3|x5)= 0.6 bits
H(Y|X) = 0.25 H(0.25/0.25) + 0.4 H(0.1/0.4,0.3/0.4)+ 0.15 H(0.05/0.15, 0.1/0.15)+
0.15 H(0.05/0.15, 0.1/0.15)+ 0.05 H(0.05/0.05)= 0.6 bits
H (X,Y)
Hay que notar que H(x,y) < H(X) + H(Y)
La información mutua I(X;Y) es una medida de la información proveída por los pares de
símbolos (x,y), la relación entre I(X;Y) y la entropía es:
H (X,Y)
H (Y)
H (X)
H (Y/X)
H (X/Y)
I (X;Y)
ESCUELA DE INGENIERÍA DE REDES Y
COMUNICACIONES
La capacidad de un canal definida por Shannon es C = max I (X;Y),
Max I (X;Y) es cuando la incertidumbre de lo que se transmitió (X) dado Y es cero o cuando la
incertidumbre de recibir Y dado X es cero:
X/Y 1 2 3 4
1 0.25 0 0 0 0.25
2 0 0.25 0 0 0.25
3 0 0 0.25 0 0.25
4 0 0 0 0.25 0.25
0.25 0.25 0.25 0.25
p( x1| y1) = 0.25/0.25 = 1 , p( x2| y2) = 0.25/0.25 = 1, p( x3| y3) = 0.25/0.25 = 1 , p( x4| y4) = 0.25/0.25 =
1, p( y1| x1) = 0.25/0.25 = 1 , p( y2| x2) = 0.25/0.25 = 1, p( y3| x3) = 0.25/0.25 = 1 , p( y4| x4) =
0.25/0.25 = 1
H(X, Y) = –0.25 log 0.25 –0.25 log 0.25 –0.25 log 0.25 –0.25 log 0.25 = 2 bits
Similarmente H(X | Y) = 0
Para este canal libre de ruido : I(X;Y) = H(X) = H(Y) = H(X,Y) = 2 bits
H (X,Y)
X/Y 1 2
H(Y|X) = 0
1 0.50 0 0.5
0
2 0 0.50 0.5
0 H (X)=H(Y)=H(X,Y)=I(X;Y)
0.50 0.50
H(X) = 1, H(Y) = 1, H(X,Y) = 1,
H(X|Y) = 0, H(X|Y) = 0
I(X;Y)= H(X) – H(X|Y) = 1 – 0 = 1 bit
= H(Y) – H(Y|X) = 1 – 0 = 1 bit
Hay dos dados (los dos están arreglados!) y por consecuencia dos variables aleatoria X e Y con los
siguientes valores y probabilidades.
Posibles eventos : X = [1, 2, 3, 4, 5, 6], Y = [1, 2, 3, 4, 5, 6]
Ejemplo 1: Funciones de probabilidades discreta:
f(x) = {px1, px2, px3, px4, px5, px6} = {1/3,1/3,1/12,1/12,1/12,1/12},
f(y) = {py1, py2, py3, py4, py5, py6} = {1/12,1/12,1/6,1/6,1/6,1/3}
Conclusiones Generales
Datos/Observaciones