Documentos de Académico
Documentos de Profesional
Documentos de Cultura
TRANSMISIÓN DE DATOS
S02-s1: Entropía – Información mutua
Logro de la sesión
Datos/Observaciones
Entropía
Definición:
• La entropía H (X) de una variable
n
aleatoria discreta X es definido por:
𝐻 𝑋 = − p(xi ) log p(xi )
i=1
Datos/Observaciones
Entropía - Observación 1
Datos/Observaciones
Entropía - Observación 1
Datos/Observaciones
Entropía - Observación 2
Datos/Observaciones
Ejemplo 2
Datos/Observaciones
Ejemplo 2
• La grafica de la figura representa
la función H2(p) e ilustra alguna
de sus propiedades:
• H(p) es una función con mínimo
en p = 0 o p = 1, cuando la
variable X es determinista, y
• Máximo cuando p = 1/2;
• H(p) es una función
estrictamente convexa.
Datos/Observaciones
Entropía Conjunta
Datos/Observaciones
Relación entre las entropías
individuales y la conjunta
• Se verifica en general que
H(X; Y ) ≤ H(X) + H(Y )
Datos/Observaciones
Entropía condicional
Datos/Observaciones
Ejemplo
Datos/Observaciones
Ejemplo (cont…)
𝐻 𝑋|𝑌 = p yi . 𝐻(𝑋|𝑌 = 𝑖)
i=1
Datos/Observaciones
Ejemplo (cont…)
• Además,
4
𝐻 𝑋|𝑌 = p yi . 𝐻(𝑋|𝑌 = 𝑖)
i=1
Datos/Observaciones
Propiedades de la entropía
condicional
• La entropía condicional es un promedio de entropías, por lo que
adopta siempre un valor no negativo, que será nulo únicamente en el
caso de que todas las entropías que se promedian lo sean, cosa que
sólo puede ocurrir si el valor que adopta la variable aleatoria X
depende funcionalmente del valor que adopta la variable aleatoria Y .
• Regla de la cadena:
H(X) + H(Y |X) = H(Y ) + H(X | Y ) = H(X; Y )
Datos/Observaciones
Teorema
Datos/Observaciones
Información mutua
Datos/Observaciones
Información mutua
Datos/Observaciones
Información mutua
Datos/Observaciones
Información mutua
Datos/Observaciones
Relación entre la información
mutua y la entropía.
Datos/Observaciones
Información mutua-propiedades
• La información mutua entre variables aleatorias discretas tiene una serie de
propiedades que conviene tener en cuenta. Entre ellas cabe destacar las
siguientes:
1. Es siempre no negativa
I(X, Y ) = I(Y, X) ≥ 0.
El valor mínimo I(X, Y ) = 0 se obtiene en el caso en que X e Y son independientes.
2. Su valor máximo esta acotado por el valor de la entropía de cada una de las
variables aleatorias, con lo que en la práctica está acotado por el valor mínimo
de la entropía de las variables aleatorias
I(X, Y ) ≤ mín(H(X), H(Y )).
La información mutua nunca puede ser mayor que la medida de información que tiene cada
una de las variables.
Datos/Observaciones
Información mutua-propiedades
Datos/Observaciones
Preguntas
Datos/Observaciones