Documentos de Académico
Documentos de Profesional
Documentos de Cultura
LA INFORMACIÓN
• Depende de la probabilidad de
ocurrencia del evento
CANTIDAD DE INFORMACIÓN
I ( A) 0
P( A) 1 I ( A) 0
I ( A) f ( P ( A))
P ( A) P ( B ) I ( A) I ( B )
P( A) P( B) I ( AB) I ( A) I ( B)
I ( A) log P ( A)
ENTROPÍA COMO MEDIDA DE LA
CANTIDAD DE INFORMACIÓN
ENTROPÍA COMO MEDIDA DE INDETERMINACIÓN
Una fuente capaz de adoptar aleatoriamente uno de los posibles estados de un
conjunto finito es discreta. Esta se caracteriza por un conjunto de estados Ui
elegidos con mayor probabilidad que otros:
0.8
f ( p ) 0.6
H ( p )0.4
0.2
0
0 0.2 0.4 0.6 0.8 1
p
PROPIEDADES DE LA ENTROPÍA
• La entropía de unión de varias fuentes de información
estadísticamente independientes es igual a la suma de
entropías de las fuentes iníciales:
N k
H( UV ) p( u i vi ) log p( u i v j )
i 1 j1
N k k N
H( UV ) p( u i ) log p( u i ) p( v j ) p( v j ) log p( v j ) p( u i )
i 1 j1 j1 i 1
p( u i v j )
Las probabilidades de realización conjunta de los estados mutuamente
dependiente ui y vi pueden expresarse a través de las probabilidades
condicionales p( u i / v j ) o p( v j / u i )