Documentos de Académico
Documentos de Profesional
Documentos de Cultura
ENTROPIA
ENTROPIA
disminuyamos la
(1/p(xi)) =
p(xi)
Su unidad es el bit para ello se utiliza el logaritmo en base 2 (por ejemplo, cuando
se emplea el logaritmo neperiano o natural se habla de nats). Pese al signo
negativo en la ltima expresin, la informacin deber tener siempre el signo
positivo.
La entropa o entropa de la informacin determina como la informacin media
puede adoptar (tambin medida en bits): tambin el lmite mximo al cual se pude
comprimir una informacin sin ninguna prdida de la misma. El clculo se puede
realizar el clculo con la formula siguiente:
Propiedades de la entropa
1. 0 <= H <=
. Es decir, la entropa H est delimitada superiormente
(cuando esta es mxima) y no cuando se supone que no existe perdida de
informacin.
2. Dado un procesos con posibles resultados {A1, .., An} con probabilidades
relativas
3. p1, . . . , pn, la funcin H(p1, . . . , pn), es mxima en el caso de que p1 =
= pn =1/n,
4. Dado un procesos con posibles resultados {A1, .., An} con probabilidades
relativas
5. p1, . . . , pn, la funcin H(p1, . . . , pn), es nula en el caso de que pi = 0 para
cualquier
WEBGRAFIA:
http://sistemas.fciencias.unam.mx/~cvrc/files/stnl.pdf
http://tgsentropia.blogspot.com/2010/10/shannon-y-la-teoria-de-lainformacion.html
http://www.eumed.net/librosgratis/2008b/405/La%20entropia%20de%20Shannon.htm
http://fundamentosdelasticunisalle.blogspot.com/2010/09/la-entropia-de-lainformacion-y-la.html