Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Información Mutua
Información Mutua
Ir a la navegaciónIr a la búsqueda
En teoría de la probabilidad, y en teoría de la información, la información
mutua o transinformación de dos variables aleatorias es una cantidad que
mide la dependencia mutua de las dos variables, es decir, mide la reducción de
la incertidumbre (entropía) de una variable aleatoria, X, debido al conocimiento
del valor de otra variable aleatoria Y. 1
Índice
1Definición
2Información mutua media
o 2.1Concepto intuitivo
o 2.2Propiedades
o 2.3Relación con entropía
3Véase también
4Referencias
¿Esta página se cargó con suficiente rapidez?
No lo séNoSí
Todos los envíos son anónimos. Consulta la normativa de privacidad.
Definición[editar]
Consideremos dos variables aleatorias X e Y con posibles valores x i, i=1,2,...,n,
yj, j=1,2,...,m respectivamente. Podemos usar la notación y
Podemos definir la información mutua entre y como:2
La unidad del concepto está determinado por la base del logaritmo usado.
Se suelen usar logaritmos base dos, por tanto, la unidad de medida más
común es el bit.
De la propia definición podemos concluir que ya que: