Está en la página 1de 1

Información mutua

Ir a la navegaciónIr a la búsqueda
En teoría de la probabilidad, y en teoría de la información, la información
mutua o transinformación de dos variables aleatorias es una cantidad que
mide la dependencia mutua de las dos variables, es decir, mide la reducción de
la incertidumbre (entropía) de una variable aleatoria, X, debido al conocimiento
del valor de otra variable aleatoria Y. 1

Índice

 1Definición
 2Información mutua media
o 2.1Concepto intuitivo
o 2.2Propiedades
o 2.3Relación con entropía
 3Véase también
 4Referencias
¿Esta página se cargó con suficiente rapidez?
No lo séNoSí
Todos los envíos son anónimos. Consulta la normativa de privacidad.

Definición[editar]
Consideremos dos variables aleatorias X e Y con posibles valores x i, i=1,2,...,n,
yj, j=1,2,...,m respectivamente. Podemos usar la notación  y 
Podemos definir la información mutua  entre  y  como:2
La unidad del concepto está determinado por la base del logaritmo usado.
Se suelen usar logaritmos base dos, por tanto, la unidad de medida más
común es el bit.
De la propia definición podemos concluir que  ya que:

Información mutua media

También podría gustarte