Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1. INTRODUCCIN
2. CANALES DE INFORMACIN
Un canal de informacin viene determinado por un
alfabeto de entrada A={ai} donde i=1,2,3,4,...,r; un
alfabeto de salida B={bj} donde j=1,2,3,4,...,s; y un
conjunto de probabilidades condicionales prospectivas
P(bj/ai). P(bj/ai) es la probabilidad de recibir a la salida el
smbolo bj cuando se enva el smbolo ai [1].
Un canal de informacin est completamente
definido por su matriz de probabilidades prospectivas P
cuando la matriz de probabilidades tiene el siguiente
prototipo:
P(b2 /a1 )
P(b2 /a2 )
P(b2 /ar )
P(b1 /a1 )
P(b1 /a2 )
=[
P(b1 /ar )
P(bs /a1 )
P(bs /a2 )
]
P(bs /ar )
P(a1 /bs )
P(a2 /b1 )
P(a2 /b2 )
P(a2 /bs )
P(ar /b1 )
P(ar /b2 )
]
P(ar /bs )
1
()
() = () log 2
1
()
1
(/)
= 1
(, ) + (|)
+ (|)
(|)
100%
Por lo tanto:
(/) = (/). () log 2
,
1
(/)
2.4. INFORMACIN
CANAL
1
(/)
MUTUA
DE
UN
4. RESULTADOS OBTENIDOS
5. REFERENCIA
[1] ABRAMSON Norman, 1981, TEORA DE LA
INFORMACIN Y CODIFICACIN, PARANINFO SA, Quinta
Edicin, pg. 111-166.
[2] NAVIDI William, 2006, ESTADSTICA PARA INGENIEROS
Y CIENTFICOS, McGraw-Hill, pg. 78-79.