Documentos de Académico
Documentos de Profesional
Documentos de Cultura
TEORIA DE LA
TEORIA DE LA
INFORMACION
INFORMACION
TEORIA DE LA
TEORIA DE LA
INFORMACION
INFORMACION
Curso 2003/2004
Las Palmas.
Introduccin
Introduccin
3
Despues de que Einstein demostara la
equivalencia entre masa y energia los
dos parametros que la civilizazcion utiliza
son INFORMACION y ENERGIA
relacionado por la formula de Shanonn
ORIGEN
ORIGEN
Teora de la
Informacin
1948 Snannon Una
teora Matemtica de
la Comunicacin
1929 L. Szilar:
Informacin-Paradoja
Fsica
1928: Hartlye: Mtodo
de comparacin de
los distintos mtodos
de transmisores de la
informacin
1948: Wiener:
Cibrnetica
1953:McMillan- Fuenete
de Informacin , canal
de transmisin
1956: Khintchine-
Tratamiento completo
T.I. para caneles
ergdicos.
Resumen
1953: Winograd:
Estableci un lazo
entre T.C. de Shannon y
la teora de autmatas
Documento de
Documento de
Shannon
Shannon
Escrito por Shannon en 1948.
En l se desarrolla buena parte de la
actual teora llamada de la informacin
Concepto de informacin
Medida de "cantidad de informacin".
Tratamiento matemtico de la
informacin
Comunicacin
Comunicacin
Quizs Fourier fue el primero en dar una
teora matemtica para un problema de
comunicacin. Aunque su descubrimiento
fue debido a unos trabajos sobre
transmisin de calor, su teora es tan
general que prcticamente se puede
aplicar a cualquier rea.
INFORMACION
INFORMACION
Terminologa
Seal
manifestacin fsica ( de
orden electromagntica ,
onda sonora...) capaz de
propagarse en un medio
dado. Es la definicin
ms amplia del concepto
de seal.
Terminologa
Terminologa
Mensaje:Seal que
corresponde a una
realizacin particular
del conjunto de
seales dadas
Fuente:proceso por el
cual, entre todos los
mensajes posibles, es
escogido de una manera
imprevisible un mensaje
particular, destinado a
ser transmitido a un
receptor (observador
Terminologa
Terminologa
Observador
:Destinatario final del
mensaje.
Canal Totalidad de
los medios
destinados a la
transmisin de la
seal.
Terminologa
Terminologa
Modulacin Transformacin de un
mensaje en una seal, al efecto de
facilitar y aumentar la eficacia de la
transmisin y reducir los errores de la
misma.
Demulacin Operacin inversa de la
modulacin.
Terminologa
Terminologa
Codificacin: Transformacin de un
mensaje en una seal discreta, cuya
principal objetivo es aumentar la eficacia de
la transmisin
Decodificacin Operacin inversa de la
codificacin
Perturbacin: Seal que modifica una
seal aleatoria til, disminuyendo la
cantidad de informacin que circula por
ella.
INFORMACION
INFORMACION
-
-
CONOCIMIENTO
CONOCIMIENTO
a) Teora de la Informacin
a) Teora de la Informacin
Informacin:
Informacin:
La
La
Teora de la Informacin
Teora de la Informacin
mide la
mide la
cantidad de
cantidad de
informacin
informacin
que contiene un mensaje a travs
que contiene un mensaje a travs
del nmero medio de bits necesario para
del nmero medio de bits necesario para
codificar todos los posibles mensajes con un
codificar todos los posibles mensajes con un
codificador ptimo
codificador ptimo
.
.
CLASES DE INFORMACION
CLASES DE INFORMACION
Voz: Mecanismo
primario para la
comunicacin humana.
Es de naturaleza
acstica.
Imgenes:
mecanismo primario
para la
comunicacin
humana. Es de
naturaleza ptica.
Datos:
Informacin en
forma numrica. Es
de naturaleza
electromagntica.
DATOS
DATOS
-
-
INFORMACIN Y
INFORMACIN Y
CONOCIMIENTO
CONOCIMIENTO
DATOS: Secuencias de nmeros, letras, etc.
presentados sin un contexto
INFORMACIN. Datos organizados, tablas ,
estadsticas de ventas, una charla (chat) bien
presentada (Conjunto coherente de datos que
transmite un mensaje)
CONOCIMIENTO. Informacin organizada
junto con la comprensin de lo que significa
dentro de un contexto, que se puede utilizar
INFORMACION
INFORMACION
-
-
CONOCIMIENTO
CONOCIMIENTO
Conocimiento: Informacin
integrada en las estructuras
cognitivas de un individuo ( es
personal e intransferible)
No podemos transmitir conocimiento,
slo informacin que el receptor
puede o no convertirla en
conocimiento
GESTION DEL CONOCIMIENTO
GESTION DEL CONOCIMIENTO
Conocimiento es la
capacidad para
transformar datos e
informacin en
acciones efectivas
(eficaces).
(J.D.Edwards)
Gestin del
conocimiento
significa entregar a
las personas los
datos e informacin
necesarias para ser
eficientes (eficaces)
en sus trabajos
LA CADENA DEL CONOCIMIENTO
LA CADENA DEL CONOCIMIENTO
Datos
Datos
Datos
Textos,
Cifras,
Imgenes,
Sonidos,
Informacin
Informacin
Datos
organizados
Conocimiento
explcito
y
tcito
Conocimiento
explcito
y
tcito
Informacin
disponible para
ser usada de forma
productiva, para
abordar un problema
Capital
Intelectual
Capital
Intelectual
Conocimiento
que produce
valor
CI = Conocimiento transformado en valor para la organizacin
Organizar
Estructurar
Agrupar
Categorizar
Contexto
Concepto
Generalizacin
Aplicacin
CONSTRUCCION DEL CONOCIMIENTO
CAPTACIN
- Odo - Olfato
- Vista - Gusto
- Tacto
CLASIFICACIN
Memoria + Raciocinio
DISTRIBUCIN
Lenguaje
(Oral, escrito,
seales, etc.)
NUEVAS
CORRELACIONES
Inteligencia + Intuicin
i
C
ADMINISTRACION DEL CONOCIMIENTO
Y LA TECNOLOGIA DE LA INFORMACION
CAPTACIN
Internet
Scanner
Multimedia
Redes
CLASIFICACIN
Bases de datos
Programas de Indexacin
DISTRIBUCIN
Internet
e-Mail
Redes
NUEVAS
CORRELACIONES
Data Warehousing
Capital Intelectual
Workflow
a) Teora de la Informacin
a) Teora de la Informacin
Informacin:
Informacin:
La
La
Teora de la Informacin
Teora de la Informacin
mide la
mide la
cantidad de
cantidad de
informacin
informacin
que contiene un mensaje a travs
que contiene un mensaje a travs
del nmero medio de bits necesario para
del nmero medio de bits necesario para
codificar todos los posibles mensajes con un
codificar todos los posibles mensajes con un
codificador ptimo
codificador ptimo
.
.
Vamos a buscar estas dos nuevas definiciones en las
diapositivas siguientes:
Cantidad de Informacin
Codificador Optimo
Representacin de la Informacin
Representacin de la Informacin
Numrica, alfabtica, simblica,
Numrica, alfabtica, simblica,
lenguaje
lenguaje
.
.
24/01/03 24
24/01/03 24
-
-
01
01
-
-
03 24
03 24
-
-
1
1
-
-
03 24/01/2003
03 24/01/2003
01/24/03 01
01/24/03 01
-
-
24
24
-
-
03 1
03 1
-
-
24
24
-
-
03 01
03 01
-
-
24
24
-
-
2003 ...
2003 ...
-
-
Todos son el da 24 de enero del ao 2003
Todos son el da 24 de enero del ao 2003
-
-
Vitaminas: B
Vitaminas: B
12 12
, C, ...
, C, ...
Grupo sanguneo: A2
Grupo sanguneo: A2
Rh+
Rh+
Elementos: Fe, Si,
Elementos: Fe, Si,
Hg
Hg
Compuestos qumicos: H
Compuestos qumicos: H
2 2
O, CO
O, CO
2 2
Ms comn Lenguaje con cdigo:
Ms comn Lenguaje con cdigo:
Hoy hace calor
Hoy hace calor
Qu informacin entrega el mensaje Hace calor?
En funcin de la extensin del mensaje
En funcin de la extensin del mensaje
Qu
Qu
es lo que hace
es lo que hace
un s
un s
al?
al?
Oso Hormiguero: Es algo as como la
diferencia entre palabras y letras. Las palabras,
que son entidades portadoras de significado,
estn compuestas por letras, que en si mismas no
portan significado alguno. Esto da una buena idea
de la diferencia entre smbolos y seales. De
hecho, es una analoga til en la medida que Ud.
tenga en mente el hecho de que las palabras y
letras son pasivas; los smbolos y seales son
activos.
Douglas R. Hofstadter.
Douglas R. Hofstadter.
Parte del di
Parte del di
logo ...
logo ...
furnmiga
furnmiga
, del libro
, del libro
G
G
del
del
,
,
Escher
Escher
, Bach un Eterno y Gr
, Bach un Eterno y Gr
cil Bucle
cil Bucle
ENTROPIA
ENTROPIA
CONDICIONAL
CONDICIONAL
Preliminares
Preliminares
Supongamos que tenemos en una
empresa 125 ordenadores
conectados en red a un servidor.
Algunos de ellos son PCs, mientras
que el resto son simples terminales.
Tambin se sabe que algunos son
antiguos, y otros han sido
comprados ms recientemente.
La distribucin que tenemos es la
La distribucin que tenemos es la
siguiente
siguiente
:
Nmero de PCs = 48,
PCs antiguos = 10
PCs nuevos = 38
.
Terminales = 77, de
Terminales antiguas
= 51
Terminales nuevas =
26
Veamos ahora lo que significa la probabilidad condicional
Si nos preguntamos
sobre la posibilidad
de que un equipo
elegido al azar sea
un PC, la respuesta
ser:
p(a)=48/125=0.384.
En cambio, si sabemos
que el equipo
seleccionado es antiguo,
nos podemos valer de
esta condicin para
calcular por ejemplo la
probabilidad de que sea
un PC:
p(a)=10/(10+51)= 0.163
En el lenguaje
matemtico, se
expresa la
probabilidad de que
un evento a
i
suceda
condicionado a que
se de otro suceso b
j
de la siguiente
manera
p(
a
b
) =
p( a , b )
p(b )
[1,4]
i
j
i j
j
PROBABILIDAD PROBABILIDAD
CONDICIONAL CONDICIONAL
PROBABILIDAD CONDICINAL
PROBABILIDAD CONDICINAL
p(a
i
/b
j
) =
probabilidad de
obtener a
i
cuando haya
ocurrido b
j
.
p(b
j
/a
i
) =
probabilidad de
obtener b
j
cuando haya
ocurrido a
i
.
Es decir que la
probabilidad que existe
de se transmite a
i
y se
reciba b
j
es:
p(a
i
,b
j
) = p(b
j
) p(a
i
/b
j
)
que es igual a la
probabilidad de que se
reciba b
j
por la
probabilidad de que
habiendo recibido b
j
se
haya transmitido a
i
.
Propiedades de la entropa
Propiedades de la entropa
Entropa mxima:Probabilidades
equiprobables.
p(a
1
) = p(a
2
) =....= p(a
n
) p
i
= 1/n
H[A] = mxima
H[A] = - p(a
1
) log p(a
1
) - p(a
1
) log
p(a
1
) = - n p(a
1
) log p(a
1
) = n 1/n log
1/n = log n
H[A]
max
= log n
La entropia es mxima cuando todos los mensajes, o todos las componentes del
alfabeto fuente tienen la misma probabilidad.
Teorema: Para cualquier otra
distribucin de probabilidades, en las
cuales todos los valores de las
probabilidades sean iguales, la entropia
es menor.
Entropa (continuacin)
Entropa (continuacin)
ln x x-1 ( Desigualdad de Jessen)
p
i
ln p
i
'/p
i
p
i
(p
i
'- p
i
)/p
i
Sea y = ln x , la tangente en el
punto
x
1
= 1 y - y
1
= m (x - x
1
)
m = y' = 1/x
Los valores en los puntos son:
m
x- 1
= 1
x
1
= 1
y
1
=0
y = x-1
siempre ln x x-1 cumplindose la igualdad
solamente en x = 1.
Haciendo en nuestro caso x = p
i
'/p
i
ln
p
i
'/p
i
p
i
'/p
i
- 1
cumplindose la igualdad en el caso que
p
i
'=p
i
Multiplicamos los dos miembros de la
desigualdad por p
i
y sumamos para todas
las i.
p
i
ln p
i
'/p
i
p
i
(p
i
'- p
i
)/p
i
p
i
ln p
i
'/p
i
p
i
' - p
i
p
i
ln p
i
'/p
i
0
p
i
ln p
i
' - p
i
ln p
i
0
p
i
ln p
i
' p
i
ln p
i
En general
p
i
log p
i
' p
i
log p
i
la igualdad se cumple cuando p
i
= p
i
'
Si p
i
' = 1/n , o sea que todos los sucesos
son igualmente probables entonces en
p
i
log (1/n) p
i
log p
i
log (1/n) p
i
p
i
lg p
i
-log (1/n) - p
i
lg p
i
H[A] = - log (1/n)
H[A] log n , pero H[A]
max
= log n
H[A] H[A]
max
Propiedades(continuacin)
Propiedades(continuacin)
Propiedad aditiva:
H[AB] = - p(a
i
b
j
) log p(a
i
b
j
)
H[AB] = H[A] + H[B]
Sean dos fuentes A y B de alfabetos
A = [ a
1
, a
2
,....a
n
]
B = [ b
1
, b
2
,....b
m
]
y sus probabilidades asociadas:
p(A) = [ p(a
1
), p(a
2
),....p(a
n
)
p(B) = [ p(b
1
), p(b
2
),....p(b
m
)
Consideremos la fuente compuesta
AB = [ a
1
b
1
, a
2
b
2
,.... a
n
b
m
]
p(AB) = [ p(a
1
b
1
), p(a
2
b
2
),.... p(a
n
b
m
)]
donde si los sucesos son
estocsticamente independientes, la
ocurrencia de a
i
no altera la la
probabilidad de b
j
.
p(a
i
b
j
) = p(a
i
) p(b
j
)
H[AB] = -p(a
i
b
j
) log p(a
i
b
j
) = - p(a
i
) p(b
j
)
log p(a
i
) p(b
j
)= - p(a
i
) p(b
j
) log p(a
i
) -
p(a
i
) p(b
j
) log p(b
j
) = - p(a
i
) p(b
j
) log p(b
j
)
- p(b
j
) p(a
i
) log p(a
i
) =
- p(b
j
) log p(b
j
) - p(a
i
) log p(a
i
) =
H[A] + H[B]
Cuando los mensajes de las fuentes son
estocsticamente independientes la
entropa de la fuente compuesta es igual a
la suma de las entropas de cada una de
las fuentes.
H[AB] = H[A] + H[B]
Propiedades (continuacin)
Propiedades (continuacin)
Entropa condicional.
H[A/B] = - p(a
i
,b
j
) log p(a
i
/b
j
)
H[A/B] se llama ambigedad o equvoco
H[B/A] = - p(a
i
,b
j
) log p(b
j
/a
i
H[B/A] se llama error medio
Sean dos fuentes A y B de alfabetos
A = [ a
1
, a
2
,....a
n
]
B = [ b
1
, b
2
,....b
m
]
y sus p(A) = [ p(a
1
), p(a
2
),....p(a
n
)
p(B) = [ p(b
1
), p(b
2
),....p(b
m
)
Consideremos la fuente compuesta
AB = [ a
1
b
1
, a
2
b
2
,.... a
n
b
m
] y de
probabilidades
p(AB) = [ p(a
1
b
1
), p(a
2
b
2
),.... p(a
n
ab
m
)]
donde si los sucesos a
i
y b
j
no son
estocsticamente independientes
existe un enlace
estocstico entre a
i
y
b
j
que est dado por
las probabilidades
condicionales:
p(a
i
/b
j
) = probabilidad
de obtener a
i
cuando
haya ocurrido b
j
.
p(b
j
/a
i
) = probabilidad
de obtener b
j
cuando
haya ocurrido a
i
.
p(
a
b
) =
p( a , b )
p(b )
[1,4]
i
j
i j
j
Es decir que la probabilidad que existe de
se transmite a
i
y se reciba b
j
es:
p(a
i
,b
j
) = p(b
j
) p(a
i
/b
j
)
que es igual a la probabilidad de que se
reciba b
j
por la probabilidad de que
habiendo recibido b
j
se haya transmitido
a
i
.
Si los acontecimientos a la salida son
conocidos , existe una cierta incertidumbre
sobre los acontecimientos a la entrada. El
valor medio de esta incertidumbre es lo
que se llama la entropa de la fuente A
condicionada por la fuente B, esto es
H[A/B]
Si b
j
es el smbolo que aparece a la salida
de la fuente, existe una cierta
incertidumbre sobre el smbolo emitido a
la entrada que puede ser a
1
a
2
...a
i
. El
valor medio de esta incertidumbre sobre
los smbolos de entrada cuando se
conoce a la salida b
j
es el valor de la
entropa condicional H[A/b
j
], que valdr
segn la definicin de entropa:
H[A/b
j
] = - p(a
i
/b
j
) log p(a
i
/b
j
)
El valor medio de esta entropa para todos
los posibles valores de b
j
es:
H[A/B] = - p(b
j
) log H[A/b
j
]
H[A/B] = - p(b
j
) p(ai/b
j
) log p(a
i
/b
j
)
pero p(b
j
) p(a
i
/b
j
) = p(a
i
,b
j
)
pero p(b
j
) p(a
i
/b
j
) = p(a
i
,b
j
)
entonces la ecuacin anterior
quedara:
H[A/B] = - p(a
i
,b
j
) log p(a
i
/b
j
)
La entropa H[A/B] se llama
ambigedad o equvoco porque nos
da la medida de la incertidumbre sobre
el campo de entrada, cuando se
conoce la salida
La entropa H[B/A] se llama error medio
porque nos da la medida de la
incertidumbre sobre el campo de salida ,
cuando se conoce los smbolos de
entrada.
De la misma manera se demuestra que:
H[B/A] = - p(a
i
,b
j
) log p(b
j
/a
i
)
Ley de las entropas totales.
Consideremos la fuente compuesta
AB = [ a
1
b
1
, a
2
b
2
,.... a
n
b
m
] y de
probabilidades
p(AB) = [ p(a
1
b
1
), p(a
2
b
2
),.... p(a
n
b
m
)]
La entropa de esta fuente ser:
H[AB] = - p(a
i
b
j
) log p(a
i
b
j
) = -
p(a
i
) p(b
j
/a
i
) log p(a
i
) p(b
j
/a
i
)
Ley de las entropas totales.
Realizando el logaritmo del producto
H[AB] = - p(a
i
) p(b
j
/a
i
) log p(a
i
) -
p(a
i
) p(b
j
/a
i
) log p(b
j
/a
i
)
Pero - p(a
i
) p(b
j
/a
i
) log p(a
i
) = -
p(b
j
/a
i
) p(a
i
) log p(a
i
) = H[A]
ya que p(b
j
/a
i
) = 1
Ley de las entropas totales.
El segundo sumando de la ecuacin
- p(a
i
) p(b
j
/a
i
) log p(b
j
/a
i
) = - p(b
j
a
i
)
log p(b
j
/a
i
) = H[B/A]
Sustituyendo estos valores
H[AB] = H[A] + H[B/A]
H[AB] = H[A] + H[B/A]
Ley de las entropas totales.
Condicin
Para que sea suma de las entropas
Otras propiedades de la
entropa:
La entropa de una fuente A cuyo
alfabeto est condicionado por el
alfabeto de una fuente B siempre es
igual o menor que el de una fuente A,
alcanzndose la igualdad en el caso
de que los alfabetos de las fuentes
sean independientes.
H[A/B] H[A] o H[B/A] H[B]
Otras propiedades de la
entropa
La entropa de una fuente AB cuyo
alfabeto se obtiene como las posibles
parejas de smbolos de las fuentes A {a
i
}
y B {b
j
} es siempre menor o igual a la
entropa de cada una de las fuentes por
separado.
H[AB] H[A] + H[B]
Propiedades (continuacin)
Propiedades (continuacin)
Sean dos fuentes A y B de alfabetos
A = [ a
1
, a
2
,....a
n
]
B = [ b
1
, b
2
,....b
m
]
y sus probabilidades asociadas p(A) = [
p(a
1
), p(a
2
),....p(a
n
)
p(B) = [ p(b
1
), p(b
2
),....p(b
m
)
Propiedades (continuacin)
Propiedades (continuacin)
Consideremos la fuente compuesta
AB = [ a
1
b
1
, a
2
b
2
,.... a
n
b
m
] y de
probabilidades
p(AB) = [ p(a
1
b
1
), p(a
2
b
2
),.... p(a
n
ab
m
)]
Sabemos que:
p(a
i)
=
j
p(a
i
b
j
)
p(b
j)
=
i
p(a
i
b
j
)
Propiedades (continuacin)
Propiedades (continuacin)
Entonces los valores de las entropas de las
fuentes A y B se pueden escribir:
H[A] = - p(a
i
) log p(a
i
) = - p(b
j
a
i
) log
p(a
i
)
H[B] = - p(b
j
) log p(b
j
) = - p(b
j
a
i
) log
p(b
j
)
Sumando las ecuaciones
H[A] +H[B] = - p(b
j
a
i
) log [p(a
i
) p(b
j
) ]
Propiedades (continuacin)
Propiedades (continuacin)
Aplicando la desigualdad de Jessen [1.2]
al caso de dos variables
p(b
j
a
i
) log p'(a
i
,b
j
) p(b
j
a
i
) log
p(a
i
b
j
) [1.14]
Pero el segundo miembro de la
desigualdad p(b
j
a
i
) log p(a
i
b
j
) = -
H[AB]
Propiedades (continuacin)
Propiedades (continuacin)
Pero p'(a
i
,b
j
) = p(a
i
) p(b
j
) ya que esta
probabilidad se corresponda cundo los
sucesos eran estocsticamente
independientes, entonces el primer
miembro de la desigualdad ser:
p(b
j
a
i
) log p'(a
i
,b
j
) = p(b
j
a
i
) log
[ p(a
i
) p(b
j
)] = p(b
j
a
i
) log p(a
i
) +
p(b
j
a
i
) log p(b
j
) = - [ H[A] + H[B]
Propiedades (continuacin)
Propiedades (continuacin)
Entonces en la desigualdad
- [ H[A] + H[B] ] - H[AB]
Cambiando de signo
H[AB] [ H[A] + H[B]
Propiedades (continuacin)
Propiedades (continuacin)
H[A/B] H[A] o H[B/A] H[B] :
H[AB] H[A] + H[B]
IDEA
Diferenciar entre entropa y informacin m
CANTIDAD DE INFORMACION
DE SHANNON
La obtencin de informacin sobre el
resultado de una experiencia
representaba una disminucin de la
incertidumbre asociada a la misma.
Dadas dos variables aleatorias A, B se
llama cantidad de informacin de
Shannon que la variable A suministra
sobre la variable B a la diferencia
I(A,B) = H[A] - H[A/B]
Propiedades de la cantidad
de informacin
La informacin que una variable
contiene sobre otra coincide con la que
sta contiene sobre la primera.
En efecto
H[A,B] = H[A] + H[B/A] = H[B] + H[A/B]
====>
H[A] - H[A/B] = H[B] - H[B/A]
I(A,B) = I(B,A)
Propiedades de la
cantidad de informacin
La cantidad de informacin que una
variable contiene sobre otra es siempre
positiva y es nula si existe
independencia estocstica entre ellas.
Sabemos que H[B/A]< H[B] =====>
I(A,B)= H[B] - H[B/A]> 0 cuando existe
independencia estocstica entre las
variables
H[B/A]= H[B] => I(A,B)= H[B] - H[B]= 0
Propiedades de la
cantidad de informacin
La cantidad de informacin mxima que
una variable contiene sobre otra est
acotada por su entropa y coincide con la
informacin que la variable contiene sobre
s misma.
I(A,B)= H[B] - H[B/A]< H[B]
por ser H[B/A]> 0 y como H[B/B] = H[B]
I(B,B)= H[B]
Propiedades de la
cantidad de informacin
Otra forma de expresar la informacin
partiendo de las propiedades de la
entropa.
Como
H[A,B] = H[A] + H[B/A] ===>
H[A/B] = H[A,B] - H[B]
Entonces en la informacin mutua
I(A,B)= H[B] - H[B/A]=
= H[A] + H[B] - H[A,B]
PROBLEMA
PROBLEMA
Un emisor dispone de
un alfabeto de cinco
smbolos A[a
1
a
2
a
3
a
4
a
5
] y un receptor de
un alfabeto de cuatro
smbolos B[b
1
b
2
b
3
b
4
]. Sabiendo que las
probabilidades de
acoplamiento vienen
dadas por la matriz
[M]
0.15 0 0 0
a
5
0 0 0.2 0.15
a
4
0 0.10 0 0
a
3
0 0.10 0 0
a
2
0 0.05 0 0.25
a
1
b
4
b
3
b
2
b
1
P(a
i
b
j
)
Calcular :
1.- La matriz probabilidades de entrada y
de salida.
2.- La matriz P[a
i
/b
j
] y P[b
j
/a
i
]
La entropa de entrada H[A] y de salida
H[B]
Las entropas H[A/b
j
] y H[A/B]
La entropa compuesta H[A,B]
Codificador ptimo
Codificador ptimo
Nos falta encontrar el segundo trmino pendiente en
la definicin de cantidad de informacin: codificador
ptimo.
Introduciendo el signo negativo dentro del logaritmo
en la expresin de la entropa, nos quedar como:
H(X) = p(x) log
2
[1/p(x)]
i
La expresin log
2
[1/p(x)] representa el nmero
necesario de bits para codificar el mensaje X en un
codificador ptimo.
Un codificador ptimo es aquel que usa el
nmero menor de bits para codificar un mensaje X.