Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Conferencia 2
Conferencia 2
Sumario:
Introducción.
FDSM. Expresiones relacionadas.
Fuentes discretas con memoria (FDCM). Descripción. Diagrama de estado
y matriz de transición.
Canales de transmisión. Descripción y probabilidades de interés.
Entropía de un canal discreto. Expresiones fundamentales.
Información transmitida y capacidad del canal.
Bibliografía:
[Carlson, 2002] “Sistemas de comunicaciones. Introducción a las señales y
al ruido en comunicaciones eléctricas.”
[Schwartz] “Information, transmission, modulation and noise.”
[Sklar] “Digital communications, fundamentals and applications.”
Materiales en ftp://teleco.cujae.edu.cu
Objetivos:
Continuar con el estudio de la teoría de la información
Conocer cuándo estamos en presencia de una FDSM o de una FDCM.
Caracterizar y describir a las FDCM
Introducción
Existen otros parámetros que se definen también para las fuentes de información y
que permiten su caracterización.
Estos son:
Entropía máxima:
Cuando todos los símbolos de la fuente son equiprobables:
p1 = p2 =... = pn = 1/n
n p
n n
H s H p j log 2 p j log 2 1 j
j 1 j 1
n
p
j 1
j 1
H máx log 2 n
n número de símbolos o niveles totales de la fuente.
Eficiencia de la fuente
Hs
H máx
Razón o relación entre la entropía promedio de la fuente y su entropía máxima (la
que tendría si todos sus símbolos fueran equiprobables).
Redundancia de la fuente
Re(s) = Hmáx –H(s) Redundancia estadística.
Redundancia relativa
Res
r(s) = 1
Hmáx
Velocidad de la fuente
H s
v bits / seg
Estas expresiones también se definen para otro tipo de fuente como puede ser la
fuente discreta con memoria de la que hablaremos a continuación.
FDCM
ABBABAAABBABBBAABAAABB
Estado BB 1er estado
de la fuente
Estado AB Estado AB 2do estado
de la fuente
Estado AA 3er estado
de la fuente
Necesitamos conocer:
A A A A
P P P P
AA AB BA BB
B B B B
P P P P
AA AB BA BB
Debido a que estas probabilidades caracterizan a la fuente.
A partir de estas probabilidades y de los estados de la fuente que ya conocemos,
se pueden especificar dos formas gráficas para representar la FDCM, estas son el
diagrama de estado y la matriz de transición.
B Diagrama de estados
`B` P
AA
A
`A` P
AA AB
AA
B
B `B` P
`B` P AB
AB
A
`A` P
A AB
`A` P
BA
BB
BA
B
`B` P
BB
Probabilidad de emitir el A
símbolo A estando en el `A` P
BB
estado BB. El resultado de
emitir A en BB es que la
fuente pasa al nuevo estado
BA y así sucesivamente.
Matriz de transición.
AA AB BA BB Estados siguientes Si
AA 0.3 0.7 0 0
AB 0 0 0.5 0 .5
BA 0.9 0.1 0 0
BB 0 0 0.6 0 .4
Estados actuales Sj
Notar que la suma de las filas siempre es 1.
Sj Estado actual
Si Estado siguiente
¿Cuál es la probabilidad de que la fuente este en un estado dado?¿Cuál es la
probabilidad de ocurrencia de un estado Si?
A partir de la matriz de transición, por ejemplo para que ocurra el estado siguiente
Si = AA pueden ocurrir dos cosas:
1. Que se esté en el estado actual AA y que se emita el símbolo A.
2. Que se esté en el estado actual BA y que se emita el símbolo A.
A A
Matemáticamente sería: P(AA) = P(AA)P + P(BA)P (la expresión sale
AA BA
de la primera columna de la matriz)
Si la fuente es estacionaria entonces la probabilidad de ocurrencia de un estado
dado es la misma si ese estado es actual o siguiente. Ej. : P(Si = AA) = P(Sj = AA)
Si esto no es así la fuente no es estacionaria.
De manera general:
S
PS i PS j P i
S
j j
Si Estado siguiente
Sj Estado actual
Cada ecuación se saca de una columna de la matriz de transición.
Completa el sistema de ecuaciones la ecuación PS j 1
El sistema tiene nr ecuaciones.
La probabilidad de cada uno de los símbolos de la fuente pueden hallarse una vez
que se conocen las probabilidades de cada uno de los estados P(S i).
Recordando : las probabilidades de los símbolos no son independientes.
P(mi) = (número de veces que ocurre mi en el estado Si)P(Si)
m S
P i P i : La probabilidad de emitir un símbolo m; estando en el estado
S S
j j
actual Sj es la misma que la probabilidad de pasar al estado siguiente S i producto
de la emisión de mi desde el estado actual Sj.
m
Entropía promedio de la FDCM de orden r: H S r Pm i S j log 2 P i
n n
S
i 1 j 1 j
Pm i S j Probabilidad conjunta de ocurrencia del símbolo siguiente mi y el estado
actual Sj.
m
P i Probabilidad de que se emita mi estando en el estado actual Sj.
S
j
Eficiencia de la fuente:
H Sr
H máx
Velocidad de la fuente: v
H Sr
{xi} {yj}
alfabeto de Alfabeto de salida
entrada
P(yi/xi)
Alfabeto de entrada
Ejemplos de canales discretos.
1. Canal binario simétrico
(BSC Binary Symmetric Channel)
1-P
0 0
P
P probabilidad de error
P
1 1
1-P
1-P
0 0
P
Erasure (Indecisión)
P
1 1
1-P
Diferentes modelos de canales discretos.
y1
x1
Canal q-Q any y2
channel x2
y3
xq
y4
yQ
0 0
Canal Z
Z Channel
1 1
0 0
Canal sin ruido o canal
abierto
1 1
Py
j
H y Py j log 2 Py j
M Entropía de salida del
x canal.
ji 1
Dadas las relaciones establecidas entre probabilidades, son válidas las siguientes
expresiones:
y x
Hx, y Hx H Hy H o también
x y
x y
Hx H Hy H
y x
¿Qué significa esta última expresión?
Habíamos dicho que:
H(x): Representaba la incertidumbre que se tenía sobre lo que se iba a transmitir
(por parte de la fuente).
H(x/y): Representaba la incertidumbre que aún se tenía sobre lo que se había
transmitido después de haber recibido y a la salida.
POR TANTO:
x
Hx H : Representaba la incertidumbre que hemos perdido por la aparición
y
de {yj} a la salida, o sea, representa la información que se ha recibido debido a la
aparición de yj.
Luego:
x y
Hx H Hy H :Representa la información transmitida por el canal.
y x
Esta información transmitida recibe el nombre de transinformación o información
mutua T(x, y).
Complementario.
Velocidad de información y velocidad de transmisión.