Documentos de Académico
Documentos de Profesional
Documentos de Cultura
xX
p(x) log(p(x)) = E[log p(x)]
H(x) = 0 si la variable aleatoria x describe un proceso
determinista.
H(x) es mxima cuando la variable aleatoria es uniforme,
H(x) = log(|X|) donde |X| es el tamao del alfabeto de x.
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 7
Entropa conjunta
Consideremos que tenemos un sistema cuya entrada x toma
valores en un alfabeto X y su salida y es una versin perturbada de
x que toma valores en otro alfabeto Y.
Entropa conjunta:
H(x, y) =
xX
yY
p(x, y) log(p(x, y)) = E [log(p(x, y))]
donde p(x, y) es la probabilidad conjunta de ambas variables
aleatorias.
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 8
Informacin mutua
Incertidumbre sobre la entrada que permanece sin resolver
despus de observar la salida H(x|y) = H(x, y) H(y)
Incertidumbre sobre la salida que no es resuelta al observar la
entrada (perturbacin) H(y|x) = H(x, y) H(x)
Informacin mutua I(x; y) =
xX
yY
p(x, y) log
_
p(x,y)
p(x)p(y)
_
H(x,y)
H(x)
H(y)
H(y|x) I(x,y) H(x|y)
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 9
Resumen
Entropa
H(x) =
xX
p(x) log(p(x))
Entropa conjunta
H(x, y) =
xX
yY
p(x, y) log(p(x, y))
Entropa condicionada
H(x|y) =
xX
yY
p(x, y) log(p(y|x))
Informacin mutua
I(x; y) =
xX
yY
p(x, y) log
_
p(x,y)
p(x)p(y)
_
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 10
Capacidad de un canal CDM
Un Canal Discreto sin Memoria (CDM) es un sistema que
consiste en un alfabeto de entrada X y un alfabeto de salida Y
que son conjuntos nitos numerables y cuyos elementos estn
relacionados por una coleccin de funciones de masa de
probabilidad (ff.m.p.) condicionales, p(y|x) 0, que expresan la
probabilidad de que se observe la seal y Y a la salida del
sistema cuando la entrada es x X.
La capacidad de informacin del canal (X, p(y|x), Y) se dene
como
C = max
p(x)
I(x; y)
donde el mximo se toma sobre todas las posibles ff.m.p. p(x).
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 11
Canal binario sin ruido
1
1
x = 0
x = 1 y = 1
y = 0
p(y = 0|x = 0) = 1, p(y = 1|x = 0) = 0,
p(y = 0|x = 1) = 0, p(y = 1|x = 1) = 1
Al no haber errores tampoco hay incertidumbre H(x|y) = 0.
C = max
p(x)
I(x; y) = max
p(x)
H(x) H(x|y) = max
p(x)
H(x)
El valor mximo se alcanza para una distribucin uniforme y es
C = log
2
2 = 1bit. Se puede transmitir la mxima informacin
posible de la fuente.
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 12
Canal binario simtrico
1p
p
1p
p
x = 0
x = 1 y = 1
y = 0
Supongamos que la fuente produce smbolos equiprobables a una
velocidad de 1000 bits/seg. Si durante la transmisin el canal
introduce errores de forma que (en media) la mitad de los bits
recibidos son incorrectos (p = 1/2)
Cul es la velocidad de transmisin? 500 bits/seg?
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 13
Canal binario simtrico .....
1p
p
1p
p
x = 0
x = 1 y = 1
y = 0
p(y = 0|x = 0) = 1 p, p(y = 1|x = 0) = p,
p(y = 0|x = 1) = p, p(y = 1|x = 1) = 1 p.
La capacidad es C = max
p(x)
(H(y) H(y|x)) = 1 H(p) con
H(p) = (1 p) log(1 p) p log p.
H(p) resta bits de informacin: cuanto ms impredecible sea el
error menor ser la capacidad.
Para p = 0 (o p = 1) estamos en el caso sin ruido: C = 1bit.
Para p = 1/2, la salida es completamente aleatoria C = 0bit.
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 14
Canal hbrido (ejercicio)
1p
p
1p
p
1
x = 0
x = 1
y = 0
y = 1
x = 2
y = 2
Suponemos p(x = 0) = P, p(x = 1) = p(x = 2) = Q tal que
P + 2Q = 1.
H(x) = P log P 2Qlog Q.
H(x|y) = 2Q con = H(p) = (1 p) log(1 p) p log p.
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 15
Canal hbrido (cont.)
Calcular P y Q que maximice C = H(x) H(x|y) es
equivalente a calcular los mximos del Lagrangiano:
L = P log P 2Qlog Q2Q (P + 2Q1)
Los valores obtenidos son:
P = Q = /(2 + ), Q = 1/(2 + )
con = e
i
=
Sg[i]
N
0
B
Valor medio de la SNR en recepcin:
=
Sg
N
0
B
Consideraremos dos casos:
CSI en recepcin.
CSI en recepcin y en transmisin.
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 24
CSI en recepcin
Suponemos que el receptor conoce g[i] para cada instante i.
Capacidad de Shannon (ergdica)
C =
_
0
B log(1 + )p()d
Se cumple C C
AWGN
= B log(1 + ).
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 25
CSI en recepcin (cont.)
Capacidad con outage
Mxima velocidad a la que se puede transmitir sobre el canal
admitiendo que puede decodicarse incorrectamente con una
cierta probabilidad p
out
.
Suponemos que la SNR en recepcin, , es constante durante
un intervalo de tiempo.
El transmisor ja un valor de SNR mnimo (en recepcin),
min
,
y transmite a una velocidad cercana a la capacidad para ese
valor
C = B log(1 +
min
)
Los datos sern correctamente recibidos si >
min
.
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 26
CSI en recepcin (cont.)
Capacidad con outage
Se dene la probabilidad de outage como
p
out
= p( <
min
) =
_
min
0
p() = P(
min
)
La capacidad promedio es
C
o
= (1 p
out
)B log(1 +
min
)
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 27
CSI en recepcin (cont.)
Capacidad con outage
Curva de Capacidad/B en funcin de la probabilidad de outage.
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 28
Ejemplo....
Vamos a calcular la capacidad de un canal con desvanecimiento
plano que introduce las siguientes ganancias:
g[i] g[1] = 0.025 g[2] = 0.25 g[3] = 10
p(g[i]) 0.1 0.5 0.4
Supongamos
P
t
= 10mW, N
0
= 10
9
W/Hz y B = 30kHz.
SNR en recepcin:
1
= 0.833(0.79dB)
2
= 83.333(19.2dB)
3
= 333.33(25dB)
Su capacidad es: C =
3
k=1
B log(1 +
k
)p(
k
) = 151.58kbps
Capacidad de un canal AWGN con = 137.58 (21.80dB):
C
AWGN
= B log(1 + 137.58) = 213.43kbps
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 29
Ejemplo (cont.)
Probabilidades de las SNR en recepcin::
i
1
= 0.833
2
= 83.333
3
= 333.33
p() 0.1 0.5 0.4
p
out
= P() 0.1 0.6 1
Capacidades C = B log(1 +
i
) para
i
:
i
1
= 0.833
2
= 83.333
3
= 333.33
C 26.23 kbps 191.94 kbps 251.55 kbps
Para p
out
= P(
1
= 0.1), podemos transmitir a velocidades
cercanas a C = 191.94kbps pero solamente decodicaremos
correctamente cuando la SNR sea
2
o
3
. La capacidad real
es C
o
= (1 0.1)191.94kbps = 172.75kbps.
Para p
out
= 0.6 la capacidad real es C = 125.78kbps
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 30
CSI en ambos lados
Asumiremos que g[i] es perfectamente conocido tanto en
transmisin como en recepcin.
La capacidad promedio es C =
_
0
B log(1 + )p()d
.
El transmisor adapta su potencia S() en funcin de la SNR en
recepcin tal que
_
0
S()p()d
S
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 31
CSI en ambos lados (cont.)....
La capacidad de un canal variante en tiempo es
C =
_
0
B log
_
1 +
S()
S
_
p()d
0
S()p()d
S.
Se obtiene:
S()
S
=
_
1
0
0 <
0
Solamente se transmite en los intervalos donde se cumple la
condicin.
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 32
CSI en ambos lados (cont.)
Asignacin de potencia ptima: Watter-Filling
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 33
CSI en ambos lados (cont.)
La capacidad resultante es
C =
_
0
B log
_
0
_
p()d
0
S()
S
p()d
=
_
0
_
1
_
p()d
= 1
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 34
Ejemplo .....
Vamos a continuar con el ejemplo anterior...
Consideremos que las probabilidades de las SNR en recepcin
son:
i
1
= 0.833
2
= 83.333
3
= 333.33
p() 0.1 0.5 0.4
Calculemos el umbral
0
de forma que
i
>
0
_
1
_
p(
i
) = 1
3
i=1
p(
i
)
i=1
p(
i
)
i
= 1
En nuestro caso
0
=
1
1.13
= 0.8 <
1
y, por tanto, la SNR ms
dbil nunca se utilizar.
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 35
Ejemplo (cont.)
Calcularemos el umbral
0
eliminando
1
,
2
i=1
p(
i
)
i=1
p(
i
)
i
= 1
En nuestro caso resulta,
0
= 0.89.
La capacidad resultante es
C =
3
i=2
B log
2
(
0
)p(
i
) = 200.82kbps
La capacidad es mayor que la obtenida con CSI en recepcin y
se aproxima a la de un canal AWGN.
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 36
Canales con desvanecimiento
selectivo en frecuencia
Modelo de canal (canales invariantes
en tiempo)
Capacidad
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 37
Modelo de canal
Supondremos un canal invariante en tiempo.
Canal con respuesta en frecuencia H(f) conocida tanto el el
transmisor como en recepcin.
Se transmite una potencia total S.
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 38
Canal con desvanecimiento
selectivo en frecuencia (cont.)
H(f) puede dividirse en subcanales de ancho de banda B.
La SNR en cada canal es
|H
j
|
2
S
j
N
0
B
donde S
j
es la potencia
localizada en el j-simo canal,
j
S
j
S. La capacidad del
j-simo canal es
C
j
= B log
2
_
1 +
|H
j
|
2
S
j
N
0
B
_
.
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 39
Canal con desvanecimiento
selectivo en frecuencia (cont.)
Como tenemos varios canales en paralelo, nos planteamos
maximizar la capacidad (ejercicio)
max C =
j
B log
2
_
1 +
|H
j
|
2
S
j
N
0
B
_
s.a.
k
S
j
S
Se obtiene
S
j
S
=
_
1
j
0
0 <
0
donde
j
=
|H
j
|
2
S
NoB
.
El parmetros
0
debe ser elegido de forma que
j
(
1
j
) = 1. La capacidad resultante es
C =
j
>
0
B log
2
_
0
_
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 40
Canal con desvanecimiento
selectivo en frecuencia (cont.)
Watter-lling para canales con desvanecimiento selectivo en
frecuencia.
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 41
Ejemplo....
Vamos a calcular la capacidad de un canal selectivo en frecuencia
considerando que se puede aproximar por tres canales de
B = 1MHz y con H
1
= 1, H
2
= 2 y H
3
= 3. Consideraremos que la
restriccin en potencia es S = 10mW y que N
0
= 10
9
W/Hz.
SNR en recepcin:
j
=
|H
j
|
2
S
NoB
:
1
= 10,
2
= 40,
3
= 90.
Utilizando
3
j=1
(
1
j
) = 1, obtenemos
0
= 2.64 <
1
.
C =
3
j=1
B log
2
_
0
_
=
1000000 (log
2
(10/2.64) + log
2
(40/2.64) + log
2
(90/2.64)) =
10.93Mbps
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 42