Está en la página 1de 42

Tema: Capacidad de Canal

Adriana Dapena Janeiro (adriana@udc.es)


Facultad de Inform atica
Universidade da Coru na
Campus de Elvi na s/n
15071. A Coru na
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 1
Objetivos
Presentar el concepto de capacidad del canal.
Estudiar el caso de canales SISO:
Canales AWGN.
Canales con desvanecimiento plano.
CSI en recepcin.
CSI en recepcin y en transmisin.
Canales con desvanecimiento selectivo en frecuencia.
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 2
Bibliografa recomendada
A. Goldsmith, Wireless Communications, Cambridge University
Press, 2005.
http://wsl.stanford.edu/andrea/Wireless/
C. E. Shannon, A mathematical theory of communication, Bell
System Technical Journal, vol. 27, pp. 379-423 and 623-656, July
and October, 1948.
http://cm.bell-labs.com/cm/ms/what/shannonday/paper.html
A. Goldsmith, P. P., Varaiya, Capacity of fading channels with
Channel Side Information, IEEE Trans. on Information Theory,
vol. 43, no. 6, pp. 1986-1992, November, 1997.
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 3
Conceptos bsicos
Cantidad de informacin
Entropa
Entropa conjunta
Informacin mutua
Capacidad de canales discretos sin
memoria
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 4
Cantidad de informacin
Sea x una variable aleatoria que toma valores discretos x
k
en un
alfabeto X con probabilidad p(x
k
),

p(x
k
) = 1.
El valor de p(x
k
) expresa la probabilidad de que ocurra un
determinado valor x
k
pero tambin nos est indicando la
cantidad de informacin que se adquiere cuando ese valor es
observado.
Si p(x
2
) > p(x
1
), entonces es mayor la incertidumbre sobre el
evento x = x
1
que sobre x = x
2
y, por ello, tambin es mayor la
informacin que se adquiere cuando ste ocurre.
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 5
Cantidad de informacin (cont.)
La cantidad de informacin adquirida al observar x
k
est
relacionada con la inversa de su probabilidad y se dene como
sigue:
I(x
k
) = log
_
1
p(x
k
)
_
= log(p(x
k
))
donde la base del logaritmo es arbitraria.
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 6
Entropa
La cantidad media de informacin de x recibe el nombre de
entropa: H(x) = E[I(x
k
)] =

xX
p(x) log(p(x)) = E[log p(x)]
H(x) = 0 si la variable aleatoria x describe un proceso
determinista.
H(x) es mxima cuando la variable aleatoria es uniforme,
H(x) = log(|X|) donde |X| es el tamao del alfabeto de x.
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 7
Entropa conjunta
Consideremos que tenemos un sistema cuya entrada x toma
valores en un alfabeto X y su salida y es una versin perturbada de
x que toma valores en otro alfabeto Y.
Entropa conjunta:
H(x, y) =

xX

yY
p(x, y) log(p(x, y)) = E [log(p(x, y))]
donde p(x, y) es la probabilidad conjunta de ambas variables
aleatorias.
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 8
Informacin mutua
Incertidumbre sobre la entrada que permanece sin resolver
despus de observar la salida H(x|y) = H(x, y) H(y)
Incertidumbre sobre la salida que no es resuelta al observar la
entrada (perturbacin) H(y|x) = H(x, y) H(x)
Informacin mutua I(x; y) =

xX

yY
p(x, y) log
_
p(x,y)
p(x)p(y)
_
H(x,y)
H(x)
H(y)
H(y|x) I(x,y) H(x|y)
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 9
Resumen
Entropa
H(x) =

xX
p(x) log(p(x))
Entropa conjunta
H(x, y) =

xX

yY
p(x, y) log(p(x, y))
Entropa condicionada
H(x|y) =

xX

yY
p(x, y) log(p(y|x))
Informacin mutua
I(x; y) =

xX

yY
p(x, y) log
_
p(x,y)
p(x)p(y)
_
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 10
Capacidad de un canal CDM
Un Canal Discreto sin Memoria (CDM) es un sistema que
consiste en un alfabeto de entrada X y un alfabeto de salida Y
que son conjuntos nitos numerables y cuyos elementos estn
relacionados por una coleccin de funciones de masa de
probabilidad (ff.m.p.) condicionales, p(y|x) 0, que expresan la
probabilidad de que se observe la seal y Y a la salida del
sistema cuando la entrada es x X.
La capacidad de informacin del canal (X, p(y|x), Y) se dene
como
C = max
p(x)
I(x; y)
donde el mximo se toma sobre todas las posibles ff.m.p. p(x).
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 11
Canal binario sin ruido
1
1
x = 0
x = 1 y = 1
y = 0
p(y = 0|x = 0) = 1, p(y = 1|x = 0) = 0,
p(y = 0|x = 1) = 0, p(y = 1|x = 1) = 1
Al no haber errores tampoco hay incertidumbre H(x|y) = 0.
C = max
p(x)
I(x; y) = max
p(x)
H(x) H(x|y) = max
p(x)
H(x)
El valor mximo se alcanza para una distribucin uniforme y es
C = log
2
2 = 1bit. Se puede transmitir la mxima informacin
posible de la fuente.
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 12
Canal binario simtrico
1p
p
1p
p
x = 0
x = 1 y = 1
y = 0
Supongamos que la fuente produce smbolos equiprobables a una
velocidad de 1000 bits/seg. Si durante la transmisin el canal
introduce errores de forma que (en media) la mitad de los bits
recibidos son incorrectos (p = 1/2)
Cul es la velocidad de transmisin? 500 bits/seg?
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 13
Canal binario simtrico .....
1p
p
1p
p
x = 0
x = 1 y = 1
y = 0
p(y = 0|x = 0) = 1 p, p(y = 1|x = 0) = p,
p(y = 0|x = 1) = p, p(y = 1|x = 1) = 1 p.
La capacidad es C = max
p(x)
(H(y) H(y|x)) = 1 H(p) con
H(p) = (1 p) log(1 p) p log p.
H(p) resta bits de informacin: cuanto ms impredecible sea el
error menor ser la capacidad.
Para p = 0 (o p = 1) estamos en el caso sin ruido: C = 1bit.
Para p = 1/2, la salida es completamente aleatoria C = 0bit.
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 14
Canal hbrido (ejercicio)
1p
p
1p
p
1
x = 0
x = 1
y = 0
y = 1
x = 2
y = 2
Suponemos p(x = 0) = P, p(x = 1) = p(x = 2) = Q tal que
P + 2Q = 1.
H(x) = P log P 2Qlog Q.
H(x|y) = 2Q con = H(p) = (1 p) log(1 p) p log p.
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 15
Canal hbrido (cont.)
Calcular P y Q que maximice C = H(x) H(x|y) es
equivalente a calcular los mximos del Lagrangiano:
L = P log P 2Qlog Q2Q (P + 2Q1)
Los valores obtenidos son:
P = Q = /(2 + ), Q = 1/(2 + )
con = e

(para una base e cualquiera).


Para p = 0 (o p = 1), la capacidad del canal es mxima
C = log 3.
Par p = 1/2, la capacidad es C = log 2.
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 16
Capacidad de un canal AWGN
Modelo del canal
Clculo de la capacidad
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 17
Modelo de un canal AWGN
Vamos a considerar el siguiente modelo de un canal AWGN
(Additive White Gaussian Noise):
x[i] es la seal transmitida en el instante i.
n[i] es un ruido blanco gaussiano: media cero, densidad
espectral de potencia S
n
(f) =
N
0
2
, funcin de autocorrelacin
R
N
() =
N
0
2
().
y[i] = x[i] + n[i] es la seal recibida en el instante i.
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 18
Capacidad de un canal
AWGN....
Sean P
r
, P
n
y P
t
+ P
n
, respectivamente, la potencia de recibida de
la seal transmitida, potencia del ruido y la potencia total recibida.
Si el canal es de banda limitada a B Hz (ancho de banda 2B), las
entropas en bits/seg vienen dadas por:
H(y) = B log(4(P
r
+ P
n
))
H(n) = B log(4P
n
)
Por tanto, la capacidad es
C = H(y) H(y|x) = H(y) H(n) = B log(1 + P
r
/P
n
)
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 19
Capacidad de un canal AWGN
(cont.)
Deniendo la relacin seal a ruido (SNR) como = P
r
/P
n
obtenemos:
C = B log(1 + )
Como el ruido tiene densidad espectral de potencia N
0
/2, la
potencia total en un ancho de banda 2B es
P
n
= 2B (N
0
/2) = N
0
B.
Por tanto, = P
r
/(N
0
B).
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 20
Ejemplo.....
Supongamos que la potencia recibida de la seal viene dada por
P
r
(d) = P
t
(d
0
/d)
3
donde d
0
= 10m y d es la distancia entre
transmisor y receptor, N
0
= 10
9
W/Hz y B = 30kHz. La gura
muestra la relacin seal a ruido = P
t
(d)/P
n
(dB) y la capacidad
del canal para distancias entre 100m y 1Km y P
t
= 1W (potencia en
transmisin).
100 200 300 400 500 600 700 800 900 1000
15
10
5
0
5
10
15
20
distancia d
S
N
R

(
d
B
)
100 200 300 400 500 600 700 800 900 1000
0
20
40
60
80
100
120
140
160
distancia d
C
a
p
a
c
i
d
a
d

(
k
b
p
s
)
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 21
Canales con desvanecimiento
plano
Modelo de canal
Capacidad con CSI en recepcin.
Capacidad con CSI en recepcin y en
transmisin.
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 22
Modelo de canal
El trmino
_
g[i] 0 es una ganancia que modelaremos con un
proceso estacionario ergdico con distribucin p(g).
S es la potencia media de la seal transmitida.
N
0
/2 es la densidad espectral de potencia del ruido.
B es el ancho de banda del canal.
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 23
Modelo de canal (cont.)
Valor instantneo de la SNR en recepcin:

i
=
Sg[i]
N
0
B
Valor medio de la SNR en recepcin:
=
Sg
N
0
B
Consideraremos dos casos:
CSI en recepcin.
CSI en recepcin y en transmisin.
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 24
CSI en recepcin
Suponemos que el receptor conoce g[i] para cada instante i.
Capacidad de Shannon (ergdica)
C =
_

0
B log(1 + )p()d

Se cumple C C
AWGN
= B log(1 + ).
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 25
CSI en recepcin (cont.)
Capacidad con outage
Mxima velocidad a la que se puede transmitir sobre el canal
admitiendo que puede decodicarse incorrectamente con una
cierta probabilidad p
out
.
Suponemos que la SNR en recepcin, , es constante durante
un intervalo de tiempo.
El transmisor ja un valor de SNR mnimo (en recepcin),
min
,
y transmite a una velocidad cercana a la capacidad para ese
valor
C = B log(1 +
min
)
Los datos sern correctamente recibidos si >
min
.
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 26
CSI en recepcin (cont.)
Capacidad con outage
Se dene la probabilidad de outage como
p
out
= p( <
min
) =
_

min
0
p() = P(
min
)
La capacidad promedio es
C
o
= (1 p
out
)B log(1 +
min
)
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 27
CSI en recepcin (cont.)
Capacidad con outage
Curva de Capacidad/B en funcin de la probabilidad de outage.
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 28
Ejemplo....
Vamos a calcular la capacidad de un canal con desvanecimiento
plano que introduce las siguientes ganancias:
g[i] g[1] = 0.025 g[2] = 0.25 g[3] = 10
p(g[i]) 0.1 0.5 0.4
Supongamos
P
t
= 10mW, N
0
= 10
9
W/Hz y B = 30kHz.
SNR en recepcin:

1
= 0.833(0.79dB)
2
= 83.333(19.2dB)
3
= 333.33(25dB)
Su capacidad es: C =

3
k=1
B log(1 +
k
)p(
k
) = 151.58kbps
Capacidad de un canal AWGN con = 137.58 (21.80dB):
C
AWGN
= B log(1 + 137.58) = 213.43kbps
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 29
Ejemplo (cont.)
Probabilidades de las SNR en recepcin::

i

1
= 0.833
2
= 83.333
3
= 333.33
p() 0.1 0.5 0.4
p
out
= P() 0.1 0.6 1
Capacidades C = B log(1 +
i
) para
i
:

i

1
= 0.833
2
= 83.333
3
= 333.33
C 26.23 kbps 191.94 kbps 251.55 kbps
Para p
out
= P(
1
= 0.1), podemos transmitir a velocidades
cercanas a C = 191.94kbps pero solamente decodicaremos
correctamente cuando la SNR sea
2
o
3
. La capacidad real
es C
o
= (1 0.1)191.94kbps = 172.75kbps.
Para p
out
= 0.6 la capacidad real es C = 125.78kbps
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 30
CSI en ambos lados
Asumiremos que g[i] es perfectamente conocido tanto en
transmisin como en recepcin.
La capacidad promedio es C =
_

0
B log(1 + )p()d

.
El transmisor adapta su potencia S() en funcin de la SNR en
recepcin tal que
_

0
S()p()d

S
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 31
CSI en ambos lados (cont.)....
La capacidad de un canal variante en tiempo es
C =
_

0
B log
_
1 +
S()
S
_
p()d

El objetivo es maximizarla sujeto a la restriccin


_

0
S()p()d

S.
Se obtiene:
S()
S
=
_
1


0
0 <
0
Solamente se transmite en los intervalos donde se cumple la
condicin.
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 32
CSI en ambos lados (cont.)
Asignacin de potencia ptima: Watter-Filling
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 33
CSI en ambos lados (cont.)
La capacidad resultante es
C =
_

0
B log
_

0
_
p()d

El valor de corte debe satisfacer


_

0
S()
S
p()d

=
_

0
_
1

_
p()d

= 1
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 34
Ejemplo .....
Vamos a continuar con el ejemplo anterior...
Consideremos que las probabilidades de las SNR en recepcin
son:

i

1
= 0.833
2
= 83.333
3
= 333.33
p() 0.1 0.5 0.4
Calculemos el umbral
0
de forma que

i
>
0
_
1

_
p(
i
) = 1
3

i=1
p(
i
)

i=1
p(
i
)

i
= 1
En nuestro caso
0
=
1
1.13
= 0.8 <
1
y, por tanto, la SNR ms
dbil nunca se utilizar.
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 35
Ejemplo (cont.)
Calcularemos el umbral
0
eliminando
1
,
2

i=1
p(
i
)

i=1
p(
i
)

i
= 1
En nuestro caso resulta,
0
= 0.89.
La capacidad resultante es
C =
3

i=2
B log
2
(

0
)p(
i
) = 200.82kbps
La capacidad es mayor que la obtenida con CSI en recepcin y
se aproxima a la de un canal AWGN.
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 36
Canales con desvanecimiento
selectivo en frecuencia
Modelo de canal (canales invariantes
en tiempo)
Capacidad
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 37
Modelo de canal
Supondremos un canal invariante en tiempo.
Canal con respuesta en frecuencia H(f) conocida tanto el el
transmisor como en recepcin.
Se transmite una potencia total S.
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 38
Canal con desvanecimiento
selectivo en frecuencia (cont.)
H(f) puede dividirse en subcanales de ancho de banda B.
La SNR en cada canal es
|H
j
|
2
S
j
N
0
B
donde S
j
es la potencia
localizada en el j-simo canal,

j
S
j
S. La capacidad del
j-simo canal es
C
j
= B log
2
_
1 +
|H
j
|
2
S
j
N
0
B
_
.
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 39
Canal con desvanecimiento
selectivo en frecuencia (cont.)
Como tenemos varios canales en paralelo, nos planteamos
maximizar la capacidad (ejercicio)
max C =

j
B log
2
_
1 +
|H
j
|
2
S
j
N
0
B
_
s.a.

k
S
j
S
Se obtiene
S
j
S
=
_
1

j

0
0 <
0
donde
j
=
|H
j
|
2
S
NoB
.
El parmetros
0
debe ser elegido de forma que

j
(
1

j
) = 1. La capacidad resultante es
C =

j
>
0
B log
2
_

0
_
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 40
Canal con desvanecimiento
selectivo en frecuencia (cont.)
Watter-lling para canales con desvanecimiento selectivo en
frecuencia.
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 41
Ejemplo....
Vamos a calcular la capacidad de un canal selectivo en frecuencia
considerando que se puede aproximar por tres canales de
B = 1MHz y con H
1
= 1, H
2
= 2 y H
3
= 3. Consideraremos que la
restriccin en potencia es S = 10mW y que N
0
= 10
9
W/Hz.
SNR en recepcin:
j
=
|H
j
|
2
S
NoB
:
1
= 10,
2
= 40,
3
= 90.
Utilizando

3
j=1
(
1

j
) = 1, obtenemos
0
= 2.64 <
1
.
C =

3
j=1
B log
2
_

0
_
=
1000000 (log
2
(10/2.64) + log
2
(40/2.64) + log
2
(90/2.64)) =
10.93Mbps
Teora de la comunicaci on para redes m oviles.- Adriana Dapena p. 42

También podría gustarte