Está en la página 1de 4

CAPITULO 1.

TEORA DE LA INFORMACIN Y TRANSMISIN DIGITAL

11

Figura 1.3: Probabilidad de error

Por lo tanto, la probabilidad de error es el rea bajo la curva de la parte sombreada, es decir,
donde se detecte un valor de la seal aunque haya sido transmitido otro. Ntese que el rea es mnima
para cualquier valor (por geometra) cuando = A/2. En efecto, esto es:
Pe {A} = P {Y = A|X = A}

(1.37)

Pe {A} = P {Y = A|X = A}

(1.38)

En general, se puede expresar la probabilidad de error como:


Pe {m} = P {Y 6= m|X = m}

(1.39)

La probabilidad de error neta es entonces:


Pe =

M
X

P {Y 6= m|X = m} P {X = m}

(1.40)

m=1

Para el caso de dos seales:


Z

Pe = P {Y } =

Z
pY (n)dn =

Normalizando la ecuacin con:

nx



1
z2
x
exp dz = erf c
2

z=
Z

Pe = P {Y } =
x/

1
(n x)2
exp
dn
2
2

El cual puede ser calculado mediante tablas. Reemplazando = A/2:


 

Pe = erf c

(1.41)

(1.42)
(1.43)

(1.44)

Dependiendo de la seal enviada y de la probabilidad de ocurrencia de los smbolos, hallamos la


potencia de la seal.
M
 X
2
E X2 =
P {X = m} Xm
(1.45)
m=0

1.8.

Teorema de Shannon y Capacidad de Canal

La pregunta ms importante asociada con un canal de comunicacin es la tasa mxima a la que se


puede transferir informacin. La informacin slo puede transferirse por una seal si la seal se le permite
cambiar. Las seales anlogas que se transmiten por los canales fsicos no pueden rpidamente cambiar
arbitrariamente. La tasa por la cual una seal puede cambiar se determina por el ancho de banda.
De hecho se rige por la misma Ley de Nyquist-Shannon como en el caso de muestreo; una seal de
ancho de banda B puede cambiar a una tasa mxima de 2B. Si cada cambio se usa para representar

CAPITULO 1. TEORA DE LA INFORMACIN Y TRANSMISIN DIGITAL

12

un smbolo, la tasa de informacin mxima es 2B. El teorema de Nyquist-Shannon no hace observacin


acerca de la magnitud del cambio. Si los cambios de magnitudes distintas se asocia cada uno con un
smbolo separado, la tasa de informacin puede aumentarse. As, si en cada instante la seal cambia,
se pueden tomar uno de los M smbolos equiprobables que pueden transmitirse, por lo que la tasa
de informacin R queda:
1
R=
logD M = 2B logD M
(1.46)
maxTi
Esta ecuacin establece que cuando M tiende a infinito, as lo har la tasa de informacin. Existe
entonces un lmite para el nmero de niveles? El lmite se establece por la presencia de ruido. Si
continuamos subdividiendo la magnitud de los cambios en sus intervalos decrecientes, se lega a un
punto donde no se puede distinguir los niveles separadamente debido a la presencia de ruido. El
ruido por consiguiente ofrece un lmite en la tasa mxima a la que se puede transmitir la informacin.
Obviamente, lo que realmente importa es la relacin seal-a-ruido (SNR). Hay un mximo terico para
la tasa en que la informacin pasa sin errores sobre el canal. Este mximo se denomina la capacidad
del canal C. La Ley de Hartley-Shannon establece que la capacidad de canal C se da por la mxima
cantidad de informacin de un evento Yn dado que ha sido transmitido como un evento Xm :

C = max {I {Y = n|X = m}} = max {I {Y = n X = m} I {X = m}} = max {I {Y = n X = m}


(1.47)
Como se demostr con la entropa, el valor mximo se encuentra cuando se transmiten M smbolos
equiprobables. Luego:
C = max {I {Y = n X = m}} logD M = B logD (1 + SN R)

(1.48)

Ntese que la SNR es lineal en esta expresin.


Ejemplo 1.14 Un canal de 10 kHz que opera con un SNR de 15dB tiene una tasa de informacin
mxima terica de
(1.49)
C = 10000 log2 (31.623) = 49828 kbps
El teorema no establece sobre cmo se cumple la capacidad del canal. De hecho, los canales slo se
acercan a este lmite. La tarea de proporcionar una alta eficacia del canal es la meta de las tcnicas
de codificacin, como e ver ms adelante. La falla para encontrar un desempeo perfecto se mide por
la Tasa de Error de Bits (BER). Tpicamente las BERs son del orden de 106 .
Para un canal dado existe una tcnica que permita la transmisin libre de errores a travs del canal
una velocidad R, siempre y cuando R C, la capacidad del canal. La identidad se cumple solo
cuando la SNR es infinita. Como vimos anteriormente, la parte sorprendente de esta teora es la
existencia de la capacidad del canal. Esto ofrece transmisin libre de errores, pero no define qu cdigo
es el que se requiere. En efecto, lo que se puede deducir de la prueba del teorema es que debe ser
lo suficientemente largo. Nadie ha encontrado an un cdigo que permita el uso de un canal por su
capacidad. Sin embargo, Shannon ha vencido el reto, en el sentido de probar que el cdigo existe. La
ley de Hartley-Shannon nos dice que la mxima tasa de informacin de un canal de ancho de banda
cero es cero. As, las seales con ancho de banda cero no contienen informacin. Para permitir al
canal llevar informacin debemos introducir capacidad para un cambio aperidico. La consecuencia
de un cambio aperiodico es introducir un expansin de frecuencias en la seal. Una consideracin
terica detallada nos lleva a la ley de Nyquist-Shannon en donde una seal de ancho de banda B
puede cambiar en una forma aperiodica a una tasa mxima de 2B. Consideremos el caso de una seal
cuadrada, el cual lo podemos aplicar para el resto de seales peridicas. Si una seal de onda cuadrada

CAPITULO 1. TEORA DE LA INFORMACIN Y TRANSMISIN DIGITAL

13

se reemplaza con una secuencia aperiodica de 1s y 0s, el espectro cambia substancialmente. Los
componentes armnicos discretos se reemplazan por un rango continuo de frecuencias cuya forma es
la funcin de muestreo sinc(). All hay varios rasgos para notar:
El ancho de banda de la seal slo se puede aproximar a un valor finito. La mayora de la energa
est contenida en una regin limitada llamada el lbulo principal. Sin embargo, algo de energa
queda en todas las frecuencias.
Si existen dos cambios en el periodo T, el ancho del lbulo principal es 4/T La ley de NyquistShannon establece que si una seal tiene un ancho de banda 4/T , entonces el nmero mximo
de cambios que pueden tener lugar es 8/T por segundo, o 8 cambios en el periodo T. Si cada
cambio se toma para representar 1 bit, est claro que esta seal no lleva tanta informacin como
lo permite el ancho de banda.
El espectro tiene frecuencias positivas y negativas. stas son simtricas sobre el origen.
El ancho de banda de un canal de comunicacin est limitado por la construccin fsica del canal.
La ley de Nyquist-Shannon pone un lmite en el nmero mximo de cambios aperidicos por unidad
de tiempo que la seal puede realizar. Es la tarea del modulador para hacer uso mejor del ancho de
banda disponible. Sin embargo, el modulador es reprimido por su diseo fsico y construccin, y puede
o no puede acercarse al limite de Nyquist en su funcionamiento.
Para un ancho de banda dado, esta ley de Hartley-Shannon establece que si la SNR tiende a
infinto, as lo har la capacidad. Est claro que los mtodos que se han descrito ahora no cumple esta
ley. Esta incapacidad para satisfacer la ecuacin de Hartley-Shannon es explicada a menudo lejos
de determinar que es una relacin terica, y que se debe tratar para el entorno prctico. sta no es una
explicacin buena ni correcta. La ley es vlida para sistemas cuyos entradas y salidas pueden tomar
algn valor. Como esto no es cierto para los sistemas reales, la ecuacin no se satisface, pero no hay
razn por qu debe ser (derivando una relacin alternativa para los canales binarios). La caracterstica
notable de la ley de Hartley-Shannon no es que los canales que se utilicen no la obedezcan, sino que
un mensaje puede transmitirse libre de errores. Si se consideran los anteriores resultados se puede
ver que, para una SNR finita, se tiene siempre una probabilidad de error finita. Es esta la existencia
de una capacidad del canal, no su forma funcional, lo que hace la ecuacin una relacin importante.
Es importante entender la diferencia entre la mxima tasa de bits y capacidad del canal. La tasa de
datos mxima est determinado por el diseo del sistema, y se asocia con una tasa de error dada. La
capacidad del canal es la tasa mxima que el canal puede transmitir datos libre de error. Claramente,
la capacidad del canal no puede exceder la mxima tasa de datos. Sin embargo, no se ha dicho (an)
lo concerniente cmo puede realizarse una transmisin libre de errores.

1.9.

Primer y segundo teorema de Shannon.

Si la tasa de informacin R es igual o menor que la capacidad del canal C, existir una tcnica de
codificacin que permite la transmisin por el canal con una BER pequea, por lo tanto:
RC

(1.50)

Esta restriccin es vlida an en presencia de ruido del canal. Esta condicin es necesaria, por lo que si
RC, no es posible transmitir mensajes sin errores. Entonces la capacidad del canal se define como la

CAPITULO 1. TEORA DE LA INFORMACIN Y TRANSMISIN DIGITAL

14

mxima razn de informacin confiable a travs del canal. Para cada sistema de comunicacin, se expresa
entonces la capacidad del canal con respecto al ancho de banda B y a la SNR. El segundo teorema,
definido como el teorema Hartley-Shannon establece que, la capacidad de un canal gaussiano de
banda limitada, ya demostrado en 1.48
Existen aqu trminos que no han sido aclarados an, como Capacidad de Canal y Tasa de datos.
Estos y otros trminos relacionados se explicarn a continuacin.

También podría gustarte