Está en la página 1de 4

CAP ITULO 1.

TEORA DE LA INFORMACIN Y TRANSMISIN DIGITAL

11

Figura 1.3: Probabilidad de error

Por lo tanto, la probabilidad de error es el rea bajo la curva de la parte sombreada, es decir, donde se detecte un valor de la seal aunque haya sido transmitido otro. Ntese que el rea es mnima para cualquier valor (por geometra) cuando = A/2. En efecto, esto es: Pe {A} = P {Y = A|X = A} Pe {A} = P {Y = A|X = A} En general, se puede expresar la probabilidad de error como: Pe {m} = P {Y = m|X = m} La probabilidad de error neta es entonces:
M

(1.37) (1.38)

(1.39)

Pe =
m=1

P {Y = m|X = m} P {X = m}

(1.40)

Para el caso de dos seales:


Pe = P {Y } =

pY (n)dn =

1 (n x)2 exp dn 2 2

(1.41)

Normalizando la ecuacin con:

z= Pe = P {Y } =
x/

nx 1 z2 exp dz = erf c 2 2

(1.42) x (1.43)

El cual puede ser calculado mediante tablas. Reemplazando = A/2: Pe = erf c (1.44)

Dependiendo de la seal enviada y de la probabilidad de ocurrencia de los smbolos, hallamos la potencia de la seal.
M

E X2 =
m=0

2 P {X = m} Xm

(1.45)

1.8.

Teorema de Shannon y Capacidad de Canal

La pregunta ms importante asociada con un canal de comunicacin es la tasa mxima a la que se puede transferir informacin. La informacin slo puede transferirse por una seal si la seal se le permite cambiar. Las seales anlogas que se transmiten por los canales fsicos no pueden rpidamente cambiar arbitrariamente. La tasa por la cual una seal puede cambiar se determina por el ancho de banda. De hecho se rige por la misma Ley de Nyquist-Shannon como en el caso de muestreo; una seal de ancho de banda B puede cambiar a una tasa mxima de 2B. Si cada cambio se usa para representar

CAP ITULO 1. TEORA DE LA INFORMACIN Y TRANSMISIN DIGITAL

12

un smbolo, la tasa de informacin mxima es 2B. El teorema de Nyquist-Shannon no hace observacin acerca de la magnitud del cambio. Si los cambios de magnitudes distintas se asocia cada uno con un smbolo separado, la tasa de informacin puede aumentarse. As, si en cada instante la seal cambia, se pueden tomar uno de los M smbolos equiprobables que pueden transmitirse, por lo que la tasa de informacin R queda: 1 R= logD M = 2B logD M (1.46) maxTi Esta ecuacin establece que cuando M tiende a innito, as lo har la tasa de informacin. Existe entonces un lmite para el nmero de niveles? El lmite se establece por la presencia de ruido. Si continuamos subdividiendo la magnitud de los cambios en sus intervalos decrecientes, se lega a un punto donde no se puede distinguir los niveles separadamente debido a la presencia de ruido. El ruido por consiguiente ofrece un lmite en la tasa mxima a la que se puede transmitir la informacin. Obviamente, lo que realmente importa es la relacin seal-a-ruido (SNR). Hay un mximo terico para la tasa en que la informacin pasa sin errores sobre el canal. Este mximo se denomina la capacidad del canal C. La Ley de Hartley-Shannon establece que la capacidad de canal C se da por la mxima cantidad de informacin de un evento Yn dado que ha sido transmitido como un evento Xm :

C = max {I {Y = n|X = m}} = max {I {Y = n X = m} I {X = m}} = max {I {Y = n X = m} (1.47) Como se demostr con la entropa, el valor mximo se encuentra cuando se transmiten M smbolos equiprobables. Luego: C = max {I {Y = n X = m}} logD M = B logD (1 + SN R) (1.48)

Ntese que la SNR es lineal en esta expresin. Ejemplo 1.14 Un canal de 10 kHz que opera con un SNR de 15dB tiene una tasa de informacin mxima terica de (1.49) C = 10000 log2 (31.623) = 49828 kbps El teorema no establece sobre cmo se cumple la capacidad del canal. De hecho, los canales slo se acercan a este lmite. La tarea de proporcionar una alta ecacia del canal es la meta de las tcnicas de codicacin, como e ver ms adelante. La falla para encontrar un desempeo perfecto se mide por la Tasa de Error de Bits (BER). Tpicamente las BERs son del orden de 106 . Para un canal dado existe una tcnica que permita la transmisin libre de errores a travs del canal una velocidad R, siempre y cuando R C, la capacidad del canal. La identidad se cumple solo cuando la SNR es innita. Como vimos anteriormente, la parte sorprendente de esta teora es la existencia de la capacidad del canal. Esto ofrece transmisin libre de errores, pero no dene qu cdigo es el que se requiere. En efecto, lo que se puede deducir de la prueba del teorema es que debe ser lo sucientemente largo. Nadie ha encontrado an un cdigo que permita el uso de un canal por su capacidad. Sin embargo, Shannon ha vencido el reto, en el sentido de probar que el cdigo existe. La ley de Hartley-Shannon nos dice que la mxima tasa de informacin de un canal de ancho de banda cero es cero. As, las seales con ancho de banda cero no contienen informacin. Para permitir al canal llevar informacin debemos introducir capacidad para un cambio aperidico. La consecuencia de un cambio aperiodico es introducir un expansin de frecuencias en la seal. Una consideracin terica detallada nos lleva a la ley de Nyquist-Shannon en donde una seal de ancho de banda B puede cambiar en una forma aperiodica a una tasa mxima de 2B. Consideremos el caso de una seal cuadrada, el cual lo podemos aplicar para el resto de seales peridicas. Si una seal de onda cuadrada

CAP ITULO 1. TEORA DE LA INFORMACIN Y TRANSMISIN DIGITAL

13

se reemplaza con una secuencia aperiodica de 1s y 0s, el espectro cambia substancialmente. Los componentes armnicos discretos se reemplazan por un rango continuo de frecuencias cuya forma es la funcin de muestreo sinc(). All hay varios rasgos para notar: El ancho de banda de la seal slo se puede aproximar a un valor nito. La mayora de la energa est contenida en una regin limitada llamada el lbulo principal. Sin embargo, algo de energa queda en todas las frecuencias. Si existen dos cambios en el periodo T, el ancho del lbulo principal es 4/T La ley de NyquistShannon establece que si una seal tiene un ancho de banda 4/T , entonces el nmero mximo de cambios que pueden tener lugar es 8/T por segundo, o 8 cambios en el periodo T. Si cada cambio se toma para representar 1 bit, est claro que esta seal no lleva tanta informacin como lo permite el ancho de banda. El espectro tiene frecuencias positivas y negativas. stas son simtricas sobre el origen. El ancho de banda de un canal de comunicacin est limitado por la construccin fsica del canal. La ley de Nyquist-Shannon pone un lmite en el nmero mximo de cambios aperidicos por unidad de tiempo que la seal puede realizar. Es la tarea del modulador para hacer uso mejor del ancho de banda disponible. Sin embargo, el modulador es reprimido por su diseo fsico y construccin, y puede o no puede acercarse al limite de Nyquist en su funcionamiento. Para un ancho de banda dado, esta ley de Hartley-Shannon establece que si la SNR tiende a innto, as lo har la capacidad. Est claro que los mtodos que se han descrito ahora no cumple esta ley. Esta incapacidad para satisfacer la ecuacin de Hartley-Shannon es explicada a menudo lejos de determinar que es una relacin terica, y que se debe tratar para el entorno prctico. sta no es una explicacin buena ni correcta. La ley es vlida para sistemas cuyos entradas y salidas pueden tomar algn valor. Como esto no es cierto para los sistemas reales, la ecuacin no se satisface, pero no hay razn por qu debe ser (derivando una relacin alternativa para los canales binarios). La caracterstica notable de la ley de Hartley-Shannon no es que los canales que se utilicen no la obedezcan, sino que un mensaje puede transmitirse libre de errores. Si se consideran los anteriores resultados se puede ver que, para una SNR nita, se tiene siempre una probabilidad de error nita. Es esta la existencia de una capacidad del canal, no su forma funcional, lo que hace la ecuacin una relacin importante. Es importante entender la diferencia entre la mxima tasa de bits y capacidad del canal. La tasa de datos mxima est determinado por el diseo del sistema, y se asocia con una tasa de error dada. La capacidad del canal es la tasa mxima que el canal puede transmitir datos libre de error. Claramente, la capacidad del canal no puede exceder la mxima tasa de datos. Sin embargo, no se ha dicho (an) lo concerniente cmo puede realizarse una transmisin libre de errores.

1.9.

Primer y segundo teorema de Shannon.

Si la tasa de informacin R es igual o menor que la capacidad del canal C, existir una tcnica de codicacin que permite la transmisin por el canal con una BER pequea, por lo tanto: RC (1.50)

Esta restriccin es vlida an en presencia de ruido del canal. Esta condicin es necesaria, por lo que si RC, no es posible transmitir mensajes sin errores. Entonces la capacidad del canal se dene como la

CAP ITULO 1. TEORA DE LA INFORMACIN Y TRANSMISIN DIGITAL

14

mxima razn de informacin conable a travs del canal. Para cada sistema de comunicacin, se expresa entonces la capacidad del canal con respecto al ancho de banda B y a la SNR. El segundo teorema, denido como el teorema Hartley-Shannon establece que, la capacidad de un canal gaussiano de banda limitada, ya demostrado en 1.48 Existen aqu trminos que no han sido aclarados an, como Capacidad de Canal y Tasa de datos. Estos y otros trminos relacionados se explicarn a continuacin.

También podría gustarte