Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Teorema de Shanon
Teorema de Shanon
Para un ancho de banda dado, esta ley de Hartley-Shannon establece que si la SNR
tiende a infinito, as lo har la capacidad. Est claro que los mtodos que se han
descrito ahora no cumplen est ley. Esta incapacidad para satisfacer la ecuacin de
Hartley-Shannon es explicada a menudo lejos de determinar que es una relacin
terica, y que se debe tratar para el entorno prctico. Esta no es una explicacin
buena ni correcta. La ley es vlida para sistemas cuyos entradas y salidas pueden
tomar algn valor. Como esto no es cierto para los sistemas reales, la ecuacin no
se satisface, pero no hay razn porque debe ser (derivando una relacin alternativa
para los canales binarios). La caracterstica notable de la ley de Hartley-Shannon no
es que los canales que se utilicen no la obedezcan, sino que un mensaje puede
transmitirse libre de errores. Si se consideran los anteriores resultados se puede ver
que, para una SNR finita, se tiene siempre una probabilidad de error finita. Es esta
la existencia de una capacidad del canal, no su forma funcional, lo que hace la
ecuacin una relacin importante. Es importante entender la diferencia entre la
mxima tasa de bits y capacidad del canal. La tasa de datos mxima est
determinada por el diseo del sistema, y se asocia con una tasa de error dada. La
capacidad del canal es la tasa mxima que el canal puede transmitir datos libre de
error. Claramente, la capacidad del canal no puede exceder la mxima tasa de
datos. Sin embargo, no se ha dicho lo concerniente como puede realizarse una
transmisin libre de errores.
Es evidente que la longitud media del cdigo L tendr un lmite inferior mayor que cero, ya
que los datos no se pueden comprimir infinitamente. Tendremos por tanto que L Lmin. Pero
cul es ese lmite por debajo de cual ya no se puede comprimir la informacin?
El Primer Teorema de Shannon nos da la respuesta a esta pregunta, y se puede enunciar as:
Dada una fuente digital sin memoria con entropa H(S), la longitud media del cdigo L para
cualquier cdigo sin prdidas esta acotado inferiormente por L H(S).
=H (S)/ L 0 1
Supongamos que tenemos una fuente de informacin sin memoria que entrega smbolos del
alfabeto S = {A, B, C, D} con una probabilidad de aparicin:
P(A) = 0.5 P (B) = 0.25
P(C) = 0.125 P (D) = 0.125
La informacin contenida en cada smbolo, medida en bits por smbolo, ser:
I(A) = 1 I(B) = 2
I(C) = 3 I(D) = 3
Como ya comentamos anteriormente, tienen mayor informacin los smbolos menos probables.
Si adems tenemos que asociar ms bits del alfabeto binario Sb a los smbolos menos
probables y menos a los ms probables por razones de eficiencia, por qu no asociar a cada
smbolo un nmero de bits igual a la informacin por smbolo que contienen? Si hacemos esto,
la eficiencia del cdigo es mxima, es decir, la longitud media del cdigo coincidir con la
entropa de la fuente:
S
I ( i)= H ( S)
pi
k1
p i l i=
i=0
k1
L=
i =0
Este resultado es el deseable para todos los casos, pero hay factores que impiden que esto se
logre fcilmente, como en este caso. Por ejemplo, en el caso de que la informacin contenida
en cada smbolo sea un nmero no entero. Quiz en este caso debiramos utilizar
agrupaciones de smbolos. Un problema que se plantea al utilizar cdigos de longitud variable
es cmo distinguir unos smbolos de otros. O mejor planteado el problema: cmo asignar los
bits a los smbolos para que la secuencia se pueda decodificar unvocamente. Una condicin
suficiente (pero no necesaria) para lograr esto es conseguir que ningn smbolo sea prefijo de
otro smbolo. Vamos a ver esto con el ejemplo que hemos presentado antes. Las secuencias
de bits que asociamos a los smbolos son:
A=0 B = 10
C = 110 D = 111
Vemos que ningn smbolo empieza por la secuencia de A (0), ni por la secuencia de B (10),
y por obviamente ni por la secuencia de C ni la de D. Esta condicin nos garantiza que la
secuencia 0110010101100011101111000110010... puede ser decodificada unvocamente.
Para un nmero reducido de smbolos, este proceso puede hacerse manualmente. Pero si el
nmero de smbolos crece, es conveniente tener un algoritmo. El algoritmo debe constar de
dos partes, un compresor que aplique la codificacin y un descompresor que decodifique la
secuencia recuperando los datos originales.
El teorema de Shannon-Hartley nos dice que es posible transmitir informacin libre de ruido
siempre y cuando la tasa de informacin no exceda la Capacidad del Canal.
As, si el nivel de S/N es menor, o sea la calidad de la seal es ms cercana al ruido, la
capacidad del canal disminuir.
Cuanto nivel de SNR requeriramos para transmitir sobre la capacidad del canal telefnico,
digamos a 56,000 bps?
De la formula de Shannon:
C = B log2(SNR + 1) = B log2(10^(dB/10) + 1)
Despejando los dB
bps/B = log2(10^(dB/10) + 1)
2^(bps/B) = 10^(dB/10) + 1
10^(dB/10) = 2^(bps/B) - 1
dB/10 = 1og10 (2^(bps/B) - 1)
dB = 10*1og10 (2^(bps/B) - 1)
Sustituyendo
Lo que significa que si queremos rebasar el lmite de Shannon debemos de aumentar el nivel
de SNR.