Está en la página 1de 4

UNIVERSIDAD DE LAS

FUERZAS ARMADAS - “ESPE”


NOMBRE: David Villamarín Pazmiño
ASIGNATURA: COMUNICACIÓN Y
CODIFICACIÓN DIGITAL
NRC: 3474
PERÍODO: Octubre18-Febrero19
FECHA: 24-10-2018
NIVEL: Pregrado S-VII

TEMA: TEORÍA DE LA CAPACIDAD DE UN CANAL

En Ingeniería Electrónica y Teoría de la Información, la capacidad de canal es la


cantidad de información que puede ser relativamente transmitida sobre canales de
comunicación. El cálculo de esta cantidad puede plantearse, basándose en la Teoría
de la Información, en términos de la información mutua entre la entrada y la salida del
modelo probabilístico del canal de comunicaciones. 

 Se llama la capacidad de un canal de velocidad, expresada en bps (bits por


segundo), a la que se pueden transmitir los datos en un canal o ruta de
comunicación, depende de su ancho de banda y de la relación S/N (Relación
señal/ruido)
 Las limitaciones en el ancho de banda surgen de las propiedades físicas de los
medios de transmisión o por limitaciones que se imponen deliberadamente en
el transmisor para prevenir interferencia con otras fuentes que comparten el
mismo medio.
 Cuanto mayor es el ancho de banda mayor el costo del canal.
 Lo deseable es conseguir la mayor velocidad posible dado un ancho de banda
limitado, no superando la tasa de errores permitida.
 El mayor inconveniente para conseguir esto es el RUIDO.
 La capacidad del canal depende de la naturaleza del soporta, es decir, de los
portadores canales de gran ancho de banda, como la fibra óptica, su capacidad
siempre tiene un límite. Nyquist demostró la existencia de ese límite cuando se
envían señales digitales por canales analógicos.
 La teoría de la información, desarrollada por Shannon, define la noción de la
capacidad del canal y provee un modelo matemático con el que se puede
calcular. La cifra que resulta del estado de capacidad del canal, se define como
la máxima de la información mutua entre la entrada y la salida del canal. Donde
el punto máximo se encuentra en la entrada de la distribución.

Teorema de capacidad del canal


Dado un canal con las siguientes características:
 Ancho de banda B (ideal dentro de la banda).
 Ruido gaussiano de potencia Pn.
 Señal recibida de potencia Ps.
Sea cual sea el esquema de codificador(es), modulador, etc. Se emite una señal de
ancho de banda B. Debido al teorema de Nyquist, cualquier señal de ancho de banda
B Hz puede representarse por un conjunto de muestras tomadas a frecuencia 2B.
Por lo cual, la señal emitida (y la recibida) pueden representarse con 2B
muestras/segundo.
Para conocer cuanta información podrá transportar cada muestra es necesario obtener
la capacidad del canal.
La relación entre muestras emitidas y recibidas es:
Y k =X k + N k
La capacidad de canal se obtiene maximizando la información mutua es decir la
potencia emitida limitada).
C=max ⁡{ I ( X k ,Y k ) , E { X k 2 }=P s }

I ( X k ,Y k )=h ( Y k ) −h(Y k ∨X k )

h ( Y k| X k )=h ( X k + N k|X k )=h (N k )

Pero el ruido gaussiano está dado por:


1
h ( N k ) = log 2 (2 πe P n)
2

1
I ( X k ,Y k )=h ( Y k ) −h ( N k ) =h ( Y k ) − log 2 (2 πe P n)
2

Que será máxima cuando Y k sea gaussiana.

Como Y k tiene potencia Ps + Pn , su entropía será:

1
h ( Y k ) = log 2 (2 πe ( Ps + Pn ))
2

Por tanto, la capacidad del canal será:


1 1
C= log 2 ( 2 πe ( P s + Pn ) ) − log 2 ( 2 πe Pn )
2 2

1
C= log 2 ( ( 1+ Ps /Pn ) ) bits / muestra transmitida
2

El número máximo de muestras independientes transmisibles es 2B muestras


/segundo, de esta forma:
C=B log 2 ( ( 1+ Ps / Pn ) ) bits / segundo
C=B log 2 ( (1+ SNR ) )
Ejemplos
Canal telefónico: Centralitas digitales.
B < 4000 Hz y SNR < 48 dB (6,02 dB / bits x 8 bits)
C< 4000 log 2 ( ( 1+10 48) ) =63781 bps
Canal TV analógico
B < 5 MHz y SNR < 38 dB (canal regular)
C< 5 log 2 ( ( 1+ 103 8 ) ) =63,1 M bps
Es necesario señalar que si B tiende al infinito cuando:
C=B log 2 ( ( 1+ Ps / B N 0 ) )
Entonces la relación:
Eb
=ln ( 2 )=0.693=−1.6 dB
N0
Eb
Por debajo de esa relación es absolutamente imposible la transmisión sin errores.
N0
Por lo tanto, se puede concluir que:

Eb Rb
 Compromiso entre la relación (relación SNR) y (eficiencia).
N0 B
 Existen zonas en las que resulta posible/imposible la transmisión sin errores.
 Se establece así el límite de Shannon o cota de capacidad de canal.

Figura 1. Relación Eb/No y Rb/B.

Eficiencia
La eficiencia E de un canal de comunicación, es la relación entre su capacidad y su
ancho de banda e indica el número de bits por segundo de información que se puede
transmitir por cada Hertzio de su ancho de banda:
C
E= ( bps/ Hz)
B
La eficiencia de un canal está establecida por el número máximo de estados distintos
que puede adoptar la señal que se transmite por él para codificar la información. La
capacidad de un canal de ancho de banda determinado podría elevarse a infinito
utilizando señales con un número infinito de niveles. Pero esto solo se puede obtener
con un canal ideal, sin ruidos ni distorsión alguna, los cuales no existen en el mundo
real. Por tanto, el número de estados posibles está limitado por la sensibilidad y la
capacidad de resolución del propio receptor para diferenciar entre niveles contiguos de
la señal que recibe junto con el ruido.

Bibliografía
 Haykin, S. (1994). Communication Systems. Third Edition. Pp 614 - 622 y 631 -
656.
 Proakis, J. (2000). Digital Communications. Fourth Edition. Pp 381 – 387.
 Anderson, J. (1999). Digital Transmission Engineering. Pp 268 – 272.

También podría gustarte