Está en la página 1de 34

Capacidad de un Canal, Limite de

Shannon, Descripción y demostración de


la modulación delta y DPCM
 Integrantes:

 20110792 Barrientos Talizo Erick Jose


 20103274 Huanca Urrutia John Carlos
 20143096 Llaiqui Ramos Jimy Jonathan
1.Introducción

 Debido a la acelerada difusión y especialización que


experimentan los medios de comunicación en el procesamiento y
transmisión de información, se desarrolla el primer modelo
científico del proceso de comunicación. Específicamente, se
desarrolla en el área de la telegrafía donde surge la necesidad de
determinar, con la máxima precisión, la capacidad de los
diferentes sistemas de comunicación para transmitir información.
 La primera formulación de las leyes matemáticas que gobiernan
dicho sistema fue realizada por Hartley (1928)
 Posteriormente, Shannon y Weaver (1949) desarrollaron los
principios definitivos de esta teoría. Su trabajo se centró en
algunos de los siguientes problemas que surgen en los sistemas
destinados a manipular información:

1. Los mejores métodos para utilizar los diversos sistemas de


comunicación;
2. cómo establecer el mejor método para separar las señales del ruido
3. cómo determinar los límites posibles de un canal.
2.Capacidad de un Canal

 Se llama capacidad del canal a la velocidad a la que se pueden


transmitir los datos en un canal de comunicación de datos. La
velocidad de transmisión de los datos es expresada en bits por
segundo (bps).
2.1 Unidades de Medida

 Para medir la velocidad máxima que puede soportar un medio de


transmisión determinado con respecto al tipo de señal utilizada,
se emplean dos medidas: el baudio y los dígitos binarios por
segundo (bps).
 La medida en bps indica el número de bits que se transmiten en
un segundo.
 Por su parte, el baudio mide la cantidad de veces por segundo
que la señal cambia su valor.
2.2Capacidad de un canal Ideal

 En 1.924, Nyquist planteó la existencia de un límite en la


capacidad de un canal ideal (sin ruido ni distorsiones) de ancho
de banda finito. El teorema de Nyquist establece que la velocidad
máxima de transmisión de datos en bps viene limitada por la
siguiente fórmula:
 Nyquist establece que aumentado los niveles de tensión
diferenciables en la señal, es posible incrementar la cantidad de
información transmitida. Por ejemplo, el valor de n para una
señal digital binaria es 2 por ser señales de dos niveles posibles.
Un canal sin ruido de 3 kHz no podrá transmitir señales binarias a
una velocidad mayor que 6.000 bps
2.3 Capacidad de un Canal con Ruido

 En 1.948, Shannon extendió el trabajo de Nyquist al caso de un canal real sujeto a


la aparición de una cierta cantidad de ruido aleatorio. La siguiente expresión,
conocida como fórmula de Shannon, proporciona la capacidad máxima en bps de un
canal con ruido:
 C = w  log2 (1 + S/N)
  
 W= es el ancho de banda del canal en Hertzios.
 C= es la capacidad del canal (tasa de bits de información bit/s)
 S=es la potencia de la señal útil, que puede estar expresada en vatios, milivatios,
etc., (W, mW, etc.)
 N= es la potencia del ruido presente en el canal, (mW) que trata de enmascarar a la
señal útil.En esta fórmula se utiliza la medida de la relación señal-ruido lineal (no en
dB). De esta expresión se deduce que la capacidad de los canales con poco ruido
será mayor que la de aquéllos con mucho ruido.
 Por ejemplo, un canal con ancho de banda de 4000 Hz y una relación señal-
ruido térmico de 3 dB nunca puede transmitir a mucho más de 6,3 Kbps, sin
importar cuántos niveles de señal se usen.
  
 Esta capacidad máxima es inalcanzable, ya que la fórmula de Shannon
supone unas condiciones que en la práctica no se dan. Sólo tiene en cuenta
el ruido térmico, no considerando el ruido impulsivo, la atenuación ni la
distorsión.
3. Limite de shanon

 Como sabemos la velocidad de transmisión es lo


suficientemente alta para poder ver esta página en una fracción
de segundo y ver todas las fotos contenidas en ella en unos
pocos segundos más.
 Pero para que eso sea posible ahora ha habido que recorrer un
largo camino teórico. Detrás de ese click de ratón sobre un icono
hay mucha tecnología y ciencia.
 Claude Shannon publicó en 1948 un artículo que esencialmente creó la
disciplina de la teoría de la información. Este trabajo es probablemente uno
de los más brillantes trabajos científicos a los ojos de los que lo han leído.
Shanon, que trabajo en el MIT desde 1956 al 1978.

 Demostró que un canal de comunicación cualquiera puede ser caracterizado


por dos factores: el ancho de banda y el ruido.

 El ancho de banda : es la gama de frecuencias (ópticas,


electromagnéticas, eléctricas, etc) que pueden ser usadas para la
transmisión de la señal,

 Ruido : es cualquier cosa que afecta negativamente a esa señal.


 Shannon mostró que, dado un canal con un particular ancho de
banda y un ruido característico, se puede calcular la velocidad
máxima a la que se puede enviar información sin sufrir errores.

 Llamó a esta velocidad o ritmo de transmisión “capacidad del


canal”, pero se conoce ahora como límite de Shannon.
 En un canal ruidoso la única manera de alcanzar cero errores es
añadir cierta redundancia en la transmisión.
 Shannon creía que era posible construir códigos de corrección mejores. De
hecho, fue capaz de demostrar que para un canal de comunicación cualquiera
debe haber un código de corrección que permita la transmisión muy cerca del
límite de Shannon.
 En dicha demostración no se proporcionaba ninguna receta de cómo construir
dicho código. En su lugar el trabajo descansaba en el cálculo de probabilidades.
Si, por ejemplo, usted quiere enviar cuatro bits a través de un canal ruidoso
entonces hay 16 posibles mensajes de cuatro bits. La demostración de Shannon
asignaría a cada unos de esos posibles mensajes su propio código de corrección
aleatorio.
 Así, sin embargo podemos ver que el limite de Shannon ,fue uno de los
principales precedentes a las técnicas de medición que posteriormente
fueron dadas . Y esta definida por la formula que se encuentra en la siguiente
figura:

Figura 1 : Formula del Teorema de Shannon Fuente: slidershare.com


Modulación Delta

La modulación delta es una técnica de


conversión de señal analógica a digital y digital
a analógica utilizada para la transmisión de
información de voz donde la calidad no es de
importancia primaria. La modulación delta es
la forma más simple de modulación de código
de pulso diferencial (DPCM) donde la diferencia
entre muestras sucesivas se codifica en flujos
de datos de n bits.
La señal transmitida es 1 solo bit que representa un escalón
± ∆. El esquema es el siguiente:

Esquema de la Modulación Delta Fuente: prof.usb.ve


Si x(n) es mayor que el valor anterior x(n-1) entonces se
transmite ∆. Si x(n) es menor que el valor anterior x(n-1)
entonces se transmite -∆.

Señal Modulada mediante Modulación ∆. Fuente:


Textoscientificos.com
Sus principales características son:

 La señal analógica se aproxima con una serie de


segmentos.
 Cada segmento de la señal aproximada se compara
con los sucesivos bits que se determina mediante esta
comparación.
 Solo se envía el cambio de información, es decir, solo
se envía un aumento o disminución de la amplitud de
señal de la muestra previa, mientras que una condición
de no cambio hace que la señal modulada permanezca
en el mismo estado 0 o 1 de la muestra anterior.
Ventajas y Desventajas

Ventajas:
Esta modulación permite seguir señales de cualquier amplitud.
Además, el equipo transmisor y el receptor son muy sencillos. No
se requiere sincronismo de palabra.
Desventajas:
Presenta ruido granular, sobrecarga de pendiente, transitoria.
Además, necesita una frecuencia de muestreo varias veces
superior a la de Nyquist. Esto es para que la predicción del valor
anterior sea apropiada. Por último, si se realiza TDM, cada canal
requerirá un receptor separado.
Restricciones en la frecuencia de Muestro

Por ejemplo, si x(t)=Acoswt, la máxima pendiente es Aw. Por lo tanto, se debe cumplir
que:
Restricciones en la frecuencia de Muestro

Por ejemplo, si x(t)=Acoswt, la máxima pendiente es Aw. Por lo tanto, se debe cumplir
que:
Restricciones en la frecuencia de Muestro

Por ejemplo, si x(t)=Acoswt, la máxima pendiente es Aw. Por lo tanto, se debe cumplir
que:
Cálculo de la relación señal a ruido para modulación Delta

  
Supongamos que el error oscila entre ±D y que está
distribuido uniformemente entre estos dos valores. En
ese caso la potencia del error sería igual a 0.333.
Se ha comprobado que la DEP del error es más o menos
constante entre -fs y fs.
Cálculo de la relación señal a ruido para modulación Delta

Recordando que fs ha debido seleccionarse muy superior a Nyquist, el LPF del


receptor limitará la DEP del ruido al rango de la DEP del mensaje original (-
fmax, fmax). Por lo tanto, a la salida solo se tendrá una fracción de la potencia
del error dada por:
Cálculo de la relación señal a ruido para modulación Delta

Recordando que fs ha debido seleccionarse muy superior a Nyquist, el LPF del


receptor limitará la DEP del ruido al rango de la DEP del mensaje original (-
fmax, fmax). Por lo tanto, a la salida solo se tendrá una fracción de la potencia
del error dada por:

2pAfo>=fsD
Cálculo de la relación señal a ruido para modulación Delta
Delta Adaptativo o Adaptivo

Esquema Delta Adaptativo.


Esquema de la
Modulación Delta
Modulación por Impulsos
Codificados (PCM)
 Es un procedimiento de modulación utilizado para transformar
una señal analógica en una secuencia de bit.
 Método inventado por el ingeniero británico Alec Reeves en 1937.
Modulación de Código de
Pulso Diferencial (DPCM)
 Parte de la base de PCM pero añade algunas funcionalidades
basadas en la predicción de las muestras de la señal.
 La idea principal es aplicar una codificación lineal antes de la
cuantización para reducir el rango dinámico de la señal.
 El primer paso a realizar es el proceso de muestreo.
 El siguiente paso es la cuantificación.
DPCM - Cuantificación (Opción
1)
 Se coge el valor de dos muestras consecutivas, se resta el valor
de la segunda menos la primera, se cuantifica el resultado y
finalmente se codifica.
DPCM - Cuantificación (Opción
1)
 El codificador hace la función de diferenciador, mientras que el
decodificador actúa como un acumulador. El cuantificador (Q)
reduce el número de bits mientras que el cuantificador inverso
(Q-1) recupera el número de bits original de la señal discreta
inicial.
DPCM - Cuantificación (Opción
2)
 Se hace la predicción de una muestra a partir de las muestras
anteriores y se calcula la diferencia entre el valor de la muestra
actual real y la predicción (el resultado es el error de predicción),
se cuantifica el error y se codifica. Incorporación de un predictor
lineal
DPCM de Bucle Cerrado

 En dicho diseño, el bucle alrededor del cuantificador asegura que


el ruido no se mejore durante la reconstrucción.
 La señal cruza el dominio analógico-digital dos veces
 La predicción se realiza utilizando valores cuantificados, lo que
puede causar imprecisión de predicción a bajas resoluciones.
DPCM de Bucle Abierto

 En este modelo, las deficiencias anteriores se evitan al realizar la


predicción completamente en el dominio analógico.
 El ruido mejora durante la reconstrucción, lo que lleva a un
rendimiento inferior de SQNR

También podría gustarte