Está en la página 1de 12

“Año del Fortalecimiento de la Soberanía Nacional”

UNIVERSIDAD NACIONAL MAYOR DE


SAN MARCOS
(UNIVERSIDAD DEL PERÚ, DECANA DE AMÉRICA)

Facultad de Ingeniería Electrónica y Eléctrica

Docente:

Jaime Vallejos Laos


Curso

Comunicaciones Digitales
Actividad:

Principios de Comunicaciones Digitales

Integrantes:

García Hidalgo Russell


Pereda Ventura Alvaro Elias

Vicente Saavedra Emir Alexander

LIMA, 2022
TEORÍA DE LA INFORMACIÓN

Canales de comunicación

1. Canal discreto y canal continuo:


El canal discreto nos permite codificar las señales analógicas de tal manera que pueda ser
reconstruida en el destino. Dicho canal suele establecer niveles de voltaje entre 0V y 5V. Artés,
Pérez (2012) afirman que:
La diferencia fundamental entre comunicaciones digitales y analógicas es que en las primeras el
número de formas de onda transmitidas posibles es finito, lo que no ocurre en el segundo caso.
Podemos pensar, por tanto, que en un instante de tiempo dado el transmisor tiene a su disposición
un conjunto finito y discreto de formas de onda que puede hacer corresponder con los bits a
transmitir. (p.1) Las ondas obtenidas por el canal discreto están limitadas, mientras que los
posibles casos que nos brinda un canal analógico son incalculables. Por ejemplo, la voz como tal
presenta una infinidad de ondas, pero al ser captada por un transductor, este se limitará a obtener
la información necesaria para poder transmitir dicha información.

2. Teorema de SHANNON-HARTLEY.

El teorema de Shannon nos indica lo que es básicamente un canal de comunicación, el indica que
si tenemos un canal de comunicación con un ancho de banda B y una relación señal a ruido
(SNR), si ponemos una velocidad de transmisión en este canal igual o inferior a dicha capacidad,
podremos establecer el enlace de comunicación con una capacidad de error muy baja.
C = B ∗ Log 2 (1 + SNR)

Asimismo, muchos indican que la teoría de la información empieza cuando se publica el articulo que
contiene dicho teorema.

MUESTREO:
El muestreo consiste en tomar valores de la señal cada cierto tiempo, es decir, no considerar todo el
tiempo de forma continua sino solamente unas muestras equiespaciadas, con lo que el resultado es un
conjunto finito de valores.
1. Proceso de Muestreo:
Para simplificar el detalle matemático, consideremos que la señal a muestrear es una señal
cosenoidal de la forma x(t) = cos(2pi·f·t) donde f es la frecuencia de la señal (Hz) y t es la
variable temporal. El proceso de muestreo consiste en tomar valores de x(t) en instantes concretos
de t esto es en instantes de la forma t = nTs donde n es un entero que indica el número de muestra:
x[n] = x(t)|t=n·Ts.
De esta forma estamos muestreando la señal cada Ts unidades de tiempo: la muestra 0 (n = 0) se
corresponde con el instante t = 0, la muestra 1 (n = 1) con el instante t = Ts, la muestra 2 (n = 2)
con el instante t = 2Ts, etc.
El valor óptimo (si existe) para Ts podemos verlo, cualitativamente, analizando la forma de la
señal x(t).
Observando la figura 1, vemos en azul la señal x(t) = cos(2pi·f·t) mientras que en rojo se presentan las
muestras escogidas cada cierto intervalo de tiempo T (2 segundos en este ejemplo). Si unimos las
muestras en rojo, vamos a visualizar la señal muestreada. El resultado se muestra en la figura 2, donde
esta interpolación se ha indicado en trazo discontinuo.
Claramente la señal recuperada (trazo discontinuo) no es la señal original (trazo continuo), sino que
presenta una frecuencia de oscilación menor. Esto es así debido a que la frecuencia con la que
tomamos las muestras (cada 2 segundos) es insuficiente para seguir a la señal original. Vamos a
aumentar esta frecuencia, por ejemplo tomando muestras cada 0,5 segundos: Ts = 0,5. El resultado se
muestra en la figura 3, donde se aprecia ahora que la interpolación de las muestras sí que permite
recuperar la señal original.

Podemos decir que la frecuencia con la que debemos tomar las muestras va a depender de cómo varía
la señal a muestrear: una señal con variaciones lentas precisará de una frecuencia de muestreo menor
que una señal de variaciones rápidas. Asi, una señal con variaciones lentas tendrá un tiempo mayor
entre muestras que una señal de variaciones rápidas.
Finalmente, en la figura 4 se presenta el caso extremo en el que fs = fN. Fijémonos que en este caso
las muestras coinciden exactamente en los mínimos y máximos de la señal, de forma que no perdamos
información sobre ésta.
2. Análisis espectral de la señal muestreada

Transformada Discreta de Fourier


En matemáticas, la transformada Discreta de Fourier, designada con frecuencia por la abreviatura
DFT (del inglés Discrete Fourier Transform), y a la que en ocasiones se denomina transformada
de Fourier finita, es una operación ampliamente empleada en tratamiento de señales y en campos
afines para analizar las frecuencias presentes en una señal muestreada. La Transformada discreta
de Fourier puede calcularse de modo muy eficiente mediante el algoritmo FFT.

Aplicaciones
Algunas aplicaciones que definen a la FFT son:
• Compresión de imagen y audio.
• Filtrado digital.
• Reducción de ruido en señales

Hay dos situaciones a considerar en cuanto al uso de la Transformada Discreta de Fourier:


• Sólo sirve para señales de potencia del tipo periódico.
• La mayoría de las señales a estudiar no son periódicas.
Consideremos ahora la secuencia de números complejos:

Los cuales son muestras de una señal analógica. Tal secuencia debe transformarse en la secuencia
de números complejos.
Las cuales son muestras del espectro de la señal analógica, según la fórmula:

Siendo:

Esta transformada se denota de forma común mediante el símbolo

La transformada de Fourier discreta inversa se calcula, por otra parte, mediante:

Siendo que

N, es el número de muestras de la señal en el dominio del tiempo.

Transformada Rápida de Fourier


FFT es la abreviatura usual (del inglés Fast Fourier Transform) de un algoritmo eficiente que
permite calcular la Transformada Discreta de Fourier (DFT) y su inversa.
La FFT es un importante método de medición en la tecnología de medición de audio y acústica.
Descompone una señal en sus componentes espectrales individuales y así proporciona
información sobre su composición. Los FFT se utilizan para el análisis de errores, el control de
calidad y la monitorización de las condiciones de las máquinas o sistemas.

3. Teorema del Muestreo


Ejemplo:
Si una señal contínua, S(t), tiene una banda de frecuencia tal que fm sea la mayor frecuencia
comprendida dentro de dicha banda, dicha señal podrá recontruirse sin distorsión a partir de
muestras de la señal tomadas a una frecuencia fs siendo fs > 2 fm.
En la figura se muestra un esquema simplificado del proceso de muestreo.
El interruptor no es del tipo mecánico, puesto que por lo general fs es de bastante valor. Suelen
emplearse transistores de efecto campo como interruptores, para cumplir los requerimientos que se le
exigen entre los que se encuentran:

Una elevada resistencia de aislamiento cuando los interruptores (transistores)están desconectados.


Una baja resistencia si los interruptores están conectados o cerrados.
Una elevada velocidad de conmutación entre los dos estados de los interruptores.
En la siguiente figura se ofrece las formas de las tres señales principales:

CUANTIFICACIÓN

1- El proceso de cuantificación:

El proceso de cuantificación digital es posterior a la etapa de muestreo en la que se toman


valores de amplitud de una determinada señal analógica. El objetivo de este proceso es
cuantificar con bits estos valores, mediante la asignación de niveles. En esta etapa se le asigna
un valor a la muestra, pero no es digital.
La cuantificación se produce debido a las limitaciones de almacenamiento de muestras
obtenidas cuando se digitaliza una señal; se pasa de tener una señal analógica a tener una señal
con un número posible de valores distintos finitos. Cuando se cuantifica una señal,
forzosamente se añade un error a ésta, ya que la señal analógica puede tomar un número infinito
de valores

Básicamente, la cuantificación lo que hace es convertir una sucesión de muestras de amplitud


continua en una sucesión de valores discretos preestablecidos según el código utilizado.

2- Cuantificación uniforme y no uniforme:

· Cuantificación uniforme (PCM): La cuantificación uniforme es aquella en la que todos los


segmentos en que se divide la recta real son de igual longitud, salvo en los extremos del
cuantificador. Si las amplitudes de la señal sin cuantificar se distribuyen uniformemente dentro
del rango dinámico del cuantificador, entonces la función de densidad probabilidad del error
de cuantificación es uniforme entre -Δ/2 y Δ/2 (Δ es el escalón de cuantificación). Dentro de
los cuantificadores uniformes se pueden distinguir dos clases básicas: los cuantificadores “mid-
tread (existe un nivel situado en cero)” y “mid-riser (no existe nivel situado en cero)”.

El cuantificador uniforme está adaptado para funciones de densidad de probabilidad uniformes.


· Cuantificación no uniforme: El tamaño del paso de cuantificación no tiene por qué ser igual
para todos los niveles. Puede ser más pequeño en las zonas donde se quiera representar con
mayor fidelidad la señal, y mayor donde sea menos importante.

La forma usual de realizar un cuantificador no uniforme es pasando la señal por un compresor


(función no lineal de la entrada) que expanda la parte del rango dinámico que hay que
cuantificar con mayor calidad y contraiga la parte del rango dinámico que hay que cuantificar
con menor calidad. A la salida del cuantificador hay que colocar la función inversa (expansor)
para recuperar la señal original
3- Descripción de las leyes de cuantificación: “A” y “µ”

· Ley “A”: Un algoritmo A-law es un estándar de compresión y expansión algoritmo, que se


utiliza en Europa digital de comunicaciones para optimizar los sistemas, es decir, modificar el
rango dinámico de una señal analógica para la digitalización. Está estandarizada por la ITU-T
en G.711 y es similar a la ley Mu.

Características principales de la Ley “A”:

- Tiene una complejidad baja

- Utilizado en aplicaciones de voz humana

- Es adecuado para sistemas de transmisión por paquetes

- Digitalmente, factor de comprensión aproximadamente de 2:1

Para una entrada x dada, la ecuación de una ley de codificación es la siguiente:


Donde A es el parámetro de compresión. En Europa, A = 87,7; el valor de 87.6

también se utiliza. Una ley de expansión está dada por la función inversa:

La razón de esta codificación es que la amplia gama dinámica de la voz no se

presta bien a la eficiente codificación digital lineal.

· Ley “Mu (µ)”: El algoritmo μ -ley (a menudo u-law, ulaw, o mu -law) es un companding
algoritmo (algoritmo de comprensión), usado sobre todo en el digital de telecomunicaciones
de sistemas de América del Norte y Japón. Es similar al algoritmo A-law se utilicen en zonas
donde las señales digitales de telecomunicaciones se realizan en los circuitos de E-1, por
ejemplo, Europa.

Hay dos formas de este algoritmo, una versión analógica, y una versión cuantificada digital.

Para una entrada x dada, la ecuación para la codificación de Ley-μ:

Donde μ = 255 (8 bits) en América del Norte y los estándares japoneses. Es importante tener
en cuenta que el rango de esta función es de -1 a 1.

La ley-μ de expansión está dada por la ecuación inversa:


Las ecuaciones son sacadas de las técnicas de Cisco de forma de onda de codificación.

CONCLUSIÓN:

Se puede concluir que la ley µ maneja mucho mejor una gama dinámica de un poco más grande
que el A-derecho en el costo de la peor distorsión proporcional para pequeñas señales. Por
convención, una ley- se utiliza para una conexión internacional, si al menos un país lo utiliza.

También podría gustarte