Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Apuntes ComDig 3raed PDF
Apuntes ComDig 3raed PDF
FACULTAD DE INGENIERÍA
DEPARTAMENTO DE INGENIERÍA ELÉCTRICA
APUNTES
COMUNICACIONES DIGITALES
Cod. 549 175 - Ingenierı́a Civil en Telecomunicaciones
Tercera Edición
July 23, 2010
Prólogo
El presente apunte, nace bajo la necesidad de lograr un mejor entendimiento de los alumnos que
toman la asignatura de Comunicaciones Digitales, obligatoria para la carrera de Ingenierı́a
Civil en Telecomunicaciones de la Facultad de Ingenierı́a, Universidad de Concepción.
Esta asignatura es planteada con la concepción original de que el alumno maneja los con-
ceptos de los sistemas de comunicación analógicos (“Sistemas de Comunicación” Cod. 549
164) y principalmente de estadı́stica y procesos aleatorios (“Procesos Aleatorios” y “Estadı́stica
Aplicada” Cods. 549 150, 549 103 respectivamente) cursados como requisitos previos de la
presente.
Sinceramente, quisiera agradecer a todos los alumnos que han cursado la asignatura ya que
en forma directa o indirecta han aportado al desarrollo de este documento mediante sugerencias,
comentarios o apoyo en la escritura.
El documento está totalmente escrito utilizando LATEX mediante la interfaz gráfica Kile
para Ubuntu Linux. El formato utilizado en el desarrollo de este documento, está basado en
los apuntes del Prof. José Espinoza, con las respectivas modificaciones conforme el curso lo
requiere.
Sebastián E. Godoy
Ingeniero Civil Electrónico
Magister en Ing. Eléctrica
Colaborador Académico
Departamento de Ing. Eléctrica
Facultad de Ingenierı́a
Universidad de Concepción
Casilla 160-C, Correo 3
Concepción, CHILE
Tel: +56 (41) 2203633
Fax: +56 (41) 2246999
e-mail: segodoy@udec.cl
web: http://www.udec.cl/~segodoy
i
Índice General
Prólogo i
1 Introducción 1
1.1 Sistema de Comunicaciones Digitales . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 ¿Por qué comunicaciones digitales? . . . . . . . . . . . . . . . . . . . . . 2
1.2 Probabilidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1 Revisión Básica de Conceptos . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.2 Variables Aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.3 Valor Esperado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Procesos Aleatorios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1 Estacionalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4 Transformada y Series de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.1 Series de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.2 Transformada de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5 Densidad Espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.5.1 Señales de Energı́a y Potencia . . . . . . . . . . . . . . . . . . . . . . . . 13
1.5.2 Teorema de Parseval . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.5.3 Densidad Espectral de Energı́a (ESD) . . . . . . . . . . . . . . . . . . . . 14
1.5.4 Densidad Espectral de Potencia (PSD) . . . . . . . . . . . . . . . . . . . 15
1.6 Conversión Analogo-Digital . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.6.1 Muestro de una Señal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.6.2 Cuantización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2 Teorı́a de la Información 21
2.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2 Modelo de las Fuentes de Información . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2.1 Concepto de Información . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2.2 Medida de la Información . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2.3 Entropı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.2.4 Entropı́a Conjunta y Condicional . . . . . . . . . . . . . . . . . . . . . . 24
2.2.5 Información Mutua . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3 Teorema de Codificación de la Fuente . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3.1 Código Huffman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.3.2 Código Lempel-Ziv . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
ii
2.3.3 Código ASCII . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.4 Representación de Canales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.4.1 Canales con Ruido Aditivo Gaussiano . . . . . . . . . . . . . . . . . . . . 33
2.4.2 Canales con Ruido y Filtro . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.5 Capacidad del Canal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.5.1 Capacidad de Canal Gaussiano . . . . . . . . . . . . . . . . . . . . . . . 36
iii
4.5.1 Detección Coherente para PSK . . . . . . . . . . . . . . . . . . . . . . . 86
4.5.2 Detección Coherente para PSK Múltiple . . . . . . . . . . . . . . . . . . 87
4.5.3 Detección Coherente de FSK . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.6 Detección No-Coherente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
4.6.1 Detección No-Coherente de FSK . . . . . . . . . . . . . . . . . . . . . . . 90
4.6.2 Detección de PSK Diferencial . . . . . . . . . . . . . . . . . . . . . . . . 94
4.7 Desempeño de Error en Sistemas Binarios . . . . . . . . . . . . . . . . . . . . . 96
4.7.1 Probabilidad de Error de Bit para BPSK Coherente . . . . . . . . . . . . 97
4.7.2 Probabilidad de Error de Bit para DPSK . . . . . . . . . . . . . . . . . . 99
4.7.3 Probabilidad de Error de Bit para FSK Coherente . . . . . . . . . . . . . 99
4.7.4 Probabilidad de Error de Bit para FSK No-Coherente . . . . . . . . . . . 100
iv
Capı́tulo 1
Introducción
1
CAPÍTULO 1. INTRODUCCIÓN
1.2 Probabilidades
Como se dijo en la sección anterior, dado que no se conoce a-priori la ocurrencia de ceros o unos
en una seña digital, entonces no se puede tratar como una señal determinı́stica. Por lo tanto, es
necesario recordar algunos conceptos de estadı́stica como variables y procesos aleatorios, valor
esperado, autocorrelación y estacionalidad de procesos aleatorios.
2
CAPÍTULO 1. INTRODUCCIÓN
La probabilidad de que ocurra un evento A denotada por P (A), está definida como
nA
P (A) = lim
n→∞ n
en donde nA es al número de veces que A aparece en los n intentos en que se realizó el ex-
perimento. Ası́, P será una probabilidad si es una función de eventos y satisface las siguientes
condiciones:
2. P (Ω) = 1.
Pn
3. Si A1 , A2 , . . . , An son eventos disjuntos, entonces P (A1 A2 · · · An ) = i=1 P (Ai )
P (A, B)
P (A|B) = (1.1)
P (B)
en donde p(B) 6= 0.
Por otro lado, el Teorema de Bayes dice que:
P (B|A)P (A)
P (A|B) =
P (B)
3
CAPÍTULO 1. INTRODUCCIÓN
1. 0 ≤ FX (x) ≤ 1.
2. FX (x1 ) ≤ FX (x2 ), si x1 ≤ x2 .
3. FX (−∞) = 0.
4. FX (+∞) = 1.
La Función de Densidad de Probabilidad (PDF) denotada por fX (x) está definida por:
dFX (x)
fX (x) = (1.4)
dx
y recibe su nombre en base a que la probabilidad del evento x1 ≤ X ≤ x2 es:
P (x1 ≤ X ≤ x2 ) = P (X ≤ x2 ) − P (X ≤ x1 )
= FX (x2 ) − FX (x1 )
Z x2
= fX (x) dx
x1
4
CAPÍTULO 1. INTRODUCCIÓN
por lo que
E {Y } = E {g(X)} ,
aun cuando las integrales sean calculadas sobre diferentes funciones de densidad de prob-
abilidad.
Se define también el n-ésimo momento de la variable aleatoria mediante:
Z ∞
n
E {X } = xn pX (x) dx (1.6)
−∞
5
CAPÍTULO 1. INTRODUCCIÓN
1.3.1 Estacionalidad
Autocorrelación de Procesos Aleatorios
La autocorrelación de un proceso aleatorio X(t) se define como
en donde X(t1 ) y X(t2 ) corresponden a la observación del proceso aleatorio en los instante t1 y
t2 respectivamente.
Definición de Estacionalidad
Un proceso aleatorio X(t) es llamado Estacionario en el Sentido Estricto si ninguna de sus es-
tadı́sticas dependen de ninguna forma del tiempo. Un proceso aleatorio es llamado Estacionario
en Sentido Amplio (wide-sense stationary, WSS) si su media y su función de autocorrelación no
6
CAPÍTULO 1. INTRODUCCIÓN
Las cantidades y parámetros eléctricos fundamentales pueden ser relacionados con los mo-
mentos de un proceso aleatorio de la siguiente manera
7
CAPÍTULO 1. INTRODUCCIÓN
en donde los términos xn son llamados coeficientes de la serie de Fourier de la señal x(t), y
están definidos por Z α+T0
1
xn = x(t)e−jnω0 t dt , (1.11)
T0 α
La variable α es cualquier número real elegido correctamente. La frecuencia f0 es llamada
frecuencia fundamental de la señal periódica, y las frecuencias fn = nf0 son llamados los n-
ésimos armónicos. En la mayorı́a de los casos, tanto α = 0 como α = −T0 /2 son buenas
elecciones dependiendo de la paridad de la señal.
Este tipo de series de Fourier es conocido como forma compleja de la series de Fourier, y
puede ser aplicada tanto en señales reales como complejas, mientras estas sean periódicas. En
general, los coeficientes de la serie de Fourier {xn } son números complejos aun cuando x(t) sea
una señal real.
8
CAPÍTULO 1. INTRODUCCIÓN
R T0
los coeficientes serán: cn = TA0 0 2 e−jnω0 t dt = j 2πn
A
(e−jnπ − 1). Dado que para n par, e−jnπ = 1
y para n impar e−jnπ = −1, los coeficientes están dados por:
A
2 , n=0
A
cn = −j nπ , n impar .
0 , n par
Fig. 1.1: Señal y espectro discreto obtenido mediante la serie de Fourier del Ejemplo 1.4
Se puede demostrar que para una señal periódica real, x−n = x∗n . En efecto, se tiene que
Z α+T0
1
x−n = x(t)e−j(−n)ω0 t dt
T0 α
Z α+T0
1
= x(t)ejnω0 t dt
T0 α
Z α+T0
1 ∗
x(t) e−jnω0 t dt
=
T0 α
= x∗n .
Ahora bien, como el n-ésimo coeficiente es complejo, se puede descomponer en su parte real y
9
CAPÍTULO 1. INTRODUCCIÓN
Nótese que para n = 0, siempre se tiene que b0 = 0, entonces a0 = 2w0 . Esta relación se conoce
como la serie de Fourier
p trigonométrica.
Definiendo cn = a2n + b2n y θn = − tan−1 abnn , y usando la relación a cos φ + b sin φ =
√
a2 + b2 cos φ − tan−1 ab , entonces la Ecuación (1.14) se puede escribir de la forma
∞
a0 X
x(t) = + cn cos(nω0 t + θn ) , (1.15)
2 n=1
que es la tercera forma de la expansión en series de Fourier para señales reales periódicas.
Es importante considerar que si x(t) es real y par, vale decir x(−t) = x(t), entonces bn = 0,
por lo que todos los coeficientes xn son reales y la serie trigonométrica está dada solamente por
la suma de cosenos. Similarmente, para una señal real e impar, an = 0 por lo que todos los xn
son imaginarios y la serie está determinada por la suma de senos.
La suma del producto entre los coeficientes de la serie de Fourier y las exponenciales es
teoricamente infinita, lo que resulta imposible de conseguir en la realidad. Es por esto que
en general se utilizan aproximaciones de la representación en series con un número finito de
armónicos. La Fig. 1.2 muestra distintas aproximaciones del pulso rectangular para diferentes
valores de armónicos. A medida que el número de armónicos se incrementa, menos error se tiene
entre ambas señales. Las oscilaciones que presenta la señal aproximada en cada canto recibe
el nombre de fenómeno de Gibbs 2 y se origina porque la n-ésima suma parcial de la serie de
Fourier tiene grandes oscilaciones cerca del salto, lo que a su vez incrementa el máximo valor
de la suma sobre el de la función.
10
CAPÍTULO 1. INTRODUCCIÓN
Fig. 1.2: Aproximaciones para un pulso rectangular del Ejemplo 1.4, usando series de Fourier
condiciones de Dirichlet se denota por X(f ), o, equivalentemente, F [x(t)], y está definida por
Z ∞
F [X(t)] ≡ X(f ) = x(t)e−j2πf t dt . (1.16)
−∞
F [X(t)] = x(−f ) .
11
CAPÍTULO 1. INTRODUCCIÓN
Para una señal periódica x(t) con periodo T0 , cuyos coeficientes de Fourier son denominados
por xn , vale decir
X∞
x(t) = xn ejnω0 t ,
n=−∞
En otras palabras, la transformada de Fourier de una señal periódica consiste en impulsos a los
multiplos enteros de la frecuencia fundamental (armónicos) de la señal original, con un peso igual
al valor de los coeficientes de Fourier. En conclusión, para una señal periódica, su transformada
de Fourier corresponden a los coefficientes xn ubicados en los armónicos correspondientes al
n-ésimo múltiplo de la frecuencia fundamental.
12
CAPÍTULO 1. INTRODUCCIÓN
En el mundo real todas las señales tienen energı́a finita, sin embargo como consecuencia de la
definición matemática de las señales periódicas, estas existen para todo tiempo por lo que tienen
energı́a infinita. Además, las señales aleatorias también tienen energı́a infinita, por lo que se
requiere definir una clase de señales llamadas señales de potencia, que serán aquellas señales
no nulas que tienen potencia promedio finita para todo el tiempo, en sı́mbolos 0 < P < ∞, en
donde: Z T
1 2
P , lim x2 (t) dt (1.20)
T →∞ T − T
2
13
CAPÍTULO 1. INTRODUCCIÓN
Las definiciones de señales de energı́a y potencia son mutuamente excluyentes, ya que una
señal de energı́a tiene energı́a finita pero potencia media nula, en cambio una señal de potencia
tiene potencia media finita pero energı́a infinita. Como norma general, las señales periódicas y
las señales aleatorias son consideradas de potencia. Por otro lado, las señales que a la vez son
no periódicas y determinı́sticas son clasificadas como señales de energı́a.
en donde X(f ) es la transformada de Fourier de la señal no periódica x(t). Nótese que el lado
izquierdo de la ecuación del teorema corresponde a la definición de energı́a media definida en la
Ecuación (1.19)
La interpretación de la Ecuación (1.21) y del teorema en sı́, es que la energı́a total contenida
en la señal x(t) sumada a lo largo de todo el tiempo t es igual a la energı́a total de la transformada
de Fourier de x(t), X(f ), sumada a lo largo de todas las componentes de frecuencia f .
Esto significa que la energı́a media de una señal x(t) está dada por el área bajo la curva |X(f )|2 .
Como consecuencia, la función en frecuencia |X(f )|2 define como la energı́a se distribuye para
todas las componentes de frecuencia f . Ası́, en palabras más formales, si se define la magnitud
al cuadrado del espectro como:
ξ(f ) , |X(f )|2 , (1.22)
entonces la cantidad ξ(f ) es la forma de onda de la Densidad Espectral del Energı́a (ESD) de
la señal x(t).
Nótese que esta definición de ESD requiere que la transformada de Fourier de la señal
exista, lo que matemáticamente implica que las señales sean integrables cuadráticamente. Por
esta razón, es más común hablar de densidad espectral de potencia (PSD) que describe como
la potencia de la señal está distribuı́da en las distintas frecuencias.
14
CAPÍTULO 1. INTRODUCCIÓN
en donde el lado izquierdo correspnde a la definición de la potencia media de una señal periódica
y los términos |xn | son los coeficientes complejos de la serie de Fourier de dicha señal. Nueva-
mente, planteando esta igualdad, se tiene que la potencia media de la señal estará dada por
suma de todas las componentes espectrales de ella a lo largo de la frecuencia. En sı́mbolos
∞
X
P = |xn |2 .
n=−∞
Ası́, se define la Densidad Espectral de Potencia (PSD) de la señal periódica x(t) mediante
+∞
X
ρ(f ) , |xn |2 δ(f − nf0 ) . (1.24)
n=−∞
Nótese que ρ(f ) es una función discreta en frecuencia, real, par y no-negativa
Para señales no-periódicas se requiere definir una versión truncada de la señal, mediante:
Ahora, usando la Ecuación (1.20) y el teorema de Parseval dado por la Ecuacion (1.21) se
tiene que la potencia normalizada promedio está determinada por:
1 ∞ 2 1 ∞
Z ∞
|XT (f )|2
Z Z
2
P = lim xT (t) dt = lim |XT (f )| df = lim df
T →∞ T −∞ T →∞ T −∞ −∞ T →∞ T
Entonces, utilizando el mismo principio explicado para el caso de señales periódicas, se define
la PSD de una señal no-periódica de una señal como:
|XT (f )|2
ρ(f ) = lim , (1.25)
T →∞ T
de donde se puede extraer directamente que la potencia promedio de la señal estará determinada
por el cálculo de la integral de la PSD a lo largo de todas las frecuencias. Este resultado es
de vital importancia para señales aleatorias en dónde no se puede calcular la transformada de
Fourier pero si su PSD mediante la función de autocorrelación como se verá en la siguiente
sección.
15
CAPÍTULO 1. INTRODUCCIÓN
Entonces, la PSD de una secuencia aleatoria de digitos binarios puede ser obtenida mediante
la transformada de fourier de la función de autocorrelación. Debe recordarse que el área bajo
la curva de la PSD corresponde a la potencia promedio de la señal.
16
CAPÍTULO 1. INTRODUCCIÓN
(a) Señal original y contaminada con ruido blanco (b) PSD de la señal
Fig. 1.3: Estimación de la PSD de una señal determinı́stica contaminada con ruido blanco.
Aparte de permitir realizar análisis espectral de los procesos aleatorios, la PSD permite tra-
bajar con señales determinı́sticas contaminadas con ruido aleatorio. Por ejemplo, para una señal
dada por x(t) = cos(2π50t) + cos(2π250t) que se contamina con ruido blanco como se muestra
en la Fig. 1.3(a), la información a priori de las componentes espectrales resulta practicamente
imposible de obtener. Al calcular la función de autocorrelación de la señal y tomar la transfor-
mada de Fourier de dicho resultado, se obtiene la estimación de la PSD de la señal. Cómo se
puede observar en la Fig. 1.3(b), se logran visualizar claramente las componentes espectrales en
50[Hz] y 250[Hz] conforme a la señal original, a pesar de la presencia de ruido aleatorio en la
señal a procesar.
17
CAPÍTULO 1. INTRODUCCIÓN
1.6.2 Cuantización
Después del proceso de muestreo, se tiene una señal de tiempo discreto, sin embargo las am-
plitudes aún son continuas y puede asumir cualquier valor real dentro de los lı́mites propios de
la señal. Dado que la transmisión de números reales en número de base 2 tienen largo infinito,
la transmisión de esta señal se hace imposible. Por esta razón, posterior al muestreo se realiza
el proceso de cuantización. En este proceso se realiza la discretización de la amplitud de las
señales, lo que permite representar la señal de forma válida con valores binarios de largo finito.
La forma más básica de realizar el proceso de cuantización es mediante la subdivisión del
rango dinámico de la señal muestreada en un número finito de valores. En términos coloquiales,
18
CAPÍTULO 1. INTRODUCCIÓN
19
CAPÍTULO 1. INTRODUCCIÓN
es como posicionar la señal sobre un cuaderno de lineas. Ası́ los valores que la señal asume en los
distintos instantes de tiempo, se redondean a un valor máximo o mı́nimo de dicha subdivisión.
Mediante esta técnica se logran resultados aceptables, pero intuitivamente se puede decir que
se agregan errores propios al redondeo de valores. Este método de cuantización ası́ como otros
más avanzados se estudiarán con más detalle a partir de la sección 3.3.1.
20
Capı́tulo 2
Teorı́a de la Información
2.1 Introducción
La Teorı́a de la Información busca contestar dos preguntas fundamentales en la teorı́a de las
comunicaciones: Cuál es la máxima compresión de datos (Respuesta: La entropı́a, H) y cuál es
la máxima tasa de transmisión de la comunicación (Respuesta: La capacidad del canal, C). Por
esta misma razón, la teorı́a de la información se considera como una sub-materia de la teorı́a de
las comunicaciones, sin embargo resulta ser un área muchı́simo más grande pues tiene mucho que
aportar en otras áreas como Fı́sica Estadı́stica (Termodinámica), Ciencias de la Computación
(Complejidad de Kolmogorov), Inferencia Estadı́stica, Probabilidad y Estadı́stica entre otras
materias.
21
CAPÍTULO 2. TEORÍA DE LA INFORMACIÓN
ente o fenómeno. En otras palabras, se puede decir que el concepto de mensaje, viene a ser
como una materialización de la información.
La información es transferida desde una fuente a un destinatario, sólo si este último no la
conocı́a previamente. Por ejemplo, considere el escenario en que un grupo de gente mira por
la ventana. Esto involucra que todos saben (tienen la información) que el dı́a está soleado. Si
alguien dice “El dı́a está soleado” no es información, pues no aporta ningún dato nuevo a lo
que todos conocen. Por otro lado si alguien dice “En la noche lloverá” para muchos si será
información pues no necesariamente todos sabrán dicho dato.
Pensando en señales de voltaje, una baterı́a de 1.5 volts no tiene mucha información que
aportar, pues una vez sabido su voltaje mediante un voltı́metro, este seguirá constante por
muchı́simo tiempo lo que no aporta ningún dato nuevo → La información está relacionada con
cambios.
Por otro lado, una señal sinusoidal de voltaje varı́a en el tiempo, sin embargo una vez que está
se ha caracterizado midiendo su amplitud, frecuencia y fase, no existe ninguna información nueva
que ésta señal pueda aportar → La información está relacionada con cambios impredecibles.
22
CAPÍTULO 2. TEORÍA DE LA INFORMACIÓN
2.2.3 Entropı́a
Lo anteriormente discutido, define la medida de la información para el caso en que todos los
mensajes son igualmente probables, lo que resulta ser sólo un caso particular. A modo de
generalización se define una “información promedio” de cada mensaje, llamada Entropı́a, H.
La entropı́a corresponde a una medida de la incertidumbre de una variable aleatoria. Defı́nase
X como una variable aleatoria discreta con alfabeto A y función de probabilidad p(x) = P (X =
x). Ası́, se define la Entropı́a H(X) de la variable aleatoria discreta X como:
X
H(X) = − p(x) log p(x) (2.2)
x∈A
En particular H(p) = 1 bit cuando p = 0.5. Si la función H(p) se grafica con respecto a
p se puede notar una de las propiedades básicas de la entropı́a: es una función cóncava de la
distribución y nula para p = 0 ó 1. Además el máximo ocurre cuando p = 0.5 lo que es claro
pues corresponde al punto de máxima incertidumbre. Esto se puede corroborar observando la
Fig. 2.1.
23
CAPÍTULO 2. TEORÍA DE LA INFORMACIÓN
24
CAPÍTULO 2. TEORÍA DE LA INFORMACIÓN
Ası́, se define la Entropia Conjunta de dos variables aleatorias discretas (X, Y ) como:
X
H(X, Y ) = − p(x, y) log p(x, y) (2.3)
x,y
por lo que se puede decir que la entropia conjunta es simplemente la entropia de una variable
aleatoria vectorial.
25
CAPÍTULO 2. TEORÍA DE LA INFORMACIÓN
26
CAPÍTULO 2. TEORÍA DE LA INFORMACIÓN
en donde l(x) es el largo del código de palabra asignado a la salida x. Se puede demostrar que
R̄ satisface la relación:
H(X) ≤ R̄ < H(X) + 1 .
Además, como se dijo que la entropı́a representa la cota mı́nima de compresión de datos, la
eficiencia del código Huffman está dado por:
H(X)
η = .
R̄
2. Agrupar los menos probables y generar una nueva salida cuya probabilidad es la suma de
las probabilidades correspondientes a las salidas agrupadas
5. Recorrer el arbol en forma inversa, asignando 0 o 1 a cada rama. Repetir hasta llegar a
las salidas originales.
27
CAPÍTULO 2. TEORÍA DE LA INFORMACIÓN
a1 ( 12 ) → a1 ( 12 ) → a1 ( 12 ) → a1 ( 21 ) 0 0
a2 ( 14 ) → a2 ( 14 ) → a2 ( 14 ) 0e a2345 ( 12 ) 1 10
a3 ( 18 ) → a3 ( 18 ) 0e a345 ( 14 ) 1c 110
1
a4 ( 16 ) 0e a45 ( 18 ) 1c 1110
1
a5 ( 16 ) 1c 1111
−0.5 log 0.5 − 0.25 log 0.25 − 0.125 log 0.125 − 0.0625 log 0.0625 − 0.0625 log 0.0625 = 1.875, ası́
la eficiencia será η = 100%.
A pesar de que el código Huffman es óptimo en el sentido de que entrega palabras con un
largo medio mı́nimo, presenta dos grandes problemas en su implementación:
1. El diseño del código depende fuertemente de las probabilidades (estadı́sticas), las que se
debe saber con anterioridad. Esto implica que el código Huffman se debe realizar en dos
pasos: primero se estiman las estadı́sticas de la fuente de información y luego se realiza la
codificación en si.
2. El otro problema que presenta el código Huffman es que se diseña sobre bloques de la
fuente de largo uno, solo emplea variaciones en la frecuencia de las salidas de la fuente
y no la memoria. Si se quisiera utilizar también la memoria de la fuente, se requerirı́a
utilizar bloques de largo 2 o más, lo que incrementa en forma exponencial la complejidad
del algoritmo.
01000011000010100000101000001100000101000010 .
28
CAPÍTULO 2. TEORÍA DE LA INFORMACIÓN
Sol. En base a las reglas anteriores, se debe realizar la separación en frases diferentes, luego
0|1|00|001|10|000|101|0000|01|010|00001|100|0001|0100|0010 ,
que involucra tener 15 frases, con lo que, para representar cada salida de la fuente de información,
se requieren 4 bits por frase más el bit de innovación. Entonces, se genera la tabla de asignación
de posiciones para determinar la codificación que se muestra a continuación:
29
CAPÍTULO 2. TEORÍA DE LA INFORMACIÓN
30
CAPÍTULO 2. TEORÍA DE LA INFORMACIÓN
31
CAPÍTULO 2. TEORÍA DE LA INFORMACIÓN
ente a su entrada, tales como atenuación, nolinealidades, limitaciones de ancho de banda, ruido,
etc. Todo esto contribuye a una relación entrada-salida bastante compleja, que generalmente
tiene que ser considerada como una relación estocástica.
Al considerar el canal como un sistema con entrada X y salida Y , las probabilidades condi-
cionales p(Y |X) y p(X|Y ) son conocidas como Probabilidad de Transición y Probabilidad
de Unión, respectivamente. A su vez, la entropı́a de entrada H(X) corresponde a la incer-
tidumbre promedio de la fuente de información y la entropı́a de la salida H(Y ) corresponde a
la incertidumbre promedio de la recepción de un sı́mbolo. Para el caso de las entropı́as condi-
cionales, se tiene que H(Y |X) corresponde a la incertidumbre promedio respecto de que el sı́mbolo
que se recibe, dado que se ha transmitido X. La entropı́a H(X|Y ) serı́a la Entropı́a de Equivo-
cación, que corresponde a la incertidumbre promedio de qué sı́mbolo será transmitido después
de haber recibido un sı́mbolo X. La entropı́a conjunta H(X, Y ) es la incertidumbre promedio
del sistema de comunicaciones como un todo.
Considere un canal sin memoria, lo que implica que la salida depende de la entrada en ese
momento y no de las previas a él. Este tipo de canales, están definidos por un conjunto de
probabilidades condicionadas que relacionan la probabilidad de cada estado a la salida, con la
probabilidad de la entrada. Suponga un canal con dos entradas x1 y x2 , y con tres salidas y1 ,
y2 e y3 , como lo muestra la Fig 2.2.
Las rutas entrada-salida se indican como una probabilidad condicional Pij = P (yj |xi ), repre-
sentando la probabilidad de obtener a la salida yj , dado que a la entrada xi . Esta probabilidad
recibe el nombre de Probabilidad de Transición del Canal.
32
CAPÍTULO 2. TEORÍA DE LA INFORMACIÓN
Por otra parte, cada una de las entradas debe siempre conducir a una salida, por lo que la
suma de cada fila de la matriz debe ser igual a 1. En sı́mbolos,
P (y1 |x1 ) + P (y2 |x1 ) + P (y3 |x1 ) = P (y1 |x2 ) + P (y2 |x2 ) + P (y3 |x2 ) = 1 .
La Matriz del canal es útil para encontrar probabilidades de salida de acuerdo a las probabil-
idades de entrada. Considere la matriz fila de n entradas dada por P(X) = [P (x1 ) · · · P (xn )].
Para una matriz de transición dada por P(Y|X), la matriz de m salidas estará dada por
Resulta interesante mencionar que si la matriz P(X) es escrita en forma diagonal, el producto
dado por diag[P(X)]P(Y|X) define la Matriz de Unión de Probabilidades y es denotada
por P(X, Y). En palabras simples, el término P (xi , yj ) representa la probabilidad de unión de
transmitir xi y recibir yj . Matemáticamente la matriz de unión está dada por:
P (x1 ) 0 ··· 0 P (y1 |x1 ) P (y2 |x1 ) · · · P (ym |x1 )
0 P (x2 ) · · · 0 P (y1 |x2 ) P (y2 |x2 ) · · · P (ym |x2 )
P(X, Y) = .
.. .. ... .. .. .. ... ..
. . . . . .
0 0 0 P (xn ) P (y1 |xn ) P (y2 |xn ) · · · P (ym |xn )
33
CAPÍTULO 2. TEORÍA DE LA INFORMACIÓN
entonces se habla de Ruido Térmico. El ruido térmico está determinado por el movimiento
aleatorio de los portadores dentro de cualquier elemento electrónico en general producido por
la influencia de agentes externos. En términos más técnicos, el ruido térmico recibe el nombre
de rudo Johnson. El voltaje aleatorio producido a través de los terminales en circuito abierto
del dispositivo, tiene una distribución Gaussiana con media nula.
Entonces, el modelo matemático que describe al canal de comunicación con ruido aditivo
gaussiano está determinado por
r(t) = αs(t) + n(t) , (2.9)
en donde α es la atenuación del canal y r(t) es la señal recibida a la salida del canal.
34
CAPÍTULO 2. TEORÍA DE LA INFORMACIÓN
en donde ai (t) son las posibles atenuaciones variantes en el tiempo, y τi corresponden a los
retardos de cada una de dichas trayectorias. Por lo tanto, para este caso particular, el modelo
matemático a utilizar está determinado por
L
X
r(t) = ai (t) s(t − τi ) + n(t) .
i=1
en donde el máximo es tomado sobre todas las posibles distribuciones de la entrada p(x). Se
debe entender por esta definición que corresponde al máximo valor de la información mutua, que
es la información promedio máxima por sı́mbolo que puede ser transmitido a través del canal.
Nótese entonces, que si la tasa de transmisión, R, es menor que la capacidad del canal, C,
entonces la comunicación confiable a una tasa R es posible; por otro lado, si R > C, entonces
una comunicación confiable a una tasa R es imposible. Tanto la tasa como la capacidad se
miden en bits por transmisión, o bits por uso del canal.
La maximización que se debe hacer, es con respecto a las probabilidades de la fuente, puesto
que las probabilidades de transición son fijadas por el canal. Sin embargo, la capacidad de canal
es una función solamente de las probabilidades de transición del canal, puesto que el proceso de
la maximización elimina la dependencia de sobre las probabilidades de la fuente.
35
CAPÍTULO 2. TEORÍA DE LA INFORMACIÓN
36
CAPÍTULO 2. TEORÍA DE LA INFORMACIÓN
P
C = W log 1 + bits/seg. , (2.12)
N0 W
N0
en donde W es el ancho de banda del canal, P es la potencia de la señal y 2
es la densidad
espectral de potencia del ruido del canal.
37
Capı́tulo 3
3.1 Introducción
Como se mencionó en el Capı́tulo 1, la transmisión de información es mejor realizarla en forma
digital que hacerlo de forma análoga, por lo que el transformar una señal análoga en una digital
es un tarea de vital importancia en el curso. Para realizar esta tarea, se deben realizar tres
etapas: La señal análoga debe ser muestreada en el tiempo, por lo que se genera una señal de
tiempo discreto y amplitud continua. Se dice que la amplitud es continua pues su valor puede
tener cualquier número real dentro del rango en el que se mueve la señal análoga original. La
siguiente etapa corresponde a la cuantización de estos valores reales a un número finito de
posibles valores, con el fin de poder representarlos mediante números binarios. Ambas etapas
fueron introducidas en el Capı́tulo 1 de este curso.
La tercera etapa en el proceso de conversión análogo-digital es la codificación, en donde
una secuencia de bits es asignada a cada uno de los diferentes valores posibles de la salida del
cuantificador, como se estudió en el Capı́tulo 2. Dado que el número de salidas es finito, cada
muestra puede ser representada por un número finito de bits; por ejemplo 256 valores posibles
podrán ser representados por 8 bits (256 = 28 ), razón por la cual se utiliza un número de niveles
que sea potencia de dos. A continuación se retomarán los conceptos de muestreo, cuantización
y codificación, ahondando más en ellos y presentando alternativas que materializan esta labor.
38
CAPÍTULO 3. MODULACIÓN EN BANDA BASE
doble del ancho de banda de la señal, se dice que se trabaja con la Frecuencia de Muestreo
de Nyquist.
En efecto, para recuperar la señal original, basta que el filtro tenga una respuesta dada por
Ts , | f |< W
H(f ) = (3.1)
0 , | f |≥ fs − W
Para el rango W ≤| f |< fs − W , el filtro puede tener cualquier caracterı́stica que permita una
fácil implementación, siendo un filtro pasabajos ideal el método menos práctico en términos de
simplicidad, pero el más sencillo para realizar un estudio de desempeño. Entonces, considérese
que el filtro tiene una respuesta en frecuencia dada por
f
LP F (f ) = Ts Π
2W 0
con W 0 como ancho de banda y que satisface la relación W ≤ W 0 < fs − W . Ahora bien, la
reconstrucción de la señal se logrará tomando la convolución entre la señal discreta y dicho filtro
en el tiempo, por lo tanto en el plano de la frecuencia se tiene,
f
X(f ) = Xs (f ) Ts Π .
2W 0
en dónde sinc(t) = sinπtπt . La relación dada por la Ecuación (3.2), demuestra que la recon-
strucción de la señal puede ser perfectamente hecha al utilizar la función sinc() para la inter-
polación.
En sistemas prácticos, el muestreo siempre se realiza a frecuencias superiores a la tasa de
Nyquist, lo que a su vez implica un diseño de filtro mucho más relajado. En dichos casos la
distancia entre dos espectros replicados, que está dada por (fs − W ) − W = fs − 2W es conocida
como banda de guarda. Por lo tanto, en sistemas con banda de guarda, la frecuencia de
muestreo está dada por fs = 2W + WG , en dónde W es el ancho de banda de la señal de banda
limitada. Al observar la Fig. 1.4(f), se puede notar que para el ejemplo, la banda de guarda
será de WG = 70[Hz].
39
CAPÍTULO 3. MODULACIÓN EN BANDA BASE
40
CAPÍTULO 3. MODULACIÓN EN BANDA BASE
Fig. 3.2: Filtrado de la señal original para eliminar el aliasing. Señal continua y muestrada
luego del muestreo
41
CAPÍTULO 3. MODULACIÓN EN BANDA BASE
Acá se habla de muestreo natural pues cada pulso mantiene la forma de su segmento análogo
correspondiente durante el intervalo de duración de cada uno de los pulsos. Utilizando series de
Fourier, el tren de pulsos se puede representar mediante
∞
X
xp (t) = xn ejnωs t ,
n=−∞
en dónde ωs = 2πfs , siendo fs = 1/Ts la frecuencia de muestreo que se elige igual a 2W para
satisfacer el
criterio
de Nyquist. Los coeficientes de Fourier, xn , estarán determinados por
1 nTp
xn = Ts sinc Ts . Su representación en el plano de la frecuencia se puede ver en la Fig. 3.4(b)
en donde se ha marcado la envolvente de magnitud con una lı́nea segmentada (función |sinc()|).
Combinando esta expansión en series de Fourier con la definición de xs (t) se tiene
∞
X
xs (t) = x(t) xp (t) = x(t) xn ejnωs t .
n=−∞
en donde se utilizó el hecho de que, para sistemas lineales, se puede intercambiar las operaciones
de suma y transformada de Fourier. Al igual que la Ecuación (1.28), la Ecuación (3.4) demuestra
que Xs (f ) es un réplica de X(f ) repetida periódicamente cada fs [Hz]. Sin embargo al realizar
el muestreo natural, las amplitudes están atenuadas por la envolvente xn = T1s sinc nT Ts
p
como
se observa en la Fig. 3.4(d). Se puede demostrar que en el lı́mite, mientras el ancho del pulso Tp
tiende a cero, xn tiende a 1/Ts para todos los valores posibles de n, por lo tanto la Ecuación (3.4)
tiende a la Ecuación (1.28).
42
CAPÍTULO 3. MODULACIÓN EN BANDA BASE
3.2.4 Sample-and-Hold
El más simple y más popular método de muestreo y cuantización conocido como Sample-and-
Hold (muestreo y retención) puede ser descrito mediante la convolución de la señal muestreda
dada en la Fig. 1.4(e) con un pulso rectangular de amplitud unitaria y ancho de pulso Ts , p(t).
Esta convolución en el tiempo se puede expresar de la forma
xsh (t) = p(t) ∗ xs (t) = p(t) ∗ [x(t)xδ (t)]
" ∞
#
X
= p(t) ∗ x(t) δ(t − nTs ) .
n=−∞
Estos resultados se puden observar en la Fig. 3.5(a). La transformada de Fourier de la señal S/H
se ve afectada por la presencia del pulso p(t) y su transformada de Fourier dada por Ts sinc(f Ts ).
Ası́, el espectro resultante tiene una apariencia similar al espectro del muestreo natural, tal como
se puede observar en la Fig. 3.5(b).
43
CAPÍTULO 3. MODULACIÓN EN BANDA BASE
3.3 Cuantización
Como se explicó anteriormente, en este proceso se realiza la discretización de la amplitud de las
señales, lo que permite representar la señal de forma válida con valores binarios de largo finito.
En la presente sección se estudiará la cuantización escalar uniforme y no-uniforme, además de
la cuantización vectorial.
44
CAPÍTULO 3. MODULACIÓN EN BANDA BASE
Dado que las salidas de la fuente, Xn , son variables aleatorias, entonces d(Xn , X̂n ) también
es una variable aleatoria. Ası́, para tener una cantidad representativa para todas las posibles sal-
idas es necesario especificar el error cuadrático de distorsión medio. Este error está determinado
por
n
n o 1X
D = E d(Xn , X̂n ) = E {d(xk , x̂k )} = E {d(xk , x̂k )} . (3.6)
n k=1
lo que es válido al considerar que se trabaja con una fuente estacionaria.
En la Figura 3.6 se puede ver un ejemplo de un esquema de cuantización de 8 niveles, en
los cuales la variable x es seccionada en sus respectivas aproximaciones x̂1 , x̂2 , . . . , x̂8 , para los
subintervalos dados por R1 = (−∞, a1 ], R2 = (a1 , a2 ], . . . , R8 = (a7 , +∞) respectivamente. No
resulta dificil notar que este gráfico corresponde a la representación de la función de cuantización
Q(x).
45
CAPÍTULO 3. MODULACIÓN EN BANDA BASE
Es muy interesante comparar el resultado anterior con la distorsión máxima que se podrı́a
obtener en el mismo sistema. Dicha distorsión máxima se logra al no utilizar ningún bit por
cada salida de la fuente, caso en el cual la señal reconstruida será siempre cero. Ası́, la máxima
distorsión será Dmax = E {(X − 0)2 } = E {X 2 } = σX 2
= 400. Este último resultado permite
deducir que al utilizar 3 bits por salida de la fuente, la distorsión se ha reducido en un factor
de 12.
A pesar de lo descriptivo del error de cuantización, existe una métrica más exacta pues
está normalizada con respecto a la potencia de la señal original. Recibe el nombre de Razón
Señal-Ruido de Cuantización (SQNR, Signal-to-Quantization Noise Ratio) y se basa en
la comparación anteriormente hecha con respecto a la distorsión máxima. Esta métrica está
definida por:
E {X 2 }
SQN R = . (3.7)
E {(X − Q(X))2 }
Cabe destacar que considerando las definiciones de potencia de la señal original y de la cuanti-
zada, el SQNR está determinado por la razón entre la potencia de la señal (PX ) y la potencia
de la señal obtenida al realizar la diferencia entre la señal original y la cuantizada (PX̃ ), con
X̃ = X − X̂.
46
CAPÍTULO 3. MODULACIÓN EN BANDA BASE
Cuantización Uniforme
La cuantización uniforme es la más simple de todas las técnicas de cuantización ya que todas
las particiones, excepto R1 y RM , están equidistante en un valor denotado por ∆, por lo que el
i-ésimo borde estará dado por ai = a1 + (i − 1)∆. En general y por simplicidad, se asume que
los niveles de cuantización se encuentran a una distancia de ∆2 de los M − 1 bordes, luego los
niveles de cuantización están dados por x̂i = ai − ∆2 = a1 + (i − 32 )∆. Se puede notar que la
Figura 3.6 muestra un ejemplo de un cuantizador uniforme ya que cumple las condiciones recién
expuestas. En un cuantizador uniforme, el error de distorsión medio está determinado por
M Z
X
D = [x − Q(x)]2 fX (x) dx
i=1 Ri
Z a1 M
X −2 Z ai+1 Z ∞
2 2
= [x − x̂1 ] fX (x) dx + [x − x̂i+1 ] fX (x) dx + [x − x̂M ]2 fX (x) dx
−∞ i=1 ai aM
a1
Z 2 M −2 Z a1 +i∆ 2
∆ X ∆
= x − a1 − fX (x) dx + x − a1 + i∆ − fX (x) dx +
−∞ 2 i=1 a1 +(i−1)∆ 2
Z ∞ 2
∆
x − a1 + (M − 2)∆ + fX (x) dx . (3.8)
a1 +(M −2)∆ 2
Conforme a esto, el error de distorsión será una función de dos parámetros a1 y ∆, por lo
que para obtener un diseño óptimo del cuantizador uniforme se debe minimizar este funcional
D ≡ D(a1 , ∆). La minimización se realiza tomando derivadas parciales del funcional con
respecto a ambas variables e igualando a cero. En general esta es una tarea compleja por lo que
se realiza mediante métodos númericos. En la Tabla 3.1 se muestra el espaciado óptimo de los
niveles de cuantización para una fuente aleatoria Gaussiana con media nula y varianza unitaria.
Cuantización No-uniforme
Si se relaja la condición de que la separación sea igual para todas las regiones, entonces se logra
minimizar la distorsión con menos apremios. Ası́, el cuantizador no-uniforme tiene un mejor
rendimiento que el uniforme para un mismo número de niveles. Primero que todo, se verá
intuitivamente el porqué.
Suponga una pieza musical en donde su forma de onda se mueve en un rango de voltajes de
-2 a 2[V]. Suponga además que se utilizan 3 bits en la cuantización de dicha señal análoga. Si
se realiza cuantización uniforme, entonces todos los voltajes entre 0 y 0.5[V] serán codificados
como 100, que corresponde a un valor de reconstrucción de 0.25[V]. De igual forma, todas las
47
CAPÍTULO 3. MODULACIÓN EN BANDA BASE
muestras entre 1.5 y 2[V] se codificarán como 111, que se reconstruirá como 1.75[V]. Ahora
bien, durante pasajes suaves de música en donde la señal análoga no supere los 0.5[V], se tendrá
una gran pérdida de la definición de la música. En otras palabras, la cuantización otorga la
misma resolución tanto para altos como para bajos niveles, aun cuando el oido humano es
menos sensible a los cambios que se producen en altos niveles. Dado que la respuesta del oido
humano es no-lineal, entonces es preferible tener una cuantización de pasos pequeños a bajos
niveles y con pasos más grandes en los niveles más altos.
Considerando que se quiere diseñar un cuantizador de M niveles, óptimo en el sentido del
error medio cuadrático, se tiene que la distorsión media es:
Z a1 M
X −2 Z ai+1 Z +∞
2 2
D= (x − x̂1 ) fX (x) dx + (x − x̂i+1 ) fX (x) dx + (x − x̂M )2 fX (x) dx ,
−∞ i=1 ai aM −1
en donde existen 2M − 1 variables de las que D depende: (a1 , a2 , . . . , aM −1 , x̂1 , x̂2 , . . . , x̂M ) y la
minimización del error D se tiene que hacer con respcto a estas variables. Tomando derivadas
parciales con respecto a todos los ai e igualando a cero, se tiene
∂D
= fX (ai ) (ai − x̂i )2 − (ai − x̂i+1 )2 = 0
∂ai
lo que resulta en
x̂i + x̂i+1
ai = (3.9)
2
Este resultado significa que en un cuantizador óptimo los bordes de las regiones de cuanti-
zación son los puntos medio de los niveles de cuantización. Dado que la cuantización se realiza
basándose en una mı́nima distancia entonces cada valor de x es cuantizado al {x̂i }M i=1 más
cercano.
Para determinar los niveles de cuantización x̂i , se toman derivadas parciales con respecto a
todos los x̂i , se definen a0 = −∞ y aM = +∞ y se iguala a cero para obtener
Z ai
∂D
= 2(x − x̂i )fX (x) dx = 0
∂ai ai−1
lo que resulta en R ai
a
xfX (x) dx
x̂i = R i−1
ai . (3.10)
f (x) dx
ai−1 X
48
CAPÍTULO 3. MODULACIÓN EN BANDA BASE
Esto significa que para un cuantizador óptimo, el valor de cuantización para una región, debe
ser elegido como el centroide de dicha región. Ambas condiciones impuestas para el cuantizador
escalar óptimo se conocen como las condiciones de Lloyd-Max y pueden ser resumidas como
1. Los bordes de las regiones de cuantización son los puntos medios de los valores de cuan-
tización correspondientes (ley del vecino más cercano)
2. Los valores de cuantización son los centroides de las regiones de cuantización.
A pesar de que estas reglas son muy sencillas, no resultan ser soluciones analı́ticas para
el diseño de un cuantizador óptimo. El método usual para diseñar un cuantizador óptimo es
comenzar con un set de regiones de cuantización y luego usar el segundo criterio para encontrar
los valores de cuantización. Luego se realiza el cálculo de las nuevas regiones de cuantización
para los valores antes encontrados y se procede repetidamente haste que la distorsión no cambie
significativamente entre un paso y otro. Utilizando este método se puede diseñar el cuantizador
no-uniforme óptimo para diferentes fuentes aleatorias. La Tabla 3.2 muestra el cuantizador
nouniforme óptimo para varios niveles de cuantización de una fuente Gaussiana de media cero y
varianza unitaria. En caso de trabajar con con una fuente Gaussiana con media µ y varianza σ 2
entonces los valores de ai y de x̂i deben ser reemplazados por µ + σai y µ + σx̂i respectivamente
y el valor del error de distorsión medio, D, debe ser reemplazado por σ 2 D.
49
CAPÍTULO 3. MODULACIÓN EN BANDA BASE
uniforme y a la derecha no-uniforme. Se puede observar que para ambas señales, se logra una
mejor aproximación mediante la cuantización nouniforme. Por esta razón, se estudia el concepto
de Companding en la siguiente sección.
Companding
La forma más común de realizar cuantización no-uniforme es conocida como companding, nom-
bre que se origina por la combinación de los términos comprensión-expansión en inglés. Su
50
CAPÍTULO 3. MODULACIÓN EN BANDA BASE
51
CAPÍTULO 3. MODULACIÓN EN BANDA BASE
52
CAPÍTULO 3. MODULACIÓN EN BANDA BASE
representan como el centro de cada hexágono. En este ejemplo existen L = 37 vectores, uno
para cada una de las 37 celdas en que se ha particionado el espacio bidimensional, por lo que
las posibles salidas del cuantizador vectorial se representan por {x̂i }Li=1 .
Conforme a lo explicado anteriormente y lo estudiado para cuantización escalar, la cuanti-
zación de un vector m-dimensional x en otro x̂ generará un error de cuantización d(x, x̂) cuyo
valor medio sobre el set de vectores de entrada x será:
XL L
X Z
D= P (x ∈ Ci )E {d(x, x̂i )|x ∈ Ci } = P (x ∈ Ci ) d(x, x̂i )p(x) dx , (3.13)
i=1 i=1 x∈Ci
53
CAPÍTULO 3. MODULACIÓN EN BANDA BASE
3.4 Codificación
El proceso de codificación o encoding, corresponde a la asignación de una secuencia de bits a
los diferentes niveles de cuantización. Dado que se tiene un total de M = 2v niveles, entonces v
bits son suficientes para el proceso de encoding. Basado en lo mismo, como se tienen v bits por
muestra, que se tomó a un frecuencia de muestreo de fs [Hz], entonces la tasa de bits está dada
por R = vfs bits por segundo, tal como se obtuvo en el Ejemplo 3.1.
La asignación de bits a los niveles de cuantización puede ser realizada de diferentes maneras.
En cuantización escalar, una forma natural de realizar el encoding, es asignando valores de 0 a
M − 1 a los diferentes niveles de cuantización comenzando desde el nivel más bajo hacia el más
alto de manera creciente. Esto implica que el nivel más bajo tendrá el valor 00. . . 0 y el más
alto de 11. . . 1, ambos de largo v. Esta asignación, recibe el nombre de Codificación Binaria
Natural. A pesar de ello existen técnicas mejoradas como la Codificación Grey, que se estudió
en cursos anteriores.
Ruido de Cuantización
La distorsión inherente en la cuantización es el error de redondeo o truncamiento. El proceso
de transformar una señal de amplitud continua en una señal con un número finito de posibles
valores hace que cierta información se deseche. Esta distorsión, que en definitiva es agregada
por la necesidad de trabajar con amplitud discreta, recibe el nombre de Ruido de Cuantización,
como se ha estudiado hasta ahora. Resulta intuitivo notar que la cantidad de este ruido es
inversamente proporcional al número de niveles utilizados en el proceso de cuantización.
54
CAPÍTULO 3. MODULACIÓN EN BANDA BASE
análogo-digital estará en saturación. En general los errores de saturación son más problemáticos
que el ruido de cuantización, por lo que preferentemente se utiliza un control de automático de
ganancia (AGC, en inglés) que extiende efectivamente el rango de operación del convertidor.
Si el ruido del canal es pequeño no habrán problemas al momento de detectar las señales, sin
embargo si el ruido del canal es tan grande para afectar la habilidad de detectar las formas de
onda, la detección resultante tendrá errores de reconstrucción. Más aun, por pequeños cambios
en los niveles de ruido de un canal, se pueden tener grandes diferencias en el comportamiento
de dicho canal.
55
CAPÍTULO 3. MODULACIÓN EN BANDA BASE
infinitos valores posibles para la amplitud de los pulsos, ya que varı́an proporcionalmente a
los valores de las muestras de la señal moduladora. De manera especı́fica, las pendientes de
las crestas de los pulsos varı́an con las pendientes de la señal moduladora en los puntos de
muestreo. A diferencia del muestreo natural, en PAM las crestas de los pulsos deben ser planas;
esto mismo implica que se requiere incluı́r un proceso de cuantización posterior para llevar estos
valores a M valores posibles de amplitud que se puedan representar por v = log M bits. Por
ejemplo, se habla de una modulación PAM-4 al trabajar con 2 bits, y de PAM-16 al trabajar
con 4 bits, etc.
Todo el análisis teórico realizado para el proceso de muestreo natural y para S/H resulta
aplicable en modulación PAM, por lo que su espectro corresponde al de la Fig. 3.4(d) para una
señal naturalmente muestreada o al de la Fig. 3.5(b) para un esquema con S/H. Al evaluar esta
respuesta espectral, se puede notar que la demodulación se debe implementar mediante un
filtro pasa bajos como primera etapa. Como el espectro está afectado por la presencia del tren
de pulsos, entonces es necesario agregar un ecualizador con respuesta en frecuencia dada por
Xp−1 (f ), en donde Xp (f ) es la transformada de Fourier de tren de pulsos de la Ecuación 3.3.
A pesar de que esto es bastante dificil de implementar, en la práctica solo se requiere una
ecualización para el rango de frecuencias en que el mensaje es válido: [−W, +W ]. Ası́, el diseño
es mucho más relajado y la dificultad de implementación se ve reducida.
Por otra parte, si el tiempo de duración del pulso Tp es lo suficientemente pequeño con
respecto al periodo de éste, T , entonces cada pulso se asemeja a un impulso y la señal de salida
del modulador será cada vez más parecida a un sistema de muestreo mediante impulsos, caso
en el que no se requiere ecualización. Por esto, se asume como cota para requerir o no un
ecualizador, que la relación TTp sea menor al 1%.
1. La señal es de banda limitada, con una frecuencia máxima de W , por lo que puede ser
completamente reconstruı́da de muestras tomadas a una tasa fs ≥ 2W .
2. La señal tiene amplitud finita, vale decir que existe un máximo de amplitud xmax tal que
| x(t) |≤ xmax < ∞.
56
CAPÍTULO 3. MODULACIÓN EN BANDA BASE
Los números binarios resultantes, pueden ser transmitidos con gran variedad de técnicas
y representaciones. Por ejemplo se pueden tener representaciones unipolares, bipolares, con
o sin retorno a cero, etc. Resulta claro entonces, que un modulador PCM viene a ser un
conversor Analogo-Digital (A/D). Ası́, la demodulación (en rigor, decodificación) se realiza con
un conversor Digital-Análogo (D/A).
57
CAPÍTULO 3. MODULACIÓN EN BANDA BASE
–a diferencia de la forma de onda anterior– esta forma de onda puede ser descrita como una
secuencia de transiciones entre dos niveles: cuando se ocupa el valor más alto de voltaje se está
representando un 1 binario y cuando se utiliza el más bajo se representa un cero.
En la Fig. 3.13 se ilustran las formas de onda más utilizadas en PCM, las que pueden
clasificarse en los siguientes grupos:
Sin retorno a cero (NRZ). El grupo NRZ es probablemente el grupo más utilizado en modu-
lación PCM. Puede ser subdividido en: NRZ por nivel (NRZ-L), NRZ por marca (NRZ-M)
y NRZ por espacio (NRZ-S). NRZ-L es usado extensamente en lógica digital. Un uno dig-
ital es representado por un nivel y un cero por otro nivel, por lo que habrá un cambio
ya sea que se pase de uno a cero o de cero a uno. Con NRZ-M, el uno (o marca) es
representado con un cambio de nivel, y el cero (o espacio) es representado sin un cambio
de nivel. Esto comunmente es conocido como codificación diferencial y es utilizado prin-
cipalmente en grabaciones en cintas magnéticas. En el caso de NRZ-S se realiza la acción
complementaria de NRZ-M: el uno se representa sin cambios y el cero por un cambio en
el nivel.
Con retorno a cero (RZ). Las formas de onda con retorno a cero consisten en la unipolar-
RZ, la bipolar-RZ y RZ-AMI. Todas estas alternitivas se utilizan en transmisión en banda
base y grabación magnética. En la unipolar-RZ, el uno es representado por un pulso de
un ancho igual a la mitad del tiempo que dura un bit, y el cero se representa por la
ausencia de tal pulso. Con la bipolar-RZ, los unos y ceros se representan por pulsos en
58
CAPÍTULO 3. MODULACIÓN EN BANDA BASE
niveles opuestos con una duración de la mitad del tiempo disponible por bit, por lo que
existe un pulso presente en cada intervalo de bit. El caso de RZ-AMI recibe su nombre
de inversión alternada de marca (alternate mark inversion, AMI) y es un esquema de
codificación usado principalmente en sistemas de telemetrı́a. Los unos son representados
por pulsos alternados de igual amplitud y los ceros por la ausencia de pulsos.
Fase codificada. El grupo de fase codificada consiste en bi-fase por nivel (bi-φ-L), mejor cono-
cida por codificación Manchester ; bi-fase por marca (bi-φ-M); bi-fase por espacio (bi-φ-S);
y modulación por retardo (DM), o codificación Miller. El grupo de fase codificada es us-
ado en sistemas de grabación magnética, en comunicaciones ópticas y en algunos enlaces
de telemetrı́a satelital. Al trabajar con bi-φ-L, el uno es representado por un pulso de la
mitad del ancho disponible, ubicado en la primera mitad del tiempo de duración; el cero se
representa por el mismo pulso pero ubicado en la segunda mitad del intervalo del bit. Con
59
CAPÍTULO 3. MODULACIÓN EN BANDA BASE
bi-φ-M, ocurre una transición al comienzo de cada intervalo de bit; el uno es representado
por una segunda transición en el punto medio del intervalo, y el cero se representa sin
realizar esta transición media. Para el caso de bi-φ-S también se producen transiciones
al comienzo de cada intervalo, sin embargo el uno se representa sin transición media y el
cero se hace mediante una transición en el punto medio del intervalo. En la modulación
por retardo, el uno se representa por una transición en el punto medio del intervalo; el
cero es representado sin transición a menos que sea seguido por otro cero, caso en el cual
se incluye una transición al final del intervalo del primer cero.
La razón por la que existen tantas formas de onda posibles para realizar la transmisión de
datos PCM es que cada una de estas formas de onda tiene un desempeño caracterı́stico para una
aplicación en particular. Al momento de elegir el esquema de codificación para esta aplicación,
los parámetros que deben examinarse son los siguientes:
• Compresión del ancho de banda. Existen esquemas que incrementan la eficiencia del ancho
de banda ya que permiten una reducción del ancho de banda requerido por una tasa de
datos dada. Ası́, más información es transmitida por unidad de ancho de banda.
• Inmunidad al ruido. Las distintas formas de onda de PCM pueden ser caracterizadas por
la probabilidad de error versus la razón señal-a-ruido (signal-to-noise ratio, SNR). Algunos
de los esquemas son más inmunes que otros al ruido; por ejemplo, las formas de onda NRZ
tienen mejor desempeño de error que las formas de onda RZ unipolar.
60
CAPÍTULO 3. MODULACIÓN EN BANDA BASE
2. Cuantizadores Seriales, que generan un código de palabra bit-a-bit desde el bit más signi-
ficativo (MSB) hasta el menos significativo (LSB).
61
CAPÍTULO 3. MODULACIÓN EN BANDA BASE
Sol. En general, se puede considerar que la voz alcanza valores máximos cercano a los 3kHz,
por lo que trabajamos con una señal de banda limitada. Ası́, la frecuencia de muestreo para
reconstrucción perfecta deberá ser de a lo menos 6kHz, lo que equivale a un periodo de muestreo
de 16 ms. Dado que la rampa alcanza los 10V en tmax = 1010V6 V /s = 0.01ms < Ts , entonces tenemos
suficiente tiempo para evitar problemas de sobrecarga. El contador deberá contar desde 0000
hasta 1111 en este tiempo, y dado que se tienen 16 valores posibles, tcount = 160.01ms
valores
; en otras
−1
palabras, se requiere una fCLK = tcount = 1.6M Hz.
Cuantizadores Serial
El cuantizador serial, divide sucesivamente la entrada en mitades, determinando en qué mitad
se encuentra dicha entrada. En el primer paso, la entrada se divide a la mitad y se observa si
se encuentra en la mitad superior o inferior. El resultado de esta observación, genera el bit más
significativo del código de palabra.
La mitad en la cual se encuentre la muestra, se vuelve a subdividir en 2 regiones y nuevamente
se realiza la comparación, esto genera el siguiente bit. Ası́, el proceso se repite tantas veces como
bits se utilicen en el encoding.
La Fig. 3.15 muestra un cuantizador serial de 3 bits. Los rombos representan comparadores,
que realizan una comparación de su entrada con un valor fijo, dando una salida si la entrada
excede dicho valor, u otra salida diferente si es menor. Es importante tener en mente que esta
figura está pensada para una señal con valores entre 0 y 1, por lo que en el caso de no tener esta
condición, se requiere una normalización previa. De necesitar más (o menos) bits, los bloques
comparativos pueden ser fácilmente agregados (o quitados).
Para la Fig. 3.15, el bit b1 es el primer bit de la ristra y corresponde al bit más significativo
(most significant bit, MSB), por lo que b3 es el bit menos significativo (least significant bit,
LSB).
62
CAPÍTULO 3. MODULACIÓN EN BANDA BASE
Cuantizadores Paralelo
El cuantizador paralelo es el cuantizador más rápido pues genera todos los bits del código de
palabra en forma simultánea. Lamantablemente resulta ser el más complejo de todos, ya que
requiere un gran número de comparadores –por ejemplo, para M -niveles de comparación, se
requieren M − 1 comparadores–. Además, se necesita un codificador de M = 2v entradas y v
salidas, que a pesar de ser un simple circuito combinacional, agrega complejidad y retardo al
bloque total.
La Fig. 3.16 muestra un diagrama de bloques de un cuantizador paralelo de 3 bits. El bloque
marcado como “Codificador” toma la salida de los 7 comparadores y genera el número binario
correspondiente. Por ejemplo para un valor de señal superior a 87 V, todos los comparadores
tendrán sus salidas en “1” (SI). El codificador deberá entonces generar el código 111.
Dadas las condiciones del problema, el diseño del “Codificador” es muy sencilla, pues solo 8
de los 128 (28 ) opciones posibles de entrada se utilizan: una señal no podrá ser mayor que un
valor, pero menor que otro nivel inferior.
Mientras que los cuantizadores seriales toman ventaja de la estructura de los números bina-
rios cuando se cuentan en secuencia, el cuantizador paralelo no requiere dicha estructura. De
hecho, el código para regiones de cuantización puede ser asignado de cualquier forma que resulte
cómoda y útil para la aplicación particular. Un problema con la asignación secuencial es que
la transmisión de errores en los bits genera errores de reconstrucción no-uniforme, y particular-
63
CAPÍTULO 3. MODULACIÓN EN BANDA BASE
mente si dicho error se produce en el MSB. Por esto, es preferible que en muchos casos se utilice
el código Gray, en donde solo se produce un cambio de estado por cada una de las salidas.
El error de cuantización entre la entrada y salida del cuantizador estará determinada por
0
Ŷk − Yk = Ŷk − (Xk − Ŷk−1 )
0
= Ŷk − Xk + Ŷk−1
= Ŷk0 − Xk (3.16)
Comparando las Ecuaciones (3.15) y (3.17) se puede ver que Ŷk0 y X̂k satisfacen la misma
ecuacion de diferencias con la misma función de exitación, Ŷk . Por lo tanto, si las condiciones
1
La única excepción a esto se produce cuando el espectro del proceso es plano dentro de su ancho de banda.
64
CAPÍTULO 3. MODULACIÓN EN BANDA BASE
inciales de Ŷk0 y X̂k son elegidas iguales, éstas también serán iguales para todo tiempo k. En
0
efecto, al juntar ambas ecuaciones se obtiene la relación X̂k = Ŷk0 − Ŷk−1 + X̂k−1 por lo que al
0
fijar, por ejemplo, Ŷ−1 = X̂−1 = 0 se tiene:
X̂0 = Ŷ00 − Ŷ−1
0
+ X̂−1 = Ŷ00
X̂1 = Ŷ10 − Ŷ00 + X̂0 = Ŷ10
..
.
X̂k = Ŷk0 − Ŷk−1
0
+ X̂k−1 = Ŷk0 .
Reemplazando este resultado en la Ecuación (3.16) se obtiene que el ruido de cuantización que
estaba dado por Ŷk − Yk cumple la relación
Ŷk − Yk = X̂k − Xk . (3.18)
Esto demuestra que el error de cuantización que existe entre la muestra Xk y su réplica
en el receptor X̂k es la misma que el error de cuantización entre la entrada y la salida del
cuantizador. Sin embargo, el rango de variación que normalmente presenta Yk es mucho menor
que el presentado por Xk , por lo que Yk se cuantiza con menos bits.
65
CAPÍTULO 3. MODULACIÓN EN BANDA BASE
2. Cada segmento de la señal aproximada, es comparada con la señal original para determinar
aumento o disminución en la ampliud relativa.
4. Solo el cambio de información es enviada. Esto quiere decir que solo se realiza un cambio
del estado anterior si la señal de entrada decrece o aumenta, ya que una condición de
no-cambio involucra la continuidad del “0” o “1” de la muestra anterior.
La Fig. 3.17 muestra una señal análoga y la aproximación mediante Modulación Delta. Dado
que la cuantización solo se puede incrementar o decrementar en ∆ en cada punto de muestreo,
se trata de realizar la aproximación a la señal original mediante una señal “tipo escalera”.
Fig. 3.17: Forma de onda análoga (rojo) y su aproximación en la Modulación Delta (azul).
Como se dijo con anterioridad, se realiza la comparación entre ambas señales: si la escalera
está bajo la muestra de la señal análoga, entonces se debe incrementar positivamente en una
unidad; si se encuentre sobre la muestra de la señal, entonces se debe decrementar en una
unidad. Asumiendo que se realiza la asociación de que los incrementos valen “1”, la ristra de
bits para la figura, está dada por:
111111111000000011111111111000 · · ·
Ası́, se tiene que la implementación de la modulación Delta es realmente sencilla, pues está
compuesta por un comparador y un generador de señal escalera, como se muestra en la Fig. 3.18.
Resulta evidente que existe una clara dependencia entre la calidad de la codificación con el
valor del incremento ∆. De hecho, para usar efectivamente la modulación delta se debe realizar
una elección inteligente de dos parámetros: valor del incremento, ∆, y tasa de muestreo, Ts . La
elección debe ser realizada de tal forma que la señal escalera sea una buena aproximación de la
señal análoga original. Dado que la señal tiene una frecuencia máxima conocida, entonces se
66
CAPÍTULO 3. MODULACIÓN EN BANDA BASE
sabe a la máxima tasa a la cual esta puede cambiar, lo que permite elegir apropiadamente una
buena frecuencia de muestreo. Ahora bien, si el paso es demasiado pequeño, se experimenta
el problema de sobrecarga de pendiente en dónde la escalera no es capaz de seguir los rápidos
cambios que presenta la señal análoga. Este problema se muestra en la Fig. 3.19(a). Por otra
parte, si el paso es demasiado grande se tendrán considerables sobrepasos durante periodos
en los que la señal se mantiene practicamente constante. Para este caso, se tiene un ruido
de cuantización muy grande, y se conoce como Ruido Granular. Este problema se puede
observar en la Fig. 3.19(b). El resultado de una buena elección del parámetro de incremento
para el mismo tiempo de muestreo se puede observar en la Fig. 3.19(c), en donde se observa
que la señal escalera sigue bien a la original y se puede considerar una buena aproximación.
67
CAPÍTULO 3. MODULACIÓN EN BANDA BASE
Fig. 3.19: Consecuencias de una buena o mala elección del valor del incremento ∆.
incrementa en una cantidad fija, ∆. Si los dos bits son difentes entonces el paso de disminuye
en la misma cantidad fija, ∆. Ası́ el tamaño del paso está siempre cambiando y puede crecer y
crecer sin lı́mite si es necesario. Un caso extremo de esta implementación es cuando se quiere
seguir una función escalón, ya que al alcanzar la señal, se debe volver en cantidades fijas por lo
que existe una pequeña oscilación en torno al valor máximo. Ası́, si se espera que una función
tenga varios cambios abruptos, entonces dicha oscilación del algortimo song puede resultar
problemática.
El algoritmo space shuttle es una modificación del algoritmo song y busca eliminar dichas
oscilaciones. Al igual que antes, cuando dos bits son iguales, se realiza el incremento en el valor
fijo, ∆. Sin embargo, cuando los bits son distintos, el tamaño del paso se reinicia inmediatamente
a su mı́nimo valor, que también es ∆. Resulta de interés entonces, notar de que este algoritmo
se ajustará mejor en casos de tener una función escalón.
68
Capı́tulo 4
4.1 Introducción
La modulación pasabanda de señales tanto análogas como digitales es un proceso por el cuál
una señal de información es contenida en una forma sinusoidal que sea capaz de transmitirse en
un canal con respuesta pasabanda. Para el caso de las modulaciones digitales, estos sinusoides
de duración T son referidos como sı́mbolos digitales. Ası́, el modulador en un sistema de
comunicación digital, mapea las secuencias de dı́gitos binarios en sus correspondientes formas
de onda para ser transmitidos en un canal pasabanda.
Cómo se estudió en cursos anteriores, una señal sinusoidal tiene tres parámetros que iden-
tifican una señal de otra: amplitud, frecuencia y fase. Ası́, la modulación pasabanda se puede
definir como el proceso por el cual la amplitud, la frecuencia o la fase de una señal portadora,
o una combinación de ellos, es variada conforme con la información que quiere ser transmitida.
La forma general de una señal portadora está determinada por
69
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA
n2
1
p(n) = √ exp − 2 , (4.1)
2πσ 2 2σ
70
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA
71
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA
se ve en el siguiente ejemplo.
Procedimiento de Gram-Schmidt
Suponga que tiene un set de señales con energı́a finita {si (t) , i = 1, 2, . . . , M }, del cual
quiere encontrar su base; es decir quiere encontrar un set ortonormal de señales, {ψj (t) , j =
1, 2, . . . , N }, en base al set original. El procedimiento de Gram-Schmidt permite realizar dicha
labor mediante pasos simples y fáciles de seguir: Se comienza la primera forma de onda s1 (t)
con energı́a E1 ; la primera señal ortonormal simplemente se construye mediante la relación
1
ψ1 (t) = √ s1 (t) .
E1
La segunda señal ortonormal se construye desde s2 (t), proyectando ψ1 (t) sobre ella mediante
Z ∞
a21 = s2 (t)ψ1 (t) ,
−∞
72
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA
en donde
Z T i = 1, 2, . . . , M
1
aij = si (t)ψj (t) dt, j = 1, 2, . . . , N . (4.8)
Kj 0 0≤t≤T
Dado que, para un set fijo de señales las funciones base serán las mismas, el set completo
{si (t)} puede ser visto como un set de vectores {si } = {ai1 , ai2 , . . . , aiN }, ya que cada señal
73
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA
transmitida estará completamente determinado por dicho vector de coeficientes. Estos se cono-
cen como las coordenadas de la señal en dicha base. En sı́mbolos
si = [ai1 , ai2 , . . . , aiN ] , i = 1, 2, . . . , M . (4.9)
La razón principal de enfocar el estudio en el espacio ortogonal de funciones, es por que las
medidas de las distancias Euclidianas –que resultan fundamentales en el proceso de detección–
son formuladas de manera más sencilla en dicho espacio. Lo importante es que con lo visto
anteriormente, cualquier set de señales se puede llevar a un esquema de señales ortogonales
utilizando el procedimiento de ortogonalización de Gram-Schmidt.
Energı́a de Señales
La energı́a Ei que posee cada señal si (t), sobre el intervalo del sı́mbolo T , se puede obtener en
función de las componentes ortogonales de si (t). En efecto:
Z T Z T "X #2
Ei , s2i (t) dt = aij ψj (t) dt
0 0 j
Z T X X
= aij ψj (t) aik ψk (t) dt
0 j k
XX Z T
= aij aik ψj (t)ψk (t) dt
j k 0
XX
= aij aik Kj δjk
j k
X
Ei = a2ij Kj i = 1, 2, . . . , M . (4.10)
j
La Ecuación (4.10) es un caso especial del teorema de Parseval, que relaciona la integral del
cuadrado de una forma de onda, con la suma del cuadrado de coeficientes ortogonales. Como
en la mayorı́a de los casos se trabaja con bases ortonormales, el cálculo de la energı́a se limita
a la sumataria del cuadrado de los coeficientes ortonormales.
74
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA
decir que corresponde a la proyección del ruido en las coordenadas de señales ψ1 (t),. . . ,ψN (t).
Entonces, n̂(t) está determinada por la relación:
N
X
n̂(t) = nj ψj (t) ,
j=1
y, por ende, ñ(t) = n(t) − n̂(t) será el ruido fuera del espacio de señales. Se puede inferir de lo
explicado
RT anteriormente que la relación entre el ruido vestigial y las señales base está dado por
0
ñ(t)ψj (t) dt = 0.
Dado que n(t) es un proceso aleatorio Gaussiano con media nula, entonces las componentes
de ruido nj también son Gaussianas de media nula. En efecto
Z T Z T
1 1
E {nj } = E n(t)ψj (t) dt = E {n(t)} ψj (t) dt = 0 ,
Kj 0 Kj 0
para todo j.
Además, estas componentes no están mutuamente correlacionadas lo que se puede demostrar
calculando la covarianza
Z TZ T
1 1
E {nj nk } = E n(t)n(τ )ψj (t)ψk (τ ) dt dτ
Kj Kk 0 0
Z TZ T
1 1
= E {n(t)n(τ )} ψj (t)ψk (τ ) dt dτ
Kj K k 0 0
N0
= δjk .
2
En resumen, las N componentes del ruido son variables aleatorias Gaussianas de media cero y
no correlacionadas con varianza común dada por N20 .
Como se demostrará más adelante, al utilizar un esquema de correlacionador en la detección
de señales, el remanente de ruido, ñ(t), es rechazado efectivamente por el detector en sı́; entonces,
n̂(t) será el ruido que afectará directamente el proceso de detección. Por lo tanto, de ahora en
adelante la porción de ruido n̂(t) será referenciado simplemente como n(t), y se podrá representar
mediente su vector de coeficientes de forma similar a lo que se dijo para las señales, luego
n = [n1 , n2 , . . . , nN ] , (4.12)
en donde n es un vector aleatorio con media cero y distribución Gaussiana, en la que las
componentes nj , j = 1, . . . , N son independientes.
Ası́, la señal recibida a la entrada del detector también podrá representarse mediante un
vector r de la forma r = si + n. El problema tı́pico de la detección se ve convenientemente
en término de estos vectores como se muestra en la Fig. 4.1. Los vectores sj y sk representan
prototipos o señales de referencia pertenecientes al set de M señales {si (t)}. El receptor sabe,
a priori, la ubicación de cada una de estos prototipos en el espacio de señales. Durante la
transmisión de cualquiera de estas señales, éstas se perturban por el ruido generando una difusión
en torno a la posición original; por lo mismo el vector resultante corresponde a una versión
75
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA
perturbada de las señales originales (es decir sj + n ó sk + n). Dado que el ruido es aditivo
y Gaussiano, la posible señal recibida se enmarca dentro de una “nube” de puntos en torno a
los puntos sj y sk . Dicha nube es densa en el centro y se esparce al ir aumentando la distancia
del prototipo, manteniendo la forma de una distribucion Gaussiana. El vector marcado como
r corresponde a un vector de señal que puede llegar al receptor durante algun intervalo de
tiempo. La tarea del receptor será entonces decidir cuál de las dos señales prototipo tiene
más “semejanza” con esta señal recibida. Una forma de medir esta similitud es mediante la
distancia que existe entre cada uno de estos vectores. Más adelante se estudiará la forma en
que este concepto de distancia se aplica para elegir la forma de onda más parecida a la recibida,
permitiendo decidir si el vector entrante pertenece a la misma clase que su vecino más cercano
(vector prototipo más cercano).
76
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA
en dónde el término de fase asume solo M posibles valores discretos, que en general están dados
por la forma
2πi
φi (t) = , i = 1, 2, . . . , M . (4.16)
M
77
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA
La Ecuación (4.17) ilustra que se realiza una indexación del término de la amplitud y de la fase.
La forma de onda de una señal APK permite visualizar cambios de amplitud y fase simultáneos.
Por ejemplo, si se trabajara con M = 8, entonces cuatro vectores tendrı́an una misma amplitud y
los otros cuatro tendrı́an una amplitud diferente, con cada uno de los vectores separados en 45o .
Cuando un set de M posibles sı́mbolos en un espacio de señal bidimensional es ubicado en una
constelación rectangular, las señales son referidas como una quadrature amplitud modulation
(QAM) que se estudiará más adelante.
Las representaciones vectoriales de cada una de estas técnicas de modulación están carac-
terizadas por un plano polar para representar amplitud y fase. Caso contrario con lo sucedido
para la modulación FSK para el que es un plano de coordenadas cartesianas en donde cada eje
es un tono del set de M posibles tonos ortogonales.
78
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA
De la Ecuación (4.18), se puede obtener que una señal digital modulada en √ fase, puede
representarse geométricamente como vectores bidimensionales con componentes E cos 2πi
y
√ 2πi v
M
E sin M . La asignación de los v bits a cada uno de los M = 2 posibles valores de fase,
se puede realizar de distintas maneras, pero la forma preferida es utilizando codificación Gray.
Esto consiste en que los puntos adyacentes solo cambian de un dı́gito binario a la vez.
Se puede probar que la mı́nima distancia entre dos puntos adyacentes está dada por
√ π
dmin = 2 E sin (4.19)
M
y su importancia es que juega un papel importante en la determinación del desempeño de la
tasa de error (error-rate performance) de un receptor que detecta la señal PSK con presencia
de ruido gaussiano aditivo (AWGN).
π π
Para valores grandes de M , se puede realizar la aproximación sin M ≈M , luego la distancia
mı́nima será aproximadamente
2π √
dmin ≈ E, M >> 2 (4.20)
M
Consecuentemente, al aumentar M al doble -lo que permite enviar un bit más de información
por cada sı́mbolo– entonces la energı́a debe ser aumentada en ∼6dB para asegurar la misma
distancia mı́nima entre puntos adyacentes.
79
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA
Fig. 4.2: Espacio de señales bidimensional, con vectores arbitarios de igual amplitud s1 y s2
mı́nimo de decisión se logra al elegir la clase de señal en la que la distancia d(r, si ) =kr − si k
es minimizada, en donde k.k representa la norma del vector. Esta regla es usualmente fijada en
términos de regiones de decisión, como se muestra en la Fig. 4.2.
Ası́, una regla de decisión razonable es elegir el máximo valor de zi (T ) pues cuadra mejor
con alguna forma de onda conocida a priori, o en otras palabras, tienen la mayor correlación.
80
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA
Fig. 4.3: Receptor de Correlación con {si (t)} como señales de referencia
La Fig. 4.3 muestra el diagrama de bloques del receptor correlacionador en donde se utiliza el
set {si (t)} como señales de referencia para realizar el proceso de decisión.
Para el caso de detección binaria, lo normal serı́a tener dos correlacionadores con prototipos
s1 (t) y s2 (t) respectivamente y una etapa de decisión que decida entre el mayor valor de zi (T ).
Esto se puede mejorar al tomar la diferencia de los correlacionadores z(T ) = z1 (T ) − z2 (T )
y alimentar la etapa de decisión. Si se ha transmitido s1 (t) entonces z(T ) será positiva y en
caso contrario será negativa, por lo que se puede implementar la detección binaria mediante la
utilización de un solo correlacionador, en donde se compara la señal entrante con la diferencia
de los prototipos originales, vale decir s1 (t) − s2 (t). En efecto,
Z T Z T Z T
z(T ) = z1 (T ) − z2 (T ) = r(t)s1 (t) dt − r(t)s2 (t) dt = r(t)[s1 (t) − s2 (t)] dt
0 0 0
Tomando este resultado y recordando que para una modulación binaria se trabaja en torno
a una sola función base, ψ(t), entonces se plantea la opción de realizar el proceso de detección
mediante la comparación con esta señal, en sı́mbolos
Z T Z T
z(T ) = r(t)ψ(t) dt = [si (t) + n(t)]ψ(t) dt = ai (T ) + n0 (T ) .
0 0
Si no se tuviese ruido, una señal de entrada si (t) originarı́a en la salida del correlacionador sola-
mente una componente de señal, zi (T ) = ai (T ). Dado que el correlacionador es un dispositivo
lineal y el ruido de entrada es un proceso aleatorio Gaussiano, el ruido de salida también será
un proceso aleatorio Gaussiano. Ası́ la salida del correlacionador en presencia de ruido será
z(T ) = ai (T ) + n0 (T ), para i = 1, 2. La variable n0 (T ) corresponde a la componente de ruido.
En base al análisis estadı́stico previo, es sencillo visualizar que z(T ) será también una variable
aleatoria Gaussiana con media en a1 ó a2 , dependiendo si se envió un cero o un uno.
Es importante considerar que cualquier set de señales {si (t)}, i = 1, 2, . . . , M puede ser
expresada en función a otro set de funciones base {ψj (t)}, j = 1, 2, . . . , N tal como se explicó
anteriormente. Ası́, si se considera la Ecuación (4.7), el banco de M correlacionadores de
la Fig. 4.3 puede ser reemplazado por un banco de N correlacionadores en donde se utilizan
81
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA
las señales {ψj (t)} como referenciales. La salida de los correlacionadores estará determinada
entonces por la generalización de la relación antes mencionada
Z T
zj (T ) = r(t)ψj (t) dt (4.23)
0
Para la etapa de decisión, este receptor elige la señal si (t) de acuerdo al mejor acierto de los
coeficientes aij con el set de salidas {zj (T )}. En el caso de que se trabaje con señales {si (t)}
no-ortogonales, la implementación con las funciones base es más efectivo en términos de costos.
Tal como se explicó con anterioridad, la señal de ruido remanente ñ(t) = n(t) − n̂(t) corre-
sponde a un ruido Gaussiano de media cero que no se puede expresar mediante las funciones
base. Anteriormente se demostró que las componentes de ruido nj son Gaussianas, de media
cero y no correlacionadas entre sı́, teniendo una varianza común dada por N20 . Ahora bien,
usando un esquema de N correlacionadores con funciones base {ψj (t)}, se tiene que la salida
del set de correlacionadores está determinada por
Z T Z T
zj (T ) = r(t)ψj (t) dt = [si (t) + n(t)]ψj (t) dt
0 0
Z T Z T
= si (t)ψj (t) dt + n(t)ψj (t) dt
0 0
= aij + nj ,
en donde se utilizó la definición de los coeficientes dada anteriormente. Ahora bien, la idea es
demostrar que el ruido remanente ñ(t) es irrelevante cuando se necesita decidir cuál señal fue
transmitida. Consecuentemente, la decisión estará determinada completamente por la salida del
correlacionador zj (T ) = aij + nj . En palabras simples, se busca demostrar que ningún tipo de
información adicional se puede extraer del ruido remanente. De hecho, ñ(t) es completamente
no correlacionado con las salidas de los N correlacionadores.
Dado que ñ(t) y {zj (T )} son gaussianos y no correlacionados, entonces también son es-
tadı́sticamente independientes. Consecuentemente, ñ(t) no contiene ninguna información que
82
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA
sea relevante en la decisión de la señal transmitida; es decir, toda la información está contenida
en las salidas del correlacionador.
Gráficamente, ambas pdfs están entrelazadas por lo que debe haber un criterio de decisión
conforme a realizar una buena elección del sı́mbolo, determinando en qué región se encuentra la
señal recibida. En la Fig. 4.4 se puede observar esto, marcando las regiones, la linea de decisión
y el umbral (denotado por γ0 ).
Para obtener el valor del umbral, se requiere considerar que la decisión se toma en torno a
las probabilidades conjuntas p(z, si ). Esto quiere decir que una buena regla de decisión es: si
p(z, s1 ) > p(z, s2 ) entonces lo más probable es que se haya transmitido s1 (t); en caso contrario,
lo más probable es que se haya transmitido s2 (t). Matemáticamente esto se puede representar
mediante la relación
p(z, s1 ) ≷ss12 p(z, s2 ) .
Ahora bien, al utilizar el teorema de Bayes y la condición de que la probabilidad de que se
transmita s1 (t) es q, es decir p(s1 ) = q y p(s2 ) = 1 − q, entonces se tiene que p(z, s1 ) =
83
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA
p(s1 )p(z|s1 ) = qp(z|s1 ) y p(z, s2 ) = p(s2 )p(z|s2 ) = (1 − q)p(z|s2 ). Aplicando esto a la regla de
decisión se tiene
p(z, s1 ) ≷ss12 p(z, s2 )
(z − a1 )2 (z − a2 )2
1 s 1
qp exp − ≷s2 (1 − q) p
1
exp −
2πσ02 2σ02 2πσ02 2σ02
2 2 s1 2 1−q
2z(a1 − a2 ) − (a1 − a2 ) ≷s2 2σ0 ln ,
q
h i
por lo que si las señales son equiprobables, entonces ln 1−q q
= 0 y por ende
a1 + a2
z ≷ss12= γ0 , (4.26)
2
lo que quiere decir que para señales equiprobables, la mejor alternativa para tomar la decisión es
mediante la elección del punto medio de las medias como el umbral de decisión. Ası́, se plantea
la regla de decisión dada por
a1 + a2
z(T ) ≷HH2
1
= γ0 (4.27)
2
que determina que la hipótesis H1 debe ser seleccionada3 si z(T ) > γ0 , e hipótesis H2 deberá
seleccionarse4 si z(T ) < γ0 . Para el caso de trabajar con señales antipodales, entonces s1 (t) =
−s2 (t), y a1 = −a2 , por lo que el umbral queda determinado por
z ≷ss12 0 ,
tal como se discutió anteriormente al realizar la detección mediante un solo correlacionador.
84
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA
en donde {ψj (t)} corresponden a las N funciones base, y hj (t) = 0 fuera del intervalo 0 ≤ t ≤ T .
La salida de los filtros está determinada por la convolución entre la entrada del filtro (la señal
recibida, r(t)) y la respuesta impulso; entonces
Z t
yj (t) = r(τ )hj (t − τ ) dτ
0
Z t
= r(τ )ψj (T − t + τ ) dτ , j = 1, 2, . . . , N
0
Un filtro cuya respuesta a entrada impulso sea de la forma h(t) = f (T − t), en donde f (t)
se asume que se confina al rango 0 ≤ t ≤ T , se le llama matched-filter (filtro encuadrado) a la
señal f (t). La respuesta a la señal f (T ), es
Z t
y(t) = f (τ )f (T − t + τ )dτ ,
0
85
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA
Reemplazando este resultado en la definición del SNR de la salida del filtro, se tiene
hR i2 hR i2
T T
2
ys (T ) 0
s(τ )h(T − τ ) dτ 0
h(τ )s(T − τ ) dτ
SN Ro = 2
= RT = RT ;
E {yn (T )} σ02 2
h (T − t) dt σ02 h2 (T − t) dt
0 0
dado que el denominador depende de la energı́a en h(t), el máximo SNR sobre h(t) se obtiene
maximizando el numerador con el respaldo de que el denominador se mantiene constante. Esta
maximización se puede realizar utilizando la inecuación de Cauchy-Schwarz, la que indica que,
en general, si g1 (t) y g2 (t) son señales de energı́a finita, entonces
Z ∞ 2 Z ∞ Z ∞
2
g1 (t)g2 (t) dt ≤ g1 (t) dt g22 (t) dt ,
−∞ −∞ −∞
siendo iguales cuando se satisface que g1 (t) = Cg2 (t), para una constante arbitraria C. Fijando
entonces g1 (t) = h(t) y g2 (t) = s(T − t), resulta claro que el SNR es máximo cuando h(t) =
Cs(T − t), vale decir cuando el filtro está encuadrado a s(t).
Luego, el máximo SNR a la salida estará determinado por
Z T
1 2E
SN Rmax = 2 s2 (t) dt = , (4.28)
σ0 0 N0
en donde E es la energı́a de la señal de entrada s(t).
Es interesante notar que para la elección de h(t) = ψ(T − t), entonces h(T − τ ) = ψ(τ ),
luego el SNR estará determinado por la razón
hR i2 hR i2
T T
0
s(τ )h(T − τ ) dτ 0
s(τ )ψ(τ ) dτ a2i
SN Rmax = = = ,
T T
σ02
R R
σ02 0 h2 (T − t) dt σ02 0 ψ 2 (τ ) dτ
pues es un sistema base ortonormal y ψ(τ ) genera los coeficientes de la señal transmitida s(t).
86
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA
E es la energı́a por sı́mbolo, y T es la duración de dicho sı́mbolo. Dada la forma de las señales,
solo se requiere una función base que está determinada por:
r
2
ψ(t) = cos ωc t . (4.29)
T
Ası́, las señales transmitidas pueden ser expresadas mediante
√
s1 (t) = a1 ψ(t) = Eψ(t)
√
s2 (t) = a2 ψ(t) = − Eψ(t)
Las señalesqprototipo en el receptor son la misma que la función base, pero normalizada
2
por el factor T
, lo que implica que la señal prototipo del correlacionador 1, será ψ(t) y la
del correlacionador 2, será −ψ(t). Ahora, asumiendo que se transmite s1 (t), entonces r(t) =
s1 (t) + n(t), y los valores esperados a tener a la salida del integrador son:
Z T Z T
E {z1 |s1 } = E r(t)ψ(t) dt = E [s1 (t) + n(t)] ψ(t) dt
0 0
√ 2
Z T
= E Eψ (t) + n(t)ψ(t) dt
0
2√ √
Z T
E{n(t)}=0 2
= E E cos ωc t dt = E .
0 T
87
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA
r
2
ψ2 (t) = sin ωc t
T
q
en dónde la amplitud T2 se elige para mantener la salida normalizada conforme a lo estudiado
anteriormente. Ahora, el set completo de señales se puede expresar de la forma
i = 1, 2, . . . , M
si (t) = ai1 ψ1 (t) + ai2 ψ2 (t),
0≤t≤T
√ √
= E cos φi ψ1 (t) + E sin φi ψ2 (t) (4.30)
con φi = 2πiM
. Nótese que la Ecuación (4.30) describe un set de M señales de fase múltiple
(intrinsecamente no-ortogonales) en términos de solo dos componentes portadores ortogonales.
El caso de M = 4 (QPSK, quadriphase shift keying) es único dentro de las señales MPSK en el
sentido de que las formas de onda QPSK son representadas por una combinación de miembros
antipodales y ortogonales. Los contornos de decisión dividen el espacio de las señales en M = 4
regiones. La regla de decisión para el detector es decidir que s1 (t) fue transmitida si el vector
de la señal recibida cae en la región 1, que se transmitió s2 (t) si cae en la región 2, etc. En
otras palabras, se debe elegir la i-ésima forma de onda si zi (T ) es la máxima salida de los
correlacionadores, conforme a lo estudiado anteriormente.
La forma del correlacionador de la Fig. 4.3, muestra que siempre se requieren M correla-
cionadores de producto al demodular señales MPSK. Sin embargo, como se discutió anterior-
mente, en la práctica la demodulación MPSK se implementa con N = 2 correlacionadores dado
que la base de la modulación es conforme a las funciones base ψ1 (t) y ψ2 (t). La señal recibida,
r(t), puede ser expresada como
r
2E
r(t) = [cos φi cos ωc t + sin φi sin ωc t] + n(t) (4.31)
T
en donde n(t) es un proceso de ruido blanco Gaussiano con media cero. La Fig. 4.5 ilustra el
demodulador con las consideraciones hechas. Las señales X y Y corresponden al cálculo de los
correlacionadores superior e inferior respectivamente, y se definen mediante:
Z T
X= r(t)ψ1 (t) dt (4.32)
0
Z T
Y = r(t)ψ2 (t) dt . (4.33)
0
88
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA
En otras palabras, el i-ésimo vector √ del prototipo de la señal, está ubicado en i-ésimo eje
coordenado a un desplazamiento de E desde el origen en el espacio de señales. En este
esquema, para el caso general de MFSK, la distancia entre dos vectores de prototipos si y sj es
constante: √
d(si , sj ) =ksi − sj k = 2E, ∀i 6= j .
La Fig. 4.6 muestra los vectores de las señales prototipo y las regiones de decisión para un
sistema FSK-3 coherentemente detectado. Como en el caso de PSK, el espacio de las señales es
particionado en M regiones distintas, cada una conteniendo un vector de señal prototipo; acá,
dado que las regiones de decisión son tridimensionales, los lı́mites de decisión son planos en vez
de lı́neas. La regla de decisión óptima es decidir que la señal transmitida pertenece a la clase
cuyos ı́ndices corresponden a la región en donde la señal recibida se encuentra. Por ejemplo, en
la Fig. 4.6, el vector de la señal recibida r está en la región 2. Utilizando la regla de decisión
impuesta arriba, el detector clasifica r como la señal s2 .
Dado que el ruido es un vector aleatorio Gaussiano, existe una probabilidad mayor que cero
de que r pueda haberse producido por una señal distinta a s2 . Por ejemplo, si el transmisor
89
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA
envió s2 , entonces r será la suma de la señal más ruido, s2 + na , y la decisión de haber elegido
s2 es correcta. Sin embargo, si el transmisor envió s3 , el vector r podrı́a ser la suma de la señal
más ruido, s3 + nb y la decisión de elegir s2 será un error. El desempeño de error para sistemas
FSK coherentemente detectada será tratada más adelante.
En la detección coherente de FSK, la señal recibida, r(t), se correlaciona con cada una de
las M posibles señales, asumiendo que la fase fue correctamente estimada. Este requerimiento
hace que la demodulación coherente FSK sea extremadamente compleja y poco práctica, espe-
cialmente cuando se trabaja con muchas señales. Por lo mismo, no se considera como un punto
importante de estudio dentro del curso, y se hará más incapié en la detección no-coherente de
FSK en la siguiente sección.
90
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA
Fig. 4.7: Detección no-coherente para modulación FSK usando detector de envolvente
medida. Similarmente, para sistemas FSK múltiple (MFSK), la decisión acerca de cuál de las
M señales fue transmitida es hecha en base a cual de los detectores de envolvente presenta la
máxima salida.
sin(ω1 + ω2 )T cos(ω1 + ω2 )T
≈ ≈0,
ω1 + ω2 ω1 + ω2
91
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA
92
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA
Fig. 4.8: Espaciado mı́nimo entre tonos para detección no-coherente de FSK ortogonal
cuadratura, que en general pueden ser implementados digitalmente. El detector por cuadratura
para FSK no-coherente corresponde a una realización particular de la versión utilizada en PSK
coherente, en donde la detección se realizaba mediante la comparación directa con señales
cosenoidales y senoidales. Considere que la señal recibida es de la forma
r
2E
r(t) = si (t) + n(t) = cos(ωi t + φ) + n(t) ,
T
en donde φ representa la fase desconocida y n(t) es un proceso AWGN. La comparación de
esta señal recibida se realiza mediante 2M correlacionadores que utilizan señales prototipo
en cuadratura. q Por ejemplo, para el k-ésimo par de correlacionadores
q las señales prototipo
están dadas por T2 cos ωk t para la componente en lı́nea, y T2 sin ωk t para la componente en
cuadratura. Entonces, la salida del k-ésimo par se puede inferir del resultado anterior, y será
Z T r Z T "r #r
(I) 2 2E 2
zk = r(t) cos ωk t dt = cos(ωi t + φ) + n(t) cos ωk t dt
0 T 0 T T
√ 2 Z T Z T
= E cos(ωi t + φ) cos ωk t dt + n(t) cos ωk t dt
T 0 0
√ Z T Z T
2 E (I)
= cos φ cos ωi t cos ωk t dt − sin φ sin ωi t cos ωk t dt + nk
T 0 0
√
sin(ωi − ωk )T cos(ωi − ωk )T − 1 (I)
= E cos φ − sin φ + nk ,
(ωi − ωk )T (ωi − ωk )T
93
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA
√ (I)
√ (Q)
valores de las muestras en el detector son E cos φ + nk y E sin φ + nk , mientras que
para i 6= k, las componentes practicamente desaparecen independiente del valor que tenga la
diferencia de fase φ. Esto último se da por que la separación frecuencial entre muestras se elige
como múltiplos de la tasa de bits, conforme a lo que se estudió anteriortemente. Entonces, para
el resto de los 2(M − 1) correlacionadores, la salida será simplemente la componente de ruido
en fase y cuadratura.
En base a estos resultados, se incluye la etapa de decisión posteror al banco de estos cor-
relacionadores, eligiendo evidentemente el par de correlacionadores con mayor salida.
en donde α es una constante arbitaria y tı́picamente es asumida como una variable aleatoria
uniformemente distribuı́da entre cero y 2π; en sı́mbolos, α ∼ U [0, 2π]. El término n(t) es un
proceso AWGN.
Si se asume que α varı́a lentamente con respecto al tiempo de dos periodos, 2T , entonces la
diferencia de fase entre dos señales de entrada consecutivas, θj (T1 ) y θk (T2 ) resulta ser indepen-
diente de α, esto es:
La fase de la portadora del intervalo anterior, se puede usar como referencia de fase para
la demodulación. Su uso requiere un encoding diferencial de la secuencia del mensaje en el
transmisor, dado que la información es acarreada por diferencias de fases entre dos formas
de onda consecutivas. Ası́, para enviar el i-ésimo mensaje (i = 1, 2, . . . , M ), la señal actual
debe tener un incremento de φi = 2πi/M radianes por sobre la señal previa. El detector, en
general, calcula las coordenadas de la señal entrante correlacionándola con las señales internas
94
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA
p p
2/T cos ωc t y 2/T sin ωc t; luego mide el ángulo entre el vector de la señal actualmente
recibida y el vector de la señal previa.
En general, DPSK presenta menos eficiencia que PSK, pues los errores tienden a propagarse
entre tiempos de sı́mbolos adyacentes dada la correlación entre las formas de onda. Una forma
de ejemplificar esta diferencia, es que PSK compara con una señal pura, en cambio en DPSK
dos señales ruidosas son comparadas entre si. Se podrı́a decir que existe el doble de ruido
aproximadamente en DPSK, por lo que a primera vista, la estimación de DPSK se manifiesta
con una degradación de aproximadamente 3dB en comparación con la modulación PSK. Esta
degradación aumenta drásticamente con el incremento del SNR. A pesar de esta pérdida de
performance, se gana al tener un sistema con una complejidad menor.
ó,
c(k) = c(k − 1) ⊕ m(k) , (4.39)
en donde el sı́mbolo ⊕ representa la suma en módulo 2 y la barra superior representa el com-
plemento. En la Tabla 4.2 el encoding diferencial se ha obtenido utilizando la Ecuación (4.39).
En palabras, el bit de código actual, c(k), es uno si el bit del mensaje, m(k), y el bit de código
anterior, c(k − 1), son iguales, en otro caso, c(k) es cero. La cuarta fila traduce el bit de la
secuencia en el corrimiento de fase requerido, θ(k), en donde un uno está caracterizado por un
corrimiento de 180o y un cero por uno de 0o .
95
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA
de cada sı́mbolo. En otras palabras, durante cada duración de sı́mbolo, estamos comparando
un sı́mbolo recibido con el sı́mbolo recibido anteriormente, para luego mirar la correlación o la
anticorrelación.
Considere la señal recibida con fase θ(k) en la entrada del detector de la Fig. 4.9 con la
ausencia de ruido. La fase θ(k = 1) es comparada con su valor anterior, θ(k = 0), y como ambas
tienen el mismo valor π, entonces el primer bit detectado es m̂(k = 1) = 1. Luego se compara
θ(k = 2) con θ(k = 1) y como nuevamente tienen el mismo valor, entonces m̂(k = 2) = 1. Luego
se compara θ(k = 3) con θ(k = 2) pero ahora tienen valores diferentes, por lo que m̂(k = 3) = 0,
y ası́ sucesivamente.
Conforme a la literatura, el esquema planteado no es óptimo en términos de performance de
error, ya que una versión óptima requiere la referencia de la portadora en frecuencia, pero no
necesarimente tiene que ser en fase con el carrier entrante. La Fig. 4.10 muestra el diagrama
q de
2
bloques que safisface dicho requerimiento. Nótese que la función ψ(t) corresponde a T
cos ωc t.
Fig. 4.10: Demodulador Óptimo en términos de performance del error para DPSK utilizando
detección coherente diferencial
96
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA
en donde 0 ≤ t ≤ T . La etapa de decisión del detector, escogerá la señal si (t) que entregue la
mayor correlación zi (T ) a la salida del correlacionador, o en este caso simplemente se deberá
implementar la regla de decisión de la Ecuación (4.27). En esta etapa se pueden cometer dos
errores posibles. El primero coresponde a que se envió la señal s1 (t) pero el ruido es tal, que
el detector mide valores negativos de z(T ), eligiendo la hipótesis H2 . La otra opción, es que
ocurra lo contrario: se eliga H1 a pesar de que se transmitió s2 (t). Ası́ la probabilidad de error
estará determinada por
PB = P [(H2 , s1 ), (H1 , s2 )]
= P (H2 , s1 ) + P (H1 , s2 )
= P (H2 |s1 )P (s1 ) + P (H1 |s2 )P (s2 )
1 1
PB = P (H2 |s1 ) + P (H1 |s2 ) (4.42)
2 2
en donde se ha considerado que la transmisión de las señales es equiprobable.
Dada la naturaleza de las señales recibidas (variables aleatorias Gaussianas con media nula y
varianza fija) y la simetrı́a de sus funciones de densidad de probabilidad en la Fig. 4.4, entonces
se puede decir que:
PB = P (H2 |s1 ) = P (H1 |s2 ) .
Ası́, la probabilidad de error de bit es numericamente igual al área bajo la “cola” de alguna de
las pdf, p(z|s1 ) o p(z|s2 ) que cae en el lado “incorrecto” del umbral (área achurada en Fig. 4.4).
En otras palabras, el cálculo de PB se hace integrando p(z|s1 ) entre los lı́mites −∞ y γ0 ó, como
se muestra acá, integrando p(z|s2 ) entre los lı́mites γ0 y ∞. Luego
Z ∞
PB = p(z|s2 ) dz
γ0
en donde p(z|s2 ) tiene distribución Gaussiana con media ai , y el umbral óptimo, γ0 , está dado
por (a1 + a2 )/2 como se demostró anteriormente.
Se puede demostrar que
Z ∞ 2
1 u a1 − a2
PB = √ exp − du = Q (4.43)
(a1 −a2 )/2σ0 2π 2 2σ0
97
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA
en donde σ0 es la desviación estándar del ruido fuera del correlacionador. La función Q(x) es
llamada función de error complementario o función de co-error, y se define mediante:
Z ∞ 2
1 u
Q(x) = √ exp − du . (4.44)
2π x 2
Para señales
√ antipodales de igual energı́a, como √ el caso de BPSK, las salidas del receptor
son a1 = Eb cuando s1 (t) fue enviada y a2 = − Eb cuando se envió s2 (t), en donde Eb es
la energı́a de la señal por sı́mbolo binario. Para AWGN, la varianza se puede reemplazar por
N0 /2 como se demostró anteriormente. Entonces, se puede obtener que
r !
2Eb
PB = Q . (4.45)
N0
98
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA
99
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA
1 γ0 1 +∞
Z Z
1 1
PB = P (H2 |s1 ) + P (H1 |s2 ) = p(z|s1 ) dz + p(z|s2 ) dz
2 2 2 −∞ 2 γ0
100
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA
Conforme a lo estudiado anteriormente, para FSK también se puede probar que el umbral
óptimo de decisión es γ0 = 0. Esto implica que existe una simetrı́a entre ambas pdfs y se
relacionan mediante p(z|s1 ) = p(−z|s2 ), por lo tanto se puede escribir
Z +∞
PB = p(z|s2 ) dz = P (z1 > z2 |s2 ) (4.51)
0
en donde σ02 es el ruido a la salida del filtro. Por otra parte, dado que la entrada al detector de
envolvente 2 es una sinusoidal más ruido, z2 (T ) tendrá una distribución Rician dada por
( 2 2
z2 z +A
σ02
exp − 12σ2 I0 zσ22A , z2 ≥ 0
p(z2 |s2 ) = 0 0 (4.53)
0 , z2 < 0
p
en donde A = 2E/T . La función I0 (x) es conocida como la función de Besel modificada de
primera clase y orden cero, y está definida por
Z 2π
1
I0 (x) = √ exp[x cos θ] dθ . (4.54)
2π 0
Realizando la integración de la Ecuación (4.51) en base a la definición dada por las Ecua-
ciones (4.52) y (4.53), se obtiene que la probabilidad de error de bit para esta modulación está
determinada por
A2
1
PB = exp − 2 (4.55)
2 4σ0
Utilizando el hecho de que la varianza del ruido puede ser calculada mediante σ02 = 2 N20 Wf , con
Wf como el ancho de banda del filtro del demodulador de la Fig. 4.7, se obtiene
A2
1
PB = exp − , (4.56)
2 4N0 Wf
en dónde se puede notar que el performance de error depende del ancho de banda del filtro
pasabanda, teniendo una disminución del error a medida que Wf disminuye. Este resultado
es válido solo si no existe interferencia entre sı́mbolos (o al menos es despreciable) como fue
101
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA
postulado al comienzo del desarrollo en la primera parte de esta sección. Se puede demostrar que
dicha condición se logra para un Wf mı́nimo de R = 1/T bits por segundo. Ası́ la Ecuación (4.56)
puede ser reescrita mediante
A2 T
1 1 1 Eb
PB = exp − = exp − . (4.57)
2 4N0 2 2 N0
En la Fig. 4.11 se muestra una comparación de las probabilidades de error de bit para
distintas técnicas de modulación binaria. Nótese que el factor Eb /N0 puede se expresado como
la razón entre la potencia promedio de la señal y la potencia promedio del ruido (SNR), por lo
que existe una relación directa dada por:
Eb S·T S S·W SW W
= = = = = SN R
N0 N0 R · N0 R · N0 · W N R R
en donde W es el ancho de banda de la señal, S la potencia promedio de la señal modulante, T
la duración de cada sı́mbolo, R = 1/T la tasa de bits y N = N0 W .
Fig. 4.11: Probabilidad de Error de Bit para diferentres tipos de sistemas binarios
102
Capı́tulo 5
Introducción a la Codificación
5.1 Introducción
En el presente capı́tulo se presentan métodos para codificación, con el fin último de alcanzar
los lı́mites para el canal impuestos por Shanon que se estudiaron en el Capı́tulo 2 del curso;
es decir, se quiere alcanzar la capacidad del canal. El problema es que lograr la capacidad del
canal es mucho más dificil que diseñar buenos códigos para la fuente.
La introducción general de objetivo del capı́tulo, se hará mediante un ejemplo particular,
para demostrar que la codificación logra mejorar la probabilidad de error en comunicaciones
digitales. Considere entonces un sistema de comunicaciones digital con potencia del transmisor
P y tasa de la fuente R. El sistema emplea una modulación PSK con M = 4 (QPSK), en el que
los pares de bits son mapeados en cualquiera de las cuatro señales dadas por la constelación
√ de la
Fig. 5.1. La energı́a de cada señal determina el radio de la circunferencia mediante E. Nótese
que por trabajar con QPSK, esta energı́a corresponde
√ a la energı́a por cada dos bits, por lo que
el radio del cı́rculo está determinado por 2Eb , en donde Eb representa la energı́a por bit. Lo
interesante de expresarla de esta forma es que la energı́a por bit está determinada por el producto
de la tasa de bits por segundo y la potencia del transmisor, en sı́mbolos Eb = P T = P/R.
ψ2 (t)
s2 s1
√
2Eb
ψ1 (t)
s3 s4
103
CAPÍTULO 5. INTRODUCCIÓN A LA CODIFICACIÓN
√
La distancia Euclidiana entre señales adyacentes está determinada por 2 Eb , por ende la
mı́nima distancia cuadrática para esta modulación es
P
d2min = 4Eb = 4 . (5.1)
R
Considere que ahora que en vez de transmitir una señal QPSK (que es bidimensional), se utilizan
3 señales ortonormales para transmitir los mismos 2 bits. Por ejemplo se puede asumir que dicho
set está dado por ψ(t), ψ(t−T ), y ψ(t−2T ), en donde ψ(t) es nula fuera del intervalo de tiempo
RT
[0, T ], y además que 0 ψ 2 (t) dt = 1. Al tener tres señales ortonormales, las señales se pueden
ubicar en una esfera de forma similar al cı́rculo obtenido en el espacio bidimensional. Ası́, el
cuadrado formado por QPSK puede reemplazarse por un cubo, en donde cada una de las señales
se ubicará en alguno de los 8 vértices. Entonces, al utilizar esta nueva base, las cuatro señales
originales quedan –por ejemplo– determinadas por
√
s1 (t) = E[+ψ(t) + ψ(t − T ) + ψ(t − 2T )]
√
s2 (t) = E[+ψ(t) − ψ(t − T ) − ψ(t − 2T )]
√
s3 (t) = E[−ψ(t) − ψ(t − T ) + ψ(t − 2T )]
√
s4 (t) = E[−ψ(t) + ψ(t − T ) − ψ(t − 2T )]
tal como lo muestra la Fig. 5.2. Ahora bien, la distancia Eucludiana entre esta nueva realización
será, en todos los casos, la diagonal de las caras. √Como estas señales tienen una energı́a E,
entonces la distancia al origen de cada vértice será E, por lo que la distancia cuadrática entre
señales será
d2i,j = ||si − sj ||2 = 8E, ∀i 6= j .
Para este caso, la energı́a E se relaciona con la energı́a por bit, al considerar que cada señal
transmite 2 bits y a su vez cada señal se representa por la combinación de 3 señales base, luego
2Eb = 3E; entonces E = 2Eb /3 = (2/3)(P/R), lo que implica que
16 P
d2i,j = , ∀i 6= j . (5.2)
3 R
Comparando las Ecuaciones (5.1) y (5.2), se puede observar que la distancia mı́nima se ha visto
aumentada por un factor de
d2i,j 16 P
3 R 4
2
= P
= .
dQP SK 4R 3
Dado que la probabilidad de error es una función decreciente de la distancia Euclidiana mı́nima,
se ha reducido la probabilidad de error al emplear este nuevo esquema. De hecho, se puede decir
104
CAPÍTULO 5. INTRODUCCIÓN A LA CODIFICACIÓN
s4 ψ(t − T )
s1
ψ(t)
s2
s3
ψ(t − 2T )
Los resultados anteriores ejemplifican lo que un código busca lograr: disminuı́r la probabili-
dad de error (lo que es equivalente a una SNR efectiva mayor) al costo de incrementar el ancho
de banda y la complejidad del sistema. Sin embargo, es importante mencionar que existen
esquemas de codificación-modulación que incrementan la distancia Euclidiana entre los códigos
de palabra sin el costo del ancho de banda. En palabras más simples, para el ejercicio previo,
se realizó un mapeo de un espacio bidimensional (QPSK) a uno tridimensional, equivalente a:
(+1, +1) → (+1, +1, +1)
(+1, −1) → (+1, −1, −1)
(−1, −1) → (−1, −1, +1)
(−1, +1) → (−1, +1, −1)
en donde se puede observar que el rol de este mapeo es incluir un bit de paridad a los dos bits de
información. Esta paridad es agregada contal de que el número de +1 en la palabra codificada
sea siempre impar (o equivalentemente, que el número de −1s sea un número par).
En forma más general, un esquema de codificación de forma de onda toma secuencias de
largo k = RT de la fuente y los mapea en secuencias de largo n de la forma
√
si = E (±1, ±1, . . . , ±1) ,
| {z }
n
105
CAPÍTULO 5. INTRODUCCIÓN A LA CODIFICACIÓN
√
en donde cada uno de estos puntos se ubican en los vértices de un hipercubo de distancia 2 E.
La razón entre k y n,
k
Rc = ,
n
es conocida como la tasa del código (code rate). Dado que se mapea en un espacio n-dimensional,
existen 2n vértices posibles del hipercubo, de los cuales se deben elegir M = 2k vértices como
códigos de palabra. Evidentemente se quieren elegir aquellos 2k vértices que se encuentran lo
más lejanos posibles entre sı́, pues eso entrega una distancia Euclidiana grande, reduciendo ası́
la probabilidad de error. Para el caso anterior, se tenı́a k = 2 y n = 3, y se eligen 2k = 4 puntos
de los 23 = 8 posibles vértices que posee el cubo tridimensional. La tasa de dicho código es de
Rc = 2/3.
Asuma que se han elegido 2k vértices del hipercubo como códigos de palabra y que cada
palabra se encuentra al menos a una distancia de dH min de las otras componentes. El parámetro
dH
min es llamada la distancia de Hamming mı́nima para el código. La distancia Hamming entre
dos códigos ci y cj es el número de componentes en las cuales ambos códigos difieren, es decir
cuando un código es 1 y el otro es cero. La relación que existe entre la distancia Euclidiana y
la distancia Hamming se puede obtener mediante la relación
2
dE
ij = 4dH
ij E ,
2
lo que significa que las distancias mı́nimas se pueden relacionar mediante dEmin = 4dH
min E.
Asumiendo que se transmitió la señal si , se puede demostrar que la probabilidad de error
de código está acotada por
s
H
H
4d min E M −d min E
PM i ≤ M Q ≤ exp ,
2N0 2 N0
PT RT k
E= = Eb = Eb = Rc Eb ,
n n n
en donde Rc es la tasa del código. Entonces, como la cota no depende del valor de i, se tiene la
cota general dada por H
M −dmin Rc Eb
PM ≤ exp .
2 N0
Ahora bien, de no haber utilizado codificación –es decir se habrian utilizado los k vértices del
hipercubo k-dimensional y no k vértices en un hipercubo n-dimensional– se tendrı́a la siguiente
probabilidad de error !
r
2Eb M Eb
PM ≤ M Q ≤ exp − .
N0 2 N0
106
CAPÍTULO 5. INTRODUCCIÓN A LA CODIFICACIÓN
Comparando estas dos cotas, se puede concluir que la ganancia en potencia obtenida con la
codificación es equivalente a
G = dHmin Rc , (5.3)
que es conocida como ganancia asintótica del código, o, simplemente, ganancia del código. En
general, Rc < 1 y dH min ≥ 1, por lo que la ganancia puede ser tanto menor como mayor a 1.
Resulta obvio que pueden haber muchos códigos que generan buenas ganancias. La relación que
define la ganancia del código enfatiza que dados n y k, el mejor código será aquel que genere la
distancia Hamming más alta.
Con respecto al requerimiento de ancho de banda de la señal, se tiene que al no utilizar
codificación la duración de cada uno de los k sı́mbolos es T = 1/R, sin embargo cuando existe
codificación en dicho tiempo se tienen que enviar n pulsos, por lo que se produce una reducción
del tiempo por sı́mbolo de k/n = Rc . Ası́, la razón de expansión del ancho de banda es dado
por
Wc 1 n
B= = = (5.4)
Wnc Rc k
en donde Wc y Wnc representan los anchos de banda con y sin código respectivamente.
Se puede demostrar que en un canal AWGN, existe una secuencia de códigos con parámetros
(ni , ki ) con un tasa fija (Rc = ki /ni , ∀i) que satisface la relación
1 P
Rc < log 1 + , (5.5)
2 N0 W
en donde el lado derecho de la ecuación es la capacidad del canal en bits por transmisión
conforme a la Ecuación (2.12). Para esta capacidad la probabilidad de error tiende a cero a
medida que ni se vuelve cada vez más grande.
En este curso se estudian las formas básicas de codificación, dividiendo el estudio en códigos
por bloques y convolucionales. En codificación por bloque (como el ejemplo estudiado) las
secuencias de información se dividen en bloques de largo k, y cada uno de estos bloques se
mapea en bloques de largo n. Este mapeo es independiente del bloque anterior, por lo que no
tienen memoria. En códigos convolucionales, se utiliza un registro de desplazamiento de largo
k0 L, como se muestra en la Fig. 5.3. Los k0 bits de información entran en el registro por vez;
luego n0 bits que son una combinación lineal de varios registros se transmiten por el canal.
Estos n0 bits no solo dependen de los k0 bits recientes, sino también de los (L − 1)k0 anteriores
en el registro que constituyen su estado. El número de estados en un código convolucional es
2(L−1)k0 y su tasa se define como Rc = k0 /n0 . La principal diferencia que existe entre los códigos
por bloques y convolucionales es la existencia de memoria en estos últimos.
107
CAPÍTULO 5. INTRODUCCIÓN A LA CODIFICACIÓN
sı́mbolos,
C = {c1 , c2 , . . . , cM } ,
en donde cada ci es una secuencia de largo n con componentes iguales a 0 o 1. La colección de
palabras se llama bloque del código o, simplemente, código.
Se dice que un código es lineal si la suma en módulo 2 de cualquiera de sus palabras, es
también una palabra. Es decir, si ci y cj son palabras del código, entonces ci ⊕ cj también debe
ser una palabra del código. Con esta definición se puede notar que un código lineal por bloque es
un subespacio k-dimensional de un espacio n-dimensional. Además, de esta definición se deriva
que la palabra compuesta solo de ceros (que se denotará por 0) es una palabra de cualquier
código lineal, dado que se puede escribir ci ⊕ ci para cualquier palabra ci . Si se considera que
la secuencia de información x1 (de largo k) se mapea en la palabra de código c1 (de largo n),
y que la secuencia de información x2 se mapea en la palabra de código c2 , entonces x1 ⊕ x2 se
mapeará en c1 ⊕ c2 .
00 → 00000
01 → 01111
10 → 10100 (5.6)
11 → 11011 .
Se entenderá por distancia Hamming entre dos palabras del código ci y cj , como el número
de componentes a las cuales 2 palabras de código difieren, es decir el número de componentes
en dónde una de las palabras es 1 y la otra es 0. La distancia Hamming será denotada por
d(ci , cj ), a diferencia de la distancia Euclidiana en donde se hará la diferencia con el superı́ndice
E
, llamándola dE . La distancia mı́nima de un código, corresponde a la mı́nima distancia de
Hamming entre dos palabras diferentes, es decir
108
CAPÍTULO 5. INTRODUCCIÓN A LA CODIFICACIÓN
como el valor mı́nimo de todos los pesos, sin incluir la palabra compuesta solo de ceros, 0.
Asuma un código lineal en donde c es una palabra de dicho código; luego no es dificil
notar que la relación w(c) = d(c, 0) es válida para cualquier palabra. Además si ci y cj son
palabras del mismo código lineal y c = ci ⊕ cj entonces d(ci , cj ) = w(c). Esto implica que
en cualquier código lineal, correspondientemente a cualquier peso de una palabra, existe una
distancia Hamming entre dos palabras, y, correspondientemente a cualquier distancia Hamming,
existe un peso de una palabra. En particular, esto demuestra que en cualquier código lineal,
dmin = wmin .
por lo que cada una de las palabras del código en forma correspondiente serán
k
X
c= xi g i . (5.10)
i=1
c = xG (5.12)
109
CAPÍTULO 5. INTRODUCCIÓN A LA CODIFICACIÓN
G = [Ik | P ]
110
CAPÍTULO 5. INTRODUCCIÓN A LA CODIFICACIÓN
H = [P T | In−k ] . (5.15)
c1 ⊕ c2 ⊕ c3 = 0
c2 ⊕ c4 = 0
c2 ⊕ c5 = 0 .
111
Libros de Referencia.
112