Está en la página 1de 168

Apuntes de Telecomunicaciones

Christian Oberli
Profesor Asociado
Departamento de Ingeniería Elécrica
Pontificia Universidad Católica de Chile

Versión 2016–1
Índice

1. Modulación analógica 4
1.1. Amplitud modulada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2. Banda lateral doble con supresión de portadora . . . . . . . . . . . . . . . . 11
1.3. Banda lateral única . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4. Frecuencia modulada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

2. Ruido 43
2.1. Procesos aleatorios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.2. Proceso estocástico a través de un filtro lineal . . . . . . . . . . . . . . . . . 52
2.3. Ruido térmico (blanco) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.4. Propiedades de los procesos estocásticos gaussianos . . . . . . . . . . . . . . 58

3. Comunicaciones digitales en banda base 60


3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.2. Receptor óptimo binario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.3. Probabilidad de error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.4. Optimalidad del filtro adaptado . . . . . . . . . . . . . . . . . . . . . . . . . 85
3.5. Transmisión M −aria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89

4. Representación equivalente de banda base 99


4.1. Transformada de Hilbert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
4.2. Pre-envolvente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
4.3. Representación de señales de pasa banda en banda base . . . . . . . . . . . . 104
4.4. Representación de sistemas de pasa banda en banda base . . . . . . . . . . . 106
4.5. Representación de ruido de pasa banda en banda base . . . . . . . . . . . . . 109
4.6. Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114


c 2010 – 2016 Christian Oberli 1
5. Transmisión digital en pasabanda 115

5.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

5.2. Receptor óptimo M −ario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120

5.3. Representación geométrica de señales . . . . . . . . . . . . . . . . . . . . . . 125

5.4. Otras constelaciones M -arias de pasa banda . . . . . . . . . . . . . . . . . . 138

6. Sistemas de comunicaciones digitales 143

6.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143

6.2. Pares codificador–decodificador . . . . . . . . . . . . . . . . . . . . . . . . . 144

6.3. Entropía y compresión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145

6.4. Capacidad de canal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149

Anexo 1: Competencias necesarias en probabilidades 152

Anexo 2: Funciones de Bessel 156


c 2010 – 2016 Christian Oberli 2
Prefacio

Este libro es una transcripción del manuscrito que elaboré y perfeccioné a lo largo de 10 años
dictando el curso introductorio a las telecomunicaciones en el Departamento de Ingeniería
Eléctrica de la Pontificia Universidad Católica de Chile. Esta primera edición es resultado
del excelente trabajo de transcripción hecho por el alumno Sebastián Soto, a quién agradezco
y felicito muy sinceramente por el trabajo.

El texto de esta primera versión pública sin duda hereda falencias del manuscrito. Espero ir
subsanándolas con el tiempo y agradezco desde ya correcciones, observaciones y sugerencias
de los lectores.

La visión para este libro es presentar los fundamentos de telecomunicaciones en forma simple y
medular, recogiendo con formalidad matemática los conceptos esenciales y las relaciones entre
ellos, pero sin abordar aspectos que pueden ser explorados más adelante con las herramientas
entregadas aquí.

Christian Oberli, en Santiago el 29 de febrero de 2016.


c 2010 – 2016 Christian Oberli 3
Capítulo 1 Modulación analógica

1.1. Amplitud modulada

1.1.1. Señal AM en el dominio del tiempo

La señal de amplitud modulada (AM) está dada por


s (t) = Ac [1 + ka m (t)] cos (2πfc t), (1.1)
| {z } | {z }
envolvente portadora

donde m (t) es la señal de mensaje (analógica, en Volts), ka es la sensibilidad de amplitud (en


V−1 ), Ac es la amplitud de portadora (en Volts) y fc es la frecuencia portadora (en Hertz).
La modulación AM se ilustra en la figura 1.1.

Figura 1.1: Ilustración de una señal AM.

La condición
|ka m (t)| < 1 ∀t (1.2)


c 2010 – 2016 Christian Oberli 4
asegura que la envolvente de s (t) tenga la misma forma que m (t). Si |ka m (t)| > 1 para algún
t, se dice que la portadora está sobremodulada. Ello implica una inversión de fase, lo que se
traduce en una distorsión de envolvente. Es de sumo interés evitar la sobremodulación, ya que
la detección (demodulación) de la señal AM justamente consiste en detectar la envolvente.

1.1.2. Señal AM en el dominio de la frecuencia

Analicemos la señal AM en el dominio de la frecuencia. Para ello, reescribimos la amplitud


modulada como:
s (t) = Ac cos (2πfc t) + Ac ka m (t) cos (2πfc t), (1.3)
| {z } | {z }
portadora pura portadora modulada

y tomamos transformada de Fourier, resultando:


Ac ka Ac
S (f ) = [δ (f − fc ) + δ (f + fc )] + [M (f − fc ) + M (f + fc )] . (1.4)
2 2
Si m (t) tiene un espectro como el ilustrado en la figura 1.2 (a), entonces el espectro de la
señal modulada 1.4 es aquel de la figura 1.2 (b). Observamos que el ancho de banda de una
transmisión AM es de BAM = 2W .

Figura 1.2: Espectro de frecuencia de la señal AM. Los espectros en rojo se conocen como
bandas laterales inferiores y los espectros en naranja como bandas laterales superiores.

Es importante que se cumpla fc  W , puesto que de lo contrario no hay envolvente. Por


ejemplo, radio Cooperativa es una emisora de la banda AM y tiene fc = 760 kHz y W < 5
kHz.


c 2010 – 2016 Christian Oberli 5
1.1.3. Índice de modulación

Sea m (t) un tono puro de frecuencia fm , dado por:


m (t) = Am cos (2πfm t) , (1.5)
con fm  fc . Entonces, la señal AM es (figura 1.3)
s (t) = Ac [1 + ka Am cos (2πfm t)] cos (2πfc t) . (1.6)
El producto ka Am es una constante adimensional conocida como factor de modulación
o índice de modulación, que denotaremos µ. Es claro que si µ > 1, entonces ocurre
sobremodulación.

Figura 1.3: Modulación AM de un tono puro: (a) señal modulante, (b) portadora y (c) señal
modulada.

Sean Amáx y Amı́n los valores máximo y mínimo de la envolvente positiva. Por inspección de
la figura 1.3 escribimos:
Amáx Ac (1 + µ)
= , (1.7)
Amı́n Ac (1 − µ)
de lo que resulta
Amáx − Amı́n
µ= . (1.8)
Amáx + Amı́n
El resultado 1.8 puede ser usado para determinar el índice de modulación en un sistema real:

1. Se alimenta el modulador con una señal sinusoidal, tal como en la ecuación 1.5.
2. Se observa la señal modulada 1.6 en el osciloscopio y se mide Amáx y Amı́n .
3. Se determina µ usando la ecuación 1.8.


c 2010 – 2016 Christian Oberli 6
1.1.4. Eficiencia energética de la modulación AM

Usando la identidad trigonométrica

2 cos (α) cos (β) = cos (α + β) + cos (α − β) , (1.9)

es fácil mostrar que s (t) en la ecuación 1.6 puede escribirse como:


1 1
s (t) = Ac cos (2πfc t) + µAc cos [2π (fc + fm ) t] + µAc cos [2π (fc − fm ) t] . (1.10)
2 2
Tomando transformada de Fourier a la ecuación anterior, resulta (figura 1.3):
1 1 1
S (f ) = Ac [δ (f − fc ) + δ (f + fc )] + µAc [δ (f − fc − fm ) + δ (f + fc + fm )] + µAc [δ (f − fc + fm ) + δ (f + fc − fm )] .
2 4 4
(1.11)

Analicemos la potencia de esta señal:


2 
1 1
Potencia portadora = 2 · Ac = A2c (1.12)
2 2
 2
1 1
Potencia bandas laterales = 2 · 2 · µAc = µ2 A2c (1.13)
4 4

La eficiencia energética de la modulación AM, dada por la razón entre la potencia del mensaje
y la potencia total transmitida es:
Potencia bandas laterales
ηE = (1.14)
Potencia total
1 2 2
µA
= 1 24 1 c2 2 (1.15)
A + 4 µ Ac
2 c

Entonces,
µ2
ηE = . (1.16)
2 + µ2

La eficiencia (1.16) está graficada en la figura 1.4 en función de µ. En el caso ideal, µ = 1,


pero aún en este caso la eficiencia es pobre y apenas logra ηE = 13 . Esto significa que se
destina tan solo un 30 % de la potencia en transmitir el mensaje; el resto es potencia de
portadora que no lleva información.


c 2010 – 2016 Christian Oberli 7
Figura 1.4: Eficiencia energética de la modulación AM de un tono puro.

Cabe preguntarse: ¿Si AM es tan ineficiente, por qué entonces tiene una historia de gran
popularidad? La respuesta es que permite implementaciones muy simples del receptor. Esto
es relevante en aplicaciones de broadcasting: es preferible que miles de receptores sean baratos,
pudiendo ser más caro y complejo el (único) transmisor (no obstante, en AM el transmisor
puede ser muy simple también).

1.1.5. Detector de envolvente

El circuito más simple para demodular señales AM es el detector de envolvente. Funciona


así:

1. Modelamos la antena como una fuente de señales AM (figura 1.5).

Rs

vs (t)

s(t)

Figura 1.5: Detector de envolvente: antena como una fuente de señales AM.

2. Agregamos un diodo para rectificar la señal recibida (figura 1.6).


c 2010 – 2016 Christian Oberli 8
Rs

s(t)

Figura 1.6: Detector de envolvente: antena como una fuente de señales AM.

3. Un filtro pasabajos RC remueve las oscilaciones (figura 1.7).

1
R` ·
jωC R` − jR`2 ωC
Zeq = = ··· =
1 1 + R`2 ω 2 C 2
R` +
jωC

Rs

C R`

s(t)

Figura 1.7: Detector de envolvente: un filtro pasa bajos remueve las oscilaciones y recupera
la envolvente.

Cuando el diodo conduce, este tiene una resistencia pequeña (rf , figura 1.8). Dado que la
resistencia de la fuente (Rs ) también es pequeña, y escogiendo la resistencia de carga grande
R` , el condensador se carga. Para que la carga ocurra con suficiente rapidez, necesitamos
(Rs + rf ) C  f1c . Por otro lado, R` C debe ser suficientemente grande para filtrar la porta-
dora, pero no demasiado para ser capaz de seguir a la envolvente, cuya máxima frecuencia
es W . Así, los criterios de diseño de un detector de envolvente son:
1 1
(Rs + rf ) C   R` C  (1.17)
fc W


c 2010 – 2016 Christian Oberli 9
rf

Rs

C R`

s(t)

Figura 1.8: Circuito equivalente del detector de envolvente (diodo conduce).

1.1.6. Virtudes y limitaciones de AM

Eficiencia energética. Pobre. En el mejor de los casos con µ ≈ 1 se tiene ηE ≈ 13 .

Eficiencia espectral. Pobre. Las bandas laterales son esencialmente réplicas redun-
dantes una de otra.

Complejidad de implementación. Simple, a costas de ηW y ηE .

El paso lógico para mejorar la eficiencia es permitir diseños más complejos. Identificamos dos
posibilidades concretas:

1. Suprimir la portadora (figura 1.9). Esto mejora ηE pero ηW no cambia.

Figura 1.9: Mejoramiento de eficiencia de AM mediante supresión de portadora.

2. Suprimir además una de las bandas laterales y con ello mejorar también ηW .


c 2010 – 2016 Christian Oberli 10
Figura 1.10: Mejoramiento de eficiencia de AM mediante supresión de una banda lateral.

1.2. Banda lateral doble con supresión de portadora

1.2.1. Señales BLD–SP

La modulación de banda lateral doble con supresión de portadora (BLD–SP, en


inglés: double side-band with suppressed carrier, DSB–SC) es esencialmente la modulación
“clásica” descrita por la propiedad de traslación espectral del análisis de Fourier. Concreta-
mente, la señal modulada es (figura 1.11)

s (t) = m (t) Ac cos (2πfc t) (1.18)

Es claro que en este caso las inversiones de fase son inevitables, pero la información sigue
estando en la amplitud de la portadora.

El modulador es simplemente un multiplicador entre la señal modulante y una portadora


(figura 1.12). Su implementación electrónica más común es conocida como el modulador
de anillo (ring modulator ). Entender el circuito correspondiente es materia de un curso de
electrónica y no lo estudiaremos aquí.

m(t) s(t)

c(t)

Figura 1.12: Modulador BLD–SP.


c 2010 – 2016 Christian Oberli 11
Figura 1.11: Modulación de banda lateral doble con supresión de portadora: (a) señal
modulante, (b) señal modulada.

El espectro de la señal BLD–SP es bien conocido y está dado por (figura 1.13):
1
S (f ) = Ac [M (f − fc ) + M (f + fc )] (1.19)
2

Figura 1.13: Modulación BLD–SP: (a) espectro de amplitud de la señal modulante y (b)
espectro de magnitud de la señal modulada.


c 2010 – 2016 Christian Oberli 12
1.2.2. Detección coherente

Para demodular señales BLD–SP necesitamos un método que permita resolver las inversiones
de fase. La solución es conceptualmente sencilla, y consiste de un modulador BLD–SP seguido
por un filtro pasa bajos (figuras 1.14 y 1.15). En la práctica, la dificultad de usar este método
es que requiere una portadora local en el receptor que sea coherente con la portadora del
transmisor, esto es, que ambas portadoras coincidan perfectamente tanto en frecuencia como
en fase. Esto es imposible de lograr en la práctica.

s(t) LPF m(t)

cos (2πfc t)

Figura 1.14: Demodulador BLD–SP.

Figura 1.15: Traslación espectral de una señal BLD–SP al ser re-modulada con una porta-
dora de frecuencia fc .

1.2.3. Loop de Costas

Analicemos el caso en que el oscilador local coincide en frecuencia con el del transmisor pero
no en fase, como lo ilustra la Figura 1.16.

v (t) = A0c cos (2πfc + ϕ) s (t) (1.20)


= Ac A0c cos (2πfc t) cos (2πfc t + ϕ) m (t) (1.21)
1 1
= Ac A0c cos (4πfc t + ϕ) m (t) + Ac A0c cos (ϕ) m (t) . (1.22)
2 2


c 2010 – 2016 Christian Oberli 13
v(t)
s(t) LPF v0 (t)(t)

A0c cos (2πfc t) + ϕ)

Figura 1.16: Demodulación BLD–SP con error de fase en la portadora.

En (X), el primer sumando es una señal pasa banda centrada en 2fc , y el segundo término
es una señal de banda base, v0 (t), proporcional a m (t) por un factor cos (ϕ). La situación se
ilustra en la Figura 1.17, el que se recupera mediante un filtro pasabajos (Figura 1.16).

Figura 1.17: Espectro de magnitud de la señal BLD–SP demodulada con error de fase en
la portadora.

Vemos que:

Si ϕ ≈ 0, entonces v0 (t) ≈ m (t) y la detección de m (t) es posible.

Si ϕ ≈ ± π2 , entonces v0 (t) ≈ 0 y el mensaje no puede ser recuperado. Esta situación se


conoce como un cero de cuadratura.

En la práctica, ϕ varía continuamente en el tiempo debido a cambios del canal y de las


condiciones de propagación, como a cambios en la electrónica como temperatura de los com-
ponentes, voltajes de alimentación, etc. Por ello, es imprescindible encontrar una forma de
recepción capaz de compensar en tiempo real las fluctuaciones de ϕ.

El Loop de Costas es una arquitectura de receptor que aprovecha el efecto del cero de
cuadratura para generar una señal de control que adelanta o atrasa la fase del oscilador local


c 2010 – 2016 Christian Oberli 14
en el sentido correcto para re-sincronizar la portadora del receptor con aquella del transmisor
presente en la señal recibida. El loop utiliza un oscilador controlado por voltaje (voltage
controlled oscillator, VCO, figura 1.18) y opera de la siguiente forma (figura 1.19):

voltaje VCO frecuencia ∝ voltaje

Figura 1.18: Relación entrada–salida de un oscilador controlador por voltaje (VCO).

Demodulador en fase
1
Ac cos(ϕ)m(t)
2
LPF Señal demod.

cos(2πfc t + ϕ)
Discriminador
VCO LPF
de fase
Ac cos(2πfc t)m(t)

−90◦

sen(2πfc t + ϕ)

LPF
1
Ac sen(ϕ)m(t)
2
Demodulador en cuadratura

Figura 1.19: Diagrama de bloques del Loop de Costas.


c 2010 – 2016 Christian Oberli 15
Cuando ϕ ≈ 0, la salida del demodulador en fase es aproximadamente 21 Ac m (t), pro-
porcional a la señal deseada. A su vez, la salida del demodulador en cuadratura es
aproximadamente cero. Así, el discrimiandor en fase, que consiste de un multiplicador
seguido por un filtro pasabajos, produce una salida también esencialmente igual a cero.
Así, el VCO mantiene su frecuencia actual y preserva la coherencia entre la portadora
local y la del transmisor.

Si ϕ es pequeño, la salida del discriminador de fase es:


 
1 2 2
LPF A m (t) cos (ϕ) sen (ϕ) ≈ kϕ, (1.23)
4 c

la que tiene el signo de ϕ puesto que sen (ϕ) ≈ ϕ y todos los demás términos son
positivos. El filtro pasa bajos remueve las fluctuaciones de m2 (t) por lo que su salida
es una señal proporcional a ϕ. Si ϕ > 0, el voltaje de entrada al VCO es positivo y ello
reduce fc hasta que ϕ vuelva a cero.

El Loop de Costas pierde sincronismo al haber silencio (si m (t) ≡ 0). Para señales de voz,
la recuperación del sincronismo es imperceptiblemente rápida.

En comparación con el detector de envolvente, es claro que el Loop de Costas es más complejo,
ya que requiere implementar:

1. un oscilador local,

2. un circuito de control, y

3. dos filtros pasabajos.

1.3. Banda lateral única

1.3.1. Señal BLU

Queremos realizar una modulación de banda lateral única (BLU) como lo ilustra la figura
1.20. Para ello, la forma más inmediata que se nos ocurre es modular primero BLD–SP y luego
usar un filtro pasa banda (figura 1.21). Desafortunadamente, esta solución es técnicamente
difícil (por lo tanto costosa) debido a los estrictos requerimientos del filtro pasa banda en
términos de:

fc
1. Alto factor W
.

2. Aguda transición entre la pasa banda y la rechaza banda, la que debe ser lograda dentro
de la brecha de energía típica de señales de audio. (¿Y qué ocurre si no hay brecha de
energía?)


c 2010 – 2016 Christian Oberli 16
Figura 1.20: Modulaciones de banda lateral única.

u(t)
s(t) = BLU BPF m(t)

Ac cos (2πfc t)

Figura 1.21: Modulación BLU utilizando un filtro pasa banda (método impráctico).

Es claro que necesitamos una solución más inteligente. ¿Qué tal si en vez de filtrar la banda
lateral indeseada la cancelamos? La idea se ilustra en la figura 1.22 y el diagrama de bloques
del modulador en la figura 1.23. La función de transferencia H (f ) mostrada en ambas figuras
se conoce como transformador de Hilbert. Se trata de un dispositivo ideal que en la


c 2010 – 2016 Christian Oberli 17
práctica se implementa con filtros cuya respuesta de frecuencia a la respuesta de frecuencia
deseada. Debido a la aproximación, la supresión de la banda lateral no es perfecta.

H(f ) = −j sgn(f ) cos(2πfc t) −

sen(2πfc t) =

H(f ) = −j sgn(f )
Transformador j
− [δ(f − fc ) − δ(f + fc )]
de Hilbert 2

Figura 1.22: Modulación BLU por cancelación de la banda lateral no deseada.


c 2010 – 2016 Christian Oberli 18
m(t) + s(t)
±

Ac cos(2πfc t)

H(f )

−90◦

Ac sen(2πfc t)

4
= m̂(t)

Figura 1.23: Diagrama de bloques del modulador BLU.

La señal BLU está compuesta por la señal modulante m(t) y su transformada de Hilbert,
m̂ (t), y está dada por
s (t) = Ac m (t) cos (2πfc t) ± Ac m̂ (t) sen (2πfc t) , (1.24)
donde el signo positivo para m (t) corresponde a BLI (banda lateral inferior) y el negativo a
BLS (banda lateral superior). Las propiedades de m (t) son estudiadas en la sección 4.1.

1.3.2. Demodulación de señales BLU

El demodulador BLU uiliza la propiedad de traslación espectral (figuras 1.24 y 1.25).

v(t)

s(t) LPF v0 (t)

A0c cos (2πfc t)

Figura 1.24: Demodulador BLU.


c 2010 – 2016 Christian Oberli 19
s(t)

A0c cos (2πfc t)

Figura 1.25: Demodulación BLU.

Analicemos nuevamente el caso en que el oscilador local del receptor tiene un desfase ϕ con
respecto al del transmisor. La salida del mezclador, antes del filtro pasabajos, es:

v (t) = s (t) A0c cos (2πfc t + ϕ) (1.25)


0 0
= Ac Ac m (t) cos (2πfc t) cos (2πfc t + ϕ) − Ac Ac m̂ (t) sen (2πfc t) cos (2πfc t + ϕ) (1.26)
Ac A0c Ac A0c
= m (t) [cos (−ϕ) + cos (4πfc t + ϕ)] − m̂ (t) [sen (−ϕ) + sen (4πfc t + ϕ)] .
2 2
(1.27)

Filtrando pasabajos, resulta:

Ac A0c
v0 (t) = [m (t) cos (ϕ) + m̂ (t) sen (ϕ)] . (1.28)
2
La expresión anterior no revela mucho. Analicémosla en el dominio de la frecuencia:

Ac A0c h i
V0 (f ) = M (f ) cos (ϕ) + M̂ (f ) sen (ϕ) (1.29)
2
Ac A0c
= M (f ) [cos (ϕ) − j sgn (t) sen (ϕ)] (1.30)
 2
 Ac A0c

 M (f ) e−jϕ , si f > 0,
 2
= (1.31)

 0

 Ac Ac M (f ) ejϕ , si f < 0,
2
ya que
M̂ (f ) = −j sgn (f ) M (f ) . (1.32)
Vemos que el error de fase ϕ en el oscilador local del receptor resulta en una distorsión de
fase en la salida del modulador. La distorsión no es grave para señales de voz, ya que el oído
humano es poco sensible a ella (efecto “Pato Donald”), pero es inaceptable para audio de alta
fidelidad.


c 2010 – 2016 Christian Oberli 20
1.4. Frecuencia modulada

1.4.1. Modulación de ángulo

En su forma más general, la modulación de ángulo se describe como

s (t) = Ac cos [θ (t)] , (1.33)

donde θ (t) es un ángulo en función de la señal de mensaje. Para una portadora pura, θ (t) =
2πfc t + ϕ0 con ϕ0 una fase inicial. Una oscilación completa de la portadora ocurre cuando
θ (t) cambia en 2π radianes.

Existen infinitas maneras de variar θ (t) con una señal de mensaje dada m (t). Dos métodos
particulares son:

Modulación de fase (PM). θ (t) varía linealmente con la señal de mensaje m (t):

θ (t) = 2πfc t + kp m (t) . (1.34)


rad
donde 2πfc t es el ángulo de la portadora pura y kp es la sensibilidad de fase, en V
. Así,
la modulación PM está dada por:

s (t) = Ac cos [2πfc t + kp m (t)] . (1.35)

Modulación de frecuencia (FM). La frecuencia instantánea varía linealmente con m (t).


La frecuencia instantánea se define como “la variación del ángulo por unidad de tiempo” de
la siguiente forma:
θ (t + ∆t) − θt
f (t) = lı́m . (1.36)
∆t→0 2π∆t
En el límite resulta una relación integro–diferencial entre la frecuecnia instantánea y el ángulo
θ (t):

1 dθ
f (t) = (t) (1.37)
2π ˆdt
t
θ (t) = 2π f (τ ) dτ. (1.38)
0

La variación lineal de la frecuencia instantánea en función de m (t) implica que f (t) tiene la
forma
f (t) = fc + kf m (t) , (1.39)
Hz
con kf un parámetro de unidades V
llamada sensibilidad de frecuencia. Usando la ecua-
ción 1.38 en 1.39 encontramos
ˆ t
θ (t) = 2πfc t + 2πkf m (τ ) dτ, (1.40)
0


c 2010 – 2016 Christian Oberli 21
y con ello formulamos el modelo de señal FM como sigue:
 ˆ t 
s (t) = Ac cos 2πfc t + 2πkf m (τ ) dτ . (1.41)
d

La figura 1.26 ilustra las modulaciones FM y PM resultantes cuando la modulante es una


rampa. En la figura 1.27 se comparan las modulaciones FM y PM con AM. Observamos que:

1. Los cruces por cero de s (t) ya no ocurren a instantes regulares.

2. FM y PM tienen envolventes de amplitud constante.

3. FM y PM no siempre pueden ser distinguidas visualmente una de la otra.

Figura 1.26: Comparación entre modulaciones PM y FM: (a) señal modulante, (b) señal
modulada y (c) señal modulada en frecuencia.


c 2010 – 2016 Christian Oberli 22
Figura 1.27: Comparación entre modulaciones AM, PM y FM. (a) portadora, (b) señal
modulante, (c) señal modulada en amplitud, (d) señal modulada en fase y (e) señal modulada
en frecuencia.

Comparando las ecuaciones 1.35 con 1.41, vemos que FM y PM tienen esencialmente la misma
estructura y pueden ser generadas con circuitería similar (figura 1.28). Así, las propiedades
de PM pueden ser deducidas a partir de las de FM, y viceversa, motivo por el que nos
enfocaremos a estudiar FM.


c 2010 – 2016 Christian Oberli 23
ˆ
Modulador
(a) Señal modulante dt Señal FM
en fase

Ac cos(2πfc t)

d Modulador
(b) Señal modulante Señal PM
dt en frecuencia

Ac cos(2πfc t)

Figura 1.28: (a) Generación de FM usando un modulador PM y (b) vice–versa.

1.4.2. Señal FM en el dominio del tiempo

La modulación FM es un proceso no lineal, esto es, la señal transmitida, s (t), es una función
no lineal del mensaje m (t). Por ello, el espectro de una transmisión FM no guarda una
relación simple con el espectro del mensaje m (t), como es el caso con AM, BLD–SP y BLU.

Para estudiar el espectro de una modulación FM, consideremos el caso simple de la modula-
ción FM de un tono puro,
m (t) = Am cos (2πfm t) . (1.42)
La frecuencia instantánea de la modulación en este caso está dada por

f (t) = fc + kf Am cos (2πfm t) (1.43)


= fc + ∆f cos (2πfm t) , (1.44)

4
con ∆f = kf Am un parámetro denominado desviación de frecuencia. ∆f representa el
máximo alejamiento de la frecuencia instantánea con respecto a la frecuencia de la portadora
(en Hertz).

En ángulo instantáneo de la modulación es:


ˆ t
θ (t) = 2π f (τ ) dτ (1.45)
0
∆f
= 2πfc t + sen (2πfm t) (1.46)
fm
= 2πfc t + β sen (2πfm t) , (1.47)


c 2010 – 2016 Christian Oberli 24
4 ∆
donde β = fmf es el índice de modulación de una señal FM. β tiene unidades de radia-
nes y representa la máxima desviación del ángulo instantáneo con respecto al ángulo de la
portadora.
Así, la modulación FM de un tono puro está dada por
s (t) = Ac cos [2πfc t + β sen (2πfm t)] . (1.48)
Según el valor de β, se reconocen dos tipos de modulación FM:

Si β < 0,3 rad, se habla de FM de banda angosta.


Si β > 0,3 rad, se habla de FM de banda ancha.

Realizaremos el análisis espectral de la señal FM para cada caso por separado.

1.4.3. Análisis espectral de la modulación FM de un tono puro

FM de banda angosta. Expandiendo la ecuación 1.48 obtenemos:


s (t) = Ac cos (2πfc t) cos [β sen (2πfm t)] − Ac sen (2πfc t) sen [β sen (2πfm t)] . (1.49)
Para β pequeño tenemos
cos [β sen (2πfm t)] ≈ 1 (1.50)
sen [β sen (2πfm t)] ≈ β sen (2πfm t) . (1.51)
Entonces, la ecuación 1.49 se simplifica a:
s (t) ≈ Ac cos (2πfc t) − βAc sen (2πfc t) sen (2πfm t) . (1.52)
Este resultado describe cómo generar una modulación FM de banda angosta en forma apro-
ximada de manera simple. El diagrama de bloques correspondiente se muestra en la figura
1.29. La señal producida por este modulador difiere de la modulación FM ideal 1.49 funda-
mentalmente en dos aspectos:

1. La envolvente de la salida contiene una modulación de amplitud residual.


2. El ángulo θ (t) ya no es una sinusoide perfecta, si no que contiene distorsión armónica.

ˆ
m(t) dt + FM–BA

−90◦ Ac cos(2πfc t)

Figura 1.29: Modulador FM de banda angosta.


c 2010 – 2016 Christian Oberli 25
Expandiendo el producto de senos en la ecuación 1.52, reescribimos s (t) como
1
sFM-BA (t) ≈ Ac cos (2πfc t) + βAc {cos [2π (fc + fm )] − cos [2π (fc − fm ) t]} . (1.53)
2
Recordemos ahora el resultado 1.10 visto para la modulación AM de un tono puro:
1
sAM (t) = Ac cos (2πfc t) + µAc {cos [2π (fc + fm ) t] + cos [2π (fc − fm ) t]} . (1.54)
2
Vemos que las expresiones 1.53 y 1.54 son muy similares. Esto da lugar a la interpretación
fasorial para FM de banda angosta mostrada en la figura 1.30 (el espectro de 1.53 se muestra
en la figura 1.32).

Figura 1.30: Interpretación fasorial de (a) una modulación FM e banda angosta de un tono
puro y (b) una modulación AM de un tono puro.

FM de banda ancha. Nos interesa conocer características espectrales de FM para un valor


cualquiera de β. Como punto de partida para el ánalisis, consideremos la ecuación 1.48, la
cual describe la forma exacta de la señal FM de un tono puro. En general, s (t) no es periódica,
a menos que fc y fm tengan cierta relación multiplicativa. Recordando que:

ejx + e−jx
cos (x) = , (1.55)
2


c 2010 – 2016 Christian Oberli 26
reescribimos la ecuación 1.48 como:
Ac h j2πfc t+jβ sen(2πfm t) −j2πfc t−jβ sen(2πfm t)
i
s (t) = e +e (1.56)
2
Ac j2πfc t jβ sen(2πfm t) Ac −j2πfc t −jβ sen(2πfm t)
= e |e {z } + 2 e e| {z }. (1.57)
2
♣ ♠

Las funciones ♣ y ♠ en la ecuación 1.57 son periódicas, por lo que podemos expandirlas
como series de Fourier. Si definimos a ♣ en 1.57 como s̃ (t), es claro que ♠ = s̃ (−t). Así,
la expansión en serie de ♠ puede ser inferida fácilmente a partir de la expansión de ♣.
Procediendo entonces con ♣, obtenemos

X
s̃ (t) = ck ej2πkfm t , (1.58)
k=−∞

donde ck son los coeficientes de la serie de Fourier, dados por


ˆ 1
2fm
ck = f m s̃ (t) e−j2πfm t dt (1.59)
− 2f1
m
ˆ 1
2fm
= fm ejβ sen(2πfmt )−j2πkfm t dt (1.60)
− 1
ˆ π2fm
1 jβ sen(x)−jkx
= e dx, (1.61)
2π −π

donde la última línea resulta de hacer el cambio de variable x = 2πfm t. Trabajando esta
expresión:
ˆ π ˆ π
1 j
ck = cos [β sen x − kx] dx + sen [β sen x − kx] dx. (1.62)
2π −π 2π −π

Notando que cos [β sen x − kx] es una función par y sen [β sen x − kx] una función impar,
entonces: ˆ
1 π
ck = cos [β sen x − kx] dx. (1.63)
π 0
La expresión resultante se conoce como función de Bessel del primer tipo de orden
k y argumento β. La notación habitual para esta función es Jk (β). La figura 1.31 grafica
Jk (β) para distintos valores de k.


c 2010 – 2016 Christian Oberli 27
Funciones de Bessel

0.8

0.6

0.4
J (β)
k

0.2

−0.2

−0.4

0 5 10 15
β [rad]

Figura 1.31:
Figura FuncionesdedeBessel
31: Funciones Besseldeldel primer
primer tipo
tipo . β.
y argumento
y argumento

1. Simetrı́a: (
Importante: En el Anexo 2 se incluye un estudio
Jk ( detallado
) depar
si k es las funciones de Bessel
J kde
así como la demostración ( )sus 1)k Jk ( ) =propiedades.
= (principales (65)
Jk ( ) si k es impar

2. Energı́a:
1
Entre las propiedades que usaremos de lasX
funciones 2de Bessel, destacan:
|Jk ( )| = 1 (66)
k= 1
1. Simetría:
Continuando con el desarrollo, sustituyendo ck = 
Jk ( ) en (61), resulta

Jk (β) , si k es par,
k 1
J−k (β) = (−1)
s̃(t) =
JkX
(β) =
Jk ( j2⇡kfm t (1.64)
)e . (67)
k= 1 −Jk (β) , si k es impar.
Similarmente,
2. Energía: 1
X

s̃( t) = X J k(2 )ej2⇡kfm t . (68)
k= 1 |Jk (β)| = 1 (1.65)
k=−∞
Volviendo atrás a (60) con (67) y (68), tenemos
Continuando con el A c j2⇡fc t Xsustituyendo
desarrollo, AcJk j2⇡f
j2⇡kfm t ck =
X
(β) cen
t la ecuación 1.58,
j2⇡( resulta
k)fm t
s(t) = e Jk ( )e + e J k( )e . (69)
2 ∞
2
k X k
j2πkfm t
Realizando el cambio de variables̃ de
(t) =k por kJen
k (β)
la esegunda. sumatoria, podemos unir ambas
(1.66)
sumatorias y re-escribir (69) como k=−∞

Similarmente, X 1 h j2⇡fc t+j2⇡kfm t i


s(t) = Ac Jk ( ) X e∞ + e j2⇡fc t j2⇡kfm t
(70)
2 j2πkfm t
s̃k (−t) = J−k (β) e . (1.67)
k=−∞
c Copyright 2010–2015 Christian Oberli 23

c 2010 – 2016 Christian Oberli 28
Volviendo atrás a la ecuación 1.57 con las ecuaciones 1.66 y 1.67, tenemos
Ac j2πfc t X Ac −j2πfc t X
s (t) = e Jk (β) ej2πkfm t + e J−k (β) e−j2π(−k)fm t . (1.68)
2 k
2 k

Realizando el cambio de variable de −k por k en la segunda sumatoria, podemos unir ambas


sumatorias y re-escribir la ecuación 1.68 como
X 1  j2πfc t+j2πkfm t 
s (t) = Ac Jk (β) e + e−j2πfc t−j2πkfm t (1.69)
k
2
X∞
= Ac Jk (β) cos [2π (fc + kfm ) t] . (1.70)
k=−∞

El resultado 1.70 es una forma alternativa de expresar la modulación de un tono puro dada
por 1.54. Esta nueva expresión nos permite determinar el espectro de la modulación FM de
un tono puro tomándole directamente la transformada de Fourier, obteniendo:

Ac X
S (f ) = Jk (β) [δ (f − fc − kfm ) + δ (f + fc + kfm )] . (1.71)
2 k=−∞

Analicemos este importante resultado en detalle.

1. Observando la figura 1.31 vemos que para β < 0,3 se tiene

J0 (β) ≈ 1 (1.72)
β
J1 (β) ≈ (1.73)
2
Jk (β) ≈ 0 para k ≥ 2 (1.74)

Este es el caso de FM de banda angosta y confirma el resultado 1.52 deducido con


anterioridad. El espectro dado por 1.71 se muestra en la figura 1.32.


c 2010 – 2016 Christian Oberli 29
Componentes de frecuencia para modulacion FM con ß=0.3
1

0.8

0.6

|Jk(0.3)|
0.4

0.2

0
−15 −10 −5 0 5 10 15
k

0.8

0.6
Jk(0.3)

0.4

0.2

−15 −10 −5 0 5 10 15
k

Figura
Figura 1.32: Líneas
32: Lineas espectrales
espectrales demodulación
de la la modulación FMundetono
FM de un tono
puro puro con índice
con ı́ndice de modu-
de modulación
lación β = 0,3.
= 0,3.

1
Xaumenta el número de líneas espectrales significativas
2. En la medida que β crece,
= Ac Jk ( ) cos[2⇡(fc + kfm )t]. (71)
(armónicas, figuras 1.33 yk=1.34).
1
La separación entre armónicas es fm Hz.

El resultado (71) es una forma alternativa


Componentes dede expresar
frecuencia la modulación
para modulacion FM con ß=1 de un tono puro dada por
0.8
(57). Esta nueva expresión nos permite determinar el espectro de la modulación FM de un tono
puro tomandole diréctamente
0.6 la transformada de Fourier, obteniendo
1
Ac X
|J (1)|

0.4
S(f ) = Jk ( )[ (f fc kfm ) + (f + fc + kfm )]. (72)
k

2 k= 1
0.2

Analicemos este importante


0 resultado en detalle.
−15 −10 −5 0 5 10 15
k
1. Observando la Figura 31, vemos que para < 0, 3 se tiene
0.8

0.6 J0 ( ) ⇡ 1 (73)
0.4
J1 ( ) ⇡ (74)
2
Jk(1)

0.2

0 Jk ( ) ⇡ 0 para k 2 (75)
−0.2
Este es el caso de FM de banda angosta y confirma el resultado (55) deducido en la
−0.4
Sección 4.3.1. El espectro dado por (72) se muestra en la Figura 32.
−15 −10 −5 0 5 10 15
k
2. En la medida que crece, aumenta el número de lineas espectrales significativas (armóni-
Figuracas,
Figura 33:Figuras
1.33:Lineas 33
Líneas y 34). Ladeseparación
espectrales
espectrales entre FM
demodulación
la armónicas
la modulación esun
FMundetono
de fmtono
Hz. puro
puro con índice
con ı́ndice de modu-
de modulación
lación β = 1,0.
= 1,0.
c Copyright 2010–2015 Christian Oberli 24

c 2010 – 2016 Christian Oberli 30
Componentes de frecuencia para modulacion FM con ß=5

0.4

0.3
k

Figura 33: Lineas espectrales de la modulación FM de un tono puro con ı́ndice de modulación
= 1,0.

Componentes de frecuencia para modulacion FM con ß=5

0.4

0.3

|J (5)|
0.2

k
0.1

−15 −10 −5 0 5 10 15
k

0.4

0.2
Jk(5)

−0.2

−0.4
−15 −10 −5 0 5 10 15
k

Figura
Figura 1.34: Líneas
34: Lineas espectrales
espectrales de lademodulación
la modulación FMundetono
FM de un tono puroı́ndice
puro con con índice de modu-
de modulación
lación β =
= 5,0. 5,0.

3. La potencia promedio de s (t) no cambia al aumentar β. Intuitivamente, ello es así


porque la señal FM tiene envolvente
c Copyright constante
2010–2015 (Ac y A
Christian m se mantienen fijos), y formal-
Oberli 25
mente es así debido a la propiedad 1.65, con la que determinamos la potencia de una
modulación FM de un tono puro como

1 2 X 1
PFM = Ac Jk (β) = A2c . (1.75)
2 k=−∞ 2
Es interesante notar que la potencia de la señal FM modulada es igual a la potencia de
la portadora sin modular.
De lo anterior se desprende que las armónicas emergentes (valores con k mayores) crecen
en energía a costas de la energía de las armónicas con valores de k menores.
4. Finalmente, en las tres figuras observamos la propiedad 1.64:

Impulsos correspondientes a k par de la banda lateral inferior tienen igual signo


que sus pares en la banda lateral superior (“horquilla”).
Impulsos correspondientes a k impar de la banda lateral inferior tienen signo opues-
to que sus pares en la banda lateral superior (“anti-horquilla”).

1.4.4. Ancho de banda de una transmisión FM arbitraria

Conocer el ancho de banda de una transmisión es vital para dimensionar la cantidad de espec-
tro necesario, para hacer uso del espectro disponible de acuerdo a regulaciones y concesiones


c 2010 – 2016 Christian Oberli 31
vigentes y para asimismo conocer la eficiencia espectral de la transmisión.

Regla de Carson. Recordemos que


∆f kf Am
β= = . (1.76)
fm fM
Vemos que β depende de los parámetros fundamentales que describen a la señal modulante:
amplitud y frecuencia. Analicemos por separado el efecto de estos dos parámetros sobre el
espectro de la modulación FM.

Caso I. fm se mantiene fijo y Am crece. Entonces, ∆f y β crecen.

β = 1 ⇐⇒ ∆f = fm (1.77)

β = 2 ⇐⇒ ∆f = 2fm (1.78)
β = 5 ⇐⇒ ∆f = 5fm (1.79)
Puesto que fm es la separación entre las líneas espectrales y dado que más líneas
espectrales dejan de ser despreciables al crecer β (figuras 1.32 y 1.34), deducimos que

1. el ancho de banda de FM guarda alguna relación de proporción (no necesariamente


lineal) con ∆f y que
2. el ancho de banda de FM crece con Am .

Por lo tanto, aumentar la potencia del tono modulante (mayor Am ) hace crecer el ancho
de banda de la transmisión.

Caso II. Am se mantiene fijo y fm crece. Entonces ∆f se mantiene constante y β decrece.


Puesto que ∆f es constante, el ancho de banda no cambia (conclusión anterior). Así,
en la medida que β crece y fm decrece, el intervalo fc − ∆f < |f | < fc + ∆f se puebla
más y más densamente con líneas espectrales. En el límite (β −→ ∞ ⇐⇒ fm −→ 0) el
ancho de banda tiende a 2∆f .

Ambos casos anteriores permiten plantear una fórmula empírica para el ancho de banda de
la modulación FM de un tono puro. La deducción de esta fórmula considera dos escenarios:

1. β pequeño: Hemos visto en el caso de FM de banda angosta que si β es pequeño (β <


0,3), la modulación tiene solo dos líneas espectrales relevantes aparte de la portadora
(figura 1.32). Así, en este caso podemos decir que, en la práctica, el ancho de banda es

BFM-BA ≈ 2fm . (1.80)

Asimismo, arriba observamos que el ancho de banda guarda relación con ∆f (Caso
I). Sin embargo, puesto que para FM de banda angosta se tiene ∆f = βfm < 0,3fm ,
podemos afirmar que para este rango de β la desviación ∆f subestima el ancho de


c 2010 – 2016 Christian Oberli 32
banda fuertemente y por lo tanto 2fm es mejor indicador que ∆f para el ancho de
banda (figura 1.35).

1.2 2∆f = 0,2fm


1

0.8

0.6

0.4

0.2

fc − fm fc fc + fm
-0.2

Figura 1.35: Estimación de ancho de banda de la modulación FM de un tono puro en base


a fm cuando β < 0,3.

2. β grande: Cuando β es grande, por ejemplo β = 20, hay unas 25 líneas espectrales a
cada lado de la portadora (figura 1.36). Para estos casos podemos decir que

BFM ≈ 2∆f , (1.81)

es un buen indicador del ancho de banda, mientras que 2fm lo subestima fuertemente.


c 2010 – 2016 Christian Oberli 33
2∆f = 2 · 20fm

fc − 25fm fc fc + 25fm

Figura 1.36: Estimación de ancho de banda de la modulación FM de un tono puro en base


a ∆f cuando β  0,3.

A partir de los dos escenarios anteriores, Carson formuló la siguiente regla empírica para el
ancho de banda de la modulación FM de un tono puro:
 
1
BFM ≈ 2∆f + 2fm = 2∆f 1 + (1.82)
β

La curva correspondiente se ilustra en el gráfico inferior de la figura 1.37.


c 2010 – 2016 Christian Oberli 34
k en funcion de β
max
2
10

max
1
10

0
10
−1 0 1 2
10 10 10 10
β [rad]
B en funcion de β para la modulacion del Problema 4
T
7
10
β crit. 1%
β Carson

6
T

10
B

5
10
−1 0 1 2
10 10 10 10
β [rad]

Figura
Figura 1.37: Regla
37: Regla de Carson
de Carson (curva(curva
suave, suave,
gráfico gráfico
inferior) inferior) vs.delcriterio
vs. criterio del dentada).
1 % (curva 1 % (curva
dentada).
A partir de los dos escenarios anteriores, Carson formuló la siguiente regla empı́rica para el
ancho de banda de la modulación FM de un tono puro:
Criterio del 1 %. De la ecuación 1.71 sabemos que ✓FM tiene 1
◆ infinitas líneas espectrales
BFMde
repartidas sobre todo el espectro ⇡ frecuencia.
2 f + 2fm = 2 lo
Por 1 + en estricto rigor, BFM −→
f tanto, (83)
∞,
independiente de Am y fm . Sin embargo, hemos visto que la energía de la modulación se
La curva correspondiente
concentra, en la práctica, se
en ilustra en el gráfico
una banda de ancho inferior
finitode(figura
la Figura 37. Ello implica que para
1.34).
cualquier β dado, siempre existe un entero kmáx tal que
4.4.2. Criterio del 1 %
Jk (β) < Jmı́n , ∀k ≥ kmáx , (1.83)
De (72) sabemos que FM tiene infinitas lineas espectrales repartidas sobre todo el espectro de
con Jmı́n un umbral
frecuencia. que indica
Por lo tanto, el valor
en estricto mínimo
rigor, BFM ! que Jk (β) debe tener
1,unindependiente de Ampara
y fmser considerado
. Sin embargo,
significativo.
hemos visto Elque“criterio delde1la
la energı́a define Jmı́nse cn
%”modulación respectoena lalapráctica,
concentra, amplitud ende una
una portadora
banda de anchono
modulada como34).
finito (Figura sigue:
Ello implica que para cualquier dado, siempre existe un entero kmax tal que
Jmı́n = 0,01 · J0 (0) . (1.84)
Jk ( ) < Jmin 8k kmax , (84)
Los valores de kmáx que satisfacen este criterio en función de β deben ser calculados numé-
con Jmin un umbral que indica el valor mı́nimo que un Jk ( ) debe tener para ser considerado
ricamente (figura 1.7 y cuadro 1.1). El ancho de banda de la modulación FM del tono puro
significativo. El “criterio del 1 %” define Jmin con respecto a la amplitud de una portadora no
luego se determina como
modulada como sigue:
JBFM==0,2k · Jfm
01máx
min
.
(0). 0
(1.85)
(85)
Los valores de kmax que satisfacen este criterio en función de deben ser calculados numéri-
camente (Figuras 37 y 38). El ancho de banda de la modulación FM del tono puro luego se
determina como
BFM = 2kmax fm . (86)

c Copyright 2010–2015 Christian Oberli 28



c 2010 – 2016 Christian Oberli 35
Cuadro 1.1: Número de lineas espectrales significativas según el criterio del 1 %.

Índice de modulación Número de frecuencias significativas


β 2kmáx
0,1 2
0,3 4
0,5 4
1,0 6
2,0 6
5,0 16
10,0 28
20,0 50
30,0 70

1.4.5. Ancho de banda de modulaciones FM de señales arbitrarias

Consideremos una señal modulante m (t) cuyo contenido espectral está limitado al rango
[−W, W ] Hz. Se define la razón de desviación como
4 ∆f
D= . (1.86)
W
Vemos que la razón de desviación es una definición análoga al índice de modulación (cf.
ecuación 1.46) pero para el caso general de una señal modulante cualquiera. Así, en forma
análoga al caso de la modulación de un tono puro (cf. ecuación 1.83), definimos la regla de
Carson en forma generalizada para el ancho de banda de una modulación FM arbitraria como
sigue:
 
1
BFM = 2∆f + 2W = 2∆f 1 + , (1.87)
D
ya que usar W para calcular D considera la situación más desfavorable para el ancho de
banda.

El criterio del 1 % también se puede generalizar en forma análoga tomando W para fm y D


para β, resultando (cf. ecuación 86)

BFM = 2kmáx W . (1.88)

Ejemplo Transmisión comercial de una emisora en el dial FM.

Problema: El marco regulatorio de la banda FM impone ∆f = 75 kHz. Un valor típico


para W es 15 kHz. Determine el ancho de banda de esta modulación según

(a) la regla de Carson, y


c 2010 – 2016 Christian Oberli 36
(b) el criterio del 1 %.

Solución:

(a) Con la regla de Carson obtenemos directamente BFM = 2 · (75 kHz + 15 kHz) =
180 kHz.

(b) Para el criterio del 1 %, la razón de desviación es D = 75 kHz


15 kHz
= 5. Usando este valor
por β en la figura 1.38 encontramos kmáx = 8, BFM = 2 · 8 · 15 kHz = 240 kHz.

1.4.6. Métodos de modulación FM de banda ancha

Para generar una modulación FM de banda ancha existen principalmente dos métodos, los
que se describen a continuación.

Método indirecto. Primero se genera una señal FM de banda angosta utilizando un modu-
lador como el de la figura 1.29 seguido por un multiplicador de frecuencia. Este consiste
de un dispositivo no-lineal sin memoria seguido por un filtro pasa banda (figura 1.38). La
relación entrada-salida del dispositivo no-lineal está dada por

v (t) = a1 u (t) + a2 u2 (t) + · · · + an un (t) (1.89)

con los ai y n parámetros conocidos del dispositivo.

Dispositivo v(t)
u(t) no lineal sin BPF
memoria

Figura 1.38: Multiplicador de frecuencia, usado para modulación de frecuencia mediante el


método indirecto.

Si u (t) es una señal FM, entonces:

u (t) = Ac cos [2πfc t + ϕ (t)] , (1.90)

con ˆ t
ϕ (t) = 2πkf m (τ ) dτ. (1.91)
0
Entonces, por ejemplo con n = 3 se tiene

v (t) = a1 Ac cos [2πfc t + ϕ (t)] + a2 A2c cos2 [2πfc t + ϕ (t)] + a3 A3c cos3 [2πfc t + ϕ (t)] . (1.92)


c 2010 – 2016 Christian Oberli 37
Usando identidades trigonométricas es fácil mostrar que
 
1 3 1 1
v (t) = a2 A2c + a1 Ac + a3 A3c cos [2πfc t + ϕ (t)] + a2 A2c cos [4πfc t + 2ϕ (t)] + a3 A3c cos [6πfc t + 3ϕ (t)] . (1.93)
2 4 2 4

Vemos que cada sumando en la ecuación anterior es una modulación FM, y que estas mo-
dulaciones tienen razones de desviación (índices de modulación) sucesivamente crecientes,
resultando, a partir de algún múltiple, modulaciones de banda ancha, las que pueden ser
aisladas mediante un filtro pasa banda para obtener la modulación FM deseada.

Ejemplo Modulación FM mediante método indirecto.

Problema. Una señal de audio contiene frecuencias en el rango 100 Hz a 15 kHz. El


modulador FM de banda angosta opera con D = 0,2 rad. Se desea generar una salida
con fc = 89,7 MHz y ∆f = 75 kHz. ¿Cuál es el orden n que debe tener el multiplicador
de frecuencia?

Solución:

La modulación de banda angosta tiene

∆f = DW (1.94)
= 0,2 rad · 15 kHz (1.95)
= 3 kHz. (1.96)

Para lograr una modulación de banda ancha con ∆f = 75 kHz se necesita n = 75 kHz
3 kHz
=
25. Esto se puede lograr en dos pasos con dos multiplicadores de frecuencia de orden 5
en cascada.

Método directo. La frecuencia instantánea es variada directamente con la señal modulante


usando un VCO (figura 1.18). La desventaja de estos dispositivos es que la estabilidad del
voltaje de salida tiende a ser pobre, lo que se traduce en phase jitter de la señal modulada. El
fenómeno es más severo con valores altos de la frecuencia portadora, por lo que una solución
es usar un VCO a baja frecuencia y alimentar su salida a un multiplicador de frecuencia.

Una forma para estabilizar la frecuencia de salida de un VCO es mediante un lazo de reali-
mentación en circuitos conocidos como Phase-Locked Loops (PLL, ver sección 4.7).

1.4.7. Demodulación de señales FM

La demodlación de señales FM consiste en traducir las variaciones de frecuencia de la se-


ñal recibida en variaciones de amplitud de otra señal proporcional a m (t). Dos métodos se
describen a continuación.


c 2010 – 2016 Christian Oberli 38
Método de la derivada. Consideremos la señal FM y su derivada:
 ˆ t 
sFM (t) = Ac cos 2πfc t + 2πkf m (τ ) dτ (1.97)
0
 ˆ t 
dsFM
(t) = −Ac [2πfc + 2πkf m (t)] sen 2πfc t + 2πkf m (τ ) dτ . (1.98)
dt 0

La derivada es una señal de pasabanda (el sen (·) es una señal FM en torno a fc ) modulada
en amplitud por m (t), como en AM. Así, un derivador seguido por un detector de envolvente
es una posible arquitectura para demodular FM (figura 1.39).

d Detector de
dt envolvente

Figura 1.39: Demodulador FM basado en el detector de envolvente.

La implementación del derivador es conceptualmente como sigue. Recordando la propiedad


de derivada de Fourier:
ds
(t) ←→ j2πf S (f ) , (1.99)
dt
vemos que un derivador es un filtro con una pendiente lineal en su pasabanda. Una imple-
mentación de esta idea para una banda en torno a la portadora se logra mediante dos filtros
pasa banda en paralelo, cuyas frecuencias centrales están por sobre y por debajo de fc (figura
1.40).


c 2010 – 2016 Christian Oberli 39
BPF @ fc + ∆
+ +

entrada salida

− −
BPF @ fc − ∆

Resultante:

Figura 1.40: Arquitectura de un derivador basado en dos filtros pasa banda en paralelo.

Método basado en Phase-Locked Loops. Un Phase-Locked Loop (PLL) es un VCO esta-


bilizado mediante realimentación negativa. Los PLL tienen varios usos, como sincronización
de frecuencia y fase, división y multiplicación de frecuencia y demodulación FM, entre otros.

Su uso como demodulador FM se ilustra en la figura 1.41:


c 2010 – 2016 Christian Oberli 40
s(t) Filtro del loop v(t)

VCO

Figura 1.41: Demodulación FM empleando un PLL (Phase-Locked Loop).

Para entender su funcionamiento, asumiremos que el VCO ha sido ajustado tal que cuando
su entrada es cero, su salida es exactamente fc y está 90◦ fuera de fase con la portadora de
s (t). Comenzando con v (t) (figura 1.41) representamos la relación entrada–salida del VCO
como
r (t) = Ac cos [2πfc t + ϕv (t)] , (1.100)
con: ˆ t
ϕv = 2πkv v (τ ) dτ. (1.101)
0
Entonces, la salida del multiplicador es

e (t) = km Ac Av sen [2πfc t + ϕm (t)] cos [2πfc t + ϕv (t)] (1.102)


1 1
= km Ac Av sen [4πfc t + ϕm (t) + ϕv (t)] + km Ac Av sen [ϕm (t) − ϕv (t)] . (1.103)
2 2
El filtro del loop es un filtro pasa bajos y por ende elimina la componente 2fc dada por la
primera componente del lado derecho de la ecuación 1.103. Así, enfocamos el análisis en el
segundo término, que tiene un error de fase dado por

ϕe (t) = ϕm (t) − ϕv (t) . (1.104)

Derivando ϕe (t):
 ˆ t 
dϕe dϕm d
(t) = (t) − 2πkv v (τ ) dτ (1.105)
dt dt dt 0
dϕm
= (t) − 2πkv v (t) (1.106)
dt
Pero

v (t) = e (t) ∗ h (t) (1.107)


ˆ ∞
= e (τ ) h (t − τ ) dτ, (1.108)
−∞

con h (t) la respuesta al impulso del filtro del loop. Con ello, reescribimos la ecuación 1.106
como ˆ ∞
dϕe dϕm
(t) = (t) − πkm kv Ac Av sen [ϕe (t)] h (t − τ ) dτ. (1.109)
dt dt −∞


c 2010 – 2016 Christian Oberli 41
Esta es una ecuación íntegro-diferencial no-lineal que describe el comportamiento dinámico
del PLL.

Cuando ϕe (t) ≡ 0 para todo t se dice que el PLL está “anclado en fase” (phase-locked ). Para
casos en que ϕe (t) es pequeño, es posible mostrar que

1 dϕm
v (t) ≈ (t) (1.110)
2πkv dt
kf
= m (t) . (1.111)
kv
Esto indica que un PLL anclado en fase y que sea capaz de seguir con un error ϕe (t) pe-
queño las fluctuaciones de fase de una señal FM de entrada, genera en su salida una señal
proporcional a la modulante m (t). De esta forma, el PLL puede ser usado como demodulador
FM.


c 2010 – 2016 Christian Oberli 42
Capítulo 2 Ruido

Importante: Este capítulo presupone que el lector cuenta con las competencias en
probabilidades listadas en el Anexo 1.

2.1. Procesos aleatorios

2.1.1. Definición

El ruido, el tema central de este capítulo y uno de los temas centrales del estudio de la
Ingeniería de Comunicaciones, es modelado matemáticamente como un proceso estocástico
o proceso aleatorio, concepto que definiremos en esta sección.

A diferencia que con variables aleatorias, caso en que un experimento devuelve un valor
concreto para la variable, el resultado de un experimento con un proceso estocástico es una
función aleatoria. En nuestro caso, dicha función típicamente es una señal en función del
tiempo.

Ejemplo Las siguientes señales son ejemplos de procesos estocásticos:

Señal de voz.

Señal de TV.

Señal de ruido.

Pueden realizarse las siguientes observaciones:

En los ejemplos anteriores los procesos son aleatorios puesto que no es posible
predecir (antes de conducir el experimento) cuál será la señal que observaremos.

El espacio muestral contiene todas las funciones que satisfacen las mismas propie-
dades estadísticas.


c 2010 – 2016 Christian Oberli 43
Denotaremos el proceso estocástico por X (t) y una realización del proceso por
x (t), de la misma forma en que una variable aleatoria la denotamos por X y una
realización de esta variable como x.

Ejemplo En el siguiente ejemplo observamos tres realizaciones del mismo proceso


estocástico con t ∈ [0, T ].

Figura 2.1: Tres realizaciones del mismo proceso estocástico con t ∈ [0, T ] .

Notamos que:

Para t = t0 , X0 = X (t0 ) es una variable aleatoria y x1 (t0 ), x2 (t0 ) y x3 (t0 ) son los
resultados de tres experimentos de la variable aleatoria X0 .

X (t1 ), X (t2 ) y X (t3 ) son tres variables aleatorias diferentes, ¡y pueden tener dis-
tribuciones de probabilidad muy distintas!

2.1.2. Procesos estocásticos estacionarios (P.E.E.)

Se define un proceso estocástico estacionario como aquél en el cual las características


estadísticas del proceso son invariantes en el tiempo. Es decir,
fX(t1 ),...,X(tk ) (x1 , . . . , xk ) = fX(t1 +τ ),...,X(tk +τ ) (x1 , . . . , xk ) , (2.1)
y por lo tanto, la distribución conjunta de las variables aleatorias X (tj ) es idéntica a la de
las variables aleatorias X (tj + τ ) con τ arbitrario y k también arbitrario.
Se pueden distinguir dos situaciones de especial interés:


c 2010 – 2016 Christian Oberli 44
1. Para k = 1 tenemos que:

FX(t) (x) = FX(t+τ ) (x) = FX (x) , (2.2)

para todo t y τ . Esto es, la función de distribución de primer orden de un proceso


aleatorio estacionario es independiente del tiempo.

2. Para k = 2 y τ = −t1 se tiene que:

FX(t1 ),X(t2 ) (x1 , x2 ) = FX(0),X(t2 −t1 ) (x1 , x2 ) , (2.3)

para todo t1 y t2 . Es decir, la distribución de función de segundo orden de un proceso


aleatorio depende solo de la diferencia de tiempo entre los tiempos de observación y no
de los tiempos particulares en los cuales el proceso es observado.

2.1.3. Funciones de media, correlación y covarianza

Para los propósitos de realizar una caracterización estadística de los procesos estocásticos,
definimos las siguientes funciones:

1. Función de media:
4
µX (t) = E {X (t)} (2.4)
ˆ ∞
= xfX(t) (x) dx. (2.5)
−∞

fX(t) puede variar en el tiempo, como por ejemplo en la señal de audio de una conver-
sación.
Si el proceso estocástico es estacionario, entonces puede notarse que para todo t se
cumplirá que
µX (t) = µX . (2.6)

2. Función de autocorrelación: Es una medida de cuán correlacionados están los valores


(aleatorios) del proceso en t1 y t2 1 .
4
RX (t1 , t2 ) = E {X (t1 ) X (t2 )} (2.7)
ˆ ∞ˆ ∞
= x1 x2 fX(t1 ),X(t2 ) (x1 , x2 ) dx1 dx2 . (2.8)
−∞ −∞

De la ecuación 2.2 puede deducirse que si el proceso estocástico es estacionario, entonces


se cumplirá que:
RX (t1 , t2 ) = RX (t2 − t1 ) = RX (τ ) . (2.9)
1
La función de autocorrelación es el segundo momento de un proceso estocástico.


c 2010 – 2016 Christian Oberli 45
3. Función de covarianza:
4
CX (t1 , t2 ) = E {[X (t1 ) − µX (t1 )] [X (t2 ) − µX (t2 )]} . (2.10)
Realizando una expansión de esta ecuación puede notarse que:
CX (t1 , t2 ) = E {X (t1 ) X (t2 )} − µX (t1 ) µX (t2 ) (2.11)
= RX (t1 , t2 ) − µX (t1 ) µX (t2 ) . (2.12)

De la misma forma, si el proceso estocástico es estacionario, entonces:


CX (t1 , t2 ) = CX (t2 − t1 ) = CX (τ ) . (2.13)
Más aún,
CX (τ ) = RX (τ ) − µ2X . (2.14)

Observaciones:

1. µX (t) y RX (t1 , t2 ) sólo proveen una descripción parcial de la distribución de un proceso


estocástico.
2. Las ecuaciones 2.6 y 2.9 NO son condiciones suficientes para garantizar estacionariedad.
3. Un proceso estocástico que satisface 2.6 y 2.9 se denomina “estacionario en el sentido
amplio” (ESA), y es muchas veces considerado estacionario para efectos prácticos.

2.1.4. Propiedades de la función de autocorrelación

Para un proceso estocástico estacionario se tendrá que para todo t:


RX (τ ) = E {X (t + τ ) X (t)} . (2.15)
Se pueden notar las siguientes propiedades:

1. Valor cuadrado medio del proceso estocástico: (i.e. potencia)



RX (0) = E X2 (t) . (2.16)

2. Simetría:
RX (τ ) = RX (−τ ) . (2.17)
Esto indica que medir la correlación hacia atrás es exactamente lo mismo que me-
dirla hacia adelante, debido a que como el proceso es estacionario las características
estadísticas no varían en el tiempo.
3. Máximo:
|RX (τ )| ≤ RX (0) . (2.18)
Por lo tanto, ningún par de muestras del proceso están tan correlacionadas como cada
muestra consigo mismo.


c 2010 – 2016 Christian Oberli 46
Ejemplo Consideremos el proceso estocástico

X (t) = A cos (2πfc t) + B sen (2πfc t) ,

donde A, B iid ∼ N (0, σ 2 ). Determinemos si este proceso estocástico es o no estacionario


en el sentido amplio.

Solución:

En primer lugar,

µX (t) = E {A cos (2πfc t) + B sen (2πfc t)}


= E {A} cos (2πfc t) + E {B} sen (2πfc t)
= 0

Por lo tanto, la función de media no depende del tiempo.


Asimismo,

RX (t1 , t2 ) = E A2 cos (2πfc t1 ) cos (2πfc t2 ) + (
E {A} ({B} cos (2πfc t1 ) sen (2πfc t2 )
( (
((E

( E {B} cos (2πfc t2 ) sen (2πfc t1 ) + E B2 sen (2πfc t1 ) sen (2πfc t2 )
E {A}
· · · +( ( ( (
(

Luego,

RX (t1 , t2 ) = σ 2 [cos (2πfc t1 ) cos (2πfc t2 ) + sen (2πfc t1 ) sen (2πfc t2 )]


= σ 2 cos [2πfc (t1 − t2 )]
= RX (t2 − t1 )

Concluimos entonces que el proceso estocástico es estacionario en el sentido amplio.

Ejemplo De forma análoga, determinemos la estacionariedad en el sentido amplio del


proceso estocástico:
X (t) = A cos (2πfc t) .

Solución:

Es fácil notar que µX (t) = 0.


c 2010 – 2016 Christian Oberli 47
Asimismo,

RX (t1 , t2 ) = E A2 cos (2πfc t1 ) cos (2πfc t2 )
σ2
= {cos [2πfc (t1 + t2 )] + cos [2πfc (t1 − t2 )]} .
2
El segundo término cumple con la condición de depender exclusivamente de la
diferencia de tiempo, sin embargo no se puede lograr los mismos resultados para
el primer término, que depende de la suma de tiempos.

Dado que la segunda no se cumple, se deduce que el proceso NO es ESA.

2.1.5. Procesos estocásticos ergódicos

Un proceso estocástico ergódico es tal que sus propiedades estadísticas se pueden obtener
observando el proceso a lo largo del tiempo.

Ejemplo La función de media

µX = E {X (t0 )} con t0 arbitrario,

donde E { } opera sobre todas las realizaciones posibles x (t) de X (t) en t = t0 .

Entonces, el proceso estocástico es ergódico si realizando una observación de una reali-


zación de la función en todo el tiempo puede obtenerse la media:
ˆ T
1
µX = lı́m x (t) dt
T →∞ 2T −T

con x (t) una realización cualquiera del proceso estocástico.

Más formalmente, el valor DC de x (t) se define como el promedio de tiempo:


ˆ T
4 1
µx (T ) = x (t) dt (2.19)
2T −T

Claramente el promedio de tiempo µx (T ) es una variable aleatoria, debido a que su valor


depende del intervalo de observación y los valores que tome el proceso en dicho intervalo.
Como el proceso se asume estacionario, la media del promedio de tiempo µx (T ) está dada


c 2010 – 2016 Christian Oberli 48
por:
ˆ T
1
E {µx (T )} = E {x (t)} dt (2.20)
2T −T
ˆ T
1
= µX dt (2.21)
2T −T
= µX . (2.22)

Por lo tanto, µx (T ) representa un estimador insesgado del promedio µX . Decimos que el


proceso X (t) es ergódico en la media si se cumplen las siguientes condiciones:

lı́m µx (T ) = µX .
T →∞

lı́m Var {µx (T )} = 0.


T →∞

Definimos de forma similar la función de autocorrelación en el tiempo:


ˆ T
4 1
Rx (τ, T ) = x (t + τ ) x (t) dt. (2.23)
2T −T

Este segundo promedio de tiempo debe verse también como una variable aleatoria con media
y varianza propias. Decimos asimismo que el proceso x (t) es ergódico en la función de
autocorrelación si se cumplen las siguientes dos condiciones:

lı́m Rx (τ, T ) = RX (τ ) (2.24)


T →∞
lı́m Var {Rx (τ, T )} = 0, (2.25)
T →∞

evidentemente asumiendo que el proceso es estacionario.

2.1.6. Densidad espectral de potencia

¿Cuál es el contenido de frecuencia de un proceso estocástico? El problema al responderse


esta pregunta es que los procesos estocásticos no son, en general, Fourier-transformables ya
que no satisfacen que su energía sea finita, i.e.
ˆ ∞
|x (t)|2 dt < ∞, (2.26)
−∞

para toda realización x (t). Sin embargo, |x (t)|2 (y por lo tanto x (t)) puede entenderse como
una densidad temporal de energía. La energía total de la señal (en joules) viene dada por:
ˆ ∞ ˆ ∞
2
E= |x (t)| dt = |X (f )|2 df (2.27)
−∞ −∞


c 2010 – 2016 Christian Oberli 49
donde X (f ) es la transformada de Fourier de la realización x (t). De aquí se deduce entonces
que:
  J
|X (f )|2 = . (2.28)
Hz
Definamos entonces una transformada de Fourier de tiempo acotado:
ˆ T
2
X (f ) = x (t) e−j2πf t dt. (2.29)
− T2

Notamos que X (f ) es un proceso estocástico ya que x (f0 ) es una variable aleatoria para todo
f0 puesto que es una suma de las infinitas variables aleatorias x (t) con t entre − T2 y T2 .
 
La potencia espectral promedio del proceso estocástico X (t) ∈ − T2 , T2 en cada frecuen-
cia f está dada por:

(T ) 1 
SX (f, T ) = EX |X (f )|2 (∀f ) , (2.30)
| {z } T | {z }
W energía promedio por Hz
Hz
, determinístico
para una frecuencia f

donde T es el período en el cual fue medida aquella energía.

Definiremos entonces la densidad espectral de potencia (PSD por sus siglas en inglés)
del proceso estocástico X (t) como:
 
(T ) W
SX (f ) = lı́m SX (f, T ) . (2.31)
T →∞ Hz

Puede observarse que esta tiene sentido intuitivo.

Una interpretación física. Para investigar la significancia física de la densidad espectral de


potencia, suponemos que el proceso X (t) pasa a través de un filtro pasabandas ideal centrada
en fc y de ancho ∆f . Se obtiene un filtro como el que se muestra en la siguiente figura:


c 2010 – 2016 Christian Oberli 50
Si ∆f  fc , entonces:

 

E Y2 (t) = E X2 (t) ≈ 2∆f SX (fc ) . (2.32)

f =±fc

Por lo tanto, SX (fc ) representa la densidad de frecuencia de la potencia promedio del proceso
X (t)2 evaluada en la frecuencia f = fc . Se sigue entonces que:
W
[SX (fc )] = . (2.33)
Hz

Teorema de Wiener-Kinchin. A continuación revisaremos un importante teorema que


realiza la conexión entre la función de autocorrelación y la función de densidad espectral de
potencia.

Para el proceso estocástico estacionario en el sentido amplio X (t) se cumple la siguiente


relación:
SX (f ) = F {RX (τ )} (2.34)

Algunas propiedades que se deducen de esta relación son las siguientes:

ˆ ∞
 2

1. RX (0) = E X (t) = SX (f ) df .
| {z } −∞
2
=σX

2. SX (f ) ≥ 0 para todo f (la potencia de mayor o igual que cero). Esto se deduce inme-
diatamente de la deducción realizada anteriormente en la interpretación física, pues la
esperanza dada es siempre positiva.

3. SX (−f ) = SX (f ) (simetría).
Demostración:
Esta propiedad se obtiene sustituyendo −f por f en la ecuación:
ˆ ∞
SX (−f ) = RX (τ ) exp (j2πf τ ) dτ
−∞

Haciendo θ = −τ se tiene que:


ˆ ∞
SX (−f ) = RX (−θ) exp (−j2πf θ) dθ = SX (f )
−∞ | {z }
RX (θ)

que es el resultado deseado.


2
¡Ojo! No del proceso Y (t) . El sistema lo que hace es quedarse con una banda de X (t) por lo que se
contiene información directa de este proceso.


c 2010 – 2016 Christian Oberli 51
2.2. Proceso estocástico a través de un filtro lineal

Este caso es de especial interés para comunicaciones digitales ya que el ruido blanco siempre
es filtrado a la entrada del receptor, y luego en el filtro adaptado. ¿Por qué? Para limitar la
potencia del ruido versus la potencia de la señal.

Consideremos un esquema de recepción como el siguiente:

Hasta aquí se suma ruido térmico

s(t)
+ BPF Demodulador

Amplificador
Lineal (LNA)
w(t)

Figura 2.2: Esquema de recepción de un sistema de comunicaciones.

El receptor tiene una figura de ruido. El ruido térmico de las componentes electrónicos aguas
abajo y w son el problema.

Para propósitos de simplificación, nos interesa estudiar el siguiente caso:

X(t) h(t) Y(t)

Figura 2.3: Transmisión de un proceso estocástico gaussiano a través de un filtro LTI.

donde X (t) es un P.E. ESA y h (t) es un filtro LTI. En particular, nos interesa determinar
µY (t), RY (t1 , t2 ) y SY (f ). Teniendo clara esta caracterización, podemos respondernos la
pregunta: ¿es Y (t) un proceso estocástico ESA?

Para la función de media, notamos que:

µY (t) = E {Y (t)} (2.35)


ˆ ∞ 
=E h (τ ) X (t − τ ) dτ . (2.36)
−∞


c 2010 – 2016 Christian Oberli 52
Dado que la esperanza es un operador lineal, asumimos alternancia entre operadores y
obtenemos así que: ˆ ∞
µY (t) = h (τ ) E {X (t − τ )} dτ. (2.37)
−∞

Dado que X (t) es estacionario en el sentido amplio, entonces:


ˆ ∞
µY (t) = µX h (τ ) dτ (2.38)
−∞
= µX H (0) , (2.39)

y por lo tanto es una constante.

Para la función de autocorrelación, partimos de la definición:

RY (t1 , t2 ) = E {Y (t1 ) Y (t2 )} (2.40)


ˆ ∞ ˆ ∞ 
=E h (τ1 ) X (t1 − τ1 ) h (τ2 ) X (t2 − τ2 ) dτ1 dτ2 (2.41)
ˆ ∞ˆ ∞
−∞ −∞

= h (τ1 ) h (τ2 ) E {X (t1 − τ1 ) X (t2 − τ2 )} dτ1 dτ2 . (2.42)


−∞ −∞ | {z }
=RX (t1 −τ1 −t2 +τ2 )

Haciendo ∆t = t1 − t2 = τ obtenemos así:

RY (t1 , t2 ) = RY (t1 − t2 ) = RY (τ ) . (2.43)

De estas últimas dos observaciones se deduce que Y (t) es estacionario en el sentido amplio.
Podemos aplicar entonces el teorema de Wiener-Kinchin a RY (τ ) para encontrar SY (f ). Por
lo tanto,

SY (f ) = F {RY (τ )} (2.44)
ˆ ∞ˆ ∞ˆ ∞
= h (τ1 ) h (τ2 ) RX (τ − τ1 + τ2 ) e−j2πf τ dτ1 dτ2 dτ (2.45)
ˆ−∞
∞ ˆ ∞
−∞ −∞
ˆ ∞
= h (τ1 ) h (τ2 ) RX (τ − τ1 + τ2 ) e−j2πf τ dτ dτ1 dτ2 (2.46)
−∞ −∞
| −∞ {z }
τ 0 =τ −τ1 +τ2
ˆ ∞ ˆ ∞ ˆ ∞
−j2πf τ1 0
= h (τ1 ) e dτ1 h (τ2 ) e j2πf τ2
dτ2 RX (τ 0 ) e−j2πf τ dτ 0 (2.47)

| −∞ {z } −∞
h(−τ2 )←→H(−f )=H ∗ (f )

= H (f ) H ∗ (f ) SX (f ) . (2.48)

Es decir,
SY (f ) = |H (f )|2 SX (f ) . (2.49)


c 2010 – 2016 Christian Oberli 53
Ejemplo Consideremos ruido blanco transmitido a través de un filtro pasabajos ideal.
¿Cuál será la función de autocorrelación del proceso estocástico a la salida, Rη (τ )?

 
f
w(t) u η(t)
W
 
f
Figura 2.4: Ruido blanco transmitido a través de un filtro BPF ideal H(f ) = u .
W

Solución:

Se tiene que:


W
  
 1, |f | ≤ ,
f 2
H (f ) = u =
W 


0, en otro caso.

N0
W (t) : AWGN con SW (f ) = .
2

Entonces, de la ecuación anterior se tendrá que:


 
N0 N0 N0 f
RW (τ ) = δ (τ ) SW (f ) = −→ Sη (f ) = u
2 2 2 W

y por lo tanto,   
−1 N0 f N0 W
Rη (τ ) = F u = sinc (τ W )
2 W 2
sen (πx)
donde sinc (x) = . Graficando esta función de autocorrelación:
πx


c 2010 – 2016 Christian Oberli 54
De esta figura se observa que el filtro correlaciona al ruido y por lo tanto el período de
muestreo afecta a la potencia transmitida. De acuerdo a la función de autcorrelación
obtenida deducimos de inmediato que la potencia promedio de η (t) es N0 W .

2.3. Ruido térmico (blanco)

El ruido térmico es la fuente más común de ruido en sistemas de comunicaciones. Si bien


existen otros tipos de ruido, no entraremos en detalles al respecto.

El ruido térmico es producido por movimientos aleatorios de electrones en conductores eléc-


tricos.

Una resistencia R a temperatura T Kelvin exhibe un voltaje W (t) en sus bornes como
resultado de aquella cinética. El ruido W (t) es un proceso estocástico gaussiano3 (como
consecuencia del Teorema del Límite Central), de media cero y estacionario.

El estudio de un modelo físico permite llegar a la conclusión de que el ruido térmico puede
modelarse como el siguiente circuito equivalente:

R
+


+
ηT (t) w(t)

Figura 2.5: Modelo equivalente para el ruido térmico.

En este caso la densidad espectral de potencia de la fuente de voltaje está dada por:
3
Un proceso estocástico es gaussiano si X (t) es una variable aleatoria gaussiana para todo t.


c 2010 – 2016 Christian Oberli 55
2Rh |f |
SηT (f ) =   . (2.50)
h |f |
exp −1
kT
donde:

h es la constante de Planck,
m2 · kg
h = 6,62 × 10−34 . (2.51)
s
k es la constante de Boltzmann,
m2 · kg
k = 1,38 × 10−23 . (2.52)
s2 · K
R es la resistencia equivalente de Thévenin.

Podemos notar entonces que:


SηT (f ) ≈ 2kT R para |f | < 1012 Hz. (2.53)
donde 1012 Hz es un rango de frecuencias menor al de la luz visible. Por ello, se concluye que
el modelo clásico para ruido térmico en bornes es el conocido modelo de ruido blanco:
 
N0 W
SW (f ) = . (2.54)
2 Hz

En otras palabras, asumimos que la densidad espectral de potencia del ruido blanco es cons-
tante e igual a N0 /2 en todo el espectro de frecuencias4 . Utilizamos la constante N0 /2 para
indicar que 12 de la potencia se distribuye en f > 0 y el otro 12 de la potencia en f < 0.

Aplicando la transformada de Fourier inversa obtenemos así que:


N0
RW (τ ) = δ (τ ) . (2.55)
2
Por lo tanto, dos muestras cualesquiera de ruido blanco siempre serán independientes, sin
importar su separación en el tiempo.

Modelando un conductor resistivo con ruido con el equivalente de Thévenin y usando el


teorema de máxima transferencia de potencia, encontramos que la máxima cantidad de ruido
térmico que el conductor puede dar en una banda ∆f es:
2kT r · 2∆f
Pmáx (∆f ) = = |{z}
kT ∆f . (2.56)
4R |{z}
W
Hz
=J Hz

4
Por esta razón se conoce como ruido blanco en analogía a la luz: al contener la misma distribución en
todo el espectro de frecuencias, se hace una analogía diciendo que contiene todos los colores y por lo tanto,
es blanco.


c 2010 – 2016 Christian Oberli 56
R


+ ηT2 (t)
ηT (t) Pmáx =
4R

Figura 2.6: Modelo equivalente para el ruido térmico.

N0
pero dicha potencia es también 2∆f = N0 ∆f . Por lo tanto, igualando:
2
 
W
N0 = kT . (2.57)
Hz

 
−21 W
Ejemplo Considerando una temperatura T = 290 K entonces N0 = 4 × 10 .
Hz
 
dBm
−→ N0 = −174 . (2.58)
Hz

Este número es fundamental en ingeniería de comunicaciones (especialmente en comuni-


caciones inalámbricas, ¿por qué?).


c 2010 – 2016 Christian Oberli 57
Resumiendo, el ruido térmico es:

1. Un proceso estocástico gaussiano (por Teorema del Límite Central).

2. µW = 0.

3. Estacionario.

4. Blanco, es decir:  
N0 dBm
SW (f ) = = −174
2 Hz
Y por lo tanto,
N0
RW (τ ) = δ (τ )
2
y no existe correlación en el tiempo.

5. Aditivo, pues es la superposición del movimiento aleatorio de electrones con mo-


vimiento de electrones causado por señal determinística en el conductor.

Finalmente, el modelo equivalente que consideraremos para el ruido blanco en esquemas


de procesamiento de señales será el siguiente:

s(t)
+ r(t)

w(t)

Figura 2.7: Modelo equivalente para el ruido blanco gaussiano aditivo (AWGN).

2.4. Propiedades de los procesos estocásticos gaussianos

1. Si un proceso estocástico gaussiano es aplicado a un filtro lineal estable, entonces el


proceso estocástico observado a la salida del filtro también es gaussiano.


c 2010 – 2016 Christian Oberli 58
X(t) h(t) Y(t)

En otras palabras, en términos de la figura:

X (t) gaussiano y h (t) estable −→ Y (t) gaussiano

2. Cualquier conjunto de N muestras X (t1 ) , . . . , X (tn ) de un proceso estocástico gaus-


siano es un conjunto de N variables aleatorias gaussianas cuya densidad conjunta está
completamente definida por:

µX(ti ) = E {X (ti )} , con i = 1, . . . , N (2.59)


  
CX (tk , ti ) = E X (tk ) − µX(tk ) X (ti ) − µX(ti ) . (2.60)

3. Si CX (tk , ti ) = 0 para todo i 6= k, entonces todas las variables aleatorias X (ti ) son
estadísticamente independientes.

4. Un proceso estocástico gaussiano estacionario en el sentido amplio es estacionario en


sentido estricto.


c 2010 – 2016 Christian Oberli 59
Capítulo 3 Comunicaciones digitales en banda base

3.1. Introducción

Olvidemos temporalmente el uso de portadoras y enfoquémonos en el problema de transmitir


una señal digital en banda base. En primer lugar, nos preguntamos: ¿por qué transmitir
información digital? Los beneficios son:

Mucha de la información hoy en día es de naturaleza digital.

Posibilidad de multiplicación.

Formato común para utilizar un mismo medio para transmitir información de origen
muy variado (voz, datos, vídeo, sensores).

Mayor eficiencia energética y espectral producto de posibilidad de compresión y detec-


ción / corrección de errores.

Si la fuente de información es analógica, asumiremos que la conversión A/D tiene un fil-


tro anti-aliasing, muestreo, cuantización y compresión tal como se muestra en el siguiente
esquema:

T
LPF ZIP {z · ·}·
|1001101101
{bn }
Muestreador 1
Filtro anti– Compresor p2 = p 1 =
2
aliasing Cuantizador

Figura 3.1: Conversión análogo–digital en un sistema de comunicaciones.

Es fundamental entender que la transmisión de información digital se realiza con señales


analógicas, ya que los “medios digitales” no existen. El medio siempre es una entidad del
mundo real, que se rige por leyes de la física y por ende opera en tiempo y frecuencia
continua. Es por ello que la transmisión de un mensaje digital requiere que el mensaje binario
sea asociado de alguna forma a una señal analógica.


c 2010 – 2016 Christian Oberli 60
Ejemplo Transmisión binaria conocida como NRZ (non-return to zero). A cada símbolo
asociamos un pulso de voltaje dado por:

m=0

Entonces, es claro que:  


t − 12 Tb
s0 (t) = u . (3.1)
Tb
m=1

Análogamente,  
t − 12 Tb
s1 (t) = − u . (3.2)
Tb

En general, ambas señales pueden ser expresadas como:


 
m t − 21 Tb
sm (t) = (−1) u con m ∈ {0, 1} . (3.3)
Tb

Una secuencia de bits {bn } genera la siguiente señal a transmitir:



X
s (t) = sn (t) , (3.4)
n=−∞


c 2010 – 2016 Christian Oberli 61
donde sn (t) es la señal del n−ésimo bit y puede tomar la forma s0 (t − nTb ) ó s1 (t − nTb ).
Luego,

X
s (t) = sbn (t − nTb ) , (3.5)
n=−∞

"  #
X t− n+ 1
Tb
= (−1)bn u 2
. (3.6)
n=−∞
Tb

De esta forma, puede hacerse una conversión entre mensaje digital y señal analógica tal
como se describe en el siguiente esquema:

Figura 3.2: Equivalencia análogo digital entre dos señales.

Normalización por la energía. Es común dejar normalizados los pulsos anteriores en


términos de su energía por bit Eb , de modo que:
r  
Eb t − 12 Ts
sb (t) = u
Ts Ts

Tomando la energía de esta señal:


ˆ ∞
Eb
E {sb (t)} = |sb (t)|2 dt = × Ts = Eb
−∞ Ts

Es decir, realizando esta normalización la energía del pulso corresponde efectivamente a


Eb .

Existen muchísimas formas de asociar bits con señales, pero algunas son mejores que otras.
El campo de las comunicaciones digitales trata acerca de diseñar y evaluar todas esas alter-
nativas.

3.2. Receptor óptimo binario

Basado en el estudio anterior, observamos que nuestro sistema de comunicaciones digitales


de banda base tiene la siguiente estructura:


c 2010 – 2016 Christian Oberli 62
Figura 3.4: Ejemplo de señal ruidosa. Arriba la señal determinística y abajo la señal deter-
minística con AWGN agregado.

s(t) r(t)
{bn } Modulador Canal + Demodulador {b̂n }

w(t)

Figura 3.3: Estructura de comunicaciones en banda base.

Respecto a cada uno de los elementos de este esquema pueden realizarse los siguientes obser-
vaciones:

Modulador: mapea símbolos a señales según lo estudiado.

Canal: por ahora se modela ideal, con salida s (t).


n o
Demodulador: obtiene la secuencia de bits b̂n detectados, puede contener errores.

La pregunta es: ¿qué forma tiene el demodulador? Recibe la señal analógica con ruido y debe
decidir qué simpolo representa. En el ejemplo binario anterior:

¿Cómo determinar si esta señal resultante, con el ruido aditivo agregado, se parece más a un
0 ó a un 1? ¿Cuál es el procesador óptimo para señales analógicas deterioradas por ruido
aditivo blanco gaussiano, tal que la probabilidad de error en la salida sea mínima?

La estructura óptima que se propone es la siguiente:


c 2010 – 2016 Christian Oberli 63
x0 (t) T x0 [n]
h0 (t) +

s(t) c0 b̂n
+ r(t) máx

x1 (t) T x1 [n]
w(t) h1 (t) +

c1

Figura 3.5: Receptor óptimo para una señal binaria.

Estudiaremos el receptor óptimo etapa por etapa. Los filtros h0 (t) y h1 (t) se conocen como
filtros adaptados a los pulsos s0 (t) y s1 (t).

3.2.1. Filtros adaptados

Los filtros adaptados para s0 (t) y s1 (t) tienen una respuesta al impulso estrechamente ligada
a esas mismas señales. En efecto, se puede deducir que, buscando condiciones de optimalidad
para el filtro:
hFA,m (t) = sm (Tb − t) . (3.7)
Es decir, el filtro adaptado es un filtro cuya respuesta al impulso es la imagen tiempo–invertida
de la señal a detectar.

Figura 3.6: Ejemplo de filtro adaptado para una señal dada donde s (t) es la señal y hFA (t)
su filtro adaptado.

En el ejemplo binario tendríamos:


c 2010 – 2016 Christian Oberli 64
Figura 3.7: Ejemplo de filtros adaptados para el caso binario NRZ. A la derecha las señales
originales y a la izquierda sus respectivos filtros adaptados.

3.2.2. Muestreo en Tb

De acuerdo a la figura expuesta notamos que para los pulsos NRZ como si (f ) = −s0 (f ),
entonces el filtro adaptado 1 tiene un desfase de π con respecto al filtro adaptado 0.

Veamos qué pasa si se transmite un cero y asumimos que por ahora no existe transmisión de
ruido (i.e. w (t) ≡ 0). Luego, r (t) = s0 (t), y por lo tanto:

x0 (t) = r (t) ∗ hFA,0 (t) = s0 (t) ∗ s0 (Tb − t) (3.8)


ˆ Tb
= s0 (t − τ ) s0 (Tb − τ ) dτ. (3.9)
0

Es decir, gráficamente estamos obteniendo la siguiente convolución:


c 2010 – 2016 Christian Oberli 65
Figura 3.8: Resultado de la convolución gráfica para la primera entrada del filtro adaptado.

Se observa que:
x0 (Tb ) = A2 Tb
Es decir, el máximo valor de la función se alcanza efectivamente en el instante de muestreo.

Similarmente,

x1 (t) = r (t) ∗ hFA,1 (t) (3.10)


= s0 (t) ∗ s1 (Tb − t) (3.11)
= s0 (t) ∗ [−s0 (Tb − t)] (3.12)
= −x0 (t) . (3.13)

Gráficamente, la convolución obtenida en este caso es:

Figura 3.9: Resultado de la convolución gráfica para la segunda entrada del filtro adaptado.

De forma análoga, concluimos que:

x1 (Tb ) = −A2 Tb . (3.14)


c 2010 – 2016 Christian Oberli 66
3.2.3. Constantes cm

Cuando los ceros y unos son equiprobables, se escogen las constantes:


ˆ
4 1 ∞ 2 1
cm = − sm (t) dt = − Eb,m . (3.15)
2 −∞ 2

En el caso binario NRZ que hemos estado estudiando:

1
c0 = c1 = − A2 Tb . (3.16)
2

3.2.4. Dispositivo de decisión

Las entradas al dispositivo de decisión son x0 (Tb ) + c0 y x1 (Tb ) + c1 . Para el ejemplo de


pulsos binarios, la señal de entrada que estaremos recibiendo es:

1
x0 (Tb ) − A2 Tb
2
máx
1
−x0 (Tb ) − A2 Tb
2

Figura 3.10: Entradas al dispositivo de decisión.

El dispositivo decide 0 ó 1 según cuál de las entradas es mayor:


0
x0 (Tb ) + c0 ≷ −x0 (Tb ) + c1 . (3.17)
1

Para el caso NRZ, notamos que las constantes se cancelan:

1 2 0 1 2
x0 (Tb ) −A Tb ≷ −x0 (Tb ) −A Tb . (3.18)
2 1 2

Si se transmite un cero:


x0 (Tb ) = A2 Tb Como A2 TB > −A2 Tb se decide en favor de 0.

−x0 (Tb ) = −A2 Tb


c 2010 – 2016 Christian Oberli 67
3.2.5. Consideraciones de funcionamiento del receptor óptimo

Con este entendimiento básico del receptor óptimo, nos centraremos en tres aspectos:

1. ¿Puede ser simplificado el receptor óptimo?

2. ¿Cómo opera el receptor óptimo cuando se transmite más de un bit?

3. ¿Qué pasa cuando hay ruido?

Revisemos el siguiente ejemplo:

Ejemplo Consideremos la transmisión de los siguientes pulsos:

Figura 3.11: Entradas a considerar para el ejemplo.

Supongamos asimismo que se transmite un cero e ignoremos el efecto del ruido. Estu-
diemos el comportamiento del filtro adaptado al tomar decisiones.

Solución:

Entonces,
x0 (t) = s0 (t) ∗ h0 (t) = s0 (t) ∗ s0 (T − t) . (3.19)
Gráficamente, esta señal de salida se observa como:


c 2010 – 2016 Christian Oberli 68
Figura 3.12: Salida del primer filtro adaptado.

Análogamente, se deduce la siguiente gráfica para x1 (t):

Figura 3.13: Salida del segundo filtro adaptado.

Las constantes c0 y c1 son:


ˆ
1 1
c0 = − s20 (t) dt = − A2 T (3.20)
2 2
ˆ
1 1
c1 = − s21 (t) dt = − k 2 A2 T. (3.21)
2 2


c 2010 – 2016 Christian Oberli 69
Así, el dispositivo de decisión compara y escoge:
 
2 1 2 2 1 2 2
máx {x0 (T ) + c0 ; x1 (T ) + c1 } = máx A T − A T ; k AT − k A T
2 2
   
1 2 k
= máx A T ; k 1− A2 T
2 2
1
Ejemplo: tomando k = −
  2
1 5
= máx ; − .
2 8

El receptor declara entonces un cero y observamos que la decisión es correcta para todo
k ∈ R\ {1}.

En caso de ser transmitido un 1, el criterio de decisión es:


   
2 1 2 2 2 1 2 2 1 k2
máx kA T − kA T ; k A T − k A T = máx k − ;
2 2 2 2
1
Ejemplo: tomando k = −
  2
1
= máx −1 ; .
8

Nuevamente vemos que la decisión es correcta (y lo es para todo k ∈ R\ {1}).

3.2.6. Simplificación del receptor

Sigamos trabajando el ejemplo anterior. Comparemos x0 (T ) con x1 (T ).





x0 (T ) = s (t) ∗ h0 (t) , (3.22)

t=T

donde s (t) puede ser s0 (t) ó s1 (t). Luego, considerando que estamos trabajando con un pulso
NRZ, la integral de convolución cambia sus extremos de integración de 0 a T y por lo tanto:
ˆ t


x0 (T ) = s (τ ) h0 (t − τ ) dτ (3.23)
0
t=T
ˆ t

= s (τ ) s0 (T − t + τ ) dτ (3.24)
0
t=T
ˆ T
= s (τ ) s0 (τ ) dτ. (3.25)
0


c 2010 – 2016 Christian Oberli 70
Análogamente,
x1 (T ) = s (t) ∗ h1 (t) (3.26)
= ··· (3.27)
ˆ T
= s (τ ) s1 (τ ) dτ. (3.28)
0

Supongamos que s1 es proporcional a s0 . En dicho caso, s1 (t) = ks0 (t) y por lo tanto:
ˆ T
x1 (t) = k s (τ ) s0 (τ ) dτ (3.29)
0
= kx0 (T ) . (3.30)
Así, siempre que los pulsos s0 (t) y s1 (t) sean linealmente dependientes, las salidas de los
filtros adaptados en t = T también lo serán. Por lo tanto, basta con usar un solo filtro (usar
dos no agrega información para la decisión.

El receptor simplificado es el siguiente (usando filtro adaptado a s0 (t)):

T
s(t) + h0 (t) b̂n

w(t)

Figura 3.14: Receptor simplificado usando filtro adaptado a s0 (t).

Luego, se tendrá que:


(
1 A2 T, si se transmite un 0,
x0 (T ) = x1 (T ) = (3.31)
k kA2 T, si se transmite un 1.

La decisión se tomará entonces de acuerdo a:


1 
x0 (T ) + c0 > kx0 (T ) + c1 −→ x0 (T ) (1 − k) > A2 T 1 − k 2
2
Si suponemos que k < 1, entonces:
1
x0 (T ) > A2 T (1 + k)
2
Es decir, si k < 1, el dispositivo de decisión declara:


c 2010 – 2016 Christian Oberli 71
 
2 1+k
0 si x0 (T ) ≥ A T ,
2
 
2 1+k
1 si x0 (T ) < A T .
2

1 1
Se observa que la frontera de decisión es , alcanzada cuando k = − .
4 2

Ejemplo Consideremos la transmisión de los siguientes pulsos:

Figura 3.15: Ejemplo de transmisión de pulsos proporcionales.

Entonces, escribiendo analíticamente las expresiones:


 
t − 12 Tb
hFA,0 (t) = A u (3.32)
Tb
 
t − 21 Tb
hFA,1 (t) = B u . (3.33)
Tb

Consideremos asimismo el receptor óptimo ya estudiado y los siguientes supuestos:

1. El receptor sabe que es ya sea s0 (t) ó s1 (t), equiprobables.

2. El receptor está perfectamente sincronizado al transmisor.

3. w (t) ≡ 0.

¿Es capaz el receptor óptimo de tomar la decisión correcta?


c 2010 – 2016 Christian Oberli 72
Solución:

Supongamos que se transmite s0 (t). Entonces,

x0 (t) = s0 (t) ∗ hFA,0 (t) (3.34)


 
2 t − Tb
= A Tb ∧ . (3.35)
Tb

Asimismo,

x1 (t) = s0 (t) ∗ hFA,1 (t) (3.36)


 
t − Tb
= ABTb ∧ . (3.37)
Tb

También,
ˆ
1 Tb 2 A2
c0 = − s0 (t) dt = − Tb (3.38)
2 0 2
ˆ Tb
1 B2
c1 = − s21 (t) dt = − Tb . (3.39)
2 0 2
Distinguimos así tres casos:

Caso I

Entonces, la decisión se toma en base a:


   2 
2 A2 B2 A B2
máx A Tb − Tb , ABTb − Tb = máx , AB − . (3.40)
2 2 2 2
| {z }
¡Tb es irrelevante!

La pregunta subsecuente es:


A2 B2
¿ R AB − ?. (3.41)
2 2
Pero la expresión anterior es equivalente a preguntarse:

¿A2 − 2AB + B 2 R 0? ←→ ¿ (A − B)2 R 0?. (3.42)

Por axiomática real, deducimos que siempre:

A2 B2
≥ AB − . (3.43)
2 2


c 2010 – 2016 Christian Oberli 73
Entonces, siempre se escoge el cero, para cualquier valor de A y B, salvo en la igualdad,
cuyo caso es trivial pues los símbolos a transmitir serían iguales y no habrían comunica-
ciones.

Por lo tanto, con el receptor óptimo formulado con constantes, la decisión siempre es
correcta (en ausencia de ruido).

Caso II

¿Qué pasa si no se usan las constantes c0 y c1 ? Entonces la decisión se toma en base a:


 
máx A2 Tb , ABTb = máx A2 , AB . (3.44)

A modo de ejemplo, si 0 < A < B, entonce se decide erróneamente a favor de 1.

Caso III

Supongamos que B = −A. Entonces la decisión se basa en:


   
2 A2 Tb B2 2 A2 2 A2
máx A Tb − , ABTb − Tb = máx A Tb − Tb , −A Tb − Tb (3.45)
2 2 2 2

= máx A2 , −A2 . (3.46)

Se observa claramente que Tb y ci son irrelevantes en este caso.

En el ejemplo binario NRZ notamos que siempre se tiene x1 (t) = −x0 (t) puesto que s1 (t) =
−s0 (t) y por ende hFA,0 (t) = −hFA,0 (t). Por ello, la detección se puede hacer usando un solo
4
filtro adaptado dado por hFA (t) = hFA,0 (t).

También notamos que c0 = c1 las hace irrelevantes para la decisión, y así las despreciamos.
El receptor óptimo toma entonces la siguiente forma:

x(t) T
r(t) hFA (t) b̂n

Figura 3.16: Receptor óptimo simplificado para la transmisión de símbolos NRZ.


c 2010 – 2016 Christian Oberli 74
Más aún, en vez de tomar el máximo podemos evaluar el signo de la expresión, de modo que:
(
0, si x (Tb ) ≥ 0,
b̂n = (3.47)
1, si x (Tb ) < 0.

3.2.7. Transmisión de una secuencia de bits

Veamos qué pasa si en vez de transmitir un bit aislado se transmite una secuencia {bn }
determinada. Para el caso binario estudiado hasta ahora, determinaremos analíticamente el
resultado obtenido al ingresar una secuencia de bits de la forma,

"  #
X t − n + 1
Tb
s (t) = A2 (−1)bn u 2
. (3.48)
n=−∞
Tb

El filtro adaptado normalizado por su energía corresponde a:

s0 (t) s0 (t)
hFA (t) = ˆ ∞ =√ 2 . (3.49)
A Tb
s20 (τ ) dτ
−∞

Se tiene asimismo que:

x (t) = s (t) ∗ hFA (t) (3.50)


ˆ ∞
= s (τ ) hFA (t − τ ) dτ. (3.51)
−∞

Reemplazando con la entrada:


ˆ ∞
"  #  
A ∞ X τ − n+bn
1
Tb t − τ − 12 Tb
2
x (t) = √ (−1) u u dτ. (3.52)
Tb −∞ n=−∞ Tb Tb

Alternando operadores tenemos que:


(2)
∞ ˆ "  #z  }| {
A X ∞
τ − n+ 1
Tb t − τ − 12 Tb
x (t) = √ (−1)bn u 2
u dτ. (3.53)
Tb n=−∞ −∞ Tb Tb
| {z }
(1)

Observamos que:

El término (1) es distinto de cero para todo τ ∈ [nTb , (n + 1) Tb ].

El término (2) es distinto de cero para todo τ ∈ [t − Tb , t].


c 2010 – 2016 Christian Oberli 75
Juntando estos dos hechos, tendremos que:
ˆ ∞ "  #    
τ − n + 21 Tb t − τ − 21 Tb t − (n + 1) Tb
u u dτ = Tb ∧ , (3.54)
−∞ Tb Tb Tb
(
|t| , si t ∈ [−1, 1] ,
donde ∧ (t) = Así,
0, si t 6∈ [−1, 1] .

p X ∞  
bn t − (n + 1) Tb
x (t) = A Tb (−1) ∧ . (3.55)
n=−∞
Tb

Con el propósito de comprender gráficamente el resultado de esta convolución, revisemos el


siguiente ejemplo:

Ejemplo Consideremos la siguiente secuencia de bits:

{bn } = 10110

Entonces, la señal recibida es:

Figura 3.17: Secuencia de bits codificada en la señal recibida.

Convolucionando gráficamente con el filtro adaptado normalizado obtenemos:


c 2010 – 2016 Christian Oberli 76
Figura 3.18: Resultado de la convolución gráfica con el filtro adaptado, paso a paso.

3.3. Probabilidad de error

Consideremos ahora el receptor óptimo bajo ruido blanco:


c 2010 – 2016 Christian Oberli 77
r(t) x(t) Tb x(Tb )
s(t) + F.A. b̂n

w(t)

Figura 3.19: Receptor simplificado usando filtro adaptado a s0 (t) y considerando la adición
de ruido blanco gaussiano.

Desde luego, x (Tb ) ahora es una observación ruidosa, lo cual conlleva una probabilidad de
cometer un error de decisión. ¿Cuál es la probabilidad de error? Hay dos errores posibles:

Error de tipo I: Se declara un 1 cuando un 0 fue transmitido. Esta probabilidad la


denotaremos por:
P (D1 | 0)

Error de tipo II: Se declara un 0 cuando un 1 fue transmitido. Esta probabilidad la


denotaremos por:
P (D0 | 0)

La probabilidad de error de bit, denotada por Pb , tiene entonces la siguiente forma general:

Pb = p0 · P (D1 | 0) + p1 · P (D0 | 1) . (3.56)

Supongamos que un 0 fue transmitido y determinemos P (D1 | 0). De la figura,





x (Tb ) = r (t) ∗ hFA (t) (3.57)

t=Tb



= [s0 (t) + w (t)] ∗ hFA (t) (3.58)

t=Tb



= s0 ∗ hFA (t) + w (t) ∗ hFA (t) . (3.59)

t=Tb t=Tb

Asumiendo NRZ con la siguiente señal, su filtro adaptado y función de autcorrelación:


c 2010 – 2016 Christian Oberli 78
Figura 3.20: Señal enviada, su filtro adaptado y función de autocorrelación empleadas para
el cálculo de probabilidad de error.

Tenemos que:
hFA (t−τ )
ˆ ∞ z }| {
1
t − τ − 2 Tb
x (Tb ) = A2 Tb + A w (τ ) u dτ (3.60)
−∞ Tb
ˆ Tb
2
= A Tb +A w (τ ) dτ. (3.61)
| {z } 0
(∗)

El paso crucial para evaluar Pb es reconocer que x (Tb ) es una variable aleatoria gaussiana,
ya que x (t) es un proceso estocástico gaussiano y x (Tb ) una muestra de dicho proceso. Por
lo tanto, basta con determinar la media y varianza de x (Tb ) para conocer su distribución. En
efecto,

µX|0 = E {x (Tb ) | 0} (3.62)


ˆ Tb
2
= A Tb + A E {w (τ )} dτ (3.63)
0
= A2 Tb . (3.64)


c 2010 – 2016 Christian Oberli 79
pues E {w (τ )} = 0. Análogamente,
n 2 o
2
σX|0 = E x (Tb ) − µX|0 |0 (3.65)
 ˆ Tb 
2 2
= E A Tb + A w (τ ) dτ − A TB (3.66)
0
 ˆ Tb ˆ Tb 
2
=E A w (τ1 ) dτ1 w (τ2 ) dτ (3.67)
0 0
ˆ Tb ˆ Tb
2
A E {w (τ1 ) w (τ2 )} dτ1 dτ2 . (3.68)
0 0
| {z }
N0
RW (τ1 ,τ2 )= 2
δ(τ1 −τ2 )

Es decir, ˆ ˆ
Tb Tb
2 2 N0
σX|0 =A δ (τ1 − τ2 ) dτ1 dτ2 . (3.69)
2 0 0
Recordando que la función impulso integral 1 para τ1 = τ2 , entonces:
ˆ Tb ˆ Tb ˆ Tb
δ (τ1 − τ2 ) dτ1 dτ2 = dτ2 , (3.70)
0 0 0
y por lo tanto,
2 N0 N0 2
σX|0 = A2
Tb = A Tb , (3.71)
2 2
donde A2 Tb es la energía del filtro adaptado y del pulso, i.e. definimos Eb = A2 Tb . En
consecuencia, la densidad de probabilidad de x (Tb ) dado que se transmitió un 0 es:
( )
2
1 (x − A2 Tb )
fX (x | 0) = p exp − . (3.72)
2π N0/2 A2 Tb N0

Notamos que se declara un 1 cuando x (Tb ) < 0, por lo que graficando la función de densidad
probabilística y achurando el área correspondiente:

Figura 3.21: Función de densidad probabilística asociada a x (Tb ) así como el área que
denota la probabilidad de cometer error de tipo I.


c 2010 – 2016 Christian Oberli 80
Entonces,
 
1 1 x − A2 Tb
P (D1 | 0) = + erf √ (3.73)
2 2 A2 T N0
 s  x=0
1 1 A2 T 
= + erf − (3.74)
2 2 N0
r !
1 1 Eb
= − erf , (3.75)
2 2 N0

donde de la segunda ecuación a la tercera utilizamos la propiedad de la función error:

erf (−x) = − erf (x) . (3.76)

Análogamente, podemos determinar que para P (D0 | 1) se tendrá que:


 
2 N0 2
D0 | 1 ∼ N −A Tb , A Tb . (3.77)
2
Se declarará un 1 si x (Tb ) > 0, por lo que gráficamente:

Figura 3.22: Función de densidad probabilística asociada a x (Tb ) así como el área que
denota la probabilidad de cometer error de tipo II.

Es decir,
" r !#
1 1 Eb
P (D0 | 1) = 1 − + erf (3.78)
2 2 N0
r !
1 1 Eb
= − erf . (3.79)
2 2 N0


c 2010 – 2016 Christian Oberli 81
Finalmente, de esta forma,
1 1
Pb = P (D1 | 0) + P (D0 | 1) (3.80)
2 2
r !
1 1 Eb
= − erf (3.81)
2 2 N0

Obtenemos así la probabilidad de error de bit de transmisión binaria NRZ en banda


base:
r !
1 Eb
Pb = erfc (3.82)
2 N0

Pueden realizarse los siguientes comentarios:

Eb
1. N0
se conoce como la razón señal a ruido (SNR), entre la energía de un símbolo y la
potencia del ruido.

2. La Pb solo depende de la SNR en relación directa. Es decir,

Si Eb aumenta, entonces Pb disminuye.


Si N0 aumenta, entonces Pb aumenta.

Esta relación puede graficarse como sigue:


c 2010 – 2016 Christian Oberli 82
Figura 3.23: Relación entre la razón señal a ruido y la probabilidad de error en escala log–
log. Esta curva no es otra cosa que el complemento de la función de acumulación gaussiana
en escala logarítmica.

3. Se puede realizar una representación del dispositivo de decisión junto a las señales que
recibe y los valores que estas pueden tomar de acuerdo a la distribución de probabili-
dades. Esto se muestra en la siguiente figura:


c 2010 – 2016 Christian Oberli 83
Tb x(TB )
b̂n

Figura 3.24: Dispositivo de decisión junto a señales que recibe y valores que puede tomar
de acuerdo a las distribuciones de probabilidades.

Se observa que existen dos regiones de decisión.


4. El bosquejo de arriba se conoce como el espacio de señales.

(*) Si el filtro adaptado fuera normalizado por su energía, entonces:


ˆ ∞


(∗) = s0 (τ ) hFA (t − τ ) dτ (3.83)
−∞
t=Tb
ˆ ∞
= s0 (τ ) hFA (Tb − τ ) dτ (3.84)
−∞
ˆ ∞
s0 (τ )
= s0 (τ ) sˆ dτ (3.85)
−∞ ∞
s20 (τ 0 ) dτ 0
−∞
ˆ ∞
s20 (τ ) dτ
= sˆ−∞ . (3.86)

s20 (τ 0 ) dτ 0
−∞

Notando que las variables de integración son mudas, entonces:



∞ p p
(∗) = s20 (τ ) dτ = A2 Tb = Eb . (3.87)
−∞

Lo cual es lógico por:


c 2010 – 2016 Christian Oberli 84
la relación entre s0 (t) y hFA (t).
porque hFA (t) tiene energía 1, lo cual no altera la señal filtrada.

3.4. Optimalidad del filtro adaptado

3.4.1. Demostración de optimalidad

La optimalidad del filtro adaptado consiste en que maximiza la razón señal a ruido de los
estadísticos de entrada al dispositivo de decisión (¡no existe otra forma de procesar las señales
recibidas para mejorar la SNR aún más!).

En consecuencia, si la razón señal a ruido es máxima (para todos los estadísticos, forma
general del receptor óptimo), la probabilidad de error resulta mínima.

La SNR máxima está dada por:


ˆ ∞
2
ηmáx = ηFA = |s (f )|2 df. (3.88)
N0 −∞

Demostración:

Una forma de describir el requerimiento es exigir que la potencia instantánea de x (t) medida
en t = T sea tan grande como se pueda comparada a la potencia promedio del ruido de salida
n (t). En otras palabras, el receptor debe maximizar el SNR de pulso peak:
|x (T ) |2
η= (3.89)
E {n2 (t)}
Entonces, expandiendo ambos términos en términos de sus contenidos espectrales:
ˆ ∞

H (f ) S (f ) exp (j2πf T ) df

η = −∞ ˆ ∞ , (3.90)
SN (f ) df
−∞

N0
pero SN (f ) = |H (f ) |2 . Por lo tanto,
2
ˆ ∞

H (f ) S (f ) exp (j2πf T ) df

2 −∞
η= ˆ ∞ . (3.91)
N0 2
|H (f ) | df
−∞

Nuestro problema es encontrar, dada G (f ), la forma particular de la respuesta en frecuencia


de H (f ) de modo de hacer η máximo.

Haremos uso del siguiente teorema como lema de esta demostración:


c 2010 – 2016 Christian Oberli 85
Teorema: (Desigualdad de Schwarz) Si tenemos dos funciones φ1 (x) y φ2 (x) de variable
real x, satisfaciendo las condiciones
ˆ ∞ ˆ ∞
2
|φ1 (x) | dx < ∞ y |φ2 (x) |2 dx (3.92)
−∞ −∞

Entonces,
ˆ 2 ˆ  ˆ 
∞ ∞ ∞
φ1 (x) φ2 (x) dx ≤ 2
|φ1 (x) | dx 2
|φ2 (x) | dx . (3.93)

−∞ −∞ −∞

La igualdad se alcanza si y solo si φ1 (x) = kφ∗2 (x).

Aplicando el teorema anterior, haciendo φ1 (f ) = H (f ) y φ2 (f ) = S (f ) exp (j2πf T ) se


tendrá que:
ˆ ∞ ˆ ∞
2
|H (f ) | df |S (f ) |2 df ˆ ∞
2 −∞ 2
η≤ ˆ ∞ −∞
= |S (f ) |2 df. (3.94)
N0 2 N0 −∞
|H (f ) | df
−∞

El máximo se alcanzará entonces cuando:


ˆ ∞
2
ηmáx = |S (f ) |2 df . (3.95)
N0 −∞

De acuerdo a la desigualdad de Schwarz, la igualdad se alcanzará cuando:


Hopt (f ) = kS ∗ (f ) exp (−j2πf T ) . (3.96)
Luego, ˆ ∞
hopt (t) = k S ∗ (f ) exp [−j2πf (T − t)] df. (3.97)
−∞

Si la señal es real, entonces S ∗ (f ) = S (−f ) y por lo tanto,


ˆ ∞
hopt (t) = k S (−f ) exp [−j2πf (T − t)] df (3.98)
ˆ ∞
−∞

= k S (f ) exp [j2πf (T − t)] df (3.99)


−∞
= ks (T − t) . (3.100)
Entonces, el filtro óptimo, es una versión retrasada y dada vuelta de la señal s (t), esto es,
adaptada a la señal de entrada: ¡el filtro adaptado!. Un filtro LTI definido de esta forma
se conoce como filtro adaptado. El supuesto inherente realizado en esta deducción sobre el
ruido de entrada w (t) es que es estacionario, blanco, de media cero y densidad espectral de
potencia N0 /2 y ningún supuesto se ha realizado sobre las estadísticas del ruido de canal
w (t). 


c 2010 – 2016 Christian Oberli 86
Importante: Debe considerarse que para la optimalidad determinada se están realizan-
do los siguientes supuestos bajo los cuales el filtro adaptado es el receptor óptimo:

1. Ruido blanco aditivo gaussiano (AWGN).

2. Canal ideal: es decir, s (t) aparece sin distorsión en la antena de recepción.

3. No hay correlación entre bits sucesivos.

3.4.2. Respuesta en frecuencia

Estudiemos la respuesta de frecuencia de un filtro adaptado para entender mejor cómo opera.
En efecto,

HFA,m (f ) = F {hFA,m (t)} (3.101)


= F {sm (Tb − t)} (3.102)
= e−j2πf Tb S (−f ) . (3.103)

Puesto que sm (f ) son reales, sabemos que |S (−f )| = |S (f )|5 . Por lo tanto,

|HFA,m (f )| = |S (f )| . (3.104)

Volviendo al ejemplo binario, graficamos las respuestas en frecuencia de cada uno de los
elementos de esta etapa:
5
Recuerde el lector que la transformada de Fourier de una señal real es hermítica.


c 2010 – 2016 Christian Oberli 87
Figura 3.25: Gráficos de las respuestas en frecuencia para la señal, su filtro adaptado y la
función de autcorrelación del ruido.

N0
El ruido w (f ) tiene la energía repartida parejamente en todo el espectro pues SW (f ) = 2
mientras que la señal no pues S0 (f ) = ATb sinc (f Tb ) e−jπf Tb .

Por lo tanto, el filtro adaptado está adaptado a la señal tal que permita pasar frecuencias
donde la señal es fuerte con respecto al ruido y atenúa las frecuencias donde hay poca señal
y sólo ruido.

Asimismo, podemos entender el filtro adaptado como la operación de correlación:


ˆ ∞
x (t) = s (τ ) hFA (t − τ ) dτ (3.105)
ˆ ∞
−∞

= s (τ ) s [T − (t − τ )] dτ. (3.106)
−∞

Haciendo T 0 = T − t obtenemos que:


ˆ ∞
x (t) = s (τ ) s (T 0 + τ ) dτ, (3.107)
−∞

lo cual efectivamente una correlación. Haciendo t = T obtenemos que:


ˆ ∞
x (T ) = s2 (τ ) dτ. (3.108)
−∞


c 2010 – 2016 Christian Oberli 88
3.5. Transmisión M −aria

Como extensión de la transmisión anterior, podemos agrupar los bits de la señal transmitida
en grupos de log2 M bits para formar símbolos. Este proceso se conoce como transmisión
M −aria. En general, si el alfabeto tiene M símbolos posibles, las tuplas binarias son de
log2 (M ) bits.

Ejemplo Sistema 16–ario. En este caso, M = 16 −→ log2 M = 4. Podemos generar la


siguiente tabla para el mensaje 0100101101111001:

Mensaje: 0100
|{z} 1011
|{z} 0111
|{z} 1001
|{z}
Símbolos: =4 = 11 =7 =9
Señales: s4 (t) s11 (t) s7 (t) s9 (t)

A modo de ejemplo, podemos utilizar los siguientes símbolos:

Figura 3.26: Señales de ejemplo para una transmisión M −aria.

Cualquier grupo de 16 señales es válido.

Sin embargo, hay grupos con mejores características que otros, tales como:

• Características espectrales.
• Energéticas.


c 2010 – 2016 Christian Oberli 89
• Probabilidad de error.

3.5.1. Modulación de Amplitud de Pulso (PAM)

En la transmisión M −PAM (Pulse Amplitud Modulation) se utiliza un pulso base ϕ (t) de


energía 1 y cada uno de los M símbolos se obtiene al hacer variar la amplitud del pulso.
Consideremos para nuestro estudio el pulso base:
 
1 t − T /2
ϕ (t) = √ u −→ E {ϕ (t)} = 1. (3.109)
T T
Entonces, cada uno de los símbolos se obtiene al hacer variar la amplitud:
sm (t) = Am ϕ (t) . (3.110)
Para una transmisión de 4 símbolos, es deseable incluir tanto amplitudes negativas como
positivas. Asimismo, es deseable transmitir múltiplos de un amplitud base A, de modo que
para esos cuatro bits podemos transmitir −3A, −A, A y 3A. Esto puede representarse para
una transmisión de M símbolos como:

Am = (2m + 1 − M ) A T con m ∈ {0, 1, 2, . . . , M − 1} . (3.111)

donde agregamos el término T para propósitos de normalización. A modo de ejemplo:

Para la transmisión NRZ binaria ya conocida, M = 2 y por lo tanto Am = ±A.


Para 8−PAM se tiene que Am = ±7, ±5, ±3, ±1.

Se define la energía promedio del símbolo como:


M
X −1 ˆ T
4
Es = P (m) sm (t) dt. (3.112)
m=0 0

ˆ T
1
Como sm (t) dt = (2m + 1 − M ) A2 T y P (m) = , entonces:
0 M
M −1
A2 T X
Es = (2m + 1 − M )2 . (3.113)
M m=0

Expandiendo la suma mediante la fórmula respectiva:

A2 T 
Es = M2 − 1 (3.114)
3


c 2010 – 2016 Christian Oberli 90
Ejemplo Para la transmisión 4−PAM, los bits se agrupan de a 2 para formar los
símbolos que después se transmiten con amplitud variable.

Para cada símbolo se define una señal:

Figura 3.27: Símbolo asociado a cada señal para una transmisión 4−aria.

Luego, a modo de ejemplo, el mensaje 01001011100111 se transmite como:


c 2010 – 2016 Christian Oberli 91
Figura 3.28: Señal de ejemplo para una transmisión 4−aria.

3.5.2. Receptor óptimo para detección M −aria

Como extensión al receptor óptimo ya estudiado, se propone la siguiente estructura para el


receptor óptimo de una trasmisión M −aria.

x0 (t) Ts
s0 (Ts − t) +

Ts c0
x1 (t)
s1 (Ts − t) +

r(t)
c1
máx Iˆn
..
.

xM −1 (t) Ts
sM −1 (Ts − t) +

cM −1

Figura 3.29: Receptor óptimo para una tramisión M −aria.


c 2010 – 2016 Christian Oberli 92
Para el caso M −PAM, el receptor óptimo puede ser simplificado como antes, puesto que
todas las sm (t) son similares, con sm1 (t) = ksm2 (t):

r(t) Ts x(Ts )
s(t) + s(Ts − t) Iˆn

w(t)

Figura 3.30: Receptor óptimo simplificado y regiones de decisión para el receptor M −PAM.

3.5.3. Probabilidad de error de modulaciones M −arias

Para determinar la probabilidad de error de una modulación M −aria es necesario reconocer


dos diferencias con respecto al caso binario:

1. Los errores de decisión son errores de símbolo, los cuales denotaremos como Ps . Hay
M − 1 errores posibles, cuyas probabilidades son, en general, distintas. A modo de
ejemplo, para 4−PAM, si transmitimos el símbolo binario 11, representado por un 3,
se tendrá el siguiente esquema de errores:


c 2010 – 2016 Christian Oberli 93
P (D0 | 3)

P (D1 | 3)

P (D2 | 3)

Figura 3.31: Esquema de posibles errores que se pueden cometer en una modulación
M −PAM dado el símbolo 3.

Asimismo, podemos realizar el siguiente cálculo para M genérico:


M
X −1
Ps = P (x (Ts ) 6∈ Rm |m) · P (m) (3.115)
m=0
M
X −1
1
= P (x (Ts ) 6∈ Rm |m) (3.116)
M m=0
M −1
1 X
=1− P (x (Ts ) ∈ Rm |m) . (3.117)
M m=0

Por lo tanto, según el error, pueden resultar equivocados entre 1 y log2 M bits. ¡La
probabilidad de error de bit y la probabilidad de error de símbolo no son lo mismo!

2. Las energías de los símbolos varían, y la energía de cada símbolo individual (Es,m )
representa la energía de varios bits.

Así, la probabilidad de error de modulaciones M −arias se calcula como la probabilidad de


error de símbolo en función de Es (¡y de la SNR por símbolo!)

Ps de M −PAM. Si el filtro adaptado está normalizado en energía, entonces su salida x (t)


c 2010 – 2016 Christian Oberli 94
muestreada en Ts es:
ˆ


x (Ts ) = hFA (t − τ ) [sm (τ ) + w (τ )] dτ (3.118)
−∞
ˆ ∞ ˆ ∞ t=Ts
= hFA (t − τ ) sm (τ ) dτ + hFA (t − τ ) w (τ ) dτ (3.119)
−∞ | {z } −∞
t− 1

√1 u 2 Ts
Ts Ts

ˆ     ˆ  

1 τ − 12 Ts A τ − 12 Ts ∞
1 τ − 12 Ts
= √ u √m u dτ + √ u w (τ ) dτ
−∞ Ts Ts Ts Ts −∞ Ts Ts
(3.120)
p ˆ Ts
1
= Am Ts + √ w (τ ) dτ. (3.121)
Ts 0

Desde luego, x (Ts ) es nuevamente gaussiana, con µX y σX2 dados por:

µX|m = E {x (Ts ) |m} (3.122)


p
= (2m + 1 − M ) A Ts . (3.123)

2 N0
σX|m = (como antes) . (3.124)
2
√ 4 √
Definiremos E = A Ts . Debemos distinguir dos tipos de símbolos:

Símbolos interiores en el espacio de señales. Estos son los símbolos tales que m 6= 0 ó
m 6= N − 1 y por lo tanto se puede cometer error de símbolo hacia la derecha o hacia
la izquierda. Estos errores quedan correctamente representados por la siguiente figura:

Figura 3.32: Gráfica de la densidad de probabilidad de un símbolo interior en el espacio de


señales junto con sus respectivas probabilidades de error.


c 2010 – 2016 Christian Oberli 95
Símbolos exteriores en el espacio de señales, los cuales tal como su nombre lo dice,
corresponden al caso m = 0, en el cual se comete un error cuando la variable aleatoria
se desplaza hacia la derecha, y al caso m = M − 1, en el que la variable aleatoria se
desplaza hacia la izquierda.

Se sigue que:

Pe = P (x (Ts ) 6∈ Rm |m) (3.125)




P+ + P− , si m = 1, . . . , M − 2,
= P− , si m = M − 1, (3.126)


P+ , si m = 0.

donde:
r !
1 1 E
P+ = P (Dm+1 |m) = − erf (3.127)
2 2 N0
r ! r !
1 1 E 1 1 E
P− = + erf − = − erf . (3.128)
2 2 N0 2 2 N0

Se sigue que:
M −1
1 X
Ps = P (x (Ts ) 6∈ Rm |m) (3.129)
M m=0
1
= [(M − 2) (P+ + P− ) + P+ + P− ] (3.130)
M
2 (M − 1)
= P+ . (3.131)
M
Es decir,
r !
M −1 E
Ps = erfc . (3.132)
M N0

3.5.4. Probabilidad de error de bit

Si bien este resultado es correcto, es poco útil para comparar PAM con distintos valores de
M , pues:

La potencia promedio de la M −PAM crece con M .

Cometer un error de símbolo no es lo mismo para distintos M .


c 2010 – 2016 Christian Oberli 96
El segundo paso hacia una base de comparación de modulaciones con distinto M es trans-
formar las Ps a probabilidades de error de bit.
log2 (M )
X
Ps = P (error de símbolo | b bits en error) P (b bits en error) . (3.133)
b=1

Con código Gray,

P (1 bit en error)  P (b bits en error) ∀b ≥ 2. (3.134)

Entonces,
(≥)
Ps ≈ P (1 bit en error) . (3.135)
Esto corresponde a la unión de todos los log2 M eventos de 1 bit de error (mutuamente
excluyentes, conjuntamente exhaustivos). En promedio cada uno tiene Pb probabilidad de
ocurrencia. De esta forma,
log2 (M )
(≥) X
Ps ≈ P (1 bit en error| n − ésimo bit en error) P (n − ésimo bit en error) (3.136)
b=1
log2 (M )
X
= P (n − ésimo bit en error) . (3.137)
b=1

Se define Pb como la probabilidad media de error de bit:


log2 (M )
1 X
Pb = P (n − ésimo bit en error) . (3.138)
log2 (M ) b=1

Finalmente, aplicando 3.137:


(≥)
Ps = log2 (M ) Pb . (3.139)

Aplicación a M −PAM. Ya determinamos que la energía promedio por símbolo es:


A2 T  E  3Es
Es = M2 − 1 = M 2 − 1 −→ E = 2 . (3.140)
3 3 M −1
A su vez, la relación entre Eb y Es es:

Es = log2 (M ) Eb . (3.141)

Así, la probabilidad de error de símbolo de M −PAM con base de SNR común en Eb /N0 es:
s 
M −1 3 log2 (M ) Eb 
Ps = erfc  . (3.142)
M M 2 − 1 N0

Graficando para distintos valores de M y Eb /N0 :


c 2010 – 2016 Christian Oberli 97
Figura 3.33: Probabilidad de error de símbolo en una modulación M −PAM para distintos
valores de M , en función de Eb /N0 .


c 2010 – 2016 Christian Oberli 98
Capítulo 4 Representación equivalente de banda base

Hasta ahora hemos asumido que nuestras señales digitales y la transmisión propiamente
tal son realizadas en banda base. Enfoquemos ahora el caso pasa bandas, el cuál es más
interesante pues agrupa a la mayoría de los sistemas de comunicaciones modernos6 .

Es claro que la frecuencia portadora es una decisión “arbitraria”, y que la portadora misma
no contiene información, pero aún así hace el análisis de pasa banda tedioso debido a la
presencia del factor cos (2πfc t + ϕ).

El objetivo de este capítulo es desarrollar una técnica matemática para trabajar señales de
pasa banda en banda base, dejando la conversión a/de radio frecuencia de lado y focalizando
la atención solamente en el mensaje.

4.1. Transformada de Hilbert

Esta operación matemática adelanta o retrasa la fase de señales en 90o . Se define la transfor-
mada de Hilbert de una señal s (t) como la función ŝ (t):
ˆ ∞
41 s (τ )
ŝ (t) = H {s (t)} = dτ . (4.1)
π −∞ t−τ

donde s (t) es Fourier-transformable con transformada S (f ). Asimismo, se define la transfor-


mada de Hilbert inversa como:
ˆ
−1 4 1 ∞ ŝ (τ )
s (t) = H {ŝ (t)} = − dτ . (4.2)
π −∞ t − τ

Observaciones:

Es una operación lineal.

Opera exclusivamente en el dominio del tiempo.


1
Es la convolución entre s (t) y .
πt
6
Para más información véase Fitz, tabla 4.1, p. 75.


c 2010 – 2016 Christian Oberli 99

  
1, si f > 0,
1
Notar asimismo que F = −j sgn (f ) con sgn (f ) = 0, si f = 0,
πt 

−1, si f < 0.

Por lo tanto,

Ŝ (f ) = F {ŝ (t)} (4.3)


 
1
= F s (t) ∗ (4.4)
πt
= S (f ) (−j) sgn (f ) . (4.5)

Es decir, la transformada de Hilbert solo cambia la fase de la señal, dejando intacta la


amplitud. En otras palabras, la respuesta en fase de la transformada de Hilbert es:

Figura 4.1: Respuesta en fase de la transformada de Hilbert.

Ejemplo Calculemos la transformada de Hilbert de s (t) = cos (2πfc t).

Solución:

Calcular la transformada de Hilbert por definición nos conducirá a una integral para la
cual no podemos evaluar su primitiva, de modo que trabajemos en el espectro de Fourier
para intentar realizar cálculos. Se tiene que:
1
S (f ) = [δ (f − fc ) + δ (f + fc )] . (4.6)
2


c 2010 – 2016 Christian Oberli 100
Es decir,
j
Ŝ (f ) = − [δ (f − fc ) + δ (f + fc )] sgn (f ) (4.7)
2
1
= [δ (f − fc ) − δ (f + fc )] . (4.8)
2j
Volviendo al espectro temporal, podemos concluir entonces que:

H {cos (2πfc t)} = sen (2πfc t) . (4.9)

Se puede probar similarmente que H {sen (2πfc t)} = − cos (2πfc t).

4.1.1. Propiedades de la transformada de Hilbert

La transformada de Hilbert difiere de la transformada de Fourier en el sentido de que opera


exclusivamente en el dominio del tiempo. Para el caso en que una señal s (t) es real, se puede
establecer lo siguiente:

1. Una señal s (t) y su transformada de Hilbert tienen el mismo espectro de magnitud.


Demostración:
Es claro que:

Ŝ (f ) = −j sgn (f ) S (f ) −→ |Ŝ (f ) | = |j| · | sgn (f ) | · |S (f ) | = |S (f ) |

2. Si ŝ (t) es la transformada de Hilbert de s (t), entonces la transformada de Hilbert de


ŝ (t) es −s (t).

3. Una señal s (t) y su transformada de Hilbert ŝ (t) son ortogonales sobre todo el intervalo
de tiempo, i.e. ˆ ∞
s (t) ŝ (t) dt = 0. (4.10)
−∞

Demostración:
Se tiene que:
ˆ ∞ ˆ ∞

s (t) ŝ (t) dt = s (t) ŝ (t) e−j2πf t dt
−∞ −∞
f =0

Pero,
F
s (t) ŝ (t) −
→ S (f ) ∗ Ŝ (f ) = −jS (f ) ∗ sgn (f ) S (f )


c 2010 – 2016 Christian Oberli 101
Es decir,
ˆ ˆ
∞ ∞

s (t) ŝ (t) dt = −jS (f ) ∗ sgn (f ) S (f ) = −j S (−ξ) sgn (ξ) S (ξ) dξ
−∞ −∞
f =0

Notemos que X (ξ) = S (−ξ) sgn (ξ) S (ξ) es una función impar pues:

X (−ξ) = −S (ξ) sgn (ξ) S (−ξ) = −X (ξ)

Por lo tanto, el valor de la integral es cero. Concluimos entonces que:


ˆ ∞
s (t) ŝ (t) dt = 0
−∞

4.2. Pre-envolvente

Tal como el uso de los fasores simplifica las manipulaciones al alternar corrientes y voltajes,
el uso de la pre-envolvente es particularmente útil al manejar señales y sistemas que se
encuentran en pasabanda.

Consideremos una señal real s (t) cualquiera. Se define la pre-envolvente positiva de s (t)
(también es posible definir una pre-envolvente negativa) como:
4
s+ (t) = s (t) + jŝ (t) . (4.11)

Claramente s+ (t) es compleja y s (t) = Re {s+ (t)}. Espectralmente hemos realizado las
siguientes operaciones:


c 2010 – 2016 Christian Oberli 102
Figura 4.2: Ejemplificación de las transformaciones espectrales que se están realizando al
tomar la pre-envolvente positiva de una señal real cualquiera.

De este gráfico se deduce una propiedad importante:




2S (f ) , si f > 0,
S+ (f ) = s (0) , si f = 0,


0, si f < 0.

¡Es decir, la pre-envolvente positiva no tiene energía en frecuencias negativas!


c 2010 – 2016 Christian Oberli 103
4.3. Representación de señales de pasa banda en banda base

Consideremos el siguiente caso especial: s (t) es una señal real de pasa banda. Es decir,
S (f ) 6= 0 solo para el rango ±fc ± 21 W donde fc es la frecuencia portadora de la señal de
pasabanda y W es el ancho de banda de la transmisión con W  fc .

La pre-envolvente s+ (t) solo tiene contenido de frecuencia en el rango fc ± 12 W . Entonces,


s+ (t) puede ser expresada como una señal envolvente modulando a una portadora, o bien el
espectro centrado en fc puede entenderse como un espectro G̃ (f ) en banda base desplazado
en fc unidades hacia la derecha. Por√propósitos de normalización que serán explicados más
adelante7 , consideraremos un factor 2. En otras palabras,

G+ (f ) = 2 G̃ (f − fc ) . (4.12)

Aplicando la transformada inversa de Fourier obtenemos que entonces g̃ (t) debe ser tal que:

s+ (t) = 2 s̃ (t) ej2πfc t . (4.13)

Se conoce s̃ (t) como la envolvente compleja de la señal de pasa banda s (t). Esta señal
es claramente de banda base y, por lo general, es compleja y por lo tanto tiene un espectro
asimétrico. Asimismo, podemos encontrar funciones reales sI (t) y sQ (t) tales que:

s̃ (t) = sI (t) + jsQ (t) . (4.14)

donde sI (t) se define como la componente en fase de s̃ (t) y sQ (t) como la componente
en cuadratura. Así:
n√ o
s (t) = Re {s+ (t)} = Re 2s̃ (t) ej2πfc t (4.15)
n√ o
= Re 2 [sI (t) + jsQ (t)] [cos (2πfc t) + j sen (2πfc t)] . (4.16)

Es decir,
√ √
s (t) = 2sI (t) cos (2πfc t) − 2sQ (t) sen (2πfc t) . (4.17)
Esta forma de expresar la señal de pasabanda s (t) en términos de su componentes en fase
y cuadratura (ambos de banda base) se conoce como la forma canónica de s (t). Luego,
la señal en pasabanda puede obtenerse a partir de sus componentes en cuadratura y fase
mediante el siguiente diagrama:
7
La envolvente compleja tiene la mitad de la potencia que tiene la pre-envolvente positiva, la que tiene el
doble de potencia que la señal original.


c 2010 – 2016 Christian Oberli 104
sI (t)


√ +
2 cos(2πfc t) + s(t) = ↑ RF

−90◦

sQ (t)

Figura 4.3: Representación esquemática de un conversor a radio frecuencia.

Asimismo,

s (t) 2 cos (2πfc t) = 2sI (t) cos2 (2πfc t) − 2sQ (t) sen (2πfc t) cos (2πfc t) . (4.18)

Pero, recordando las identidades de prostaféresis:

2 cos (α) cos (β) = cos (α + β) + cos (α − β) (4.19)


2 sen (α) cos (β) = sen (α + β) + sen (α − β) . (4.20)

Así, √
2s (t) cos (2πfc t) = sI (t) + sI (t) cos (4πfc t) − sQ (t) sen (4πfc t) . (4.21)
Similarmente,

2s(t) sen (2πfc t) = sI (t) sen (4πfc t) + sQ (t) cos (4πfc t) − sQ (t) . (4.22)

Entonces, bajo el siguiente esquema podemos tomar una señal en basa banda y obtener sus
componentes en cuadratura y fase de su envolvente compleja:


c 2010 – 2016 Christian Oberli 105
LPF sI (t)



s(t) 2 cos(2πfc t) = ↓ RF

−90◦

LPF −sQ (t)

Figura 4.4: Representación esquemática de un deconversor de radiofrecuencia.

La envolvente compleja es un concepto fasorial. El plano IQ rota a velocidad angular 2πfc ,


lo cual puede ser ignorado para efectos del análisis. El contenido de información de s (t) está
completamente representado por s̃ (t).

4.4. Representación de sistemas de pasa banda en banda base

Ahora que sabemos cómo manejar la representación compleja en pasabanda de las señales, es
lógico que el siguiente paso deseado es un procedimiento para manejar el análisis de sistemas
en pasabanda.

Sea un sistema lineal invariante en el tiempo (LTI) con respuesta al impulso h (t) tal que
H (f ) 6= 0 sólo para el rango ±fc ± 21 WH (i.e. h (f ) es un filtro pasa banda).

Entonces, podemos expresar h (t) en su forma canónica, la cual multiplicaremos en 2 por


este caso para propósitos de normalización que serán explicados a continuación:

h (t) = 2hI (t) cos (2πfc t) − 2hQ (t) sen (2πfc t) . (4.23)

Definimos asimismo la respuesta al impulso compleja del sistema (la respuesta en banda
base de h (t)) como:
h̃ (t) = hI (t) + jhQ (t) . (4.24)
Y por lo tanto, n o
h (t) = Re 2h̃ (t) ej2πfc t . (4.25)


c 2010 – 2016 Christian Oberli 106
Así, ĥ (t), hI (t) y hQ (t) son señales pasa bajo. ¿Qué es entonces H̃ (f )? Se tiene que:

H (f ) = F {h (t)} (4.26)
n n oo
= F Re 2h̃ (t) ej2πfc t . (4.27)

z + z∗
Como Re {z} = , entonces:
2
n o
j2πfc t ∗ j2πfc t
H (f ) = F h̃ (t) e + h̃ (t) e . (4.28)

Mediante propiedad de traslación espectral tendremos que:

H (f ) = H̃ (f − fc ) + H̃ ∗ (−f − fc ) . (4.29)

Pero h̃ (t) es pasa bajo y así H̃ (f ) ≡ 0 para todo |f | > 12 WH . Luego, H̃ ∗ (−f − fc ) ≡ 0 para
todo f > 0. Entonces, para f > 0:

H (f ) = H̃ (f − fc ) para f > 0. (4.30)

Es decir,
H̃ (f ) = H (f + fc ) para f > −fc . (4.31)
Este resultado es importante: ¡el sistema pasa banda puede ser representado en banda base
sin pérdida de información!

¿Qué pasa con la relación entrada–salida del sistema? Supongamos que x (t) es una señal
pasa banda con X (f ) ≡ 0 para f 6∈ [±fc ± Wx ].

Sabemos que:

y (t) = h (t) ∗ x (t)


ˆ ∞
= h (τ ) x (t − τ ) dτ.
−∞

Escribiendo en términos de las pre-envolventes:


ˆ ∞ ˆ ∞ 
y (t) = Re {h+ (τ )} Re {x+ (t − τ )} dτ = Re {h+ (τ )} Re x∗+ (t − τ ) dτ,
−∞ −∞

pues claramente Re {z} = Re {z ∗ }. Antes de continuar tenemos que hacer uso del siguiente
lema, que representa una propiedad de las pre-envolventes:

Lema: Se tiene que:


ˆ ∞ ˆ ∞ 
1 ∗
Re {h+ (τ )} Re {x+ (τ )} dτ = Re h+ (τ ) x+ (τ ) dτ . (4.32)
−∞ 2 −∞

Demostración:


c 2010 – 2016 Christian Oberli 107
Tomando el lado derecho:
ˆ ∞ ˆ ∞h i

h+ (τ ) x+ (τ ) dτ = h (τ ) + jĥ (τ ) [x (τ ) − jx̂ (τ )] dτ
−∞
ˆ ∞
−∞
ˆ ∞
= h (τ ) x (τ ) + ĥ (τ ) x̂ (τ ) dτ + j x (τ ) ĥ (τ ) − x̂ (τ ) h (τ ) dτ
−∞ −∞

Obteniendo la parte real a ambos lados:


ˆ ∞  ˆ ∞

Re h+ (τ ) x+ (τ ) dτ = h (τ ) x (τ ) + ĥ (τ ) x̂ (τ ) dτ
−∞ −∞

Aplicando el Teorema de Parseval notamos que:


ˆ ∞ ˆ ∞
ĥ (τ ) x̂ (τ ) dτ = Ĥ (f ) X̂ ∗ (f ) df
−∞
ˆ−∞

= −j sgn (f ) H (f ) [−j sgn (f ) X (f )] df
ˆ ∞
−∞

= −j sgn (f ) H (f ) j sgn (f ) X ∗ (f ) df
−∞

!
Como j2 = −1 y sgn2 (f ) = 1 (salvo en f = 0), entonces:
ˆ ∞ ˆ ∞
ĥ (τ ) x̂ (τ ) dτ = H (f ) X ∗ (f ) df
−∞ −∞

Aplicando la relación de Parseval en forma inversa:


ˆ ∞ ˆ ∞
ĥ (τ ) x̂ (τ ) dτ = h (τ ) x (τ ) dτ
−∞ −∞

Es decir,
ˆ ∞  ˆ ∞ ˆ ∞
Re h+ (τ ) x∗+ (τ ) dτ =2 h (τ ) x (τ ) dτ = 2 Re {h+ (τ )} Re {x+ (τ )} dτ
−∞ −∞ −∞

Concluimos entonces que:


ˆ ∞ ˆ ∞ 
1 ∗
Re {h+ (τ )} Re {x+ (τ )} dτ = Re h+ (τ ) x+ (τ ) dτ 
−∞ 2 −∞

Reemplazando tenemos que:


ˆ ∞ 
1
y (t) = Re h+ (τ ) x+ (t − τ ) dτ
2 −∞
ˆ ∞ 
1 j2πfc τ
√ j2πfc (t−τ )
= Re 2h̃ (τ ) e 2 x̃ (t − τ ) e dτ
2 −∞
 ˆ ∞  
√ j2πfc t
= Re 2 h̃ (τ ) x̃ (t − τ ) dτ e .
−∞


c 2010 – 2016 Christian Oberli 108
Definamos entonces la envolvente compleja de la salida como:
ˆ ∞
4
ỹ (t) = h̃ (τ ) x̃ (t − τ ) dτ = h̃ (t) ∗ x̃ (t) . (4.33)
−∞

Y por lo tanto, como para cualquier señal pasa banda:



y (t) = 2 Re {ỹ (t)} ej2πfc t . (4.34)

Es decir, hay plena equivalencia entre los siguientes sistemas:

x(t) h(t) y(t) ⇐⇒ x̃(t) h̃(t) ỹ(t)

Figura 4.5: Esquema de equivalencia entre trabajo en banda base y en pasa banda para un
sistema LTI.

Así, sistemas de pasa banda pueden ser analizados completamente en banda base, evitando
el tedio asociado a la modulación de portadora y al factor ej2πfc t .

4.5. Representación de ruido de pasa banda en banda base

Los procesos aleatorios de pasa banda sin duda también pueden ser representados en banda
base por medio de su envolvente compleja. Sin embargo, para que ello sea útil analíticamente,
necesitamos estudiar cómo se traducen características como distribución de probabilidad,
estacionariedad, autocorrelación, PSD, etc. de pasa banda a banda base.

Es fundamental entender para ello que el proceso estocástico (i.e. ruido) debe ser de pasa
banda, es decir, el ruido blanco ha sido filtrado en la entrada del receptor de radiofrecuencia:

w(t) h(t) n(t)

Figura 4.6: Proceso de filtrado del ruido blanco gaussiano en un filtro pasabanda.


c 2010 – 2016 Christian Oberli 109
4.5.1. Necesidad de un filtro pasa banda

¿Por qué es necesario filtrar pasa banda a un ruido blanco para poder llevarlo a banda base
y trabajarlo ahí como ruido blanco equivalente de banda base?

Porque si el ruido no es de pasabanda, entonces trasladarlo espectralmente con cos (2πfc t)


(ó sen (2πfc t)) genera un proceso que, en general, no es estacionario.
N0
En efecto, sea w (t) un proceso de ruido blanco con Sw (f ) = 2
, entonces y considerando la
siguiente traslación espectral:

w(t) q(t)

cos(2πfc t)

Figura 4.7: Traslación espectral en un conversor de radio frecuencia.

Entonces,

Rq (t1 , t2 ) = E {q (t1 ) q (t2 )} (4.35)


= E {w (t1 ) cos (2πfc t1 ) w (t2 ) cos (2πfc t2 )} (4.36)
1
= Rw (t1 − t2 ) {cos [2πfc (t1 + t2 )] + cos [2πfc (t1 − t2 )]} . (4.37)
2| {z }
N0
= 2
δ(t1 −t2 )

Se sigue que Rq no es exclusivamente función de t1 − t2 , por lo que q (t) no es, general, esta-
cionario. En cambio, si pre–filtramos w (t) con un filtro pasa banda, la situación es distinta.
En tal caso obtenemos el siguiente diagrama:

n(t)
w(t) BPF q(t)

cos(2πfc t)

Figura 4.8: Traslación espectral en un conversor de radio frecuencia con filtro pasa banda.

La densidad espectral de potencia de la señal n (t), filtrada pasa banda, puede ilustrarse
como:


c 2010 – 2016 Christian Oberli 110
Figura 4.9: Densidad espectral de potencia de n (t), la señal filtrada pasa banda.

Podemos escribir Sn (f ) como:


 
f 1
Sn (f ) = N0 u ∗ [δ (f − fc ) + δ (f + fc )] . (4.38)
W 2
Aplicando transformada de Fourier inversa:

Rn (τ ) = N0 W sinc (W τ ) cos (2πfc τ ) . (4.39)

Pero τ = t1 − t2 , de modo que:

Rn (t1 − t2 ) = N0 W sinc [W (t1 − t2 )] cos [2πfc (t1 − t2 )] . (4.40)

y entonces, en la ecuación de q (t):

Rq (t) = N0 W sinc [W (t1 − t2 )] cos [2πfc (t1 − t2 )] {cos [2πfc (t1 + t2 )] + cos [2πfc (t1 − t2 )]} .
(4.41)
Notando que:
1 1
cos [2πfc (t1 − t2 )] cos [2πfc (t1 + t2 )] = cos (4πfc t2 ) + cos (4πfc t1 ) (4.42)
2 2
1 1
cos2 [2πfc (t1 − t2 )] = + cos [4πfc (t1 − t2 )] (4.43)
2 2
1 1 1
= + cos 4πfc t2 cos 4πfc t1 + sen 4πfc t1 sen 4πfc t2 . (4.44)
2 2 2

Falta desarrollar (Texto en desarrollo)

Envolvente compleja del ruido coloreado. De acuerdo a lo anterior, el ruido blanco de


pasa banda puede representarse como:
N0
Sn (f ) = |H (f )|2 . (4.45)
2


c 2010 – 2016 Christian Oberli 111
En otras palabras,
ñ (t) = nI (t) + jnQ (t) . (4.46)
Escribiendo el ruido blanco de pasabanda en términos de sus componentes en cuadratura y
fase:
√ √
n (t) = 2nI (t) cos (2πfc t) + 2nQ (t) sen (2πfc t) (4.47)
√ 
= 2 Re ñ (t) ej2πfc t . (4.48)

Puesto que ej2πfc t es una función determinística, toda la aleatoriedad de n (t) está contenida
en ñ (t).

4.5.2. Tres propiedades importantes de ñ (t)

1. Si n (t) tiene media cero, entonces nI (t) y nQ (t) tienen ambos media cero.

2. Si n (t) es un proceso estocástico gaussiano, entonces nI (t) y nQ (t) son procesos esto-
cásticos conjuntamente gaussianos.

3. Si n (t) es un proceso estocástico gaussiano estacionario, entonces nI (t) y nQ (t) son


procesos estocásticos conjuntamente estacionarios y conjuntamente gaussianos.

Así, si n (t) es gaussiano estacionario de media cero, entonces nI (t) y nQ (t) son conjuntamente
gaussianos, conjuntamente estacionarios y de media cero.

Importante: nI y nQ (t) son procesos estocásticos conjuntos, es decir, están correlacio-


nados. La función de correlación cruzada se define como:
4
RXY (t1 , t2 ) = E {X (t1 ) Y (t2 )} . (4.49)

Para procesos estocásticos conjuntamente estacionarios se tiene que:

RXY (t1 , t2 ) = RXY (t1 − t2 ) = RXY (τ ) = RYX (−τ ) . (4.50)

4.5.3. Corolarios importantes

4. RnI (τ ) = RnQ (τ ), nI (t) y nQ (t) tienen las mismas propiedades estadísticas y la po-
tencia del ruido de ambas componentes es la misma. Es decir,
 
E n2I (t) = E n2Q (t) = RnI (0) = σn2I . (4.51)


c 2010 – 2016 Christian Oberli 112
5. RnI nQ (τ ) = −RnI nQ (−τ ). Es decir, RnI nQ (τ ) es impar en τ . Haciendo τ = 0 obtenemos
que:
RnI nQ (0) = 0. (4.52)
Y por lo tanto, nI (t0 ) y nQ (t0 ) son variables aleatorias independientes para todo t0 .

6. Rñ (τ ) = 2RnI (τ ) − j2RnI nQ (τ ). ¡Ojo: Rñ (τ ) es compleja!


 √
7. Rn (τ ) = Re Rñ (τ ) ej2πfc τ . ¡Ojo: sin 2 y función de τ !

8. Sabemos que Var {n (t)} = σn2 = Rn (0). De las propiedades anteriores:

Rn (0) = Rñ (0) = 2RnI (0) −→ σn2 = 2σn2I . (4.53)

Es decir,

(a) La potencia del ruido pasa banda es igual a la potencia de su envolvente compleja
en banda base.
(b) La potencia de la envolvente compleja es igual a la suma de potencias de sus
componentes en fase y cuadratura.
(c) Las componentes en fase y cuadratura dividen la potencia en partes iguales.

9. La densidad espectral de potencia de ñ (t) está dada por:

Sñ (f ) = F {Rñ (τ )} (4.54)


= 2SnI (f ) − j2SnI nQ (f ) . (4.55)

donde SnI nQ (f ) = F RnI nQ (τ ) es la densidad espectral de potencia cruzada.

Sñ (f ) + Sñ (−f )


10. SnI (f ) = = SnQ (f ).
4
Sñ (f ) − Sñ (−f )
11. SnI nQ (f ) = .
4j
1 1
12. Sn (f ) = Sñ (f − fc ) + Sñ (−f − fc ). Equivalentemente,
2 2
 
f
Sñ (f ) = 2Sn (f + fc ) u . (4.56)
W

Ahora se usa un factor 2 pues son potencias.

13. Si Sn (f ) es localmente simétrica en torno a ±fc , entonces nI (t) y nQ (t) son estadísti-
camente independientes (i.e. SnI nQ (f ) = 0 y RnI nQ (τ ) = 0).


c 2010 – 2016 Christian Oberli 113
14. Para ruido blanco gaussiano de pasabanda, entonces usando las dos propiedades ante-
riores,  
f
Sñ (f ) = N0 u . (4.57)
Wn
Para efectos prácticos se asume que Wn  Wseñal , de modo que:

Sñ (f ) ≈ N0 −→ Rñ (τ ) ≈ N0 δ (τ ) . (4.58)

Por lo tanto, nI y nQ son independientes y distribuyen idénticamente normal de media


0 y varianza σn2 /2.

4.6. Resumen

Hemos desarrollado un modelo completo para analizar transmisiones de pasabanda en banda


base. Sabemos cómo trabajar con:

1. Señales determinísticas en pasa banda.

2. Sistemas lineales en pasa banda.

3. Ruido en pasa banda.

en banda base, ya sea en el dominio del tiempo como en el de la frecuencia. La metodología


encuentra aplicación en tres áreas:

1. Facilita el análisis matemático del sistema de comunicaciones de pasa banda.

2. Permite implementar todo el procesamiento en un sistema de comunicaciones en banda


base y en forma digital. La conversión a y de radio frecuencia es simplemente una
función anexa que se obtiene agregando los modelos correspondientes.

3. Permite simular sistemas de comunicaciones eficientemente con frecuencias de muestreo


de banda base en vez de pasa banda.


c 2010 – 2016 Christian Oberli 114
Capítulo 5 Transmisión digital en pasabanda

5.1. Introducción

La única verdadera diferencia entre trabajar con envolventes complejas versus señales reales es
la introducción de aritmética compleja. Veamos la equivalencia para el caso de la señalización
NRZ unipolar, que en pasabanda es conocida como BPSK (Binary Phase-Shift Keying):
r  
2Eb t − 12 Tb
s0 (t) = u cos (2πfc t) . (5.1)
Tb Tb
r  
2Eb t − 12 Tb
s1 (t) = u cos (2πfc t + π) = −s0 (t) . (5.2)
Tb Tb

Es decir, en general:
r  
bn 2Eb t − 12 Tb
sn (t) = (−1) u cos (2πfc t) . (5.3)
Tb Tb
r  
bn 2Eb t − 12 Tb
De aquí se deduce que sI (t) = (−1) u y sQ (t) ≡ 0. Por lo tanto,
Tb Tb

s̃ (t) = sI (t) ←− ¡NRZ!

Es decir, al tomar la envolvente compleja estamos trabajando directamente con pulsos NRZ.
Gráficamente la conversión entre ambos queda dada por:


c 2010 – 2016 Christian Oberli 115
Figura 5.1: Equivalencia entre señales NRZ unipolares y señales BPSK.

BPSK no es otra cosa que una portadora modulada por NRZ unipolar. El receptor óptimo
en pasabanda tiene la estructura de siempre, ya que s1 (t) = −s0 (t):

x(t) T
r(t) hFA (t) b̂n

Figura 5.2: Receptor óptimo de un sistema de transmisión BPSK en pasa banda.

El filtro adaptado en este caso es un filtro pasa bajos con respuesta al impulso hFA (t) =
s0 (Tb − t). Igual que antes, |HFA (f )| = |s0 (f )| y gráficamente:


c 2010 – 2016 Christian Oberli 116
Figura 5.3: Filtro adaptado en pasa banda para una transmisión BPSK.

Implementar este filtro adaptado en pasa banda es difícil, porque en general T1b  fc 8 .
Una formulación e implementación en banda base con envolventes complejas es mucho más
conveniente. Afortunadamente, ya sabemos bien cómo representar sistemas de pasabanda en
banda base:

r(t) hFA (t) x(t) ⇐⇒ r̃(t) h̃FA (t) x̃(t)

Figura 5.4: Equivalencia entre receptores óptimos simplificados en pasa banda y banda
base. En el sistema equivalente en banda base se usas dos rieles (en fase I y cuadratura Q)
indicando que estamos utilizando una envolvente compleja.

El receptor óptimo para BPSK en banda base está dado por:

r̃(t) Tb
r(t) RF↓ h̃FA (t) Re{ } b̂n

Figura 5.5: Receptor óptimo simplificado para BPSK en banda base.

donde h̃FA (t) = s̃∗0 (Tb − T ). Estamos tomando la parte real pues debemos recordar que la
salida del filtro adaptado en t = Tb es una medida de la correlación entre r (t) y s0 (t), la cual
aparece como energía en el eje real, ya que el filtro adaptado es s∗0 .

Calculemos h̃FA (t):


r  
2Eb t − 1t Tb 1 j2πfc t 
s0/1 (t) = ± u e + e−j2πfc t . (5.4)
Tb Tb 2
8
Además, ¿qué pasa con hFA (t) si cambia fc ? (e.g. cambio de canal)


c 2010 – 2016 Christian Oberli 117
Pero sabemos asimismo que esta señal se puede expresar como la parte real de su envolvente
compleja multiplicada por el fasor respectivo:
( r   )
√ Eb t − 1
T
2 b
s0/1 (t) = Re ± 2 u ej2πfc t . (5.5)
Tb Tb
Por lo tanto, r  
Eb t − 12 Tb
s̃0/1 (t) = ± u . (5.6)
Tb Tb
Vemos que s̃0/1 son reales puras, es decir, BPSK no tiene componentes en cuadratura. Luego,
r 1 
Eb T −t
2 b
h̃FA (t) = ±k u . (5.7)
Tb Tb
donde k es una constante arbitraria.

5.1.1. Quadrature Amplitude Modulation (QAM)

Estudiemos ahora una modulación de pasa banda que sí tiene componente en cuadratura.

Ejemplo La modulación 4−QAM (también conocida como QPSK o Quadrature PSK )


es una modulación en la que el pulso transmitido se escribe como:
r   r  
bI Es t − 12 Ts bQ Es t − 12 Ts
sm (t) = (−1) u cos (2πfc t) − (−1) u sen (2πfc t) .
Ts Ts Ts Ts

Por inspección, dada que esta modulación ya está escrita en su forma canónica, podemos
notar entonces que su envolvente compleja viene dada por:
r i t − 1T 
Es h bI bQ 2 s
s̃m (t) = (−1) + j (−1) u , (5.8)
2Ts Ts
h i
donde (−1)bI + j (−1)bQ puede representar fases de 45◦ , 135◦ , 225◦ y 315◦ . Es decir, la
envolvente compleja es un pulso rectangular con fases posibles ±45◦ y ±135◦ .

Otra forma de verlo es usando identidades trigonométricas para mostrar que:


r  
Es t − 21 Ts h bI bQ
i
sm (t) = u (−1) cos (2πfc t) − (−1) sen (2πfc t) (5.9)
Ts Ts
r  
Es t − 21 Ts √
= u 2 cos (2πfc t + ϕ) . (5.10)
Ts Ts

Es decir, r  
Es t − 12 TS
s̃m (t) = u ejϕ . (5.11)
Ts Ts


c 2010 – 2016 Christian Oberli 118
¡Entonces la información de la comunicación va en la fase! La siguiente representación
geométrica ayuda a visualizar 4−QAM:

Figura 5.6: Representación geométrica de señales 4−QAM en conjunto con señales


BPSK.

¿Qué energía tiene cada símbolo 4−QAM? Revisemos:


ˆ ∞
E= |s̃m (t)|2 dt (5.12)
ˆ−∞∞
= s̃m (t) s̃∗m (t) dt (5.13)
−∞
ˆ r !2  h

Es t − 21 Ts ih i
bI bQ bI bQ
= u (−1) + j (−1) (−1) − j (−1) dt. (5.14)
−∞ 2Ts Ts

Notando la suma por su diferencia entre los últimos dos términos, se tiene finalmente que:
ˆ
Es Ts Es
E= (1 + 1) dt = · 2Ts = Es . (5.15)
2Ts 0 2Ts
Se deja como ejercicio propuesto al lector comprobar que se obtiene el mismo resultado con
las señales pasa banda, i.e. ˆ ∞
s2m (t) dt = Es . (5.16)
−∞

Nota:

4−QAM es básicamente poner BPSK en cada uno de los rieles I/Q.


c 2010 – 2016 Christian Oberli 119
4−QAM no existe como modulación de banda base.

5.2. Receptor óptimo M −ario

¿Cómo es el receptor óptimo equivalente de banda base para 4−QAM? La forma genérica
del receptor M −ario óptimo equivalente de banda base es la siguiente:

Ts
s̃∗0 (Ts − t) Re{ } +

c0

Ts
s̃∗1 (Ts − t) Re{ } +
máx Iˆn
r̃(t)
c1
.. ..
. .

Ts
s̃∗M −1 (Ts − t) Re{ } +

cM −1

Figura 5.7: Receptor óptimo para una transmisión M -aria en pasa banda.

Analicemos las salidas de los filtros adaptados para el caso 4−QAM:





x̃m (Ts ) = Re {s̃i (t) ∗ s̃m (Ts − T )} . (5.17)

t=Ts

donde:

x̃m (Ts ) es la salida de uno de los M = 4 filtros adaptados en t = Ts y en m = 0, . . . , 3.

s̃i (t) es una de las posibles 4 señales transmitidas, i = 0, . . . , 3.


c 2010 – 2016 Christian Oberli 120
s̃m (Ts − t) es el m−ésimo filtro adaptado.

Expandiendo la integral de convolución:


ˆ ∞ 

x̃m (Ts ) = Re s̃i (τ ) s̃∗m (Ts − t + τ ) dτ (5.18)
−∞
t=Ts
ˆ Ts nh i h i∗ o
Es
= Re (−1)bIi + j (−1)bQi (−1)bIm + j (−1)bQm dτ (5.19)
2Ts 0
 
Es ∗
= Re (±1 ± j) (±1 ± j) . (5.20)
2
donde el primer número complejo corresponde a s̃i y el segundo a s̃∗m . Supongamos que se
transmitió i = 0. Las salidas de los cuatro filtros adaptados pueden resumirse en la siguiente
tabla:

s̃i s̃m Multiplicación Resultado

Es
(1 + j) (1 + j)∗ Es
2

Es
(1 + j) (1 − j)∗ jEs
2

Es
(1 + j) (−1 + j)∗ −jEs
2

Es
(1 + j) (−1 − j)∗ −ES
2

Es decir, tomando las partes reales:


x̃0 (Ts | 0) = Es (5.21)
x̃1 (Ts | 0) = 0 (5.22)
x̃2 (Ts | 0) = 0 (5.23)
x̃3 (Ts | 0) = −Es . (5.24)
Notamos, además, que c0 = c1 = c2 = c3 = − 12 Es son todas iguales por lo que pueden ser
ignoradas ya que no afectan la salida del operador máx { }.
Así, vemos que se declara 0 cuando 0 fue transmitido. Más aún, vemos que la combinación
entre los operadores Re { } y máx { } siempre escogerá el cuadrante correcto.


c 2010 – 2016 Christian Oberli 121
5.2.1. Simplificación del receptor óptimo M −ario equivalente de banda base

Observemos que para un sistema de comunicaciones 4−QAM se puede realizar una separación
interesante de las envolventes complejas de las señales:

r  
Es t − 12 Ts
s0 (t) = u [cos (2πfc t) − sen (2πfc t)] (5.25)
Ts Ts
r  
Es t − 12 Ts
−→ s̃0 (t) = u (1 + j) (5.26)
2Ts Ts
 r
1 t − 21 Ts Es
=√ u (1 + j) . (5.27)
Ts Ts | 2 {z }
š0

Análogamente,
r  
Es t − 12 Ts
s1 (t) = u [cos (2πfc t) + sen (2πfc t)] (5.28)
Ts Ts
 r
1 t − 12 Ts Es
−→ s̃1 (t) = √ u (1 − j) . (5.29)
Ts Ts | 2 {z }
š1

r  
Es t − 21 Ts
s2 (t) = u [− cos (2πfc t) − sen (2πfc t)] (5.30)
Ts Ts
 r
1 t − 12 Ts Es
−→ s̃2 (t) = √ u (−1 + j) . (5.31)
Ts Ts | 2 {z }
š2

r  
Es t − 12 Ts
s3 (t) = u [− cos (2πfc t) + sen (2πfc t)] (5.32)
Ts Ts
 r
1 t − 12 Ts Es
−→ s̃3 (t) = √ u (−1 − j) . (5.33)
Ts Ts | 2 {z }
š3

Podemos graficar cada uno de los ši en la siguiente gráfica:


c 2010 – 2016 Christian Oberli 122
Figura 5.8: Representación geométrica de cada uno de los ši .

De estos cálculos se hace claro que:


s̃0 (t) = js̃1 (t) = −js̃2 (t) = −s̃3 (t) . (5.34)
Tomando el conjugado:
s̃∗0 (t) = −js̃∗1 (t) = js̃∗2 (t) = −s̃∗3 (t) . (5.35)
Y por lo tanto, reemplazando en el instante Ts − t obtenemos que:
h̃FA0 (t) = −jh̃FA1 (t) = jh̃FA2 (t) = −h̃FA3 (t) . (5.36)
Se deduce que todos los filtros adaptados son iguales excepto por una fase. La fase indica la
rotación relativa del cuadrante correspondiente con respecto a s0 .
Supongamos entonces que usamos un filtro adaptado con fase cero9 , con respecto al cual
h̃FA0,1,2,3 (t) tienen fases ±45◦ y ±135◦ . Es decir,
 
1 t − 12 Ts
h̃FA (t) = √ u . (5.37)
Ts Ts
Representado geométricamente esta señal:

Figura 5.9: Representación geométrica del filtro adaptado en el espacio de señales.


9
Esto es conviente porque simplifica la implementación.


c 2010 – 2016 Christian Oberli 123
Es decir, las ramas del filtro adaptado se simplifican a la siguiente figura:

x̃(t) Ts
s(t) h̃FA (t) x̃ (Ts )

Figura 5.10: Diagrama de las ramas simplificadas del filtro adaptado.

donde debemos determinar x̃ (Ts ). Expandiendo la convolución:





x̃ (Ts ) = s̃i (t) ∗ h̃FA (t) (5.38)

t=Ts
ˆ ∞r  1 h i r  1 
Es τ − 2 Ts 1 t − τ − 2 Ts
= u (−1)bIi + j (−1)bQi u dτ
−∞ 2Ts Ts Ts Ts
t=Ts
(5.39)
r i ˆ Ts
Es 1 h bIi bQi
= (−1) + j (−1) dτ (5.40)
2 Ts 0
r
Es
= ši . (5.41)
2
El resultado anterior es fantástico, ya que permite formular el receptor óptimo en forma muy
sencilla:

r̃(t) x̃(t) x̃(Ts )


r(t) RF↓ h̃FA (t) ŝ

Figura 5.11: Receptor óptimo simplificado para una transmisión 4−QAM.

La estructura es idéntica al caso NRZ/BPSK, solo que hay un slicer en cada riel:


c 2010 – 2016 Christian Oberli 124
b̂I

x̃(Ts ) {bI , bQ } ⇐⇒ x̃(Ts )

b̂Q

Figura 5.12: Expansión del dispositivo de decisión en slicers para cada riel.

5.2.2. Resumiendo

¿Qué sabemos hasta aquí sobre comunicaciones digitales?

1. Cómo modelar señales de banda base y pasa banda.

2. Cómo modelar sistemas de banda base y pasa banda.

3. Cómo caracterizar ruido de banda base y pasa banda.

4. Cómo procesar óptimamente transmisiones digitales en presencia de ruido:

(a) Banda base y pasa banda.


(b) Binario y M −ario.

5. Cómo calcular la probabilidad de error binaria y M −aria en banda base.

Nos falta calcular la probabilidad de error de sistemas pasa banda.

5.3. Representación geométrica de señales

Recuerde el lector que hemos estado utilizando la siguiente representación geométrica:


c 2010 – 2016 Christian Oberli 125
Figura 5.13: Representación geométrica en el espacio de señales.

Esta representación es mucho más que una ayuda visual, es una forma alternativa, completa-
mente consistente y equivalente para representar y analizar señales. Observemos la evolución
que se ha logrado en materia de modelación a medida que se han introducido nuevas herra-
mientas matemáticas:

Antes,
Modulación
en pasa banda
Luego,
Modulación
banda base RF↑
compleja
Ahora,
Modulación
Pulse
banda base RF↑
shaping
compleja digital

Figura 5.14: Evolución del modulador a medida que se introducen nuevas herramientas
matemáticas.

Revisando con cuidado, BPSK y 4−QAM están ambas formuladas en base a una misma
única señal base: el pulso rectangular de energía unitaria:


c 2010 – 2016 Christian Oberli 126
  (√
1 t − 12 Ts Eb , si m = 0, √
BPSK: ϕ̃ (t) = √ u šm con šm = √ = (−1)bm Eb .
Tb Ts − Eb , si m = 1.
 
1 t − 21 Ts
4−QAM: ϕ̃ (t) = √ u šm con
Ts Ts
 r

 Es

 (1 + j) , si m = 0,

 2





 r

 Es

 (1 − j) , si m = 1,



 2

šm = r (5.42)

 Es

 (−1 + j) , si m = 2,

 2





 r

 Es

 (−1 − j) , si m = 3.

 2



h i rE
s
= (−1)bIn + j (−1)bQn . (5.43)
2

La representación geométrica no es otra cosa que una representación vectorial en que la base
es la función ϕ (t). Haciendo ϕ̃ (t) = ϕI (t) + jϕQ (t) el espacio de señales se visualiza como:

Figura 5.15: Representación geométrica de 4−QAM en el espacio de señales.

Así, podemos reescribir nuestras modulaciones de la siguiente forma compacta:

s̃m (t) = šm ϕ̃ (t) . (5.44)

tanto para modulaciones BPSK como 4−QAM.


c 2010 – 2016 Christian Oberli 127
5.3.1. Relaciones energéticas

Lo importante a notar es que la representación geométrica mantiene las relaciones ener-


géticas. En efecto, ya hemos notado que:
ˆ ∞ ˆ ∞
2
|sm (t)| dt = |s̃m (t)|2 dt = Es . (5.45)
−∞ −∞

Veamos qué pasa con la nueva notación:


ˆ ∞ ˆ ∞
2
|s̃m (t)| dt = s̃m (t) s̃∗m (t) dt (5.46)
−∞
ˆ−∞∞
= šm ϕ̃ (t) š∗m ϕ̃∗ (t) dt (5.47)
−∞
ˆ ∞
2
= kšm k ϕ̃ (t) ϕ̃∗ (t) dt (5.48)
| −∞ {z }
E{ϕ}≡1
2
= kšm k . (5.49)

¡La energía de la señal sm (t) (ó sm (t)) está dada por la norma del complejo šm ! Cuidado:
šm es un vector 1-D complejo.

¿Qué pasa con las diferencias energéticas?


ˆ ∞
∆Em1 m2 = |sm1 (t) − sm2 (t)|2 dt (5.50)
ˆ−∞

= |s̃m1 (t) − s̃m2 (t)|2 dt (5.51)
−∞
= kšm1 − šm2 k2 . (5.52)

Demostración:

Se deja como ejercicio propuesto al lector demostrar la equivalencia entre las dos primeras
integrales. Nosotros demostraremos ahora la equivalencia entre la segunda y la tercera:
ˆ ∞ ˆ ∞
2
|s̃m1 (t) − s̃m2 (t)| dt = [s̃m1 (t) − s̃m2 (t)] [s̃m1 (t) − s̃m2 (t)]∗ dt (5.53)
−∞
ˆ ∞
−∞
ˆ ∞

= s̃m1 (t) s̃m1 (t) dt − s̃m1 (t) s̃∗m2 (t) dt (5.54)
−∞
ˆ ∞ −∞
ˆ ∞

− s̃m2 (t) s̃m1 (t) dt + s̃m2 (t) s̃∗m2 (t) dt. (5.55)
−∞ −∞


c 2010 – 2016 Christian Oberli 128
Notando que en esta última expresión aparecen energías de la señal:
ˆ ∞ ˆ ∞
2 2 2 ∗
|s̃m1 (t) − s̃m2 (t)| dt = kšm1 k + kšm2 k − šm1 šm2 ϕ̃ (t) ϕ̃∗ (t) dt (5.56)
−∞
| −∞ {z }
=1
ˆ ∞

− šm2 šm1 ϕ̃ (t) ϕ̃∗ (t) dt . (5.57)
| −∞ {z }
=1

Es decir,
ˆ ∞ ∗
|s̃m1 (t) − s̃m2 (t)|2 dt = kšm1 k2 + kšm2 k2 − šm1 š∗m2 − šm1 š∗m2 (5.58)
−∞

= kšm1 k2 + kšm2 k2 − 2 Re šm1 š∗m2 . (5.59)

Finalmente,
ˆ ∞
|s̃m1 (t) − s̃m2 (t)|2 dt = kšm1 − šm2 k2 .  (5.60)
−∞

¡Concluimos que el espacio de señales respeta y mantiene las relaciones energéticas entre las
señales! Más aún, vemos que los resultados anteriores valen para cualquier señal base ϕ (t).
Es decir, no solo pueden utilizarse pulsos bases NRZ, si no que Manchester o cualquier otro
tipo de pulsos.

Así, el espacio de señales es una forma extremadamente compacta para representar lo real-
mente fundamental de las señales:

La información (símbolo) modulante.


La energía asignada a dicha información o símbolo.

Hemos logrado reducir nuestro problema de comunicaciones digitales de pasa banda sustan-
cialmente.

Al hacer sm (t) −→ s̃m (t) eliminamos el tedio de la portadora, quedando solamente la


forma de la envolvente.
Al hacer s̃m (t) −→ šm eliminamos la dependencia de nuestro análisis de la forma de
las envolventes, dejando una representación vectorial discreta, independiente del tiempo
continuo o formas de señales analógicas.

En resumen, hasta aquí sabemos dos cosas cruciales sobre el espacio de señales:

Cómo representar señales y qué significa.


Que el receptor óptimo 4−QAM decide por cuadrante, ya que x̃ (Ts ) = šm .


c 2010 – 2016 Christian Oberli 129
5.3.2. Ruido blanco en el espacio de señales

Falta descubrir cómo se representa el ruido en el espacio de señales. Considerando la estruc-


tura de filtro adaptado ya estudiada, tenemos que:

h i

x̃ (Ts | i) = s̃i (t) ∗ h̃ (t) + w̃ (t) ∗ h̃ (t) (5.61)

t=Ts
ˆ T ˆ T


= ši ϕ̃ (τ ) h̃ (t − τ ) dτ + w̃ (τ ) h̃ (t − τ ) dτ (5.62)
0 0
t=Ts t=Ts
ˆ T ˆ T


= ši ϕ̃ (τ ) ϕ̃∗ (Ts − t + τ ) dτ + w̃ (τ ) ϕ̃∗ (Ts − t + τ ) dτ (5.63)
0 0
t=Ts t=Ts
ˆ T
= ši + [wI (τ ) + jwQ (τ )] ϕ̃ (τ ) dτ (5.64)
0
ˆ T ˆ T

= ši + wI (τ ) ϕ̃ (τ ) dτ + j wQ (τ ) ϕ̃∗ (τ ) dτ . (5.65)
|0 {z } |0 {z }
nI nQ

Concluimos entonces que:


x̃ (Ts | i) = ši + ň . (5.66)
Los siguientes resultados no son simples demostrar, por lo que se presentarán sin su demos-
tración:

El ruido filtrado por h̃FA (t) = ϕ̃ (Ts − t) tiene una representación en el espacio de
señales análoga a la representación de señales, la cual denotaremos por ň.

Su carácter aditivo se mantiene. Es decir,


F.A.
r̃ (t) = s̃m (t) + w̃ (t) −−−→ x̃ (Ts | šm ) = šm + ň.

Definiremos:
4
x̌ = šm + ň. (5.67)
Representando en términos de las componentes en cuadratura y en fase:

x̌ = x̌I + jx̌Q = (šmI + ňI ) + j (šmQ + ňQ ) . (5.68)

Esto se puede representar fasorialmente mediante el siguiente diagrama:


c 2010 – 2016 Christian Oberli 130
Figura 5.16: Diagrama fasorial para la suma entre x̌ y š0 .

Tal como vimos al estudiar representación equivalente de banda base del ruido, ňI y ňQ
distribuyen idénticamente normal de media 0 y varianza N20 . Dado šm , el ruido forma
una nube en torno a dicho símbolo:

Figura 5.17: Representación gráfica de la nube gaussiana 2-D en torno a š.

Luego, de acuerdo a los corolarios ya estudiados sobre las variables aleatorias ňI y ňQ , el
siguiente gráfico resume la caracterización estadística de estas variables:


c 2010 – 2016 Christian Oberli 131
Figura 5.18: Caracterización estadística de ňI | ši y ňQ | šj .

5.3.3. Probabilidad de error de 4−QAM

Puesto que ňI y ňQ son independientes, los eventos de error en fase / cuadratura son inde-
pendientes. Aplicando directamente lo que aprendimos en comunicaciones digitales en banda


c 2010 – 2016 Christian Oberli 132
base, determinamos:
r ! r !
1 1 Es 1 Es
Pb,I/Q = − erf = erfc . (5.69)
2 2 2N0 2 2N0

Como los errores I/Q son independientes, la probabilidad de error de símbolo Ps está dada
por:
Ps = 1 − Pc = 1 − PcI PcQ (5.70)

= 1 − 1 − Pb,I/Q P 2 . (5.71)
Es decir,
" r !#2
1 Es
Ps = 1 − 1 − erfc . (5.72)
2 2N0

¿Cuál sería la probabilidad de error de bit de 4−QAM? Aplicamos una asignación a


los bits de acuerdo al código Grey: los bits similares se asignan a símbolos adyacentes.

E2

E1

E3

Figura 5.19: Asignación de bits y eventos de error de acuerdo a codificación Grey.

Luego, los errores E1 y E2 son equiprobables y más probables que E3 . E1 y E2 son eventos
de error de un bit, mientras que E3 es un evento de error de dos bits. Entonces,
P (E1 ∪E2 )
z }| {
Ps = P (error de símbolo | 1 bit erróneo) P (1 bit erróneo)
+ P (error de símbolo | ambos bits erróneos) P (ambos bits erróneos)
| {z }
E3


c 2010 – 2016 Christian Oberli 133
Observamos que E1 ∪ E2 y E3 son mutuamente excluyentes y conjuntamente exhaustivos.
(m)
Sea Ei el i−ésimo evento con un bit erróneo. Entonces, siempre podemos decir que:
!
[ n (1) o [ n (2) o
PS = P Ei ∪ Ei ∪ · · · ∪ E log2 M . (5.73)
i i

Como los eventos son mutuamente excluyentes, entonces:


! !
[ n (1) o [ n (2) o
PS = P Ei +P Ei + ··· . (5.74)
i i

1

Con código Grey, a partir de PS ≈ y menor las P · · · E (1) dominan. Así,
100
!
[ n (1) o
PS ≥ P Ei (5.75)
 i 
(1) (1) (1)
= P E1 ∪ E2 ∪ · · · ∪ Elog2 M . (5.76)

Como estos eventos también son mutuamente excluyentes, entonces,


     
(1) (1) (1)
PS ≥ P E1 + P E2 + · · · + P Elog2 M (5.77)
| {z } | {z } | {z }
=Pb =Pb =Pb

= log2 (M ) Pb . (5.78)

Puesto que los Ei son eventos mutuamente excluyentes, tenemos que:

P (E1 ∪ E2 ) = P (E1 ) + P (E2 ) . (5.79)

Por lo tanto,
≈0
PS = P (E1 ) + P (E2 ) + 
P(E3
).
:
(5.80)
1
Eliminamos el término P (E3 ) pues tiene un valor menor a 100 gracias a la codificación Grey.
1 1
Además, notamos que P (E1 ) = P (E2 ) y que Pb = 2 P (E1 ) + 2 P (E2 ). Por lo tanto,

P (E1 ) = P (E2 ) = Pb = Pb,I/Q . (5.81)

Con ello, PS = 2Pb . Además, recordamos que Es = 2Eb , con esto obtenemos finalmente la
probabilidad de error de bit 4−QAM:
" r !#2
1 1 1 Eb
Pb = − 1 − erfc . (5.82)
2 2 2 N0

Graficando para distintos valores de M y comparando con modulaciones PAM:


c 2010 – 2016 Christian Oberli 134
Figura 5.20: Probabilidades de error de símbolo M −PAM, M −QAM y FSK binario (curvas
M diferente no son comparables).


c 2010 – 2016 Christian Oberli 135
Figura 5.21: Probabilidades de error de bit de M −PAM, M −QAM y FSK binario, deter-
minadas como Pb = Ps / log2 (M ).

Llama mucho la atención que la Pb de 4−QAM en pasa banda sea igual que la de NRZ
(BPSK) en banda base. Veamos cuál es la probabilidad de error de bit de BPSK en pasa
banda. Dibujando un diagrama fasorial:


c 2010 – 2016 Christian Oberli 136
Figura 5.22: Diagrama fasorial del ruido pasa banda en transmisiones BPSK.

Vemos que solo importa la componente en fase del ruido para cometer un error. ¡Esta es la
razón por la cual el receptor óptimo tiene un operador Re { }! Se tiene que:
 

1 1 Eb
P (D1 | 0) = + erf − √ q  (5.83)
2 2 2 N20
r !
1 1 Eb
= − erf (5.84)
2 2 N0
= P (D0 | 1) . (5.85)

Finalmente, obtenemos la probabilidad de error de bit BPSK:


r !
1 1 Eb
Pb = − erf . (5.86)
2 2 N0

Observaciones:

1. Vemos que NRZ y BPSK tiene la misma Pb . No importa si la transmisión se hace en


banda base o en pasa banda.

2. Observemos la siguiente figura que compara 4−QAM versus BPSK:


c 2010 – 2016 Christian Oberli 137
Figura 5.23: Comparación de probabilidad de error de bit y símbolo entre modulaciones
QAM y BPSK.

Vemos que ambas modulaciones tienen la misma probabilidad de error de bit, pero
4−QAM tiene el doble de información. Por lo tanto, aprovechar el riel en cuadratura
mejora la eficiencia espectral al doble al costo de mayor complejidad, mientras que la
eficiencia energética no cambia.

5.4. Otras constelaciones M -arias de pasa banda

Existe un gran conjunto de otras constelaciones de pasa banda además de las ya estudiadas.
A modo de ejemplo:

La modulación 16−QAM es la combinación de 4−PAM en fase y cuadratura, modu-


lando así tanto amplitud como fase:


c 2010 – 2016 Christian Oberli 138
Figura 5.24: Diagrama de símbolos de la constelación 16−QAM.

Este ejemplo puede extenderse incluso a 64 bits, obteniendo así la constelación 64−QAM:


c 2010 – 2016 Christian Oberli 139
Figura 5.25: Diagrama de símbolos de la constelación 64−QAM.

La modulación 8−PAM:

Figura 5.26: Diagrama de símbolos de la constelación 8−PAM.

Si tomamos el código anterior y lo hacemos circularmente Grey, obtenemos la modula-


ción 8−PSK:


c 2010 – 2016 Christian Oberli 140
Figura 5.27: Diagrama de símbolos de la constelación 8−PSK.

Al respecto, pueden realizarse los siguientes comentarios:

1. Cada tipo de modulación tiene ventajas y desventajas en términos de eficiencia espec-


tral, eficiencia energética y complejidad de implementación.

2. Todas estas modulaciones tienen función base ϕ̃ (t), a la cual se altera la fase y/o
amplitud según la secuencia de símbolos.

3. ϕ̃ puede ser cualquier envolvente compleja, no necesariamente real pura. El diseño de


estas señales se estudia en el curso IEE3514.

4. La probabilidad de error de modulaciones M −arias es, en general, difícil de obtener


teóricamente. No obstante, es conocida para la mayoría de las modulaciones relevantes.
Lo usual es obtener primero Ps y luego considerar:

Ps = P (E1 ) + P (E2 ) + · · · + P Elog2 M . (5.87)

donde Ei = P (error de i bits) . Si se usa código Grey, entonces:

P (E1 )  P (Ei ) i = 2, . . . , log2 (M ) . (5.88)

Y por lo tanto Ps ≈ P (E1 ). De esta forma,

Ps ≈ log2 (M ) Pb . (5.89)


c 2010 – 2016 Christian Oberli 141
Figura 5.28: Curvas de probabilidad de error de bit para las distintas constelaciones M -
arias.


c 2010 – 2016 Christian Oberli 142
Capítulo 6 Sistemas de comunicaciones digitales

6.1. Introducción

Hasta aquí hemos logrado entender en bastante detalle cómo realizar una transmisión digital
a través de un medio o canal.

H(f ) ≡ 1

Fuente Modulación Medio Receptor y Usuario


información BB y PB / Canal demodulador información

P
s(t) = sn (t − nT ) AWGN y F.A. {b̂n }, Ps , Pb

{bn }
y ↑ RF

Figura 6.1: Diagrama de un sistema de comunicaciones digitales a través de un medio o


canal.

Si bien hay mucho más por decir sobre el canal (véanse cursos IEE3584 e IEE3514) y sobre
modulaciones y diseño de señales (IEE3514), probablemente el bloque más oscuro es el de
fuente y usuario de la información.

Específicamente, queremos estudiar las condiciones que debe cumplir la información bajo
criterios como “uso eficiente del canal” y “minimizar la Pe en la salida”.

Partamos definiendo algunos conceptos clave:

Teoría de la información: es la rama de las telecomunicaciones que estudia los límites


teóricos de los dos puntos anteriores.


c 2010 – 2016 Christian Oberli 143
Entropía10 : número mínimo de bits al cual un mensaje puede ser comprimido sin
pérdida de información.
Capacidad de canal: tasa de datos máxima a la que es posible transmitir sin errores
a través de un canal dado.

6.2. Pares codificador–decodificador

Estos conceptos son el objeto de dos pares codificador–decodificador (codec) nuevos en


nuestro modelo de un sistema de comunicaciones digitales.

Señal de Mensaje
mensaje estimado
Fuente de Usuario de la
{xn }
información información

Transmisor Receptor

Codificador Decodificador
de fuente de fuente

Codificador Decodificador
de canal de canal
Aquí es donde
queremos maxi-
mizar la tasa de Detecta y corrige
Modulador Demodulador
datos, donde la errores
redundancia es
máxima.

Señal Tx Canal Señal Rx

Inserta ruido e interferencia

Figura 6.2: Diagrama de bloques de un sistema de comunicaciones digitales.

“Codec” de fuente: Comprime el mensaje. Nivel de compresión y aproximación a


entropía depende del algoritmo usado.
10
No es voodoo.


c 2010 – 2016 Christian Oberli 144
“Codec” de canal: Agrega redundancia en forma controlada y permite (idealmente)
detectar todos los errores cuando la tasa de transmisión es menor o igual a C.

La codificación de fuente y canal de señales analógicas es impráctica, difícil de implementar


y limitada; mientras que para señales digitales (mensajes digitales) se han podido desarrollar
algoritmos más y más sofisticados, permitiendo lograr eficiencias mucho mayores en el uso
del canal que con fuentes analógicas.

Este es uno de los motivos principales por el cual se han impuesto las comunicaciones digitales
sobre las analógicas.

Cuadro 6.1: Comparación de las tecnologías de comunicaciones análogas y digitales en


términos de eficiencia energética y espectral y complejidad de implementación.

Tecnol. Com. Eficiencia energética Eficiencia espectral Complejidad


Análogo Pobre Pobre Baja a media
Digital Buena a muy buena “Mejor” a muy buena Media a muy alta

El segundo motivo en favor de soluciones digitales al problema de comunicaciones es el


avenimiento de la integración a gran escala de circuitos digitales, las que hacen posible la
implementación de algoritmos (codecs muy sofisticados).

6.3. Entropía y compresión

Sea la transmisión de una secuencia de símbolos {xn } con xn independientes e idénticamente


distribuidos, representando símbolos fuente (ej. x = {0, . . . , M − 1}) no modulados. Se define
la entropía como el número promedio de bits necesarios para describir cada símbolo en la
forma más eficiente posible.

Es posible demostrar que la entropía está dada por:


X
H (x) = − P (x) log2 [P (x)] [bits]. (6.1)
x∈X

donde X es el alfabeto de x, es decir, todos los posibles valores que x puede tomar (e.g.
0, . . . , M − 1). Como observación, puede notarse que:

H (x) = E {− log2 [P (x)]} . (6.2)


c 2010 – 2016 Christian Oberli 145
Ejemplo Determine la entropía en el caso en que x es binario. Es decir, X = {0, 1}.

Solución:

Se tiene que:

P (x = 0) = p (6.3)
P (x = 1) = 1 − p. (6.4)

Entonces,
H (x) = −p log2 p − (1 − p) log2 (1 − p) [bits] = H (p) . (6.5)
Graficando en función de p:

Figura 6.3: Gráfica de H (p) versus p.

Observamos que H (p) es máximo e igual a 1 con p = 12 . Por lo tanto, hace falta 1
bit completo (en promedio) para describir un bit de la fuente x. Secuencias binarias
equiprobables no pueden ser comprimidas.

Asimismo, H (p) es mínimo e igual a cero cuando p = 0 ó p = 1. En estos casos,


sabemos cuál es el valor de x (la comunicación es determinística), y por ende
necesitamos cero bits para describirla.


c 2010 – 2016 Christian Oberli 146
Ejemplo Consideremos el mensaje 4−ario:
 1

 0, con P (x) = ,

 2







 1

 1, con P (x) = ,
 4
x= (6.6)

 1



 2, con P (x) = ,

 8





 1
3, con P (x) = .
8
Entonces,
1 1 1 1 1 1 1 1 7
H (x) = − log2 − log2 − log2 − log2 = bits. (6.7)
2 2 4 4 8 8 8 8 4
Vemos que cada símbolo x puede ser descrito con 2 bits (00, 01, 10, 11), pero esa no es
la descripción más compacta.

¿Qué pasa si los 4 símbolos son equiprobables, como hemos estado asumiendo?
1 1
H (x) = −4 log2 = 2 bits. (6.8)
4 4
Por lo tanto, sí hemos estado usando la descripción más compacta posible.

¿Cómo podemos explotar estos conceptos? Es un área del conocimiento muy extensa en la
que no entraremos, pero daremos un minúsculo ejemplo para ilustrar la idea.

Ejemplo Consideremos el código Huffman. Sea:

x a b c
P (x) 1/5 2/5 2/5


c 2010 – 2016 Christian Oberli 147
1
00:
5
0
3
5
1
2 0
01:
5
1
1
2 2
1:
5 5

Figura 6.4: Diagrama de construcción de un código Huffman.

Cómo construir un código Huffman:

1. Unir las dos probabilidades más pequeñas y numerarlas.


2. Repetir hasta llegar a la raíz con probabilidad igual a 1.
3. Etiquetar las ramas con 0/1 y leer el código de derecha a izquierda.

Ejemplo Código Huffman y mensaje 4−ario anterior:

1 1 1
0:
8 2 2
0

1 1 1
10:
8 4
0
1
1
1 2
110:
4 0 1
1
4
1 1
111:
2

Figura 6.5: Diagrama de construcción de código Huffman para mensaje 4−ario del
ejemplo anterior.


c 2010 – 2016 Christian Oberli 148
Se deja como ejercicio propuesto al lector decodificar 01001011010. Vemos que:
1 1 1
L= · 1 bit + · 2 bits + 2 · · 3 bits (6.9)
2 4 8
1 1 3 7
= + + = bits. (6.10)
2 2 4 4
Entonces, ¡este código comprime hasta la entropía!

El tamaño promedio de un código Huffman, L, siempre es:


H (x) ≤ L ≤ H (x) + 1
1
con L = H (x) si y solo pi son de la forma .
2k

6.4. Capacidad de canal

La contribución probablemente más importante para las comunicaciones modernas fue el


teorema de capacidad de canal demostrado por Shannon en 1948.

“Es posible transmitir información sin errores a través de un canal siempre y cuando la
tasa de transmisión sea inferior a la capacidad del canal”.

Para el canal AWGN, dicha capacidad está dada por:


 
bits
C = W log2 (1 + SNR) . (6.11)
seg
Graficando la capacidad versus la razón señal a ruido:

Figura 6.6: Capacidad de canal versus razón señal a ruido.


c 2010 – 2016 Christian Oberli 149
Observamos que si el SNR aumenta, entonces la capacidad aumenta, de la misma forma que
si W aumenta, lo hace C.

Sin embargo, hace falta crecimiento exponencial en señal de razón a ruido para lograr un
aumento lineal de C. Vemos que la eficiencia espectral está dada por (acotada por):
 
(ideal) C bits
ηw = = log2 (1 + SNR) . (6.12)
W s · Hz

“¿Cuantos bits se pueden transmitir en 1 Hz de ancho de banda por segundo?”

Notamos que para sistemas realizables se tiene que:

w(t) q(t)

cos(2πfc t)

Figura 6.7: Traslación espectral en un conversor de radio frecuencia.

Ps Eb Rb
SNRreal = = , (6.13)
Pn N0 W
donde Rb es la tasa de bits/seg, y que:

Eb Rb Eb C Eb
Rb ≤ C ⇐⇒ ≤ = ηW . (6.14)
N W N0 W N0
| 0{z } | {z }
SNR real SNR ideal

Eb
Entonces, SNR(real) ≤ ηW = SNR(ideal) . Así,
N0
 
(real) Eb
ηW ≤ log2 1 + ηW
N0

Usando un solver numérico obtenemos la siguiente gráfica:


c 2010 – 2016 Christian Oberli 150
Figura 6.8: Región de ηw versus SNR para sistemas realizables.


c 2010 – 2016 Christian Oberli 151
Anexo 1: Competencias necesarias en probabilidades

Conceptos básicos

1. A: evento. Entonces, 0 ≤ P (A) ≤ 1.

2. A y B eventos mutuamente excluyentes, entonces:

P (A ∪ B) = P (A) + P (B) . (6.15)

3. A y B además exhaustivos, entonces:

P (A) + P (B) = 1, (6.16)

y por lo tanto, un caso particular es B = Ac y así P (Ac ) = 1 − P (A).

4. Independencia: P (A ∩ B) = P (A) P (B).

5. Probabilidad condicional:
P (A ∩ B)
P (A|B) = . (6.17)
P (B)

6. Bayes (forma simple):


P (A|B) P (B) = P (B|A) P (A) . (6.18)

7. Probabilidad total: A1 , . . . , An eventos mutuamente excluyentes y colectivamente ex-


haustivos. Entonces,
XN
P (B) = P (B|Ai ) P (Ai ) . (6.19)
i=1

8. Bayes (forma general):

P (B|Aj ) P (Aj ) P (B|Aj ) P (Aj )


P (Aj |B) = = N . (6.20)
P (B) X
P (B ∩ Ai )
i=1


c 2010 – 2016 Christian Oberli 152
Variables aleatorias

1. Concepto: variables cuyo valor no puede ser predicho en forma determinística; solo se
conoce la probabilidad de cada valor posible.
2. Distinción entre discretas y continuas.
3. Función de probabilidad acumulativa:
FX (x) = P (X ≤ x) . (6.21)
Se verifican las siguientes propiedades:

(a) Monotónicamente creciente:


x1 < x2 −→ FX (x1 ) ≤ FX (x2 )

(b) 0 ≤ FX (x) ≤ 1.
(c) FX (−∞) = 0 y FX (∞) =1.
(d) P (X > x) = 1 − FX (x).
(e) P (x1 ≤ X ≤ x2 ) = FX (x2 ) − FX (x1 ).

4. Función de densidad de probabilidad:


dFX
fX (x) = (x) donde X es una v.a. continua (6.22)
dx
ˆ x
(a) FX (x) = fX (u) du.
−∞
(b) fX (x) ≥ 0.
ˆ x2
(c) P (x1 < X ≤ x2 ) = fX (x) dx.
x1

5. Momentos:

(a) Valor esperado E { }.


ˆ ∞
Media: µX = E {X} = xfX (x) dx. (6.23)
−∞

(b) Momentos y momentos centrales:


4
Varianza: σX2 = Var {X} (6.24)

= E (X − µX )2 (6.25)
ˆ ∞
= (x − µX )2 fX (x) dx (6.26)
−∞

= E X2 − µ2X . (6.27)
La varianza también se conoce como segundo momento central.


c 2010 – 2016 Christian Oberli 153
6. Variable aleatoria gaussiana:
" #
1 (x − µX )2
fX (x) = p exp − . (6.28)
2πσX2 2σX2
 
1 1 x − µX
FX (x) = + erf √ . (6.29)
2 2 2 σX

7. Función de error: erf (x) (disponible en MATLAB)


ˆ x
2 2
erf (x) = √ e−u du. (6.30)
π 0

Se verifican las siguientes propiedades:

(a) erf (∞) = 1.


(b) erfc (x) = 1 − erf (x).
(c) erf (−x) = − erf (x).
1 x
(d) Q (x) = Φ (x) = erf (notación de otros autores).
2 2
8. Teorema central del límite: 
Xk ∼ iid µX , σX2 . (6.31)
Definimos: n
4 1 X
Yn = p 2 (Xk − µX ) . (6.32)
nσX k=1

Entonces,  2
1 y ·
lı́m fYn (y) = √ exp − ←→ Yn ∼ N (0, 1) . (6.33)
n→∞ 2π 2
9. Variables aleatorias y vectores aleatorios:

(a) Densidad conjunta fXY (x, y).


(b) Independiencia: fXY (x, y) = fX (x) fY (y).
(c) Probabilidad condicional.
(d) Bayes.
(e) Probabilidad total.
(f) Momentos conjuntos.

10. Distribución gaussiana multivariable:


 
1 1 −1
fX (x) = p exp − (x − µ
~ X ) RX (x − µ
~ X) , (6.34)
(2π)n |RX | 2


c 2010 – 2016 Christian Oberli 154
 
X1
  
con X =  ...  y Xi ∼ N µXi , σX2 i y la matriz de covarianza:
XN
n o
RX = E (X − µ ~ )T .
~ ) (X − µ (6.35)


c 2010 – 2016 Christian Oberli 155
Anexo 2: Funciones de Bessel

Cortesía de Sebastián Soto Rojas.

Introducción: Una motivación física

Una de las principales motivaciones para la aparición de las funciones de Bessel –si bien no
es la histórica– consiste en la resolución de problemas diferenciales con simetría cilíndrica.
A modo de ejemplo, supongamos que deseamos resolver la ecuación de onda en un tambor
cilíndrico, de modo que tenemos la ecuación diferencial parcial:

~ 2ϕ = 1 ϕ
∇ (6.36)
c2
donde c es la velocidad de propagación en el medio. Dado que podemos asumir la existencia
de una simetría cilíndrica pues las condiciones de contorno lo serán, entonces

ϕ = ϕ (ρ, θ, z) , (6.37)

y por lo tanto la ecuación de onda anterior puede escribirse en coordenadas cilíndricas como:
∂ 2 ϕ 1 ∂ϕ 1 ∂ 2ϕ ∂ 2ϕ 1 ∂ 2ϕ
+ + + 2 = 2 2. (6.38)
∂ρ2 ρ ∂ρ ρ2 ∂θ2 ∂z c ∂t
En diversas fuentes bibliográficas se puede demostrar que esta ecuación diferencial parcial
tiene solución. Bajo este supuesto, asumamos que la solución puede escribirse como:

ϕ (ρ, θ, z) = R (ρ) Φ (θ) Z (z) T (t). (6.39)

Este método se conoce como método de separación de variables y es una técnica habitual
para resolver cierto tipo de ecuaciones diferenciales. Reemplazando en la ecuación diferencial
parcial:
1 1 1
R00 ΦZT + R0 ΦZT + 2 RΦ00 ZT + RΦZ 00 T = 2 RΦZT 00 . (6.40)
ρ ρ c
En otras palabras,  
1 T 00 00 1 0 1 1 Φ00 Z 00
= R + R + + (6.41)
c2 T ρ R ρ2 Φ Z
Resolveremos ahora etapa por etapa.

Dependencia en el tiempo. Observe que en la ecuación anterior solamente el lado izquierdo


de la ecuación depende del tiempo, y el lado izquierdo depende de las variables ρ, θ y z. Por


c 2010 – 2016 Christian Oberli 156
lo tanto, desde el punto de vista de t el lado derecho es una constante que denominaremos
−k 2 , obteniendo así la ecuación diferencial:

1 T 00
2
= −k 2 −→ T 00 + (kc)2 T = 0. (6.42)
c T
Esta ecuación diferencial ordinaria tiene solución inmediata:

Tk (t) = T0± e±jkct . (6.43)

En este caso lo más sencillo es asumir que k puede ser positivo o negativo, por lo que
necesitamos solo una de estas soluciones. Luego,

Tk (t) = T0 ejkct (6.44)

Dependencia en z. Bajo el reemplazo anterior se tendrá que:


 
2 00 1 0 1 1 Φ00 Z 00
−k = R + R + + . (6.45)
ρ R ρ2 Φ Z

Y bajo una idea similar a lo anterior, se tendrá que:


 
Z 00 2 00 1 0 1 1 Φ00
− −k = R + R + 2 , (6.46)
Z ρ R ρ Φ

donde como el lado derecho no depende de z, es una constante bajo esta variable que deno-
minaremos −a2 . Así, se tiene que:

Z 00 
− − k 2 = −a2 −→ Z 00 + k 2 − a2 Z = 0. (6.47)
Z
Nuevamente,

± k2 −a2 z
Zk,a (z) = Z0 e±j . (6.48)

Consideremos por simplicidad el caso en que k 2 y a2 son ambos reales y positivos (aunque
esto no tiene por qué ser así. Esta solución oscila si k 2 > a2 , decaen exponencialmente si
k 2 < a2 y son constantes si k 2 = a2 .

Dependencia en θ. Se tiene ahora que:


 
00 1 0 1 1 Φ00
R + R + 2 = −a2 . (6.49)
ρ R ρ Φ

Podemos reordenar esta ecuación como sigue para despejar Φ:


 
Φ00 00 1 0 ρ2
− = R + R + ρ 2 a2 . (6.50)
Φ ρ R


c 2010 – 2016 Christian Oberli 157
Dado que no hay dependencia entre las variables de cada lado de la ecuación, ambos lados
deben ser constantes e igual a un número que llamaremos n2 . Entonces,

Φ00
− = n2 −→ Φ00 + n2 Φ = 0. (6.51)
Φ
Despejando,
Φ±
n (θ) = Φ0 e
±jnθ
(6.52)
Como la solución debe tener simetría cilíndrica, entonces la solución debe ser igual en θ = 0
y θ = 2π. De esta forma,

e0 = ejn2π −→ n = 0, ±1, ±2, . . . (6.53)

Dependencia de ρ. Finalmente, tenemos que:


 
00 1 0 ρ2
R + R + ρ2 a2 = n2 . (6.54)
ρ R

Multiplicando por R y reordenando términos obtenemos que:



ρ2 R00 + ρR0 + a2 ρ2 − n2 R = 0. (6.55)

Esta ecuación diferencial, muy diferente a las anteriores, es muy similar la ecuación diferencial
de Bessel, la motivación de este trabajo y que procederemos a resolver a continuación.

Antes de proceder con el próximo apartado, llevemos la ecuación a su forma estándar haciendo
la sustitución x = aρ, de modo que:

dR dR dx dR d2 R 2
2d R
R = R (x) −→ = =a −→ = a . (6.56)
dρ dx dρ dx dρ2 dx2
Entonces la ecuación diferencial anterior puede escribirse como:
 x 2 d2 R x dR 
a2 2
+ a + x2 − n2 R (x) = 0. (6.57)
a dx a dx
Simplificando términos obtenemos:

d2 R dR 
x2 (x) + x (x) + x 2
− n 2
R (x) = 0 (6.58)
dx2 dx

Esta es efectivamente la ecuación de Bessel, cuyas dos soluciones linealmente independien-


tes son las funciones de Bessel Jn (x) y las funciones de Neumann Yn (x). Nótese que
estas dependen del valor que n tome, razón por la cual nos referimos a n como el orden de
las funciones de Bessel.


c 2010 – 2016 Christian Oberli 158
Resolución mediante series de potencias

Dado que la ecuación anterior es una ecuación diferencial de segundo orden, tendremos dos
soluciones linealmente independientes. Primero construiremos una solución inicial utilizando
series de potencias y aplicando el Teorema de Frobenius. Luego, la solución debe escribirse
como: ∞
X
n
R (x) = x bk x k . (6.59)
k=0
Entonces, tenemos que:

X ∞
X
0 n k n
xR (x) = nx bk x + x kbk xk . (6.60)
k=0 k=0

Por lo tanto,

X ∞
X ∞
X
2 00 n k n k n
x R (x) = n (n − 1) x bk x + 2nx kbk x + x k (k − 1) xk . (6.61)
k=0 k=0 k=0

Asimismo, se tiene que:



X ∞
X
x2 R (x) = xn bk xk+2 = xn bk−2 xk . (6.62)
k=0 k=2

Reemplazando esto en la ecuación diferencial se tiene que:



X
n
 
x n (n − 1) bk + 2nkbk + k (k − 1) bk + nbk + kbk + bk−2 − n2 bk xk = 0
k=0

X
n

x 2nkbk + k 2 bk + bk−2 xk = 0
k=0

Entonces, bk debe ser tal que:

k (k + 2n) bk + bk−2 = 0. (6.63)

Como la serie de potencias comienza en k = 0, entonces b−1 = 0 y por lo tanto:


b−1 b2k−3
b1 = − = 0 −→ b2k−1 = = 0. (6.64)
k (k + 2n) (2k − 1) (2k − 1 + 2n)
Para los números pares se sigue que:
b2k−2
b2k = − . (6.65)
4k (n + k)
Siguiendo inductivamente se puede probar que:
b0
b2k = (−1)k . (6.66)
4k k! (n + k) (n + k − 1) · · · (n + 1)


c 2010 – 2016 Christian Oberli 159
¿Cómo escogemos b0 ? En este caso, para garantizar la convergencia de la serie mediante el
criterio del cociente, hacemos b0 = 1/2n n!, por lo que reemplazando en la expresión inicial:

(−1)k  x 2k+n

X
R (x) = Jn (x) = . (6.67)
k=0
k! (n + k)! 2

Dado que deseamos considerar también los órdenes complejos, extendemos la definición de
factoriales mediante la función Gamma, obteniendo así que:

X (−1)k  x 2k+ν
Jν (x) = . (6.68)
k=0
Γ (k + 1) Γ (ν + k + 1) 2

Observe que la evaluación puede hacerse incluso para n negativos. Se tiene que:

X (−1)k  x 2k−n X ∞
(−1)n+k  x 2k+n
J−n (x) = =
k=0
Γ (k + 1) Γ (−n + k + 1) 2 k=0
Γ (n + k + 1) Γ (k + 1) 2
(6.69)
Es decir,
J−n (x) = (−1)n Jn (x) . (6.70)

Propiedades de las funciones de Bessel

Función generatriz

Muchas propiedades sobre las funciones de Bessel pueden ser demostradas mediante su fun-
ción generatriz. Una función generatriz, definida de forma informal, es básicamente una fun-
ción cuya representación en serie de potencias contiene en cada an un término de una sucesión
dada, en este caso la sucesión de funciones de Bessel.

Teorema A2.1: Se tiene que:


hx i ∞
X
−1
exp z−z = Jn (x) z n (6.71)
2 n=−∞

por lo que esta función es la función generatriz de Jn .

Demostración: Tenemos que:


 x m  k
  X k x
hx i x  x1
∞ X (−1)

exp z − z −1 = exp z exp − = 2 zm 2 z −k .
2 2 2z m=0
m! k=0
k!


c 2010 – 2016 Christian Oberli 160
Si realizamos esta multiplicación término a término:
 x m+k
k
hx i ∞ X
X ∞ (−1)
exp z − z −1 = 2 z m−k .
2 m=0 k=0
m! k!

Deseamos comenzar la sumatoria en −∞. Para ello, hagamos n = m − k con m, k ≥ 0. De


esta forma, podemos cambiar la primera sumatoria, obteniendo así que:
  m+k 
k x
hx i X  X (−1)
∞ ∞
2  n
exp z − z −1 =  z
2 n=−∞ m−k=n
m! k!
m,k≥0
" #
(−1)k  x 2k+n n

X ∞
X
= z .
n=−∞
(n + k)! k! 2
| k=0 {z }
Jn (x)

Finalmente,
hx i ∞
X
−1
exp z−z = Jn (x) z n 
2 n=−∞

Proposición A2.1: Se tiene que:



X
cos (x) = J0 (x) + 2 (−1)n J2n (x) (6.72)
n=1

X
sen (x) = 2 (−1)n J2n+1 (x) (6.73)
n=0

X
1 = J0 (x) + 2 J2n (x) (6.74)
n=1

Demostración:
 
jφ 1 1
Hagamos z = e −→ j sen φ = z− y reemplazando en la función generatriz:
2 z

X
jx sen φ
e = Jn (x) ejnφ .
n=−∞

Es decir, expandiendo mediante la fórmula de De Moivre:



X
cos (x sen φ) + j sen (x sen φ) = Jn (x) [cos (nφ) + j sen (nφ)] .
n=−∞


c 2010 – 2016 Christian Oberli 161
Separando partes real e imaginaria:

X ∞
X
cos (x sen φ) = Jn (x) cos (nφ) = J0 (x) + 2 J2n (x) cos (2nφ) (6.75)
n=−∞ n=1


X ∞
X
sen (x sen φ) = Jn (x) sen (nφ) = 2 J2n+1 (x) sen [(2n + 1) φ] . (6.76)
n=−∞ n=0
π
Esto entrega los resultados deseados haciendo φ = 2
para las dos primeras ecuaciones y φ = 0
para la tercera. 

Proposición A2.2: Se cumple que:

Jn (−x) = J−n (x) = (−1)n Jn (x) , (6.77)

para todo n ∈ Z.

Demostración:

Consideremos la función generatriz:


hx i
exp z − z −1 . (6.78)
2
Si hacemos x −→ −x y z −→ z −1 observamos que:
hx i h x i
exp z − z −1 = exp − z −1 − z (6.79)
2 2
¡Que son exactamente la misma función! expandiendo en series de potencias:

X ∞
X
n
Jn (x) z = Jn (−x) z −n . (6.80)
n=−∞ n=−∞

En el primer miembro hacemos m = −n, obteniendo así que:



X ∞
X
Jn (x) z n = J−m (x) z −m . (6.81)
n=−∞ m=−∞

Es decir,
(−1)n Jn (x) = J−n (x) = Jn (−x) . (6.82)
Luego, la función de Bessel es par para órdenes pares e impar para órdenes impares. 

Proposición A2.3: Para todo n ∈ Z:

2Jn0 (x) = Jn−1 (x) − Jn+1 (x) , (6.83)


2n
Jn (x) = Jn+1 (x) + Jn−1 (x) , (6.84)
x
d n
x Jn (x) = xn Jn−1 (x) . (6.85)
dx


c 2010 – 2016 Christian Oberli 162
Demostración:

Tomemos la función generatriz:


hx i ∞
X
−1
exp z−z = Jn (x) z n (6.86)
2 n=−∞

Derivamos a ambos lados en función de x:


1  hx i X∞
−1 −1
z−z exp z−z = Jn0 (x) z n (6.87)
2 2 n=−∞

El lado izquierdo puede expandirse en sus series de potencias:


∞ ∞ ∞
1 X 1 −1 X X
z n
Jn (x) z − z Jn (x) z n = Jn0 (x) z n , (6.88)
2 n=−∞ 2 n=−∞ n=−∞
∞ ∞
1 X X
−→ [Jn−1 (x) − Jn+1 (x)] z n = Jn0 (x) z n . (6.89)
2 n=−∞ n=−∞

De aquí, igualando coeficientes:

2Jn0 (x) = Jn−1 (x) − Jn+1 (x) . (6.90)

Derivando la función generatriz con respecto a z:


x x  hx i X∞
−1
+ exp z−z = nJn (x) z n−1 (6.91)
2 2z 2 2 n=−∞

Expandiendo el lado derecho:


x x  X
∞ X∞
n
+ Jn (x) z = nJn (x) z n−1 (6.92)
2 2z 2 n=−∞ n=−∞


X ∞
X X∞
2n
−→ Jn (x) z n + Jn (x) z n−2 = Jn (x) z n−1 (6.93)
n=−∞ n=−∞ n=−∞
x

X ∞
X X∞
n−1 n−1 2n
−→ Jn−1 (x) z + Jn+1 (x) z = Jn (x) z n−1 . (6.94)
n=−∞ n=−∞ n=−∞
x
Igualando coeficientes concluimos que:

2n
Jn (x) = Jn+1 (x) + Jn−1 (x) . (6.95)
x


c 2010 – 2016 Christian Oberli 163
Sumamos ambas ecuaciones:
2n
2Jn0 (x) + Jn (x) = 2Jn−1 (x) . (6.96)
x
Multiplicamos por xn /2:

xn Jn0 (x) + nxn−1 Jn (x) = xn Jn−1 (x) . (6.97)

Finalmente, por regla del producto de la derivación:

d n
x Jn (x) = xn Jn−1 (x) (6.98)
dx

Demostradas las tres identidades, queda entonces demostrado. 

Proposición A2.4: Para todo m 6= 0 se tiene que:



X ∞
X
J02 (x) + 2 Jn2 (x) = 1 y Jn+m (x) Jn (x) = 0 (6.99)
n=1 n=−∞

Demostración:
hx i ∞
X
−1
exp z−z = Jn (x) z n . (6.100)
2 n=−∞

Se tiene entonces que:


h x i X∞
−1
exp − z − z = Jn (x) z −n . (6.101)
2 n=−∞

Multiplicando ambas:
" ∞
#" ∞
#
X X
1 = Jn (x) z n Jn (x) z −m
n=−∞ m=−∞
∞ ∞
!
X X
= Jn+m (x) Jn (x) z m
m=−∞ n=−∞

" ∞
#
X X X
= Jn2 (x) + Jn+m (x) Jn (x) z m .
n=−∞ m∈Z n=−∞
m6=0

Comparando coeficientes es sigue que:



X ∞
X
1= Jn2 (x) = J02 (x) + 2 Jn2 (x) ←− usando J−n (x) = (−1)n Jn (x) , (6.102)
n=−∞ n=1


c 2010 – 2016 Christian Oberli 164
y

X
0= Jn+m (x) Jn (x) . (6.103)
n=−∞

Esta última relación


P indica que las funciones de Bessel son ortogonales entre ellas bajo el
producto interno n∈Z . 

Proposición A2.5: X
Jn (x) = 1. (6.104)
n∈Z

Demostración:

Basta hacer z = 1 en la ecuación generatriz. 

Proposición A2.6: Se tiene que:


X
Jn (x + y) = Jk (x) Jn−k (y) , (∀n ∈ Z)
k∈Z

Demostración:

X  
1 −1

Jn (x + y) = exp (x + y) t − t ,
n=−∞
2
   
1 −1
 1 −1

= exp x t − t exp y t − t ,
2 2
" ∞ #" ∞ #
X X
= Jk (x) z k Jm (y) z m ,
k=−∞ m=−∞

" ∞
#
X X
= Jk (x) Jn−k (y) z n .
n=−∞ k=−∞

Comparando coeficientes se llega a lo pedido. 

Representación integral

Dado que no estamos presuponiendo un dominio de análisis complejo, revisaremos la versión


del teorema de representación integral exclusivamente para números enteros.

Teorema 2.2: Sea n ∈ Z, entonces:


ˆ π
1
Jn (x) = cos (nθ − x sen θ) dθ. (6.105)
π 0

Demostración:


c 2010 – 2016 Christian Oberli 165
Notamos que esta expresión corresponde en cierto sentido al coeficiente de una serie de
Fourier, ya que estamos tomando el valor medio de una función que aparenta ser periódica.
De esta forma, como la función generatriz es una serie de −∞ a ∞, es una bunea idea evaluar
t en la exponencial compleja para evaluar la situación:

X  
x jθ  j

ψ(x, e ) = Jn (x) e jnθ
= exp e − e−jθ · (6.106)
n=−∞
2 j


X
→ Jn (x) ejnθ = exp (xj sen θ) , (6.107)
n=−∞

en particular,

X
Jn (x)ejnθ = cos (x sen θ) + i sen (x sen θ) = g(θ). (6.108)
n=−∞

Notamos que cada uno de los coeficientes de esta serie de Fourier en su forma compleja
corresponden a Jn (x). De lo que ya sabemos:
ˆ
1 π
Jm (x) = g(θ) e−jmθ dθ, (6.109)
π −π

con lo cual,
ˆ
1 π
Jm (x) = cos (x sen θ) e−jmθ + j sen (x sen θ) e−jmθ dθ
π −π
ˆ
1 π
= cos (x sen θ) cos (mθ) + j cos (x sen θ) sen (mθ) dθ
π −π
ˆ
1 π
+ j sen (x sen θ) cos (mθ) + sen (x sen θ) sen (mθ) dθ
π −π

observando que i cos (x sen θ) sen (mθ) y j sen (x sen θ) cos (mθ) son impares, entonces
ˆ
1 π
Jm (x) = cos (x sen θ) cos (mθ) dθ + sen (x sen θ) sen (mθ) dθ (6.110)
π −π
ˆ
1 π
= cos (mθ − x sen θ) dθ. (6.111)
π −π

que era exactamente lo buscado. 

Corolario: Se tiene que |Jn (x)| ≤ 1.

Demostración:

Tomamos la representación integral:


ˆ π
1
Jn (x) = cos(nθ − x sen θ)dθ. (6.112)
π 0


c 2010 – 2016 Christian Oberli 166
Notamos que:
ˆ ˆ
1 π 1 π
|Jn (x)| = cos(nθ − x sen θ)dθ ≤ |cos(nθ − x sen θ)| dθ, (6.113)
π 0 π 0

pero |cos(nθ − x sen θ)| ≤ 1, entonces


ˆ ˆ
1 π 1 π
|cos(nθ − x sen θ)| dθ ≤ dθ = 1. (6.114)
π 0 π 0
De esta forma, por transitividad concluimos que

|Jn (x)| ≤ 1  (6.115)


c 2010 – 2016 Christian Oberli 167

También podría gustarte