Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Christian Oberli
Profesor Asociado
Departamento de Ingeniería Elécrica
Pontificia Universidad Católica de Chile
Versión 2016–1
Índice
1. Modulación analógica 4
1.1. Amplitud modulada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2. Banda lateral doble con supresión de portadora . . . . . . . . . . . . . . . . 11
1.3. Banda lateral única . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4. Frecuencia modulada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2. Ruido 43
2.1. Procesos aleatorios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.2. Proceso estocástico a través de un filtro lineal . . . . . . . . . . . . . . . . . 52
2.3. Ruido térmico (blanco) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.4. Propiedades de los procesos estocásticos gaussianos . . . . . . . . . . . . . . 58
c 2010 – 2016 Christian Oberli 1
5. Transmisión digital en pasabanda 115
c 2010 – 2016 Christian Oberli 2
Prefacio
Este libro es una transcripción del manuscrito que elaboré y perfeccioné a lo largo de 10 años
dictando el curso introductorio a las telecomunicaciones en el Departamento de Ingeniería
Eléctrica de la Pontificia Universidad Católica de Chile. Esta primera edición es resultado
del excelente trabajo de transcripción hecho por el alumno Sebastián Soto, a quién agradezco
y felicito muy sinceramente por el trabajo.
El texto de esta primera versión pública sin duda hereda falencias del manuscrito. Espero ir
subsanándolas con el tiempo y agradezco desde ya correcciones, observaciones y sugerencias
de los lectores.
La visión para este libro es presentar los fundamentos de telecomunicaciones en forma simple y
medular, recogiendo con formalidad matemática los conceptos esenciales y las relaciones entre
ellos, pero sin abordar aspectos que pueden ser explorados más adelante con las herramientas
entregadas aquí.
c 2010 – 2016 Christian Oberli 3
Capítulo 1 Modulación analógica
La condición
|ka m (t)| < 1 ∀t (1.2)
c 2010 – 2016 Christian Oberli 4
asegura que la envolvente de s (t) tenga la misma forma que m (t). Si |ka m (t)| > 1 para algún
t, se dice que la portadora está sobremodulada. Ello implica una inversión de fase, lo que se
traduce en una distorsión de envolvente. Es de sumo interés evitar la sobremodulación, ya que
la detección (demodulación) de la señal AM justamente consiste en detectar la envolvente.
Figura 1.2: Espectro de frecuencia de la señal AM. Los espectros en rojo se conocen como
bandas laterales inferiores y los espectros en naranja como bandas laterales superiores.
c 2010 – 2016 Christian Oberli 5
1.1.3. Índice de modulación
Figura 1.3: Modulación AM de un tono puro: (a) señal modulante, (b) portadora y (c) señal
modulada.
Sean Amáx y Amı́n los valores máximo y mínimo de la envolvente positiva. Por inspección de
la figura 1.3 escribimos:
Amáx Ac (1 + µ)
= , (1.7)
Amı́n Ac (1 − µ)
de lo que resulta
Amáx − Amı́n
µ= . (1.8)
Amáx + Amı́n
El resultado 1.8 puede ser usado para determinar el índice de modulación en un sistema real:
1. Se alimenta el modulador con una señal sinusoidal, tal como en la ecuación 1.5.
2. Se observa la señal modulada 1.6 en el osciloscopio y se mide Amáx y Amı́n .
3. Se determina µ usando la ecuación 1.8.
c 2010 – 2016 Christian Oberli 6
1.1.4. Eficiencia energética de la modulación AM
La eficiencia energética de la modulación AM, dada por la razón entre la potencia del mensaje
y la potencia total transmitida es:
Potencia bandas laterales
ηE = (1.14)
Potencia total
1 2 2
µA
= 1 24 1 c2 2 (1.15)
A + 4 µ Ac
2 c
Entonces,
µ2
ηE = . (1.16)
2 + µ2
c 2010 – 2016 Christian Oberli 7
Figura 1.4: Eficiencia energética de la modulación AM de un tono puro.
Cabe preguntarse: ¿Si AM es tan ineficiente, por qué entonces tiene una historia de gran
popularidad? La respuesta es que permite implementaciones muy simples del receptor. Esto
es relevante en aplicaciones de broadcasting: es preferible que miles de receptores sean baratos,
pudiendo ser más caro y complejo el (único) transmisor (no obstante, en AM el transmisor
puede ser muy simple también).
Rs
vs (t)
s(t)
−
Figura 1.5: Detector de envolvente: antena como una fuente de señales AM.
c 2010 – 2016 Christian Oberli 8
Rs
s(t)
Figura 1.6: Detector de envolvente: antena como una fuente de señales AM.
1
R` ·
jωC R` − jR`2 ωC
Zeq = = ··· =
1 1 + R`2 ω 2 C 2
R` +
jωC
Rs
C R`
s(t)
Figura 1.7: Detector de envolvente: un filtro pasa bajos remueve las oscilaciones y recupera
la envolvente.
Cuando el diodo conduce, este tiene una resistencia pequeña (rf , figura 1.8). Dado que la
resistencia de la fuente (Rs ) también es pequeña, y escogiendo la resistencia de carga grande
R` , el condensador se carga. Para que la carga ocurra con suficiente rapidez, necesitamos
(Rs + rf ) C f1c . Por otro lado, R` C debe ser suficientemente grande para filtrar la porta-
dora, pero no demasiado para ser capaz de seguir a la envolvente, cuya máxima frecuencia
es W . Así, los criterios de diseño de un detector de envolvente son:
1 1
(Rs + rf ) C R` C (1.17)
fc W
c 2010 – 2016 Christian Oberli 9
rf
Rs
C R`
s(t)
Eficiencia espectral. Pobre. Las bandas laterales son esencialmente réplicas redun-
dantes una de otra.
El paso lógico para mejorar la eficiencia es permitir diseños más complejos. Identificamos dos
posibilidades concretas:
2. Suprimir además una de las bandas laterales y con ello mejorar también ηW .
c 2010 – 2016 Christian Oberli 10
Figura 1.10: Mejoramiento de eficiencia de AM mediante supresión de una banda lateral.
Es claro que en este caso las inversiones de fase son inevitables, pero la información sigue
estando en la amplitud de la portadora.
m(t) s(t)
c(t)
c 2010 – 2016 Christian Oberli 11
Figura 1.11: Modulación de banda lateral doble con supresión de portadora: (a) señal
modulante, (b) señal modulada.
El espectro de la señal BLD–SP es bien conocido y está dado por (figura 1.13):
1
S (f ) = Ac [M (f − fc ) + M (f + fc )] (1.19)
2
Figura 1.13: Modulación BLD–SP: (a) espectro de amplitud de la señal modulante y (b)
espectro de magnitud de la señal modulada.
c 2010 – 2016 Christian Oberli 12
1.2.2. Detección coherente
Para demodular señales BLD–SP necesitamos un método que permita resolver las inversiones
de fase. La solución es conceptualmente sencilla, y consiste de un modulador BLD–SP seguido
por un filtro pasa bajos (figuras 1.14 y 1.15). En la práctica, la dificultad de usar este método
es que requiere una portadora local en el receptor que sea coherente con la portadora del
transmisor, esto es, que ambas portadoras coincidan perfectamente tanto en frecuencia como
en fase. Esto es imposible de lograr en la práctica.
cos (2πfc t)
Figura 1.15: Traslación espectral de una señal BLD–SP al ser re-modulada con una porta-
dora de frecuencia fc .
Analicemos el caso en que el oscilador local coincide en frecuencia con el del transmisor pero
no en fase, como lo ilustra la Figura 1.16.
c 2010 – 2016 Christian Oberli 13
v(t)
s(t) LPF v0 (t)(t)
En (X), el primer sumando es una señal pasa banda centrada en 2fc , y el segundo término
es una señal de banda base, v0 (t), proporcional a m (t) por un factor cos (ϕ). La situación se
ilustra en la Figura 1.17, el que se recupera mediante un filtro pasabajos (Figura 1.16).
Figura 1.17: Espectro de magnitud de la señal BLD–SP demodulada con error de fase en
la portadora.
Vemos que:
El Loop de Costas es una arquitectura de receptor que aprovecha el efecto del cero de
cuadratura para generar una señal de control que adelanta o atrasa la fase del oscilador local
c 2010 – 2016 Christian Oberli 14
en el sentido correcto para re-sincronizar la portadora del receptor con aquella del transmisor
presente en la señal recibida. El loop utiliza un oscilador controlado por voltaje (voltage
controlled oscillator, VCO, figura 1.18) y opera de la siguiente forma (figura 1.19):
Demodulador en fase
1
Ac cos(ϕ)m(t)
2
LPF Señal demod.
cos(2πfc t + ϕ)
Discriminador
VCO LPF
de fase
Ac cos(2πfc t)m(t)
−90◦
sen(2πfc t + ϕ)
LPF
1
Ac sen(ϕ)m(t)
2
Demodulador en cuadratura
c 2010 – 2016 Christian Oberli 15
Cuando ϕ ≈ 0, la salida del demodulador en fase es aproximadamente 21 Ac m (t), pro-
porcional a la señal deseada. A su vez, la salida del demodulador en cuadratura es
aproximadamente cero. Así, el discrimiandor en fase, que consiste de un multiplicador
seguido por un filtro pasabajos, produce una salida también esencialmente igual a cero.
Así, el VCO mantiene su frecuencia actual y preserva la coherencia entre la portadora
local y la del transmisor.
la que tiene el signo de ϕ puesto que sen (ϕ) ≈ ϕ y todos los demás términos son
positivos. El filtro pasa bajos remueve las fluctuaciones de m2 (t) por lo que su salida
es una señal proporcional a ϕ. Si ϕ > 0, el voltaje de entrada al VCO es positivo y ello
reduce fc hasta que ϕ vuelva a cero.
El Loop de Costas pierde sincronismo al haber silencio (si m (t) ≡ 0). Para señales de voz,
la recuperación del sincronismo es imperceptiblemente rápida.
En comparación con el detector de envolvente, es claro que el Loop de Costas es más complejo,
ya que requiere implementar:
1. un oscilador local,
2. un circuito de control, y
Queremos realizar una modulación de banda lateral única (BLU) como lo ilustra la figura
1.20. Para ello, la forma más inmediata que se nos ocurre es modular primero BLD–SP y luego
usar un filtro pasa banda (figura 1.21). Desafortunadamente, esta solución es técnicamente
difícil (por lo tanto costosa) debido a los estrictos requerimientos del filtro pasa banda en
términos de:
fc
1. Alto factor W
.
2. Aguda transición entre la pasa banda y la rechaza banda, la que debe ser lograda dentro
de la brecha de energía típica de señales de audio. (¿Y qué ocurre si no hay brecha de
energía?)
c 2010 – 2016 Christian Oberli 16
Figura 1.20: Modulaciones de banda lateral única.
u(t)
s(t) = BLU BPF m(t)
Ac cos (2πfc t)
Figura 1.21: Modulación BLU utilizando un filtro pasa banda (método impráctico).
Es claro que necesitamos una solución más inteligente. ¿Qué tal si en vez de filtrar la banda
lateral indeseada la cancelamos? La idea se ilustra en la figura 1.22 y el diagrama de bloques
del modulador en la figura 1.23. La función de transferencia H (f ) mostrada en ambas figuras
se conoce como transformador de Hilbert. Se trata de un dispositivo ideal que en la
c 2010 – 2016 Christian Oberli 17
práctica se implementa con filtros cuya respuesta de frecuencia a la respuesta de frecuencia
deseada. Debido a la aproximación, la supresión de la banda lateral no es perfecta.
sen(2πfc t) =
H(f ) = −j sgn(f )
Transformador j
− [δ(f − fc ) − δ(f + fc )]
de Hilbert 2
c 2010 – 2016 Christian Oberli 18
m(t) + s(t)
±
Ac cos(2πfc t)
H(f )
−90◦
Ac sen(2πfc t)
4
= m̂(t)
La señal BLU está compuesta por la señal modulante m(t) y su transformada de Hilbert,
m̂ (t), y está dada por
s (t) = Ac m (t) cos (2πfc t) ± Ac m̂ (t) sen (2πfc t) , (1.24)
donde el signo positivo para m (t) corresponde a BLI (banda lateral inferior) y el negativo a
BLS (banda lateral superior). Las propiedades de m (t) son estudiadas en la sección 4.1.
v(t)
c 2010 – 2016 Christian Oberli 19
s(t)
Analicemos nuevamente el caso en que el oscilador local del receptor tiene un desfase ϕ con
respecto al del transmisor. La salida del mezclador, antes del filtro pasabajos, es:
Ac A0c
v0 (t) = [m (t) cos (ϕ) + m̂ (t) sen (ϕ)] . (1.28)
2
La expresión anterior no revela mucho. Analicémosla en el dominio de la frecuencia:
Ac A0c h i
V0 (f ) = M (f ) cos (ϕ) + M̂ (f ) sen (ϕ) (1.29)
2
Ac A0c
= M (f ) [cos (ϕ) − j sgn (t) sen (ϕ)] (1.30)
2
Ac A0c
M (f ) e−jϕ , si f > 0,
2
= (1.31)
0
Ac Ac M (f ) ejϕ , si f < 0,
2
ya que
M̂ (f ) = −j sgn (f ) M (f ) . (1.32)
Vemos que el error de fase ϕ en el oscilador local del receptor resulta en una distorsión de
fase en la salida del modulador. La distorsión no es grave para señales de voz, ya que el oído
humano es poco sensible a ella (efecto “Pato Donald”), pero es inaceptable para audio de alta
fidelidad.
c 2010 – 2016 Christian Oberli 20
1.4. Frecuencia modulada
donde θ (t) es un ángulo en función de la señal de mensaje. Para una portadora pura, θ (t) =
2πfc t + ϕ0 con ϕ0 una fase inicial. Una oscilación completa de la portadora ocurre cuando
θ (t) cambia en 2π radianes.
Existen infinitas maneras de variar θ (t) con una señal de mensaje dada m (t). Dos métodos
particulares son:
Modulación de fase (PM). θ (t) varía linealmente con la señal de mensaje m (t):
1 dθ
f (t) = (t) (1.37)
2π ˆdt
t
θ (t) = 2π f (τ ) dτ. (1.38)
0
La variación lineal de la frecuencia instantánea en función de m (t) implica que f (t) tiene la
forma
f (t) = fc + kf m (t) , (1.39)
Hz
con kf un parámetro de unidades V
llamada sensibilidad de frecuencia. Usando la ecua-
ción 1.38 en 1.39 encontramos
ˆ t
θ (t) = 2πfc t + 2πkf m (τ ) dτ, (1.40)
0
c 2010 – 2016 Christian Oberli 21
y con ello formulamos el modelo de señal FM como sigue:
ˆ t
s (t) = Ac cos 2πfc t + 2πkf m (τ ) dτ . (1.41)
d
Figura 1.26: Comparación entre modulaciones PM y FM: (a) señal modulante, (b) señal
modulada y (c) señal modulada en frecuencia.
c 2010 – 2016 Christian Oberli 22
Figura 1.27: Comparación entre modulaciones AM, PM y FM. (a) portadora, (b) señal
modulante, (c) señal modulada en amplitud, (d) señal modulada en fase y (e) señal modulada
en frecuencia.
Comparando las ecuaciones 1.35 con 1.41, vemos que FM y PM tienen esencialmente la misma
estructura y pueden ser generadas con circuitería similar (figura 1.28). Así, las propiedades
de PM pueden ser deducidas a partir de las de FM, y viceversa, motivo por el que nos
enfocaremos a estudiar FM.
c 2010 – 2016 Christian Oberli 23
ˆ
Modulador
(a) Señal modulante dt Señal FM
en fase
Ac cos(2πfc t)
d Modulador
(b) Señal modulante Señal PM
dt en frecuencia
Ac cos(2πfc t)
La modulación FM es un proceso no lineal, esto es, la señal transmitida, s (t), es una función
no lineal del mensaje m (t). Por ello, el espectro de una transmisión FM no guarda una
relación simple con el espectro del mensaje m (t), como es el caso con AM, BLD–SP y BLU.
Para estudiar el espectro de una modulación FM, consideremos el caso simple de la modula-
ción FM de un tono puro,
m (t) = Am cos (2πfm t) . (1.42)
La frecuencia instantánea de la modulación en este caso está dada por
4
con ∆f = kf Am un parámetro denominado desviación de frecuencia. ∆f representa el
máximo alejamiento de la frecuencia instantánea con respecto a la frecuencia de la portadora
(en Hertz).
c 2010 – 2016 Christian Oberli 24
4 ∆
donde β = fmf es el índice de modulación de una señal FM. β tiene unidades de radia-
nes y representa la máxima desviación del ángulo instantáneo con respecto al ángulo de la
portadora.
Así, la modulación FM de un tono puro está dada por
s (t) = Ac cos [2πfc t + β sen (2πfm t)] . (1.48)
Según el valor de β, se reconocen dos tipos de modulación FM:
ˆ
m(t) dt + FM–BA
−90◦ Ac cos(2πfc t)
c 2010 – 2016 Christian Oberli 25
Expandiendo el producto de senos en la ecuación 1.52, reescribimos s (t) como
1
sFM-BA (t) ≈ Ac cos (2πfc t) + βAc {cos [2π (fc + fm )] − cos [2π (fc − fm ) t]} . (1.53)
2
Recordemos ahora el resultado 1.10 visto para la modulación AM de un tono puro:
1
sAM (t) = Ac cos (2πfc t) + µAc {cos [2π (fc + fm ) t] + cos [2π (fc − fm ) t]} . (1.54)
2
Vemos que las expresiones 1.53 y 1.54 son muy similares. Esto da lugar a la interpretación
fasorial para FM de banda angosta mostrada en la figura 1.30 (el espectro de 1.53 se muestra
en la figura 1.32).
Figura 1.30: Interpretación fasorial de (a) una modulación FM e banda angosta de un tono
puro y (b) una modulación AM de un tono puro.
ejx + e−jx
cos (x) = , (1.55)
2
c 2010 – 2016 Christian Oberli 26
reescribimos la ecuación 1.48 como:
Ac h j2πfc t+jβ sen(2πfm t) −j2πfc t−jβ sen(2πfm t)
i
s (t) = e +e (1.56)
2
Ac j2πfc t jβ sen(2πfm t) Ac −j2πfc t −jβ sen(2πfm t)
= e |e {z } + 2 e e| {z }. (1.57)
2
♣ ♠
Las funciones ♣ y ♠ en la ecuación 1.57 son periódicas, por lo que podemos expandirlas
como series de Fourier. Si definimos a ♣ en 1.57 como s̃ (t), es claro que ♠ = s̃ (−t). Así,
la expansión en serie de ♠ puede ser inferida fácilmente a partir de la expansión de ♣.
Procediendo entonces con ♣, obtenemos
∞
X
s̃ (t) = ck ej2πkfm t , (1.58)
k=−∞
donde la última línea resulta de hacer el cambio de variable x = 2πfm t. Trabajando esta
expresión:
ˆ π ˆ π
1 j
ck = cos [β sen x − kx] dx + sen [β sen x − kx] dx. (1.62)
2π −π 2π −π
Notando que cos [β sen x − kx] es una función par y sen [β sen x − kx] una función impar,
entonces: ˆ
1 π
ck = cos [β sen x − kx] dx. (1.63)
π 0
La expresión resultante se conoce como función de Bessel del primer tipo de orden
k y argumento β. La notación habitual para esta función es Jk (β). La figura 1.31 grafica
Jk (β) para distintos valores de k.
c 2010 – 2016 Christian Oberli 27
Funciones de Bessel
0.8
0.6
0.4
J (β)
k
0.2
−0.2
−0.4
0 5 10 15
β [rad]
Figura 1.31:
Figura FuncionesdedeBessel
31: Funciones Besseldeldel primer
primer tipo
tipo . β.
y argumento
y argumento
1. Simetrı́a: (
Importante: En el Anexo 2 se incluye un estudio
Jk ( detallado
) depar
si k es las funciones de Bessel
J kde
así como la demostración ( )sus 1)k Jk ( ) =propiedades.
= (principales (65)
Jk ( ) si k es impar
2. Energı́a:
1
Entre las propiedades que usaremos de lasX
funciones 2de Bessel, destacan:
|Jk ( )| = 1 (66)
k= 1
1. Simetría:
Continuando con el desarrollo, sustituyendo ck =
Jk ( ) en (61), resulta
Jk (β) , si k es par,
k 1
J−k (β) = (−1)
s̃(t) =
JkX
(β) =
Jk ( j2⇡kfm t (1.64)
)e . (67)
k= 1 −Jk (β) , si k es impar.
Similarmente,
2. Energía: 1
X
∞
s̃( t) = X J k(2 )ej2⇡kfm t . (68)
k= 1 |Jk (β)| = 1 (1.65)
k=−∞
Volviendo atrás a (60) con (67) y (68), tenemos
Continuando con el A c j2⇡fc t Xsustituyendo
desarrollo, AcJk j2⇡f
j2⇡kfm t ck =
X
(β) cen
t la ecuación 1.58,
j2⇡( resulta
k)fm t
s(t) = e Jk ( )e + e J k( )e . (69)
2 ∞
2
k X k
j2πkfm t
Realizando el cambio de variables̃ de
(t) =k por kJen
k (β)
la esegunda. sumatoria, podemos unir ambas
(1.66)
sumatorias y re-escribir (69) como k=−∞
El resultado 1.70 es una forma alternativa de expresar la modulación de un tono puro dada
por 1.54. Esta nueva expresión nos permite determinar el espectro de la modulación FM de
un tono puro tomándole directamente la transformada de Fourier, obteniendo:
∞
Ac X
S (f ) = Jk (β) [δ (f − fc − kfm ) + δ (f + fc + kfm )] . (1.71)
2 k=−∞
J0 (β) ≈ 1 (1.72)
β
J1 (β) ≈ (1.73)
2
Jk (β) ≈ 0 para k ≥ 2 (1.74)
c 2010 – 2016 Christian Oberli 29
Componentes de frecuencia para modulacion FM con ß=0.3
1
0.8
0.6
|Jk(0.3)|
0.4
0.2
0
−15 −10 −5 0 5 10 15
k
0.8
0.6
Jk(0.3)
0.4
0.2
−15 −10 −5 0 5 10 15
k
Figura
Figura 1.32: Líneas
32: Lineas espectrales
espectrales demodulación
de la la modulación FMundetono
FM de un tono
puro puro con índice
con ı́ndice de modu-
de modulación
lación β = 0,3.
= 0,3.
1
Xaumenta el número de líneas espectrales significativas
2. En la medida que β crece,
= Ac Jk ( ) cos[2⇡(fc + kfm )t]. (71)
(armónicas, figuras 1.33 yk=1.34).
1
La separación entre armónicas es fm Hz.
0.4
S(f ) = Jk ( )[ (f fc kfm ) + (f + fc + kfm )]. (72)
k
2 k= 1
0.2
0.6 J0 ( ) ⇡ 1 (73)
0.4
J1 ( ) ⇡ (74)
2
Jk(1)
0.2
0 Jk ( ) ⇡ 0 para k 2 (75)
−0.2
Este es el caso de FM de banda angosta y confirma el resultado (55) deducido en la
−0.4
Sección 4.3.1. El espectro dado por (72) se muestra en la Figura 32.
−15 −10 −5 0 5 10 15
k
2. En la medida que crece, aumenta el número de lineas espectrales significativas (armóni-
Figuracas,
Figura 33:Figuras
1.33:Lineas 33
Líneas y 34). Ladeseparación
espectrales
espectrales entre FM
demodulación
la armónicas
la modulación esun
FMundetono
de fmtono
Hz. puro
puro con índice
con ı́ndice de modu-
de modulación
lación β = 1,0.
= 1,0.
c Copyright 2010–2015 Christian Oberli 24
c 2010 – 2016 Christian Oberli 30
Componentes de frecuencia para modulacion FM con ß=5
0.4
0.3
k
Figura 33: Lineas espectrales de la modulación FM de un tono puro con ı́ndice de modulación
= 1,0.
0.4
0.3
|J (5)|
0.2
k
0.1
−15 −10 −5 0 5 10 15
k
0.4
0.2
Jk(5)
−0.2
−0.4
−15 −10 −5 0 5 10 15
k
Figura
Figura 1.34: Líneas
34: Lineas espectrales
espectrales de lademodulación
la modulación FMundetono
FM de un tono puroı́ndice
puro con con índice de modu-
de modulación
lación β =
= 5,0. 5,0.
Conocer el ancho de banda de una transmisión es vital para dimensionar la cantidad de espec-
tro necesario, para hacer uso del espectro disponible de acuerdo a regulaciones y concesiones
c 2010 – 2016 Christian Oberli 31
vigentes y para asimismo conocer la eficiencia espectral de la transmisión.
β = 1 ⇐⇒ ∆f = fm (1.77)
β = 2 ⇐⇒ ∆f = 2fm (1.78)
β = 5 ⇐⇒ ∆f = 5fm (1.79)
Puesto que fm es la separación entre las líneas espectrales y dado que más líneas
espectrales dejan de ser despreciables al crecer β (figuras 1.32 y 1.34), deducimos que
Por lo tanto, aumentar la potencia del tono modulante (mayor Am ) hace crecer el ancho
de banda de la transmisión.
Ambos casos anteriores permiten plantear una fórmula empírica para el ancho de banda de
la modulación FM de un tono puro. La deducción de esta fórmula considera dos escenarios:
Asimismo, arriba observamos que el ancho de banda guarda relación con ∆f (Caso
I). Sin embargo, puesto que para FM de banda angosta se tiene ∆f = βfm < 0,3fm ,
podemos afirmar que para este rango de β la desviación ∆f subestima el ancho de
c 2010 – 2016 Christian Oberli 32
banda fuertemente y por lo tanto 2fm es mejor indicador que ∆f para el ancho de
banda (figura 1.35).
0.8
0.6
0.4
0.2
fc − fm fc fc + fm
-0.2
2. β grande: Cuando β es grande, por ejemplo β = 20, hay unas 25 líneas espectrales a
cada lado de la portadora (figura 1.36). Para estos casos podemos decir que
es un buen indicador del ancho de banda, mientras que 2fm lo subestima fuertemente.
c 2010 – 2016 Christian Oberli 33
2∆f = 2 · 20fm
fc − 25fm fc fc + 25fm
A partir de los dos escenarios anteriores, Carson formuló la siguiente regla empírica para el
ancho de banda de la modulación FM de un tono puro:
1
BFM ≈ 2∆f + 2fm = 2∆f 1 + (1.82)
β
c 2010 – 2016 Christian Oberli 34
k en funcion de β
max
2
10
max
1
10
0
10
−1 0 1 2
10 10 10 10
β [rad]
B en funcion de β para la modulacion del Problema 4
T
7
10
β crit. 1%
β Carson
6
T
10
B
5
10
−1 0 1 2
10 10 10 10
β [rad]
Figura
Figura 1.37: Regla
37: Regla de Carson
de Carson (curva(curva
suave, suave,
gráfico gráfico
inferior) inferior) vs.delcriterio
vs. criterio del dentada).
1 % (curva 1 % (curva
dentada).
A partir de los dos escenarios anteriores, Carson formuló la siguiente regla empı́rica para el
ancho de banda de la modulación FM de un tono puro:
Criterio del 1 %. De la ecuación 1.71 sabemos que ✓FM tiene 1
◆ infinitas líneas espectrales
BFMde
repartidas sobre todo el espectro ⇡ frecuencia.
2 f + 2fm = 2 lo
Por 1 + en estricto rigor, BFM −→
f tanto, (83)
∞,
independiente de Am y fm . Sin embargo, hemos visto que la energía de la modulación se
La curva correspondiente
concentra, en la práctica, se
en ilustra en el gráfico
una banda de ancho inferior
finitode(figura
la Figura 37. Ello implica que para
1.34).
cualquier β dado, siempre existe un entero kmáx tal que
4.4.2. Criterio del 1 %
Jk (β) < Jmı́n , ∀k ≥ kmáx , (1.83)
De (72) sabemos que FM tiene infinitas lineas espectrales repartidas sobre todo el espectro de
con Jmı́n un umbral
frecuencia. que indica
Por lo tanto, el valor
en estricto mínimo
rigor, BFM ! que Jk (β) debe tener
1,unindependiente de Ampara
y fmser considerado
. Sin embargo,
significativo.
hemos visto Elque“criterio delde1la
la energı́a define Jmı́nse cn
%”modulación respectoena lalapráctica,
concentra, amplitud ende una
una portadora
banda de anchono
modulada como34).
finito (Figura sigue:
Ello implica que para cualquier dado, siempre existe un entero kmax tal que
Jmı́n = 0,01 · J0 (0) . (1.84)
Jk ( ) < Jmin 8k kmax , (84)
Los valores de kmáx que satisfacen este criterio en función de β deben ser calculados numé-
con Jmin un umbral que indica el valor mı́nimo que un Jk ( ) debe tener para ser considerado
ricamente (figura 1.7 y cuadro 1.1). El ancho de banda de la modulación FM del tono puro
significativo. El “criterio del 1 %” define Jmin con respecto a la amplitud de una portadora no
luego se determina como
modulada como sigue:
JBFM==0,2k · Jfm
01máx
min
.
(0). 0
(1.85)
(85)
Los valores de kmax que satisfacen este criterio en función de deben ser calculados numéri-
camente (Figuras 37 y 38). El ancho de banda de la modulación FM del tono puro luego se
determina como
BFM = 2kmax fm . (86)
Consideremos una señal modulante m (t) cuyo contenido espectral está limitado al rango
[−W, W ] Hz. Se define la razón de desviación como
4 ∆f
D= . (1.86)
W
Vemos que la razón de desviación es una definición análoga al índice de modulación (cf.
ecuación 1.46) pero para el caso general de una señal modulante cualquiera. Así, en forma
análoga al caso de la modulación de un tono puro (cf. ecuación 1.83), definimos la regla de
Carson en forma generalizada para el ancho de banda de una modulación FM arbitraria como
sigue:
1
BFM = 2∆f + 2W = 2∆f 1 + , (1.87)
D
ya que usar W para calcular D considera la situación más desfavorable para el ancho de
banda.
c 2010 – 2016 Christian Oberli 36
(b) el criterio del 1 %.
Solución:
(a) Con la regla de Carson obtenemos directamente BFM = 2 · (75 kHz + 15 kHz) =
180 kHz.
Para generar una modulación FM de banda ancha existen principalmente dos métodos, los
que se describen a continuación.
Método indirecto. Primero se genera una señal FM de banda angosta utilizando un modu-
lador como el de la figura 1.29 seguido por un multiplicador de frecuencia. Este consiste
de un dispositivo no-lineal sin memoria seguido por un filtro pasa banda (figura 1.38). La
relación entrada-salida del dispositivo no-lineal está dada por
Dispositivo v(t)
u(t) no lineal sin BPF
memoria
con ˆ t
ϕ (t) = 2πkf m (τ ) dτ. (1.91)
0
Entonces, por ejemplo con n = 3 se tiene
v (t) = a1 Ac cos [2πfc t + ϕ (t)] + a2 A2c cos2 [2πfc t + ϕ (t)] + a3 A3c cos3 [2πfc t + ϕ (t)] . (1.92)
c 2010 – 2016 Christian Oberli 37
Usando identidades trigonométricas es fácil mostrar que
1 3 1 1
v (t) = a2 A2c + a1 Ac + a3 A3c cos [2πfc t + ϕ (t)] + a2 A2c cos [4πfc t + 2ϕ (t)] + a3 A3c cos [6πfc t + 3ϕ (t)] . (1.93)
2 4 2 4
Vemos que cada sumando en la ecuación anterior es una modulación FM, y que estas mo-
dulaciones tienen razones de desviación (índices de modulación) sucesivamente crecientes,
resultando, a partir de algún múltiple, modulaciones de banda ancha, las que pueden ser
aisladas mediante un filtro pasa banda para obtener la modulación FM deseada.
Solución:
∆f = DW (1.94)
= 0,2 rad · 15 kHz (1.95)
= 3 kHz. (1.96)
Para lograr una modulación de banda ancha con ∆f = 75 kHz se necesita n = 75 kHz
3 kHz
=
25. Esto se puede lograr en dos pasos con dos multiplicadores de frecuencia de orden 5
en cascada.
Una forma para estabilizar la frecuencia de salida de un VCO es mediante un lazo de reali-
mentación en circuitos conocidos como Phase-Locked Loops (PLL, ver sección 4.7).
c 2010 – 2016 Christian Oberli 38
Método de la derivada. Consideremos la señal FM y su derivada:
ˆ t
sFM (t) = Ac cos 2πfc t + 2πkf m (τ ) dτ (1.97)
0
ˆ t
dsFM
(t) = −Ac [2πfc + 2πkf m (t)] sen 2πfc t + 2πkf m (τ ) dτ . (1.98)
dt 0
La derivada es una señal de pasabanda (el sen (·) es una señal FM en torno a fc ) modulada
en amplitud por m (t), como en AM. Así, un derivador seguido por un detector de envolvente
es una posible arquitectura para demodular FM (figura 1.39).
d Detector de
dt envolvente
c 2010 – 2016 Christian Oberli 39
BPF @ fc + ∆
+ +
entrada salida
− −
BPF @ fc − ∆
Resultante:
Figura 1.40: Arquitectura de un derivador basado en dos filtros pasa banda en paralelo.
c 2010 – 2016 Christian Oberli 40
s(t) Filtro del loop v(t)
VCO
Para entender su funcionamiento, asumiremos que el VCO ha sido ajustado tal que cuando
su entrada es cero, su salida es exactamente fc y está 90◦ fuera de fase con la portadora de
s (t). Comenzando con v (t) (figura 1.41) representamos la relación entrada–salida del VCO
como
r (t) = Ac cos [2πfc t + ϕv (t)] , (1.100)
con: ˆ t
ϕv = 2πkv v (τ ) dτ. (1.101)
0
Entonces, la salida del multiplicador es
Derivando ϕe (t):
ˆ t
dϕe dϕm d
(t) = (t) − 2πkv v (τ ) dτ (1.105)
dt dt dt 0
dϕm
= (t) − 2πkv v (t) (1.106)
dt
Pero
con h (t) la respuesta al impulso del filtro del loop. Con ello, reescribimos la ecuación 1.106
como ˆ ∞
dϕe dϕm
(t) = (t) − πkm kv Ac Av sen [ϕe (t)] h (t − τ ) dτ. (1.109)
dt dt −∞
c 2010 – 2016 Christian Oberli 41
Esta es una ecuación íntegro-diferencial no-lineal que describe el comportamiento dinámico
del PLL.
Cuando ϕe (t) ≡ 0 para todo t se dice que el PLL está “anclado en fase” (phase-locked ). Para
casos en que ϕe (t) es pequeño, es posible mostrar que
1 dϕm
v (t) ≈ (t) (1.110)
2πkv dt
kf
= m (t) . (1.111)
kv
Esto indica que un PLL anclado en fase y que sea capaz de seguir con un error ϕe (t) pe-
queño las fluctuaciones de fase de una señal FM de entrada, genera en su salida una señal
proporcional a la modulante m (t). De esta forma, el PLL puede ser usado como demodulador
FM.
c 2010 – 2016 Christian Oberli 42
Capítulo 2 Ruido
Importante: Este capítulo presupone que el lector cuenta con las competencias en
probabilidades listadas en el Anexo 1.
2.1.1. Definición
El ruido, el tema central de este capítulo y uno de los temas centrales del estudio de la
Ingeniería de Comunicaciones, es modelado matemáticamente como un proceso estocástico
o proceso aleatorio, concepto que definiremos en esta sección.
A diferencia que con variables aleatorias, caso en que un experimento devuelve un valor
concreto para la variable, el resultado de un experimento con un proceso estocástico es una
función aleatoria. En nuestro caso, dicha función típicamente es una señal en función del
tiempo.
Señal de voz.
Señal de TV.
Señal de ruido.
En los ejemplos anteriores los procesos son aleatorios puesto que no es posible
predecir (antes de conducir el experimento) cuál será la señal que observaremos.
El espacio muestral contiene todas las funciones que satisfacen las mismas propie-
dades estadísticas.
c 2010 – 2016 Christian Oberli 43
Denotaremos el proceso estocástico por X (t) y una realización del proceso por
x (t), de la misma forma en que una variable aleatoria la denotamos por X y una
realización de esta variable como x.
Figura 2.1: Tres realizaciones del mismo proceso estocástico con t ∈ [0, T ] .
Notamos que:
Para t = t0 , X0 = X (t0 ) es una variable aleatoria y x1 (t0 ), x2 (t0 ) y x3 (t0 ) son los
resultados de tres experimentos de la variable aleatoria X0 .
X (t1 ), X (t2 ) y X (t3 ) son tres variables aleatorias diferentes, ¡y pueden tener dis-
tribuciones de probabilidad muy distintas!
c 2010 – 2016 Christian Oberli 44
1. Para k = 1 tenemos que:
Para los propósitos de realizar una caracterización estadística de los procesos estocásticos,
definimos las siguientes funciones:
1. Función de media:
4
µX (t) = E {X (t)} (2.4)
ˆ ∞
= xfX(t) (x) dx. (2.5)
−∞
fX(t) puede variar en el tiempo, como por ejemplo en la señal de audio de una conver-
sación.
Si el proceso estocástico es estacionario, entonces puede notarse que para todo t se
cumplirá que
µX (t) = µX . (2.6)
c 2010 – 2016 Christian Oberli 45
3. Función de covarianza:
4
CX (t1 , t2 ) = E {[X (t1 ) − µX (t1 )] [X (t2 ) − µX (t2 )]} . (2.10)
Realizando una expansión de esta ecuación puede notarse que:
CX (t1 , t2 ) = E {X (t1 ) X (t2 )} − µX (t1 ) µX (t2 ) (2.11)
= RX (t1 , t2 ) − µX (t1 ) µX (t2 ) . (2.12)
Observaciones:
2. Simetría:
RX (τ ) = RX (−τ ) . (2.17)
Esto indica que medir la correlación hacia atrás es exactamente lo mismo que me-
dirla hacia adelante, debido a que como el proceso es estacionario las características
estadísticas no varían en el tiempo.
3. Máximo:
|RX (τ )| ≤ RX (0) . (2.18)
Por lo tanto, ningún par de muestras del proceso están tan correlacionadas como cada
muestra consigo mismo.
c 2010 – 2016 Christian Oberli 46
Ejemplo Consideremos el proceso estocástico
Solución:
En primer lugar,
Luego,
Solución:
c 2010 – 2016 Christian Oberli 47
Asimismo,
RX (t1 , t2 ) = E A2 cos (2πfc t1 ) cos (2πfc t2 )
σ2
= {cos [2πfc (t1 + t2 )] + cos [2πfc (t1 − t2 )]} .
2
El segundo término cumple con la condición de depender exclusivamente de la
diferencia de tiempo, sin embargo no se puede lograr los mismos resultados para
el primer término, que depende de la suma de tiempos.
Un proceso estocástico ergódico es tal que sus propiedades estadísticas se pueden obtener
observando el proceso a lo largo del tiempo.
c 2010 – 2016 Christian Oberli 48
por:
ˆ T
1
E {µx (T )} = E {x (t)} dt (2.20)
2T −T
ˆ T
1
= µX dt (2.21)
2T −T
= µX . (2.22)
lı́m µx (T ) = µX .
T →∞
Este segundo promedio de tiempo debe verse también como una variable aleatoria con media
y varianza propias. Decimos asimismo que el proceso x (t) es ergódico en la función de
autocorrelación si se cumplen las siguientes dos condiciones:
para toda realización x (t). Sin embargo, |x (t)|2 (y por lo tanto x (t)) puede entenderse como
una densidad temporal de energía. La energía total de la señal (en joules) viene dada por:
ˆ ∞ ˆ ∞
2
E= |x (t)| dt = |X (f )|2 df (2.27)
−∞ −∞
c 2010 – 2016 Christian Oberli 49
donde X (f ) es la transformada de Fourier de la realización x (t). De aquí se deduce entonces
que:
J
|X (f )|2 = . (2.28)
Hz
Definamos entonces una transformada de Fourier de tiempo acotado:
ˆ T
2
X (f ) = x (t) e−j2πf t dt. (2.29)
− T2
Notamos que X (f ) es un proceso estocástico ya que x (f0 ) es una variable aleatoria para todo
f0 puesto que es una suma de las infinitas variables aleatorias x (t) con t entre − T2 y T2 .
La potencia espectral promedio del proceso estocástico X (t) ∈ − T2 , T2 en cada frecuen-
cia f está dada por:
(T ) 1
SX (f, T ) = EX |X (f )|2 (∀f ) , (2.30)
| {z } T | {z }
W energía promedio por Hz
Hz
, determinístico
para una frecuencia f
Definiremos entonces la densidad espectral de potencia (PSD por sus siglas en inglés)
del proceso estocástico X (t) como:
(T ) W
SX (f ) = lı́m SX (f, T ) . (2.31)
T →∞ Hz
c 2010 – 2016 Christian Oberli 50
Si ∆f fc , entonces:
E Y2 (t) = E X2 (t) ≈ 2∆f SX (fc ) . (2.32)
f =±fc
Por lo tanto, SX (fc ) representa la densidad de frecuencia de la potencia promedio del proceso
X (t)2 evaluada en la frecuencia f = fc . Se sigue entonces que:
W
[SX (fc )] = . (2.33)
Hz
ˆ ∞
2
1. RX (0) = E X (t) = SX (f ) df .
| {z } −∞
2
=σX
2. SX (f ) ≥ 0 para todo f (la potencia de mayor o igual que cero). Esto se deduce inme-
diatamente de la deducción realizada anteriormente en la interpretación física, pues la
esperanza dada es siempre positiva.
3. SX (−f ) = SX (f ) (simetría).
Demostración:
Esta propiedad se obtiene sustituyendo −f por f en la ecuación:
ˆ ∞
SX (−f ) = RX (τ ) exp (j2πf τ ) dτ
−∞
c 2010 – 2016 Christian Oberli 51
2.2. Proceso estocástico a través de un filtro lineal
Este caso es de especial interés para comunicaciones digitales ya que el ruido blanco siempre
es filtrado a la entrada del receptor, y luego en el filtro adaptado. ¿Por qué? Para limitar la
potencia del ruido versus la potencia de la señal.
s(t)
+ BPF Demodulador
Amplificador
Lineal (LNA)
w(t)
El receptor tiene una figura de ruido. El ruido térmico de las componentes electrónicos aguas
abajo y w son el problema.
donde X (t) es un P.E. ESA y h (t) es un filtro LTI. En particular, nos interesa determinar
µY (t), RY (t1 , t2 ) y SY (f ). Teniendo clara esta caracterización, podemos respondernos la
pregunta: ¿es Y (t) un proceso estocástico ESA?
c 2010 – 2016 Christian Oberli 52
Dado que la esperanza es un operador lineal, asumimos alternancia entre operadores y
obtenemos así que: ˆ ∞
µY (t) = h (τ ) E {X (t − τ )} dτ. (2.37)
−∞
De estas últimas dos observaciones se deduce que Y (t) es estacionario en el sentido amplio.
Podemos aplicar entonces el teorema de Wiener-Kinchin a RY (τ ) para encontrar SY (f ). Por
lo tanto,
SY (f ) = F {RY (τ )} (2.44)
ˆ ∞ˆ ∞ˆ ∞
= h (τ1 ) h (τ2 ) RX (τ − τ1 + τ2 ) e−j2πf τ dτ1 dτ2 dτ (2.45)
ˆ−∞
∞ ˆ ∞
−∞ −∞
ˆ ∞
= h (τ1 ) h (τ2 ) RX (τ − τ1 + τ2 ) e−j2πf τ dτ dτ1 dτ2 (2.46)
−∞ −∞
| −∞ {z }
τ 0 =τ −τ1 +τ2
ˆ ∞ ˆ ∞ ˆ ∞
−j2πf τ1 0
= h (τ1 ) e dτ1 h (τ2 ) e j2πf τ2
dτ2 RX (τ 0 ) e−j2πf τ dτ 0 (2.47)
∞
| −∞ {z } −∞
h(−τ2 )←→H(−f )=H ∗ (f )
= H (f ) H ∗ (f ) SX (f ) . (2.48)
Es decir,
SY (f ) = |H (f )|2 SX (f ) . (2.49)
c 2010 – 2016 Christian Oberli 53
Ejemplo Consideremos ruido blanco transmitido a través de un filtro pasabajos ideal.
¿Cuál será la función de autocorrelación del proceso estocástico a la salida, Rη (τ )?
f
w(t) u η(t)
W
f
Figura 2.4: Ruido blanco transmitido a través de un filtro BPF ideal H(f ) = u .
W
Solución:
Se tiene que:
W
1, |f | ≤ ,
f 2
H (f ) = u =
W
0, en otro caso.
N0
W (t) : AWGN con SW (f ) = .
2
y por lo tanto,
−1 N0 f N0 W
Rη (τ ) = F u = sinc (τ W )
2 W 2
sen (πx)
donde sinc (x) = . Graficando esta función de autocorrelación:
πx
c 2010 – 2016 Christian Oberli 54
De esta figura se observa que el filtro correlaciona al ruido y por lo tanto el período de
muestreo afecta a la potencia transmitida. De acuerdo a la función de autcorrelación
obtenida deducimos de inmediato que la potencia promedio de η (t) es N0 W .
Una resistencia R a temperatura T Kelvin exhibe un voltaje W (t) en sus bornes como
resultado de aquella cinética. El ruido W (t) es un proceso estocástico gaussiano3 (como
consecuencia del Teorema del Límite Central), de media cero y estacionario.
El estudio de un modelo físico permite llegar a la conclusión de que el ruido térmico puede
modelarse como el siguiente circuito equivalente:
R
+
−
+
ηT (t) w(t)
−
En este caso la densidad espectral de potencia de la fuente de voltaje está dada por:
3
Un proceso estocástico es gaussiano si X (t) es una variable aleatoria gaussiana para todo t.
c 2010 – 2016 Christian Oberli 55
2Rh |f |
SηT (f ) = . (2.50)
h |f |
exp −1
kT
donde:
h es la constante de Planck,
m2 · kg
h = 6,62 × 10−34 . (2.51)
s
k es la constante de Boltzmann,
m2 · kg
k = 1,38 × 10−23 . (2.52)
s2 · K
R es la resistencia equivalente de Thévenin.
En otras palabras, asumimos que la densidad espectral de potencia del ruido blanco es cons-
tante e igual a N0 /2 en todo el espectro de frecuencias4 . Utilizamos la constante N0 /2 para
indicar que 12 de la potencia se distribuye en f > 0 y el otro 12 de la potencia en f < 0.
4
Por esta razón se conoce como ruido blanco en analogía a la luz: al contener la misma distribución en
todo el espectro de frecuencias, se hace una analogía diciendo que contiene todos los colores y por lo tanto,
es blanco.
c 2010 – 2016 Christian Oberli 56
R
−
+ ηT2 (t)
ηT (t) Pmáx =
4R
N0
pero dicha potencia es también 2∆f = N0 ∆f . Por lo tanto, igualando:
2
W
N0 = kT . (2.57)
Hz
−21 W
Ejemplo Considerando una temperatura T = 290 K entonces N0 = 4 × 10 .
Hz
dBm
−→ N0 = −174 . (2.58)
Hz
c 2010 – 2016 Christian Oberli 57
Resumiendo, el ruido térmico es:
2. µW = 0.
3. Estacionario.
4. Blanco, es decir:
N0 dBm
SW (f ) = = −174
2 Hz
Y por lo tanto,
N0
RW (τ ) = δ (τ )
2
y no existe correlación en el tiempo.
s(t)
+ r(t)
w(t)
Figura 2.7: Modelo equivalente para el ruido blanco gaussiano aditivo (AWGN).
c 2010 – 2016 Christian Oberli 58
X(t) h(t) Y(t)
3. Si CX (tk , ti ) = 0 para todo i 6= k, entonces todas las variables aleatorias X (ti ) son
estadísticamente independientes.
c 2010 – 2016 Christian Oberli 59
Capítulo 3 Comunicaciones digitales en banda base
3.1. Introducción
Posibilidad de multiplicación.
Formato común para utilizar un mismo medio para transmitir información de origen
muy variado (voz, datos, vídeo, sensores).
T
LPF ZIP {z · ·}·
|1001101101
{bn }
Muestreador 1
Filtro anti– Compresor p2 = p 1 =
2
aliasing Cuantizador
c 2010 – 2016 Christian Oberli 60
Ejemplo Transmisión binaria conocida como NRZ (non-return to zero). A cada símbolo
asociamos un pulso de voltaje dado por:
m=0
Análogamente,
t − 12 Tb
s1 (t) = − u . (3.2)
Tb
c 2010 – 2016 Christian Oberli 61
donde sn (t) es la señal del n−ésimo bit y puede tomar la forma s0 (t − nTb ) ó s1 (t − nTb ).
Luego,
∞
X
s (t) = sbn (t − nTb ) , (3.5)
n=−∞
∞
" #
X t− n+ 1
Tb
= (−1)bn u 2
. (3.6)
n=−∞
Tb
De esta forma, puede hacerse una conversión entre mensaje digital y señal analógica tal
como se describe en el siguiente esquema:
Existen muchísimas formas de asociar bits con señales, pero algunas son mejores que otras.
El campo de las comunicaciones digitales trata acerca de diseñar y evaluar todas esas alter-
nativas.
c 2010 – 2016 Christian Oberli 62
Figura 3.4: Ejemplo de señal ruidosa. Arriba la señal determinística y abajo la señal deter-
minística con AWGN agregado.
s(t) r(t)
{bn } Modulador Canal + Demodulador {b̂n }
w(t)
Respecto a cada uno de los elementos de este esquema pueden realizarse los siguientes obser-
vaciones:
La pregunta es: ¿qué forma tiene el demodulador? Recibe la señal analógica con ruido y debe
decidir qué simpolo representa. En el ejemplo binario anterior:
¿Cómo determinar si esta señal resultante, con el ruido aditivo agregado, se parece más a un
0 ó a un 1? ¿Cuál es el procesador óptimo para señales analógicas deterioradas por ruido
aditivo blanco gaussiano, tal que la probabilidad de error en la salida sea mínima?
c 2010 – 2016 Christian Oberli 63
x0 (t) T x0 [n]
h0 (t) +
s(t) c0 b̂n
+ r(t) máx
x1 (t) T x1 [n]
w(t) h1 (t) +
c1
Estudiaremos el receptor óptimo etapa por etapa. Los filtros h0 (t) y h1 (t) se conocen como
filtros adaptados a los pulsos s0 (t) y s1 (t).
Los filtros adaptados para s0 (t) y s1 (t) tienen una respuesta al impulso estrechamente ligada
a esas mismas señales. En efecto, se puede deducir que, buscando condiciones de optimalidad
para el filtro:
hFA,m (t) = sm (Tb − t) . (3.7)
Es decir, el filtro adaptado es un filtro cuya respuesta al impulso es la imagen tiempo–invertida
de la señal a detectar.
Figura 3.6: Ejemplo de filtro adaptado para una señal dada donde s (t) es la señal y hFA (t)
su filtro adaptado.
c 2010 – 2016 Christian Oberli 64
Figura 3.7: Ejemplo de filtros adaptados para el caso binario NRZ. A la derecha las señales
originales y a la izquierda sus respectivos filtros adaptados.
3.2.2. Muestreo en Tb
De acuerdo a la figura expuesta notamos que para los pulsos NRZ como si (f ) = −s0 (f ),
entonces el filtro adaptado 1 tiene un desfase de π con respecto al filtro adaptado 0.
Veamos qué pasa si se transmite un cero y asumimos que por ahora no existe transmisión de
ruido (i.e. w (t) ≡ 0). Luego, r (t) = s0 (t), y por lo tanto:
c 2010 – 2016 Christian Oberli 65
Figura 3.8: Resultado de la convolución gráfica para la primera entrada del filtro adaptado.
Se observa que:
x0 (Tb ) = A2 Tb
Es decir, el máximo valor de la función se alcanza efectivamente en el instante de muestreo.
Similarmente,
Figura 3.9: Resultado de la convolución gráfica para la segunda entrada del filtro adaptado.
c 2010 – 2016 Christian Oberli 66
3.2.3. Constantes cm
1
c0 = c1 = − A2 Tb . (3.16)
2
1
x0 (Tb ) − A2 Tb
2
máx
1
−x0 (Tb ) − A2 Tb
2
1 2 0 1 2
x0 (Tb ) −A Tb ≷ −x0 (Tb ) −A Tb . (3.18)
2 1 2
Si se transmite un cero:
x0 (Tb ) = A2 Tb Como A2 TB > −A2 Tb se decide en favor de 0.
−x0 (Tb ) = −A2 Tb
c 2010 – 2016 Christian Oberli 67
3.2.5. Consideraciones de funcionamiento del receptor óptimo
Con este entendimiento básico del receptor óptimo, nos centraremos en tres aspectos:
Supongamos asimismo que se transmite un cero e ignoremos el efecto del ruido. Estu-
diemos el comportamiento del filtro adaptado al tomar decisiones.
Solución:
Entonces,
x0 (t) = s0 (t) ∗ h0 (t) = s0 (t) ∗ s0 (T − t) . (3.19)
Gráficamente, esta señal de salida se observa como:
c 2010 – 2016 Christian Oberli 68
Figura 3.12: Salida del primer filtro adaptado.
c 2010 – 2016 Christian Oberli 69
Así, el dispositivo de decisión compara y escoge:
2 1 2 2 1 2 2
máx {x0 (T ) + c0 ; x1 (T ) + c1 } = máx A T − A T ; k AT − k A T
2 2
1 2 k
= máx A T ; k 1− A2 T
2 2
1
Ejemplo: tomando k = −
2
1 5
= máx ; − .
2 8
El receptor declara entonces un cero y observamos que la decisión es correcta para todo
k ∈ R\ {1}.
donde s (t) puede ser s0 (t) ó s1 (t). Luego, considerando que estamos trabajando con un pulso
NRZ, la integral de convolución cambia sus extremos de integración de 0 a T y por lo tanto:
ˆ t
x0 (T ) = s (τ ) h0 (t − τ ) dτ (3.23)
0
t=T
ˆ t
= s (τ ) s0 (T − t + τ ) dτ (3.24)
0
t=T
ˆ T
= s (τ ) s0 (τ ) dτ. (3.25)
0
c 2010 – 2016 Christian Oberli 70
Análogamente,
x1 (T ) = s (t) ∗ h1 (t) (3.26)
= ··· (3.27)
ˆ T
= s (τ ) s1 (τ ) dτ. (3.28)
0
Supongamos que s1 es proporcional a s0 . En dicho caso, s1 (t) = ks0 (t) y por lo tanto:
ˆ T
x1 (t) = k s (τ ) s0 (τ ) dτ (3.29)
0
= kx0 (T ) . (3.30)
Así, siempre que los pulsos s0 (t) y s1 (t) sean linealmente dependientes, las salidas de los
filtros adaptados en t = T también lo serán. Por lo tanto, basta con usar un solo filtro (usar
dos no agrega información para la decisión.
T
s(t) + h0 (t) b̂n
w(t)
c 2010 – 2016 Christian Oberli 71
2 1+k
0 si x0 (T ) ≥ A T ,
2
2 1+k
1 si x0 (T ) < A T .
2
1 1
Se observa que la frontera de decisión es , alcanzada cuando k = − .
4 2
3. w (t) ≡ 0.
c 2010 – 2016 Christian Oberli 72
Solución:
Asimismo,
También,
ˆ
1 Tb 2 A2
c0 = − s0 (t) dt = − Tb (3.38)
2 0 2
ˆ Tb
1 B2
c1 = − s21 (t) dt = − Tb . (3.39)
2 0 2
Distinguimos así tres casos:
Caso I
A2 B2
≥ AB − . (3.43)
2 2
c 2010 – 2016 Christian Oberli 73
Entonces, siempre se escoge el cero, para cualquier valor de A y B, salvo en la igualdad,
cuyo caso es trivial pues los símbolos a transmitir serían iguales y no habrían comunica-
ciones.
Por lo tanto, con el receptor óptimo formulado con constantes, la decisión siempre es
correcta (en ausencia de ruido).
Caso II
Caso III
En el ejemplo binario NRZ notamos que siempre se tiene x1 (t) = −x0 (t) puesto que s1 (t) =
−s0 (t) y por ende hFA,0 (t) = −hFA,0 (t). Por ello, la detección se puede hacer usando un solo
4
filtro adaptado dado por hFA (t) = hFA,0 (t).
También notamos que c0 = c1 las hace irrelevantes para la decisión, y así las despreciamos.
El receptor óptimo toma entonces la siguiente forma:
x(t) T
r(t) hFA (t) b̂n
c 2010 – 2016 Christian Oberli 74
Más aún, en vez de tomar el máximo podemos evaluar el signo de la expresión, de modo que:
(
0, si x (Tb ) ≥ 0,
b̂n = (3.47)
1, si x (Tb ) < 0.
Veamos qué pasa si en vez de transmitir un bit aislado se transmite una secuencia {bn }
determinada. Para el caso binario estudiado hasta ahora, determinaremos analíticamente el
resultado obtenido al ingresar una secuencia de bits de la forma,
∞
" #
X t − n + 1
Tb
s (t) = A2 (−1)bn u 2
. (3.48)
n=−∞
Tb
s0 (t) s0 (t)
hFA (t) = ˆ ∞ =√ 2 . (3.49)
A Tb
s20 (τ ) dτ
−∞
Observamos que:
c 2010 – 2016 Christian Oberli 75
Juntando estos dos hechos, tendremos que:
ˆ ∞ " #
τ − n + 21 Tb t − τ − 21 Tb t − (n + 1) Tb
u u dτ = Tb ∧ , (3.54)
−∞ Tb Tb Tb
(
|t| , si t ∈ [−1, 1] ,
donde ∧ (t) = Así,
0, si t 6∈ [−1, 1] .
p X ∞
bn t − (n + 1) Tb
x (t) = A Tb (−1) ∧ . (3.55)
n=−∞
Tb
{bn } = 10110
c 2010 – 2016 Christian Oberli 76
Figura 3.18: Resultado de la convolución gráfica con el filtro adaptado, paso a paso.
c 2010 – 2016 Christian Oberli 77
r(t) x(t) Tb x(Tb )
s(t) + F.A. b̂n
w(t)
Figura 3.19: Receptor simplificado usando filtro adaptado a s0 (t) y considerando la adición
de ruido blanco gaussiano.
Desde luego, x (Tb ) ahora es una observación ruidosa, lo cual conlleva una probabilidad de
cometer un error de decisión. ¿Cuál es la probabilidad de error? Hay dos errores posibles:
La probabilidad de error de bit, denotada por Pb , tiene entonces la siguiente forma general:
c 2010 – 2016 Christian Oberli 78
Figura 3.20: Señal enviada, su filtro adaptado y función de autocorrelación empleadas para
el cálculo de probabilidad de error.
Tenemos que:
hFA (t−τ )
ˆ ∞ z }| {
1
t − τ − 2 Tb
x (Tb ) = A2 Tb + A w (τ ) u dτ (3.60)
−∞ Tb
ˆ Tb
2
= A Tb +A w (τ ) dτ. (3.61)
| {z } 0
(∗)
El paso crucial para evaluar Pb es reconocer que x (Tb ) es una variable aleatoria gaussiana,
ya que x (t) es un proceso estocástico gaussiano y x (Tb ) una muestra de dicho proceso. Por
lo tanto, basta con determinar la media y varianza de x (Tb ) para conocer su distribución. En
efecto,
c 2010 – 2016 Christian Oberli 79
pues E {w (τ )} = 0. Análogamente,
n 2 o
2
σX|0 = E x (Tb ) − µX|0 |0 (3.65)
ˆ Tb
2 2
= E A Tb + A w (τ ) dτ − A TB (3.66)
0
ˆ Tb ˆ Tb
2
=E A w (τ1 ) dτ1 w (τ2 ) dτ (3.67)
0 0
ˆ Tb ˆ Tb
2
A E {w (τ1 ) w (τ2 )} dτ1 dτ2 . (3.68)
0 0
| {z }
N0
RW (τ1 ,τ2 )= 2
δ(τ1 −τ2 )
Es decir, ˆ ˆ
Tb Tb
2 2 N0
σX|0 =A δ (τ1 − τ2 ) dτ1 dτ2 . (3.69)
2 0 0
Recordando que la función impulso integral 1 para τ1 = τ2 , entonces:
ˆ Tb ˆ Tb ˆ Tb
δ (τ1 − τ2 ) dτ1 dτ2 = dτ2 , (3.70)
0 0 0
y por lo tanto,
2 N0 N0 2
σX|0 = A2
Tb = A Tb , (3.71)
2 2
donde A2 Tb es la energía del filtro adaptado y del pulso, i.e. definimos Eb = A2 Tb . En
consecuencia, la densidad de probabilidad de x (Tb ) dado que se transmitió un 0 es:
( )
2
1 (x − A2 Tb )
fX (x | 0) = p exp − . (3.72)
2π N0/2 A2 Tb N0
Notamos que se declara un 1 cuando x (Tb ) < 0, por lo que graficando la función de densidad
probabilística y achurando el área correspondiente:
Figura 3.21: Función de densidad probabilística asociada a x (Tb ) así como el área que
denota la probabilidad de cometer error de tipo I.
c 2010 – 2016 Christian Oberli 80
Entonces,
1 1 x − A2 Tb
P (D1 | 0) = + erf √ (3.73)
2 2 A2 T N0
s x=0
1 1 A2 T
= + erf − (3.74)
2 2 N0
r !
1 1 Eb
= − erf , (3.75)
2 2 N0
Figura 3.22: Función de densidad probabilística asociada a x (Tb ) así como el área que
denota la probabilidad de cometer error de tipo II.
Es decir,
" r !#
1 1 Eb
P (D0 | 1) = 1 − + erf (3.78)
2 2 N0
r !
1 1 Eb
= − erf . (3.79)
2 2 N0
c 2010 – 2016 Christian Oberli 81
Finalmente, de esta forma,
1 1
Pb = P (D1 | 0) + P (D0 | 1) (3.80)
2 2
r !
1 1 Eb
= − erf (3.81)
2 2 N0
Eb
1. N0
se conoce como la razón señal a ruido (SNR), entre la energía de un símbolo y la
potencia del ruido.
c 2010 – 2016 Christian Oberli 82
Figura 3.23: Relación entre la razón señal a ruido y la probabilidad de error en escala log–
log. Esta curva no es otra cosa que el complemento de la función de acumulación gaussiana
en escala logarítmica.
3. Se puede realizar una representación del dispositivo de decisión junto a las señales que
recibe y los valores que estas pueden tomar de acuerdo a la distribución de probabili-
dades. Esto se muestra en la siguiente figura:
c 2010 – 2016 Christian Oberli 83
Tb x(TB )
b̂n
Figura 3.24: Dispositivo de decisión junto a señales que recibe y valores que puede tomar
de acuerdo a las distribuciones de probabilidades.
c 2010 – 2016 Christian Oberli 84
la relación entre s0 (t) y hFA (t).
porque hFA (t) tiene energía 1, lo cual no altera la señal filtrada.
La optimalidad del filtro adaptado consiste en que maximiza la razón señal a ruido de los
estadísticos de entrada al dispositivo de decisión (¡no existe otra forma de procesar las señales
recibidas para mejorar la SNR aún más!).
En consecuencia, si la razón señal a ruido es máxima (para todos los estadísticos, forma
general del receptor óptimo), la probabilidad de error resulta mínima.
Demostración:
Una forma de describir el requerimiento es exigir que la potencia instantánea de x (t) medida
en t = T sea tan grande como se pueda comparada a la potencia promedio del ruido de salida
n (t). En otras palabras, el receptor debe maximizar el SNR de pulso peak:
|x (T ) |2
η= (3.89)
E {n2 (t)}
Entonces, expandiendo ambos términos en términos de sus contenidos espectrales:
ˆ ∞
H (f ) S (f ) exp (j2πf T ) df
η = −∞ ˆ ∞ , (3.90)
SN (f ) df
−∞
N0
pero SN (f ) = |H (f ) |2 . Por lo tanto,
2
ˆ ∞
H (f ) S (f ) exp (j2πf T ) df
2 −∞
η= ˆ ∞ . (3.91)
N0 2
|H (f ) | df
−∞
c 2010 – 2016 Christian Oberli 85
Teorema: (Desigualdad de Schwarz) Si tenemos dos funciones φ1 (x) y φ2 (x) de variable
real x, satisfaciendo las condiciones
ˆ ∞ ˆ ∞
2
|φ1 (x) | dx < ∞ y |φ2 (x) |2 dx (3.92)
−∞ −∞
Entonces,
ˆ 2 ˆ ˆ
∞ ∞ ∞
φ1 (x) φ2 (x) dx ≤ 2
|φ1 (x) | dx 2
|φ2 (x) | dx . (3.93)
−∞ −∞ −∞
c 2010 – 2016 Christian Oberli 86
Importante: Debe considerarse que para la optimalidad determinada se están realizan-
do los siguientes supuestos bajo los cuales el filtro adaptado es el receptor óptimo:
Estudiemos la respuesta de frecuencia de un filtro adaptado para entender mejor cómo opera.
En efecto,
Puesto que sm (f ) son reales, sabemos que |S (−f )| = |S (f )|5 . Por lo tanto,
|HFA,m (f )| = |S (f )| . (3.104)
Volviendo al ejemplo binario, graficamos las respuestas en frecuencia de cada uno de los
elementos de esta etapa:
5
Recuerde el lector que la transformada de Fourier de una señal real es hermítica.
c 2010 – 2016 Christian Oberli 87
Figura 3.25: Gráficos de las respuestas en frecuencia para la señal, su filtro adaptado y la
función de autcorrelación del ruido.
N0
El ruido w (f ) tiene la energía repartida parejamente en todo el espectro pues SW (f ) = 2
mientras que la señal no pues S0 (f ) = ATb sinc (f Tb ) e−jπf Tb .
Por lo tanto, el filtro adaptado está adaptado a la señal tal que permita pasar frecuencias
donde la señal es fuerte con respecto al ruido y atenúa las frecuencias donde hay poca señal
y sólo ruido.
= s (τ ) s [T − (t − τ )] dτ. (3.106)
−∞
c 2010 – 2016 Christian Oberli 88
3.5. Transmisión M −aria
Como extensión de la transmisión anterior, podemos agrupar los bits de la señal transmitida
en grupos de log2 M bits para formar símbolos. Este proceso se conoce como transmisión
M −aria. En general, si el alfabeto tiene M símbolos posibles, las tuplas binarias son de
log2 (M ) bits.
Mensaje: 0100
|{z} 1011
|{z} 0111
|{z} 1001
|{z}
Símbolos: =4 = 11 =7 =9
Señales: s4 (t) s11 (t) s7 (t) s9 (t)
Sin embargo, hay grupos con mejores características que otros, tales como:
• Características espectrales.
• Energéticas.
c 2010 – 2016 Christian Oberli 89
• Probabilidad de error.
ˆ T
1
Como sm (t) dt = (2m + 1 − M ) A2 T y P (m) = , entonces:
0 M
M −1
A2 T X
Es = (2m + 1 − M )2 . (3.113)
M m=0
A2 T
Es = M2 − 1 (3.114)
3
c 2010 – 2016 Christian Oberli 90
Ejemplo Para la transmisión 4−PAM, los bits se agrupan de a 2 para formar los
símbolos que después se transmiten con amplitud variable.
Figura 3.27: Símbolo asociado a cada señal para una transmisión 4−aria.
c 2010 – 2016 Christian Oberli 91
Figura 3.28: Señal de ejemplo para una transmisión 4−aria.
x0 (t) Ts
s0 (Ts − t) +
Ts c0
x1 (t)
s1 (Ts − t) +
r(t)
c1
máx Iˆn
..
.
xM −1 (t) Ts
sM −1 (Ts − t) +
cM −1
c 2010 – 2016 Christian Oberli 92
Para el caso M −PAM, el receptor óptimo puede ser simplificado como antes, puesto que
todas las sm (t) son similares, con sm1 (t) = ksm2 (t):
r(t) Ts x(Ts )
s(t) + s(Ts − t) Iˆn
w(t)
Figura 3.30: Receptor óptimo simplificado y regiones de decisión para el receptor M −PAM.
1. Los errores de decisión son errores de símbolo, los cuales denotaremos como Ps . Hay
M − 1 errores posibles, cuyas probabilidades son, en general, distintas. A modo de
ejemplo, para 4−PAM, si transmitimos el símbolo binario 11, representado por un 3,
se tendrá el siguiente esquema de errores:
c 2010 – 2016 Christian Oberli 93
P (D0 | 3)
P (D1 | 3)
P (D2 | 3)
Figura 3.31: Esquema de posibles errores que se pueden cometer en una modulación
M −PAM dado el símbolo 3.
Por lo tanto, según el error, pueden resultar equivocados entre 1 y log2 M bits. ¡La
probabilidad de error de bit y la probabilidad de error de símbolo no son lo mismo!
2. Las energías de los símbolos varían, y la energía de cada símbolo individual (Es,m )
representa la energía de varios bits.
c 2010 – 2016 Christian Oberli 94
muestreada en Ts es:
ˆ
∞
x (Ts ) = hFA (t − τ ) [sm (τ ) + w (τ )] dτ (3.118)
−∞
ˆ ∞ ˆ ∞ t=Ts
= hFA (t − τ ) sm (τ ) dτ + hFA (t − τ ) w (τ ) dτ (3.119)
−∞ | {z } −∞
t− 1
√1 u 2 Ts
Ts Ts
ˆ ˆ
∞
1 τ − 12 Ts A τ − 12 Ts ∞
1 τ − 12 Ts
= √ u √m u dτ + √ u w (τ ) dτ
−∞ Ts Ts Ts Ts −∞ Ts Ts
(3.120)
p ˆ Ts
1
= Am Ts + √ w (τ ) dτ. (3.121)
Ts 0
2 N0
σX|m = (como antes) . (3.124)
2
√ 4 √
Definiremos E = A Ts . Debemos distinguir dos tipos de símbolos:
Símbolos interiores en el espacio de señales. Estos son los símbolos tales que m 6= 0 ó
m 6= N − 1 y por lo tanto se puede cometer error de símbolo hacia la derecha o hacia
la izquierda. Estos errores quedan correctamente representados por la siguiente figura:
c 2010 – 2016 Christian Oberli 95
Símbolos exteriores en el espacio de señales, los cuales tal como su nombre lo dice,
corresponden al caso m = 0, en el cual se comete un error cuando la variable aleatoria
se desplaza hacia la derecha, y al caso m = M − 1, en el que la variable aleatoria se
desplaza hacia la izquierda.
Se sigue que:
donde:
r !
1 1 E
P+ = P (Dm+1 |m) = − erf (3.127)
2 2 N0
r ! r !
1 1 E 1 1 E
P− = + erf − = − erf . (3.128)
2 2 N0 2 2 N0
Se sigue que:
M −1
1 X
Ps = P (x (Ts ) 6∈ Rm |m) (3.129)
M m=0
1
= [(M − 2) (P+ + P− ) + P+ + P− ] (3.130)
M
2 (M − 1)
= P+ . (3.131)
M
Es decir,
r !
M −1 E
Ps = erfc . (3.132)
M N0
Si bien este resultado es correcto, es poco útil para comparar PAM con distintos valores de
M , pues:
c 2010 – 2016 Christian Oberli 96
El segundo paso hacia una base de comparación de modulaciones con distinto M es trans-
formar las Ps a probabilidades de error de bit.
log2 (M )
X
Ps = P (error de símbolo | b bits en error) P (b bits en error) . (3.133)
b=1
Entonces,
(≥)
Ps ≈ P (1 bit en error) . (3.135)
Esto corresponde a la unión de todos los log2 M eventos de 1 bit de error (mutuamente
excluyentes, conjuntamente exhaustivos). En promedio cada uno tiene Pb probabilidad de
ocurrencia. De esta forma,
log2 (M )
(≥) X
Ps ≈ P (1 bit en error| n − ésimo bit en error) P (n − ésimo bit en error) (3.136)
b=1
log2 (M )
X
= P (n − ésimo bit en error) . (3.137)
b=1
Es = log2 (M ) Eb . (3.141)
Así, la probabilidad de error de símbolo de M −PAM con base de SNR común en Eb /N0 es:
s
M −1 3 log2 (M ) Eb
Ps = erfc . (3.142)
M M 2 − 1 N0
c 2010 – 2016 Christian Oberli 97
Figura 3.33: Probabilidad de error de símbolo en una modulación M −PAM para distintos
valores de M , en función de Eb /N0 .
c 2010 – 2016 Christian Oberli 98
Capítulo 4 Representación equivalente de banda base
Hasta ahora hemos asumido que nuestras señales digitales y la transmisión propiamente
tal son realizadas en banda base. Enfoquemos ahora el caso pasa bandas, el cuál es más
interesante pues agrupa a la mayoría de los sistemas de comunicaciones modernos6 .
Es claro que la frecuencia portadora es una decisión “arbitraria”, y que la portadora misma
no contiene información, pero aún así hace el análisis de pasa banda tedioso debido a la
presencia del factor cos (2πfc t + ϕ).
El objetivo de este capítulo es desarrollar una técnica matemática para trabajar señales de
pasa banda en banda base, dejando la conversión a/de radio frecuencia de lado y focalizando
la atención solamente en el mensaje.
Esta operación matemática adelanta o retrasa la fase de señales en 90o . Se define la transfor-
mada de Hilbert de una señal s (t) como la función ŝ (t):
ˆ ∞
41 s (τ )
ŝ (t) = H {s (t)} = dτ . (4.1)
π −∞ t−τ
Observaciones:
c 2010 – 2016 Christian Oberli 99
1, si f > 0,
1
Notar asimismo que F = −j sgn (f ) con sgn (f ) = 0, si f = 0,
πt
−1, si f < 0.
Por lo tanto,
Solución:
Calcular la transformada de Hilbert por definición nos conducirá a una integral para la
cual no podemos evaluar su primitiva, de modo que trabajemos en el espectro de Fourier
para intentar realizar cálculos. Se tiene que:
1
S (f ) = [δ (f − fc ) + δ (f + fc )] . (4.6)
2
c 2010 – 2016 Christian Oberli 100
Es decir,
j
Ŝ (f ) = − [δ (f − fc ) + δ (f + fc )] sgn (f ) (4.7)
2
1
= [δ (f − fc ) − δ (f + fc )] . (4.8)
2j
Volviendo al espectro temporal, podemos concluir entonces que:
Se puede probar similarmente que H {sen (2πfc t)} = − cos (2πfc t).
3. Una señal s (t) y su transformada de Hilbert ŝ (t) son ortogonales sobre todo el intervalo
de tiempo, i.e. ˆ ∞
s (t) ŝ (t) dt = 0. (4.10)
−∞
Demostración:
Se tiene que:
ˆ ∞ ˆ ∞
s (t) ŝ (t) dt = s (t) ŝ (t) e−j2πf t dt
−∞ −∞
f =0
Pero,
F
s (t) ŝ (t) −
→ S (f ) ∗ Ŝ (f ) = −jS (f ) ∗ sgn (f ) S (f )
c 2010 – 2016 Christian Oberli 101
Es decir,
ˆ ˆ
∞ ∞
s (t) ŝ (t) dt = −jS (f ) ∗ sgn (f ) S (f ) = −j S (−ξ) sgn (ξ) S (ξ) dξ
−∞ −∞
f =0
Notemos que X (ξ) = S (−ξ) sgn (ξ) S (ξ) es una función impar pues:
4.2. Pre-envolvente
Tal como el uso de los fasores simplifica las manipulaciones al alternar corrientes y voltajes,
el uso de la pre-envolvente es particularmente útil al manejar señales y sistemas que se
encuentran en pasabanda.
Consideremos una señal real s (t) cualquiera. Se define la pre-envolvente positiva de s (t)
(también es posible definir una pre-envolvente negativa) como:
4
s+ (t) = s (t) + jŝ (t) . (4.11)
Claramente s+ (t) es compleja y s (t) = Re {s+ (t)}. Espectralmente hemos realizado las
siguientes operaciones:
c 2010 – 2016 Christian Oberli 102
Figura 4.2: Ejemplificación de las transformaciones espectrales que se están realizando al
tomar la pre-envolvente positiva de una señal real cualquiera.
c 2010 – 2016 Christian Oberli 103
4.3. Representación de señales de pasa banda en banda base
Consideremos el siguiente caso especial: s (t) es una señal real de pasa banda. Es decir,
S (f ) 6= 0 solo para el rango ±fc ± 21 W donde fc es la frecuencia portadora de la señal de
pasabanda y W es el ancho de banda de la transmisión con W fc .
Aplicando la transformada inversa de Fourier obtenemos que entonces g̃ (t) debe ser tal que:
√
s+ (t) = 2 s̃ (t) ej2πfc t . (4.13)
Se conoce s̃ (t) como la envolvente compleja de la señal de pasa banda s (t). Esta señal
es claramente de banda base y, por lo general, es compleja y por lo tanto tiene un espectro
asimétrico. Asimismo, podemos encontrar funciones reales sI (t) y sQ (t) tales que:
donde sI (t) se define como la componente en fase de s̃ (t) y sQ (t) como la componente
en cuadratura. Así:
n√ o
s (t) = Re {s+ (t)} = Re 2s̃ (t) ej2πfc t (4.15)
n√ o
= Re 2 [sI (t) + jsQ (t)] [cos (2πfc t) + j sen (2πfc t)] . (4.16)
Es decir,
√ √
s (t) = 2sI (t) cos (2πfc t) − 2sQ (t) sen (2πfc t) . (4.17)
Esta forma de expresar la señal de pasabanda s (t) en términos de su componentes en fase
y cuadratura (ambos de banda base) se conoce como la forma canónica de s (t). Luego,
la señal en pasabanda puede obtenerse a partir de sus componentes en cuadratura y fase
mediante el siguiente diagrama:
7
La envolvente compleja tiene la mitad de la potencia que tiene la pre-envolvente positiva, la que tiene el
doble de potencia que la señal original.
c 2010 – 2016 Christian Oberli 104
sI (t)
∼
√ +
2 cos(2πfc t) + s(t) = ↑ RF
−
−90◦
sQ (t)
Asimismo,
√
s (t) 2 cos (2πfc t) = 2sI (t) cos2 (2πfc t) − 2sQ (t) sen (2πfc t) cos (2πfc t) . (4.18)
Así, √
2s (t) cos (2πfc t) = sI (t) + sI (t) cos (4πfc t) − sQ (t) sen (4πfc t) . (4.21)
Similarmente,
√
2s(t) sen (2πfc t) = sI (t) sen (4πfc t) + sQ (t) cos (4πfc t) − sQ (t) . (4.22)
Entonces, bajo el siguiente esquema podemos tomar una señal en basa banda y obtener sus
componentes en cuadratura y fase de su envolvente compleja:
c 2010 – 2016 Christian Oberli 105
LPF sI (t)
∼
√
s(t) 2 cos(2πfc t) = ↓ RF
−90◦
Ahora que sabemos cómo manejar la representación compleja en pasabanda de las señales, es
lógico que el siguiente paso deseado es un procedimiento para manejar el análisis de sistemas
en pasabanda.
Sea un sistema lineal invariante en el tiempo (LTI) con respuesta al impulso h (t) tal que
H (f ) 6= 0 sólo para el rango ±fc ± 21 WH (i.e. h (f ) es un filtro pasa banda).
h (t) = 2hI (t) cos (2πfc t) − 2hQ (t) sen (2πfc t) . (4.23)
Definimos asimismo la respuesta al impulso compleja del sistema (la respuesta en banda
base de h (t)) como:
h̃ (t) = hI (t) + jhQ (t) . (4.24)
Y por lo tanto, n o
h (t) = Re 2h̃ (t) ej2πfc t . (4.25)
c 2010 – 2016 Christian Oberli 106
Así, ĥ (t), hI (t) y hQ (t) son señales pasa bajo. ¿Qué es entonces H̃ (f )? Se tiene que:
H (f ) = F {h (t)} (4.26)
n n oo
= F Re 2h̃ (t) ej2πfc t . (4.27)
z + z∗
Como Re {z} = , entonces:
2
n o
j2πfc t ∗ j2πfc t
H (f ) = F h̃ (t) e + h̃ (t) e . (4.28)
H (f ) = H̃ (f − fc ) + H̃ ∗ (−f − fc ) . (4.29)
Pero h̃ (t) es pasa bajo y así H̃ (f ) ≡ 0 para todo |f | > 12 WH . Luego, H̃ ∗ (−f − fc ) ≡ 0 para
todo f > 0. Entonces, para f > 0:
Es decir,
H̃ (f ) = H (f + fc ) para f > −fc . (4.31)
Este resultado es importante: ¡el sistema pasa banda puede ser representado en banda base
sin pérdida de información!
¿Qué pasa con la relación entrada–salida del sistema? Supongamos que x (t) es una señal
pasa banda con X (f ) ≡ 0 para f 6∈ [±fc ± Wx ].
Sabemos que:
pues claramente Re {z} = Re {z ∗ }. Antes de continuar tenemos que hacer uso del siguiente
lema, que representa una propiedad de las pre-envolventes:
Demostración:
c 2010 – 2016 Christian Oberli 107
Tomando el lado derecho:
ˆ ∞ ˆ ∞h i
∗
h+ (τ ) x+ (τ ) dτ = h (τ ) + jĥ (τ ) [x (τ ) − jx̂ (τ )] dτ
−∞
ˆ ∞
−∞
ˆ ∞
= h (τ ) x (τ ) + ĥ (τ ) x̂ (τ ) dτ + j x (τ ) ĥ (τ ) − x̂ (τ ) h (τ ) dτ
−∞ −∞
= −j sgn (f ) H (f ) j sgn (f ) X ∗ (f ) df
−∞
!
Como j2 = −1 y sgn2 (f ) = 1 (salvo en f = 0), entonces:
ˆ ∞ ˆ ∞
ĥ (τ ) x̂ (τ ) dτ = H (f ) X ∗ (f ) df
−∞ −∞
Es decir,
ˆ ∞ ˆ ∞ ˆ ∞
Re h+ (τ ) x∗+ (τ ) dτ =2 h (τ ) x (τ ) dτ = 2 Re {h+ (τ )} Re {x+ (τ )} dτ
−∞ −∞ −∞
c 2010 – 2016 Christian Oberli 108
Definamos entonces la envolvente compleja de la salida como:
ˆ ∞
4
ỹ (t) = h̃ (τ ) x̃ (t − τ ) dτ = h̃ (t) ∗ x̃ (t) . (4.33)
−∞
Figura 4.5: Esquema de equivalencia entre trabajo en banda base y en pasa banda para un
sistema LTI.
Así, sistemas de pasa banda pueden ser analizados completamente en banda base, evitando
el tedio asociado a la modulación de portadora y al factor ej2πfc t .
Los procesos aleatorios de pasa banda sin duda también pueden ser representados en banda
base por medio de su envolvente compleja. Sin embargo, para que ello sea útil analíticamente,
necesitamos estudiar cómo se traducen características como distribución de probabilidad,
estacionariedad, autocorrelación, PSD, etc. de pasa banda a banda base.
Es fundamental entender para ello que el proceso estocástico (i.e. ruido) debe ser de pasa
banda, es decir, el ruido blanco ha sido filtrado en la entrada del receptor de radiofrecuencia:
Figura 4.6: Proceso de filtrado del ruido blanco gaussiano en un filtro pasabanda.
c 2010 – 2016 Christian Oberli 109
4.5.1. Necesidad de un filtro pasa banda
¿Por qué es necesario filtrar pasa banda a un ruido blanco para poder llevarlo a banda base
y trabajarlo ahí como ruido blanco equivalente de banda base?
w(t) q(t)
cos(2πfc t)
Entonces,
Se sigue que Rq no es exclusivamente función de t1 − t2 , por lo que q (t) no es, general, esta-
cionario. En cambio, si pre–filtramos w (t) con un filtro pasa banda, la situación es distinta.
En tal caso obtenemos el siguiente diagrama:
n(t)
w(t) BPF q(t)
cos(2πfc t)
Figura 4.8: Traslación espectral en un conversor de radio frecuencia con filtro pasa banda.
La densidad espectral de potencia de la señal n (t), filtrada pasa banda, puede ilustrarse
como:
c 2010 – 2016 Christian Oberli 110
Figura 4.9: Densidad espectral de potencia de n (t), la señal filtrada pasa banda.
Rq (t) = N0 W sinc [W (t1 − t2 )] cos [2πfc (t1 − t2 )] {cos [2πfc (t1 + t2 )] + cos [2πfc (t1 − t2 )]} .
(4.41)
Notando que:
1 1
cos [2πfc (t1 − t2 )] cos [2πfc (t1 + t2 )] = cos (4πfc t2 ) + cos (4πfc t1 ) (4.42)
2 2
1 1
cos2 [2πfc (t1 − t2 )] = + cos [4πfc (t1 − t2 )] (4.43)
2 2
1 1 1
= + cos 4πfc t2 cos 4πfc t1 + sen 4πfc t1 sen 4πfc t2 . (4.44)
2 2 2
c 2010 – 2016 Christian Oberli 111
En otras palabras,
ñ (t) = nI (t) + jnQ (t) . (4.46)
Escribiendo el ruido blanco de pasabanda en términos de sus componentes en cuadratura y
fase:
√ √
n (t) = 2nI (t) cos (2πfc t) + 2nQ (t) sen (2πfc t) (4.47)
√
= 2 Re ñ (t) ej2πfc t . (4.48)
Puesto que ej2πfc t es una función determinística, toda la aleatoriedad de n (t) está contenida
en ñ (t).
1. Si n (t) tiene media cero, entonces nI (t) y nQ (t) tienen ambos media cero.
2. Si n (t) es un proceso estocástico gaussiano, entonces nI (t) y nQ (t) son procesos esto-
cásticos conjuntamente gaussianos.
Así, si n (t) es gaussiano estacionario de media cero, entonces nI (t) y nQ (t) son conjuntamente
gaussianos, conjuntamente estacionarios y de media cero.
4. RnI (τ ) = RnQ (τ ), nI (t) y nQ (t) tienen las mismas propiedades estadísticas y la po-
tencia del ruido de ambas componentes es la misma. Es decir,
E n2I (t) = E n2Q (t) = RnI (0) = σn2I . (4.51)
c 2010 – 2016 Christian Oberli 112
5. RnI nQ (τ ) = −RnI nQ (−τ ). Es decir, RnI nQ (τ ) es impar en τ . Haciendo τ = 0 obtenemos
que:
RnI nQ (0) = 0. (4.52)
Y por lo tanto, nI (t0 ) y nQ (t0 ) son variables aleatorias independientes para todo t0 .
Es decir,
(a) La potencia del ruido pasa banda es igual a la potencia de su envolvente compleja
en banda base.
(b) La potencia de la envolvente compleja es igual a la suma de potencias de sus
componentes en fase y cuadratura.
(c) Las componentes en fase y cuadratura dividen la potencia en partes iguales.
13. Si Sn (f ) es localmente simétrica en torno a ±fc , entonces nI (t) y nQ (t) son estadísti-
camente independientes (i.e. SnI nQ (f ) = 0 y RnI nQ (τ ) = 0).
c 2010 – 2016 Christian Oberli 113
14. Para ruido blanco gaussiano de pasabanda, entonces usando las dos propiedades ante-
riores,
f
Sñ (f ) = N0 u . (4.57)
Wn
Para efectos prácticos se asume que Wn Wseñal , de modo que:
4.6. Resumen
c 2010 – 2016 Christian Oberli 114
Capítulo 5 Transmisión digital en pasabanda
5.1. Introducción
La única verdadera diferencia entre trabajar con envolventes complejas versus señales reales es
la introducción de aritmética compleja. Veamos la equivalencia para el caso de la señalización
NRZ unipolar, que en pasabanda es conocida como BPSK (Binary Phase-Shift Keying):
r
2Eb t − 12 Tb
s0 (t) = u cos (2πfc t) . (5.1)
Tb Tb
r
2Eb t − 12 Tb
s1 (t) = u cos (2πfc t + π) = −s0 (t) . (5.2)
Tb Tb
Es decir, en general:
r
bn 2Eb t − 12 Tb
sn (t) = (−1) u cos (2πfc t) . (5.3)
Tb Tb
r
bn 2Eb t − 12 Tb
De aquí se deduce que sI (t) = (−1) u y sQ (t) ≡ 0. Por lo tanto,
Tb Tb
Es decir, al tomar la envolvente compleja estamos trabajando directamente con pulsos NRZ.
Gráficamente la conversión entre ambos queda dada por:
c 2010 – 2016 Christian Oberli 115
Figura 5.1: Equivalencia entre señales NRZ unipolares y señales BPSK.
BPSK no es otra cosa que una portadora modulada por NRZ unipolar. El receptor óptimo
en pasabanda tiene la estructura de siempre, ya que s1 (t) = −s0 (t):
x(t) T
r(t) hFA (t) b̂n
El filtro adaptado en este caso es un filtro pasa bajos con respuesta al impulso hFA (t) =
s0 (Tb − t). Igual que antes, |HFA (f )| = |s0 (f )| y gráficamente:
c 2010 – 2016 Christian Oberli 116
Figura 5.3: Filtro adaptado en pasa banda para una transmisión BPSK.
Implementar este filtro adaptado en pasa banda es difícil, porque en general T1b fc 8 .
Una formulación e implementación en banda base con envolventes complejas es mucho más
conveniente. Afortunadamente, ya sabemos bien cómo representar sistemas de pasabanda en
banda base:
Figura 5.4: Equivalencia entre receptores óptimos simplificados en pasa banda y banda
base. En el sistema equivalente en banda base se usas dos rieles (en fase I y cuadratura Q)
indicando que estamos utilizando una envolvente compleja.
r̃(t) Tb
r(t) RF↓ h̃FA (t) Re{ } b̂n
donde h̃FA (t) = s̃∗0 (Tb − T ). Estamos tomando la parte real pues debemos recordar que la
salida del filtro adaptado en t = Tb es una medida de la correlación entre r (t) y s0 (t), la cual
aparece como energía en el eje real, ya que el filtro adaptado es s∗0 .
c 2010 – 2016 Christian Oberli 117
Pero sabemos asimismo que esta señal se puede expresar como la parte real de su envolvente
compleja multiplicada por el fasor respectivo:
( r )
√ Eb t − 1
T
2 b
s0/1 (t) = Re ± 2 u ej2πfc t . (5.5)
Tb Tb
Por lo tanto, r
Eb t − 12 Tb
s̃0/1 (t) = ± u . (5.6)
Tb Tb
Vemos que s̃0/1 son reales puras, es decir, BPSK no tiene componentes en cuadratura. Luego,
r 1
Eb T −t
2 b
h̃FA (t) = ±k u . (5.7)
Tb Tb
donde k es una constante arbitraria.
Estudiemos ahora una modulación de pasa banda que sí tiene componente en cuadratura.
Por inspección, dada que esta modulación ya está escrita en su forma canónica, podemos
notar entonces que su envolvente compleja viene dada por:
r i t − 1T
Es h bI bQ 2 s
s̃m (t) = (−1) + j (−1) u , (5.8)
2Ts Ts
h i
donde (−1)bI + j (−1)bQ puede representar fases de 45◦ , 135◦ , 225◦ y 315◦ . Es decir, la
envolvente compleja es un pulso rectangular con fases posibles ±45◦ y ±135◦ .
Es decir, r
Es t − 12 TS
s̃m (t) = u ejϕ . (5.11)
Ts Ts
c 2010 – 2016 Christian Oberli 118
¡Entonces la información de la comunicación va en la fase! La siguiente representación
geométrica ayuda a visualizar 4−QAM:
Notando la suma por su diferencia entre los últimos dos términos, se tiene finalmente que:
ˆ
Es Ts Es
E= (1 + 1) dt = · 2Ts = Es . (5.15)
2Ts 0 2Ts
Se deja como ejercicio propuesto al lector comprobar que se obtiene el mismo resultado con
las señales pasa banda, i.e. ˆ ∞
s2m (t) dt = Es . (5.16)
−∞
Nota:
c 2010 – 2016 Christian Oberli 119
4−QAM no existe como modulación de banda base.
¿Cómo es el receptor óptimo equivalente de banda base para 4−QAM? La forma genérica
del receptor M −ario óptimo equivalente de banda base es la siguiente:
Ts
s̃∗0 (Ts − t) Re{ } +
c0
Ts
s̃∗1 (Ts − t) Re{ } +
máx Iˆn
r̃(t)
c1
.. ..
. .
Ts
s̃∗M −1 (Ts − t) Re{ } +
cM −1
Figura 5.7: Receptor óptimo para una transmisión M -aria en pasa banda.
donde:
c 2010 – 2016 Christian Oberli 120
s̃m (Ts − t) es el m−ésimo filtro adaptado.
Es
(1 + j) (1 + j)∗ Es
2
Es
(1 + j) (1 − j)∗ jEs
2
Es
(1 + j) (−1 + j)∗ −jEs
2
Es
(1 + j) (−1 − j)∗ −ES
2
c 2010 – 2016 Christian Oberli 121
5.2.1. Simplificación del receptor óptimo M −ario equivalente de banda base
Observemos que para un sistema de comunicaciones 4−QAM se puede realizar una separación
interesante de las envolventes complejas de las señales:
r
Es t − 12 Ts
s0 (t) = u [cos (2πfc t) − sen (2πfc t)] (5.25)
Ts Ts
r
Es t − 12 Ts
−→ s̃0 (t) = u (1 + j) (5.26)
2Ts Ts
r
1 t − 21 Ts Es
=√ u (1 + j) . (5.27)
Ts Ts | 2 {z }
š0
Análogamente,
r
Es t − 12 Ts
s1 (t) = u [cos (2πfc t) + sen (2πfc t)] (5.28)
Ts Ts
r
1 t − 12 Ts Es
−→ s̃1 (t) = √ u (1 − j) . (5.29)
Ts Ts | 2 {z }
š1
r
Es t − 21 Ts
s2 (t) = u [− cos (2πfc t) − sen (2πfc t)] (5.30)
Ts Ts
r
1 t − 12 Ts Es
−→ s̃2 (t) = √ u (−1 + j) . (5.31)
Ts Ts | 2 {z }
š2
r
Es t − 12 Ts
s3 (t) = u [− cos (2πfc t) + sen (2πfc t)] (5.32)
Ts Ts
r
1 t − 12 Ts Es
−→ s̃3 (t) = √ u (−1 − j) . (5.33)
Ts Ts | 2 {z }
š3
c 2010 – 2016 Christian Oberli 122
Figura 5.8: Representación geométrica de cada uno de los ši .
c 2010 – 2016 Christian Oberli 123
Es decir, las ramas del filtro adaptado se simplifican a la siguiente figura:
x̃(t) Ts
s(t) h̃FA (t) x̃ (Ts )
La estructura es idéntica al caso NRZ/BPSK, solo que hay un slicer en cada riel:
c 2010 – 2016 Christian Oberli 124
b̂I
b̂Q
Figura 5.12: Expansión del dispositivo de decisión en slicers para cada riel.
5.2.2. Resumiendo
c 2010 – 2016 Christian Oberli 125
Figura 5.13: Representación geométrica en el espacio de señales.
Esta representación es mucho más que una ayuda visual, es una forma alternativa, completa-
mente consistente y equivalente para representar y analizar señales. Observemos la evolución
que se ha logrado en materia de modelación a medida que se han introducido nuevas herra-
mientas matemáticas:
Antes,
Modulación
en pasa banda
Luego,
Modulación
banda base RF↑
compleja
Ahora,
Modulación
Pulse
banda base RF↑
shaping
compleja digital
Figura 5.14: Evolución del modulador a medida que se introducen nuevas herramientas
matemáticas.
Revisando con cuidado, BPSK y 4−QAM están ambas formuladas en base a una misma
única señal base: el pulso rectangular de energía unitaria:
c 2010 – 2016 Christian Oberli 126
(√
1 t − 12 Ts Eb , si m = 0, √
BPSK: ϕ̃ (t) = √ u šm con šm = √ = (−1)bm Eb .
Tb Ts − Eb , si m = 1.
1 t − 21 Ts
4−QAM: ϕ̃ (t) = √ u šm con
Ts Ts
r
Es
(1 + j) , si m = 0,
2
r
Es
(1 − j) , si m = 1,
2
šm = r (5.42)
Es
(−1 + j) , si m = 2,
2
r
Es
(−1 − j) , si m = 3.
2
h i rE
s
= (−1)bIn + j (−1)bQn . (5.43)
2
La representación geométrica no es otra cosa que una representación vectorial en que la base
es la función ϕ (t). Haciendo ϕ̃ (t) = ϕI (t) + jϕQ (t) el espacio de señales se visualiza como:
c 2010 – 2016 Christian Oberli 127
5.3.1. Relaciones energéticas
¡La energía de la señal sm (t) (ó sm (t)) está dada por la norma del complejo šm ! Cuidado:
šm es un vector 1-D complejo.
Demostración:
Se deja como ejercicio propuesto al lector demostrar la equivalencia entre las dos primeras
integrales. Nosotros demostraremos ahora la equivalencia entre la segunda y la tercera:
ˆ ∞ ˆ ∞
2
|s̃m1 (t) − s̃m2 (t)| dt = [s̃m1 (t) − s̃m2 (t)] [s̃m1 (t) − s̃m2 (t)]∗ dt (5.53)
−∞
ˆ ∞
−∞
ˆ ∞
∗
= s̃m1 (t) s̃m1 (t) dt − s̃m1 (t) s̃∗m2 (t) dt (5.54)
−∞
ˆ ∞ −∞
ˆ ∞
∗
− s̃m2 (t) s̃m1 (t) dt + s̃m2 (t) s̃∗m2 (t) dt. (5.55)
−∞ −∞
c 2010 – 2016 Christian Oberli 128
Notando que en esta última expresión aparecen energías de la señal:
ˆ ∞ ˆ ∞
2 2 2 ∗
|s̃m1 (t) − s̃m2 (t)| dt = kšm1 k + kšm2 k − šm1 šm2 ϕ̃ (t) ϕ̃∗ (t) dt (5.56)
−∞
| −∞ {z }
=1
ˆ ∞
∗
− šm2 šm1 ϕ̃ (t) ϕ̃∗ (t) dt . (5.57)
| −∞ {z }
=1
Es decir,
ˆ ∞ ∗
|s̃m1 (t) − s̃m2 (t)|2 dt = kšm1 k2 + kšm2 k2 − šm1 š∗m2 − šm1 š∗m2 (5.58)
−∞
= kšm1 k2 + kšm2 k2 − 2 Re šm1 š∗m2 . (5.59)
Finalmente,
ˆ ∞
|s̃m1 (t) − s̃m2 (t)|2 dt = kšm1 − šm2 k2 . (5.60)
−∞
¡Concluimos que el espacio de señales respeta y mantiene las relaciones energéticas entre las
señales! Más aún, vemos que los resultados anteriores valen para cualquier señal base ϕ (t).
Es decir, no solo pueden utilizarse pulsos bases NRZ, si no que Manchester o cualquier otro
tipo de pulsos.
Así, el espacio de señales es una forma extremadamente compacta para representar lo real-
mente fundamental de las señales:
Hemos logrado reducir nuestro problema de comunicaciones digitales de pasa banda sustan-
cialmente.
En resumen, hasta aquí sabemos dos cosas cruciales sobre el espacio de señales:
c 2010 – 2016 Christian Oberli 129
5.3.2. Ruido blanco en el espacio de señales
El ruido filtrado por h̃FA (t) = ϕ̃ (Ts − t) tiene una representación en el espacio de
señales análoga a la representación de señales, la cual denotaremos por ň.
Definiremos:
4
x̌ = šm + ň. (5.67)
Representando en términos de las componentes en cuadratura y en fase:
c 2010 – 2016 Christian Oberli 130
Figura 5.16: Diagrama fasorial para la suma entre x̌ y š0 .
Tal como vimos al estudiar representación equivalente de banda base del ruido, ňI y ňQ
distribuyen idénticamente normal de media 0 y varianza N20 . Dado šm , el ruido forma
una nube en torno a dicho símbolo:
Luego, de acuerdo a los corolarios ya estudiados sobre las variables aleatorias ňI y ňQ , el
siguiente gráfico resume la caracterización estadística de estas variables:
c 2010 – 2016 Christian Oberli 131
Figura 5.18: Caracterización estadística de ňI | ši y ňQ | šj .
Puesto que ňI y ňQ son independientes, los eventos de error en fase / cuadratura son inde-
pendientes. Aplicando directamente lo que aprendimos en comunicaciones digitales en banda
c 2010 – 2016 Christian Oberli 132
base, determinamos:
r ! r !
1 1 Es 1 Es
Pb,I/Q = − erf = erfc . (5.69)
2 2 2N0 2 2N0
Como los errores I/Q son independientes, la probabilidad de error de símbolo Ps está dada
por:
Ps = 1 − Pc = 1 − PcI PcQ (5.70)
= 1 − 1 − Pb,I/Q P 2 . (5.71)
Es decir,
" r !#2
1 Es
Ps = 1 − 1 − erfc . (5.72)
2 2N0
E2
E1
E3
Luego, los errores E1 y E2 son equiprobables y más probables que E3 . E1 y E2 son eventos
de error de un bit, mientras que E3 es un evento de error de dos bits. Entonces,
P (E1 ∪E2 )
z }| {
Ps = P (error de símbolo | 1 bit erróneo) P (1 bit erróneo)
+ P (error de símbolo | ambos bits erróneos) P (ambos bits erróneos)
| {z }
E3
c 2010 – 2016 Christian Oberli 133
Observamos que E1 ∪ E2 y E3 son mutuamente excluyentes y conjuntamente exhaustivos.
(m)
Sea Ei el i−ésimo evento con un bit erróneo. Entonces, siempre podemos decir que:
!
[ n (1) o [ n (2) o
PS = P Ei ∪ Ei ∪ · · · ∪ E log2 M . (5.73)
i i
1
Con código Grey, a partir de PS ≈ y menor las P · · · E (1) dominan. Así,
100
!
[ n (1) o
PS ≥ P Ei (5.75)
i
(1) (1) (1)
= P E1 ∪ E2 ∪ · · · ∪ Elog2 M . (5.76)
= log2 (M ) Pb . (5.78)
Por lo tanto,
≈0
PS = P (E1 ) + P (E2 ) +
P(E3
).
:
(5.80)
1
Eliminamos el término P (E3 ) pues tiene un valor menor a 100 gracias a la codificación Grey.
1 1
Además, notamos que P (E1 ) = P (E2 ) y que Pb = 2 P (E1 ) + 2 P (E2 ). Por lo tanto,
P (E1 ) = P (E2 ) = Pb = Pb,I/Q . (5.81)
Con ello, PS = 2Pb . Además, recordamos que Es = 2Eb , con esto obtenemos finalmente la
probabilidad de error de bit 4−QAM:
" r !#2
1 1 1 Eb
Pb = − 1 − erfc . (5.82)
2 2 2 N0
c 2010 – 2016 Christian Oberli 134
Figura 5.20: Probabilidades de error de símbolo M −PAM, M −QAM y FSK binario (curvas
M diferente no son comparables).
c 2010 – 2016 Christian Oberli 135
Figura 5.21: Probabilidades de error de bit de M −PAM, M −QAM y FSK binario, deter-
minadas como Pb = Ps / log2 (M ).
Llama mucho la atención que la Pb de 4−QAM en pasa banda sea igual que la de NRZ
(BPSK) en banda base. Veamos cuál es la probabilidad de error de bit de BPSK en pasa
banda. Dibujando un diagrama fasorial:
c 2010 – 2016 Christian Oberli 136
Figura 5.22: Diagrama fasorial del ruido pasa banda en transmisiones BPSK.
Vemos que solo importa la componente en fase del ruido para cometer un error. ¡Esta es la
razón por la cual el receptor óptimo tiene un operador Re { }! Se tiene que:
√
1 1 Eb
P (D1 | 0) = + erf − √ q (5.83)
2 2 2 N20
r !
1 1 Eb
= − erf (5.84)
2 2 N0
= P (D0 | 1) . (5.85)
Observaciones:
c 2010 – 2016 Christian Oberli 137
Figura 5.23: Comparación de probabilidad de error de bit y símbolo entre modulaciones
QAM y BPSK.
Vemos que ambas modulaciones tienen la misma probabilidad de error de bit, pero
4−QAM tiene el doble de información. Por lo tanto, aprovechar el riel en cuadratura
mejora la eficiencia espectral al doble al costo de mayor complejidad, mientras que la
eficiencia energética no cambia.
Existe un gran conjunto de otras constelaciones de pasa banda además de las ya estudiadas.
A modo de ejemplo:
c 2010 – 2016 Christian Oberli 138
Figura 5.24: Diagrama de símbolos de la constelación 16−QAM.
Este ejemplo puede extenderse incluso a 64 bits, obteniendo así la constelación 64−QAM:
c 2010 – 2016 Christian Oberli 139
Figura 5.25: Diagrama de símbolos de la constelación 64−QAM.
La modulación 8−PAM:
c 2010 – 2016 Christian Oberli 140
Figura 5.27: Diagrama de símbolos de la constelación 8−PSK.
2. Todas estas modulaciones tienen función base ϕ̃ (t), a la cual se altera la fase y/o
amplitud según la secuencia de símbolos.
Ps ≈ log2 (M ) Pb . (5.89)
c 2010 – 2016 Christian Oberli 141
Figura 5.28: Curvas de probabilidad de error de bit para las distintas constelaciones M -
arias.
c 2010 – 2016 Christian Oberli 142
Capítulo 6 Sistemas de comunicaciones digitales
6.1. Introducción
Hasta aquí hemos logrado entender en bastante detalle cómo realizar una transmisión digital
a través de un medio o canal.
H(f ) ≡ 1
P
s(t) = sn (t − nT ) AWGN y F.A. {b̂n }, Ps , Pb
{bn }
y ↑ RF
Si bien hay mucho más por decir sobre el canal (véanse cursos IEE3584 e IEE3514) y sobre
modulaciones y diseño de señales (IEE3514), probablemente el bloque más oscuro es el de
fuente y usuario de la información.
Específicamente, queremos estudiar las condiciones que debe cumplir la información bajo
criterios como “uso eficiente del canal” y “minimizar la Pe en la salida”.
c 2010 – 2016 Christian Oberli 143
Entropía10 : número mínimo de bits al cual un mensaje puede ser comprimido sin
pérdida de información.
Capacidad de canal: tasa de datos máxima a la que es posible transmitir sin errores
a través de un canal dado.
Señal de Mensaje
mensaje estimado
Fuente de Usuario de la
{xn }
información información
Transmisor Receptor
Codificador Decodificador
de fuente de fuente
Codificador Decodificador
de canal de canal
Aquí es donde
queremos maxi-
mizar la tasa de Detecta y corrige
Modulador Demodulador
datos, donde la errores
redundancia es
máxima.
c 2010 – 2016 Christian Oberli 144
“Codec” de canal: Agrega redundancia en forma controlada y permite (idealmente)
detectar todos los errores cuando la tasa de transmisión es menor o igual a C.
Este es uno de los motivos principales por el cual se han impuesto las comunicaciones digitales
sobre las analógicas.
donde X es el alfabeto de x, es decir, todos los posibles valores que x puede tomar (e.g.
0, . . . , M − 1). Como observación, puede notarse que:
c 2010 – 2016 Christian Oberli 145
Ejemplo Determine la entropía en el caso en que x es binario. Es decir, X = {0, 1}.
Solución:
Se tiene que:
P (x = 0) = p (6.3)
P (x = 1) = 1 − p. (6.4)
Entonces,
H (x) = −p log2 p − (1 − p) log2 (1 − p) [bits] = H (p) . (6.5)
Graficando en función de p:
Observamos que H (p) es máximo e igual a 1 con p = 12 . Por lo tanto, hace falta 1
bit completo (en promedio) para describir un bit de la fuente x. Secuencias binarias
equiprobables no pueden ser comprimidas.
c 2010 – 2016 Christian Oberli 146
Ejemplo Consideremos el mensaje 4−ario:
1
0, con P (x) = ,
2
1
1, con P (x) = ,
4
x= (6.6)
1
2, con P (x) = ,
8
1
3, con P (x) = .
8
Entonces,
1 1 1 1 1 1 1 1 7
H (x) = − log2 − log2 − log2 − log2 = bits. (6.7)
2 2 4 4 8 8 8 8 4
Vemos que cada símbolo x puede ser descrito con 2 bits (00, 01, 10, 11), pero esa no es
la descripción más compacta.
¿Qué pasa si los 4 símbolos son equiprobables, como hemos estado asumiendo?
1 1
H (x) = −4 log2 = 2 bits. (6.8)
4 4
Por lo tanto, sí hemos estado usando la descripción más compacta posible.
¿Cómo podemos explotar estos conceptos? Es un área del conocimiento muy extensa en la
que no entraremos, pero daremos un minúsculo ejemplo para ilustrar la idea.
x a b c
P (x) 1/5 2/5 2/5
c 2010 – 2016 Christian Oberli 147
1
00:
5
0
3
5
1
2 0
01:
5
1
1
2 2
1:
5 5
1 1 1
0:
8 2 2
0
1 1 1
10:
8 4
0
1
1
1 2
110:
4 0 1
1
4
1 1
111:
2
Figura 6.5: Diagrama de construcción de código Huffman para mensaje 4−ario del
ejemplo anterior.
c 2010 – 2016 Christian Oberli 148
Se deja como ejercicio propuesto al lector decodificar 01001011010. Vemos que:
1 1 1
L= · 1 bit + · 2 bits + 2 · · 3 bits (6.9)
2 4 8
1 1 3 7
= + + = bits. (6.10)
2 2 4 4
Entonces, ¡este código comprime hasta la entropía!
“Es posible transmitir información sin errores a través de un canal siempre y cuando la
tasa de transmisión sea inferior a la capacidad del canal”.
c 2010 – 2016 Christian Oberli 149
Observamos que si el SNR aumenta, entonces la capacidad aumenta, de la misma forma que
si W aumenta, lo hace C.
Sin embargo, hace falta crecimiento exponencial en señal de razón a ruido para lograr un
aumento lineal de C. Vemos que la eficiencia espectral está dada por (acotada por):
(ideal) C bits
ηw = = log2 (1 + SNR) . (6.12)
W s · Hz
w(t) q(t)
cos(2πfc t)
Ps Eb Rb
SNRreal = = , (6.13)
Pn N0 W
donde Rb es la tasa de bits/seg, y que:
Eb Rb Eb C Eb
Rb ≤ C ⇐⇒ ≤ = ηW . (6.14)
N W N0 W N0
| 0{z } | {z }
SNR real SNR ideal
Eb
Entonces, SNR(real) ≤ ηW = SNR(ideal) . Así,
N0
(real) Eb
ηW ≤ log2 1 + ηW
N0
c 2010 – 2016 Christian Oberli 150
Figura 6.8: Región de ηw versus SNR para sistemas realizables.
c 2010 – 2016 Christian Oberli 151
Anexo 1: Competencias necesarias en probabilidades
Conceptos básicos
5. Probabilidad condicional:
P (A ∩ B)
P (A|B) = . (6.17)
P (B)
c 2010 – 2016 Christian Oberli 152
Variables aleatorias
1. Concepto: variables cuyo valor no puede ser predicho en forma determinística; solo se
conoce la probabilidad de cada valor posible.
2. Distinción entre discretas y continuas.
3. Función de probabilidad acumulativa:
FX (x) = P (X ≤ x) . (6.21)
Se verifican las siguientes propiedades:
(b) 0 ≤ FX (x) ≤ 1.
(c) FX (−∞) = 0 y FX (∞) =1.
(d) P (X > x) = 1 − FX (x).
(e) P (x1 ≤ X ≤ x2 ) = FX (x2 ) − FX (x1 ).
5. Momentos:
c 2010 – 2016 Christian Oberli 153
6. Variable aleatoria gaussiana:
" #
1 (x − µX )2
fX (x) = p exp − . (6.28)
2πσX2 2σX2
1 1 x − µX
FX (x) = + erf √ . (6.29)
2 2 2 σX
Entonces, 2
1 y ·
lı́m fYn (y) = √ exp − ←→ Yn ∼ N (0, 1) . (6.33)
n→∞ 2π 2
9. Variables aleatorias y vectores aleatorios:
c 2010 – 2016 Christian Oberli 154
X1
con X = ... y Xi ∼ N µXi , σX2 i y la matriz de covarianza:
XN
n o
RX = E (X − µ ~ )T .
~ ) (X − µ (6.35)
c 2010 – 2016 Christian Oberli 155
Anexo 2: Funciones de Bessel
Una de las principales motivaciones para la aparición de las funciones de Bessel –si bien no
es la histórica– consiste en la resolución de problemas diferenciales con simetría cilíndrica.
A modo de ejemplo, supongamos que deseamos resolver la ecuación de onda en un tambor
cilíndrico, de modo que tenemos la ecuación diferencial parcial:
~ 2ϕ = 1 ϕ
∇ (6.36)
c2
donde c es la velocidad de propagación en el medio. Dado que podemos asumir la existencia
de una simetría cilíndrica pues las condiciones de contorno lo serán, entonces
ϕ = ϕ (ρ, θ, z) , (6.37)
y por lo tanto la ecuación de onda anterior puede escribirse en coordenadas cilíndricas como:
∂ 2 ϕ 1 ∂ϕ 1 ∂ 2ϕ ∂ 2ϕ 1 ∂ 2ϕ
+ + + 2 = 2 2. (6.38)
∂ρ2 ρ ∂ρ ρ2 ∂θ2 ∂z c ∂t
En diversas fuentes bibliográficas se puede demostrar que esta ecuación diferencial parcial
tiene solución. Bajo este supuesto, asumamos que la solución puede escribirse como:
Este método se conoce como método de separación de variables y es una técnica habitual
para resolver cierto tipo de ecuaciones diferenciales. Reemplazando en la ecuación diferencial
parcial:
1 1 1
R00 ΦZT + R0 ΦZT + 2 RΦ00 ZT + RΦZ 00 T = 2 RΦZT 00 . (6.40)
ρ ρ c
En otras palabras,
1 T 00 00 1 0 1 1 Φ00 Z 00
= R + R + + (6.41)
c2 T ρ R ρ2 Φ Z
Resolveremos ahora etapa por etapa.
c 2010 – 2016 Christian Oberli 156
lo tanto, desde el punto de vista de t el lado derecho es una constante que denominaremos
−k 2 , obteniendo así la ecuación diferencial:
1 T 00
2
= −k 2 −→ T 00 + (kc)2 T = 0. (6.42)
c T
Esta ecuación diferencial ordinaria tiene solución inmediata:
En este caso lo más sencillo es asumir que k puede ser positivo o negativo, por lo que
necesitamos solo una de estas soluciones. Luego,
donde como el lado derecho no depende de z, es una constante bajo esta variable que deno-
minaremos −a2 . Así, se tiene que:
Z 00
− − k 2 = −a2 −→ Z 00 + k 2 − a2 Z = 0. (6.47)
Z
Nuevamente,
√
± k2 −a2 z
Zk,a (z) = Z0 e±j . (6.48)
Consideremos por simplicidad el caso en que k 2 y a2 son ambos reales y positivos (aunque
esto no tiene por qué ser así. Esta solución oscila si k 2 > a2 , decaen exponencialmente si
k 2 < a2 y son constantes si k 2 = a2 .
c 2010 – 2016 Christian Oberli 157
Dado que no hay dependencia entre las variables de cada lado de la ecuación, ambos lados
deben ser constantes e igual a un número que llamaremos n2 . Entonces,
Φ00
− = n2 −→ Φ00 + n2 Φ = 0. (6.51)
Φ
Despejando,
Φ±
n (θ) = Φ0 e
±jnθ
(6.52)
Como la solución debe tener simetría cilíndrica, entonces la solución debe ser igual en θ = 0
y θ = 2π. De esta forma,
Esta ecuación diferencial, muy diferente a las anteriores, es muy similar la ecuación diferencial
de Bessel, la motivación de este trabajo y que procederemos a resolver a continuación.
Antes de proceder con el próximo apartado, llevemos la ecuación a su forma estándar haciendo
la sustitución x = aρ, de modo que:
dR dR dx dR d2 R 2
2d R
R = R (x) −→ = =a −→ = a . (6.56)
dρ dx dρ dx dρ2 dx2
Entonces la ecuación diferencial anterior puede escribirse como:
x 2 d2 R x dR
a2 2
+ a + x2 − n2 R (x) = 0. (6.57)
a dx a dx
Simplificando términos obtenemos:
d2 R dR
x2 (x) + x (x) + x 2
− n 2
R (x) = 0 (6.58)
dx2 dx
c 2010 – 2016 Christian Oberli 158
Resolución mediante series de potencias
Dado que la ecuación anterior es una ecuación diferencial de segundo orden, tendremos dos
soluciones linealmente independientes. Primero construiremos una solución inicial utilizando
series de potencias y aplicando el Teorema de Frobenius. Luego, la solución debe escribirse
como: ∞
X
n
R (x) = x bk x k . (6.59)
k=0
Entonces, tenemos que:
∞
X ∞
X
0 n k n
xR (x) = nx bk x + x kbk xk . (6.60)
k=0 k=0
Por lo tanto,
∞
X ∞
X ∞
X
2 00 n k n k n
x R (x) = n (n − 1) x bk x + 2nx kbk x + x k (k − 1) xk . (6.61)
k=0 k=0 k=0
c 2010 – 2016 Christian Oberli 159
¿Cómo escogemos b0 ? En este caso, para garantizar la convergencia de la serie mediante el
criterio del cociente, hacemos b0 = 1/2n n!, por lo que reemplazando en la expresión inicial:
(−1)k x 2k+n
∞
X
R (x) = Jn (x) = . (6.67)
k=0
k! (n + k)! 2
Dado que deseamos considerar también los órdenes complejos, extendemos la definición de
factoriales mediante la función Gamma, obteniendo así que:
∞
X (−1)k x 2k+ν
Jν (x) = . (6.68)
k=0
Γ (k + 1) Γ (ν + k + 1) 2
Observe que la evaluación puede hacerse incluso para n negativos. Se tiene que:
∞
X (−1)k x 2k−n X ∞
(−1)n+k x 2k+n
J−n (x) = =
k=0
Γ (k + 1) Γ (−n + k + 1) 2 k=0
Γ (n + k + 1) Γ (k + 1) 2
(6.69)
Es decir,
J−n (x) = (−1)n Jn (x) . (6.70)
Función generatriz
Muchas propiedades sobre las funciones de Bessel pueden ser demostradas mediante su fun-
ción generatriz. Una función generatriz, definida de forma informal, es básicamente una fun-
ción cuya representación en serie de potencias contiene en cada an un término de una sucesión
dada, en este caso la sucesión de funciones de Bessel.
c 2010 – 2016 Christian Oberli 160
Si realizamos esta multiplicación término a término:
x m+k
k
hx i ∞ X
X ∞ (−1)
exp z − z −1 = 2 z m−k .
2 m=0 k=0
m! k!
Finalmente,
hx i ∞
X
−1
exp z−z = Jn (x) z n
2 n=−∞
Demostración:
jφ 1 1
Hagamos z = e −→ j sen φ = z− y reemplazando en la función generatriz:
2 z
∞
X
jx sen φ
e = Jn (x) ejnφ .
n=−∞
c 2010 – 2016 Christian Oberli 161
Separando partes real e imaginaria:
∞
X ∞
X
cos (x sen φ) = Jn (x) cos (nφ) = J0 (x) + 2 J2n (x) cos (2nφ) (6.75)
n=−∞ n=1
∞
X ∞
X
sen (x sen φ) = Jn (x) sen (nφ) = 2 J2n+1 (x) sen [(2n + 1) φ] . (6.76)
n=−∞ n=0
π
Esto entrega los resultados deseados haciendo φ = 2
para las dos primeras ecuaciones y φ = 0
para la tercera.
para todo n ∈ Z.
Demostración:
Es decir,
(−1)n Jn (x) = J−n (x) = Jn (−x) . (6.82)
Luego, la función de Bessel es par para órdenes pares e impar para órdenes impares.
c 2010 – 2016 Christian Oberli 162
Demostración:
∞
X ∞
X X∞
2n
−→ Jn (x) z n + Jn (x) z n−2 = Jn (x) z n−1 (6.93)
n=−∞ n=−∞ n=−∞
x
∞
X ∞
X X∞
n−1 n−1 2n
−→ Jn−1 (x) z + Jn+1 (x) z = Jn (x) z n−1 . (6.94)
n=−∞ n=−∞ n=−∞
x
Igualando coeficientes concluimos que:
2n
Jn (x) = Jn+1 (x) + Jn−1 (x) . (6.95)
x
c 2010 – 2016 Christian Oberli 163
Sumamos ambas ecuaciones:
2n
2Jn0 (x) + Jn (x) = 2Jn−1 (x) . (6.96)
x
Multiplicamos por xn /2:
d n
x Jn (x) = xn Jn−1 (x) (6.98)
dx
Demostración:
hx i ∞
X
−1
exp z−z = Jn (x) z n . (6.100)
2 n=−∞
Multiplicando ambas:
" ∞
#" ∞
#
X X
1 = Jn (x) z n Jn (x) z −m
n=−∞ m=−∞
∞ ∞
!
X X
= Jn+m (x) Jn (x) z m
m=−∞ n=−∞
∞
" ∞
#
X X X
= Jn2 (x) + Jn+m (x) Jn (x) z m .
n=−∞ m∈Z n=−∞
m6=0
c 2010 – 2016 Christian Oberli 164
y
∞
X
0= Jn+m (x) Jn (x) . (6.103)
n=−∞
Proposición A2.5: X
Jn (x) = 1. (6.104)
n∈Z
Demostración:
Demostración:
∞
X
1 −1
Jn (x + y) = exp (x + y) t − t ,
n=−∞
2
1 −1
1 −1
= exp x t − t exp y t − t ,
2 2
" ∞ #" ∞ #
X X
= Jk (x) z k Jm (y) z m ,
k=−∞ m=−∞
∞
" ∞
#
X X
= Jk (x) Jn−k (y) z n .
n=−∞ k=−∞
Representación integral
Demostración:
c 2010 – 2016 Christian Oberli 165
Notamos que esta expresión corresponde en cierto sentido al coeficiente de una serie de
Fourier, ya que estamos tomando el valor medio de una función que aparenta ser periódica.
De esta forma, como la función generatriz es una serie de −∞ a ∞, es una bunea idea evaluar
t en la exponencial compleja para evaluar la situación:
∞
X
x jθ j
jθ
ψ(x, e ) = Jn (x) e jnθ
= exp e − e−jθ · (6.106)
n=−∞
2 j
∞
X
→ Jn (x) ejnθ = exp (xj sen θ) , (6.107)
n=−∞
en particular,
∞
X
Jn (x)ejnθ = cos (x sen θ) + i sen (x sen θ) = g(θ). (6.108)
n=−∞
Notamos que cada uno de los coeficientes de esta serie de Fourier en su forma compleja
corresponden a Jn (x). De lo que ya sabemos:
ˆ
1 π
Jm (x) = g(θ) e−jmθ dθ, (6.109)
π −π
con lo cual,
ˆ
1 π
Jm (x) = cos (x sen θ) e−jmθ + j sen (x sen θ) e−jmθ dθ
π −π
ˆ
1 π
= cos (x sen θ) cos (mθ) + j cos (x sen θ) sen (mθ) dθ
π −π
ˆ
1 π
+ j sen (x sen θ) cos (mθ) + sen (x sen θ) sen (mθ) dθ
π −π
observando que i cos (x sen θ) sen (mθ) y j sen (x sen θ) cos (mθ) son impares, entonces
ˆ
1 π
Jm (x) = cos (x sen θ) cos (mθ) dθ + sen (x sen θ) sen (mθ) dθ (6.110)
π −π
ˆ
1 π
= cos (mθ − x sen θ) dθ. (6.111)
π −π
Demostración:
c 2010 – 2016 Christian Oberli 166
Notamos que:
ˆ ˆ
1 π 1 π
|Jn (x)| = cos(nθ − x sen θ)dθ ≤ |cos(nθ − x sen θ)| dθ, (6.113)
π 0 π 0
c 2010 – 2016 Christian Oberli 167