Documentos de Académico
Documentos de Profesional
Documentos de Cultura
ISBN:
978-958-46-4313-1
iii
iv
1
2 ÍNDICE GENERAL
5. Referencias 163
4 ÍNDICE GENERAL
CAPÍTULO 1
SEÑALES Y SISTEMAS EN EL
DOMINIO DEL TIEMPO
El objetivo de este capítulo es introducir los conceptos básicos de señales, los cuales serán de
gran utilidad en el desarrollo de los próximos capítulos. Inicialmente distinguiremos los dos tipos
de señales estudiadas en el texto y daremos algunos ejemplos de aplicaciones. A continuación
presentaremos algunas propiedades de las señales y su relación con los procesos físicos. Para
concluir se estudiarán las diferentes propiedades de los sistemas y se introducirá el concepto
de convolución. Estos estudios se realizarán en forma simultánea para las señales continuas y
discretas.
5
6 1.1. SEÑALES Y PROCESOS FÍSICOS
( π )
VL (t) = VLmax cos ωt + − ϕ
2
donde:
( ωL )
I0 = √ V0 , VLmax = I0 ωL y ϕ = arctan
R2 +ω 2 L2 R
R
+
Para las señales del circuito de la Figura 1.1 podemos decir que el voltaje en la inductancia
π
está adelantado un ángulo de
2 radianes con respecto a la corriente, y que la corriente está
desfasada en relación con el voltaje de la fuente de alimentación. En otras palabras, las señales
nos dan una completa información sobre el fenómeno físico que las genera.
En este texto estaremos interesados en señales representadas por funciones de una variable
independiente que generalmente representará el tiempo. Sin embargo, en ciertas aplicaciones la
variable independiente puede ser otra magnitud física, como veremos a continuación:
1. Los aviones para determinar su elevación sobre el nivel del mar hacen uso de la señal
presión atmosférica, la cual presenta una dependencia con la altura.
3. Una imagen es un tipo de señal que representa la intensidad de la luz y que a su vez
depende de la posición con respecto a la posición espacial de los ejes X y Y.
Como en el caso de una imagen, que depende de una variable bidimensional (x,y), existen otras
señales que pueden depender de una variable n-dimensional, por ejemplo, el índice de polución
atmosférica es una señal que depende de las coordenadas espaciales (x,y,z).
En todo el texto, consideraremos dos tipos de señales, las continuas y las discretas. Los
ejemplos anteriores corresponden a señales continuas. Como ejemplo de una señal discreta,
podemos pensar en el precio diario del dólar o en el nivel de pH en un río medido cada kilómetro,
dado a que estas variables se conocen únicamente en ciertos instantes y no para todo el rango
continuo de valores de la variable independiente. En general, cualquier señal discreta tiene la
forma de la Figura 1.2.
A continuación daremos las siguientes deniciones formales de señales:
x[n]
n
1 2 3 4 5 6 7 8 9 10
es continua en todos los puntos de R decimos que x(t) es una señal continua.
Denición 1.4. Una señal es discreta cuando la variable dependiente está de-
nida solamente para un conjunto de valores discretos de la variable independiente.
Denotaremos las señales continuas por x(t) donde t ∈ R y las señales discretas por x[n],
n ∈ Z.
En muchas aplicaciones prácticas las señales discretas son versiones muestreadas de una
señal continua, relacionadas mediante la expresión:
~ Digital ~ Digital
Senal
Senal
m bits m bits Salida
Entrada Memoria Analoga
xq[n] yq[n]
Analoga y(t)
x(t) Conversor Conversor
A/D D/A
Microprocesador o
ASIC o FPGA
~ de Disparo
Senal
cada Ts Sistema Digital de
Procesamiento
donde xq es el vector de datos con las muestras que se almacenan en la memoria del sistema
de procesamiento. Note que en este sistema la señal continua de entrada x(t), que está denida
para todo instante de tiempo, se ha almacenado en el sistema digital como un vector de datos,
xq , donde n representa la posición de memoria de la muestra que se capturó en el instante de
tiempo nTs . Lo anterior implica que cualquier variación de la señal continua de entrada entre
dos instantes de tiempo donde no se realiza el muestreo es imposible de ser identicada por
este sistema digital (Figura 1.4). Esta limitante del sistema digital puede ser "ignorada" si la
máxima componente de frecuencia de la señal de entrada, fmax , es menor a la mitad de la
frecuencia de muestreo fs , es decir, fmax ≤ fs /2, relación conocida como teorema del muestreo
y que será abordada con mayor detalle en la Sección 1.3.1 y en el Capítulo 3.
Ts
Conversor A/D
x(t) x(nTs ) xq [n]
Q{ }
Ts
Figura 1.4: Modelo de un conversor A/D. El suiche representa el paso de la señal de análoga
de entrada cada Ts segundos y Q el cuantizador para las amplitudes. Note que ciertos cambios
de la señal de entrada no es posible capturarlos por el muestreador.
Note que esta limitante en el tiempo no es la única condición impuesta por el conversor
A/D, pues el cuantizador restringe el rango de valores de amplitud que pueden ser capturados.
En un conversor A/D, hay dos parámetros adicionales a la frecuencia de muestreo, estos son:
el voltaje de referencia y el número de bits. El voltaje de referencia impone una restricción
al máximo voltaje que puede ser leído por el conversor, y el número de bits a la cantidad de
CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 9
valores que pueden ser entregados por el conversor. Supongamos por ejemplo un conversor A/D
con entrada bipolar operando a un voltaje de referencia Vref y con ancho de palabra de m bits.
Dado a que el conversor puede capturar voltajes entre [−Vref , Vref ], los valores de salida del
conversor deben contemplar una salida con signo. Al usar una palabra de m bits, el número de
niveles que se pueden representar en el rango entre −Vref y Vref es de 2
m
niveles, y dado a que
es necesario emplear el bit más signicativo (MSB) para el signo, la correspondencia entre el
valor cuantizado de amplitud, xq , y el valor análogo aproximado, x̂, es
( )
Vref
x̂ = xq (1.3)
2m−1
donde el término entre paréntesis corresponde a la resolución del conversor, que no es más
que el valor en voltios entre dos niveles consecutivos. La expresión (1.3) además de indicar la
relación entre las muestras digitalizadas y el valor aproximado de la muestra, describe la forma
como opera el conversor digital-análogo (D/A) . Este conversor toma básicamente los valores
digitales de cada muestra, xq , que están representados a través de números de m bits y produce
a su salida un voltaje análogo, x̂, proporcional al valor de la muestra de entrada.
La diferencia entre la señal muestreada antes del cuantizador, x(nTs ), y la señal aproximada,
x̂(nTs ), es decir, x̂(nT s) − x(nT s), se denomina ruido de cuantización , pues entre menor sea
esta cantidad más el será la señal muestreada a la señal original. En la Figura 1.5 se muestran
diferentes ejemplos de señales discretizadas con un diferente número de bits, y la forma de la
señal esperada a la salida del converso D/A. Como es de esperarse entre mayor es el número de
bits, menor es el ruido de cuantización y mejor la representación de la señal de entrada.
0.5 0.1
0 0
−0.5 −0.1
−1 −0.2
0 20 40 60 80 100 0 20 40 60 80 100
0.5 0.1
0 0
−0.5 −0.1
−1 −0.2
0 20 40 60 80 100 0 20 40 60 80 100
Figura 1.5: Ejemplos de cuantización de una señal senoidal para diferentes cuantizadores, (a)
m=4 bits y (c) m=8 bits. (b) y (d) corresponden a los errores de cuantización para 4 y 8
bits, respectivamente.
El hecho de que las limitaciones de los sistemas de procesamiento digital de señales pueden
ser superadas al cumplir el teorema del muestreo y emplear un número de bits adecuado para los
conversores, ha hecho posible que estos sistemas sean tan populares, pues al tener almacenada
la señal en forma de un vector de datos al interior del sistema de procesamiento hace posible
emplear un sinnúmero de trucos y algoritmos de procesamiento. En términos simples, imple-
10 1.1. SEÑALES Y PROCESOS FÍSICOS
Ejemplo 1.1. Mediante el circuito de la Figura 1.6, formado por una resistencia
y una fuente de alimentación, podemos establecer las relaciones de potencia y energía
de la señal por medio de la ley de Joule de la siguiente forma:
v(t) i(t)
v 2 (t)
p(t) = v(t)i(t) =
R
Donde el voltaje v(t) es la señal y p(t) es la potencia instantánea disipada en la
resistencia. Por otro lado, la energía total disipada en la resistencia en el intervalo
de tiempo ξ = [t1 , t2 ] es:
∫ t2 ∫ t2
1
Eξ = p(t)dt = v 2 (t)dt
t1 R t1
y la potencia promedio en dicho intervalo está dada por:
∫ t2 ∫ t2
1 1 1 Eξ
pξ = p(t)dt = v 2 (t)dt =
t2 − t1 t1 R t2 − t1 t1 t2 − t1
CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 11
1
En las expresiones anteriores tenemos un factor de escala constante
R que las afecta. Al-
go similar ocurre con las señales generadas en otro tipo de fenómenos físicos, por lo tanto, si
normalizamos dichas expresiones tomando R = 1, podemos generalizar para cualquier señal,
independiente del fenómeno físico, la potencia instantánea, la energía y la potencia promedio.
2
p(t) = |x(t)| (1.4)
∑
n2
2
Eξ = |x[n]| (1.7)
n=n1
Las ecuaciones (1.4)-(1.8) son relaciones muy útiles que nos permiten estimar la cantidad y
la velocidad de suministro de energía, o potencia, que serían necesarios para generar cierto tipo
de señal. Asimismo, con estas expresiones es posible determinar la cantidad de energía cedida
por la señal al sistema cuando ocurre una interacción que desencadena en la extinción de la
señal. Para estas estimaciones resulta más útil calcular la energía y potencia promedio en todo
el rango de la señal, es decir en el intervalo ξ = (−∞, ∞).
∫ T
2
E∞ = lı́m |x(t)| dt (1.9)
T →∞ −T
∑
N
2
E∞ = lı́m |x[n]| (1.10)
N →∞
n=−N
12 1.1. SEÑALES Y PROCESOS FÍSICOS
∫ T
1 2
P∞ = lı́m |x(t)| dt (1.11)
T →∞ 2T −T
1 ∑
N
2
P∞ = lı́m |x[n]| (1.12)
N →∞ 2N + 1
n=−N
I) Señales de Energía
Si E∞ < ∞ se dice que la señal es de energía. Este hecho implica obligatoriamente que
P∞ = 0, ya que P∞ = lı́mT →∞ E2T∞ = 0, y desde el punto de vista físico indica que:
a) La disipación promedio de potencia del sistema para generar la señal es mínima.
b) La energía de la señal está concentrada en su mayoría en un intervalo de tiempo; tal es el
caso de una onda explosiva como la mostrada en la Figura 1.7; en esta señal E∞ = 1 y P∞ = 0.
x(t)
1
0 1 t
un consumo innito de energía. Por consiguiente, las únicas señales que existen en la naturaleza
son las señales de energía y potencia.
A continuación se ilustrarán algunos ejemplos de señales de energía y potencia, y se mostra-
rá cómo estas deniciones ayudan a predecir el desempeño de un sistema sin entrar en detalles
técnicos del sistema como tal.
∫ T0 ∫ T0
1 + cos(2ω0 t) 1 1 T0
ET0 = sen2 (ω0 t)dt = dt = t |T0 0 + sen(2ω0 t) |T0 0 = ,
0 0 2 2 4ω0 2
ET0 1
PT0 = =
T0 2
y para el caso de la potencia y energía en el innito usamos (1.9) y (1.11) para
obtener:
∫ T
1 1
P∞ = lı́m sen2 (ω0 t)dt =
T →∞ 2T −T 2
E∞ = ∞,
por lo tanto, la señal senoidal es una señal de potencia. Además, una relación impor-
para las señales periódicas es el hecho que la potencia
tante que se encuentra
promedio en un período es igual a la potencia promedio en el innito .
Ejemplo 1.3. En un sistema de transmisión por amplitud modulada con por-
tadora (radio AM convencional), la señal del modulador está dada por u(t) =
c(t) + m(t)c(t), donde m(t) es la señal mensaje y c(t) es la portadora. Estime la
cantidad de potencia que disipa la antena para transmitir la señal mensaje y la
señal portadora si m(t) = βsen(ωm t), 0 ≤ β ≤ 1, y c(t) = Ac cos(ωc t).
Solución.La señal AM la podemos reescribir utilizando la identidad trigono-
A+B B−A
métrica sen(A) + sen(B) = 2sen
2 cos 2 , como:
Ac β Ac β
u(t) = Ac cos(ωc t) + sen(ωm t − ωc t) + sen(ωm t + ωc t).
2 2
Así la potencia promedio está dada por:
A2c A2 β 2
Pu = + c .
2 4
14 1.2. TRANSFORMACIONES DE VARIABLE INDEPENDIENTE
1.2.1. Desplazamiento
Si x(t) es la señal original, entonces:
De la misma forma para una señal discreta, x[n − n0 ] y x[n + n0 ] corresponden respectivamente
a un atraso y un adelanto de dicha señal, donde n0 es el tamaño del desplazamiento.
x(t) x(t-3)
1 1
t t
-1 0 1 0 1 2 3 4
1.2.2. Reexión
La versión reejada de x(t) se obtiene a partir de x(−t), es decir invirtiendo el signo de la
variable independiente, de modo que grácamente la reexión se da al rededor del eje t = 0.
Esto mismo se aplica para una señal discreta x[n].
{
−t + 1 −1 ≤ −t ≤ 2
x(−t) =
0 c.c.
{
1−t −2 ≤ t ≤ 1
x(−t) = ,
0 c.c.
En la Figura 1.9 se muestra la operación de reexión sobre esta señal.
x(t) x(-t)
3 3
2 2
1 1
t t
-2 -1 0 1 2 -2 -1 0 1 2
1.2.3. Escalado
Una señal también se puede comprimir o expandir en el tiempo mediante la transformación
x(kt), llamada transformación de escalado y para la cual:
t
( ) t
0≤ t
≤1 2 0≤t≤2
1 2 2
x t = 1 1≤ t
≤3 = 1 2≤t≤6
2 2
0 c.c 0 c.c.
y en forma gráca se muestra en la Figura 1.10.
x(t) x(t/2)
1 1
t t
−1 0 1 2 3 4 −1 0 1 2 3 4 5 6 7
donde k está relacionada con las operaciones de reexión y escalado, y t0 con la operación de
desplazamiento.
Cuando el escalamiento y desplazamiento están denotados de esta forma, la transformación
de la señal original debe hacerse aplicando primero el factor de escalamiento k seguido de la
operación de corrimiento t0 . Este mismo orden se debe emplear al aplicar las propiedades de
las transformadas que serán abordadas en los próximos capítulos.
Ejemplo 1.7. Suponga la señal x(t) dada en la Figura 1.11a. Obtener gráca-
mente la forma de la transformación x(2t − 5). ( ( ))
Solución. La transformación x(2t − 5) en la notación de (1.13) es x 2 t − 52 .
Por consiguiente, es necesario hacer una compresión por un factor de 2 (Figura
1.11b) seguido de un desplazamiento hacia la derecha de 5/2 (Figura 1.11c).
t t
−2 −1 0 1 2 3 4 −1 −1 0 1 1 2
2 2
x(2t−5) (c)
1
t
−1 0 1 2 3 7 4 5
2
∞
∑
x(t) = xg (t + mT0 ) (1.15)
m=−∞
xg (t)
0 T0 2 T0 3 T0 4 T0 5 T0 6 T0
+ xg (t−T0 )
0 T0 2 T0 3 T0 4 T0 5 T0 6 T0
+ xg (t−2T0 )
0 T0 2 T0 3 T0 4 T0 5 T0 6 T0
+...=x(t)
0 T0 2 T0 3 T0 4 T0 5 T0 6 T0
T1
Por otro lado, si para cierta señal no es posible determinar un período fundamental, se dice
que la señal es aperiódica. Además se considera que la señal nivel de DC, x(t) = k, es una
señal periódica con período innito y frecuencia cero, este hecho se demostrará posteriormente
al estudiar la señal exponencial compleja (Sección 1.5.5).
En cuanto a la potencia promedio y energía, toda señal periódica es una señal de potencia,
donde la potencia promedio en el período es idéntica a la potencia promedio en el innito
Pperiodo = P∞ .
Las deniciones dadas en (1.14) y (1.15) muestran que periodos fundamentales negativos
también son periodos de la señal. Es decir, la señal x(t) puede tener un periodo fundamental
T0 y simultáneamente un periodo fundamental −T0 . Esto permite identicar la presencia de
frecuencias negativas , las cuales juegan un rol importante en el análisis de frecuencia que se
estudiará en próximos capítulos.
Hay que recodar que el argumento de una señal discreta debe ser siempre un número entero,
esto implica que el período fundamental N0 también es un número entero. Ahora, puesto que
las señales discretas se obtienen a partir del muestreo de una señal continua como en la ecuación
(1.1) (x[n] = x(nTs )), tenemos dos diferencias para las señales periódicas continuas y discretas:
1. Para una señal continua el período fundamental puede tomar cualquier valor continuo, es
decir, −∞ < T0 < ∞. En cambio para una señal discreta, el período equivalente en tiempo
continuo debe ser un múltiplo entero del período de muestreo Ts , esto es, T0 = N0 Ts , o en
forma equivalente, la frecuencia de la señal discreta toma solamente un conjunto de valores
1
discretos ω =
N0 ωs , donde ωs es la frecuencia de muestreo en radianes por segundo.
a) Una señal discreta con período N0 = 1 implica que x[n] = k ∀n, es decir, se tratará
de un nivel de DC cuya frecuencia, ω = 0, sería la mínima frecuencia en tiempo
discreto, y el período equivalente sería el mismo período de muestreo, T0 = Ts ; en
otras palabras, la frecuencia mínima de una señal periódica discreta es cero o un
múltiplo de la frecuencia de muestreo: ω = 0, ±ωs , ±2ωs , ... Ver Figura 1.13(a).
así que la frecuencia de una señal periódica discreta toma valores discretos en el rango
− ω2s ≤ ω ≤ ω2s .
x[n] x[n]
0 n 0 n
Ts
(a) N0 =1
(b) N0 =2 T0=2Ts
De la discusión anterior se obtiene una importante relación denominada el teorema del mues-
treo, éste sugiere que para discretizar una señal continua sin perder información, es necesario
emplear una frecuencia de muestreo mayor o igual al doble de la máxima frecuencia presente
en la señal:
fs ≥ 2fmax (1.17)
Para diferenciar las frecuencias en tiempo continuo y tiempo discreto se acostumbra norma-
lizar el rango de frecuencias en tiempo discreto porfs :− 2f
ωs
s
≤ fωs ≤ 2fωs
s
y denotando a
ω
fs = Ω
como la frecuencia en tiempo discreto o frecuencia normalizada
. El rango de frecuencias de la
señal discreta será entonces −π ≤ Ω ≤ π , donde Ω=π corresponde a la mitad de frecuencia de
muestreo, y
f
Ω = 2π . (1.18)
fs
De la discusión anterior surge la pregunta: ¾Qué pasa si muestreamos una señal periódica
continua de cierta frecuencia, f0 , a una frecuencia de muestreo, fs , que no cumpla con el
teorema del muestreo ?. A simple vista, se podría pensar que no se vería señal alguna, sin
embargo, lo que realmente ocurre es que se obtiene una señal discreta que representa la versión
muestreada de una señal continua de más baja frecuencia que la señal f0 . A este fenómeno se
le conoce con el nombre de aliasing cuyo efecto se puede observar mejor en la Figura 1.14. En
dicha gura, una señal de alta frecuencia (línea continua) se muestrea a una frecuencia que
invalida el teorema del muestreo, es decir, fs < 2f0 , dando como resultado la señal discreta
representada por puntos, los cuales a su vez, pueden asociarse al muestreo de una señal continua
de menor frecuencia (línea punteada).
π/2 2.5kHz
(a) (b)
(+) (+)
π,−π 0,2π 5kHz,−5kHz 0,10kHz
(−) 1.6π (−)
8kHz
−0.4π −2kHz
−π/2 −7.5kHz
Figura 1.15: Representación gráca para analizar el efecto del aliasing. Note que todas las
frecuencias del semicírculo superior son las frecuencias positivas y las del semicírculo inferior
las frecuencias negativas.
Los armónicos de una señal serán entonces siempre señales con una frecuencia mayor a la de
la señal original. Su principal utilidad está en la síntesis de señales. Como se verá en el siguiente
capítulo al estudiar la serie de Fourier.
Un ejemplo de una señal par es la función coseno y de una señal impar es la función seno.
Teorema 1. Una señal cualquiera x(t) puede expresarse como la suma de una
señal par y una señal impar en la forma:
donde:
1
Par {x(t)} = [x(t) + x(−t)] (1.20)
2
e
1
Impar {x(t)} = [x(t) − x(−t)] . (1.21)
2
Ejemplo 1.8. Determine en forma analítica y gráca las componentes par e
impar de la señal:
{
t+1 −1 ≤ t ≤ 3
x(t) =
0 c.c.
Impar{x(t)}
2
Par{x(t)} x(t)
2
1
2 x(-t)
2
1
-5 -4 -3 -2 -1 0 1 2 3 4 5 t
x(t)
-5 -4 -3 -2 -1 0 1 2 3 4 5 t 2
-x(-t)
2
(a)
(b)
Solución: {
−t + 1 −3 ≤ t ≤ 1
x(−t) =
0 c.c.
1
−t −3 ≤ t ≤ −1
2 2
1 −1 ≤ t ≤ 1
Par {x(t)} =
1
+ t
1≤t≤3
2 2
0 c.c.
t
2−
1
−3 ≤ t ≤ −1
2
t −1 ≤ t ≤ 1
Impar {x(t)} =
2
t
+ 1
1≤t≤3
2
0 c.c.
22 1.5. SEÑALES ELEMENTALES
{
1 t≥0
u(t) = (1.22)
0 t<0
y su representación gráca, tanto en tiempo continuo como tiempo discreto, se muestra en la
Figura 1.17.
u(t) u[n]
1 1
0 0
t n
(a) (b)
Figura 1.17: Señal escalón unitario: (a) tiempo continuo, (b) tiempo discreto.
∫ t
u(t) = δ(τ )dτ. (1.23)
−∞
A partir de la ecuación (1.23) vemos que el impulso unitario puede obtenerse de la primera
derivada del escalón unitario continuo en la forma
du(t)
δ(t) = . (1.24)
dt
CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 23
u∆ (t)
1
0 ∆ t
La ecuación (1.24) presenta cierta dicultad formal como representación de la función im-
pulso unitario ya que u(t) es discontinua en t = 0 y consecuentemente, no es diferenciable.
Sin embargo, dicha ecuación se puede interpretar considerando una aproximación del escalón
unitario u∆ (t), con ∆ muy pequeña, como se muestra en la Figura 1.18.
El escalón unitario cambia de valor instantáneamente, es decir, si t ≈ 0 =⇒ u(t) = 0 y si
t = 0 =⇒ u(t) = 1. Así, se puede considerar u(t) como una idealización de u∆ (t) con ∆ ≪ ya
que su duración no es signicativa para efectos prácticos, pues u∆ (t) también cambia de valor
muy rápidamente si ∆ ≪, esto es, u∆ (t) se eleva de 0 a 1 en un corto intervalo de tiempo.
De manera formal:
Consideremos ahora la señal δ∆ (t) cuya representación gráca se muestra en la Figura 1.19
que corresponde a las expresiones:
δ∆ (t) = dudt
∆ (t)
{ 1
∆ 0≤t≤∆
δ∆ (t) =
0 c.c.
δ∆(t)
1/∆
0 ∆ t
El área bajo δ∆ es 1 para todo ∆, luego se puede denir la función δ como el siguiente límite,
Se tiene entonces en la Figura 1.20 la representación gráca de la señal δ(t) denida ante-
riormente. Note que bajo este supuesto, la señal impulso tiene un área unitaria, un ancho cero
y una altura innita.
Presentamos a continuación algunas propiedades de la función δ(t):
24 1.5. SEÑALES ELEMENTALES
δ (t)
0
t
∫∞
1. δ(t) tiene área 1, esto es,
−∞
δ(t)dt = 1
∫ ∞
x(t)δ(t − t0 )dt = x(t0 ) (1.25)
−∞
Según la primera propiedad, es común encontrar en algunos libros la siguiente denición para
la señal impulso unitario δ(t):
{
1 t=0
δ(t) = (1.26)
̸ 0
0 t=
cuya representación gráca se muestra en la Figura 1.21. Sin embargo, esta denición no es
matemáticamente correcta como se discutirá más adelante. Para el caso del tiempo discreto
esta es la única denición válida de la señal delta de Dirac, ya que solamente de esta forma se
garantiza que la sumatoria de todos los componentes (área) de la delta de tiempo discreto sea
igual a 1.
δ (t) δ [n]
1 1
0 0
t n
(a) (b)
Figura 1.21: Señal impulso unitario: (a) tiempo continuo, (b) tiempo discreto
La quinta propiedad signica que para obtener el valor de la señal x(t) en el instante t = t0 ,
basta integrar el producto de dicha señal por la función delta de Dirac desplazada hasta t = t0 .
Esta propiedad indica que la señal impulso, más que una función, se debe considerar como una
distribución de probabilidad, de allí que la denición (1.26) no sea matemáticamente correcta
en tiempo continuo y sea únicamente una descripción fenomenológica del efecto de la delta de
Dirac aplicada sobre una función x(t).
CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 25
La principal utilidad de esta propiedad está en la descripción del muestreo de una señal
continua, en este caso, la versión discreta x[n] de la señal continua x(t), se obtiene utilizando
la función delta mediante la expresión
∫ ∞
x[n] = x(t)δ(t − nTs )dt (1.27)
−∞
esto es, tomando muestras de x(t) en los instantes de tiempo nTs . Lo anterior signica que una
señal muestreada puede expresarse como la suma de varias funciones delta de Dirac ponderadas
por la amplitud de la señal continua evaluada en t = nTs (Figura 1.22). De forma similar, la
versión continua de una señal muestreada se obtiene a partir de:
∞
∑ ∞
∑
xs (t) = x[n]δ(t − nTs ) = x(nTs )δ(t − nTs ). (1.28)
n=−∞ n=−∞
xs (t)
∞
∑
x[n] = x[k]δ[n − k] (1.30)
k=−∞
∫ t
u(t) = δ(τ )dτ (1.31)
−∞
y para obtener la función impulso unitario a partir del escalón unitario, basta con derivar u(t)
en la forma:
26 1.5. SEÑALES ELEMENTALES
du(t)
δ(t) = . (1.32)
dt
En el caso de tiempo discreto estas relaciones equivalen a:
∑
n
u[n] = δ[m] (1.33)
m=−∞
u[n]
1
δ [n] = u[n]-u[n-1]
1
0
n
- u[n-1]
=
0
n
1
0
n
Figura 1.23: Relación entre el impulso unitario y el escalón unitario en tiempo discreto
y grácamente corresponde a la Figura 1.24. Esta señal se obtiene integrando la función escalón
unitario a través de:
∫ t
r(t) = u(τ )dτ
−∞
∑
n
r[n] = u[τ ].
τ =−∞
CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 27
r(t)
r[n]
0 t 0
n
(a) (b)
Figura 1.24: Señal rampa: (a) tiempo continuo, (b) tiempo discreto
rect(t)
1 0 1 t
-
2 2
La señal pulso rectangular se puede obtener a partir de la señal escalón unitario mediante:
( ) ( )
1 1
rect(t) = u t + −u t− (1.37)
2 2
Ejemplo 1.9. Una señal periódica cuadrada (Figura 1.26a) pasa a través de un
circuito derivador. Determine la forma de la señal de salida.
Solución. De acuerdo a (1.15), se puede obtener una representación de la señal
periódica cuadrada a partir de la señal rectangular:
∞
∑ ( )
t − nT
x(t) = rect
n=−∞
τ
( ∞ ( )) ∞ ( )
d ∑ t − nT ∑ d t − nT
ẋ(t) = rect = rect .
dt n=−∞
τ n=−∞
dt τ
28 1.5. SEÑALES ELEMENTALES
∑∞ ( ) ( )
1 t − nT 1 1 t − nT 1
ẋ(t) = δ + − δ −
n=−∞
τ τ 2 τ τ 2
∞
∑ ( τ) ( τ)
= δ t − nT + − δ t − nT − ,
n=−∞
2 2
(a)
−T −τ/2 0 τ/2 T 2T t
x(t)
(b)
τ/2
−T −τ/2 0 T 2T t
Dependiendo de los valores de c y a, podemos tener los dos casos siguientes para la señal
continua exponencial compleja: señal exponencial real y señal periódica exponencial compleja
y senoidal.
3. Si a = 0, entonces x(t) es constante, luego se trata de una señal que describe la salida de
una batería o nivel de DC. Figura 1.27c.
CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 29
t t t
(a) (b) (c)
Figura 1.27: Señal exponencial real para (a) a > 0, (b) a<0 y (c) a = 0.
x(t)
T0 = 2 π
A ω0
Acos φ
t
{
sin(πt)/πt t ̸= 0
sinc(t) = (1.38)
1 t=0
En la Figura 1.29 puede observarse que esta señal tiene un valor máximo de 1 en t = 0 y
decrece rápidamente conforme |t| → ∞. Asimismo, la señal exhibe ceros en t = ±1, ±2, ±3, ...
en t = ± , ± , ....
3 5
y los extremos locales están
2 2
sinc(t)
-4 -3 -2 -1 0 1 2 3 4
1.6. Sistemas
Un sistema es un proceso o mecanismo que transforma señales de entrada en otras señales
de salida. A continuación se listan algunos ejemplos de sistemas:
1. Un carrito de juguete: es un sistema cuya entrada es una señal eléctrica de control y cuya
salida es un determinado movimiento o una acción realizada por el carrito.
3. Un ltro: es un sistema cuya entrada es una señal distorsionada por ruido o interferencias
y cuya salida es la señal ltrada, es decir, la señal original.
Grácamente un sistema se representa por medio de un bloque que toma la señal de entrada y
le aplica un operador para obtener la señal de salida (Figura 1.30).
x(t) T{ } y(t)
donde x(t) es la entrada, y(t) es la salida y T es la operación realizada por el sistema. Este tipo
de notación se conoce con el nombre de relación entrada-salida del sistema.
CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 31
Un sistema es no lineal si la relación anterior no se cumple para algún conjunto x1 (t), x2 (t),
α y β.
R1
x(t) y(t) R2
Para probar que la relación es lineal considere la señal de entrada x(t) = αx1 (t)+
βx2 (t), luego
x(t)
T {x(t)} = R2
R2 x(t)+R2 x(t) = x(t)+1 .
x(t) x(t−t0 )
(a) 2π (c) 2π
t t
t0
y(t) y(t−t0 )
(b) 1 (d) 1
t t
t0
−1 −1
y(t) = T {x(t) : t ≤ t0 } .
Puesto que y(t) depende solo del presente y pasado de x(t), los sistemas causales se deno-
minan también sistemas físicamente realizables.
1 ∑
N
y[n] = x[n + k]
2N + 1
k=−N
CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 35
y es factible implementarlo debido a que la señal de entrada puede ser un vector de datos
previamente almacenado, por ejemplo, puede corresponder a un archivo de audio grabado pre-
viamente.
Si |x(t)| ≤ k ⇒ |y(t)| ≤ k ′ .
Si la implicación anterior no se cumple se dice que el sistema es inestable. Este tipo de crite-
rio de estabilidad se conoce con el nombre de BIBO por sus siglas en inglés ( Bounded-input
bounded-output : Entrada acotada salida acotada).
∫ t
1
v(t) = vR (t) + vC (t) = Ri(t) + i(t)dt
C −∞
di(t) 1 1 dv(t)
⇒ + i(t) =
dt RC R dt
por lo tanto, si la señal de entrada v(t) es cero o una fuente de DC, la E.D. se transforma en:
di(t) 1
+ i(t) = 0
dt RC
cuya solución i(t) se denomina solución homogénea iH (t) y da información acerca de los tran-
sitorios del sistema (Figura 1.33b). Por su parte, cuando la señal de entrada es alguna fuente
36 1.8. ECUACIONES DIFERENCIALES Y EN DIFERENCIAS
de AC (o cierta señal dependiente del tiempo), la solución obtenida para i(t) se denomina solu-
ción particular iP (t), y está relacionada con el régimen en estado estacionario del sistema. La
solución nal (señal de salida i(t)), será entonces:
R iH(t)
i0
v(t) i(t) C
t
(a) (b)
Cuando la ecuación diferencial que representa el sistema posee únicamente coecientes cons-
tantes, se dice que es una ecuación diferencial lineal, y representa el tipo más común de sistemas,
los L.T.I. Aunque las ecuaciones diferenciales son el lenguaje natural de los sistemas, ésta no
es la mejor y ni la forma más simple de tratar los sistemas L.T.I., para éstos resulta más
conveniente usar representaciones alternativas como la convolución.
En este libro no utilizaremos la representación de sistemas en ecuaciones diferenciales, sin
embargo, es interesante mostrar que para un sistema en tiempo discreto, el equivalente a las
ecuaciones diferenciales son las ecuaciones en diferencias nitas (E.D.F.). Para un sistema
L.T.I., la ecuación en diferencias puede representarse como:
∑
P ∑
Q
ak y[n − k] = bk x[n − k] (1.41)
k=0 k=0
∑
P
A ak λn−k = 0
k=0
CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 37
{ }
λn−P ao λP + a1 λP −1 + ... + aP −1 λ + aP = 0
ya que descartando la solución trivial λ = 0:
P P −1
donde λ1 ...λP
son las raíces del polinomio característico ao λ + a1 λ + ... + aP −1 λ + aP .
n n 2 n
Para las raíces repetidas, las diferentes soluciones son λ1 ,nλ1 ,n λ1 , ...
Sin embargo, para la solución particular no existe una forma simple de determinarla y ge-
neralmente se recurre a simple inspección.
Ejemplo 1.19. Determine la salida del sistema dado por la ecuación en diferen-
cias y[n] − a1 y[n − 1] = x[n] ante la entrada x[n] = bn .
Primero encontraremos la solución a la homogénea, para la cual tenemos el
siguiente polinomio característico: λ − a1 = 0, así que la solución a la homogénea
será:
yH [n] = Aλn1 = A · an1
y para la particular tenemos la siguiente ecuación en diferencias:
y[n] − a1 y[n − 1] = bn
así que supondremos como solución, una función del tipo:
yP [n] = B · bn
que reemplazada en la E.D.F.:
B · bn − a1 B · bn−1 = bn ⇒ B − a1 Bb−1 = 1 ⇒ B = b
b−a1
b
yP [n] = b−a 1
bn
la solución total será entonces:
b
y[n] = yH [n] + yP [n] = A · an1 + bn
b − a1
Para terminar, resulta interesante estudiar ciertos casos particulares de E.D.F.:
∑
Q
y[n] = bk x[n − k] (1.44)
k=0
∑
Q ∑
P
y[n] = bk x[n − k] − ak y[n − k] (1.46)
k=0 k=1
pero tiene las mismas características de un sistema IIR. Desde el punto de vista estocástico,
como constituye la suma de un sistema AR y un MA, se denomina sistema ARMA.
∫ t
dy(t) 1
Ry(t) + L + y(τ )dτ = x(t)
dt C −∞
que al ser derivada para obtener una forma más estándar, nos conduce a
R L
x(t) y(t) C
Para abreviar escritura y hacer más evidente la presencia de los derivadores, y como se verá
más adelante, las variables de estado del sistema, se acostumbra a emplear la notación punto,
dy(t) d2 y(t)
donde ẏ ≡
dt y ÿ ≡ dt2 . Usando esta notación, la ecuación diferencial se puede escribir en
forma más compacta a través de
1
Lÿ + Rẏ + y = ẋ (1.47)
C
Nótese que en esta ecuación diferencial aparece la señal de salida y sus derivadas hasta el
segundo orden, por lo que su solución implicaría dos integradores. Si uno de los integradores
entrega a su salida la señal y es de esperarse que su entrada sea su derivada, ẏ , y si un integrador
entrega la señal de salida ẏ , la entrada a éste integrador será la señal ÿ (Figura 1.35a). Dado
a que estamos interesados en obtener la solución y , de la construcción mostrada en la Figura
1.35a se inere que es necesario determinar únicamente la forma de calcular a ÿ . Eso se obtiene
fácilmente al despejar ÿ de (1.47):
R 1
ÿ = ẋ − ẏ − y
L LC
Dado que y y ẏ aparecen explícitos en la Figura 1.35a, es necesario añadir simplemente a la
construcción: un derivador a la señal de entrada x para obtener ẋ; un nodo de suma para
evaluar la expresión anterior; y una serie de amplicadores de ganancias R/L y 1/LC que se
han representado a través de un triángulo. El montaje resultante es el diagrama de bloques
mostrado en la Figura 1.35b. Este diagrama se puede implementar fácilmente en Simulink o en
hardware usando amplicadores operacionales en conguración de integradores y derivadores.
x(t)
d/dt + y(t) y(t) y(t)
−
−
(b)
R/L
1/LC
∫
1
Lẏ + Ry + y=x
C
∫
así que creamos una nueva variable y1 = y, lo que nos conduce a que
ẏ1 = y , (1.48)
1
Lẏ + Ry + y1 = x
C
Integrando de nuevo,
∫ ( )
1
Ly + Ry + y1 − x = 0
C
∫( )
por consiguiente, creamos una nueva variable y2 = Ry + C1 y1 − x lo que nos conduce a
1
ẏ2 = Ry + y1 − x , (1.49)
C
y la ecuación anterior se transforma en
1
Ly + y2 = 0 → y = − y2 (1.50)
L
De nuevo, el diagrama de bloques contará con dos integradores cuyas salidas serán las variables
y1 y y2 , por lo que sus entradas, serán ẏ1 y ẏ2 , respectivamente, tal como se muestra en la
Figura 1.36a. De esta forma, para interconectar el diagrama, es necesario, añadir nodos de
suma y amplicadores a las entradas ẏ1 y ẏ2 acorde a las ecuaciones de primer orden que
resultaron en los pasos intermedios (1.48) y (1.49). Finalmente, las conexiones para obtener la
salida están dadas por la ecuación obtenida en el último paso (1.50) (Figura 1.36b).
Nótese que el diagrama resultante no posee derivadores, por lo que será una implementación
más estable numéricamente hablando que el diagrama de bloques presentado en la Figura 1.35.
El diagrama obtenido con este procedimiento es una forma canónica del sistema. Las formas
canónicas son útiles en el campo del control para el análisis de la controlabilidad de un sistema.
Asimismo, las variables intermedias y1 y y2 , se denominan variables de estado del sistema, pues
dan información sobre los aspectos que son medibles de un sistema, y en el campo del control
son empleadas para la implementación de diferentes estrategias de control modernas.
CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 41
x(t)
− y2(t)
y1(t) y1(t) y2(t) y(t)
+
1/C + −1/L
(b)
R
Figura 1.36: Diagrama de bloques para el circuito RLC serie sin usar derivadores
1 3 1
y[n] = x[n] − 2x[n − 1] + x[n − 2] + y[n − 1]
2 4 2
Nótese que en esta ecuación, el máximo retardo para la señal de entrada, x[n], es dos, por lo que
es necesario emplear dos elementos de retardo para esta señal, en cambio para la salida, y[n], es
necesario únicamente un elemento de retardo. Una vez ubicados los elementos de retardo como
se muestra en la Figura 1.37b, solo basta con ubicar sumadores y multiplicadores y conectarlos
conforme se expresa en la ecuación en diferencias original (Figura 1.37c).
Una ventaja de los diagramas de bloques para sistemas en tiempo discreto consiste en el
hecho que esta representación gráca se puede llevar rápidamente a un circuito digital. En
este caso, los elementos de retardo se reemplazan por registros de datos cuya señal de reloj es
común para todos los elementos de retardo, y para los sumadores y multiplicadores es necesario
emplear sumadores y multiplicadores digitales. Otras arquitecturas que se deben añadir son
desplazadores de bits con el n de ajustar los resultados de los cálculos a una representación
numérica adecuada (Figura 1.38). Sin embargo, el análisis de este tipo de sistemas está fuera
de los alcances de este curso.
42 1.9. DIAGRAMAS DE BLOQUES
x[n] y[n]
x[n] x[n−1]
(a) z−1 (b) z−1 z−1
x[n−1] y[n−1]
−1
z
x[n−2]
1/2
x[n] y[n]
−1 −1
z −2 1/2 z
(c) x[n−1] y[n−1]
z−1 3/4
x[n−2]
y[n]
1/2
x[n]
−2
registro 1/2 registro
x[n−1] y[n−1]
3/4
registro
x[n−2]
CLK
1.10. La Convolución
En el apartado anterior vimos que cualquier sistema puede ser descrito por medio de una
ecuación diferencial, para el caso de sistemas en tiempo continuo, y por ecuación en diferen-
cias, para los sistemas en tiempo discreto. En cualquiera de los casos, la señal de salida y(t)
ante cualquier señal de entrada x(t) puede encontrarse solucionando la ecuación diferencial o
en diferencias. Este procedimiento no siempre es fácil y requiere de la realización de cálculos
dispendiosos. Para un sistema L.T.I. existe una forma más simple de expresar la señal de salida
en función de la señal de entrada y una función característica del sistema, denominada respuesta
al impulso h(t). Esta expresión se conoce con el nombre de integral de convolución, en el caso
de sistemas en tiempo continuo, y sumatoria de convolución, si se trata de sistemas L.T.I. en
tiempo discreto.
∫ ∞
y(t) = x(t) ⋆ h(t) = x(λ)h(t − λ)dλ (1.51)
−∞
∞
∑
y[n] = x[n] ⋆ h[n] = x[k]h[n − k] (1.52)
k=−∞
Demostración. Recordemos que podemos expresar cualquier señal x(t) como la combinación
lineal de innitas funciones impulso unitario desplazadas hasta t = λ y escaladas por la amplitud
x(λ) (ec. (1.29)):
∫ ∞
x(t) = x(λ)δ(t − λ)dλ (1.54)
−∞
Si aplicamos esta señal como entrada a un sistema cualquiera, obtenemos la siguiente relación
entrada/salida:
{∫ ∞ }
y(t) = T x(λ)δ(t − λ)dλ (1.55)
−∞
∫ ∞
y(t) = T {x(λ)δ(t − λ)} dλ
−∞
44 1.10. LA CONVOLUCIÓN
Debido a que el término x(λ) es independiente del tiempo y por la linealidad del sistema,
podemos sacarlo fuera del operador T. Ahora, al considerar la invarianza en el tiempo, y según
la denición dada en (1.53), podemos nalmente expresar, y(t) como:
∫ ∞
y(t) = x(λ)h(t − λ)dλ
−∞
Recordemos que la señal de entrada se modeló como una sumatoria de innitas funciones
delta de diferentes áreas separadas una distancia innitesimal tal como se muestra en la Figura
1.39a. Si a un sistema L.T.I. aplicamos como entrada una señal delta, la señal de salida será
la respuesta al impulso h(t) (Figura 1.39b). De esta forma, y por las propiedades lineal e
invarianza en el tiempo del sistema, si aplicamos a la entrada diferentes funciones delta de
distinta amplitud, la señal de salida será la suma de cada una de las respuestas al impulso
individuales, desplazadas y amplicadas según la posición y área de cada función delta (Figura
1.39c). Esta sumatoria de las versiones desplazadas y amplicadas de las funciones delta es el
efecto de la convolución y, como se aprecia en la gura, la respuesta al impulso es la función
característica que debe ser desplazada y amplicada para generar la señal de salida.
x(t) h(t)
(a) (b)
y(t) =
(c) +
+
+
+
+
+
∞
∑
y[n] = h[l]x[n − l] = h[n] ⋆ x[n] (1.56)
l=−∞
Lo anterior signica que el término h[0] es el peso que tendrá la entrada actual (x[n]) en la
señal de saliday[n], h[1], la contribución de la entrada anterior (x[n − 1]), h[−1], la contribución
de la entrada futura x[n + 1], y así sucesivamente. Es decir, la respuesta al impulso es una señal
que pondera la contribución de las entradas pasadas, la actual y las futuras en la señal de salida;
y la convolución es la suma de todas las contribuciones que generan la señal de salida y[n].
Nótese que si h[n] está denido para n ≥ 0, el sistema será causal (no depende del futuro)
y por ende, físicamente realizable. Además si consideramos que la respuesta al impulso, tiene
una longitud nita Nh (h[n] : 0 ≤ n ≤ Nh − 1), la ecuación (1.56) se transforma en la ecuación
en diferencias de un sistema FIR (1.44), en la cual los coecientes bk = h[k] y el orden de la
E.D.F será Q = Nh − 1.
Esta característica hace útil la denición de la sumatoria de convolución, en el campo del
procesamiento digital de señales para la implementación de ltros digitales FIR, caracterizados
porque su salida se calcula considerando únicamente valores de entradas anteriores y la respuesta
al impulso del sistema. En la Figura 1.40 se muestra un algoritmo en lenguaje C que realiza un
ltrado digital de la señal leída a través de un conversor analógico digital (ADC).
En este programa, el arreglo h contiene los elementos de la respuesta al impulso y x almacena
los valores de la entrada actual (que no es más que la lectura del ADC) y entradas anteriores
de la siguiente forma:
x[0] ←entrada actual, x[n],
x[1] ←entrada anterior, x[n − 1],
x[2] ←entrada anterior-anterior, x[n − 2], etc.
Nótese que según la ecuación (1.44), la salida y[n] se calcula como y[n] = h[0]x[n]+h[1]x[n−
1] + h[2]x[n − 2] + ..., pero en el programa nunca se hace alusión a un índice n, y y tampoco
se trata de un arreglo, tal como sugeriría dicha ecuación. Esto se debe, a que las ecuaciones en
diferencias solamente indican el orden en que se deben hacer los cálculos y no debe entenderse
como una ecuación literal para elaborar un programa. Por esta razón, el programa incluye un
ciclo de movimiento de datos que garantiza que al pasar de nuevo el ujo del programa por la
línea x[0] = LeerADC(), el elemento x[1] contenga el valor que entregó anteriormente el ADC,
x[2] la muestra leída hace dos instantes de tiempo, y así sucesivamente.
#dene Nh 50
oat x[Nh];
oat h[Nh] = { -0.013, 0.026, .... };
void main() {
int k;
oat y;
while(1) {
x[0] = LeerADC();
//Calculo de la convolución
y = 0;
for(k=0; k<Nh; k++) {
y += h[k]*x[k];
}
//Movimiento de datos del arreglo x
for(k=Nh-1; k>0; k- -) {
x[k] = x[k-1];
}
EscribirDAC(y);
}
}
término h(t − λ) presente en la ec. (1.51), podemos notar que la variable t es un valor constante,
ya que la integración se hace sobre el dominio de λ, así que h(t−λ), indica que para calcular y(t)
es necesario realizar una reexión y desplazamiento hasta t de la respuesta al impulso. En otras
palabras, la convolución implica las operaciones de reexión, desplazamiento y multiplicación
acumulativa.
Ejemplo 1.20. Calcule la salida y(t) resultante al aplicar al sistema dado por
la respuesta al impulso
{ t
T 0≤t≤T
h(t) = ,
0 c.c
la señal de entrada (Figura 1.41):
{
Ae−t t≥0
x(t) =
0 c.c
h(t) x(t)
A
1
T t t
(a) (b)
Figura 1.41: Grácas de la respuesta al impulso (a) y señal de entrada (b) del ejemplo.
∫ ( )
t
−λ t−λ
y(t) = x(t) ⋆ h(t) = Ae dλ 0≤t≤T
0 T
los límites de integración deben ser entre 0 y t, ya que la región común entre x(t)
y h(ti − t) es la ubicada en el intervalo [0, t], o en otras palabras, la región en el
intervalo [0, t] es la región diferente de cero después de hacer el producto x(t)h(ti −t)
. Después de solucionar la integral:
A( )
y(t) = t − 1 + e−t 0≤t≤T
T
Ahora, para t>T (Figura 1.42e), la salida está dada por la convolución:
48 1.10. LA CONVOLUCIÓN
t t =0 t
t1-T t1 -T 2
(a) (b)
y(t)
x(t) t <t
4 5
h(t -t)
5
t t
t -T t T
(e) 5 5 (f)
∫ ( )
t
t−λ
y(t) = Ae−λ dλ t>T
t−T T
A ( −T )
y(t) = e + T − 1 eT −t t>T
T
Nótese que los límites de la integral en este rango son entre t−T y t, dado a que
este es el rango donde el producto de los términos es diferente de cero. La solución
nal se puede ver en forma gráca en la Figura 1.42f, que corresponde a la función:
0 t<0
y(t) = A
(t − 1 + e−t
( T−T ) )T −t 0≤t≤T
A
T e + T − 1 e t>T
Elemento Neutro
Si un sistema tiene como respuesta al impulso la función delta de Dirac (δ(t)), la salida del
sistema será la misma entrada:
CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 49
Demostración.
∫ ∞ ∫ ∞
x(t) ⋆ δ(t) = x(λ)δ(t − λ)dλ = x(λ)δ(λ − t)dλ = x(t)
−∞ −∞
ya que:
x(t)*h1(t)
x(t) y(t) x(t) y(t)
h1 h2 = h1 *h 2
y(t) = x(t) ⋆ {h1 (t) ⋆ h2 (t)} = x(t) ⋆ {h2 (t) ⋆ h1 (t)} (1.60)
puesto que:
y(t) = x(t) ⋆ h1 (t) + x(t) ⋆ h2 (t) = x(t) ⋆ {h1 (t) + h2 (t)} (1.62)
x(t)*h1(t)
h1
x(t) x(t) y(t)
h2
y(t)
= h1 +h 2
x(t)*h2(t)
h1 h3
x(t)
y(t)
h2 h4
Solución. Podemos notar que la respuesta total al impulso del sistema será:
∫ ∞
h1 (t) ⋆ h3 (t) = 2 e−2λ u(λ)e−(t−λ) u(t − λ)dλ =
−∞
{
0 t<0 { }
= ∫t −t−λ = 2 e−t − e−2t u(t)
2 0
e dλ t≥0
{
0 t<0
= = 4e−3t u(t)
4e−3t t≥0
por lo tanto,
{ }
h(t) = 2e−t − 2e−2t + 4e−3t u(t)
CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 51
{
f (t) t≥0
h(t) = (1.63)
0 c.c.
h(t) x(t)
0 t
pasado futuro
t: presente
Si |x(t)| ≤ k ⇒ |y(t)| ≤ k ′ .
1
por lo tanto, al sustituir el valor de y(t) y emplear la relación de Cauchy-Schwartz :
∫ (∫ ) (∫ )
∞ ∞ ∞
|y(t)| = h(λ)x(t − λ)dλ ≤
2
|h(λ)| dλ
2
|x(λ)| dλ < ∞
−∞ −∞ −∞
∫ ∞
∴ |h(λ)| dλ < ∞ (1.65)
−∞
es decir, un sistema L.T.I. será estable si el área bajo la curva de la magnitud absoluta de h(t)
es nita.
1 La relación de Cauchy-Schwartz establece que |⟨x(t), y(t)⟩| ≤ ∥x(t)∥ ∥y(t)∥ donde ⟨x(t), y(t)⟩ se conoce como
∫ ∫
producto interno y es igual a ⟨x(t), y(t)⟩ = x(t)y ∗ (t)dt y ∥x(t)∥2 = |x(t)|2 dt es la norma de la señal x.
52 1.10. LA CONVOLUCIÓN
h[n]
b1 b7
b6
b0 b3 b5
n
b2
b4
Ejemplo 1.25. Ahora mostremos que un sistema IIR tal como y[n]+ 21 y[n−1] =
x[n] tiene longitud innita al impulso.
Si asumimos x[n] = δ[n] y condiciones iniciales cero, es decir, x[n] = 0 ∀n < 0,
al evaluarh[n] − 12 h[n − 1] = δ[n], tenemos:
h[0] = 1
h[1] = − 12
h[2] = 14
h[3] = − 81
{ ( )n
(−1)n 12 n≥0
h[n] =
0 n<0
∑∞
puede notarse que h[n] tiene longitud innita, es causal y estable ya que 0 |h[n]| =
CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 53
1. La primera de ellas es h(t) = kδ(t), que corresponde a un sistema sin memoria cuya acción
sobre la entrada es producir una amplicación de la señal de entrada por un factor de
escala k.
2. Ahora, si h(t) = u(t), el sistema asociado será un integrador perfecto, puesto que: y(t) =
∫∞ ∫t
x(t) ⋆ u(t) = −∞ x(λ)u(t − λ)dλ = −∞ x(λ)dλ
3. La respuesta al impulso de un sistema derivador perfecto es igual a la derivada de la
función delta de Dirac: h(t) = −δ
(1)
(t). La función δ (1) (t) tiene la forma gráca mostrada
en la Figura 1.49 y se dene mediante la distribución:
∫ ∞
x(t)δ (1) (t − t0 )dt = −ẋ(t0 )
−∞
∫
∞
dn
x(t)δ (n)
(t − t0 )dt = (−1) n
x(t)
−∞ dtn t=t0
(1)
δ (t)
1.11. Problemas
1. Clasique las siguientes señales en par o impar. Si la señal no cumple ninguna de estas
propiedades, encuentre las componentes par e impar de la señal.
−t
e t>0
a ) x1 (t) = −et t<0
0 t=0
b ) x2 (t) = e−|t|
{ t
t ̸= 0
c ) x3 (t) = |t|
0 t=0
54 1.11. PROBLEMAS
2. Clasique las siguientes señales en señales de energía, potencia o energía y potencia in-
nita. En cualquiera de los casos, encuentre el contenido de potencia o energía de la
señal.
3. Encuentre la respuesta al impulso (h(t)) de los siguientes sistemas. ¾Es posible calcularla
en todos los casos?
5. Clasique los siguientes sistemas L.T.I. en causales, estables y sin memoria. Haga uso de
una descripción gráca.
h2(t)
x(t) y(t)
h1(t)
a) h3(t)
h2(t) h1(t)
x(t) y(t)
Figura 1.50:
( )
c) h(t) = [1 − e−3t ]rect t − 12
d) h(t) = arctan(t)
e) h(t) = 10 sin(5πt)
πt
f) h(t) = 5δ(t + 5)
6. En el circuito de la Figura 1.51a la onda cuadrada es una señal de cierta frecuencia f2 y con
un ciclo útil muy bajo (<1 %), que conmuta la apertura y cierre de un suiche analógico.
De esta forma, la señal senoidal que ingresa al suiche con una frecuencia f1 pasa a la
salida del suiche solamente en ciertos instantes de tiempo. La señal de salida se puede
observar en un osciloscopio. Puesto que este circuito se puede montar perfectamente en el
laboratorio, analice teóricamente lo que pasa en la señal de salida vista en el osciloscopio
si se hacen las siguientes pruebas:
Osciloscopio
-
f1
+
(a) (b)
f2
Figura 1.51:
56 1.11. PROBLEMAS
8. Para los sistemas H1 y H2 se obtuvieron las salidas mostradas en la Figura 1.52 ante
diferentes señales de entrada. Determine si los sistemas podrían ser sin memoria, causales,
lineales e invariantes con el tiempo.
...
Figura 1.52:
CAPÍTULO 2
ANÁLISIS EN FRECUENCIA DE
SEÑALES CONTINUAS
∑
n
r= bl
rl u (2.1)
l=1
57
58 2.1. ESPACIO DE SEÑALES
bl • u
u bm = δlm (2.2)
{
0 l ̸= m
δlm = (2.3)
1 l=m
∑
n
a•b= al bl (2.4)
l=1
v
u n
√ u∑
∥a∥ = a • a = t a2l (2.5)
l=1
rl = r • u
bl (2.6)
∑
n
r= (r • u
bl )b
ul (2.7)
l=1
Por otro lado, existen relaciones importantes de norma de los vectores, tales como la de-
sigualdad del triángulo :
2 2 2
∥a + b∥ = ∥a∥ + ∥b∥ (2.9)
Ael = λl el (2.10)
∫ b
⟨u(t), v(t)⟩ = u(t)v ∗ (t)dt (2.11)
a
donde el intervalo de integración [a, b] se toma en la región donde u(t) y v(t) son ortogonales, y
puesto que estas funciones, pueden ser complejas, se toma el producto con el complejo conjugado
de v(t), con el n de que el cuadrado de la norma de una función sea exactamente igual a la
energía de la señal en el intervalo [a, b]:
∫ b ∫ b
u(t)u∗ (t)dt =
2 2
∥u(t)∥ = ⟨u(t), u(t)⟩ = |u(t)| dt (2.12)
a a
Nótese que (2.12) corresponde a la denición de la energía de la señal u(t), por lo que en el
caso de señales, el equivalente a la norma de una señal es la energía de la señal.
Si Ψl (t) son las señales fundamentales que forman el espacio, la expresión equivalente a (2.1)
será entonces:
∞
∑
x(t) = cl Ψl (t) (2.13)
l=−∞
que signica que una señal x(t) se puede descomponer como la sumatoria innita de señales
fundamentales Ψl (t) escaladas por un factor cl , el cual se determina mediante una ecuación
equivalente a (2.6):
1 En el formalismo matemático, los espacios de señales considerados en este capítulo hacen parte de lo que se
denomina un espacio de Hilbert, que es un espacio completo donde se encuentra denido el producto interno.
60 2.1. ESPACIO DE SEÑALES
∫ b
1
cl = ⟨x(t), Ψl (t)⟩ = x(t)Ψ∗l (t)dt (2.14)
Ql a
Naturalmente, las funciones Ψl (t) deben ser ortogonales entre sí, lo cual se verica mediante
la condición de ortogonalidad para señales:
∫ b
⟨Ψl (t), Ψm (t)⟩ = Ψl (t)Ψ∗m (t)dt = Ql δlm (2.15)
a
∞
∑
x(t) = ⟨x(t), Ψl (t)⟩ Ψl (t) (2.16)
l=−∞
Al igual que en un espacio vectorial, (2.14) se interpreta como la proyección de la señal x(t)
sobre la función base Ψl (t), por lo tanto, (2.16) se puede interpretar como la mejor aproximación
de x(t) en el espacio {Ψl }l∈Z . En general, la aproximación (2.16) no es perfecta para algunos
espacios de señales, por lo cual habrá un error asociado, e(t), dado por
∑
x(t) = cl Ψl (t) + e(t) = x̂(t) + e(t) , (2.17)
l∈Z
Debido a que (2.17) es una aproximación de la señal x(t) sobre un espacio ortogonal {Ψl }l∈Z , es
de esperarse que el error, e(t), sea ortogonal dicho espacio. Este aspecto se ilustra grácamente
en la Figura 2.1 para un espacio tridimensional. En este caso, el vector r que se encuentra en el
espacio tridimensional se ha proyectado sobre el espacio bidimensional generado por los vectores
Ψ1 y Ψ2 r sobre
que forman una base ortogonal. Esta proyección será la mejor aproximación de
el espacio, por lo cual se denota como r̂. e, según se deriva de (2.17) es la
El vector de error,
diferencia entre el vector original y el vector aproximado, e = r − r̂, y como se muestra en la
Figura 2.1, es ortogonal al espacio formado por los vectores Ψ1 y Ψ2 .
r
e
Ψ1
r
Ψ2
Ejemplo 2.1. Mostrar que el espacio de señales formado por las exponenciales
2π
complejas Ψn (t) = exp(jω0 nt), con ω0 una frecuencia igual a ω0 = T0 y T0 el periodo
de la señal, forman un espacio ortogonal.
CAPÍTULO 2. ANÁLISIS EN FRECUENCIA DE SEÑALES CONTINUAS 61
∫ T0 ∫ T0
⟨Ψl (t), Ψm (t)⟩ = exp(jω0 lt) exp(−jω0 mt)dt = exp(jω0 (l − m)t)dt
0 0
exp(jω0 (l − m)T0 ) − 1 exp(j2πq) − 1
= = ,
jω0 (l − m) jqω0
0.5
0
0
0 1 2 3 4 5 6
1
Ψ1(t)
−1
0 1 2 3 4 5 6
1
Ψ2(t)
−1
0 1 2 3 4 5 6
1
Ψ3(t)
−1
0 1 2 3 4 5 6
t
Figura 2.2: Funciones base exponenciales complejas Ψn (t) = exp(jω0 nt) para ω0 = 1. La parte
real está representada por la línea continua y la parte imaginaria por la línea punteada
Como se verá en las siguientes secciones, el tipo más común de señales fundamentales son las
exponenciales complejas, lo que nos conduce a la serie de Fourier y la transformada de Fourier,
sin embargo, otro tipo de señales fundamentales muy usadas en los últimos años para el análisis
62 2.1. ESPACIO DE SEÑALES
de señales, son las onditas o wavelets, y por tanto, las ecuaciones (2.13)-(2.16) describen una
generalización de las transformadas, como se verá en el siguiente ejemplo.
Nótese que en este caso, la función base está dada por dos índices, n y k, en lugar
de uno solo índice como se estableció en las expresiones anteriores, sin embargo, las
ecuaciones denidas para el espacio de señales siguen siendo válidas. La razón de
dos índices se debe a que las funciones base wavelets son señales de energía, perfec-
tamente localizadas en el tiempo, que requieren de escalamiento y desplazamiento
para poder expandirse a todo el rango del tiempo y así permitir la representación
de cualquier señal. En este sentido, el índice n está relacionado con el factor de
escala, es decir, indica que tan expandida o comprimida es la función base y k está
relacionado con el desplazamiento en el tiempo de la función base. Lo anterior se
ilustra mejor al considerar la wavelet madre Haar:
1 0 ≤ t < 1/2
ψ(t) = −1 1/2 ≤ t < 1
0 otro caso
cuya familia de funciones base se muestran en la Figura 2.3 para diferentes índices
n y k. Se puede vericar fácilmente a partir de esta gura que las wavelets Haar
2
forman un espacio ortonormal , ya que el producto interno entre cualquier par de
éstas funciones base es cero (condición de ortogonalidad 2.15) y cada una de estas
funciones base tiene energía unitaria.
Para representar la señal x(t) mostrada en la Figura 2.4a en el espacio de señales
de las wavelet Haar, es necesario determinar los coecientes de la expansión por
medio del producto interno entre x(t) y las funciones base (2.18) cuyas formas se
muestran en la Figura 2.3. Estos coecientes wavelet se obtienen mediante (2.14) y es
necesario gracarlos para diferentes valores de n y k , lo cual se puede hacer a través
de las grácas mostradas en la Figura 2.5, donde cada gráca muestra los coecientes
para un valor jo de n, y cada muestra está ubicada a un diferente desplazamiento
k. Por ejemplo, la primera muestra (k = 0) de la gráca superior corresponde
al coeciente wavelet resultante del producto interno entre x(t) y la función Ψ0,0
mostrada en la Figura 2.3. La segunda muestra de esta gráca (k = 1), es el producto
interno con Ψ0,1 , y así sucesivamente para todos los posibles desplazamientos de
Ψ0,0 . La gráca de la segunda la son entonces los coecientes obtenidos para Ψ1,0
y todos sus corrimientos en el tiempo.
Por otra parte, la señal aproximada x̂(t) obtenida por medio de la combinación
lineal de las funciones base Ψn,k , donde el factor de peso son los coecientes wavelet
2 En el sentido estricto, las wavelet Haar forman un espacio completo en el rango entre 0 y 1, lo que impone
ciertas restricciones a los valores de n y k. Sin embargo, en el ejemplo se ha relajado esta condición para ilustrar
por medio la utilidad de las expresiones presentadas en esta sección.
CAPÍTULO 2. ANÁLISIS EN FRECUENCIA DE SEÑALES CONTINUAS 63
k Ψ Ψ Ψ
0,0 0,1 0,2
1 1 1
0 0 0
−1 −1 −1
−1 0 1 2 3 −1 0 1 2 3 −1 0 1 2 3
Ψ Ψ Ψ
1,0 1,1 1,2
2 2 2
0 0 0
−2 −2 −2
−1 0 1 2 3 −1 0 1 2 3 −1 0 1 2 3
n Ψ2,0 Ψ2,1 Ψ2,2
2 2 2
0 0 0
−2 −2 −2
−1 0 1 2 3 −1 0 1 2 3 −5 0 5
Ψ3,0 Ψ3,1 Ψ3,2
4 4 4
2 2 2
0 0 0
−2 −2 −2
−4 −4 −4
−1 0 1 2 3 −1 0 1 2 3 −1 0 1 2 3
Figura 2.3: Funciones base que forman el espacio de señales de las wavelet Haar
1
(a)
x(t)
−1
−1 −0.5 0 0.5 1 1.5 2 2.5 3
1
(b)
x^(t)
−1
−1 −0.5 0 0.5 1 1.5 2 2.5 3
0.5
(c)
e(t)
−0.5
−1 −0.5 0 0.5 1 1.5 2 2.5 3
t
Figura 2.4: Aproximación de la señal (a) en el espacio de señales de las wavelet Haar (b) y el
error entre ambas señales (c)
64 2.2. SERIE DE FOURIER
0.5
c0,*
0
−0.5
0 1 2 3 4 5 6 7 8
0.1
c1,*
0
−0.1
0 1 2 3 4 5 6 7 8
0.1
c2,* 0
−0.1
0 1 2 3 4 5 6 7 8
0.1
c3,*
−0.1
0 1 2 3 4 5 6 7 8
k
Puede notarse de (2.21) que los coecientes cn son en general complejos, por lo tanto, conviene
representarlos en notación polar por medio de una magnitud |cn | y fase ∠cn :
|c n | cn
-5 -3 -2 4
n n
-7 -6 -5 -4 -3 -2 -1 0 1 2 3 4 5 6 7 -7 -6 -4 -1 0 1 2 3 5 6 7
Nótese que la señal base Ψ0 (t) corresponde a un nivel de DC (Ver Figura 2.2), por lo tanto,
el coeciente c0 está asociado al valor medio de la señal periódica. Por su parte, el coeciente
c±1 indica que tanto contenido hay en x(t) de una señal exponencial compleja con una frecuen-
cia igual a la frecuencia fundamental de x(t). Así que los coecientes de |n| > 1 corresponden
al contenido de armónicos, es decir, a señales exponenciales complejas con una frecuencia que
es múltiplo entero de la frecuencia fundamental.
∫ T0 /2 ∫ T0
1 1
cn = exp(−jω0 nt)dt − exp(−jω0 nt)dt
T0 0 T0 T0 /2
1 T /2 1 T
= − exp(−jω0 nt)|0 0 + exp(−jω0 nt)|T00 /2
jT0 ω0 n jT0 ω0 n
1 1 1
= − (cos(πn) − 1) + (1 − cos(πn)) = (1 − cos(πn))
j2πn j2πn jπn
(π ) {
2 0 n par
= sen2 n = 2 (2.23)
jπn 2 jπn n impar
∞
∑ 2 (π )
x̂(t) = sen2 n exp(jω0 nt)
n=−∞
jπn 2
−1
∑ 2 (π ) ∑∞
2 (π )
= sen2 n exp(jω0 nt) + sen2 n exp(jω0 nt)
n=−∞
jπn 2 n=1
jπn 2
∑∞
4 (π )
= sen2 n sen(ω0 nt)
n=1
πn 2
4 4 4
= sen(ω0 t) + sen(3ω0 t) + sen(5ω0 t) + ... (2.24)
π 3π 5π
x(t)
t
−1
−T0 T0
Ejemplo 2.4. ¾Cuáles son los coecientes de la serie de Fourier de una señal
senoidal, sin(ωm t), y de una señal cosenoidal, cos(ωm t)? ¾En qué se diferencian sus
espectros?.
CAPÍTULO 2. ANÁLISIS EN FRECUENCIA DE SEÑALES CONTINUAS 67
1.4
4/π
1.2
(a)
1
0.8
cn
0.6 4/3π
0.4 4/5π 4/7π
0.2
0
0 2 4 6 8 10
n
Ψ1(t) 4/π
Ψ5(t) 4/5π
Ψ7(t) 4/7π
Figura 2.8: Ejemplo de reconstrucción de la señal de la Figura 2.7 por medio de la serie de
Fourier dada en (2.24). (a) Coecientes de la serie de Fourier; (b) Reconstrucción x̂(t) empleando
únicamente algunos coecientes
1
sen(ωm t) = {exp(jωm t) − exp(−jωm t)} ,
2j
por lo tanto, los coecientes de la serie de Fourier son
− 2j
n = −1
1
1
cn = n=1
2j
0 c.c.
Nótese que el espectro de magnitud |cn | es idéntico al espectro de magnitud de la
señal coseno (Figura 2.9b), pero el espectro de fase tiene una diferencia de π/2, lo
cual era de esperarse ya que la diferencia de fase entre la señal seno y coseno es π/2
radianes.
68 2.2. SERIE DE FOURIER
|cn | cn
(a)
1/2 1/2
n n
−7 −6 −5 −4 −3 −2 −1 0 1 2 3 4 5 6 7 −7 −6 −5 −4 −3 −2 −1 0 1 2 3 4 5 6 7
|cn | cn
(b)
1/2 1/2 π/2
−7 −6 −5 −4 −3 −2 −1 0 1 2 3 4 5 6 7
n −7 −6 −5 −4 −3 −2 −1 0 2 3 4 5 6 7
n
−π/2
Figura 2.9: Coecientes de la serie de Fourier de la señal: (a) coseno, (b) seno
Ejemplo 2.5. ¾Cuáles son los coecientes de la serie de Fourier para una señal
que tiene la misma forma de la Figura 2.7 pero del doble de frecuencia?
x(t)
2
−T0 0 T0 t
∫ T0 /2
1 2 T /2
cn = 2 exp(−jω0 nt)dt = −
exp(−jω0 nt)|0 0
0 T0 jT 0 ω0 n
1 exp(−j(πn − π/2)) − j
= − (exp(−jπn) − 1) =
jπn πn
sen(πn) + j(cos(πn) − 1)
= (2.25)
πn
En la Figura 2.11 se muestran las grácas de los coecientes de la serie de
Fourier de la señal del Ejemplo 2.3, dada por la ecuación (2.23), y para la señal de
este ejemplo (Figura 2.10) dada por la ecuación (2.25). A partir de estas grácas se
puede concluir que el único coeciente que cambia es c0 , y este coeciente es igual
al valor medio o nivel DC de la señal.
0.8 2
0.6 1
∠cn
|cn|
0.4 0
0.2 −1
0 −2
−10 −5 0 5 10 −10 −5 0 5 10
n n
1 2
1
∠cn
|cn|
0.5 0
−1
0 −2
−10 −5 0 5 10 −10 −5 0 5 10
n n
Figura 2.11: Espectros de las señales de la Figura 2.7 (superior) y la Figura 2.10 (inferior).
Ejemplo 2.7. Suponga que x(t) es una señal periódica continua con coecientes
de la serie de Fourier xn . Si a la señal, se le suma un valor constante k, es decir,
z(t) = x(t) + k , ¾cómo calcular los coecientes de la serie de Fourier, zn , en función
de los coecientes xn ?.
Solución. Este ejemplo es análogo al anterior. Como se intenta sumar un nivel
de DC a la señal, y el nivel de DC es la componente asociada al valor medio de la
señal, o dicho de otra forma al coeciente
{ c0 , entonces, el único coeciente que se
xn n ̸= 0
altera por el valor k es c0 . Así que, zn = .
x0 + k n = 0
Ejemplo 2.9. Suponga dos señales periódicas continuas x(t) y y(t) cuyos coe-
cientes de la serie de Fourier son xn y yn . La señal resultante de la combinación
lineal de x y y, es decir, z(t) = αx(t) + βy(t) también es una señal periódica conti-
nua, y por lo tanto, tendrá una serie de Fourier. ¾Cómo calcular los coecientes de
la serie de Fourier, zn , en función de los coecientes xn y yn ?.
Solución. Como la ecuación para el cálculo de los coecientes es una expresión
lineal, es posible aplicar el principio de superposición al cálculo de los coecientes
de la serie de Fourier, luego, zn = αxn + βyn .
∫ { ∫ }∗
α+T0 α+T0
1 1
c−n = x(t)exp(jω0 nt)dt = x(t)exp(−jω0 nt)dt = c∗+n
T0 α T0 α
por ello, solamente basta conocer el valor de los cn para n positivos. Como directa consecuencia
de (2.26):
CAPÍTULO 2. ANÁLISIS EN FRECUENCIA DE SEÑALES CONTINUAS 71
lo cual signica que en el espectro discreto de una señal real, la magnitud tiene simetría par y
la fase simetría impar.
Por otro lado, si expresamos cn en forma compleja como:
an − jbn
cn = , (2.31)
2
la serie de Fourier de una señal real, aplicando la propiedad (2.26) nos conduce a:
−1
∑ ∞
∑
x(t) = c−n exp(jω0 nt) + c0 + c+n exp(jω0 nt)
n=−∞ n=1
∞
∑ { ∗ }
x(t) = c0 + c+n exp(−jω0 nt) + c+n exp(jω0 nt) (2.32)
n=1
∞
a0 ∑
x(t) = + {an cos(ω0 nt) + bn sen(ω0 nt)} (2.33)
2 n=1
a0
Debido a que x(t) es real, c0 = 2 , y los coecientes an y bn pueden ser calculados mediante:
∫ α+T0
2
an = x(t)cos(ω0 nt)dt (2.34)
T0 α
∫ α+T0
2
bn = x(t)sen(ω0 nt)dt (2.35)
T0 α
an −jbn α+T∫
cn = 2 = T10 α 0 x(t)exp(−jω0 nt)dt
al expandir la exponencial compleja según la relación de Euler tenemos:
∫ α+T0 ∫ α+T
2 − 2 = T0 α x(t)cos(ω0 nt)dt − Tj0 α 0 x(t)sen(ω0 nt)dt
an jbn 1
Finalmente, la tercera forma de representar una señal real, se obtiene al notar que
∞
∑
x(t) = c0 + 2 |cn | cos(ω0 nt + ∠cn ) (2.36)
n=1
en cuyo caso, la relación con los coecientes an y bn es
1√ 2
|cn | =
an + b2n (2.37)
2
( )
bn
∠cn = −arctan (2.38)
an
x(t)
t
−1
−T0 −T0 T0 T0
2 2
Solución. De la gura podemos observar que la señal tiene simetría par, por lo
tanto, los coecientes bn = 0, y solamente es necesario calcular los an , pero además
CAPÍTULO 2. ANÁLISIS EN FRECUENCIA DE SEÑALES CONTINUAS 73
podemos ver que la señal es armónica impar, por lo tanto, los coecientes an para
n par serán cero. Para calcular an , asumiremos que la señal x(t) se puede expresar
como:
{ 4
1+ T0 t − T20 ≤ t < 0
x(t) =
1− 4
T0 t 0 ≤ t ≤ T20
así que:
∫0 ( ) ∫ T /2 ( )
an = 2
T0 −T0 /2
1+ 4
cos(ω0 nt)dt + T20 0 0
T0 t 1− 4
T0 t cos(ω0 nt)dt
{
0 n par
an = π24n2 (1 − cos(nπ)) = 8
2
π n 2 n impar
y nalmente,
8 8 8
x̂(t) = π 2 cos(ω0 t) + 9π 2 cos(3ω0 t) + 25π 2 cos(5ω0 t) + ...
∞
∑
x(t) = xn ejω0 nt
n=−∞
∞
∑
x∗ (t) = x∗m e−jω0 mt
m=−∞
∞
∑ ∞
∑
xn x∗m ejω0 (n−m)t
2
|x(t)| =
n=−∞ m=−∞
3 Recordar que el cuadrado de la norma de una señal en un intervalo [a, b] es igual a la energía de la señal en
ese intervalo.
74 2.2. SERIE DE FOURIER
∫ ∞
∑ ∞
∑ ∫
xn x∗m
2
|x(t)| dt = ejω0 (n−m)t dt
T0 n=−∞ m=−∞ T0
Nótese que para el caso de una señal real, en la cual, la descomposición se realiza en sumas de
A2amplitud
senos y cosenos, cada uno de ellos con potencias promedio de , la relación de Parseval
2
se puede expresar de una forma simple como:
∫ ∞
1 2 a20 1 ∑{ 2 }
|x(t)| dt = + an + b2n (2.40)
T0 T0 4 2 n=1
La relación de Parseval conduce a una importante propiedad de los espectros discretos, que
consiste en que los coecientes de la series de Fourier para n → ∞ se deben anular rápidamente,
ya que recordemos que las señales periódicas son por excelencia señales de potencia, así que
tanto la integral (lado izquierdo de la relación de Parseval) como la sumatoria sobre los aportes
individuales de cada componente de la señal (lado derecho de la ec. 2.39) deben converger a un
valor nito, lo cual solamente es posible si los coecientes cn tienen a cero conforme el índice
n aumenta, es decir, el aporte a la potencia de la señal de los armónicos de alta frecuencia
es prácticamente despreciable. Es por esta razón que en la práctica, cuando se analiza o desea
sintetizar una señal a través de la serie de Fourier, sea válida la suposición de emplear únicamente
algunos de los primeros términos de la serie, ya que los coecientes de índice superior son muy
cercanos a cero. Este aspecto será mostrado a través de un ejemplo en la Sección 2.2.7.
∞
∑
x(t) = xn exp(jω0 nt)
n=−∞
donde xn son los coecientes de la serie de Fourier de la señal de entrada. La señal de salida
será entonces:
∫ { ∞
}
∞ ∑
y(t) = x(t) ⋆ h(t) = h(λ) xn exp(jω0 n(t − λ)) dλ
−∞ n=−∞
y por las propiedades de linealidad del operador integral y sumatoria, podemos invertir el orden
de los operadores, lo cual permite expresar la ecuación anterior como:
CAPÍTULO 2. ANÁLISIS EN FRECUENCIA DE SEÑALES CONTINUAS 75
∞
∑ ∫ ∞
y(t) = xn exp(jω0 nt) h(λ) exp(−jω0 nλ)dλ (2.41)
n=−∞ −∞
Puesto que la integral denida es una constante parametrizada por n, podemos asociarle una
función continua que denotaremos H(ω), la cual se evalúa en los puntos ω = ω0 n que corres-
ponden a las frecuencias de las señales armónicas constitutivas. H(ω) se denomina respuesta en
frecuencia del sistema y es igual a:
∫ ∞
H(ω) = h(t)exp(−jωt)dt (2.42)
−∞
∞
∑
y(t) = xn H(ω0 n) exp(jω0 nt) (2.43)
n=−∞
la cual indica que la señal de salida de un sistema LTI ante una señal de entrada periódica es de
nuevo una señal periódica, que posee el mismo contenido de frecuencias y frecuencia fundamental
de la señal de entrada, pero cada una de las componentes de frecuencia está afectada por un
factor de peso H(ω0 n) que se denomina respuesta en frecuencia del sistema.
Otra forma de interpretar (2.43) consiste en que el espectro discreto de la señal de salida
es el producto entre el espectro de la señal de entrada y la respuesta en frecuencia del sistema.
Del análisis anterior se deriva una importante propiedad de los sistemas LTI, y lo constituye el
hecho de que un sistema LTI nunca genera componentes de frecuencia que no existan en la señal
de entrada, únicamente altera la magnitud y fase de las diferentes componentes de frecuencia
de la señal de entrada. Esta ponderación está dada por la respuesta en frecuencia H(ω) la cual
es una función única e invariante en un sistema LTI. Lo anterior puede verse con mejor detalle,
si asociamos a los coecientes de la serie de Fourier que representa la señal de salida, yn , (ec.
2.43) la forma:
yn = xn H(ω0 n) (2.44)
por lo tanto, el espectro de magnitud de la señal de salida, |yn |, es igual al producto del espectro
de magnitud de la señal de entrada, |xn |, por la magnitud de la respuesta en frecuencia del
sistema, |H(ω)|; y el espectro de fase de señal de salida, ∠yn , es igual a la suma de los espectros
de fase de la señal de entrada, ∠xn , y respuesta en frecuencia del sistema, ∠H(ω).
|H(f)|
Solución. Según (2.23), los coecientes de la serie de Fourier están dados por
(π ) {
2 0 n par
cn = = sen2 n = 2
jπn 2 jπn n impar
por lo tanto, la señal de salida será una señal senoidal de frecuencia 5kHz.
Sif0 es 6 kHz, las componentes de frecuencia presentes en la señal de entrada
serían n × 6kHz = 0, ±6, ±12, ±18, ±24, ...kHz , luego como ninguna de estas com-
ponentes está dentro de las frecuencias de paso del ltro, la señal de salida será cero,
es decir, yn = 0 ∀n.
x(t) x(t)
t −τ τ t
(a) (b) 2 2
Tren de Impulsos
La señal tren de impulsos se puede representar como la suma de innitas señales impulso
desplazadas en el tiempo, es decir, usando la notación dada en el Capítulo 1:
CAPÍTULO 2. ANÁLISIS EN FRECUENCIA DE SEÑALES CONTINUAS 77
∞
∑
x(t) = δ(t − kT0 )
k=−∞
Puesto que los coecientes de la serie de Fourier se calculan sobre un período, y como la
forma del tren de impulsos en esta región es una única función delta:
∫ T0 /2
1 1
cn = δ(t) exp(−jω0 nt)dt =
T0 −T0 /2 T0
lo que nalmente indica que la serie de Fourier de esta señal será la suma de innitas señales
exponenciales complejas armónicas de igual amplitud:
∞
1 ∑
x(t) = exp(jω0 nt) (2.46)
T0 n=−∞
Tren de Pulsos
Ahora, para el caso de una señal tren de pulsos, la forma del espectro de frecuencias será
una señal sinc discretizada como se mostrará a continuación:
( )
∫ τ /2 (τ )
τ /2 exp(−jω0 nt) −τ /2 sen sen τ
T0 πn
1 2 ω0 n
cn = exp(−jω0 nt)dt = − = =
T0 −τ /2 jT0 ω0 n πn πn
( )
τ τ
cn = sinc n (2.47)
T0 T0
donde la relación τ /T0 , llamada ciclo útil , denota el porcentaje del tiempo en el que la señal
toma el valor de amplitud uno con respecto al periodo total. De la expresión anterior se derivan
dos posibles representaciones para la serie de Fourier, en términos de exponenciales complejas,
∞
∑ ( )
τ τ
x(t) = sinc n exp(jω0 nt) (2.48)
T
n=−∞ 0
T0
o en términos de cosenos,
∑∞ ( )
2τ τ
x(t) = sinc n cos(ω0 nt) (2.49)
T
n=0 0
T0
musicales y las tarjetas de sonido de primera generación. La idea detrás del circuito de la Figura
2.15 es implementar (2.36):
∞
∑
x(t) = c0 + 2 |cn | cos(ω0 nt + ∠cn )
n=1
donde cada desplazador de fase corre la señal la cantidad indicada por ϕn = ∠cn y la ganancia
R/Rn de cada una de las entradas al sumador está dada por 2 |cn |. Dado que la ecuación (2.36)
representa una suma sobre innitos términos, y en la práctica solamente es posible tener algunos
osciladores, las señales sintetizadas por el circuito son versiones aproximadas de la señal real.
Surge entonces la pregunta, ¾cuáles y cuántos coecientes tomar?. La respuesta se encuentra en
la relación de Parseval, establece que solamente es necesario emplear los primeros coecientes
de la serie.
R0
+Vcc
f0
R1
desplazador
fase φ 1 R
R2
2f0 desplazador
x1 fase φ 2
−
R3
3f0 desplazador
x2 fase φ 3 +
Rn
nf0
xn desplazador
fase φ ν
En la Figura 2.15 se muestra la forma de onda sintetizada de una señal cuadrada y una
triangular para diferente número de coecientes. Observe que aunque se use un número elevado
de coecientes para obtener una mejor aproximación de la señal cuadrada, las transiciones
abruptas de la señal nunca es posible reproducirlas (a este efecto se le denomina efecto Gibbs );
en cambio para la onda triangular con pocos coecientes es posible reproducir la señal deseada.
Por esta razón, cuando se sintetizan instrumentos con este método, la calidad de la síntesis es
apenas aceptable.
Multiplicadores de frecuencia
En circuitos digitales existe la posibilidad de dividir la frecuencia por cualquier entero n
mediante el empleo de un circuito contador, sin embargo, ningún circuito lógico permitía multi-
plicar dicha frecuencia por un factor entero. Estos circuitos multiplicadores de frecuencia como
se verá a continuación se pueden plantear a partir de un análisis de la serie de Fourier.
Ante todo, recordemos que para una señal senoidal, la serie de Fourier tiene un único coe-
ciente c1 (Figura 2.17a), por lo tanto si dicha señal pasa a través de un inversor tipo Schmitt, la
forma de la salida será una onda cuadrada con una frecuencia fundamental igual a la de la señal
de entrada, y su serie de Fourier tendrá un contenido de componentes cn más amplio (Figura
CAPÍTULO 2. ANÁLISIS EN FRECUENCIA DE SEÑALES CONTINUAS 79
1 1
0.5 0.5
x(t)
x(t)
0 0
−0.5 −0.5
−1 −1
−1.5 −1.5
0 0.5 1 0 0.5 1
Tiempo (t) Tiempo (t)
1 1
0.5 0.5
x(t)
x(t)
0 0
−0.5 −0.5
−1 −1
−1.5 −1.5
0 0.5 1 0 0.5 1
Tiempo (t) Tiempo (t)
1 1
N=3 N=5
0.5 0.5
x(t)
x(t)
0 0
−0.5 −0.5
−1 −1
0 0.5 1 0 0.5 1
Tiempo (t) Tiempo (t)
1 1
N=7 N = 100
0.5 0.5
x(t)
x(t)
0 0
−0.5 −0.5
−1 −1
0 0.5 1 0 0.5 1
Tiempo (t) Tiempo (t)
2.17a). Por lo que el inversor Schmitt se comporta como un sistema no LTI. Finalmente, si
ubicamos a la salida de la compuerta un ltro pasa-banda (Figura 2.17b) con la especicación:
frecuencia central fc = nf0 y ancho de banda BW ≤
f0
2 , a la salida obtendremos una senoidal
de frecuencia fundamental nf0 , lo que indica que la frecuencia de la señal de entrada se ha
multiplicado por un factor de n (Figura 2.17).
|cn | |cn |
(a)
−7 −6 −5 −4 −3 −2 −1 0 1 2 3 4 5 6 7
n −7 −6 −5 −4 −3 −2 −1 0 1 2 3 4 5 6 7
n
|cn | |cn |
(b)
−7 −6 −5 −4 −3 −2 −1 0 1 2 3 4 5 6 7
n n
−7 −6 −5 −4 −3 −2 −1 0 1 2 3 4 5 6 7
π cos(2ω0 t) − π 2 cos(5ω0 t) + π 2 sin(5ω0 t). Se tiene para esta señal que los coecientes de
4 2 3
r(t) =
π , a5 = − π 2 , b5 = π 2 , por lo que usando la relación de Parseval
4 2 3
la serie de Fourier son a2 =
tenemos que:
v √
u 2 ∞
u a0
t 1∑ 2 16 4 9
VRM S = + {an + bn } =
2
2
+ 4 + 4 = 1,7141
4 2 n=1 π π π
∫ ∞
X(ω) = x(t) exp(−jωt)dt (2.50)
−∞
donde ω es la frecuencia dada en radianes por segundo. La transformada inversa se dene como:
∫ ∞
1
x(t) = X(ω) exp(jωt)dω (2.51)
2π −∞
∫ ∞
X(f ) = x(t) exp(−j2πf t)dt (2.52)
−∞
∫ ∞
x(t) = X(f ) exp(j2πf t)df (2.53)
−∞
∞
{ ∫ }
∑ 1 α+T0 /2
x(t) = lı́m x(τ ) exp(−jω0 nτ )dτ exp(jω0 nt)
T0 →∞ T0 α−T0 /2
n=−∞
∑∞ { ∫ }
∆ω ∞
x(t) = lı́m x(τ ) exp(−jωτ )dτ exp(jωt)
∆ω→0
n=−∞
2π −∞
∫ ∞ {∫ ∞ }
1
x(t) = x(τ ) exp(−jωτ )dτ exp(jωt)dω (2.54)
2π −∞ −∞
Finalmente, debemos decir que una señal x(t) tiene transformada de Fourier si cumple con las
condiciones de Dirichlet :
∫∞
1. la señal debe ser absolutamente integrable:
−∞
|x(t)| dt < ∞;
2. el número de máximos o mínimos de x(t) en cualquier intervalo nito debe ser nito;
En este documento denotaremos la transformada de Fourier de una señal x(t) por medio de la
letra mayúscula y el operador F así: X(ω) = F{x(t)} o X(f ) = F{x(t)}; y la transformada
−1 −1
inversa por medio del operador F así: x(t) = F {X(ω)}.
∫ ∞ ∫ ∞
X(ω) = x(t)cos(ωt)dt − j x(t)sen(ωt)dt = X ∗ (−ω)
−∞ −∞
Asimismo, si x(t) tiene simetría par, Im{X(ω)} = 0, y para señales impares, Re{X(ω)} = 0.
∫ τ /2 ( τ) ( ωτ )
τ /2
exp(−jωt) 2
X(ω) = exp(−jωt)dt = = sen ω = τ sinc
−τ /2 −jω −τ /2 ω 2 2π
rect ( tτ )
−
τ 0 τ t
2 2
Fourier de una señal tren de pulsos (ec. 2.47) se encontrará una similitud: ambos
espectros son funciones sinc, pero para el caso de la señal tren de pulsos, el espectro es
discreto, y se podría obtener a partir del muestreo de la expresión anterior asumiendo
ω = 2π
T0 n. Este aspecto se detallará en la Sección 2.3.6.
∫ ∞ { ∫ ∞ }
1 jω(t−τ )
x(t) = e dω x(τ )dτ.
−∞ 2π −∞
δ(t − τ ) = F −1 {e−jωτ }
por lo tanto,
F{δ(t)} = 1 . (2.61)
F{δ(t)} = 1 (2.63)
84 2.3. TRANSFORMADA DE FOURIER
Linealidad
Dualidad
Si
tenemos que:
Desplazamiento en el Tiempo
∫ ∞
F{x(t − t0 )} = x(t − t0 ) exp(−jωt)dt
−∞
haciendo el cambio de variable τ = t − t0 ,
∫ ∞ ∫ ∞
−jω(τ +t0 ) −jωt0
F{x(t − t0 )} = x(τ )e dτ = e x(τ )e−jωτ dτ
−∞ −∞
y puesto que la integral adquiere la forma de una transformada de Fourier, tenemos
nalmente que:
Desplazamiento en la Frecuencia
Escalado
1 (ω )
x(at) ⇔ X (2.73)
|a| a
Recordemos que si |a| < 1 la señal en el tiempo sufrirá una expansión, lo que se reeja en
una contracción del espectro en frecuencia y viceversa. Como se verá en la Sección 2.3.4 esto
está ligado al principio de incertidumbre.
El efecto del escalado puede apreciarse cuando se reproduce una cinta de casete a diferente
velocidad. Por ejemplo, si se acelera la reproducción (contracción en el tiempo), el sonido se
escuchará más agudo porque aumenta el contenido de frecuencias altas (expansión del espec-
tro); en cambio cuando se desacelera la reproducción (dilatación en el tiempo), el sonido se
escucha más grave puesto que el contenido de frecuencias altas disminuye concentrándose todo
el espectro a bajas frecuencias (contracción del espectro).
1 (ω )
F{x(at)} = X
|a| a
donde se ha realizado el mismo procedimiento por separado para a negativos y
positivos.
Convolución
∫ ∞ [∫ ∞ ]
F{x1 (t) ⋆ x2 (t)} = x1 (λ)x2 (t − λ)dλ exp(−jωt)dt
−∞ −∞
∫ ∞ [∫ ∞ ]
= x2 (t − λ) exp(−jωt)dt x1 (λ)dλ
−∞ −∞
CAPÍTULO 2. ANÁLISIS EN FRECUENCIA DE SEÑALES CONTINUAS 87
∫ ∞
= X2 (ω) exp(−jωλ)x1 (λ)dλ = X2 (ω)X1 (ω).
−∞
Modulación
∫ ∞
1 1
x1 (t)x2 (t) ⇔ X1 (ω) ⋆ X2 (ω) = X1 (λ)X2 (ω − λ)dλ (2.76)
2π 2π −∞
Diferenciación en el tiempo
dn
x(t) ⇔ (jω)n X(ω) (2.78)
dtn
dn
x(t) ⇔ (j2πf )n X(f ) (2.79)
dtn
Demostración . Empleando para x(t) la expresión de la transformada inversa
de Fourier (ec. 2.51), tenemos para su n-ésima derivada:
∫ ∞ ∫ ∞
dn 1 dn 1
n
x(t) = X(ω) exp(jωt)dω = (jω)n X(ω) exp(jωt)dω
dt 2π dtn −∞ 2π −∞
Diferenciación en la frecuencia
dn
tn x(t) ⇔ j n X(ω) (2.80)
dω n
( )n n
j d
tn x(t) ⇔ X(f ) (2.81)
2π df n
Su demostración es similar a la de la propiedad de diferenciación en el tiempo.
88 2.3. TRANSFORMADA DE FOURIER
Integración
∫ t
1
x(t)dt ⇔ X(ω) + πX(0)δ(ω) (2.82)
−∞ jω
∫ t
1 1
x(t)dt ⇔ X(f ) + X(0)δ(f ) (2.83)
−∞ j2πf 2
El segundo término que aparece en las transformadas de Fourier está relacionado con el valor
medio o nivel de DC de la señal de entrada, el cual se ve reejado en el espectro de frecuencia
como una señal impulso unitario en ω = 0.
{∫ t } { }
1
F x(τ )dτ = F {u(t) ⋆ x(t)} = + πδ(ω) X(ω) =
−∞ jω
1
X(ω) + πX(0)δ(ω).
jω
n-ésimo momento
∫
∞
dn
n
t x(t)dt = (j) X(ω) n
(2.84)
dω n
−∞ ω=0
∫ ∞ ( )n n
j d
n
t x(t)dt = X(f ) (2.85)
2π df n
−∞ f =0
Su demostración es similar a la de la propiedad de diferenciación en el tiempo.
Relación de Parseval
∫ ∞ ∫ ∞
1
x1 (t) x∗2 (t)dt = X1 (ω) X2∗ (ω)dω (2.86)
−∞ 2π −∞
∫ ∞ ∫ ∞
∗
x1 (t) x2 (t)dt = X1 (f ) X2∗ (f )df (2.87)
−∞ −∞
En las expresiones anteriores se contempla el complejo conjugado de la señal x2 (t), puesto
que si x1 (t) = x2 (t) = x(t), la relación de Parseval debe adquirir la forma de la energía de la
señal x(t):
∫ ∞ ∫ ∞
2 2
|x(t)| dt = |X(f )| df , (2.88)
−∞ −∞
relación conocida con el nombre de teorema de Rayleigh, e indica que la energía de una señal
puede calcularse tanto en el dominio del tiempo como de la frecuencia, dando exactamente el
mismo resultado.
CAPÍTULO 2. ANÁLISIS EN FRECUENCIA DE SEÑALES CONTINUAS 89
Autocorrelación
La autocorrelación de una señal determinística se dene como:
∫ ∞ ∫ ∞
Rx (τ ) = x(t)x∗ (t − τ )dt = x(t + τ )x∗ (t)dt (2.89)
−∞ −∞
e indica para una señal x(t), la relación existente entre dos instantes de tiempo separados una
distancia τ. Puede notarse que (2.89) es similar a la convolución, salvo que la señal x∗ (t) no se
reeja como si ocurría en la convolución. De esta forma:
∆ω ∆t ≥ 1 (2.92)
90 2.3. TRANSFORMADA DE FOURIER
1
∆f ∆t ≥ (2.93)
2π
Las expresiones anteriores están fuertemente ligadas a la propiedad de escalamiento de la
transformada de Fourier, ya que si el espectro en frecuencia de una señal es muy angosto, la
señal en el tiempo estará dispersa o existe para un gran número de valores del tiempo. En caso
contrario, cuando la energía de una señal está localizada en un conjunto estrecho de valores del
tiempo, el espectro en frecuencia de la señal será muy ancho.
X(ω )
(a) x(t)
−ω0 0 ω0
y(t)
Y(ω )
(b)
τ 0 τ t
−
0 ω 2 2
∆t
( )
1 (z − z)2
√ exp − ,
2π∆z 2(∆z)2
donde z representa el valor medio de la medición y ∆z la dispersión o desviación
estandard alrededor de dicho valor medio. Por otro lado, recordemos que la señal
delta de Dirac era el único tipo de señal altamente localizada en el tiempo, es decir, la
dispersión de valores alrededor de t = 0 es igual cero. Luego, como en la práctica esta
señal es imposible de obtener, podemos suponer que una delta de Dirac práctica se
puede modelar como una señal pulso gausiano, en la cual, su valor medio t=0 y su
dispersión es ∆t, en otras palabras, un pulso gausiano es una señal que representa
una función delta ensanchada.
El espectro de dicha señal será entonces:
{ ( )} ∫ ∞ ( )
1 t2 1 t2
X(ω) = F √ exp − = √ exp − exp (−jωt) dt
2π∆t 2(∆t)2 2π∆t −∞ 2(∆t)2
∫ ∞ ( )
1 t2
= √ exp − − jωt dt.
2π∆t −∞ 2(∆t)2
t2 1 [2 ] 1 [ ]
− 2
−jωt = − 2
t + j2(∆t)2 ωt = − 2
(t + j(∆t)2 ω)2 + (∆t)4 ω 2
2(∆t) 2(∆t) 2(∆t)
que sustituida en la transformada nos conduce a:
∫ ∞ ( ) ( )
1 1 1
X(ω) = √ exp − (t + j(∆t) ω) exp − (∆t) ω dt
2 2 2 2
2π∆t −∞ 2(∆t)2 2
( 1 )
2 2 ∫ ∞ ( )
exp − 2 (∆t) ω 1
= √ exp − (t + j(∆t)2 ω)2 dt
2π∆t −∞ 2∆t
( )∫ ∞ ( )
exp − 12 (∆t)2 ω 2 1 2
X(ω) = √ exp − u du.
2π∆t −∞ 2∆t
Nótese que la integral corresponde al área bajo la curva de una gausiana, cuyo
√
valor es igual a 2π∆t, por lo tanto, tenemos nalmente que:
( )
exp − 12 (∆t)2 ω 2
X(ω) = √
∆t
lo que signica que el espectro de una gausiana es de nuevo una gausiana, en la
cual las componentes de frecuencia se distribuyen alrededor de la frecuencia central
1
ω = 0 con una dispersión ∆ω igual a ∆ω = ∆t , luego la relación que existe entre
las incertidumbres de las mediciones en el tiempo y en la frecuencia será:
∆t ∆ω ≥ 1
donde la desigualdad aparece como consecuencia de que el desarrollo anterior fue
obtenido para un caso ideal.
∫ ∞
Y (ω)
H(ω) = F{h(t)} = h(t) exp(−jωt)dt = (2.95)
−∞ X(ω)
lo que signica que la respuesta en frecuencia del sistema trabaja como una función que
pondera el espectro de la señal de entrada para producir el espectro de salida. Al igual que la
92 2.3. TRANSFORMADA DE FOURIER
respuesta al impulso, la respuesta en frecuencia es una función única que describe por completo
las propiedades frecuenciales del sistema.
La respuesta en frecuencia también está relacionada con los autovalores de un sistema LTI.
Anteriormente se mostró, para el caso de vectores, que en ciertas transformaciones lineales,
A, existen unos vectores, el , llamados autovectores, bajo los cuales la transformación lineal
solamente modica la longitud del vector más no su dirección, es decir, Ael = λl el (ec. 2.10).
6
Para extender estas ideas para el caso de las señales, y en particular para los sistemas LTI ,
recordemos que la salida de un sistema LTI está dada por la integral de convolución
∫ ∞
T {x(t)} = x(t) ⋆ h(t) = h(τ )x(t − τ )dτ
−∞
Ahora supongamos que al sistema LTI se le introduce como entrada una señal exponencial
compleja, X(ω) = exp(jωt), entonces su salida será
∫ ∞ ∫ ∞
T {exp(jωt)} = h(τ ) exp(jω(t − τ ))dτ = exp(jωt) h(τ ) exp(−jωτ )dτ
−∞ −∞
tiene una forma semejante a la ecuación de autovalores (2.10) que se presentó para el caso de
vectores. Así que para un sistema LTI, las señales exponenciales complejas son las autofuncio-
nes (equivalente a los autovectores) de un sistema LTI, y la respuesta en frecuencia son los
autovalores de un sistema LTI.
Nótese que si en las expresiones de la transformada de Fourier se lleva a cabo la sustitución
s = jω , llegamos a la denición formal de la transformada de Laplace. Por lo tanto, la trans-
formada de Laplace no es más que un caso particular de la transformada de Fourier de una
señal continua o en otras palabras, su representación algebraica. Cuando usamos transformada
de Laplace, la ecuación equivalente a (2.95) será H(s) y se denomina función de transferencia
del sistema.
Una consecuencia importante de (2.95) lo constituye el hecho de que en un sistema LTI el
espectro de la señal de salida posee únicamente componentes de frecuencia que están presentes
en la señal de entrada, es decir, no genera a la salida nuevas componentes de frecuencia.
En un sistema no LTI, lo anterior no es válido y por tanto, para estos sistemas no es posible
establecer una respuesta en frecuencia H(ω), pero si una relación entre el espectro de la señal
de entrada y la señal de salida. Estos sistemas se caracterizan porque modican completamente
el contenido frecuencial de la señal de entrada como se ilustra en el siguiente ejemplo.
1 1 1
Y (ω) = X(ω) ⋆ F{cos(ω0 t)} = X(ω) ⋆ πδ(ω − ω0 ) + X(ω) ⋆ πδ(ω + ω0 )
2π 2π 2π
1 1
Y (ω) = X(ω − ω0 ) + X(ω + ω0 )
2 2
lo cual signica que el cero del espectro de la señal de entrada se desplaza hacia la
frecuencia de la portadora ±ω0 (Figura 2.20). También se puede vericar para este
sistema, que la señal de salida presenta componentes de frecuencia más altas que
las que están presentes en la señal de entrada original.
X( ω ) Y( ω )
X( ω ) Y( ω)
Modulador
ω
−ωm 0 ωm −ω0−ω m −ω0 −ω0+ωm 0 ω0−ω m ω0 ω0+ω m ω
a ∞
∑ b ∞
∑ c ∞
∑
X(ω) = F{g(t + nT0 )} = e jωnT0
G(ω) = G(ω) ejωnT0
n=−∞ n=−∞ n=−∞
el último paso (c) se justica en el hecho que G(ω) es independiente del índice n de la sumatoria.
Ahora, recordemos que en la Sección 2.2.6 se estableció que la sumatoria de exponenciales
complejas era la serie de Fourier de una señal tren de impulsos, lo que nos conduce a:
∞
∑
X(ω) = ω0 G(ω) δ(ω − nω0 ) (2.97)
n=−∞
94 2.4. DENSIDAD ESPECTRAL
y como el producto entre cualquier señal continua y un tren de impulsos equivale a la discreti-
zación de la señal continua G(ω), tenemos que el espectro de una señal periódica siempre será
discreto y cada una de las muestras de frecuencia será ω0 G(nω0 ).
De esta forma la relación que existe entre los coecientes de la serie de Fourier y la transfor-
mada de Fourier de la señal generatriz se obtiene al calcular la transformada inversa de Fourier
de (2.97):
∫ [ ∞
] ∞
ω0 ∞ ∑ 1 ∑
x(t) = G(ω)δ(ω − nω0 ) exp(jωt)dω = G(nω0 ) exp(jω0 nt)
2π −∞ n=−∞
T0 n=−∞
1
cn = G(nω0 ) (2.98)
T0
Como se verá en el ejemplo a continuación, (2.98) indica que la serie de Fourier que se forma
a partir de una señal generatriz de energía g(t) será entonces la versión discretizada del espectro
de frecuencia de dicha señal afectada por un factor de escala 1/T0 .
( nω τ ) ( )
1 0 τ nτ
cn = τ sinc = sinc
T0 2π T0 T0
Puede vericarse que este resultado es idéntico al determinado en la Sección
2.2.6.
En la Figura 2.21 se ilustra como la forma del espectro de la señal generatriz
g(t) (Parte superior) se transforma en el espectro de la señal calculado por (2.97).
τ sinc(f τ )
rect ( tτ ) (a)
1
τ 0 τ t 0 f
−
2 2
(b)
1
τ 0 τ T0 t 0
− f
2 2
Figura 2.21: Señal recangular con ancho de pulso τ y su respectivo espectro (a). Señal tren de
pulsos con el mismo ancho de pulsoτ y su respectivo espectro (b).
Ex = Rx (0) (2.100)
∫ ∞ ∫ ∞ ∫ ∞
2 2
Ex = |x(t)| dt = |X(f )| df = F{Rx (τ )}df (2.101)
−∞ −∞ −∞
2 2
Gy (f ) = Gx (f )Gh (f ) = |X(f )| |H(f )| (2.103)
Ry (τ ) = Rx (τ ) ⋆ Rh (τ ) (2.104)
∫ T /2
1
Rx (τ ) = lı́m x(t)x∗ (t − τ )dt (2.105)
T →∞ T −T /2
La anterior expresión permite validar la siguiente suposición que permite calcular la potencia
de la señal:
Px = Rx (0) (2.106)
Sx (f ) = F{Rx (τ )} (2.107)
∫∞
cuya área bajo la curva es igual a la potencia Px de la señal Px = −∞
Sx (f )df y está relacionada
con la densidad espectral de energía mediante:
Gx,T (f )
Sx (f ) = lı́m , (2.108)
T →∞ T
donde Gx,T (f ) es la densidad espectral de energía de un fragmento de longitud T de la señal
x. Nótese que cuando la señal es periódica, la expresión anterior se transforma en un promedio
sobre el cuadrado de las transformadas de Fourier (o densidades espectrales de energía de la
señal truncada) sobre diferentes segmentos.
La anterior expresión tiene fuertes implicaciones prácticas. En general, para conocer la
densidad espectral de energía es necesario conocer la señal en todo el dominio del tiempo, lo
cual es imposible en un instrumento de medida real, por lo que la única información disponible
es un fragmento de la señal de longitud T . Así que, si el instrumento de medida puede capturar
múltiples segmentos de la señal de entrada de longitud T , es posible en la práctica obtener un
valor promedio de las densidades espectrales de energía de cada segmento. Este valor promedio
CAPÍTULO 2. ANÁLISIS EN FRECUENCIA DE SEÑALES CONTINUAS 97
2
Sy (f ) = Sx (f ) |H(f )| = Sx (f )Gh (f ) (2.109)
términos en dB, la respuesta en frecuencia de un sistema se suele calcular como |H(f )|dB =
2
10log10 |H(f )| = 20log10 |H(f )|.
2.5. Problemas
1. Recticador de Media Onda.
Acos(ω t) V0
t t
Figura 2.22:
4. A partir de un recticador de onda completa diseñe un circuito que permita obtener las
ondas triangulares de la Figura 2.23. Nota: debe proponer si la señal tiene oset y si es
simétrica par o impar. Verique sus resultados en un simulador de circuitos o por medio
de un montaje práctico en el laboratorio.
(a) (b)
Figura 2.23:
5. Para las siguientes señales: (a) Recticador de media onda y (b) Recticador de onda
completa. Calcule el espectro de la señal obtenida al pasarla por un derivador ideal (el
calculado matemáticamente) y compárelo con uno real (el obtenido con amplicadores
operacionales). Verique sus resultados en un simulador de circuitos o por medio de un
montaje práctico en el laboratorio.
99
100 3.1. TRANSFORMADA DE FOURIER DE UNA SEÑAL DISCRETA
Muestreador Ts
x(t) xs (t)
∞
∑ ∞
∑
xs (t) = x(t)δ(t − nTs ) = x(t) δ(t − nTs ) (3.1)
n=−∞ n=−∞
∞
∑
Xs (ω) = X(ω) ⋆ F{δ(t − nTs )}
n=−∞
∞
∑
Xs (ω) = X(ω) ⋆ e−jωnT s
n=−∞
∞
∑
Xs (ω) = X(ω) ⋆ ωs δ(ω − nωs )
n=−∞
∞
∑
Xs (ω) = ωs X(ω − nωs ) (3.2)
n=−∞
lo que signica que al muestrear el espectro de una señal aperiódica continua (Figura 3.2a),
el espectro resultante será la superposición de réplicas del espectro original centradas a unas
frecuencias que son múltiplos de la frecuencia de muestreo (Figura 3.2b). Puede notarse además
que la forma de (3.2) corresponde a una señal periódica, de allí que el espectro de una señal
discreta sea siempre periódico y por tanto, tendrá un ancho de banda innito.
En la Figura 3.2 se muestra la forma del espectro de la señal antes y después de pasar por un
muestreador. Como puede notarse en el espectro de salida del muestreador (Figura 3.2b), este
entrega componentes de frecuencia que no están presenten en la señal original (Figura 3.2a), de
allí que sea un sistema no LTI.
Nótese que la señal analógica original puede ser reconstruida íntegramente a partir de su
ωs
versión muestreada por medio un ltro pasa-bajo con frecuencia de corte
2 . Este ltro se
emplea en aplicaciones prácticas a la salida del conversor digital-análogo (D/A) como se ilustra
en la Figura 3.3. En este caso, el ltro pasabajo garantiza que los espectros laterales sean
eliminados.
CAPÍTULO 3. ANÁLISIS EN FRECUENCIA DE SEÑALES DISCRETAS 101
X( ω) Xs(ω )
(b)
(a)
−ω ω ω ω
max
0
max −2ωs −ωs −ωs 0 ωs ωs 2ωs
2 2
Figura 3.2: Espectro de una señal discreta (b) obtenido a partir del muestreo de la señal continua
cuyo espectro es mostrado en (a)
ωs ≥ 2ωmax , (3.3)
−ω ω ω ω
m
0
m −3ω s −2ω s −ωs 0 ωs 2ω s 3ω s
ωs
Puesto que en la práctica, es imposible tener un muestreo perfecto por medio un tren de
impulsos, en su lugar lo que se realiza es un muestreo de la señal usando un tren de pulsos
(Figura 3.5), cuyo ancho del pulso τ es de unos cuantos nano o microsegundos. Por ello, la señal
muestreada se puede modelar como el producto entre la señal y un tren de pulsos dado por
(2.48):
∞
∑ ( )
τ τ
xs (t) = x(t) sinc n exp(jωs nt) (3.4)
T
n=−∞ s
Ts
102 3.1. TRANSFORMADA DE FOURIER DE UNA SEÑAL DISCRETA
∞
∑ ( )
τ τ
Xs (ω) = X(ω) ⋆ sinc n 2πδ(ω − nωs )
T
n=−∞ s
Ts
∞
∑ ( )
2πτ τ
Xs (ω) = sinc n X(ω − nωs ) (3.5)
Ts n=−∞
Ts
Muestreador
Real
x(t) xs (t)
Ts
La expresión anterior sugiere que el espectro resultante del muestreo con un tren de impulsos
( muestreo práctico ) aparecerán de nuevo las réplicas del espectro de la señal original ubicadas
en múltiplos enteros de la frecuencia de muestreo, por lo tanto, el teorema del muestreo seguirá
siendo válido, sin embargo, el espectro resultante está dominado por una envolvente de la forma
de una señal sinc, la cual como sabemos, se amortigua hasta desaparecer para un n grande, por
consiguiente, el ancho de banda una señal con muestreo práctico será nito. Además como se
τ
muestra en la Figura 3.6, para diferente ciclo útil de la señal de muestreo (razón
Ts ), la forma
del espectro es diferente. Este tipo de espectros son los que corresponden a la señal a la salida
de un conversor D/A.
τ /T = 0.4
s
X (ω)
−2ω s −ωs 0 ωs 2ω s
τ /T = 0.7
s
−ωs 0 ωs
2 2
−ωs 0 ωs
−2ω s 2ω s
Figura 3.6: Espectro de una señal con muestreo práctico para dos casos de ciclo útil τ /Ts = 0,4
y τ /Ts = 0,7
CAPÍTULO 3. ANÁLISIS EN FRECUENCIA DE SEÑALES DISCRETAS 103
ω f
Ω = 2π = 2π (3.6)
ωs fs
Este cambio de variable tiene una ventaja signicativa sobre ω , ya que Ω por ser adimensional
y tomar valores entre 0 ≤ Ω ≤ 2π , dene en forma implícita la periodicidad del espectro
de frecuencia. Puede notarse que bajo esta nueva denominación, la máxima componente de
frecuencia corresponde a Ω = π y la frecuencia de muestreo a Ω = 2π . Una consecuencia de la
periodicidad de Ω resulta en el hecho que la sección de frecuencias entre π ≤ Ω ≤ 2π corresponde
exactamente con la región −π ≤ Ω ≤ 0, es decir, la zona de frecuencias negativas (Figura 3.7).
En analogía con la frecuencia de tiempo continuo ω podemos asumir que Ω = π es equivalente
a la frecuencia ω → ∞ y Ω = −π a ω → −∞.
Η(Ω)
Ω
−4π −3π −2π −π 0 π 2π 3π 4π
∞
∑
X(Ω) = x[n] exp(−jΩn) (3.7)
n=−∞
∫
1
x[n] = X(Ω) exp(jΩn)dΩ (3.8)
2π 2π
En (3.7) se puede apreciar que el espectro de la señal discreta x[n] es una función conti-
nua, cuya periodicidad está determinada por el argumento Ω. Por otro lado, la integral de la
transformada inversa se debe realizar sobre un período 2π del espectro X(Ω) de la señal, sin
importar el punto de origen.
104 3.2. TRANSFORMADA DE FOURIER DE TIEMPO DISCRETO (DTFT)
∞
∑
xs (t) = x[n]δ(t − nTs )
n=−∞
∫ [ ∞
]
∞ ∑
X(ω) = x[n]δ(t − nTs ) exp(−jωt)dt
−∞ n=−∞
∞
∑ ∫ ∞ ∞
∑
= x[n] δ(t − nTs ) exp(−jωt)dt = x[n] exp(−jωnTs )
n=−∞ −∞ n=−∞
∞
∑
⇒ X(Ω) = x[n] exp(−jΩn)
n=−∞
Existe una relación directa entre la DTFT y la transformada Z al emplear la variable compleja
z = exp(jΩ):
∞
∑ ∞
∑
X(Ω) = x[n] exp(−jΩn) ⇔ X(z) = x[n]z −n (3.9)
n=−∞ n=−∞
La transformada Z ofrece una simplicación sobre la DTFT ya que la DTFT de una señal es
un vector complejo mientras que la transformada Z es una expresión totalmente algebraica. De
esta forma, la transformada Z no es más que la representación algebraica de la transformada
de Fourier de una señal discreta, similar a como la transformada de Laplace lo es a una señal
continua. Asimismo, la transformada Z permite la representación de sistemas para su fácil im-
plementación en hardware y juega un papel importante en el análisis de estabilidad de sistemas
en tiempo discreto.
1. Linealidad
2. Desplazamiento en el tiempo
3. Desplazamiento en la frecuencia
4. Diferenciación en el tiempo
5. Diferenciación en la frecuencia
nx[n] ↔ j ∂X(Ω)
∂Ω
6. Convolución
7. Modulación
∫
x1 [n]x2 [n] ↔ 1
2π 2π
X1 (λ)X2 (Ω − λ)dλ = 1
2π X1 (Ω) ⋆ X2 (Ω)
1
y[n] = {x[n − 2] + x[n − 1] + x[n] + x[n + 1] + x[n + 2]}
5
Solución. Aplicamos transformada de Fourier a ambos lados de la ecuación y
según la propiedad de desplazamiento en el tiempo:
{ }
Y (Ω) = 15 e−j2Ω X(Ω) + e−jΩ X(Ω) + X(Ω) + ejΩ X(Ω) + ej2Ω X(Ω)
{ }
Y (Ω)
H(Ω) = X(Ω) = 15 e−j2Ω + e−jΩ + 1 + ejΩ + ej2Ω
H(Ω) = 15 {1 + 2 cos(Ω) + 2 cos(2Ω)}
resulta más conveniente usar para este tipo de señales un conjunto de expresiones equivalentes
a la serie de Fourier de una señal continua periódica, esta nueva notación se denomina Serie
Discreta de Fourier.
Antes de denirla, resulta importante destacar que el espectro de una señal discreta ape-
riódica es continuo y periódico, y el de una señal continua periódica, es aperiódico y discreto,
por lo tanto, el espectro de una señal discreta periódica será periódico y discreto, así que para
expresar una señal periódica discreta debemos usar un conjunto nito de exponenciales comple-
jas armónicas en lugar de uno innito como lo sugería la serie de Fourier. Se puede demostrar
que la cantidad de exponenciales complejas armónicas que se deben incluir para sintetizar x[n]
corresponde exactamente con el período de la señal, N . Por otro lado, como el eje de frecuencias
está normalizado y se extraerán N exponenciales armónicas de índice k , sus frecuencias serán:
k
Ωk = 2π (3.10)
N
así que la serie discreta de Fourier tiene una forma similar a la serie de Fourier:
∑
N −1
x[n] = ck exp(jΩk n) (3.11)
k=0
N −1
1 ∑
ck = x[n] exp(−jΩk n) 0≤k ≤N −1 (3.12)
N n=0
Finalmente, podemos resumir en la Tabla 3.2 las principales relaciones entre los espectros
de señales continuas-discretas y periódicas-aperiódicas. Nótese que la periodicidad del espectro
está relacionado con las señales discretas en el tiempo y su forma discreta con la periodicidad
en el tiempo.
Cuadro 3.2: Resumen de la forma de los espectros de las 4 diferentes categorías de señales.
Señal (Tiempo) Espectro de la Señal (Frecuencia)
Continuas
Periódica Aperiódico - Discreto
Aperiódica Aperiódico - Continuo
Discretas
Periódica Periódico - Discreto
Aperiódica Periódico - Continuo
a la DTFT, pero en la cual, el espectro resultante sea un conjunto de valores discretos, es de-
cir, una transformada que entregue directamente la versión muestreada del espectro continuo
X(Ω). Este método computacional de calcular la transformada de Fourier de una señal discre-
ta se denomina Transformada Discreta de Fourier (DFT: Discrete Fourier Transform ). Esta
transformada tiene un costo computacional proporcional a O(N 2 ), donde N es la longitud de
la señal de entrada x[n]. Como se verá en la Sección 3.5, existe una forma más eciente de cal-
cular la DFT, denominada Transformada Rápida de Fourier (FFT ) cuyo tiempo de ejecución
es proporcional a O(N log2 N ).
En cuanto a las propiedades de la DFT, tenemos que el vector de datos resultante de la
transformación tendrá también N datos, por lo tanto, como se demostrará más adelante, las
propiedades de la DFT son idénticas a las de la serie discreta de Fourier.
Puesto que el propósito de la DFT es obtener la versión muestreada X[k] del espectro
continuo X(Ω) (Figura 3.8), esta discretización se puede expresar como:
X[k] = X(Ω)|Ω=Ωk
donde Ωk se denió en (3.10). Al igual que para X(Ω), se tiene que las muestras correspondientes
∑
N −1
kn
X[k] = x[n] exp(−j2π ) 0≤k ≤N −1 (3.13)
n=0
N
N −1
1 ∑ kn
x[n] = X[k] exp(j2π ) 0 ≤ n ≤ N − 1 (3.14)
N N
k=0
X( Ω )
−π 0 π 2π 3π Ω
X[k]
N=8
0 1 2 3 4 5 6 7 8 k
Figura 3.8: Muestreo del espectro de la DTFT (parte superior) para obtener el espectro de la
DFT (parte inferior) para N =8
#dene N 100
#dene pi2N 6.2831853072/N
oat Xk_real[N];
oat Xk_imag[N];
for (int k=0; k<N; k++) {
Xk_real[k] = Xk_imag[k] = 0;
for (int n=0; n<N; n++) {
Xk_real[k] += x[n] * cos(pi2N*k*n);
Xk_imag[k] -= x[n] * sin(pi2N*k*n);
}
}
( )
2π
WN = exp −j (3.15)
N
1
y repartir el término
N tanto en la transformada directa como en la inversa, con el n de poder
representar estas transformadas como una operación vectorial:
N −1
1 ∑
X[k] = √ x[n]WNkn 0 ≤ k ≤ N − 1 ⇒ X = WN x (3.16)
N n=0
N −1
1 ∑
x[n] = √ X[k]WN−kn 0 ≤ n ≤ N − 1 ⇒ x = WN
−1
x (3.17)
N k=0
en las cuales x
corresponde al vector columna de la señal de entrada en el tiempo, X es el
kn
x[n] y WN
vector columna con los elementos de la transformada de Fourier de es una matriz
cuadrada cuyos elementos están dados por (3.15):
x[0] X[0]
x[1] X[1]
x=
x[2]
; X= X[2] ;
... ...
x[N − 1] X[N − 1]
1 1 1 ... 1
1 WN WN2 ... WNN −1
1
WN = √ 1 WN2 WN4 ... WN
2(N −1)
N : : : : :
N −1 2(N −1) (N −1)(N −1)
1 WN WN ... WN
Para el caso especíco de la transformada de Fourier se tiene que la inversa de la matriz
−1
W es igual su compleja conjugada W = W∗ , y esta a su vez es igual a su transpuesta
W−1 = WT . Bajo estas condiciones, se dice que la DFT es una transformación ortogonal y
unitaria. La principal utilidad de la representación vectorial está en la posibilidad de denir la
transformada de Fourier de una señal bidimensional (una imagen, por ejemplo) y establecer un
algoritmo para calcularla.
CAPÍTULO 3. ANÁLISIS EN FRECUENCIA DE SEÑALES DISCRETAS 109
x[n] X( Ω)
~
Senal Real
-4 -3 -2 -1 0 1 2 3 4 5 6 7 8 9 10 11 n −π 0 π 2π 3π Ω
-4 -3 -2 -1 0 1 2 3 4 5 6 7 8 9 10 11 n 0 1 2 3 k
-4 -3 -2 -1 0 1 2 3 4 5 6 7 8 9 10 11 n 0 1 2 3 4 5 6 7 k
X[k], las propiedades de la DFT requieren que los índices en el tiempo y frecuencia se deban
expresar en función de la operación módulo (residuo), cuya notación a usar será: a0 mód N .
Esta operación garantiza que el resultado siempre esté dentro del rango 0...N − 1, y brinda la
posibilidad de representar las secuencias como un conjunto circular de datos.
Linealidad
Desplazamiento en el Tiempo
( )
kn0
x[(n − n0 ) mód N ] ⇔ exp −j2π X[k]
N
La inclusión de la operación módulo en el desplazamiento en el tiempo se debe a que la DFT
asume que la señal x[n] tiene un período N, en otras palabras, aunque la señal x[n] tenga una
longitud nita N esta debe ser vista como un conjunto circular de datos. De las conclusiones
anteriores se extrae que n0 debe tomar en forma efectiva únicamente valores comprendidos
entre 0 y N − 1, ya que valores de n0 > N hacen que el espectro resultante sea equivalente al
espectro de un desplazamiento de n0 mód N muestras.
Desplazamiento en la Frecuencia
( )
k0 n
exp j2π x[n] ⇔ X[(k − k0 ) mód N ]
N
Al igual que el desplazamiento en el tiempo, el espectro discreto X[k] debe considerarse
como una señal periódica de período N . Debemos recordar que la región de frecuencias entre
2 ≤ k < N corresponde a la región de frecuencias negativas, que como sabemos para una
N
señal real, será la versión reejada del complejo conjugado de las muestras para 1 ≤ k <
N
2.
Matemáticamente lo anterior lo podemos expresar como:
X[−k] = X[N − k]
0 1 2 3 4 5 6 7 8 9 10 111213 k 0 1 2 3 4 5 6 7 8 9 10 111213 k
X[k−5]
(c)
0 1 2 3 4 5 6 7 8 9 10 111213 k
Figura 3.10: Efecto del desplazamiento en frecuencia de un espectro DFT. Las muestras som-
breadas aparecen como consecuencia de la periodicidad implícita de un espectro DFT.
Modulación
N −1
1 1 ∑
x[n]y[n] ⇔ X[k] ⃝N Y {k] = X[i]Y [k − i]
N N i=0
Convolución Circular
∑
N −1
x[n] ⃝N y[n] = x[i]y[k − i] ⇔ X[k]Y [k]
i=0
Es de resaltar que los resultados de la convolución circular x[n] ⃝N y[n] son diferentes a los
de la convolución lineal x[n] ⋆ y[n], y solamente son idénticos en el caso de que ambas señales,
x[n] y y[n], sean periódicas.
Desde el punto de vista práctico esta propiedad vislumbra una aplicación directa en la
implementación de ltros digitales, ya que si recordamos, la salida de un sistema LTI (ltro)
está descrito por la convolución entre la señal de entrada y la respuesta al impulso, por lo tanto,
con esta propiedad de la DFT, la señal de salida de dicho ltro se puede obtener multiplicando
componente a componente la transformada discreta de Fourier de la señal de entrada (X[k]) y
la respuesta en frecuencia discretizada del sistema (H[k]) y nalmente calculando la IDFT de
dicho producto (Figura 3.11). Este método aunque algo complejo, resulta ser más eciente que
la convolución lineal (aquella que implementa la sumatoria de convolución, Sección 1.10.2), si se
emplea, claro está, para el cálculo de las DFT e IDFT la transformada rápida de Fourier (FFT).
Esta técnica de ltrado se conoce con el nombre de convolución rápida, y es usada cuando se
tienen señales de entrada de grandes longitudes.
112 3.5. TRANSFORMADA RÁPIDA DE FOURIER (FFT)
x[n] X[k]
DFT
Y[k]=X[k]H[k]
y[n]
X IDFT
H[k]
Puesto que tanto la señal de entrada x[n] como la respuesta al impulso h[n] no son nece-
sariamente periódicas, la convolución rápida no sería posible, sin embargo, se puede garantizar
que la convolución circular retorne los mismos resultados que la convolución lineal para un par
de señales aperiódicas, lo cual se logra usando un tamaño, N , para la DFT e IDFT que satisfaga
la condición:
N ≥ Nx + Nh − 1 (3.18)
1 ∑ 1 ∑
N/2−1 N/2−1
(2r+1)k
X[k] = √ x[2r]WN + √
2rk
x[2r + 1]WN
N r=0 N r=0
1 ∑ 1 ∑
N/2−1 N/2−1
( )rk ( )rk
X[k] = √ x[2r] WN2 + WNk √ x[2r + 1] WN2
N r=0 N r=0
( 4π )
del término WN , tenemos que WN = exp −j
2
por simetría
N = WN/2 , por lo tanto, ambas
sumatorias corresponden a dos transformadas discretas de Fourier independientes, la primera
con los elementos de índice par de la señal de entrada y la segunda con los de índice impar:
CAPÍTULO 3. ANÁLISIS EN FRECUENCIA DE SEÑALES DISCRETAS 113
1 ∑ 1 ∑
N/2−1 N/2−1
X[k] = √ rk
x[2r]WN/2 + WNk √ rk
x[2r + 1]WN/2
N r=0 N r=0
k
Así mismo, puede notarse que el término WN que afecta a la segunda DFT corresponde a
un desplazamiento en el tiempo de una muestra, el cual era de esperarse, ya que la separación
entre una muestra par y una impar es de 1. Finalmente, la ecuación anterior se puede reescribir
como:
donde F [k] y G[k] son las DFT de las muestras de índice par e impar de la señal x[n]. Esta
ecuación sugiere que el cálculo de una FFT de N puntos se puede realizar haciendo sucesivas
particiones del arreglo original de datos hasta obtener subconjuntos de FFTs de dos elementos
(Figura 3.12). Cada una de estas FFT son muy simples de calcular, ya que implican únicamente
una suma y una resta:
y para obtener la solución completa de N puntos basta con combinar las soluciones más peque-
ñas, comenzando con las FFTs de 2 puntos, luego las de 4, etc., hasta conseguir la FFT total.
Estas combinaciones se llevan a cabo mediante la ecuación de mezcla denida en (3.19).
N=8
log 8=3 particiones
2
0 1 2 3 4 5 6 7 1 FFT 8puntos
0 2 4 6 1 3 5 7 2 FFTs de 4 puntos
0 4 2 6 1 5 3 7 4 FFTs de 2 puntos!!!
Figura 3.12: Particiones del arreglo de datos x[n] para calcular la FFT.
Nótese que las particiones solamente son posibles si utilizamos tamaños de la FFT que
sean potencias de dos, así mismo, como el número de particiones que se deben hacer al arreglo
original es log2 N , y cada una de las respectivas combinaciones (usando la ec. 3.19) consume
un tiempo proporcional a N, tenemos en total, un tiempo de ejecución para el algoritmo de la
FFT de O(N log2 N ).
El algoritmo antes descrito se denomina decimación en el tiempo, puesto que para calcular
las FFTs de 2 puntos fue necesario hacer inicialmente una subdivisión recursiva de la señal x[n].
Cuando se realizan las combinaciones es posible reducir el tiempo de cómputo si se considera
la simetría del término WN :
n+N/2
WN = −WNn (3.22)
114 3.5. TRANSFORMADA RÁPIDA DE FOURIER (FFT)
lo cual signica que para calcular la primera mitad de una FFT de N puntos se deben combinar
las soluciones de las FFTs de N/2 puntos usando (3.19) y para la segunda mitad basta con usar
k
esta misma ecuación, pero en este caso, el factor WN se debe tomar negativo.
Arreglo de entrada
0 1 2 3 4 5 6 7
0 0.84 0.91 0.14 -0.76 -0.96 -0.28 0.66
0 4 2 6 1 5 3 7
0 -0.76 0.91 -0.28 0.84 -0.96 0.14 0.66
Arreglo de salida (despues de bit-reversal)
0 4 2 6 1 5 3 7
0 -0.76 0.91 -0.28 0.84 -0.96 0.14 0.66 Entrada x[n] decimada
F1 G1 F2 G2
4 FFTs de N=2
-0.76 0.76 0.63 1.19 -0.12 1.8 0.8 -0.52
F3 G3
-0.13 0.76-1.19j -1.39 0.76+1.19j 0.68 1.8+0.52j -0.92 1.8-0.52j 2 FFTs de N=4
0.55 2.4-2.095j -1.39+0.92j -0.88+0.285j -0.81 -0.88-0.285j -1.39-0.92j 2.4+2.95j FFT de N=8
Figura 3.14: Combinaciones de las FFTs diezmadas para obtener la FFT de 8 puntos.
N1=2
k1=0
k=0
k=k+1
Si
k<N1
?
No
k1 = k1 + 2*N1
k1=N No
?
Si
N1=2*N1
N1=N No
?
Si
FIN
3.6. Problemas
1. Usando las propiedades de la transformada de Fourier, determine la respuesta en frecuen-
cia o espectro de la señal de salida de los siguientes sistemas:
c) Escriba un programa en lenguaje C que permita calcular la salida del ltro diseñado.
-1000Hz 1000Hz f
Figura 3.16:
3. En Matlab se puede calcular un ltro digital IIR basado en un ltro análogo Butterworth
haciendo uso de la función butter de esta forma: [bk ak] = butter(N, Wn); donde ak
b0 +b1 z −1 +...+bn z −n
y bk son los coecientes de la función de transferencia H(z) =
1+a1 z −1 +a2 z −2 +...+an z −n ,
N es el orden del ltro, y Wn es la frecuencia de corte del ltro pasa-bajo normalizada
a la mitad de la frecuencia de muestreo. Si lo que se desea es un ltro pasa-alto, pasa-
banda o rechaza-banda se usa el formato [bk ak] = butter(N, Wn, tipo) donde tipo
toma los valores 'highpass', 'bandpass', 'stop', respectivamente, y Wn, para el caso
de pasa-banda o rechaza-banda, es un vector que contiene las dos frecuencias de corte.
a) Use Matlab para calcular los coecientes del ltro y gracar la respuesta en frecuencia
del ltro (use el comando freqz).
b) Simule el ltro empleando los comandos wavread para un archivo de audio y filter
para calcular la señal de salida.
En este capítulo se abordará el estudio de las señales aleatorias, también llamados procesos
estocásticos, las cuales constituyen la mejor forma de modelar señales y sistemas cuando es
imposible establecer una función determinística que las describa.
Dado que los procesos estocásticos se basan en la teoría de las probabilidades, inicialmente se
dará una introducción a sus aspectos más relevantes y a continuación se describirán los procesos
(o señales) estocásticos, sus propiedades, y los modelos más comunmente usados: autorregresivo
(AR), media móvil (MA) y autoregresivo más media móvil (ARMA).
4.1. Probabilidades
En la teoría de probabilidades uno de los conceptos fundamentales lo constituye el experi-
mento aleatorio, en el cual lo importante no es predecir cual será el siguiente valor que arrojará el
experimento sino con que frecuencia se presenta cierto evento. Esta frecuencia, llamada también
frecuencia relativa de un evento, denotada como fr (E), se puede estimar como:
n
fr (E) = (4.1)
N
donde N es el número de número de veces que se repite el experimento y n el número de veces
que ocurrió el evento E en forma satisfactoria. Es claro en (4.1) que el valor máximo de la
frecuencia relativa es 1 y su valor mínimo 0. Dado que la frecuencia relativa de un evento es una
cantidad que depende del número de veces que se repite un experimento, se preere emplear
como medida para la posibilidad de un evento la Probabilidad P (E), la cual se toma como la
tendencia de la frecuencia relativa de un evento para un innito número de experimentos, es
decir,
n
P (E) = lı́m (4.2)
N →∞ N
117
118 4.1. PROBABILIDADES
W .1
E .6
.3
.2 .4
.5
3. P (∅) = 0
5. Sí E1 ⊂ E2 ⇒ P (E1 ) ≤ P (E2 )
Habitualmente se suele abreviar P (E1 ∩E2 ) en P (E1 E2 ). Cada una de estas propiedades se suele
interpretar analíticamente de la siguiente forma: el término P (E1 ∪ E2 ) indica la probabilidad
de ocurrencia del evento E1 o E2 ; P (E1 E2 ) como la probabilidad de ocurrencia simultánea de
c
los eventos E1 y E2 ; y P (E ) como la probabilidad de que el evento E no ocurra. Grácamente
se muestra en la Figura 4.2 la representación por diagramas de Venn de las propiedades 2 y 4
de la probabilidad, nótese que la resta incluida en la propiedad 4 soluciona el problema de la
doble consideración de los elementos comunes a ambos subconjuntos Ei .
W Ec W
E E1 E2
E1ÇE2
Figura 4.2: Diagramas de Venn para las propiedades del complemento y unión de eventos de la
probabilidad
CAPÍTULO 4. SEÑALES ALEATORIAS 119
{
P (E1 ∩E2 )
P (E2 ) ̸= 0
P (E1 | E2 ) = P (E2 ) (4.3)
0 c.c
Un ejemplo típico de eventos dependientes es el experimento de sacar las bolas de una urna.
Si una persona A saca una bola de la urna, la probabilidad de que la siguiente persona, B, saque
una bola con ciertas características depende fuertemente del valor de la bola sacada por A.
Si por el contrario, el experimento consistiera en sacar la bola de la urna y regresarla, la
persona B tendrá igual probabilidad que A de sacar una bola dada, pues las condiciones de la
urna no se han alterado, es decir, los eventos A y B son independientes. En términos mate-
máticos, la independencia de eventos implica que la probabilidad de ocurrencia de B depende
exclusivamente del evento B y no de A o P (B | A) = P (B), lo que conduce a que la probabilidad
de ocurrencia simultánea de A y B (ec. 4.4) sea P (AB) = P (A)P (B).
Es así como, por medio de la ecuación de probabilidad condicional se distinguen 3 tipos de
eventos: los dependientes, independientes y excluyentes.
En términos generales sí n eventos son estadísticamente independientes entre sí, la probabi-
lidad de ocurrencia simultánea de todos los n eventos es igual a:
la ocurrencia de un evento anula la posibilidad de ocurrencia del otro o simplemente que los dos
eventos no pueden ocurrir simultáneamente. En este caso, los eventos excluyentes se identican
porque:
P (E1 E2 ) = 0 (4.8)
Visto en diagramas de Venn, dos eventos son excluyentes cuando no comparten elementos
comunes E1 ∩ E2 = ∅, pero independencia de eventos no lo implica necesariamente, es decir,
cuando dos eventos son independientes es posible que E1 ∩ E2 ̸= ∅.
∑
n
P (A) = P (Ei A)
i=1
∑
n
P (A) = P (Ei )P (A | Ei ) (4.10)
i=1
Por otra parte, si lo que se desea es determinar la probabilidad de algún evento Ei dada la
ocurrencia del evento A, P (Ei | A) se debe aplicar el teorema de Bayes
P (Ei )P (A | Ei ) P (Ei )P (A | Ei )
P (Ei | A) = = ∑n (4.11)
P (A) i=1 P (Ei )P (A | Ei )
aleatoria solamente toma ciertos valores discretos de la recta real, se dice que la variable alea-
toria es discreta , en caso contrario la variable aleatoria es continua . Es común encontrar para
ciertos eventos, una descripción por medio de variables aleatorias que involucran conjuntos de
resultados discretos y continuos, en cuyo se dice que la variable aleatoria es mixta .
W
w1 w2 w5
w4
w3
4)
X( 3 )
X( 5 )
1)
)
w
2
w
w
w
w
X(
X(
X(
Para describir las variables aleatorias se emplean dos representaciones, la función de dis-
tribución de probabilidad acumulada (f.d.p.a.), FX (x), o la función de densidad de probabilidad
(f.d.p.), fX (x). Sin embargo, la f.d.p. es la notación más común para las variables aleatorias.
La f.d.p.a. de una variable aleatoria X se dene como:
FX (x) = P (X ≤ x) (4.12)
1. 0 ≤ FX (x) ≤ 1
2. FX (x) es no decreciente
F (x) FX(x)
X
1
1
0 0
(a) (b)
Figura 4.5: Funciones de distribución de probabilidad acumulada para variables aleatorias dis-
cretas (a) y continuas (b)
d
fX (x) = FX (x) (4.13)
dx
y se trata de una función que indica la forma como se distribuye la probabilidad a lo largo de
la recta real. Sus propiedades son:
1. fX (x) ≥ 0
∫∞
2.
−∞ X
f (x)dx = 1
∫ b+
3.
a+
fX (x)dx = P (a < X ≤ b)
∫ x+
4. FX (x) = −∞
fX (u)du
fX (xi ) = pi = P (X = xi ) (4.14)
A diferencia con las variables aleatorias continuas, las discretas son las únicas a las cuales se
les puede calcular probabilidad a una cantidad aislada x, dado que en las continuas, la región
de integración será un rectángulo de base innitesimal, es decir, P (X = xi ) = fX (xi )dx. En
otras palabras, para las variables continuas solamente es posible calcular la probabilidad que la
variable aleatoria tome el valor contenido en un intervalo (a, b].
P (sss) = P (s)P (s)P (s) = (1 − p)3 i=0
P (css) + P (scs) + P (ssc) = 3P (c)P (s)P (s) = 3p(1 − p)2 i=1
pi =
P (ccs) + P (csc) + P (scc) = 3P (c)P (c)P (s) = 3p2 (1 − p) i=2
P (ccc) = p3 i=3
∫ ∞
E[g(X)] = g(x)fX (x)dx (4.15)
−∞
la cual es una operación matemática lineal que pondera la función g(x) con la función de
densidad de probabilidad fX (x).
El valor de E[X] o valor medio (µ) de X, se denomina también primer momento :
µ = E[X] (4.16)
Dado que la expresión de cálculo de µ es idéntica al centro de masa, el valor más probable
de una variable aleatoria se encuentra cercano al punto donde el área de la función de densidad
de probabilidad f.d.p. se reparte equitativamente a la derecha y la izquierda de µ.
2
La expresión E[X ], se denomina comúnmente valor cuadrático medio
o segundo momento,
3 4
E[X ], E[X ], ..., tercer momento, cuarto momento, etc., sin embargo, en la mayoría de las
aplicaciones carecen de un signicado físico.
La esperanza y por tanto, el valor medio tienen las siguientes propiedades:
2. E[c] = c
3. E[X + c] = E[X] + c
1 Es importante aclarar que µ = E[X] corresponde al valor más probable únicamente si la f.d.p. es unimodal,
es decir, si la forma de la f.d.p.está concentrada alrededor de un único conjunto de valores como en la f.d.p.
gausiana.
124 4.1. PROBABILIDADES
Estas propiedades muestran el carácter lineal del operador esperanza e indican que el valor
medio de una constante o señal determinística es exactamente la misma constante o señal.
La tercera propiedad tiene una importante implicación, y consiste en que si una señal está
compuesta por una componente aleatoria y otra determinística, el valor esperado de la señal
total, será la suma de la componente determinística más el valor esperado de la componente
aleatoria.
Otros momentos importantes son los denominados momentos centrales , pues se determinan
alrededor del valor más probable:
Se puede vericar que el primer momento central es cero, sin embargo, el segundo momento
central , se denomina varianza de la variable aleatoria:
1. var[cX] = c2 var[X]
2. var[c] = 0
3. var[X + c] = var[X]
4. var[X] = E[X 2 ] − µ2
Binomial
Esta es una variable aleatoria discreta que permite modelar el número de bits recibidos con
error en una transmisión, cuando la secuencia transmitida estaba compuesta por n bits, todos
ellos independientes entre sí y con la misma probilidad de error. En otras palabras, la variable
aleatoria binomial es el conjunto de n variables aleatorias del tipo Bernoulli. Su función de
densidad de probabilidad es:
( )
n
pk (1 − p)n−k 0≤k≤n
P (X = k) = k (4.19)
c.c.
0
( )
n n!
con = k!(n−k)! . En la Figura 4.6a se muestra grácamente la forma de la ecuación (4.19).
k
Para esta variable aleatoria, su valor medio es: µ = np y su varianza σ 2 = np(1 − p).
Uniforme
Esta es una variable aleatoria continua que toma sus valores entre el intervalo a y b con
igual probabilidad. La f.d.p. está denida como:
{ 1
b−a a<x<b
fX (x) = (4.20)
0 c.c.
Esta variable aleatoria se utiliza para modelar variables aleatorias cuyo rango de excursión
es conocido. Ejemplo de ello es la variación de fase de un generador sinusoidal, ya que ésta toma
únicamente valores entre 0 y 2π .
Su valor medio es: µ = a+b
2 y su varianza σ2 = b−a
12 .
Gausiana o Normal
Esta es la variable aleatoria continua más común, ya que permite modelar desde fuentes de
ruido o señales de información hasta canales de comunicación. Esta variable aleatoria se obtiene
como extensión de la variable aleatoria binomial cuando el número de experimentos tiende al
innito (n → ∞), en otras palabras, representa un evento conformado por innito número de
eventos independientes entre sí. Un tipo de ruido que puede ser perfectamente modelado por
una distribución gausiana los es el ruido térmico. Esta función se describe a través de:
1 (x−µ)2
fX (x) = √ e− 2σ2 (4.21)
2πσ
donde µ y σ son la media y varianza de la variable aleatoria, respectivamente. Esta es una
distribución que presenta simetría par alrededor de x = µ. Dentro de una dispersión de 3σ
alrededor de su medio, se encuentran aproximadamente el 99,7 % de valores posibles del evento.
En la Figura 4.6b se muestra la forma de la f.d.p (ec .4.19).
Para evaluar las probabilidades se recurre comúnmente a tablas en las cuales se encuentra
tabulada la función Q (Tabla 4.1), descrita como
∫ ∞
Q(x) = P (X > x) = fN (u)du (4.22)
x
126 4.1. PROBABILIDADES
2
donde fN (u)
es una distribución normal de media cero µ = 0 y varianza σ = 1. Esta función
1
tiene los siguientes valores extremos Q(0) =
2 y Q(∞) = 0. Por otro lado, para calcular la
2
probabilidad P (X > x) de una distribución gausiana con diferentes parámetros µ y σx se debe
( )
x−µ
evaluar Q σx .
Otra forma alternativa de evaluar las probabilidades es usando la función de error, erf, que
se encuentra disponible en algunos programas como Matlab. La función de error o erf, está
denida por medio de la ecuación:
∫ x
2
e−t dt
2
erf (x) = √ (4.23)
π 0
Nótese que mientras Q(x) está relacionada con probabilidad P (X > x), erf (x) está rela-
cionada con la probabilidad P (0 < X < x) (Figura 4.7a). Para calcular la probabilidad de una
2
variable aleatoria gausiana de media µ y varianza σ en el rango [0, x], es necesario hacer las
siguiente transformación a la función erf:
( )
1 x−µ
P (0 < X < x) = erf √ (4.24)
2 2σ 2
0.3 0.3
0.25 0.25
0.2 0.2
(b)
(a)
P(X=k)
fX (x)
0.15 0.15
0.1 0.1
0.05 0.05
3σ
0 0
0 2 4 6 8 10 12 −5 −4 −3 −2 −1 0 1 2 3 4 5 6 7 8 9 10
k x
Figura 4.6: Función de densidad de probabilidad para una variable aleatoria (a) binomial y (b)
gausiana
mu = 3; sigma2 = 1.5;
Pa = 1/2 + 0.5*erf( abs(1-mu)/sqrt(2 * sigma2) );
Para P (1 < X < 2), como el rango [1, 2] está por debajo de la media (Figura 4.7c),
esta área es equivalente a calcular el área en el rango [1−µ, 2−µ] = [−2, −1] = [1, 2].
Si se usa la función Q, dicha área se obtiene mediante sustracción del área para
( ) ( )
[1, ∞) y el área [2, ∞): P (1 < X < 2) = Q √1
1.5
− Q √21.5 = 0.1571
Si se usa la función erf, dicha área se obtiene mediante sustracción del área entre
( ) ( )
[0, 2] y el área [0, 1]: P (1 < X < 2) = 12 erf √ 2
2×1,5
− 12 erf √ 1
2×1,5
.
Q, P (X < 5) = 21 + 21 −Q √5−3
= 0,9452 y usando la función erf, P (X < 5) =
( ) 1,5
1
2 + 12 erf √5−3
2×1,5
H(n)
P (xn < x ≤ xn + ∆x) ≈
N
∫ xn +∆x
Si recordamos que P (xn < X ≤ xn + ∆x) =
xn
fX (x)dx, vemos entonces
que el histograma es una aproximación por suma de Riemann de la función de
H(n)
densidad de probabilidad, lo cual permite realizar la siguiente aproximación
N ≈
fX (xn )∆x, lo que nalmente nos conduce a
H(n)
fX (xn ) ≈ (4.25)
N ∆x
Se presenta a continuación un programa en Matlab que permite realizar el cálculo
experimental de la f.d.p. por medio de (4.25). Asimismo, la media y varianza de dicho
proceso se puede estimar experimentalmente por medio de las funciones mean y var.
Por las características de ruido térmico se espera que la función de densidad de
probabilidad sea una forma gausiana, lo cual se verica al suporponer a la f.d.p.
experimental la f.d.p. calculada teóricamente con (4.21). Ver Figura 4.8b.
12000
10000
8000
H(X)
6000
4000
2000
0
−4 −3 −2 −1 0 1 2 3 4
x
0.8
teórico
experimental
0.6
fX (x)
0.4
0.2
0
−4 −3 −2 −1 0 1 2 3 4
x
N = length(x);
mu = mean(x);
sigma2 = var(x);
fprintf('la media es: %f\n', mu );
fprintf('la varianza: %f\n', sigma2 );
%calcula el histograma
130 4.1. PROBABILIDADES
dx = 0.2;
[h xn] = hist(x, [-3:dx:3]);
%calcula la f.d.p. y la graca
fx = h/(N*dx);
bar(xn,fx,'w');
%graca la distribución teórica
hold on;
yval = [-3:0.1:3];
fy = exp( -((yval-mu).^2)/(2*sigma2) ) / sqrt( 2*pi*sigma2 );
plot(yval, fy);
1.5
0.5
2σ 0
−0.5
−1
−1.5
−2
0 10 20 30 40 50 60 70 80 90 100
tiempo
Si dicha señal pasa a través de cierto sistema, para determinar la forma de la señal de salida
basta con calcular la densidad de probabilidad de la señal de salida fY (y) cuando la variable
aleatoria X pasa por el sistema y = g(x).
En general, la forma de la f.d.p. de la señal de salida se puede determinar a través de
su función de distribución de probabilidad acumulada pues resulta más fácil de calcular; sin
embargo, para ciertos casos es posible emplear la siguiente fórmula:
CAPÍTULO 4. SEÑALES ALEATORIAS 131
[ ]−1
∑ dg(x)
fY (y) = fX (xi ) (4.26)
i
dx xi
Ejemplo 4.4. Un ruido descrito por medio de una variable aleatoria con distri-
{
1/2 1≤x≤3
bución uniforme fX (x) = pasa a través de un amplicador de
0 c.c.
ganancia A y con un oset B . Determinar la forma de la densidad de probabilidad
de la señal de salida.
Solución. La relación entrada-salida de dicho sistema se puede modelar a través
de y = g(x) = Ax+B , por lo cual su derivada es dg(x)
dx = A y su única raíz x =
y−B
A ,
teniéndose por tanto para fY (y):
( ) { 1
y−B 1 2A 1 ≤ y−B
A ≤3
fY (y) = fX =
A A 0 c.c.
{ 1
2A A + B ≤ y ≤ 3A + B
fY (y) =
0 c.c.
En el programa en Matlab descrito a continuación se muestra como generar la
señal de entrada y estimar la f.d.p para las condiciones A = 2 y B = 1.
El ruido se genera a partir de la función rand que genera una señal con distribu-
ción uniforme para el intervalo [0, 1], por lo que es necesario transformar esta señal
al rango deseado, [1, 3], por medio de la ecuación x = (b-a)*rand(1,N) + a.
La f.d.p. puede ser estimada a partir del histograma de la señal, tal como se
ilustró en el ejemplo de la página 128. Se muestra en la Figura 4.10, las f.d.p.
experimentales para las señales de entrada y salida, así como la amplitud teórica
máxima que puede alcanzar la f.d.p. de la señal de salida, es decir, 1/2A.
a = 1; b = 3;
N = 100000;
%rand genera un conjunto de datos con distribución
%uniforme entre 0...1. Por lo cual se hace necesario
%multiplicar el vector por (b-a), para expandir el
%intervalo a 1...3 y desplazar lo valores hasta el
%punto x=1
x = (b-a)*rand(1,N) + a;
%se pasa la señal por un amplicador de
%ganancia A y oset B
A = 3; B = 1;
y = A*x + B; %acción del sistema
%graca las f.d.p.
dx = 0.2;
[hx xn] = hist(x, [0:dx:15]);
subplot(2,1,1), bar(xn, hx/(N*dx),'w');
132 4.1. PROBABILIDADES
0.8
0.6
fX (x)
0.4
0.2
0
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
x
0.2
0.15
fY (y)
0.1
0.05
0
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
y
y como fX (x) tiene media cero, es una función con simetría par, así que
(√ )
1 y 1 − y
fY (y) = √ fX =√ e 2aσx2
ay a 2πayσx
Ejemplo 4.6. Analizar el efecto de pasar el ruido del ejemplo anterior por un
recticador ideal de media onda. {
x x>0
Solución. En este caso la relación entrada-salida será y = g(x) = 0 x≤0
,
pero como tiene innitas raíces, es imposible usar la ec. (4.26) en todo el rango de
x. Sin embargo, si analizamos con detenimiento el efecto del sistema g(x) sobre la
señal de entrada, tenemos que:
CAPÍTULO 4. SEÑALES ALEATORIAS 133
fX (y) y>0
1
fY (y) = y=0
2
0 y<0
2
1 u(y) − 2σ
y
1
= fX (y)u(y) + δ(y) = √ e x2 + δ(y)
2 2
2πσx 2
mu = 0; sigma2 = 0.5;
N = 100000;
%randn genera un conjunto de datos con distribución
%gausiana con media cero y varianza 1. Por lo cual se
%hace necesario multiplicar el vector por sqrt(sigma2) y
%desplazarlo en su media.
x = sqrt(sigma2)*randn(1,N) + mu;
%se pasa la señal por un dispositivo de ley cuadrática
%con a=1
y = x;
y( nd(y<0) ) = 0; %acción del sistema
%graca las f.d.p.
dx = 0.2;
[hx xn] = hist(x, [-3:dx:3]);
subplot(2,1,1), bar(xn, hx/(N*dx),'w');
[hy yn] = hist(y, [-3:dx:3]);
subplot(2,1,2), bar(yn, hy/(N*dx),'w');
134 4.1. PROBABILIDADES
0.8
0.6
fX (x)
0.4
0.2
0
−4 −3 −2 −1 0 1 2 3 4
x
3
2.5
2
fY (y)
1.5
0.5
0
−4 −3 −2 −1 0 1 2 3 4
y
Ejemplo 4.7. Genere una señal aleatoria que tenga una f.d.p.
{
1 −t/3
3e t≥0
fT (t) =
0 c.c.
Se puede vericar que FT (u) es invertible en el rango u = [0, 1] lo que es una condi-
ción indispensable para poder emplear la ecuación anterior. Entonces, la inversa de
la f.d.p. es
1
u = 1 − e−t/3 ⇒ t = − log(1 − u)
3
CAPÍTULO 4. SEÑALES ALEATORIAS 135
u = rand(100000,1);
t = -3*log(1-u);
dx = 0.1; %Graca la f.d.p. experimental
[h,xval] = hist(t, -2:dx:20);
plot(xval,h/(length(t)*dx));
t = 0:dx:20; %Graca la f.d.p. teórica
ft = 1/3*exp(-t/3);
hold on; plot(t, ft,'r');
fX1 X2 ...Xn (x1 , x2 , ... xn ) = fX1 (x1 )fX2 (x2 )...fXn (xn )
136 4.1. PROBABILIDADES
Para el caso especíco de una variable aleatoria bidimensional, la E[XY ] se denomina corre-
lación cruzada
Aplicando las propiedaes del operador esperanza se encuentra la siguiente relación entre la
varianza y la covarianza:
La covarianza y la correlación cruzada son cantidades que permiten comparar dos variables
aleatorias con el n de establecer su grado de dependencia y su relación. Se dice que dos
eventos no están correlacionados o que dos variables aleatorias no son correlacionadas cuando
la covarianza es nula cov[XY ] = 0 o lo que es lo mismo, sí la correlación cruzada es igual a
cor[XY ] = µx µy .
La no correlación de dos variables aleatorias no necesariamente implica independencia, pero
lo contrario si es cierto, es decir, dos eventos independentes, regidos por las variables aleatorias
X y Y, no estarán correlacionados. La única excepción a la regla son las variables aleatorias
gausianas, en las cuales la no correlación de dos variables aleatorias implica necesarimente
independencia.
En síntesis, las variables aleatorias independientes son siempre no correlacionas, pero las
variables aleatorias dependientes pueden ser correlacionadas o no correlacionadas.
Por otra parte, se dice que dos variables aleatorias son ortogonales entre sí, cuando su corre-
lación cruzada se anula (cor[XY ] = 0). Por consiguiente, dos variables aleatorias ortogonales ,
serán también no correlacionadas solamente cuando tengan media cero.
Del análisis anterior se encuentra que, para efectos de comparación de dos variables alea-
torias, la medida que mejor lo describe es la covarianza, cuyo valor mínimo (cero) indica la
no existencia de correlación alguna entre las variables aleatorias, pero en el caso de existir
correlación, esta cantidad no permite conocer con precisión en que proporción lo están. Una
cantidad que mejor describe el grado de relación entre dos variables aleatorias es el coeciente
de correlación ρxy , que resulta de la normalización de la covarianza por su valor máximo, el
cual es máx {cov[XY ]} = σx σy :
cov[XY ]
ρxy = (4.32)
σx σy
De esta forma, el coeciente de correlación es una magnitud en el rango −1 ≤ ρxy ≤ 1,
donde ρxy = 0, indica que las variables no están correlacionas, y si ρxy = ±1, existe una alta
correlación entre ellas, lo cual permite expresar la variable aleatoria Y por medio de una relación
de primer orden del tipo Y = aX + b, con a y b constantes.
La correlación tiene también una fuerte inuencia cuando se analiza la varianza de la com-
binación de dos o más variables aleatorias. Veamos algunos ejemplos:
P(x)
(a)
t1 t2 t3 t4 t5 t7 t
x
X1(t)
(b) t
X2(t)
(c)
t
X3(t)
(d) t
Esta notación indica que en el instante de tiempo ti la amplitud de la señal está regida por
una variable aleatoria xi .
138 4.3. PROPIEDADES DE LAS SEÑALES ALEATORIAS
Dado a que la amplitud de la señal aleatoria en un instante de tiempo está condicionada a una
variable aleatoria, esta descripción matemática indica que para un proceso aleatorio, la amplitud
de la señal puede tomar diferentes valores en un mismo instante de tiempo. Esto suena confuso,
pero puede entenderse mejor al analizar la siguiente situación. Supóngase que se construyen
varios generadores de señales aleatorias, todos ellos empleando el mismo circuito e igual valor
de los componentes. Si todos los generadores se encienden y se visualizan simúltaneamente las
señales que entrega cada uno de ellos, se encuentra que, por las características aleatorias de cada
generador, la forma de todas las señales es diferente aunque hayan sido generadas por el mismo
tipo de circuito. Esta situación es mostrada en las Figuras 4.12b-d. Cada una de las señales
aleatorias que entrega un generador en particular se denomina función muestral o realización
de un proceso aleatorio, y el conjunto de todas las señales aleatorias, un ensamble aleatorio.
Esta representación permite entender más fácilmente las propiedades que se describen en las
siguientes secciones.
∫ ∞
mX (t0 ) = E[X(t0 )] = xfX (t0 )dx (4.34)
−∞
El valor medio de una señal se puede interpretar entonces en términos de que toda señal
se puede describir por medio de la suma de una componente determinística xdeterministica (t) y
una aleatoria (ruido) a(t):
∫ ∞ ∫ ∞
RXX (t1 , t2 ) = E[X(t1 )X(t2 )] = x1 x2 fX (x1 x2 ; t1 t2 )dx1 dx2 (4.36)
−∞ −∞
La doble integral surge como consecuencia de que para el instante de tiempo t1 la amplitud
de la señal X(t1 ) está ligada a una variable aleatoria x1 y en el instante t2 lo está a la variable
aleatoria x2 , de tal forma que la función de densidad de probabilidad multimensional que
compone el proceso se resume, para el cálculo de la autocorrelación, en una variable aleatoria
bidimensional que involucra únicamente las variables aleatorias en los instantes t1 y t2 .
De la denición anterior se deriva que, la función de autocorrelación permite medir la velo-
cidad con que cambia una señal aleatoria, o lo que es equivalente, está ligada con el contenido
frecuencial de la señal. Por ejemplo, si una señal aleatoria presenta cambios lentos (Figura
4.13a) o lo que es equivalente, componentes de baja frecuencia, es de esperarse que la función
de autocorrelación evaluada en los instantes de tiempo t y t+τ tome valores altos para τ
grande, pues existe una alta similitud o dependencia para las amplitudes de la señal X(t) y
X(t + τ ). Es decir, RXX (t, t + τ ) es una función ancha muy dispersa en el tiempo (Figura
4.13c). Por otra parte, para un proceso aleatorio que cambia rápidamente (Figura 4.13b), la
función de autocorrelación, tomando el mismo valor de τ del ejemplo anterior, arroja un valor
más pequeño que indica la existencia de poca dependencia o similitud para las amplitudes de
la señal en estos dos instantes de tiempo. Es de esperarse entonces, en procesos que cambian
rápidamente, encontar una función de autocorrelación angosta (Figura 4.13d).
Una señal aleatoria continua, por más aleatoria que sea, debe garantizar una continuidad en
su forma de onda, es decir, no deben existir cambios abrutos en la amplitud de la señal aleatoria
para dos instantes de tiempo t y t + dt. Por consiguiente, la amplitud de la señal aleatoria en
un instante de tiempo dado debe obligatoriamente guardar una dependencia con su instante o
instantes de tiempo anteriores, lo que se traduce en que un proceso aleatorio tiene ligada una
memoria. Una larga memoria implica entonces la existencia de una alta dependencia entre la
amplitud de la señal en un instante de tiempo y valores muy lejanos del proceso aleatorio, lo
cual es el caso de los procesos que varían lentamente. Es así como, el ancho de la función de
autocorrelación brinda información sobre la longitud de la memoria de un proceso aleatorio.
X1(t) X2(t)
t t
(a) (b)
RX1X1(t,t+ ) RX1X1(t,t+ )
t t
(c) (d)
Figura 4.13: Realizaciones de dos procesos aleatorios con variaciones lentas (a) y rápidas (b), y
sus respectivas funciones de autocorrelación (c) y (d).
140 4.4. PROCESOS ESTACIONARIOS
RX (τ ) = RX (−τ ) (4.39)
Por su parte, se dice que el proceso es estacionario en el sentido amplio cuando, aunque
estando compuesto por variables aleatorias diferentes en cada instante de tiempo, se cumplen
únicamente dos propiedades estadísticas: el tener media constante y la autocorrelación depender
de la separación entre los instantes de tiempo τ = t1 − t2 .
Por otra parte, para los procesos débilmente estacionarios, solamente es necesario garantizar
que la señal aleatoria tenga un valor medio mX (t) = µx y varianza var[x(t)] = σx constante.
El hecho que un proceso sea estrictamente estacionario garantiza que la media y varianza
sea constante, y que la función de autocorrelación dependa de la separación en el tiempo, sin
embargo, lo contrario no es cierto.
Sí mX (t) es una función periódica mX (t) = mX (t + kT0 ), con T0 el período de la media, se
dice que el proceso es cicloestacionario .
Para un proceso cicloestacionario, RXX también depende de la separación entre los instantes
de tiempo, pero es una función periódica dependiente de éste:
donde PX es la potencia de la señal. Dado que las señales aleatorias requieren un valor de la
varianza diferente de cero, éstas siempre son señales de potencia.
CAPÍTULO 4. SEÑALES ALEATORIAS 141
∫ T /2
1
µx = lı́m X(t)dt (4.42)
T →∞ T −T /2
∫ T /2
1
Rx (τ ) = lı́m X(t)X(t + τ )dt (4.43)
T →∞ T −T /2
Estas características son explotadas por programas computacionales, entre ellos Matlab,
pues indican que el valor medio y la función de autocorrelación de un proceso aleatorio puede
ser determinado con una única realización del proceso y empleando un cálculo que involucra
exclusivamente las amplitudes de dicha realización. A lo largo de este capítulo se presentarán di-
ferentes ejemplos que hacen uso de Matlab para demostrar varias características de los procesos
aleatorios.
[∫ ∞ ] [∫ ∞ ]
EX = E 2
X (t)dt = E RX (t, t)dt → ∞ (4.44)
−∞ −∞
[ ∫ ] ∫
T /2 T /2
1 2 1
PX = E lı́m X (t)dt = lı́m RX (t, t)dt (4.45)
T →∞ T −T /2 T →∞ T −T /2
La tendencia a innito de la energía de la señal aleatoria (ec. 4.44) se debe a que éstas
siempre son señales de potencia, en cuanto a que si fueran de energía estarían acotadas en el
tiempo, lo cual implica que para ciertos instantes de tiempo, donde la señal toma el valor de
la amplitud igual a cero, sería predecible el valor de la amplitud de la señal, en otras palabras,
habría un comportamiento determinístico de la señal.
Finalmente, para el caso especíco de las señales estacionarias, se tiene que la potencia de
la señal es equivalente a la amplitud que toma la función de autocorrelación en τ = 0:
142 4.6. POTENCIA Y ENERGÍA DE UNA SEÑAL ALEATORIA
PX = RX (0) (4.46)
En la práctica no es fácil calcular (4.47) por lo cual se recurre a la relación que existe
entre la densidad espectral de potencia y la autocorrelación (Capítulo 2). En general, para
cualquier proceso estocástico, la densidad espectral de potencia se calcula a través del teorema
de Wiener-Khinchin :
[ ∫ ]
T /2
1
SX (f ) = F lı́m RX (t + τ, t)dt (4.48)
T →∞ T −T /2
SX (f ) = F {RX (τ )} (4.49)
{ }
SX (f ) = F RX (τ ) (4.50)
∫ T0 /2
1
RX (τ ) = RX (t + τ, t)dt (4.51)
T0 −T0 /2
Ejemplo 4.8. Suponga que tiene una señal aleatoria dada por el modelo: Y (t) =
A cos(2πf0 t + Θ) donde Θ es una variable aleatoria que puede tomar cualquier
valor entre 0..,2π con igual probabilidad. Encontrar para esta señal su valor medio,
CAPÍTULO 4. SEÑALES ALEATORIAS 143
{ 1
2π 0 ≤ θ ≤ 2π
Θ(θ) =
0 c.c.
Ahora, tenemos que su valor medio es constante e independiente de t.
∫ 2π
1
mY (t) = E[Y (t)] = A cos(2πf0 t + θ) dθ = 0
0 2π
Por su parte la función de autocorrelación será:
donde el último paso se justica en que cos (2πf0 (t1 − t2 )) es una función deter-
minística independiente de la variable aleatoria Θ y E [cos Θ] = 0 y E [sin Θ] = 0.
Además, como la función de autocorrelación depende de la separación en el tiempo
t1 − t2 = τ ,
A2
RY (τ ) = cos (2πf0 τ )
2
tenemos que el proceso es estacionario, en virtud de que su media es constante. Por
lo anterior, la potencia de la señal será:
A2
PX = RY (0) =
2
y su densidad espectral de potencia (Figura 4.14):
{ }
A2
SY (f ) = F {RY (τ )} = F 2 cos (2πf0 τ ) =
A2 A2
= 4 δ(f − f0 ) + 4 δ(f + f0 )
Observe que esta es la misma densidad espectral de potencia de una señal coseno
determinística. Esta similitud se debe a que el corrimiento de la fase de la señal no
produce un cambio en la densidad espectral de potencia.
Sx(f)
2
A /4
0 f
-f c fc
1
∫ T0 /2
RY (τ ) = T0 −T0 /2 RY (t + τ, t)dt
1
∫ T0 /2 { 1 }
= T0 −T0 /2 2 cos (4πf0 t + 2πf0 τ ) + 12 cos (2πf0 τ ) RX (τ )dt
= 21 cos (2πf0 τ ) RX (τ )
por lo tanto,
{ } { }
SY (f ) = F RY (τ ) = F 12 cos (2πf0 τ ) RX (τ )
= 12 F {cos (2πf0 τ )} ⋆ F {RX (τ )}
= 4 {δ(f − f0 ) + δ(f + f0 )} ⋆ SX (f )
1
= 14 SX (f − f0 ) + 14 SX (f + f0 )
cuyo resultado es idéntico al estudiado anteriormente para el modulador AM DSB
SC (Figura 4.15).
CAPÍTULO 4. SEÑALES ALEATORIAS 145
Sx(f)
(a) A
f
-W 0 W
Sy(f)
A/4
(b)
-f c-W -f c -f c+W 0 f c -W f c +W f
fc
µX = 0 (4.52)
kT0
RX (τ ) = δ(τ ) (4.53)
2
kT0
SX (f ) = (4.54)
2
∫ ∞
PX = SX (f )df → ∞ (4.55)
−∞
kT0
var[a(t)] = σa2 = (4.56)
2
Sx(f)
kT/2
0 f
( )
exp − 12 (x − E(x))T C−1 (x − E(x))
fX1 ...Xn (x1 , ... xn ; t1 , ... tn ) = (4.57)
(2π)n/2 | C |1/2
donde x = (x1 x2 ... xn ), E[x] = (µ1 µ2 ... µn ) el vector de medias, | C |el determinante de la
matriz C, denominada matriz de covarianza
cov(t1 , t1 ) cov(t1 , t2 ) ... cov(t1 , tn )
cov(t2 , t1 ) cov(t2 , t2 ) cov(t2 , tn )
C=
(4.58)
.... ... ...
cov(tn , t1 ) cov(tn , t2 ) cov(tn , tn )
2
Nótese que los elementos de la diagonal de la matriz son las varianzas (cov(t1 , t1 ) = σ1 ,
2
cov(t2 , t2 ) = σ2 , etc.) de cada una de las variables aleatorias que componen el proceso. Si las
diferentes variables aleatorias que componen el proceso son independientes entre sí, la matriz
de covarianza toma una forma diagonal.
∫ ∞
µY = µX h(t)dt (4.59)
−∞
De las ecuaciones (4.59) y (4.60) se deduce que sí a un sistema LTI ingresa una señal
estacionaria, la señal de salida será también estacionaria.
Por su parte, el término RXY (4.61) se denomina correlación cruzada y mide el grado de
parecido y relación entre las señales X y Y. Para señales estacionarias RXY depende de la
separación en el tiempo τ, pero para cualquier señal aleatoria será:
por lo tanto,
CAPÍTULO 4. SEÑALES ALEATORIAS 147
RXY ̸= RY X (4.63)
Al igual que ocurría con la correlación y covarianza de las variables aleatorias, la correlación
cruzada permite medir el grado de dependencia entre dos procesos aleatorios. Por lo tanto, sí
dos procesos aleatorios son independientes entre sí, la correlación cruzada será igual al producto
de las medias de ambos procesos RXY = µx µy , y sí los procesos son ortogonales, RXY = 0.
Esta última condición se presenta también cuando los dos procesos son independientes y tienen
media cero. Debe recordarse también, que el hecho de que la correlación cruzada sea cero no
garantiza que los procesos sean independientes.
Otras relaciones importantes para sistemas LTI y señales aleatorias son:
∫∞
Como H(f ) = F {h(t)} ⇒ H(0) = −∞
h(t)dt, por lo que:
µY = µX H(0) (4.66)
lo cual era de esperarse, ya que el valor medio de la señal esta relacionada con su nivel de
DC, cuya contribución en la señal de salida está dada por el término f = 0 de la respuesta
en frecuencia.
2
SY (f ) = SX (f ) |H(f )| (4.67)
∗
SY X (f ) = SXY (f ) = SX (f )H(f ) (4.69)
H*(f) S xy(f)
S x(f)
H(f) S yx(f)
2
|H(f)| S y(f)
y(t)
x(t)
d/dt
Retardo T
Figura 4.18:
d
{x(t) + x(t − T )}
y(t) =
dt
y para su respuesta en frecuencia H(f ), calcularemos la transformada de Fourier de
la ecuación anterior, encontrando que:
Y (f ) { }
H(f ) = = j2πf 1 + e−j2πf T
X(f )
por lo que
{ }2
SY (f ) = SX (f ) | H(f ) |2 = SX (f ) j2πf 1 + e−j2πf T
2
= SX (f ) |2πf {j[1 + cos(2πf T )] + sin(2πf T )}|
= 2(2πf ) {1 + cos(2πf T )} SX (f )
2
{ }
RY (τ ) = F −1 {SY (f )} = 2RX (τ ) ⋆ F −1 (2πf )2 {1 + cos(2πf T )}
2
−1
= −2RX (τ ) ⋆ dτ d
2F {1 + cos(2πf T )}
2 { }
= −2RX (τ ) ⋆ dτ d
2 δ(τ ) + 1
2 δ(τ − T ) + 12 δ(τ + T )
d2 d2 d2
= −2 dτ 2 RX (τ ) − dτ 2 RX (τ − T ) − dτ 2 RX (τ + T )
CAPÍTULO 4. SEÑALES ALEATORIAS 149
%Retardo T = 50
T = 50;
%genera la señal ruido blanco de entrada
N = 2000; x = randn(1,N);
%genera el vector de salida. El retardo se modela
%a través de una E.D. H(z) = 1 + z^-T
bk = [1 zeros(1,T-2) 1];
y = di( lter(bk,1,x) );
%calcula la densidad espectral de potencia
[Syy,F] = psd(y,N,1e3);
plot(F,Syy);
80
60 T=50
Sy(f)
40
20
0
0 100 200 300 400 500
Frecuencia (Hz)
80
60
T=10
Sy(f)
40
20
0
0 100 200 300 400 500
Frecuencia (Hz)
Figura 4.19:
0 0
−50
−200
Φ(H(f)) (grados)
|H(f)|dB
−100
−400
−150
−600
−200
−250 −800
0 200 400 600 800 1000 0 200 400 600 800 1000
Frecuencia (Hz) Frecuencia (Hz)
50 0
Φ(Syx) (grados)
0
−200
|Syx(f)| dB
−50
−400
−100
−600
−150
−200 −800
0 200 400 600 800 1000 0 200 400 600 800 1000
Frecuencia (Hz) Frecuencia (Hz)
Figura 4.20:
Ry (τ ) = E[Y (t)Y (t + τ )]
= E[X1 (t)X1 (t + τ ) + X1 (t)X2 (t + τ ) + X2 (t)X2 (t + τ ) + X2 (t)X1 (t + τ )]
= R1 (τ ) + R12 (τ ) + R2 (τ ) + R21 (τ )
= R1 (τ ) + R2 (τ ) + R12 (τ ) + R12 (−τ ) (4.71)
De esta forma, el valor medio de la suma de dos procesos aleatorios será igual a la suma
de los valores medios individuales de cada uno de los procesos, sin embargo, la autocorrelación
involucra la suma de las autocorrelaciones individuales y la correlación cruzada entre ambos
procesos.
Espectralmente, tenemos que el equivalente de (4.71) es:
Sy (f ) = S1 (f ) + S2 (f ) + 2ℜe{S12 (f )} (4.72)
Ry (τ ) = R1 (τ ) + R2 (τ ) (4.73)
Sy (τ ) = S1 (τ ) + S2 (τ ) (4.74)
Ejemplo 4.12. Sea el circuito de la Figura 4.21a en el cual las fuentes de voltaje
X1 (t) y X2 (t) son señales aleatorias estacionarias. X1 (t) es un ruido blanco con
media cero y varianza unitaria, por su parte X2 (t), es una fuente con media cero y
función de autocorrelación Rx (τ ) = exp(−a |τ |). Encuentre el valor medio, función
152 4.9. PASO A TRAVÉS DE UN SISTEMA LTI
6 2
X1(t) 3 1
Y(t)
X2(t)
2
6 2
X1(t) 3 1 X2(t)
Y(t)
2
2
3 1
(a) (b) Y(t)
Figura 4.21:
1
H1 (f ) =
3(1 + j10πf )
1
H2 (f ) =
2(1 + j10πf )
µyc = µ1 + µ2 = 0
y por tratarse de fuentes independientes, la función de autocorrelación y densidad
espectral de potencia se calculan por medio de las ecs. (4.73) y (4.74):
CAPÍTULO 4. SEÑALES ALEATORIAS 153
Ry (τ ) = Ry1 (τ ) + Ry2 (τ )
Sy (τ ) = Sy1 (τ ) + Sy2 (τ )
Los términos Ry1 , Ry2 , Sy1 y Sy2 deben ser calculados. Para mayor facilidad
usaremos la notación espectral. De esta forma, haciendo uso de la ecuación para
el cálculo de la densidad espectral de potencia de la salida de un proceso LTI (ec.
4.67), tenemos que
2
1 1
Sy1 (f ) = Sx1 (f ) |H1 (f )| = =
2
3(1 + j10πf ) 9 + (30πf )2
2
2a 1
Sy2 (f ) = Sx2 (f ) |H2 (f )| = 2
2
a + (2πf )2 2(1 + j10πf )
2a 1
= ×
a2 + (2πf )2 4 + (20πf )2
Por consiguiente, la densidad espectral de potencia del proceso de salida es
1 2a 1
Sy (f ) = + 2 ×
9 + (30πf )2 a + (2πf )2 4 + (20πf )2
y al tomar su transformada inversa de Fourier encontramos la función de autoco-
rrelación
( τ ) ( τ )
1 1
Ry (τ ) = exp −3 + exp(−a |τ |) ⋆ exp −2
90 15 40 10
Ejemplo 4.13. Considere ahora el circuito de la Figura 4.22 en el cual la fuente
de voltaje X1 (t) es un ruido blanco con media cero y varianza unitaria, pero la
fuente X2 (t) se obtiene a partir de la fuente X1 (t), haciéndola pasar por un sistema
1
LTI con respuesta en frecuencia H(f ) =
1+j2πf . Encuentre el valor medio, función
de autocorrelación y densidad espectral de potencia de la señal que se obtiene en el
capacitor.
1/(1+jw) X2(t)
2
6 2
X1(t) 3 1
Figura 4.22:
Rx1 (τ ) = δ(τ ) y Sx1 (f ) = 1; por su parte para X2 (t), tenemos las siguientes carac-
terísticas al pasar la señal X1 (t) por el sistema LTI que dene la dependencia entre
fuentes (ecs. 4.66 y 4.67):
µ2 = µ1 H(0) = 0
2
1 1
Sx2 (f ) = Sx1 (f ) |H(f )| = =
2
1 + j2πf 1 + (2πf )2
Por el principio de superposición, el voltaje de salida en el capacitor es igual a
la suma de la contribución debida a las fuentes X1 (t) y X2 (t) por separado, deno-
tadas como Y1 (t) y Y2 (t). Aplicando un desarrollo similiar al del ejemplo anterior se
encuentran las siguientes expresiones para cada una de las salidas:
1
H1 (f ) =
3(1 + j10πf )
1
H2 (f ) =
2(1 + j10πf )
Así mismo, el valor medio del proceso de salida resulta ser igual a
µyc = µ1 + µ2 = 0
pero por tratarse de fuentes dependientes, la densidad espectral de potencia se
calcula por medio de la ec. (4.72):
2 1
Sy1 (f ) = Sx1 (f ) |H1 (f )| =
9 + (30πf )2
2
1 1
Sy2 (f ) = Sx2 (f ) |H2 (f )| =
2
1 + (2πf )2 2(1 + 10πf )
1 1
= ×
1 + (2πf )2 4 + (20πf )2
Sy1y2 (f ) = F {Ry1y2 (τ )}
= F {E [Y1 (t)Y2 (t + τ )]}
= F {E [X1 (t) ⋆ h1 (t) × X2 (t + τ ) ⋆ h2 (t + τ )]}
{ [∫ ∞ ∫ ∞ ]}
= F E X1 (t − α)h1 (α)dα × X2 (t + τ − β)h2 (β)dβ
−∞ −∞
{ [∫ ∞ ∫ ∞ ]}
= F E h1 (α)h2 (β)X1 (t − α)X2 (t + τ − β)dαdβ
−∞ −∞
Dado que el operador esperanza y la integral son lineales, los podemos inter-
cambiar, y como las respuestas al impulso son funciones determinísticas, la ecuación
anterior se puede reescribir como
{∫ ∞ ∫ ∞ }
Sy1y2 (f ) = F h1 (α)h2 (β)E [X1 (t − α)X2 (t + τ − β)] dαdβ
−∞ −∞
{∫ ∞ ∫ ∞ }
= F h1 (α)h2 (β)Rx1x2 (τ + α − β)dαdβ
−∞ −∞
{∫ ∞ ∫ ∞ }
= F h1 (α) h2 (β)Rx1x2 (τ + α − β)dβdα
−∞ −∞
{∫ ∞ }
= F h1 (α) [h2 (τ + α) ⋆ Rx1x2 (τ + α)] dα
−∞
= F {h1 (−τ ) ⋆ h2 (τ ) ⋆ Rx1x2 (τ )}
= H1∗ (f )H2 (f )Sx1x2 (f )
Finalmente para el cálculo de la densidad espectral de potencia cruzada entre las
fuentes, emplearemos (4.69) dado a que la fuente X2 (t) se obtiene como resultado
de pasar la señal de salida de la fuente X1 (t) por un sistema LTI. Tenemos entonces
que,
Sx1x2 (f ) = Sx1 (f )H ∗ (f )
que sustuido en la ecuación anterior nos conduce a:
1 1 1 1
Sy (f ) = + × +
9 + (30πf )2 1 + (2πf )2 4 + (20πf )2 3[1 + (10πf )2 ][1 + (2πf )2 ]
156 4.10. PROCESOS ESTACIONARIOS Y FILTROS
Cuando la señal X(t) depende del ruido blanco exclusivamente, es decir de la señal de
entrada a(t) y sus valores anteriores o lo que es lo mismo, una combinación lineal de ruidos
blancos, el sistema es un media móvil (MA). Para el sistema autoregresivo (AR), la señal X(t)
depende del valor del ruido blanco actual (entrada actual) y los valores previos de X(t). El
proceso ARMA entonces, dependerá tanto de las entradas como de las salidas pasadas. En
general, los procesos MA, AR, ARMA son procesos estocásticos con memoria. Así mismo, el
ltro blanqueador de un proceso AR es un MA y viceversa.
Para determinar los ltros se utilizan dos funciones, la función de autocorrelación normali-
zada y la autocorrelación parcial.
En (4.32) se denió el coeciente de correlación ρXY como la covarianza entre las dos señales
sobre el valor máximo de la covarianza, es decir, ρXY = cov[XY ]
σx σy . Cuando la señal X y Y , es
la misma, el coeciente de correlación se transforma entonces en la función de autocorrelación
normalizada, denida como:
γXX (k)
ρX (k) = (4.75)
γXX (0)
siendo γXX (k) la función de autocovarianza, γXX (0) el valor máximo de la autocovarianza y es
, por lo que −1 ≤ ρX (k) ≤ 1. Al igual que la
2
igual a la varianza de X , γXX (0) = var[X] = σX
covarianza, la autocovarianza, se calcula entonces como
donde k es la separación en el tiempo que asumiremos entero por tratarse de señales discretas.
Debe recordarse que existe una relación entre la correlación cruzada cor[XY ] y la covarianza
de dos variables aleatorias cov[XY ], la cual fue establecida en (4.31), de tal forma que la relación
que existe entre la función de autocorrelación RX (τ ) y la función de correlación normalizada
será entonces,
RX (k) − µ2x
ρX (k) = (4.77)
RX (0)
Por otra parte, la autocorrelación parcial ϕkk , mide el grado de relación entre dos instantes
de tiempo de la señal aleatoria pero quitando las combinaciones lineales intermedias. En las
Figuras 4.24-4.26 se muestran las formas de ρk y ϕkk para los diferentes ltros.
La autocorrelación parcial ϕkk se calcula por medio de:
CAPÍTULO 4. SEÑALES ALEATORIAS 157
ρ φ
k kk
0 0
q o´
φ
kk
MA(q)
0 0 p
o´
ρ
k
AR(p)
ϕ11 = ρ1
1 ρ1
ρ1 ρ2 ρ − ρ21
ϕ22 = = 2
1 ρ1 1 − ρ21
ρ1 1
1 ρ1 ρ1
ρ1 1 ρ2
ρ2 ρ1 ρ3
ϕ33 =
1 ρ1 ρ1
ρ1 1 ρ1
ρ2 ρ1 1
1 ρ1 ρ2 ... ρk−2 ρ1
ρ1 1 ρ ... ρk−3 ρ2
1
: : : : : :
ρk−1 ρk−2 ρk−3 ... ρ1 ρk
ϕkk = (4.78)
1 ρ1 ρ2 ... ρk−2 ρk−1
ρ1 1 ρ1 ... ρk−3 ρk−2
: : : : : :
ρk−1 ρk−2 ρk−3 ... ρ1 1
158 4.10. PROCESOS ESTACIONARIOS Y FILTROS
ρ siguen patron
φ
siguen patron
k exponencial o senoidal kk exponencial o senoidal
1
0
0
q muestras p muestras
desordenadas ARMA(p,q) desordenadas
Es importante resaltar que para los ltros MA, la autocorrelación normalizada exhibe un
conjunto de muestras nitas, las cuales determinan el orden del ltro, y la autocorrelación
parcial es una exponencial o senoidal amortiguada (Figura 4.24).
Para un AR, el orden lo indica la función de autocorrelación parcial y es la autocorrelación
normalizada la que muestra el patrón exponencial decreciente (Figura 4.25).
Finalmente, para un ARMA, tanto la autocorrelación normalizada como la autocorrela-
ción parcial son funciones decrecientes, pero en este caso, el orden está dado por las primeras
muestras que no siguen el patrón (Figura 4.26).
Los modelos en ecuación en diferencias son:
Autoregresivo (AR):
ARMA:
Dado que el ruido blanco a(t) es la entrada al ltro coloreador, y X(t) la salida de dicho sistema,
tenemos entonces que, el ltro MA es exactamente el sistema FIR descrito en el Capítulo 1,
y los AR y ARMA, sistemas IIR. De esta forma, el sistema MA siempre será estable y de
memoria nita y los AR y ARMA de memoria innita. Así mismo, el polinomio θi corresponde
a la respuesta al impulso del sistema,
lo que muestra la utilidad de los ruidos blancos para la identicación de sistemas LTI.
Para determinar otras propiedades de dichos sistemas calculemos la transformada z de (4.81),
obteniendo entonces la siguiente función de transferencia:
X(z) 1 − θ1 z −1 − θ2 z −2 − ... − θq z −q
H(z) = = (4.83)
A(z) 1 − ϕ1 z −1 − ϕ2 z −2 − ... − ϕp z −p
CAPÍTULO 4. SEÑALES ALEATORIAS 159
Así que el polinomio formado por los coecientes θi son los ceros del sistema y las raíces
del polinomio ϕi los polos del sistema, por lo que un sistema MA es un sistema exclusivamente
solo ceros, el AR solo polos y el ARMA está regido por polos y ceros.
En estadística se dice que el sistema AR es estacionario si las raíces del polinomio θi están
2
dentro del círculo unitario , lo cual está ligado al hecho de que el sistema sea estable. Y para un
sistema MA se dice que es invertible si las raíces del polinomio ϕi están por dentro del círculo
unitario, esto garantiza que el ltro blanqueador (el cual es un AR) sea estable.
1.5
0.5
ρk
0
−0.5
−1
−2 0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30
k
1
0.5
φkk
−0.5
−1
−2 0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30
k
4.11. Problemas
1. Suponga que una señal ruido blanco, x(t), de media cero y varianza σx2 para a través de
un recticador de onda completa, es decir, y(t) = |x(t)|. Determine la función de densidad
de probabilidad del ruido de salida.
2. Suponga una señal aleatoria X(t) denida como X(t) = Xcos(ω0 t) + Y sen(ω0 t), donde
X y Y son dos variables aleatorias gausianas independientes de media cero y variable σ2 .
Determine:
0 0
Φ(Horiginal(f)) (grados)
−50
−200
dB
(f)|
−100
original
−400
|H −150
−600
−200
−250 −800
0 200 400 600 800 1000 0 200 400 600 800 1000
Frecuencia (Hz) Frecuencia (Hz)
20 0
Φ(Hestimado(f)) (grados)
0
dB
(f)|
−200
−20
estimado
−40
−400
|H
−60
−80 −600
0 200 400 600 800 1000 0 200 400 600 800 1000
Frecuencia (Hz) Frecuencia (Hz)
Figura 4.28:
a) Un sistema que retarda la señal ∆ unidades de tiempo, es decir, Y (t) = X(t − ∆).
b) Un sistema con respuesta al impulso h(t) = 1/t.
c) Un sistema descrito por la ecuación diferencial
d
dt Y (t) + Y (t) = d
dt X(t) − X(t)
∫ t+T
d) Un promediador dado por Y (t) = 1
2T t−T
X(τ )dτ , con T una constante.
−α|t|
4. Suponga que X(t)
es un proceso estacionario con RX (t) = e ,α > 0. Esta señal pasa
−βt
a través de un sistema LTI con h(t) = e u(t), β > 0. Determine la densidad espectral
de potencia de la señal de salida. Trate los casos α ̸= β y α=β por separado.
5. Una aplicación típica del análisis de sistemas usando señales aleatorias lo constituye el
diseño de sistemas adaptivos con los cuales es posible eliminar el ruido de fondo. Suponga
que una señal deseada X(t) está contaminada con ruido aditivo, N (t), es decir, la señal
que se captura esY (t) = X(t) + N (t). Si se conocen RX (τ ), RN (τ ) y RXN (τ ), es posible
diseñar un ltro que permita eliminar el ruido N (t) pasando la señal capturada Y (t)
por un ltro LTI de respuesta al impulso h(t), es decir, es posible obtener una versión
aproximada de X̂(t) por medio de X̂(t) = Y (t) ⋆ h(t).
{ }2
b) Muestre que el sistema LTI que minimiza E X(t) − X̂(t) tiene una función de
transferencia
SX (f ) + SXN (f )
H(f ) =
SX (f ) + SN (f ) + 2ℜe{SXN (f )}
c) Asuma que X(t) y N (t) son independientes, y que N (t) es un ruido blanco de media
cero con densidad espectral de potencia N0 /2. Encuentre el valor óptimo de H(f )
que permite reducir dicho ruido.
CAPÍTULO 5
REFERENCIAS
163
164
ÍNDICE ALFABÉTICO
165
166 ÍNDICE ALFABÉTICO
ensamble
aleatorio, 138 gausiana multivariada, 146
espacio
histograma, 128
de señales, 59
muestral, 118
IIR
ortogonal, 60
ltro, 38
ortonormal, 60
impulso
vectorial, 57
respuesta al, 43
espectro
unitario, 22
de energía, 95
independencia
de potencia, 96
estadística, 119
discreto, 65
fase, 65
MA, 156
magnitud, 65
media móvil, 156
esperanza matemática, 123
momentos centrales, 124
eventos
muestreo
excluyentes, 119
frecuencia, 7
independientes, 119
período, 7
práctico, 102
FFT, 107, 112
teorema del, 19
decimación en el tiempo, 113
multiplicadores de frecuencia, 78
ltro
ARMA, 38 onditas, 62
autorregresivo, 38
media móvil, 37 Parseval
FIR relación de, 73, 88
ltro, 37 período
Fourier fundamental, 17
serie, 64 muestreo, 7
transformada de potencia
tiempo continuo, 80 en el innito, 12
ÍNDICE ALFABÉTICO 167
Bayes, 120
del muestreo, 8, 99
máxima transferencia de potencia, 97
muestreo, 101
Pitágoras, 58
probabilidad total, 120
Rayleigh, 88
Wiener-Khinchin, 142
transformada
discreta de Fourier, 107
Fourier
tiempo continuo, 80
tiempo discreto, 103
Laplace, 92
rápida de Fourier, 107, 112
wavelet, 62
Z, 104
valor
cuadrático medio, 123
medio, 123, 138
RMS, 80
variable aleatoria, 120
bernoulli, 124
binomial, 125
continua, 121
discreta, 121
gausiana, 125
mixta, 121
normal, 125
uniforme, 125
variables aleatorias
no correlacionadas, 136
ortogonales, 136
variables de estado, 40
varianza, 123
wavelet
madre, 62
transformada, 62