Está en la página 1de 16

Universidad de las Fuerzas Armadas - ESPE

Procesamiento Digital de Señales


NRC: 3444
Integrantes: Luis Alvarez, David Bravo, Ailyn Carrea

Tema: Señales y Sistemas en Tiempo Discreto


Introducción
Las señales se representan matemáticamente como funciones de una o más variables
independientes. Por ejemplo, una señal de voz se representa matemáticamente como una
función del tiempo, y una imagen fotográfica se representa como una función del brillo respecto
a dos variables espaciales. La variable independiente de la representación matemática de una
señal puede ser continua o discreta. Las señales en tiempo continuo se definen en un continuo
temporal y se representan por tanto con una variable independiente continua. Las señales en
tiempo continuo se denominan frecuentemente señales analógicas. Las señales en tiempo
discreto se definen en instantes discretos del tiempo y, por tanto, la variable independiente toma
valores discretos, es decir, los instantes discretos del tiempo se representan como secuencias
de números
La representación de las señales en tiempo discreto como secuencias y en ella se describen las
secuencias básicas como el impulso unidad, el escalón unidad y la exponencial compleja, que
tienen un papel central en la caracterización de los sistemas en tiempo discreto y en la
constitución de bloques para formar secuencias más generales.
Señales en Tiempo Discreto
Se representa matemáticamente como secuencias de números x, en los que el n-ésimo número
se indica como 𝑥 [𝑛] ; 𝑥 = {𝑥 [𝑛]} −∞ < 𝑛 < ∞ siendo 𝑛 un entero.
Surgen de muestrear una señal analógica (es decir, en tiempo continuo) 𝑥𝑎 (𝑡). En este caso, el
valor numérico del n-ésimo número de la secuencia es igual al valor de la señal
analógica, 𝑥𝑎 (𝑡). En el instante temporal 𝑛𝑇, es decir. x[n] = xa (nT ), −∞ < 𝑛 < ∞ .
La cantidad 𝑇 se denomina periodo de muestreo, y su inversa es la frecuencia de muestreo.
Aunque las secuencias no surgen siempre del muestreo de señales analógicas. Las señales en
tiempo discreto (es decir, las secuencias), se representan frecuentemente en forma gráfica.

Figura 1. Representación gráfica de una señal en tiempo discreto


La abscisa se dibuja como una línea continua 𝑥[𝑛] , la cual esta definida sólo para valores
enteros de n . El teorema de muestreo garantiza que la señal original se puede reconstruir con
la precisión que se desee a partir de la correspondiente secuencia de muestras si estas muestras
se toman con la suficiente frecuencia.
Cualquier secuenca puede ser expresda de esta forma

𝑥 [𝑛] = ∑ 𝑥 [𝑘 ]𝛿[𝑛 − 𝑘]
𝑘=−∞

Relación entre el escalón unidad y el impulso


𝑛

𝑢[𝑛] = ∑ 𝛿[𝑘]
𝑘=−∞

La forma general de una secuencia exponencial


𝑥 [𝑛] = 𝐴𝛼 𝑛
La secuencia oscila con una envolvente exponencial creciente s𝑖| 𝛼 | > 1 o con una
envolvente exponencial decreciente 𝑠𝑖 | 𝛼 | < 1. Considere, como un ejemplo simple, el caso
de 𝜔 0 = 𝜋 .
𝑆𝑖| 𝛼 | = 1 la secuencia tiene la forma
𝑥[𝑛] = |𝐴|𝑒𝑗( 𝜔 0𝑛 + 𝜑 ) = |𝐴|𝑐𝑜𝑠( 𝜔 0𝑛 + 𝜑 ) + 𝑗|𝐴|𝑠𝑒𝑛( 𝜔 0𝑛 + 𝜑 );
Sistemas en Tiempo Discreto
Un sistema en tiempo discreto se define matemáticamente como un operador que transforma
una secuencia de entrada con valores 𝑥 [𝑛] en una secuencia de salida con valores 𝑦[𝑛].Esto se
puede expresar así 𝑦[𝑛] = 𝑇{𝑥 [𝑛]} y se muestra gráficamente en la Figura 2. La representa una
fórmula para calcular los valores de la secuencia de salida a partir de los valores de la secuencia
de entrada.

Figura 2. Representación de un sistema en tiempo discreto,


es decir, de una transformación que convierte una secuencia
de entrada x[n] en una secuencia de salida única y[n].
Es importante tener en cuenta que en cada instante n puede depender de todo o parte de la
secuencia x.
• Sistemas Simples de utilidad

o Sistema de retardo ideal: Está definido por la ecuación


𝑦[𝑛] = 𝑥[𝑛 − 𝑛𝑑 ] , − ∞ < 𝑛 < ∞
El sistema de retardo ideal forma la salida desplazando la secuencia de entrada
𝑛𝑑 muestras a la derecha.
o Promediado móvil: Se define mediante la ecuación
𝑀2
1
𝑦[𝑛] = ∑ 𝑥[𝑛 − 𝑘]
𝑀1 + 𝑀2 + 1
𝑘=−𝑀1

1
= {𝑥[𝑛 + 𝑀1 ] + 𝑥 [𝑛 + 𝑀1 − 1]+..
𝑀1+𝑀2 +1
Este sistema calcula la n-ésima muestra de la secuencia de salida como el
promedio

Figura 3. Cálculo de un promedio móvil


• Sistemas sin memoria
Se dice que un sistema es sin memoria si la salida 𝑦[𝑛] para cualquier valor de n
depende sólo de la entrada 𝑥 [𝑛] en el mismo valor de 𝑛.

• Sistemas Lineales
La clase de los sistemas lineales está definida por el principio de superposición. Si 𝑦1 [𝑛]
e 𝑦2 [𝑛] son las respuestas de un sistema cuando 𝑥1 [𝑛]y 𝑥2 [𝑛]son las respectivas
entradas.
Propiedad de Aditividad.

𝑇{𝑥1 [𝑛] + 𝑥2 [𝑛]} = 𝑇{𝑥1 [𝑛]} + 𝑇{𝑥2 [𝑛]} = 𝑦1 [𝑛] + 𝑦2 [𝑛]

Propiedad de Homogeneidad o Escalado

𝑇{𝑎𝑥 [𝑛]} = 𝑎𝑇{𝑥 [𝑛]} = 𝑎𝑦[𝑛]}

Estas dos propiedades se pueden combinar en el principio de superposición

𝑇{𝑎𝑥1 [𝑛] + 𝑏𝑥2 [𝑛]} = 𝑎𝑇 {𝑥1 [𝑛]} + 𝑏𝑇{𝑥2 [𝑛]]}

Utilizando la definición del principio de superposición, podemos demostrar fácilmente


cuando un sistema es lineal.

• Sistemas Invariantes con el tiempo

Un sistema invariante con el tiempo es un sistema para el que un desplazamiento


temporal o retardo de la secuencia de entrada provoca el mismo desplazamiento o
retardo en la secuencia de salida. Concretamente, supongamos que un sistema
transforma una secuencia de entrada con valores 𝑥[𝑛]en una secuencia de salida con
valores 𝑦[𝑛]
Diremos que este sistema es invariante con el tiempo si, para todo 𝑛0 , la secuencia de
entrada de valores X1 [n] = x[n − n0 ]produce una secuencia de salida de valores
y1 [n] = y[n − n0 ].

o El Sistema compresor: Está definido por


𝑦[𝑛] = 𝑥[𝑀𝑛], −∞ < 𝑛 < ∞
En concreto, este sistema descarta 𝑀 − 1muestras de cada 𝑀 . Es decir, crea
una secuencia de salida seleccionando una muestra de cada M. Este sistema no
es invariante con el tiempo
• Causalidad

Se dice que un sistema es causal si para cualquier valor de 𝑛0 la secuencia de salida en


el índice 𝑛 = 𝑛0 depende sólo de los valores de la secuencia de entrada para 𝑛 ≤ 𝑛0 .
Esto implica que si 𝑥1 [𝑛] = 𝑥2 [𝑛] para 𝑛 ≤ 𝑛0 , entonces 𝑦1 [𝑛] = 𝑦2 [𝑛] para n≤n0. Es
decir, el sistema es no anticipativo.
En el siguiente ejemplo se presenta otro sistema no causal.
o Los sistemas de diferencia progresiva y regresiva: El sistema definido por la
relación
𝑦[𝑛] = 𝑥[𝑛 + 1] − 𝑥[𝑛]
Este sistema es no causal, ya que el valor actual de la salida depende de un valor
futuro de la entrada.
• Estabilidad

Un sistema es estable en el sentido de entrada acotada, salida acotada si y sólo si


cualquier secuencia acotada a su entrada produce una secuencia de salida acotada. Se
dice que la entrada 𝑥[𝑛] está acotada si existe un valor finito positivo fijo 𝐵𝑥
|𝑥 [𝑛]| ≤ 𝐵𝑥 < ∞, 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝑛.
La estabilidad requiere que, para cualquier entrada acotada, exista un valor finito
positivo fijo 𝐵𝑦 talque
|𝑦[𝑛]| ≤ 𝐵𝑦 < ∞, 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝑛.
Para que el sistema posea esa propiedad, debe cumplirse para todas las entradas. Por
ejemplo, un sistema inestable puede tener algunas entradas acotadas para las que la
salida esté acotada, pero para que el sistema tenga la propiedad de estabilidad, debe
cumplirse que, para todas las entradas acotadas, las salidas correspondientes están
acotadas

Sistemas Lineales e Invariantes con el tiempo


Una clase de sistemas en tiempo discreto importante es LTI. La clase de los sistemas lineales
está definida por el principio de superposición. Si la propiedad de linealidad se combina con la
representación general de una secuencia como una combinación lineal de impulsos retrasados,
se puede concluir que un sistema lineal queda completamente caracterizado por su respuesta al
impulso.
Concretamente, sea ℎ𝑘 [𝑛] la respuesta del sistema a la entrada 𝛿 [𝑛 − 𝑘], un impulso en 𝑛 =
𝑘.

𝒚[𝒏] = 𝑻 { ∑ 𝒌 = 𝒙[𝒌]𝜹 [𝒏 − 𝒌]},


𝒌=−∞

Aplicando el principio de superposición


∞ ∞

[𝒏] = 𝑻{ ∑ 𝒙[𝒌]𝑻{ 𝜹 [𝒏 − 𝒌]} = ∑ 𝒙[𝒌]𝒉𝒌 [𝒏],


𝒌=−∞ 𝒌=−∞

La propiedad de invarianza temporal implica que si h[n]es la respuesta a 𝛿 [𝑛], entonces la


respuesta a 𝛿 [𝑛 − 𝑘] 𝑒𝑠 ℎ[𝑛 − 𝑘].Con esta restricción adicional,

𝒚[𝒏] = ∑ 𝒙[𝒌]𝒉[𝒏 − 𝒌] , 𝒑𝒂𝒓𝒂 𝒕𝒐𝒅𝒐 𝒏.


𝒌=−∞

Como consecuencia, los sistemas lineales e invariantes con el tiempo están completamente
caracterizados por su respuesta al impulso ℎ[𝑛] en el sentido de que dadas las secuencias
𝑥[𝑛] 𝑦 ℎ[𝑛] para todo 𝑛, para calcularcualquiermuestrade la salida 𝑦[𝑛]. La Ecuación se
denomina comúnmente suma de convolución, y se representa mediante la notación
𝒚[𝒏] = 𝒙[𝒏] ∗ 𝒉[𝒏].
Consideremos: 𝑦[𝑛 − 𝑛0 ]

𝒚[𝒏 − 𝒏𝟎] = ∑ 𝒙[𝒌]𝒉[𝒏 − 𝒏𝟎 − 𝒌]


𝒌=−∞

𝒚[𝒏 − 𝒏𝟎] = 𝒙[𝒏] ∗ 𝒉[𝒏 − 𝒏𝟎 ]


La anterior interpretación resalta el hecho de que la suma de convolución es un resultado
directo de las propiedades de linealidad e invarianza temporal. Sin embargo, si observamos,
llegamos a una interpretación de particular utilidad computacional. Vista como una fórmula
para calcular un solo valor de la secuencia de salida
Dice que 𝑦[𝑛] (el n-ésimo valor de la salida) se obtiene multiplicándola secuencia de entrada
(expresada en función de k) por la secuencia cuyos valores son
𝒉[𝒏 − 𝒌], −∞ < 𝒌 < ∞
para cada valor fijo y después se suman todos los valores de los productos
𝒙[𝒌]𝒉[𝒏 − 𝒌]
La operación de convolución de dos secuencias
𝒚[𝒏], −∞ < 𝒏 < ∞.
La clave para realizar los cálculos y obtener 𝑦[𝑛] es saber cómo se forma la secuencia
𝒉[𝒏 − 𝒌], −∞ < 𝒌 < ∞,
para todos los valores de n de interés. Con este fin, es útil tener en cuenta que
𝒉[𝒏 − 𝒌] = 𝒉[−(𝒌 − 𝒏)

Figura 4. Representación de la salida LTI

Propiedades de los Sistemas Lineales e Invariantes con el tiempo


La respuesta impulsiva es una caracterización de las propiedades de un determinado sistema
lineal e invariante con el tiempo. Esto se debe a que todos los sistemas LTI pueden describirse
mediante la suma de convolución. Dichas propiedades generales de los sistemas LTI pueden
obtenerse considerando las propiedades de la operación de convolución. Un ejemplo donde se
evidencia lo mencionado es demostrando que la operación convolución es conmutativa:
𝑥[𝑛] ∗ ℎ[𝑛] = ℎ[𝑛] ∗ 𝑥[𝑛]
𝑠𝑖 𝑚 = 𝑛 − 𝑘
−∞ ∞

𝑦[𝑛] = ∑ 𝑥 [𝑛 − 𝑚]ℎ[𝑚] = ∑ ℎ[𝑚]𝑥 [𝑛 − 𝑚] = ℎ[𝑛] ∗ 𝑥[𝑛]


𝑚=∞ 𝑚=−∞
Al demostrar la propiedad conmutativa, se puede denotar que el orden
de las secuencias en la convolución no es relevante. Es decir, la salida
del sistema es la misma si se intercambian la entrada x[n] y respuesta
al impulso h[n]. Algunas propiedades adicionales que poseen los
sistemas LTI son:
• Propiedad Distributiva
𝑥[𝑛](ℎ1 [𝑛] + ℎ2 [𝑛]) = 𝑥[𝑛] ∗ ℎ1 [𝑛] + 𝑥 [𝑛] ∗ ℎ2 [𝑛]

• Propiedad asociativa Figura 5. Propiedad Distributiva


(a) Combinación en paralelo de sistemas
𝑦[𝑛] = (𝑥 [𝑛] ∗ ℎ1 [𝑛]) ∗ ℎ2 [𝑛] = 𝑥 [𝑛] ∗ (ℎ1 [𝑛] ∗ ℎ2 [𝑛]) lineales e invariantes con el tiempo. (b)
Un sistema equivalente.
• Propiedad conmutativa
𝑦[𝑛] = 𝑥[𝑛] ∗ (ℎ2 [𝑛] ∗ ℎ1 [𝑛]) = (𝑥 [𝑛] ∗ ℎ2 [𝑛]) ∗ ℎ1 [𝑛]
En el caso de tener una conexión en paralelo, y si los sistemas tienen la misma entrada se
obtiene que ℎ[𝑛] = ℎ1 [𝑛] + ℎ2 [𝑛]. Esto proviene de la propiedad distributiva. No obstante, en
el caso de ser entradas en cascada o serie, esto significa que son dos sistemas LTI con respuesta
al impulso global de:
ℎ[𝑛] = ℎ1 [𝑛] ∗ ℎ2 [𝑛] = ℎ2 [𝑛] ∗ ℎ1 [𝑛]
Figura 6. Conexión en cascada
(a) Combinación en cascada de sistemas lineales e invariantes con el tiempo.
(b) Cascada equivalente. (c) Un único sistema equivalente.
La restricción de linealidad e invarianza temporal definen una clase de sistemas con
propiedades especiales; en donde no se deben olvidar de analizar si el sistema es estable y
causal. Un sistema LTI son estables si y solo si la respuesta al impulso es absolutamente
sumable y se puede demostrar lo siguiente:

𝐵ℎ = ∑ |ℎ[𝑘 ]| < ∞
𝑘=−∞
∞ ∞

|𝑦[𝑛]| = | ∑ ℎ[𝑘 ]𝑥[𝑛 − 𝑘 ]| ≤ ∑ |ℎ [𝑘 ]||𝑥[𝑛 − 𝑘 ]|


𝑘=−∞ 𝑘=−∞

𝑆𝑖 𝑥 [𝑛]𝑒𝑠𝑡𝑎 𝑎𝑐𝑜𝑡𝑎𝑑𝑎, 𝑐𝑢𝑚𝑝𝑙𝑒:


|𝑥 [𝑛]| ≤ 𝐵𝑥

𝑆𝑖 𝐵𝑥 = |𝑥 [𝑛 − 𝑘 ]|
|𝑦[𝑛]| ≤ 𝐵𝑥 𝐵ℎ
Si y[n] se encuentra acotada, es necesario demostrar que es posible encontrar una entrada
acotada que produzca una salida no acotada (𝐵ℎ = ∞). Es decir:
ℎ ∗ [−𝑛]
, ℎ[𝑛] ≠ 0
[𝑛] = { |ℎ[𝑛]|
0 , ℎ[𝑛] = 0
Al cumplir las condiciones h[n]=0, n<0; este sistema cumple la condición de causalidad, y es
conveniente denominarlo secuencia causal, lo que significa que podrá ser la respuesta al
impulso de un sistema causal.
Tabla 1. Respuestas al impulso
RESPUESTAS AL IMPULSO
Retardo Ideal ℎ[𝑛] = 𝛿 [𝑛 − 𝑛𝑑 ],
𝑛𝑑 𝑢𝑛 𝑒𝑛𝑡𝑒𝑟𝑜 𝑝𝑜𝑠𝑖𝑡𝑖𝑣𝑜 𝑓𝑖𝑗𝑜
𝑀2
Promedio móvil
1
ℎ[𝑛] = = ∑ 𝛿[𝑛 − 𝑘 ]
𝑀1 + 𝑀2 + 1
𝑘=−𝑀1
1
, − 𝑀1 ≤ 𝑛 ≤ 𝑀2
= {𝑀1 + 𝑀2 + 1
0 𝑒𝑛 𝑒𝑙 𝑟𝑒𝑠𝑡𝑜
𝑛
Acumulador 1, 𝑛 ≥ 0,
ℎ[𝑛] = ∑ 𝛿 [𝑛] = { = 𝑢[𝑛]
0, 𝑛 < 0,
𝑘=−∞
Diferencia progresiva ℎ[𝑛] = 𝛿 [𝑛 + 1] − 𝛿[𝑛]
Diferencia regresiva ℎ[𝑛] = 𝛿 [𝑛] − 𝛿[𝑛 − 1]

Un sistema que posee una respuesta al impulso de duración finita (FIR) será siempre estable
mientras los valores de su respuesta al impulso sean de modulo finito. Si la respuesta al impulso
acumulador es de duración infinita, esta toma el nombre de respuesta al impulso de duración
infinita (IIR). De la tabla anterior, los sistemas acumuladores y de diferencia regresiva son
causales, y el de diferencia progresía es no causal.
La convolución de cualquier señal x[n] con un impulso desplazado se puede obtener
desplazando x[n] una cantidad igual al desplazamiento del impulso. Es importante recordar
que el retardo es una operación fundamental en la
implementación de sistemas lineales.
La combinación en cascada de un acumulador seguido por
un sistema de diferencia regresiva produce un sistema global
cuya respuesta al impulso es el propio impulso. En otras
palabras, la combinación en cascada será siempre igual a la Figura 7. Un acumulador en cascada con un
entrada ya que: sistema de diferencia regresiva.

𝑥[𝑛] ∗ 𝛿[𝑛] = 𝑥[𝑛]


Si un sistema lineal e invariante con el tiempo tiene una respuesta al impulso h[n], su sistema
inverso tendrá una respuesta al impulso ℎ𝑖 [𝑛] definida la siguiente relación:
ℎ[𝑛] ∗ ℎ𝑖 [𝑛] = ℎ𝑖 [𝑛] ∗ ℎ[𝑛] = 𝛿 [𝑛]
Los sistemas inversos son útiles en muchas situaciones en las que es necesario compensar los
efectos de un sistema lineal.

Ecuaciones en Diferencias Lineales con Coeficientes Constantes


Existen ciertos sistemas lineales e invariantes con el tiempo importantes que se encuentran
formados por los sistemas en los que la entrada y salida satisfacen una ecuación en diferencias
lineal con coeficientes constantes de orden N, de la forma:
𝑁 𝑀

∑ 𝑎𝑘 𝑦[𝑛 − 𝑘 ] = ∑ 𝑏𝑚 𝑏[𝑛 − 𝑚]
𝑘=0 𝑚=0

Las propiedades presentadas de los Sistemas Lineales e Invariantes con el tiempo son utilizadas
para obtener representaciones en forma de ecuación en diferencias para algunos sistemas LTI.

Figura 8. Diagrama de bloques de una ecuación en diferencias


recursiva que representa un acumulador

𝑦[𝑛] = 𝑥[𝑛] + 𝑦[𝑛 − 1]


La ecuación en diferencias presentada anteriormente permite tener una idea clara para
implementar el sistema acumulador. De acuerdo a la ecuación y la gráfica antes proyectada,
indican que, por cada valor de n, sumaremos el valor actual de entrada x[n] a la suma
previamente acumulada y[n-1].
Una ecuación en diferencias lineal con coeficientes constantes para sistemas en tiempo discreto
no proporciona una especificación única de la salida para una entrada determinada. Un caso
donde la entrada 𝑥𝑝 [𝑛] y se logra obtener una secuencia de salida 𝑦𝑝 [𝑛], es posible obtener la
siguiente salida, misma que es satisfecha por la misma entrada al sistema:
𝑦[𝑛] = 𝑦𝑝 [𝑛] + 𝑦ℎ [𝑛]
𝑦ℎ [𝑛] → 𝑐𝑢𝑎𝑙𝑞𝑢𝑖𝑒𝑟 𝑠𝑜𝑙𝑢𝑐𝑖ó𝑛 𝑝𝑎𝑟𝑎 𝑥[𝑛] = 0
𝑁

∑ 𝑎𝑘 𝑦[𝑛 − 𝑘 ] = 0
𝑘=0

La última ecuación obtenida se denomina ecuación en diferencias homogéneas e 𝑦ℎ [𝑛] es la


solución homogénea; este término es miembro de la familia de soluciones de la forma:
𝑁
𝑛
𝑦ℎ [𝑛] = ∑ 𝐴𝑚 𝑧𝑚
𝑚=1
𝑁

𝑑𝑜𝑛𝑑𝑒: 𝐴(𝑧) = ∑ 𝑎𝑘 𝑧 −𝑘
𝑘=0

Se debe tomar en cuenta que 𝑦ℎ [𝑛] posee N coeficientes indeterminados, se requiere de un


conjunto de N condiciones auxiliares para poder especificar de forma única y[n] para un x[n]
dado. Una forma de representar dichas condiciones se la puede hacer a través de una fórmula
de recurrencia:
𝑁 𝑀
𝑎𝑘 𝑏𝑘
𝑦[𝑛] = − ∑ 𝑦[𝑛 − 𝑘 ] + ∑ 𝑥 [𝑛 − 𝑘 ]
𝑎0 𝑎0
𝑘=1 𝑘=0

Al utilizar este procedimiento, se dice que y[n] se obtiene ‘recursivamente’. No obstante, para
poder generar valores de 𝑦[𝑛] para 𝑛 < −𝑁 se la pude encontrar mediante la siguiente forma:
𝑁−1 𝑀
𝑎𝑘 𝑏𝑘
𝑦[𝑛 − 𝑁] = − ∑ 𝑦[𝑛 − 𝑘 ] + ∑ 𝑥 [𝑛 − 𝑘 ]
𝑎𝑁 𝑎𝑁
𝑘=1 𝑘=0

Existe una única solución para aquellos sistemas que están caracterizados por una ecuación en
diferencias lineal con coeficientes constantes, siempre y cuando especifique que es LTI.
Además, la salida para una entrada determinada requiere de información adicional o
condiciones auxiliares. Las propiedades de linealidad, invarianza temporal y causalidad del
sistema dependen de las condiciones auxiliares.
Representación en el Dominio de la Frecuencia de Señales y Sistemas en Tiempo Discreto
Autofunciones de los sistemas lineales e invariantes con el tiempo
La propiedad de autofunción de las exponenciales complejas respecto a los sistemas en tiempo
discreto, en donde se puede demostrar que dada una secuencia de entrada 𝑥 [𝑛] = 𝑒 𝑗𝜔𝑛 para
−∞ < 𝑛 < ∞. Por lo tanto, la salida del sistema LTI con respuesta al impulso ℎ[𝑛] es
𝑦[𝑛] = 𝐻(𝑒 𝑗𝜔 )𝑒 𝑗𝜔𝑛
En donde

𝐻(𝑒 𝑗𝜔 ) = ∑ ℎ[𝑘 ] 𝑒 −𝑗𝜔𝑘


𝑘=−∞
𝑒 𝑗𝜔𝑛 → 𝑎𝑢𝑡𝑜𝑓𝑢𝑛𝑐𝑖ó𝑛 𝑑𝑒𝑙 𝑠𝑖𝑠𝑡𝑒𝑚𝑎
𝐻(𝑒 𝑗𝜔 ) → 𝑎𝑢𝑡𝑜𝑣𝑎𝑙𝑜𝑟 𝑎𝑠𝑜𝑐𝑖𝑎𝑑𝑜

El autovalor 𝐻(𝑒 𝑗𝜔 ) se denomina ‘respuesta en frecuencia del sistema’; puesto que es un


número complejo se o puede expresar en parte real e imaginaria o en amplitud y fase:
𝑗𝜔 )
𝐻(𝑒 𝑗𝜔 ) = 𝐻𝑅 (𝑒 𝑗𝜔 ) + 𝑗𝐻𝐼 (𝑒 𝑗𝜔 ) 𝐻(𝑒 𝑗𝜔 ) = |𝐻(𝑒 𝑗𝜔 )|𝑒 𝑗∠𝐻(𝑒

El concepto de respuesta en frecuencia de un sistema LTI es el mismo para los sistemas en


tiempo continuo y en tiempo discreto. Sin embargo, se debe tomar en cuenta que la respuesta
en frecuencia en tiempo discreto es una función periódica en la variable de frecuencia 𝜔 con
periodo 2𝜋.

𝑒 𝑗(𝜔+2𝜋)𝑛 = 𝑒 −𝑗𝜔𝑛 𝑒 −𝑗2𝜋𝑛 = 𝑒 −𝑗𝜔𝑛
𝑗(𝜔+2𝜋) ) −𝑗(𝜔+2𝜋)𝑛
𝐻(𝑒 = ∑ ℎ [𝑛 ] 𝑒
𝑛=−∞
𝐻(𝑒 𝑗(𝜔+2𝜋) ) = 𝐻(𝑒 𝑗𝜔 ) 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝜔
𝑒 ±𝑗2𝜋𝑛 = 1 𝑝𝑎𝑟𝑎 𝑛 𝑒𝑛𝑡𝑒𝑟𝑜
Universidad de las Fuerzas Armadas - ESPE
Procesamiento Digital de Señales
NRC: 3444
Integrantes: Luis Alvarez, David Bravo, Ailyn Carrea

En general, 𝐻(𝑒 𝑗𝜔 ) es periódica de periodo 2𝜋:

𝐻(𝑒 𝑗(𝜔+2𝜋𝑟) ) = 𝐻(𝑒 𝑗𝜔 ) 𝑝𝑎𝑟𝑎 𝑟 𝑒𝑛𝑡𝑒𝑟𝑜

Al ser periódica, se puede representar sus


intervalos 0 < 𝜔 < 2𝜋 o −𝜋 < 𝜔 < 𝜋. Sin
embargo, al existir “bajas frecuencias” (valores
muy cercanos a cero) y las “altas frecuencias”
(valores cercanos a±𝜋). Es decir, las bajas
frecuencias son aquellos cercanos a un múltiplo
par de 𝜋 y las altas frecuencias son cercanas a un
múltiplo impar de 𝜋.
Una clase importante de sistemas LTI incluyen a
Figura 9. Filtro paso bajo ideal.
los sistemas cuya respuesta en frecuencia es la (a) Se muestra la periodicidad de la respuesta en frecuencia y
unidad en un intervalo de frecuencias (b) se muestra un periodo de la respuesta en frecuencia.
determinadas y cero para las otras frecuencias. A
esto se denomina filtros ideales selectivos en frecuencia. La figura de la derecha es un ejemplo
claro de este tipo de filtros.

Aplicación súbita de entradas exponenciales complejas


La clase de señales dadas por la forma 𝐻(𝑒 𝑗𝜔 )𝑒 𝑗𝜔𝑛 son sumamente importantes para la
representación matemática de un conjunto de señales. Se puede analizar la siguiente forma de
señal LTI donde los exponenciales complejos se aplican en un instante temporal cualquiera:
𝑥[𝑛] = 𝑒 𝑗𝜔 𝑢[𝑛]
En un instante n=0, y aplicando la convolución se obtiene la siguiente salida del sistema:
0, 𝑛>0
𝑛
𝑦 [𝑛 ] = {
(∑ ℎ[𝑘 ]𝑒 −𝑗𝜔𝑘 ) 𝑒 −𝑗𝜔𝑛 , 𝑛≥0
𝑘=0

Si se considera una salida para 𝑛 ≥ 0


∞ ∞

𝑦[𝑛] = (∑ ℎ[𝑘 ]𝑒 −𝑗𝜔𝑘 ) 𝑒 −𝑗𝜔𝑛 − ( ∑ ℎ[𝑘 ]𝑒 −𝑗𝜔𝑘 ) 𝑒 −𝑗𝜔𝑛


𝑘=0 𝑘=𝑛+1

= 𝐻(𝑒 𝑗𝜔 )𝑒 𝑗𝜔𝑛 − ( ∑ ℎ[𝑘 ]𝑒 −𝑗𝜔𝑘 ) 𝑒 −𝑗𝜔𝑛


𝑘=𝑛+1

𝑠𝑖: 𝑦𝑠𝑠 [𝑛] = (𝑒 𝑗𝜔 )𝑒 𝑗𝜔𝑛 & 𝑦𝑡 [𝑛] = − ( ∑ ℎ[𝑘 ]𝑒 −𝑗𝜔𝑘 ) 𝑒 −𝑗𝜔𝑛


𝑘=𝑛+1
𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠: 𝑦[𝑛] = 𝑦𝑠𝑠 [𝑛] + 𝑦𝑡 [𝑛]
El estado estacionario 𝑦𝑠𝑠 [𝑛] representa al primer término, mientras que el segundo termino
𝑦𝑡 [𝑛] representa la cantidad en la que la salida difiere del resultado correspondiente a la
autofunción y toma el nombre de respuesta transitoria. Cuando la respuesta al impulso tiene
duración infinita, la respuesta transitoria no desaparece abruptamente, mientras que, si se
aproxima a cero al incrementar n, sucede lo apuesto.
La condición de estabilidad permite determinar la existencia de la función de respuesta en
frecuencia y se lo denota de manera general de la siguiente manera:

∑|ℎ[𝑘]| < ∞
𝑘=0

En donde se asegura la existencia de 𝐻(𝑒 𝑗𝜔 ). La propiedad de autofunción de las


exponenciales complejas depende de la estabilidad del sistema, puesto que para n finito la
respuesta transitoria debe ser cero para únicamente ver el estado estacionario de 𝐻(𝑒 𝑗𝜔 )𝑒 𝑗𝜔𝑛 a
partir de dicho valor de n.

Representación de secuencias mediante transformadas de Fourier


Una de las ventajas de la representación de sistemas lineales e invariantes con el tiempo
mediante su repuesta en frecuencia es que a menudo se pueden obtener fácilmente
interpretaciones del comportamiento del sistema.
Muchas secuencias se pueden representar mediante la integral de Fourier de la forma
1 𝜋
𝑥 [𝑛 ] = ∫ 𝑋(𝑒 𝑗𝜔 )𝑒 𝑗𝜔𝑛 𝑑𝜔,
2𝜋 −𝜋
siendo

𝑋(𝑒 𝑗𝜔 ) = ∑ 𝑥 [𝑛]𝑒 −𝑗𝜔𝑛


𝑛=−∞

Estas ecuaciones forman en conjunto la representación de Fourier de la secuencia. De la


primera formula tenemos que 𝑥 [𝑛] representa una superposición de sinusoides complejas
infinitesimalmente pequeñas de la forma
1
𝑋(𝑒 𝑗𝜔 )𝑒 𝑗𝜔𝑛 𝑑𝜔,
2𝜋
con 𝜔 en un intervalo de longitud 2𝜋 y 𝑋(𝑒 𝑗𝜔 ) representa la cantidad relativa de cada
componente sinusoidal compleja.
En general, la transformada de Fourier es una función compleja de 𝜔. Como en el caso de la
respuesta en frecuencia, podemos expresar 𝑋(𝑒 𝑗𝜔 ) en forma rectangular

𝑋(𝑒 𝑗𝜔 ) = 𝑋𝑅 (𝑒 𝑗𝜔 ) + 𝑗𝑋𝐼 (𝑒 𝑗𝜔 )

o en forma polar
𝑗𝜔 )
𝑋(𝑒 𝑗𝜔 ) = |𝑋(𝑒 𝑗𝜔 )|𝑒 𝑗∠𝑋(𝑒

Las cantidades |𝑋(𝑒 𝑗𝜔 )| y ∠𝑋(𝑒^𝑗𝜔) son, respectivamente, el módulo y la fase de la


transformada de Fourier.

Propiedades de simetría de la transformada de Fourier


Las propiedades de simetría de la transformada de Fourier resultan a menudo muy útiles para
simplificar la resolución de problemas.
Tabla 2. Propiedades de simetría de la transformada de Fourier
Secuencia Transformada de Fourier
𝒙[𝒏] 𝑿(𝒆𝒋𝝎)
𝑥 ∗ [𝑛] 𝑋 ∗ (𝑒 −𝑗𝜔 )
𝑥 ∗ [−𝑛] 𝑋 ∗ (𝑒 𝑗𝜔 )
𝑋𝑒 (𝑒 𝑗𝜔 ) (parte simétrica conjugada de
𝑅𝑒{𝑥 [𝑛]}
𝑋(𝑒 𝑗𝜔 ))
𝑋0 (𝑒 𝑗𝜔 ) (parte antisimétrica conjugada de
𝑗𝐼𝑚{𝑥 [𝑛]}
𝑋(𝑒 𝑗𝜔 ))
𝑥𝑒 [𝑛] (parte simétrica conjugada de 𝑥[𝑛]) 𝑋𝑅 (𝑒 𝑗𝜔 ) = 𝑅𝑒{𝑋(𝑒 𝑗𝜔 )}
𝑥0 [𝑛] (parte antisimétrica conjugada de 𝑥 [𝑛]) 𝑗𝑋𝐼 (𝑒^𝑗𝜔) = 𝑗𝐼𝑚{𝑋 (𝑒^𝑗𝜔)}
Las siguientes propiedades sólo se cumplen si 𝑥 [𝑛] es real:
𝑋(𝑒 𝑗𝜔 ) = 𝑋 ∗ (𝑒 −𝑗𝜔 ) (la transformada de
Cualquier 𝑥[𝑛] real
Fourier es simétrica conjugada)
[ ]
Cualquier 𝑥 𝑛 real 𝑋𝑅 (𝑒^𝑗𝜔) = 𝑋𝑅 (𝑒 −𝑗𝜔 ) (la parte real es par)
𝑋𝐼 (𝑒 𝑗𝜔 ) = −𝑋𝐼 (𝑒 −𝑗𝜔 ) (la parte imaginaria
Cualquier 𝑥[𝑛] real
es impar)
Cualquier 𝑥[𝑛] real |𝑋(𝑒 𝑗𝜔 )| = |𝑋(𝑒 −𝑗𝜔 )| (el módulo es par)
Cualquier 𝑥[𝑛] real ∠𝑋(𝑒^𝑗𝜔) = −∠𝑋(𝑒 −𝑗𝜔 ) (la fase es impar)
𝑥𝑒 [𝑛] (parte par de 𝑥 [𝑛]) 𝑋𝑅 (𝑒 𝑗𝜔 )
𝑥0 [𝑛] (parte impar de 𝑥 [𝑛]) 𝑗𝑋𝐼 (𝑒 𝑗𝜔 )

Teoremas de la transformada de Fourier


Para facilitar el planteamiento de los teoremas, presentaremos la siguiente notación de
operadores:

𝑋(𝑒 𝑗𝜔 ) = 𝔉{𝑥[𝑛]},
𝑥 [𝑛] = 𝔉−1 {𝑋(𝑒 𝑗𝜔 )},
𝔉
𝑥 [𝑛] ↔ 𝑋(𝑒 𝑗𝜔 ).

Es decir, 𝔉 indica la operación “tomar la transformada de Fourier de 𝑥 [𝑛]” y 𝔉−1 es la inversa


de esa operación.
Tabla 3. Teoremas de la transformada de Fourier
Secuencia Transformada de Fourier
𝒙[𝒏] 𝑿(𝒆𝒋𝝎)
𝒚 [𝒏 ] 𝒀(𝒆𝒋𝝎)
𝑎𝑥 [𝑛] + 𝑏𝑦[𝑛] 𝑎𝑋(𝑒 𝑗𝜔 ) + 𝑏𝑌(𝑒 𝑗𝜔 )
𝑥 [𝑛 − 𝑛 − 𝑑 ] (𝑛𝑑 un entero) 𝑒 −𝑗𝜔𝑛𝑑 𝑋(𝑒 𝑗𝜔 )
𝑒 𝑗𝜔0 𝑛 𝑥[𝑛] 𝑋(𝑒 𝑗(𝜔−𝜔0 ) )
𝑋(𝑒 −𝑗𝜔 )
𝑥 [−𝑛]
𝑋 ∗ (𝑒 𝑗𝜔 ) si 𝑥 [𝑛] real
𝑑𝑋(𝑒 𝑗𝜔 )
𝑛𝑥 [𝑛] 𝑗 𝑑𝜔
𝑥 [𝑛] ∗ 𝑦[𝑛] 𝑋(𝑒 𝑗𝜔 )𝑌(𝑒 𝑗𝜔 )
1 𝜋
𝑥 [𝑛]𝑦[𝑛] ∫ 𝑋(𝑒 𝑗𝜃 )𝑌(𝑒 𝑗(𝜔−𝜃) )𝑑𝜃
2𝜋 −𝜋
Teorema de Parseval:

2 1 𝜋 2
∑ [𝑥[𝑛]] = ∫ |𝑋(𝑒 𝑗𝜔 )| 𝑑𝜔
2𝜋 −𝜋
𝑛=−∞

1 𝜋
∑ 𝑥 [𝑛]𝑦 ∗ [𝑛] = ∫ 𝑋(𝑒 𝑗𝜔 )𝑌 ∗ (𝑒 𝑗𝜔 )𝑑𝜔
2𝜋 −𝜋
𝑛=−∞

Tabla 4. Parejas de transformadas de Fourier


Secuencia Transformada de Fourier
𝛿 [𝑛] 1
𝛿 [𝑛 − 𝑛0 ] 𝑒 −𝑗𝜔𝑛0

1 (−∞ < 𝑛 < ∞) ∑ 2𝜋𝛿 (𝜔 + 2𝜋𝑘 )


𝑘=−∞
𝑛 1
𝑎 𝑢[𝑛] (|𝑎| < 1 )
1 − 𝑎𝑒 −𝑗𝜔

1
𝑢[𝑛] + ∑ 𝜋𝛿(𝜔 + 2𝜋𝑘 )
1 − 𝑒 −𝑗𝜔
𝑘=−∞
1
(𝑛 + 1)𝑎𝑛 𝑢[𝑛] (|𝑎| < 1)
(1 − 𝑎𝑒 −𝑗𝜔 )2
𝑟 𝑛 sin 𝜔𝑝 (𝑛 + 1) 1
𝑢[𝑛] (|𝑟| < 1)
sin 𝜔𝑝 1 − 2𝑟 cos 𝜔𝑝 𝑒 −𝑗𝜔 + 𝑟 2 𝑒 −𝑗2𝜔
sin 𝜔𝑐 𝑛 1, |𝜔| < 𝜔𝑐 ,
𝑋(𝑒 𝑗𝜔 ) = {
𝜋𝑛 0, 𝜔𝑐 < |𝜔| ≤ 𝜋
1, 0≤𝑛≤𝑀 sin[𝜔(𝑀 + 1)/2 ] −𝑗𝜔𝑀/2
𝑥 [𝑛] = { 𝑒
0, 𝑒𝑛 𝑒𝑙 𝑟𝑒𝑠𝑡𝑜 sin(𝜔/2)

𝑗𝜔0 𝑛 ∑ 2𝜋𝛿 (𝜔 − 𝜔0 + 2𝜋𝑘 )
𝑒
𝑘=−∞

∑ [𝜋𝑒 𝑗𝜙 𝛿(𝜔 − 𝜔0 + 2𝜋𝑘 )


cos(𝜔0 𝑛 + 𝜙)
𝑘=−∞
+ 𝜋𝑒 −𝑗𝜙 𝛿(𝜔 + 𝜔0 + 2𝜋𝑘 )]

Las Tablas 3 y 4 resumen, respectivamente, los teoremas de esta sección y varias parejas
fundamentales de transformadas de Fourier. En muchas ocasiones, utilizando los teoremas y
parejas de transformadas conocidas, es posible representar una secuencia en función de
operaciones sobre otras secuencias de las que se conoce su transformadas de Fourier,
simplificándose así la resolución de un problema de otra forma complicado o tedioso.

Señales Aleatorias en el Tiempo Discreto


Las señales y los sistemas en tiempo discreto se pueden representar tanto en el dominio del
tiempo como en el dominio de la frecuencia, y cada una de esas representaciones tiene un papel
importante en la teoría y en el diseño de los sistemas de tratamiento de señales en tiempo
discreto.
En muchas situaciones, los procesos que generan las señales son tan complejos que realizar
una descripción precisa de una señal se hace extremadamente difícil o no es deseable, e incluso
puede ser imposible. En estos casos, resulta útil modelar analíticamente la señal como un
proceso estocástico.
Consideremos un sistema lineal invariante con el tiempo y estable cuya respuesta al impulso
es ℎ[𝑛]. Sea 𝑥 [𝑛] una secuencia real que es una realización de un proceso aleatorio en tiempo
discreto estacionario en sentido amplio. La salida del sistema lineal es también una realización
de un proceso aleatorio relacionado con el proceso de entrada mediante la transformación lineal
∞ ∞

𝑦[𝑛] = ∑ ℎ[𝑛 − 𝑘 ]𝑥[𝑘 ] = ∑ ℎ[𝑘 ]𝑥[𝑛 − 𝑘 ].


𝑘=−∞ 𝑘=−∞

Como ya hemos demostrado, si el sistema es estable, si 𝑥 [𝑛] está acotada, 𝑦[𝑛] también lo
estará. La señal de entrada se puede caracterizar por su media 𝑚𝑥 y su función de
autocorrelación 𝜙𝑥𝑥 [𝑚], o bien podemos disponer de información adicional sobre sus
distribuciones de probabilidad de primer o incluso de segundo orden. Para caracterizar el
proceso aleatorio de salida 𝑦[𝑛] desearíamos tener similar información. En muchas
aplicaciones, es suficiente con caracterizar tanto la entrada como la salida en términos de
promedios simples como la media, la varianza y la autocorrelación. Por lo tanto, obtendremos
relaciones de entrada-salida para estas magnitudes.
Las medias de los procesos de entrada y de salida son, respectivamente,
𝑚𝑥𝑛 = 𝔈{𝑥𝑛 }, 𝑚𝑦𝑛 = 𝔈{𝑦𝑛 },
donde 𝔈{·} indica el valor esperado. En la mayor parte de nuestra presentación no será
necesario diferenciar cuidadosamente las variables aleatorias 𝑥𝑛 e 𝑦𝑛 y sus valores específicos
𝑥 [𝑛] e 𝑦[𝑛].
Si 𝑥 [𝑛] es estacionaria, entonces 𝑚𝑥 [𝑛] es independiente de 𝑛 y se escribirá 𝑚𝑥 . Lo mismo se
aplicará a 𝑚𝑦 [𝑛] si 𝑦[𝑛] es estacionaria.

También podría gustarte