Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1 Introducción
1.1Señales
Una señal es cualquier cantidad física que varía en función del tiempo, espacio o cualquier otra
variable o variables.
Las señales de tiempo continuo también denominadas señales analógicas, debido a que su
amplitud es análoga a la cantidad física que representa, están definidas de manera continua en el
tiempo.
Esto se hace muestreando una señal de tiempo continuo en puntos aislados, igualmente espaciados
en el tiempo (muestreo periódico).
El resultado es la secuencia:
Una señal de tiempo discreto 𝑠[𝑛] cuya amplitud toma valores en un conjunto finito de 𝐾 números
reales se conoce como señal digital.
analógica
digital.
La característica clave de las cantidades analógicas es que varían en un rango continuo de valores.
En la representación digital, una cantidad se representa por una combinación de pulsos ON/OFF
correspondientes a los dígitos de un número binario.
Dependiendo del tipo de las señales de entrada y de salida, los sistemas se clasifican en:
Simbólicamente, se tiene:
ℋ
𝑥[𝑛] → 𝑦[𝑛] o 𝑦[𝑛] = ℋ{𝑥[𝑛]} (1.8)
Convertidor ADC.- Acepta como entrada una señal analógica 𝐴 y una referencia analógica 𝑅 y
después del tiempo de conversión, proporciona una salida digital 𝐷 tal que:
La salida del ADC es una palabra digital que representa el número de 𝐵 de bits 𝑏1 , 𝑏2 ⋯ 𝑏𝐵 .
El valor 𝐷 es la aproximación más cercana a la razón 𝐴⁄𝑅 dentro de la resolución ∆= 2−𝐵 .
Este proceso se repite cada intervalo de muestreo.
Para obtener una conversión precisa, las señales de entrada se conmutan a un circuito de
almacenamiento analógico que las mantiene constantes durante el tiempo de conversión.
Tal circuito se llama muestreador-retenedor.
A medida que el número 𝐵 de bits se incrementa, la precisión ∆ del cuantificador se incrementa
y la diferencia entre las señales de tiempo discreto y las digitales disminuye.
Por esta razón, un muestreador puede ser considerado como un convertidor ADC ideal.
En la práctica, debido a las limitaciones inherentes del mundo real, un sistema típico de
procesamiento digital de señales analógicas incluye las siguientes partes:
Los sistemas de tiempo discreto pueden ser implementados en tiempo real o fuera de línea, pero
el ADC y el DAC siempre operan en tiempo real.
Tiempo real significa completar el procesamiento dentro de tiempos permisibles entre muestras.
Procesamiento de señales mixtas.- Este término, algunas veces se usa para describir un sistema
que incluye tanto partes de procesamiento digital como partes de procesamiento analógico.
Sin embargo, también se lo usa para enfatizar que tanto los componentes analógicos como los
digitales se implementan sobre el mismo circuito integrado.
1.4 Aplicaciones
Operaciones claves: convolución, correlación, filtrado, transformaciones discretas finitas,
modulación, análisis espectral, filtrado adaptivo.
Cuando 𝑥[𝑛] se obtiene a partir del muestreo de una señal de tiempo continuo 𝑥(𝑡):
El intervalo 𝑇 entre dos muestras sucesivas se conoce como periodo o intervalo de muestreo.
La cantidad 𝐹𝑠 = 1⁄𝑇, llamada frecuencia de muestreo o tasa de muestreo, es igual al número
de muestras por unidad de tiempo.
Si 𝑇 se mide en segundos, las unidades de 𝐹𝑠 son el número de muestras por segundo (tasa de
muestreo) o Hertz (Hz) (frecuencia de muestreo).
Representación de señales.- Existen muchas formas de representar una señal de tiempo discreto.
Las más ampliamente usadas son:
funcional
tabular
secuencia
pictórica.
La duración o longitud 𝐿𝑥 de una señal de tiempo discreto 𝑥[𝑛] es el número de muestras desde la
primera muestra diferente de cero 𝑥[𝑛1 ] a la última muestra diferente de cero 𝑥[𝑛2 ], es decir, 𝐿𝑥 =
𝑛2 − 𝑛1 + 1.
ℰ𝑥 ≜ ∑ |𝑥[𝑛]|2 (2.1)
𝑛=−∞
Similarmente, la potencia de una secuencia 𝑥[𝑛] está definida como la energía promedio por
muestra:
𝐿
1
𝒫𝑥 ≜ lim [ ∑ |𝑥[𝑛]|2 ] (2.2)
𝐿→∞ 2𝐿 + 1
𝑛=−𝐿
Cuando 𝑥[𝑛] representa una señal física, ambas cantidades están directamente relacionadas
con la energía y la potencia de la señal.
Las secuencias de duración finita tienen energía finita pero potencia cero.
Sin embargo, cuando la duración de una secuencia se incrementa, la energía o potencia pueden
o no permanecer finitas.
Secuencia muestra unitaria: La señal más simple de tiempo discreto está definida por:
1, 𝑛=0
𝛿[𝑛] ≜ { (2.3)
0, 𝑛≠0
Secuencia escalón unitario: Está dada por:
1, 𝑛≥0
𝑢[𝑛] ≜ { (2.4)
0, 𝑛<0
y puede ser pensada como una sucesión infinita de muestras unitarias que empiezan en 𝑛 = 0.
Si tanto A como a son números reales, entonces x[n] es denominada secuencia exponencial
real.
Si |𝑎| < 1, el valor absoluto |𝑥[𝑛]| de la secuencia decrece en magnitud y si |𝑎| > 1, esta
magnitud se incrementa.
Los valores de 𝑥[𝑛] alternan en signo cuando 𝑎 < 0.
Si tanto A = |A|ejφ como a = σ0 + jω0 son valores complejos, entonces se tiene que:
o bien:
Las secuencias sinusoidales y las exponenciales complejas, obtenidas usando la identidad de Euler
𝑒 𝑗𝜃 = cos 𝜃 + 𝑗 sin 𝜃 juegan un rol central en el análisis de señales y sistemas de tiempo discreto.
Definición 2.2.- Se dice que un sistema es estable, en el sentido entrada acotada-salida acotada
(BIBO), si cada señal de entrada acotada resulta en una señal de salida acotada, es decir:
Una señal 𝑥[𝑛] es acotada si existe una constante finita positiva 𝑀𝑥 tal que 𝑥[𝑛] ≤ 𝑀𝑥 ; ∀𝑛.
linealidad
invariancia en el tiempo.
Un sistema es lineal si y sólo si para cada constante real o compleja 𝑎1 , 𝑎2 y cada señal de entrada
𝑥1 [𝑛], 𝑥2 [𝑛]:
La ecuación anterior se la conoce como principio de superposición; dice que una combinación
lineal de las señales de entrada produce la misma combinación lineal de las salidas.
Si 𝑎2 = 0 se tiene que ℋ{𝑎1 𝑥1 [𝑛]} = 𝑎1 ℋ{𝑥1 [𝑛]}, la cual es conocida como propiedad de
homogeneidad o escalamiento.
Si 𝑎1 = 𝑎2 = 1 se tiene que ℋ{𝑥1 [𝑛] + 𝑥2 [𝑛]} = ℋ{𝑥1 [𝑛]} + ℋ{𝑥2 [𝑛]}, la cual es conocida
como propiedad aditiva.
La linealidad simplifica el análisis de los sistemas de tiempo discreto, debido a que una señal de
entrada compuesta, se puede descomponer en sus componentes más simples, determinar la
respuesta de cada componente individual separadamente y luego calcular la suma de todas las
respuestas individuales.
Esto significa que la forma de la salida de un sistema invariante en el tiempo depende sólo de la
forma de la señal de entrada y no del instante de tiempo en que se aplica la entrada al sistema.
Linealidad significa que la salida debida a la suma de señales de entrada es igual a la suma de
salidas debidas a cada señal de entrada.
Invariancia en el tiempo significa que el sistema no cambia con un corrimiento en el tiempo.
Un diagrama de bloques proporciona una vista pictórica de la operación global del sistema usando
una interconexión simple de bloques básicos de construcción.
una cantidad finita de memoria para el almacenamiento de las muestras de la señal y los
parámetros del sistema
un número finito de operaciones aritméticas para el cálculo de cada muestra de salida.
La secuencia 𝑥𝑘 [𝑛] puede ser obtenida multiplicando la secuencia {𝑥[𝑛]} por la secuencia:
1, 𝑛=𝑘
𝛿[𝑛 − 𝑘] = { (2.30)
0, 𝑛≠𝑘
Por su parte, la secuencia 𝑥[𝑛] puede ser expresada como:
∞
El lado izquierdo representa la secuencia 𝑥[𝑛] como un todo, mientras que la sumatoria del lado
derecho representa la secuencia de una superposición de secuencias corridas de muestras unitarias.
Suma de convolución.- Cualquier secuencia 𝑥[𝑛] puede ser descompuesta en una superposición
de impulsos escalados y corridos.
Considere un sistema lineal (pero posiblemente variante en el tiempo) y denote por ℎ𝑘 [𝑛] su
respuesta a la señal básica 𝛿[𝑛 − 𝑘].
La anterior ecuación, llamada suma de convolución, se denota por 𝑦[𝑛] = 𝑥[𝑛] ∗ ℎ[𝑛].
𝑦[𝑛] = ∑ 𝑥[𝑘]ℎ[𝑛 − 𝑘]
𝑘=−∞
Las muestras de la secuencia 𝑥[𝑘] están en orden natural mientras que las muestras de la
secuencia ℎ[𝑘] están en orden revertido.
Para determinar el valor de 𝑦[𝑛] en 𝑛 = 𝑛0 , la secuencia de la respuesta al impulso en reversa
es corrida tal que la muestra ℎ[0] esté alineada con la muestra 𝑥[𝑛0 ] de la entrada.
El cálculo de la convolución de dos secuencias involucra los siguientes pasos:
1 Cambiar el índice de las secuencias ℎ[𝑛] y 𝑥[𝑛] de 𝑛 a 𝑘 y graficarlas como una función de 𝑘.
2 Revertir la secuencia ℎ[𝑘] alrededor de 𝑘 = 0 y obtener la secuencia ℎ[−𝑘].
3 Correr la secuencia revertida, ℎ[−𝑘], 𝑛 muestras a la derecha, si 𝑛 > 0, o bien, a la izquierda si
𝑛 < 0.
4 Multiplicar las secuencias 𝑥[𝑛] y ℎ[𝑛 − 𝑘] para obtener la secuencia 𝑧𝑛 [𝑘] = 𝑥[𝑛]ℎ[𝑛 − 𝑘].
5 Sumar todas las muestras diferentes de cero de 𝑧𝑛 [𝑘] para determinar la muestra de salida en
el valor de corrimiento 𝑛.
6 Repetir los pasos 3 – 5 para todos los valores deseados de 𝑛.
Si se intercambian ℎ[𝑛] y 𝑥[𝑛], es decir, se escriben los productos en cada ecuación de (2.37) a la
inversa, el resultado de la convolución no cambia.
Por tanto:
∞ ∞
Esto es, cuando se convolucionan dos secuencias se puede revertir la secuencia que hace que el
cálculo de la suma de convolución sea más sencillo.
La suma de todas estas secuencias escaladas y corridas produce la secuencia de salida 𝑦[𝑛].
Este punto de vista puede ser reforzado considerando una derivación alternativa de la suma de
convolución descrita por los siguientes pasos:
Respuesta al impulso
ℋ
𝛿[𝑛] → ℎ[𝑛]
Invariancia en el tiempo
ℋ
𝛿[𝑛 − 𝑘] → ℎ[𝑛 − 𝑘]
Homogeneidad
ℋ
𝑥[𝑘]𝛿[𝑛 − 𝑘] → 𝑥[𝑘]ℎ[𝑛 − 𝑘]
Aditividad
∞ ∞
ℋ
∑ 𝑥[𝑘]𝛿[𝑛 − 𝑘] → ∑ 𝑥[𝑘]ℎ[𝑛 − 𝑘]
⏟
𝑘=−∞ ⏟
𝑘=−∞
𝑥[𝑛] 𝑦[𝑛]
Sistemas FIR versus IIR.- La duración de la respuesta al impulso conduce a dos tipos de sistemas
lineales invariantes en el tiempo:
Si la respuesta al impulso tiene un número finito de muestras diferentes de cero (soporte finito)
se tiene un sistema FIR caracterizado por una respuesta al impulso de duración finita.
De otra manera, se tiene un sistema IIR caracterizado por una respuesta al impulso de duración
infinita.
Propiedad distributiva
Resultado 2.5.2.- Un sistema lineal invariante en el tiempo con respuesta al impulso ℎ[𝑛] es
estable en el sentido entrada acotada – salida acotada, si y sólo si la respuesta al impulso es
absolutamente sumable, es decir, si:
∞
En efecto se tiene:
∞ 𝑀
Ejemplo 2.5.- Considere el sistema con respuesta al impulso ℎ[𝑛] = 𝑏𝑎𝑛 𝑢[𝑛].
Para ver si el sistema es estable se debe verificar si la siguiente suma es finita:
∞ ∞
Si |𝑎| < 1, usando la fórmula de series geométricas, la suma converge a |𝑏|⁄(1 − |𝑎|).
Note que la respuesta de un sistema lineal invariante en el tiempo estable a una entrada periódica
es periódica con el mismo periodo.
se obtiene:
∞
Puesto que la condición de periodicidad 𝑥[𝑛 + 𝑁] = 𝑥[𝑛] se tiene para todo 𝑛, reemplazando 𝑛 por
𝑛 − 𝑘 da:
𝑥[𝑛 + 𝑁 − 𝑘] = 𝑥[𝑛 − 𝑘]
𝑦[𝑛 + 𝑁] = 𝑦[𝑛]
Por tanto, la suma de convolución puede ser usada tanto para entradas no periódicas como
periódicas, en la medida en que el sistema lineal invariante en el tiempo sea estable.
Si ℎ[𝑛] es periódica con periodo 𝑁 entonces el sistema es inestable debido a que la suma:
∞
∑ |ℎ[𝑘]|
𝑘=−∞
es siempre infinita.
Si
∞
∑ |𝑥[𝑘]|
𝑘=−∞
Si 𝑥[𝑛] es periódica, por ejemplo con periodo 𝐿, entonces la suma de convolución no puede ser
finita.
Sin embargo, si 𝑁 y 𝐿 son conmensurables, 𝑥[𝑛] ∗ ℎ[𝑛] es periódica con periodo igual al mínimo
común múltiplo de 𝑁 y 𝐿.
Entonces se puede definir la convolución periódica simplemente como la suma de convolución
sobre un periodo.
∞ 𝑀−1
−𝑘
1 − 𝑎𝑀
𝐻(𝑎) = ∑ ℎ[𝑘]𝑎 = ∑ 𝑎−𝑘 = (2.61)
1−𝑎
𝑘=−∞ 𝑘=0
lo que conduce a:
1 − 𝑎𝑀 𝑛
𝑦[𝑛] = 𝐻(𝑎)𝑎𝑛 = ( ) 𝑎 (2.62)
1−𝑎
𝑥[𝑛] = 𝑒 𝑗𝜔𝑛
La respuesta es tan sólo la secuencia de entrada escalada por una constante compleja:
∞
La cantidad 𝐻(𝑒 𝑗𝜔 ), conocida como una función de respuesta en frecuencia, juega un rol
prominente en el análisis y diseño de sistemas lineales invariantes en el tiempo, usando técnicas en
el dominio de la frecuencia.
Empiece dibujando los sobres de dos secuencias; la forma de los sobres no es importante. La
siguiente figura muestra las secuencias 𝑥[𝑘] y ℎ[𝑛 − 𝑘] como una función del índice 𝑘.
La secuencia ℎ[𝑛 − 𝑘] se obtiene volteando ℎ[𝑘] para obtener ℎ[−𝑘] y luego recorriendo 𝑛
muestras para obtener ℎ[𝑛 − 𝑘].
Sin pérdida de generalidad, elija 𝑛 para posicionar ℎ[𝑛 − 𝑘] a la izquierda de 𝑥[𝑘]. Cambiando el
parámetro 𝑛 se corre ℎ[𝑛 − 𝑘] a una posición diferente a lo largo del eje 𝑘.
Con referencia a la siguiente figura, dependiendo del traslape entre las secuencias 𝑥[𝑘] y ℎ[𝑛 − 𝑘]
existen tres límites distintos de la suma de convolución. Estos límites se indican por el inicio y el fin
de los intervalos sombreados:
Claramente, la suma de convolución es cero cuando 𝑛 − 𝑀1 < 𝑁1 o 𝑛 − 𝑀2 > 𝑁2 , debido a que las
secuencias 𝑥[𝑘] y ℎ[𝑛 − 𝑘] no se traslapan.
Estos tres rangos distintos de la suma de convolución están definidos como sigue:
𝑦[𝑛] = ∑ 𝑥 [𝑘 ]ℎ[𝑛 − 𝑘 ] ; 𝑁1 + 𝑀1 ≤ 𝑛 ≤ 𝑁1 + 𝑀2
𝑘=𝑁1
Por tanto:
𝑛−𝑀1
Por tanto:
𝑁2
Este resultado se tiene para cualquier valor positivo o negativo de los límites.
Por tanto, los valores distintos de cero de la suma de convolución están dados por:
(2.70)
Este conjunto de ecuaciones puede ser más concisamente expresado por la multiplicación de una
matriz por un vector:
* (2.71)
La forma matricial de la convolución involucra una matriz conocida como matriz de Toeplitz, debido
a que los elementos a lo largo de cada diagonal son los mismos.
Empezando con (2.70) o bien con (2.71) se puede desarrollar dos tipos diferentes de algoritmos para
calcular la suma de convolución.
El método más simple, desde el punto de vista de programación es expresar (2.71) como una
combinación lineal de los vectores columna:
(2.72)
Esta fórmula expresa la secuencia de convolución como una superposición de réplicas escaladas y
retardadas de la secuencia de entrada.
Todas estas funciones de convolución requieren que las secuencias a ser convolucionadas estén
disponibles y almacenadas en memoria antes de que se inicie el procesamiento.
La secuencia de salida estará disponible después de que el procesamiento se haya completado.
De (2.70), las muestras de la secuencia de entrada deben ser ingresadas al arreglo de la señal en
orden inverso como se muestra en la siguiente figura para 𝑀 = 5:
La figura anterior muestra que si se empieza acumulando el producto h(i)*s(i) desde la derecha a la
izquierda, se puede correr los contenidos de s(i-1) a s(i) después de haber calculado y acumulado
este producto.
Así, todos los procesadores digitales de señales de propósito especial ejecutan esta operación como
una sola instrucción.
Cálculo en Matlab
En Matlab, la función y=filter(h,1,x) calcula la convolución 𝑦[𝑛] de las secuencias ℎ[𝑛]; 0 ≤ 𝑛 ≤
𝑀 − 1 y 𝑥[𝑛]; 0 ≤ 𝑛 ≤ 𝑁 − 1, en el mismo rango 0 ≤ 𝑛 ≤ 𝑁 − 1 que la secuencia de entrada.
En contraste, y=conv(h,x) calcula la convolución en el rango completo 0 ≤ 𝑛 ≤ 𝑁 + 𝑀 − 2.
Una subclase prácticamente realizable de sistemas lineales invariantes en el tiempo, cuya respuesta
al impulso es de longitud infinita (IIR), relaciona las secuencias de salida y entrada mediante una
ecuación de diferencias lineal con coeficientes constantes.
Sistemas recursivos generales.- Estos sistemas están descritos por la ecuación de diferencias:
𝑁 𝑀
la cual es conocida como una ecuación de diferencias lineal con coeficientes constantes.
Para 𝑁 = 0 se tiene:
𝑀
Los argumentos de entrada y salida de esta función están especificados como sigue:
Existen dos observaciones importantes con respecto a la función y=filter(b,a,x):
Primero, los coeficientes de realimentación entran en el vector de parámetros a=[1 a1…aN] con
su signo invertido.
Esto es debido a que Matlab asume que todos los términos de realimentación en (2.94) han sido
movidos del lado izquierdo como sigue:
𝑁 𝑀
El círculo unitario, definido por |𝑧| = 1, muestra el lugar geométrico de todos los puntos a una
distancia 1 desde el origen.
La transformada z puede o no ser finita para todas las secuencias o todos los valores de 𝑧.
Para cualquier secuencia dada, el conjunto de valores de 𝑧 para el cual la transformada z
converge, es conocido como región de convergencia (ROC) de la transformada z.
Los valores de 𝑧 para los cuales 𝑋(𝑧) = 0 se llaman ceros de 𝑋(𝑧) y los valores de 𝑧 para los
cuales 𝑋(𝑧) = ∞ se conocen como polos.
La ROC es una parte esencial de la transformada z y, por definición, no puede incluir ningún
polo.
Ejemplo 3.2 Secuencia pulso cuadrado.- La transformada z de una secuencia pulso cuadrado
1, 0≤𝑛≤𝑀
𝑥[𝑛] = { (3.11)
0, de otra manera
está dada por:
𝑀
−𝑛
1 − 𝑧 −(𝑀+1) 𝑧 (𝑀+1) − 1
𝑋(𝑧) = ∑ 1𝑧 = = 𝑀 ; ROC: 𝑧 ≠ 0 (3.12)
1 − 𝑧 −1 𝑧 (𝑧 − 1)
𝑛=0
La serie geométrica infinita dentro del paréntesis converge si |𝑏 −1 𝑧| < 1 o |𝑧| < |𝑏|.
De esta manera:
−𝑏𝑧 −1 1 𝑧
𝑌(𝑧) = −1
= −1
= ; ROC: |𝑧| > |𝑏| (3.18)
1 − 𝑏 𝑧 1 − 𝑏𝑧 𝑧−𝑏
La transformada z de la función 𝑌(𝑧) tine un cero en 𝑧 = 0 y un polo en 𝑝 = 𝑏.
Note que para 𝑏 = 𝑎 se tiene que 𝑌(𝑧) = 𝑋(𝑧), pero 𝑥[𝑛] ≠ 𝑦[𝑛].
Por tanto, la especificación única de una secuencia 𝑥[𝑛] requiere tanto la función 𝑋(𝑧) y su ROC
𝑋(𝑧) = ∑ 𝑥[𝑛]𝑧 −𝑛
𝑛=−∞
𝑋(𝑧) = − ∑ 𝑏 𝑛 𝑧 −𝑛 + ∑ 𝑎𝑛 𝑧 −𝑛 (3.20)
𝑛=−∞ 𝑛=0
La primera suma converge a 1⁄(1 − 𝑏𝑧 −1 ) para |𝑧| < |𝑏|. La segunda suma converge a
1⁄(1 − 𝑎𝑧 −1 ) para |𝑧| > |𝑎|.
Para que 𝑋(𝑧) exista, ambas sumas deben converger para un conjunto común de valores de 𝑧.
Esto requiere que se satisfagan |𝑧| < |𝑏| y |𝑧| > |𝑎|.
Los dos conjuntos se traslapan sólo cuando |𝑏| > |𝑎|, en cuyo caso la ROC es la región anular
|𝑎| < |𝑧| < |𝑏|.
La transformada z no existe cuando |𝑏| < |𝑎|.
Puesto que |𝑒 ±𝑗𝜔0 | = 1, ambas sumas convergen si |𝑟𝑧 −1 | < 1 o equivalnetemente |𝑧| > 𝑟. Por
tanto:
1 1 1 1
𝑋(𝑧) = 𝑗𝜔 −1
+ −𝑗𝜔
; 𝑅𝑂𝐶: |𝑧| > 𝑟 (3.23)
2 1 − 𝑟𝑒 𝑧0 2 1 − 𝑟𝑒 0 𝑧 −1
1 − (𝑟 cos 𝜔0 )𝑧 −1 1 − (𝑟 cos 𝜔0 )𝑧 −1
𝑋(𝑧) = = (3.24)
(1 − 𝑟𝑒 𝑗𝜔0 𝑧 −1 )(1 − 𝑟𝑒 −𝑗𝜔0 𝑧 −1 ) 1 − 2(𝑟 cos 𝜔0 )𝑧 −1 + 𝑟 2 𝑧 −2
De los ejemplos anteriores y de la tabla anterior se ve que la ROC de cualquier transformada z tiene
las siguientes propiedades:
1
𝑥[𝑛] = ∫ 𝑋(𝑧)𝑧 𝑛−1 𝑑𝑧 (3.27)
2𝜋𝑗 𝐶
La cual involucra integración compleja usando de acuerdo al teorema de los residuos de la teoría
de variable compleja.
Expansión en una serie de términos en las variables 𝑧 y 𝑧 −1 ; los coeficientes resultantes dan los
valores de la secuencia resultante.
Para funciones racionales esto se hace usando división larga.
Esto se implementa en Matlab usando la función deconv y es mayormente usada para calcular
unos cuantos valores para propósitos de verificación.
Expansión en fracciones parciales y tablas, la cual se impementa en Matlab usando la función
residuez.
Este es el método usado en la mayoría de las aplicaciones prácticas.
𝑏0 + 𝑏1 𝑧 −1 + ⋯ + 𝑏𝑀 𝑧 −𝑀
𝑋(𝑧) = (3.41)
1 + 𝑎1 𝑧 −1 + ⋯ + 𝑎𝑁 𝑧 −𝑁
La expansión en fracciones parciales completa toma la forma:
𝑀−𝑁 𝑁
−𝑘
𝐴𝑘
𝑋(𝑧) = ∑ 𝐶𝑘 𝑧 +∑ (3.42)
1 − 𝑝𝑘 𝑧 −1
𝑘=0 𝑘=1
donde:
𝐴𝑘 = (1 − 𝑝𝑘 𝑧 −1 )𝑋(𝑧)|𝑧=𝑝𝑘 (3.43)
Los parámetros {𝐴𝑘 , 𝑝𝑘 , 𝐶𝑘 } en la expansión (3.42) puede ser calculados usando la función de
Matlab:
[A,p,C]=residuez(b,a) (3.44)
La función residuez puede manejar múltiples polos (polos repetidos); sin embargo, este caso no se
encuentra a menudo en aplicaciones prácticas.
Aquí se discuten algunas propiedades claves de la transformada z que son útiles en el análisis y
diseño de sistemas LTI.
Puesto que 𝑌(𝑧) se obtiene multiplicando 𝑋1 (𝑧) y 𝑋2 (𝑧), su ROC debería incluir la intersección
de las ROCs de 𝑋1 (𝑧) y 𝑋2 (𝑧).
La propiedad de convolución juega un rol muy importante en el análisis de sistemas LTI.
Más específicamente:
𝒵 𝑑𝑋(𝑧)
𝑛𝑥[𝑛] ↔ −𝑧 ; ROC = 𝑅𝑥 (3.57)
𝑑𝑧
La cual se obtiene diferenciando ambos lados de (3.9).
En efecto, se tiene:
∞ ∞
𝑑𝑋(𝑧)
= ∑ 𝑥[𝑛](−𝑛)𝑧 −𝑛−1 = −𝑧 −1 ∑ 𝑛𝑥[𝑛]𝑧 −𝑛 (3.58)
𝑑𝑧
𝑛=−∞ 𝑛=−∞
Teorema del valor inicial.- Si 𝑥[𝑛] es una secuencia causal, es decir, 𝑥[𝑛] = 0; 𝑛 < 0, entonces:
𝑥[0] = lim 𝑋(𝑧) (3.61)
𝑧→∞
se obtiene:
Es importante notar que este método requiere que las ROCs de 𝐻(𝑧) y 𝑋(𝑧) se traslapen.
Causalidad.- Un sistema LTI causal tiene una respuesta al impulso ℎ[𝑛] que es cero para 𝑛 < 0.
Por tanto, para sistemas causales la serie de potencia:
∞
no incluye ninguna potencia positiva de 𝑧 y su ROC se extiende fuera de un círculo para algún radio
𝑟, es decir, |𝑧| > 𝑟.
Puesto que cada secuencia de lado derecho (causal o no causal) tiene ROC |𝑧| > 𝑟 para algún 𝑟, se
tiene la siguiente propiedad:
Resultado 3.5.1.- Una función sistema 𝐻(𝑧), cuya ROC es el exterior de un círculo que se extiende
al infinito, es una condición para que el correspondiente sistema LTI de tiempo discreto sea causal,
pero no una condición suficiente.
Estabilidad.- Para que un sistema LTI sea estable, la respuesta al impulso debe ser absolutamente
sumable, es decir:
∞
para |𝑧| = 1; esto implica que la ROC de 𝐻(𝑧) debe incluir el círculo unitario.
Por tanto:
Resultado 3.5.2.- Un sistema LTI es estable si y sólo si la ROC de la función del sistema 𝐻(𝑧) incluye
el círculo unitario |𝑧| = 1.
Sistema causal y estable.- Combinando las dos propiedades anteriores se puede ahora establecer
que:
Resultado 3.5.3.- Un sistema LTI con función racional 𝐻(𝑧) es tanto causal como estable sí y sólo
si todos los polos de 𝐻(𝑧) están dentro del círculo unitario y su ROC está en el exterior de un círculo
que se extiende al infinito.
Esto conduce a un álgebra de funciones sistema que facilita el análisis y síntesis de sistemas LTI
involucrando interconexiones en serie, paralelas y realimentadas de bloques de construcción de
sistemas más simples.
Estos resultados pueden ser usados de manera directa para analizar interconexiones más complejas
de sistemas LTI.
o bien:
𝑁 𝑀
Asuma que el sistema es causal, entonces la ecuación anterior puede ser usada para calcular la
salida de manera recursiva empezando con un conjunto de condiciones iniciales.
En aplicaciones de procesamiento de señales, es común aumir que el sistema está inicialmente
en reposo, es decir 𝑥[𝑛] = 𝑦[𝑛] = 0 para 𝑛 < 0.
De esta manera, las condiciones iniciales en 𝑛 = 0 son puestas a cero, es decir:
𝐵(𝑧) 𝑧 −𝑀 ∏𝑀
𝑘=1(𝑧 − 𝑧𝑘 ) ∏𝑀 −1
𝑘=1(1 − 𝑧𝑘 𝑧 )
𝐻(𝑧) = = 𝑏0 −𝑁 𝑁 = 𝑏0 𝑁 (3.83)
𝐴(𝑧) 𝑧 ∏𝑘=1(𝑧 − 𝑝𝑘 ) ∏𝑘=1(1 − 𝑝𝑘 𝑧 −1 )
Respuesta al impulso.- Recuerde que cualquier función racional 𝑋(𝑧) con polos distintos puede
ser expresada de la forma:
𝑀−𝑁 𝑁
−𝑘
𝐴𝑘
𝑋(𝑧) = ∑ 𝐶𝑘 𝑧 +∑
1 − 𝑝𝑘 𝑧 −1
𝑘=0 𝑘=1
no especifica de manera única la respuesta al impulso de un sistema LTI, debido a que existen un
número de elecciones para la ROC de la función sistema
𝑌(𝑧) ∑𝑀
𝑘=0 𝑏𝑘 𝑧
−𝑘
𝐻(𝑧) = =
𝑋(𝑧) 1 + ∑𝑁
𝑘=1 𝑎𝑘 𝑧
−𝑘
Por tanto, sin información o suposición adicional no se pueden hacer inferencias acerca de la
causalida y estabilidad del sistema.
En aplicaciones prácticas, donde se asume que el sistema es causal, la respuesta al impulso es una
secuencia causal dada por:
𝑀−𝑁 𝑁
Para que este sistema causal sea estable, la respuesta al impulso debe ser absolutamente
sumble, es decir:
∞ 𝑀−𝑁 𝑁 ∞
Esto es posible sí y sólo si |𝑝𝑘 | < 1 para 𝑘 = 1, … , 𝑁. Por tanto, la condición para la estabilidad
es:
Resultado 3.6.1.- Un sistema LTI causal con función del sistema racional es estable sí y sólo si todos
los polos de 𝐻(𝑧) están fuera del círculo unitario en el plano z. Los ceros pueden estar donde sea.
Clasificaciones de sistemas.- Los sistemas lineales invariantes en el tiempo puede ser clasificados
en diferentes clases en base a la longitud de su respuesta al impulso, la presencia de realimentación
en su implementación y el patrón de polos y ceros:
Longitud de la respuesta
Si al menos un polo diferente de cero de 𝐻(𝑧) no es cancelado por un cero, existirá un término de
la forma 𝐴𝑘 (𝑝𝑘 )𝑛 en
𝑀−𝑁 𝑁
En este caso, ℎ[𝑛] tiene duración inifinita y el sistema es llamado sistema IIR.
𝑌(𝑧) ∑𝑀
𝑘=0 𝑏𝑘 𝑧
−𝑘
𝐻(𝑧) = =
𝑋(𝑧) 1 + ∑𝑁
𝑘=1 𝑎𝑘 𝑧
−𝑘
se vuelve un polinomio.
Realimentación en la implementación
Si 𝑁 ≥ 1 la salida del sistema es realmentada a la entrada y el sistema se conoce como sistema
recursivo.
Si 𝑁 = 0 la salida sólo es una combinación lineal de las entradas presentes y anteriores. Tales
sistemas se llaman sistemas no recursivos.
Polos y ceros
Si 𝑎𝑘 = 0; 𝑘 = 1, … , 𝑁, entonces el sistema tiene sólo 𝑀 ceros y el sistema es denominados sistema
todo ceros.
Análisis de sistemas LTI con Matlab.- En la práctica se trabaja con sistemas FIR (causales o no
causales) y sistemas IIR causales especificados por ecuaciones de diferencias de la forma:
𝑁 𝑀
El análisis de sistemas causales con funciones del sistema racionales usando Matlab involucra los
siguientes pasos:
o la función sistema
𝑌(𝑧) ∑𝑀
𝑘=0 𝑏𝑘 𝑧
−𝑘
𝐻(𝑧) = =
𝑋(𝑧) 1 + ∑𝑁
𝑘=1 𝑎𝑘 𝑧
−𝑘
2.- Graficar el patrón de polos y ceros con la función zplane(b,a). Si los polos están dentro del círculo
unitario, se concluye que el sistema es estable.
3.- Calcular y graficar la respuesta al impulso ℎ[𝑛] usando la función impz(b,a,L), con 𝐿 = 100. Si el
sistema es estable, los valores de ℎ[𝑛] deberían tender asintóticamente a cero.
4.- Después de inspeccionar la gráfica, elegir 𝐿 tal que sólo los valores diferentes de cero de ℎ{𝑛}
estén incluidos en la gráfica.
5.- Calcular la respuesta 𝑦[𝑛] a una entrada arbitratia 𝑥[𝑛] usando la función y=filter(b,a,x).
𝐴𝑘 = (1 − 𝑝𝑘 𝑧 −1 )𝐻(𝑧)|𝑧=𝑝𝑘 (3.90)
La ecuación (3.89) muestra que un sistema de orden 𝑁 puede ser obtendio conectando un
sistema FIR de orden 𝑀 − 𝑁 y 𝑁 sistemas de primer orden.
Los coeficientes 𝐶𝑘 son siempre reales, sin embargo, los polos 𝑝𝑘 pueden ser reales o complejos.
Para evitar el uso de los sistemas de primer orden con coeficientes complejos se usa el siguiente
resultado:
Resultado 3.7.1.- Las raíces de un polinomio con coeficientes reales o son real o bien ocurren en
pares complejos conjugados.
Por tanto, cualquier sistema con una función racional 𝐻(𝑧) es equivalente a una combinación
de sistemas FIR, 𝐾1 sistemas de primer orden con polos reales y 𝐾2 sistemas de segundo orden
con polos complejos conjugados, donde 𝑁 = 𝐾1 + 𝐾2 .
Más específicamente:
𝑀−𝑁 𝐾1 𝐾2
−𝑘
𝐴𝑘 𝑏𝑘0 + 𝑏𝑘1 𝑧 −1
𝐻(𝑧) = ∑ 𝐶𝑘 𝑧 +∑ + ∑ (3.94)
1 − 𝑝𝑘 𝑧 −1 1 − 𝑎𝑘1 𝑧 −1 + 𝑎𝑘2 𝑧 −2
𝑘=0 𝑘=1 𝑘=1
La siguiente figura muestra cómo la localización del polo real afecta a la forma de la respuesta al
impulso:
La respuesta al impulso de un sistema causal con un par de polos complejos conjugados se puede
encontrar como sigue:
𝑏0 + 𝑏1 𝑧 −1 𝐴 𝐴∗
𝐻(𝑧) = = +
1 − 𝑎1 𝑧 −1 + 𝑎2 𝑧 −2 1 − 𝑝𝑧 −1 1 − 𝑝∗ 𝑧 −1
donde:
𝑎2 = |𝑝|2 = 𝑟 2
Antitransformando al dominio del tiempo:
ℎ[𝑛] = 𝐴𝑝𝑛 𝑢[𝑛] + 𝐴∗ (𝑝∗ )𝑛 𝑢[𝑛] = |𝐴|𝑒 𝑗𝜃 𝑟 𝑛 𝑒 𝑗𝜔0 𝑛 𝑢[𝑛] + |𝐴|𝑒 −𝑗𝜃 𝑟 𝑛 𝑒 −𝑗𝜔0 𝑛 𝑢[𝑛]
= |𝐴|𝑟 𝑛 [𝑒 𝑗(𝜔0 𝑛+𝜃) + 𝑒 −𝑗(𝜔0 𝑛+𝜃) ]𝑢[𝑛] = 2|𝐴|𝑟 𝑛 cos(𝜔0 𝑛 + 𝜃) 𝑢[𝑛]
𝑎1 = −2𝑟 cos(𝜔0 )
𝑎2 = 𝑟 2
Por tanto, la respuesta al impulso de un sistema causal de segundo orden con polos complejos
conjugados es una secuencia sinusoidal con amplitud exponencialmente variante.
Más específicamente:
La siguiente figura ilustra cómo la localización de los polos afecta la forma de la respuesta al impulso
y la estabilidad del sistema:
3.8Tranformada z unilateral
La transformada z definida por
∞
𝑋(𝑧) = ∑ 𝑥[𝑛]𝑧 −𝑛
𝑛=−∞
es conocida como la transformada z bilateral debido a que representa la secuencia entera de dos
lados.
Sin embargo, existen problemas cuyas soluciones requieren el uso de la transformada z unilateral
definida por la fórmula:
∞
+ (𝑧) + {𝑥[𝑛]}
𝑋 ≜𝒵 ≜ ∑ 𝑥[𝑛]𝑧 −𝑛 (3.100)
𝑛=0
Por tanto, las secuencias que son iguales para 𝑛 ≥ 0 y difieren para 𝑛 < 0 tienen la misma
transformada z unilateral.
Puesto que
𝒵 + {𝑥[𝑛]} = 𝒵{𝑥[𝑛]𝑢[𝑛]}
la ROC de 𝑋 + (𝑧) siempre es el exterior de un círculo.
Casi todas las propiedades que se han estudiado para la transformada z bilateral se pueden
llevar a cabo sobre la transformada z unilateral con excepción de la propiedad de corrimiento
de tiempo.
𝒵 + {𝑥[𝑛
− 𝑘]} = 𝑧 −𝑘
𝑋 + (𝑧)
+ ∑ 𝑥[−𝑚]𝑧 (𝑚−𝑘) (3.103)
𝑚=1
Esta propiedad hace posible la solución de ecuaciones de diferencias lineales con coeficientes
constantes con condiciones iniciales diferentes de cero.
Si la entrada 𝑥[𝑛] = 0 para todo 𝑛, entonces la respuesta 𝑦[𝑛] sólo se debe a la condición inicial
𝑦[−1].
Por tanto, el primer término en el lado derecho de la anterior ecuación puede ser identificado como
la respuesta a la condición inicial o la respuesta a la entrada cero 𝑦𝑧𝑖 [𝑛], la cual está dada por:
El primer término de
𝑎𝑦[−1] 𝑏
𝑌 + (𝑧) = + 𝑋 + (𝑧)
⏟− 𝑎𝑧 −1
1 ⏟
1 − 𝑎𝑧 −1
𝑐𝑜𝑛𝑑𝑖𝑐𝑖ó𝑛 𝑖𝑛𝑖𝑐𝑖𝑎𝑙 𝐸𝑠𝑡𝑎𝑑𝑜 𝑐𝑒𝑟𝑜
y=filter(b,a,x,xic) (3.110)
donde xic es un arreglo obtenido de los valores iniciales de las señales de entrada y salida usando:
xic=filtic(b,a,Y,X) (3.111)
en la cual Y y X son los respectivos arreglos de las condiciones iniciales. De esta manera, en el
ejemplo anterior las sentencias:
xic=filtic(b,[1,-a],yic,0]; %yic=y[-1]
y=filter(b.[1,-a],x,xic);
El análisis de Fourier es como un prisma de vidrio que divide un haz de luz en componentes de
frecuencias correspondientes a diferentes colores.
Si se asume que 𝑡 es medida en segundos, las unidades de 𝐹0 son ciclos por segundo o Hertz (Hz).
Ω0 = 2𝜋𝐹0 (4.2)
Usando la identidad de Euler, 𝑒 ±𝑗𝜙 = cos 𝜙 ± 𝑗 sin 𝜙, se puede expresar cada señal sinusoidal en
términos de dos exponenciales complejas con la misma frecuencia, como sigue:
𝐴 𝑗𝜃 𝑗Ω 𝑡 𝐴 −𝑗𝜃 −𝑗Ω 𝑡
𝐴 cos(Ω0 𝑡 + 𝜃) = 𝑒 𝑒 0 + 𝑒 𝑒 0 (4.3)
2 2
Por tanto, se puede estudiar las propiedades de la señal sinusoidal mediante las propiedades de
la exponencial 𝑥(𝑡) = 𝑒 𝑗Ω0 𝑡 .
La frecuencia, vista como el numero de ciclos completados por unidad de tiempo, es una cantidad
inherentemente positiva.
Sin embargo, el uso de frecuencias negativas es una forma conveniente para describir señales
en términos de exponenciales complejas.
El concepto de frecuencias negativas es usado, principlamente por conveniencia matemática.
El resultado es:
∞ ∞ ∞
𝑦(𝑡) = ∫ ℎ(𝜏)𝑥(𝑡 − 𝜏)𝑑𝜏 = ∫ ℎ(𝜏)𝑒 𝑗Ω0 (𝑡−𝜏) 𝑑𝜏 = ∫ ℎ(𝜏)𝑒 𝑗Ω0 𝑡 𝑒 −𝑗Ω0 𝜏 𝑑𝜏
−∞ −∞ −∞
∞
= (∫ ℎ(𝜏)𝑒 −𝑗Ω0 𝜏 𝑑𝜏) 𝑒 𝑗Ω0 𝑡 (4.4)
−∞
Cuando la integral en el paréntesis de (4.4) existe, su valor es una constante compleja, por ejemplo
𝐻(𝑗Ω), cuyo valor depende de la frecuencia de entrada.
Esto implica que las exponenciales complejas son funciones propias de sistemas LTI de tiempo
continuo.
Para un valor específico de Ω, la constante 𝐻(𝑗Ω) es un valor propio asociado con la función
propia 𝑒 𝑗Ωt .
Eligiendo ℎ(𝑡) tal que 𝐻(𝑗Ω) ≈ 1 sobre algún rango de frecuencias y 𝐻(𝑗Ω) ≈ 0 sobre otro
rango de frecuencias, proporciona la base para el diseño de filtros de frecuencia selectiva.
1.- Una sinusoide de tiempo continuo es periódica, con periodo fundamental 𝑇0 = 1⁄𝐹0 , para cada
valor de la frecuencia 𝐹0 . En efecto, puesto que 𝑒 𝑗2𝜋 = 1, se tiene que 𝑒 𝑗2𝜋𝐹0 (𝑡+𝑇0 ) =
𝑒 𝑗2𝜋𝐹0 𝑡 𝑒 𝑗2𝜋𝐹0 𝑇0 = 𝑒 𝑗2𝜋𝐹0 𝑡 .
2.- Dos sinusoides con frecuencias diferentes son diferentes. Es decir, si 𝐹1 ≠ 𝐹2 entonces 𝑥1 (𝑡) =
𝑒 𝑗2𝜋𝐹1 𝑡 ≠ 𝑥2 (𝑡) = 𝑒 𝑗2𝜋𝐹2 𝑡 . Más aún, 𝑇1 > 𝑇2 implica que 𝐹1 < 𝐹2 y viceversa.
3.- La tasa de oscilación (es decir, el número de ciclos completados en un segundo) de una sinusoide
de tiempo continuo se incrementa indefinidamente con el incremento de la frecuencia.
∗ (𝑡)𝑑𝑡 𝑇 𝑘=𝑚
∫ 𝑠𝑘 (𝑡)𝑠𝑚 = ∫ 𝑒 𝑗𝑘Ω0 𝑡 𝑒 −𝑗𝑚Ω0 𝑡 𝑑𝑡 = { 0 (4.7)
𝑇0 𝑇0 0 𝑘≠𝑚
donde la integral denota la integración sobre cualquier intervalo de longitud 𝑇0 , es decir, desde 𝑡0
a 𝑡0 + 𝑇0 para cualquier elección de 𝑡0 .
La siguiente figura muesta una señal periódica compuesta de tres sinusoides con frecuencias
armónicamente relacionadas:
1 1 1
𝑥1 (𝑡) = cos(2𝜋𝐹0 𝑡) − cos(2𝜋3𝐹0 𝑡) + cos(2𝜋5𝐹0 𝑡) (4.8)
3 10 10
donde 𝐹0 = 10 Hz.
Suponga ahora que las frecuencias de las tres sinusoides no son armónicamente relacionadas.
Por ejemplo:
1 1 1
𝑥2 (𝑡) = cos(2𝜋𝐹0 𝑡) − cos(2𝜋√8𝐹0 𝑡) + cos(2𝜋√51𝐹0 𝑡) (4.9)
3 10 10
Aunque cada señal sinusoidal en el lado derecho de la ecuación anterior es periódica, no existe un
periodo 𝑇0 en el cual los valores de 𝑥2 (𝑡) se repiten.
La señal 𝑥2 (𝑡), la cual se muestra en la siguiente figura se dice que es casi periódica o quasi
periódica.
Si la entrada a una sistema LTI de tiempo discreto es una secuencia exponencial compleja, su salida
es una exponencial compleja con la misma frecuencia. En efecto, se tiene:
ℋ
𝑥[𝑛] = 𝑒 𝑗𝜔0 𝑛 → 𝑦[𝑛] = 𝐻(𝑒 𝑗𝜔 )𝑒 𝑗𝜔𝑛 ; ∀𝑛 (4.14)
𝑦[𝑛] = 𝐻(𝑧)𝑧 𝑛 ; ∀𝑛
haciendo 𝑧 = 𝑒 𝑗𝜔 .
De esta manera las exponenciales complejas 𝑒 𝑗𝜔𝑛 son funciones propias de los sistema LTI de
tiempo discreto con valores propios dados por la función de sistema 𝐻(𝑧) evaluada en 𝑧 = 𝑒 𝑗𝜔 .
Esta propiedad es de principal importancia en el análisis de sistemas.
El hecho de que 𝑛 sea una variable discreta mientras que 𝑡 es una variable continua conduce a
algunas diferencias importantes entre señales sinusoidales de tiempo discreto y tiempo
continuo.
Por tanto:
Para entender el significado físico de esta propiedad, suponga que se muestrea una sinusoide de
tiempo continuo cada 𝑇 segundos.
De esta manera, una sinusoide de tiempo discreto, obtenida por muestreo es periódica si su periodo
en segundos, 𝑁𝑇, es igual a un número entero de periodos, 𝑘𝑇0, de la correspondiente sinusoide de
tiempo continuo.
1.- Las secuencia sinusoidales con frecuencias en radianes separadas por múltiplos enteros de 2𝜋
son idénticas.
2.- Todas las secuencias sinusoidales distintas tienen frecuencias dentro de un intervalo de 2𝜋
radianes.
Para que 𝑠𝑘 [𝑛] sea periódica con periodo fundamental 𝑁, la frecuencia 𝜔𝑘 debería ser un
múltiplo racional de 2𝜋, es decir, 𝜔𝑘 = 2𝜋𝑘⁄𝑁.
Por tanto, todas las exponenciales complejas distintas con periodo 𝑁 y frecuencia en el rango
fundamental, tienen frecuencias dadas por 𝜔𝑘 = 2𝜋𝑘⁄𝑁 ; 𝑘 = 0,1, … , 𝑁 − 1.
El conjunto de secuencias:
2𝜋
𝑠𝑘 [𝑛] = 𝑒 𝑗 𝑁 𝑘𝑛 ; −∞ < 𝑘, 𝑛 < ∞ (4.19)
es un conjunto de secuencias periódicas tanto en tiempo 𝑛 como en frecuencia 𝑘 con periodo
fundamental 𝑁.
donde el rango de la sumatoria denota la sumatoria sobre cualquier rango de longitud 𝑁, es decir,
desde 𝑛 = 𝑛0 a 𝑛 = 𝑛0 + 𝑁 − 1 para cualquier elección de 𝑛0 .
La elección de 𝑛0 es usualmente un tema de conveniencia.
A menudo se elige 𝑛0 = 0.
Para mantener estas variables en perspectiva y para evitar confusión es importante ser
cuidadoso y consistente cuando se usan unidades para expresarlas.
Por tanto, es razonable expresar la frecuencia analógica, 𝐹, en unidades de ciclos por segundo
o Hertz (Hz) y la frecuencia angular analógica, Ω = 2𝜋𝐹, en unidades de radianes por segundo.
En el caso de tiempo discreto, si se asume que las unidades del índice entero sin dimensión son
muestras (intervalos de muestreo es un término más apropiado), entonces las unidades de la
frecuencia normalizada, 𝑓, son ciclos por muestra y las unidades de frecuencia angular normalizada,
𝜔, son radianes por muestra.
Euler y Lagrange pensaban que esto era sólo posible para funciones de tiempo continuo.
El descubriiento de Fourier fue que las representaciones en series de Fourier son también válidas
para funciones discontinuas.
Sin embargo una prueba matemática rigurosa de este resultado fue proporcionado por Dirichlet en
1837.
𝑇 𝑘=𝑚
∫ 𝑒 𝑗𝑘Ω0 𝑡 𝑒 −𝑗𝑚Ω0 𝑡 𝑑𝑡 = { 0
𝑇0 0 𝑘≠𝑚
donde la integral denota la integración sobre cualquier intervalo de longitud 𝑇0 , es decir, desde 𝑡0
a 𝑡0 + 𝑇0 para cualquier elección de 𝑡0 ; entonces se obtiene:
1
𝑐𝑘 = ∫ 𝑥(𝑡)𝑒 𝑗𝑘Ω0 𝑡 𝑑𝑡 (4.24)
𝑇0 𝑇0
El par de ecuaciones (4.23) y (4.24), cuando existen, define la representación en series de Fourier
de una señal periódica de tiempo continuo.
Se dice que 𝑥(𝑡) y 𝑐𝑘 son un par de la serie de Fourier de tiempo continuo (CTFS) denotado por:
Puesto que los coeficientes 𝒄𝒌 son, en general, números complejos, se puede expresarlos en forma
polar:
La gráfica de |𝑐𝑘 | es conocida como el espectro de magnitud de 𝑥(𝑡), mientras que la gráfica de
∠𝑐𝑘 es conocida como el espectro de fase de 𝑥(𝑡).
Si 𝑐𝑘 es un número real, se puede usar una sola gráfica, conocida como espectro de amplitud.
El valor de |𝑐𝑘 |2 proporciona la porción de la potencia promedio de la señal 𝑥(𝑡) que está
contribuida por la 𝑘-ésima armónica de la componente fundamental.
La gráfica de |𝑐𝑘 |2 como una función de 𝐹 = 𝑘𝐹0 es conocida como espectro de potencia de la
señal periódica 𝑥(𝑡).
Debido a que la potencia está distribuida en un conjunto discreto de frecuencias, se dice que las
señales periódicas de tiempo continuo tiene un espectro discreto o espectro de línea.
Las siguientes observaciones son útiles cuando se trata con espectros de señales periódicas:
Ejemplo 4.1 Tren de pulsos rectangular.- Considere el tren de pulsos rectangular que se
muesstra en la figura:
Sin embargo, por consistencia, se grafica el espectro de magnitud y de fase como se muestra en:
Para obtener estos espectros de magnitud y de fase, se usan las siguientes convenciones generales:
Los ángulos de fase siempre se miden con respecto a las ondas coseno.
De esta manera, las ondas seno tienen una fase de − 𝜋⁄2 puesto que sin Ω𝑡 = cos(Ω𝑡 − 𝜋⁄2).
Los espectros de magnitud siempre son positivos.
Por tanto, los signos negativos deberían ser absorbidos en la fase usando la identidad:
−𝐴 cos Ω𝑡 = cos(Ω𝑡 ± 𝜋).
No importa si se toma +𝜋 o – 𝜋 debido a que cos(−𝜋) = cos 𝜋.
Sin embargo, se usa tanto +𝜋 como – 𝜋 para obtener simetría impar de la fase.
Función Sinc
La función sin(𝜙)⁄𝜙, conocida como función sinc, surge frecuentemente en el análisis de Fourier y
en el estudio de sistemas LTI.
4.- sinc(𝜃) es el producto de la función periódica sin(𝜋𝜃) con una función monotónicamente
decreciente 1⁄(𝜋𝜃).
Por tanto, sinc(𝜃) exhibe oscilación sinusoidal de periodo 𝜃 = 2 con amplitud continuamente
decreciente conforme a 1⁄(𝜋𝜃).
En Matlab la ecuación
sin 𝜋𝜃
sinc(𝜃) =
𝜋𝜃
puede ser evaluada usando la función sinc(theta).
Condiciones de convergencia de la serie de Fourier
Para que una señal periódica 𝑥(𝑡) tenga una representación en series de Fourier, es necesario que:
1
𝑐𝑘 = ∫ 𝑥(𝑡)𝑒 𝑗𝑘Ω0 𝑡 𝑑𝑡
𝑇0 𝑇0
𝑥(𝑡) = ∑ 𝑐𝑘 𝑒 𝑗𝑘Ω0 𝑡
𝑘=−∞
la serie infinita resultante debe converger (en algún sentido) a la señal 𝑥(𝑡).
1.- La señal periódica 𝑥(𝑡) es absolutamente integrable sobre cualquier periodo, es decir, 𝑥(𝑡) tine
un área finita por periodo:
Esta condición garantiza que los coeficientes de la serie de Fourier sean finitos.
2.- La señal periódica 𝑥(𝑡) tiene un número de máximos, mínimos y discontinuidades finitas por
periodo.
converge a x(t) donde quiera que x(t) sea continua y al valor promedio de los lados de 𝑡0 ; es
decir, a [𝑥(𝑡0− ) + 𝑥(𝑡0+ )]⁄2, si 𝑥(𝑡) tiene una discontinuidad finita en 𝑡0 .
Para entender cómo la serie de Fourier representa señales periódicas, considere cómo la suma
parcial de la ecuación anterior se aproxima a una señal periódica 𝑥(𝑡) y cuál es la naturaleza del
error de aproximación:
𝑚
Fenómeno de Gibbs
Sin considerar si una señal periódica es absolutamente integrable o cuadráticamente integrable, la
serie de Fourier exhibe un comportamiento conocido como fenómeno de Gibbs en la vecindad de
los puntos de discontinuidad de la señal 𝑥(𝑡).
La siguiente figura ilustra este efecto para una de las discontinuidades del pulso rectangular.
La suma parcial, aún para valores grandes de 𝑚, exhibe un sobrepaso oscilatorio con periodo
𝑇0 ⁄(2𝑚) y valor pico de alrededor de 9% de la altrua del salto.
A medida que 𝑚 se incrementa, los rizos más cercanos a la discontinuidad y el área bajo los rizos
decrece; eventualmente el área se vuelve cero a medida que 𝑚 → ∞.
Sin embargo, el tamaño del sobrepaso no decrece y permanece el mismo para cualquier valor
finitio de 𝑚.
Por tanto, cuando se aproxima una señal discontinua con una serie de Fourier truncada, se
debería elegir un valor grande de 𝑚 para asegurar que la energía total de los rizos sea poco
significativa.
Luego repita esta señal con periodo 𝑇0 > 𝜏 cuyo resultado es una señal periódica 𝑥𝑝 (𝑡),
denominada extensión periódica de la señal 𝑥(𝑡).
1 𝑇0⁄2
𝑐𝑘 = ∫ 𝑥 (𝑡)𝑒 −𝑗2𝜋𝑘𝐹0 𝑡 𝑑𝑡 (4.41)
𝑇0 −𝑇0⁄2 𝑝
Puesto que 𝑥(𝑡) = 𝑥𝑝 (𝑡) para |𝑡| > 𝑇0 ⁄2 y 𝑥(𝑡) = 0 para |𝑡| > 𝑇0 ⁄2, la anterior ecuación se puede
escribir como:
∞
𝑐𝑘 (𝑘𝐹0 )𝑇0 = ∫ 𝑥(𝑡)𝑒 −𝑗2𝜋𝑘𝐹0 𝑡 𝑑𝑡 (4.42)
−∞
si se hace que 𝐹 = 𝑘𝐹0 , la integral en la ecuación anterior se vuelve una función 𝑋(𝑗2𝜋𝐹𝑡) la cual
es básicamente la envoltura de 𝑐𝑘 𝑇0 .
se obtiene:
𝑋(𝑗2𝜋𝑘𝐹0 )
𝑐𝑘 = = 𝐹0 𝑋(𝑗2𝜋𝐹)|𝐹=𝑘𝐹0 = 𝑋(𝑗2𝜋𝑘∆𝐹)∆𝐹 (4.44)
𝑇0
De esta manera, los coeficientes de Fourier ck de una señal periódica xp (t) son proporcionales
a muestras espaciadas uniformemente de la transformada de Fourier de un periodo de xp (t).
Esta relación se tiene para cada señal 𝑥(𝑡) que es igual a 𝑥𝑝 (𝑡) sobre exactamente un periodo, es
decir:
𝑥𝑝 (𝑡) 𝑡0 < 𝑡 < 𝑡0 + 𝑇0
𝑥(𝑡) = { (4.45)
0 de otra manera
La serie de Fourier:
∞
𝑥𝑝 (𝑡) = ∑ 𝑐𝑘 𝑒 𝑗2𝜋𝑘𝐹0 𝑡
𝑘=−∞
Para obtener la ecuación correspondiente para la señal no periódica 𝑥(𝑡), recuerde de la ecuación:
𝑥 (𝑡) 𝑡0 < 𝑡 < 𝑡0 + 𝑇0
𝑥(𝑡) = { 𝑝
0 de otra manera
y que 𝑐𝑘 = 𝑋(𝑗2𝜋∆𝐹)∆𝐹, luego exprese 𝑥𝑝 (𝑡) como sigue:
∞
Más aún, ∆𝐹 → 0 cuando 𝑇0 → ∞, y el lado decho de la ecuación anterior se vuelve una integral.
El resultado es:
∞
𝑥(𝑡) = ∫ 𝑋(𝑗2𝜋𝐹)𝑒 𝑗2𝜋𝐹𝑡 𝑑𝐹 (4.47)
−∞
o más concisamente
𝐶𝑇𝐹𝑇
𝑥(𝑡) = ℱ −1 {𝑋(𝑗2𝜋𝐹)} ↔ 𝑋(𝑗2𝜋𝐹) = ℱ{𝑥(𝑡)} (4.49)
indica que 𝑋(𝑗2𝜋𝐹) juega el mismo rol en las señales no periódicas que el que juega 𝑐(𝑘𝐹0 ) en
señales periódicas.
Las señales periódicas deben tener espectros discretos con líneas en frecuencias armónicamente
relacionadas; de otra manera no pueden ser periódicas.
Un espectro continuo resulta en una señal no periódica debido a que casi todas las frecuencias en
un intervalo continuo no son armónicamente relacionadas.
Es útil tener en cuenta que la CTFT es de la misma naturaleza que la CTFS con frecuencia
fundamental 𝐹0 = 1⁄𝑇0 → 0.
Convergencia.- Las condiciones para la convergencia de la CTFT son similares a las requeridas por
la CTFS.
Si 𝑥(𝑡) tiene un número finito de mínimos, máximos y discontinuidades en cualquier intervalo finito
y es absoutamente integrable, es decir
∞
∫ |𝑥(𝑡)|𝑑𝑡 < ∞ (4.50)
−∞
La señal 𝑥̂(𝑡) = ℱ −1 {𝑋(𝑗2𝜋𝐹)} converge a 𝑥(𝑡) para cualquier 𝑡 donde 𝑥(𝑡) es continua.
En una discontinuidad, 𝑥̂(𝑡) es igual al promedio de los valores sobre cualquier lado de la
discontinuidad.
sólo se garantiza que la energía de la señal de error 𝑒(𝑡) = 𝑥(𝑡) − 𝑥̂(𝑡) es cero.
Sin embargo, las señales 𝑥(𝑡) y 𝑥̂(𝑡) pueden diferir significativamente en puntos individuales.
Relación de Parseval.- Para señales no periódicas con energía finita, la relación de Parseval está
dada por:
∞ ∞
∫ |𝑥(𝑡)|2 𝑑𝑡 = ∫ |𝑋(𝑗2𝜋𝐹)|2 𝑑𝐹 (4.52)
−∞ −∞
y establece que la energía total de 𝑥(𝑡) puede ser obtenida a partir de la propia señal o a partir de
su espectro.
En efecto, se tiene:
𝑁−1
2𝜋
𝑥[𝑛 + 𝑁] = ∑ 𝑐𝑘 𝑒 𝑗 𝑁 𝑘𝑛 𝑒 𝑗2𝜋𝑛 = 𝑥[𝑛] (4.64)
𝑘=0
Para determinar los coeficientes 𝑐𝑘 a partir de los valores de la señal periódica 𝑥[𝑛], se explota la
propiedad de ortogonalidad de exponenciales armónicamente relacionadas:
2𝜋 2𝜋
𝑁 𝑘=𝑚
∗ [𝑛]
∑ 𝑠𝑘 [𝑛]𝑠𝑚 = ∑ 𝑒 𝑗 𝑁 𝑘𝑛 𝑒 −𝑗 𝑁 𝑘𝑚 = {
0 𝑘≠𝑚
𝑛=(𝑁) 𝑛=(𝑁)
Usando la relación:
2𝜋 2𝜋
𝑁 𝑘=𝑚
∗ [𝑛]
∑ 𝑠𝑘 [𝑛]𝑠𝑚 = ∑ 𝑒 𝑗 𝑁 𝑘𝑛 𝑒 −𝑗 𝑁 𝑘𝑚 = {
0 𝑘≠𝑚
𝑛=(𝑁) 𝑛=(𝑁)
La ecuación anterior proporciona una expresión de forma cerrada para la obtención de los
coeficientes de la serie de Fourier requeridas por las serie de Fourier:
𝑁−1
2𝜋
𝑥[𝑛] = ∑ 𝑐𝑘 𝑒 𝑗 𝑁 𝑘𝑛
𝑘=0
|2
El valor de |𝑐𝑘 proporciona la porción de la potencia promedio de 𝑥[𝑛] que es contribuida por su
𝑘-ésima componente armónica.
Cálculo numérico de la DTFS.- Las ecuaciones de análisis y síntesis de la DTFS involucran el cálculo
de un número finito de items usando sumatorias finitas.
En Matlab, las fórmulas de análisis y síntesis de la DTFS son implementadas usando las siguientes
funciones fft e ifft:
𝑁−1
1 2𝜋 fft(x)
𝑐𝑘 = (∑ 𝑥[𝑛]𝑒 −𝑗 𝑁 𝑘𝑛 ) ⇒ c = = dtfs(x) (4.81)
𝑁 N
𝑛=0
𝑁−1
1 2𝜋
𝑥[𝑛] = 𝑁 ( ∑ 𝑐𝑘 𝑒 𝑗 𝑁 𝑘𝑛 ) ⇒ x = N ∗ ifft(c) = idtfs(x) (4.82)
𝑁
𝑘=0
Las funciones fft e ifft son implementaciones computacionalmente eficientes de las ecuaciones
dentro de las paréntesis.
Se enfatiza que Matlab asume que el vector x incluye las 𝑁 primeras muestras de la secuencia
𝑥[𝑛], es decir, 𝑥[0], 𝑥[1], … , 𝑥[𝑁 − 1].
Cuando 𝑐𝑘 o 𝑥[𝑛] asumen valores reales, se debería usar sólo la parte real de c o x.
Las partes imaginarias, debido a las limitaciones de precisión numérica no son cero, toman
valores pequeños en el rango de ±10−6 alrededor de cero.
Debido a la simetría par de 𝑥[𝑛], es conveniente calcular los coeficientes de Fourier usando la
siguiente sumatoria:
𝐿
1 2𝜋
𝑐𝑘 = ∑ 𝑒 −𝑗 𝑁 𝑘𝑛 (4.76)
𝑁
𝑛=−𝐿
Por tanto:
2𝐿 + 1
𝑘 = 0, ±𝑁, ±2𝑁, …
𝑁
𝑐𝑘 = 1 sin [2𝜋 𝑘 (𝐿 + 1)] (4.79)
𝑁 2 de otra manera
𝑁 2𝜋 1
{ sin [ 𝑁 𝑘 2]
A partir de esta señal no periódica, se construye una señal periódica 𝑥𝑝 [𝑛] repitiendo 𝑥[𝑛] cada 𝑁 >
𝐿2 + 𝐿1 + 1 muestras como se muestra en la siguiente figura:
Recuerde que los límites en las anteriores ecuaciones pueden ser elegidos sobre cualquier intervalo
que cubra un periodo.
Puesto que 𝑥𝑝 [𝑛] = 𝑥[𝑛] para −𝐿1 ≤ 𝑛 ≤ 𝐿2 , la última ecuación se puede expresar como:
∞
1 2𝜋
𝑐𝑘 = ∑ 𝑥[𝑛]𝑒 −𝑗 𝑁 𝑘𝑛 (4.86)
𝑁
𝑛=−∞
se ve que los coeficiente de la serie 𝑐𝑘 pueden ser obtenidos tomando muestras equidistantes de
𝑋(𝑒 𝑗𝜔 ) como sigue:
1
𝑐𝑘 = 𝑋(𝑒 𝑗𝜔 )|𝜔=𝑘𝜔 (4.88)
𝑁 0
1 2𝜋
𝑥[𝑛] = ∫ 𝑋(𝑒 𝑗𝜔 )𝑒 𝑗𝜔𝑛 𝑑𝜔 (4.90)
2𝜋 0
Puesto que 𝑋(𝑒 𝑗𝜔 )𝑒 𝑗𝜔𝑛 es periódica con periodo 2𝜋, se puede usar cualquier intervalo de
integración de longitud 2𝜋.
Las ecuaciones (4.87) y (4.90) son conocidas como par de transformadas de Fourier de tiempo
discreto (DTFT):
Las cantidades 𝑋(𝑒 𝑗𝜔 ), |𝑋(𝑒 𝑗𝜔 )| y ∠𝑋(𝑒 𝑗𝜔 ) son conocidas como espectro, espectro de magnitud
y espectro de fase de la secuencia no periódica 𝑥[𝑛], respectivamente.
Finalmente, note que la derivación de la DTFT revela una relación importante entre la DTFT y la
DTFS.
𝑥𝑝 [𝑛] 𝑛0 ≤ 𝑛 ≤ 𝑛0 + 𝑁 − 1
𝑥[𝑛] = { (4.92)
0 de otra manera
y los coeficientes de Fourier de 𝑥𝑝 [𝑛] pueden ser expresados en términos de muestras igualmente
espaciadas de la DTFT 𝑋(𝑒 𝑗𝜔 ) de 𝑥[𝑛] mediante:
1 2𝜋
𝑐𝑘 = 𝑋 (𝑒 𝑗 𝑁 𝑘 ) (4.93)
𝑁
Ejemplo 4.11 Pulso de longitud finita.- Considere la secuencia:
𝑥[𝑛] = 𝛿[𝑛 + 1] + 𝛿[𝑛] + 𝛿[𝑛 − 1]
De la definición de la DTFT
se tiene:
1
𝑗𝜔
𝑋(𝑒 ) = ∑ 𝑥[𝑛]𝑒 −𝑗𝜔𝑛 = 𝑒 𝑗𝜔 + 1 + 𝑒 −𝑗𝜔 = 1 + 2 cos(𝜔)
𝑛=−1
por tanto:
|𝑋(𝑒 𝑗𝜔 )| = |1 − 2 cos(𝜔)|
0 𝑋(𝑒 𝑗𝜔 ) > 0
∠𝑋(𝑒 𝑗𝜔 ) = {
𝜋 𝑋(𝑒 𝑗𝜔 ) < 0
Relación de Parseval.- Si 𝑥[𝑛] tiene energía finita, se tiene la siguiente relación de Parseval:
1 2
𝐸𝑥 = ∑∞ 2 𝑗𝜔
𝑛=−∞|𝑥[𝑛]| = 2𝜋 ∫2𝜋|𝑋(𝑒 )| 𝑑𝜔 (4.94)
la cual permite determinar la energía de la señal en el dominio del tiempo a partir de 𝑥[𝑛] o en el
dominio de la frecuencia a partir de 𝑋(𝑒 𝑗𝜔 ).
Condiciones de convergencia.- Aunque el par DTFT fue derivado para una señal de duración finita,
las fórmulas se tienen para señales de duración infinita si la sumatoria infinita de la ecuación de
análisis converge.
Cálculo numérico de la DTFT.- Si 𝑥[𝑛] tiene duración finita, se puede calcular 𝑋(𝑒 𝑗𝜔 ) en cualquier
frecuencia 𝜔𝑘 usando la sumatoria infinita:
𝑁2
1 2𝜋
𝑥[𝑛] = ∫ 𝑋(𝑒 𝑗𝜔 )𝑒 𝑗𝜔𝑛 𝑑𝜔
2𝜋 0
X=freqz(x,1,om) (4.99)
la cual calcula la ecuación (4.98) para 𝑁1 = 0, 𝑁2 = 𝑁 y 𝐾 frecuencias 𝜔𝑘 ; 0 ≤ 𝑘 ≤ 𝐾 − 1.
Cuando 𝑋(𝑒 𝑗𝜔 ) o 𝑥[𝑛] asumen valores reales, se debería usar sólo la parte real de X o x.
Las partes imaginarias, debido a las limitaciones de precisión numérica, no son cero; toman valores
pequeños en el rango de ±10−16.
Para calcular
𝑁2
donde x es el vector que contiene la muestras de la señal y Nstart es el índice de la primera muestra.
Las representaciones analíticas, numéricas o gráficas de magnitud y fase de cada componente como
una función de la frecuencia se conocen como espectro de magnitud y espectro de fase de la señal.
Los espectros de magnitud y de fase colectivamente son llamados espectro de Fourier o
simplemente espectro de una señal.
La forma exacta de las fórmulas matemáticas usadas para determinar el espectro de la señal
(ecuación de análisis de Fourier) y la señal a partir de su espectro (ecuación de síntesis de
Fourier) dependen de si el tiempo es continuo o discreto y de si la señal es periódica o no
periódica.
Esto conduce a cuatro representaciones diferentes de Fourier las cuales se resumen en la siguient
tabla:
Las señales periódicas de tiempo continuo están representadas por una serie de Fourier infinita
de exponenciales complejas armónicamente relacionadas.
Por tanto, el espectro existe sólo en 𝐹 = 0, ±𝐹0 , ±2𝐹0 , …, es decir, en valores discretos de 𝐹.
El espaciameinto entre las líneas de este espectro discreto o espectro de línea es 𝐹0 = 1⁄𝑇0, es
decir es el recíproco del periodo fundamental.
Las señales no periódicas de tiempo continuo están representadas por una integral de Fourier
de exponenciales complejas sobre el eje entero de la frecuencia.
Por tanto, el espectro existe para todo 𝐹; −∞ < 𝐹 < ∞.
El conocimiento de 𝑋(𝑗2𝜋𝐹); −∞ < 𝐹 < ∞ es necesario para representar 𝑥(𝑡); −∞ < 𝑡 < ∞.
Las señales periódicas de tiempo discreto se representan por una serie de Fourier finita de
exponenciales complejas armónicamente relacionadas.
El espaciamiento entre las líneas del espectro discreto resultante es ∆𝜔 = 2𝜋⁄𝑁, donde 𝑁 es
el periodo fundamental.
Los coeficientes de la DTFS de una señal periódica son periódicos y la ecuación de análisis
involucra una suma finita sobre un rango de 2𝜋.
Las señales no periódicas de tiempo discreto son representadas por una integral de Fourier de
exponenciales complejas sobre cualquier rango de frecuencias de longitud igual a 2𝜋 radianes.
El conocimiento de la función DTFT periódica 𝑋(𝑒 𝑗𝜔 ) sobre cualquier intervalo de longitud 2𝜋
es necesario para recuperar 𝑥[𝑛]; −∞ < 𝑛 < ∞.
Las exponenciales complejas de tiempo discreto que difieren en frecuencia por un múltiplo de
2𝜋 son idénticas. Esto tiene las siguientes implicaciones:
o Las bajas frecuencias, correspondientes a señales que varían lentamente, están en los
puntos 𝜔 = 0, ±2𝜋, ±4𝜋, …
o Las altas frecuencias, correspondientes a señales que varían rápidamente, están
alrededor de los puntos 𝜔 = ±𝜋, ±3𝜋, …
Señales de banda limitada.- La señales cuyos componentes de frecuencia son cero o pequeños
fuera de un intervalo finito 0 ≤ 𝐵1 ≤ |𝐹| ≤ 𝐵2 < ∞ se dice que son de banda limitada.
Cuando una señal tiene una propiedad de simetría en el dominio del tiempo, esta propiedad
impone otra única simetría sobre su DTFT.
Más aún, algunas operaciones sobre una señal o entre dos señales resultan en operaciones
diferentes entre sus DTFTs.
4.5.1 Relación entre transformada z y la periodicidad
La transformada z de una secuencia 𝑥[𝑛] está definida por:
∞
La frecuencia radiante 𝜔 se mide con respecto al eje real positivo y el círculo unitario es
mapeado a un eje de frecuencia lineal.
Las múltiples rotaciones alrededor del círculo unitario crean una periodicidad inherente, con
periodo 2𝜋 radianes, en el dominio de la frecuencia.
El resultado es:
∞
𝑗𝜔
𝑋𝑅 (𝑒 ) = ∑ {𝑥𝑅 [𝑛] cos(𝜔𝑛) + 𝑥𝐼 [𝑛] sin(𝜔𝑛)} (4.106)
𝑛=−∞
∞
𝑗𝜔
𝑋𝐼 (𝑒 ) = ∑ {𝑥𝑅 [𝑛] sin(𝜔𝑛) + 𝑥𝐼 [𝑛] cos(𝜔𝑛)} (4.107)
𝑛=−∞
1 2𝜋
𝑥[𝑛] = ∫ 𝑋(𝑒 𝑗𝜔 )𝑒 𝑗𝜔𝑛 𝑑𝜔
2𝜋 0
1 2𝜋
𝑥𝑅 [𝑛] = ∫ {𝑋𝑅 (𝑒 𝑗𝜔 ) cos(𝜔𝑛) − 𝑋𝐼 (𝑒 𝑗𝜔 ) sin(𝜔𝑛)}𝑑𝜔 (4.108)
2𝜋 0
1 2𝜋
𝑥𝐼 [𝑛] = ∫ {𝑋𝑅 (𝑒 𝑗𝜔 ) sin(𝜔𝑛) + 𝑋𝐼 (𝑒 𝑗𝜔 ) cos(𝜔𝑛)}𝑑𝜔 (4.109)
2𝜋 0
Puesto que cos(−𝜔𝑛) = cos(𝜔𝑛) y sin(−𝜔𝑛) = − sin(𝜔𝑛) se puede fácilmente ver que:
De esta manera, la DTFT de una señal real tiene simetría Hermitiana (o compleja conjugada).
𝑋𝐼 (𝑒 𝑗𝜔 )
∠𝑋(𝑒 𝑗𝜔 ) = tan−1 (4.115)
𝑋𝑅 (𝑒 𝑗𝜔 )
Usando las propiedades de simetría (4.111) y (4.112), se obtienen las siguientes propiedades de
simetría para los espectros de magnitud y fase;
1 2𝜋
𝑥𝑅 [𝑛] = ∫ {𝑋𝑅 (𝑒 𝑗𝜔 ) cos(𝜔𝑛) − 𝑋𝐼 (𝑒 𝑗𝜔 ) sin(𝜔𝑛)}𝑑𝜔 (4.108)
2𝜋 0
1
𝑥[𝑛] = ∫ [𝑋 (𝑒 𝑗𝜔 ) cos(𝜔𝑛) − 𝑋𝐼 (𝑒 𝑗𝜔 ) sin(𝜔𝑛)]𝑑𝜔 (4.118)
2𝜋 2𝜋 𝑅
1 𝜋
𝑥[𝑛] = ∫ [𝑋 (𝑒 𝑗𝜔 ) cos(𝜔𝑛) − 𝑋𝐼 (𝑒 𝑗𝜔 ) sin(𝜔𝑛)]𝑑𝜔 (4.119)
𝜋 0 𝑅
Señales reales y pares.- Si 𝑥[𝑛] es real y par, es decir, 𝑥[−𝑛] = 𝑥[𝑛], entonces 𝑥[𝑛] cos 𝜔𝑛 es una
función par y 𝑥[𝑛] sin 𝜔𝑛 es una función impar de 𝑛.
Señales reales e impares.- Si 𝑥[𝑛] es real e impar, es decir, 𝑥[−𝑛] = −𝑥[𝑛], entonces 𝑥[𝑛] cos 𝜔𝑛
es una función impar y 𝑥[𝑛] sin 𝜔𝑛 es una función par de 𝑛.
Valor del ángulo principal.- El valor del ángulo principal de un número complejo está definido
como el ángulo entre – 𝜋 y +𝜋 radianes.
La secuencia de correlación entre dos señales que se asume toman valores reales 𝑥[𝑛] y 𝑦[𝑛] está
definida por:
∞
La secuencia 𝑟𝑥𝑦 [ℓ] esiste si al menos una de las señales tiene energía finita.
La secuencia 𝑦[𝑛] es corrida a la derecha cuando el retardo ℓ > 0 y a la izquierda cuando ℓ <
0.
Para entender el significado de la correlación primero note que la energía 𝐸𝑧 de una secuencia
𝑧[𝑛] = 𝑎𝑥[𝑛] + 𝑦[𝑛 − ℓ], la cual es no negativa, puede ser expresada como:
La secuencia 𝜌𝑥𝑦 [ℓ], que es conocida como coeficiente de correlación normalizado, mide la
similitud entres dos secuencia.
revela que la diferencia fundamental entre la convolución y la correlación es que la secuencia y[n]
es volteada antes de la operación de corrimiento.
Se puede calcular la correlación usando una función para el cálculo de la convolución primero
voltenado la secuencia 𝑦[𝑛], es decir:
rxy=conv(x,flipud(y)) (4.159)
Cuando 𝑦[𝑛] = 𝑥[𝑛] se obtiene la secuencia de autocorrelación 𝑟𝑥𝑥 [ℓ] o 𝑟𝑥 [ℓ], en corto.
Puesto que 𝑥[𝑛] es una secuencia real se tiene que: 𝑋(−𝜔) = 𝑋 ∗ (𝜔).
Para secuencias de longitud finita, la correlación es una medida significativa de similaridad para
pequeños retardos (más pequeño que 20% de la longitud); a medida que el número de retardos se
incrementa, el número de muestras usado para el cálculo de la correlación disminuye.
4.5.5 Señales con polos sobre el círculo unitario
La DTFT de una secuencia 𝑥[𝑛] puede ser determinada evaluando su transformada z sobre el círculo
unitario, dado que la ROC incluye el círculo unitario.
Sin embargo, existen algunas secuencias no periódicas útiles que tienen polos sobre el círculo
unitario.
1 − (cos 𝜔0 )𝑧 −1
𝑋(𝑧) = ; ROC: |𝑧| > 1 (4.166)
1 − 2(cos 𝜔0 )𝑧 −1 + 𝑧 −2
Es necesario comentar que la DTFT de secuencias con polos sobre el círculo unitario puede ser
formalmente definida para todos los valores de 𝜔, permitiendo las funciones al impulso de Dirac en
las frecuencias de los polos.
Funciones propias de sistemas LTI.- Si el sistema es estable, la ROC de 𝐻(𝑧) contiene al círculo
unitario.
donde
∞
𝑗𝜔
𝐻(𝑒 ) ≜ 𝐻(𝑧)|𝑧=𝑒 𝑗𝜔 = ∑ ℎ[𝑘]𝑒 −𝑗𝜔𝑘 (5.4)
𝑘=−∞
La función sistema 𝐻(𝑧) de un sistema estable, evaluada sobre el círculo unitario 𝑧 = 𝑒 𝑗𝜔 y vista
como una función de 𝜔, es conocida como la función de respuesta en frecuencia del sistema.
De la ecuación (5.3) se ve que las exponenciales complejas 𝑒 𝑗𝜔𝑛 ; −∞ < 𝑛 < ∞, son funciones
propias de los sistemas LTI.
La constante 𝐻(𝑒 𝑗𝜔 ) para un valor específico de 𝜔 es entonces el valor propio asociado con la
función propia 𝑒 𝑗𝜔𝑛 .
Las exponenciales complejas son sólo funciones propias de los sistemas LTI:
Esta propiedad es poco significativa para cualquier otra señal, incluyendo las exponenciales
complejas de longitud finita o unilaterales.
Para que la propiedad (5.5) sea válida, la respuesta en frecuencia 𝐻(𝑒 𝑗𝜔 ) debe estar bien
definida y ser finita.
Esto es factible sólo para sistemas estables; la respuesta en frecuencia es poco significativa para
sistemas inestables.
La respuesta en frecuencia es una función compleja que puede ser expresada ya sea en forma polar
o rectangular:
𝑗𝜔 )
𝐻(𝑒 𝑗𝜔 ) = |𝐻(𝑒 𝑗𝜔 )|𝑒 𝑗∠𝐻(𝑒 = 𝐻𝑅 (𝑒 𝑗𝜔 ) + 𝑗𝐻𝐼 (𝑒 𝑗𝜔 ) (5.6)
Sin embargo, sólo la forma polar revela el significado físico de la función de respuesta en frecuencia.
Por tanto, la respuesta de un sistema LTI estable a una secuencia exponencial compleja es una
secuencia exponencial compleja con la misma frecuencia; sólo la amplitud y la fase son cambiadas
por el sistema.
Respuesta sinusoidal de sistemas LTI reales.- Suponga a continuación que la entrada es una
secuencia sinusoidal real:
𝐴𝑥 𝑗𝜙 𝑗𝜔𝑛 𝐴𝑥 −𝑗𝜙 −𝑗𝜔𝑛
𝑥[𝑛] = 𝐴𝑥 cos(𝜔𝑛 + 𝜙𝑥 ) = 𝑒 𝑥𝑒 + 𝑒 𝑥𝑒 (5.8)
2 2
𝐴𝑥 𝑗𝜙 𝑗𝜔𝑛
De (5.7), la respuesta a la exponencial compleja 𝑥1 [𝑛] = 𝑒 𝑥𝑒 es:
2
𝐴𝑥 𝑗𝜙 𝑗[𝜔𝑛+∠𝐻(𝑒 𝑗𝜔 )]
𝑦1 [𝑛] = |𝐻(𝑒 𝑗𝜔 )| 𝑒 𝑥𝑒 (5.9)
2
𝐴𝑥 −𝑗𝜙 −𝑗𝜔𝑛
Similarmente, la respuesta a la exponencial compleja 𝑥2 [𝑛] = 2
𝑒 𝑥𝑒 es:
𝐴𝑥 −𝑗𝜙 𝑗[−𝜔𝑛+∠𝐻(𝑒 𝑗𝜔 )]
𝑦2 [𝑛] = |𝐻(𝑒 −𝑗𝜔 )| 𝑒 𝑥𝑒 (5.10)
2
Usando el principio de superposición, se puede fácilmente ver que:
𝐴𝑥 𝑗𝜔 𝐴𝑥 −𝑗𝜔
𝑦[𝑛] = |𝐻(𝑒 𝑗𝜔 )|𝑒 𝑗[𝜔𝑛+𝜙𝑥 +∠𝐻(𝑒 )] + |𝐻(𝑒 −𝑗𝜔 )|𝑒 𝑗[−𝜔𝑛−𝜙𝑥 +∠𝐻(𝑒 )] (5.11)
2 2
Si se asume que la respuesta al impulso ℎ[𝑛] asume valores reales, se tiene que |𝐻(𝑒 −𝑗𝜔 )| =
|𝐻(𝑒 𝑗𝜔 )| y que ∠𝐻(𝑒 −𝑗𝜔 ) = −∠𝐻(𝑒 𝑗𝜔 ).
donde
En conclusión, todo lo que un sistema LTI puede hacer con una entrada sinusoidal es escalar su
amplitud y cambiar su fase; la forma de su respuesta permanece la misma.
Si un sistema cambia la frecuencia de una entrada sinusoidal, tiene que ser no lineal o variante en
el tiempo.
Esta propiedad proporciona una prueba conveniente para verificar si un sistema es lineal e
invariante en el tiempo.
Para determinar la función de respuesta en frecuencia, se puede asumir una solución de la forma
de (5.3), sustituirla en la ecuación de diferencias (5.15) y luego resolver para 𝐻(𝑒 𝑗𝜔 ).
En efecto, se tiene:
𝑏 = 1 − |𝑎| (5.20)
lo cual implica que |𝑏| = 1 − |𝑎| y ∠𝑏 = 0 debido a que −1 < 𝑎 < 1.
La siguiente figura muestra las gráficas de las respuestas de magnitud y fase para 𝑎 = 0.8 y un par
entrada-salida para la frecuencia 𝜔 = 2𝜋⁄20;
Claramente se ve que las entradas sinusoidales con frecuencias cercanas a 𝜔 = 0 pasan con
pequeña atenuación
En contraste, las sinusoides con frecuencias cercanas a 𝜔 = 𝜋 son severamente atenuadas.
Puesto que para 𝑎 > 0, |𝐻(𝑒 𝑗𝜔 )|𝑚𝑎𝑥 ⁄|𝐻(𝑒 𝑗𝜔 )|𝑚𝑖𝑛 = (1 + 𝑎)⁄(1 − 𝑎), el pico de la respuesta
de magnitud se vuelve más estrecho a medida que 𝑎 se aproxima a uno.
A partir de las gráficas de las respuestas de magnitud y fase de la figura anterior, la ganancia
normalizada en 𝜔 = 2𝜋⁄20 es de alrededor de 0.58 mientras que el corrimiento de fase es de
alrededor de −0.26𝜋 radianes ( o − 0.26𝜋⁄𝜔 = −2.55 muestras).
Estos valores son evidentes de las gráficas de entrada salida en la figura anterior.
Funciones continua y de fase principal.- Cuando se trata con la función exponencial compleja,
existen dos observaciones claves a tomar en cuenta:
1.- La determinación de la función de fase tiene una ambigüedad intrínseca debido a que, para
cualquier entero 𝑚:
𝑗𝜔 ) 𝑗𝜔 )+2𝑚𝜋]
𝐻(𝑒 𝑗𝜔 ) = |𝐻(𝑒 𝑗𝜔 )|𝑒 ∠𝐻(𝑒 = |𝐻(𝑒 𝑗𝜔 )|𝑒 [∠𝐻(𝑒 (5.26)
Esto es consistente con el hecho de que la señal sinusoidal corrida un número múltiple de
periodos es indistinguible a partir de la señal original.
2.- Los algoritmos numéricos calculan el valor principal de la fase, la cual está siempre dentro del
siguiente rango:
Su función de fase continua, Ψ(𝜔) = −3𝜔, varía continuamente de 0 a −6𝜋 cuando 𝜔 cambia
de 0 a 2𝜋.
Note que al evaluar la respuesta de fase ∠𝐻(𝑒 𝑗𝜔 ) usando la función de Matlab angle, se obtiene
la curva lineal a pedazos con saltos de 2𝜋 en 𝜔 = 𝜋⁄3, de 4𝜋 en 𝜔 = 𝜋 y de 6𝜋 en 𝜔 = 5𝜋⁄3.
El símbolo ∠𝐻(𝑒 𝑗𝜔 ) es usado para denotar la función de respuesta de fase de un sistema, en
general.
La notación Ψ(𝜔) se reserva para la función de fase continua.
Sin embargo, el valor principal de la fase es suficiente para la mayoría de las aplicaciones
prácticas.
se tiene si la secuencia de entrada 𝑥[𝑛] es una secuencia exponencial compleja que existe sobre
todo el intervalo −∞ < 𝑛 < ∞.
Para ver las implicaciónes de esta restricción considere una exponencial compleja que se inicia en
el tiempo 𝑛 = 0, es decir:
la cual muestra que la respuesta transitoria se vuelve progresivamente más pequeña cuando 𝑛 →
∞ debido a que más pocas y más pequeñas muestras de la respuesta al impulso están incluidas en
la sumatoria.
Para un sistema FIR con ℎ[𝑛] = 0; 𝑛 > 𝑀, la respuesta transitoria se desvanece para 𝑛 > 𝑀.
Por tanto, para valores grandes de 𝑛, la respuesta transitoria de un sistema estable decae a cero
dejando sólo la respuesta en estado estacionario; es decir:
Más aún, la respuesta en frecuencia conduce a una relación simple entre los espectros de las
señales de entrada y salida de los sistemas LTI.
La secuencia 𝑥[𝑛] puede ser expresada como una suma de exponenciales complejas usando la
IDTFS:
𝑁−1
2𝜋
(𝑥)
𝑥[𝑛] = ∑ 𝑐𝑘 𝑒 𝑗 𝑁 𝑘𝑛 (5.31)
𝑘=0
𝑁−1 𝑁−1
2𝜋 ℋ 2𝜋 2𝜋
(𝑥) (𝑥)
𝑥[𝑛] = ∑ 𝑐𝑘 𝑒 𝑗 𝑁 𝑘𝑛 → ∑ 𝑐𝑘 𝐻 (𝑒 𝑗 𝑁 𝑘 ) 𝑒 𝑗 𝑁 𝑘𝑛 = 𝑦[𝑛]
𝑘=0 𝑘=0
De la última ecuación, se deduce que la secuencia de salida es periódica con coeficientes de Fourier
dados por:
2𝜋
(𝑦) (𝑥)
𝑐𝑘 = 𝐻 (𝑒 𝑗 𝑁 𝑘 ) 𝑐𝑘 ; −∞ < 𝑘 < ∞ (5.32)
Por tanto, la respuesta de un sistema LTI a una secuencia de entrada periódica es una secuencia
periódica con el mismo periodo fundamental.
Esto no debería sorprender ya que los sistemas LTI no pueden alterar las frecuencias de las
señales de entrada; sólo pueden cambiar su amplitud y fase.
2𝜋
(𝑦) (𝑥)
∠𝑐𝑘 = ∠𝐻 (𝑒 𝑗 𝑁 𝑘 ) + ∠𝑐𝑘 (5.34)
La ecuación (5.40) también puede ser obtenda evaluando sobre el círculo unitario la relación
entrada-salida:
𝑌(𝑧) = 𝐻(𝑧)𝑋(𝑧)
Si se expresan las transformadas de Fourier en (5.40) en coordenadas polares, se obtiene:
De:
2𝜋
(𝑦) (𝑥)
𝑐𝑘 = 𝐻 (𝑒 𝑗 𝑁 𝑘 ) 𝑐𝑘 ; −∞ < 𝑘 < ∞
De la ecuación:
Puesto que la ganancia puede tomar valores muy grandes, es conveniente expresar la ganancia en
una unidad logarítimica, conocida como decibel (dB), usando la fórmula:
2
Ganancia en dB = |𝐻(𝑒 𝑗𝜔 )|𝑑𝐵 ≜ 10 log10 |𝐻(𝑒 𝑗𝜔 )| (5.44)
De esta manera, los efectos tanto de las respuestas de magnitud como de fase se vuelven
aditivas.
5.3 Distorsión de señales que pasan a través de sistemas LTI
Un sistema LTI cambia la señal de entrada 𝑥[𝑛] a una señal de salida 𝑦[𝑛].
La naturaleza de este cambio puede ser entendida examinando la respuesta en frecuencia del
sistema.
En efecto, el sistema cambia las magnitudes relativas y fases de las componentes de frecuencia
en una señal de entrada en una forma dictada por la función de respuesta en frecuencia.
Estos cambios pueden ser ya sea deseables, es decir, la señal de entrada es modificada en una
forma útil. o bien indeseables; es decir, la señal de entrada está sujeta a distorsiones.
En esta seccción se formulan condiciones para sistemas con una respuesta sin distorsión y se
discuten los tipos de distorsión que resultan cuando se violan estas condiciones.
Sistemas con respuesta sin distorsión.- Un sistema tiene una respuesta sin distorsión si la señal
de entrada 𝑥[𝑛] y la señal de salida 𝑦[𝑛] tienen la misma forma.
De la ecuación
𝑌(𝑒 𝑗𝜔 )
𝐻(𝑒 𝑗𝜔 ) = = 𝐺𝑒 −𝑗𝜔𝑛𝑑 (5.49)
𝑋(𝑒 𝑗𝜔 )
De esta ecuación se sigue que:
|𝐻(𝑒 𝑗𝜔 )| = 𝐺 (5.50)
Lo cual muestra que para que un sistema LTI tenga una respuesta sin distorsión, la respuesta de
magnitud |𝐻(𝑒 𝑗𝜔 )| debe ser una constante y la respuesta de fase ∠𝐻(𝑒 𝑗𝜔 ) debe ser una función
lineal de 𝜔 con pendiente −𝑛𝑑 , donde 𝑛𝑑 es el retardo de la salida con respecto a la entrada.
Se enfatiza que la respuesta de fase no debería sólo ser una función lineal de la frecuencia, sino
que también debería pasar a través del origen 𝜔 = 0.
Sin embargo, si 𝑥[𝑛] = 𝑥𝑐 (𝑛𝑇) y 𝑦[𝑛] = 𝑦𝑐 (𝑛𝑇), entonces 𝑦𝑐 (𝑡) = 𝐺𝑥𝑐 (𝑡 − 𝛼).
A este retardo se le denomina retardo fraccional.
Los sistemas sin distorsión de magnitud, es decir, sistemas que satisfacen que |𝐻(𝑒 𝑗𝜔 )| = 𝐺, se
conocen como sistemas pasa todo.
Los sistemas pasa todo tienen una respuesta de magnitud plana y sus características están
completamente determinadas por la respuesta de fase.
Por su parte, es fácil describir, en el dominio de la frecuencia, la distorsión de magnitud; pero sus
efectos sobre la forma de la señal están lejos de ser obvios.
Suponga ahora que un sistema 𝐻𝑖 (𝑒 𝑗𝜔 ) con entrada 𝑥[𝑛] produce una señal de salida 𝑦𝑖 [𝑛] dada
por:
La siguiente figura muestra las señales 𝑥[𝑛], 𝑦1 [𝑛] y 𝑦2 [𝑛] obtenida para 𝜔0 = 0.004𝜋 radianes y
las siguentes amplitudes y fases:
Note que si un sistema atenúa las componentes de baja frecuencia 𝑐1 a 1⁄4, la señal resultante
𝑦1 [𝑛] se vuelve más aguda.
En contraste, la atenaución de las componentes de alta frecuencia en 𝑦2 [𝑛] resulta en una señal
más suave.
Sin embargo, no se puede predecir el grado a agudeza o suavidad sin calcular la señal de salida.
La respuesta de fase ∠𝐻(𝑒 𝑗𝜔 ) da el corrimiento de fase (en radianes) experimentado por cada
componente sinusoidal de la señal de entrada.
Si se reescribe la ecuación:
como:
𝑗𝜔
𝜙𝑥 ∠𝐻(𝑒 𝑗𝜔 )
𝑦[𝑛] = 𝐴𝑥 |𝐻(𝑒 )| cos {𝜔 [𝑛 + + ]} (5.57)
𝜔 𝜔
∠𝐻(𝑒 𝑗𝜔 )
se nota que la cantidad 𝜔
muestra el corrimiento de tiempo (en número de intervalos de
muestreo) experimentado por cada componente sinusoidal de la señal de entrada.
Por tanto, algunas veces es más significativo usar el retardo de fase definido por:
∠𝐻(𝑒 𝑗𝜔 )
𝜏𝑝𝑑 (𝜔) ≜ − (5.58)
𝜔
Para ilustrar la diferencia entre el corrimiento de fase constante y el retardo de tiempo constante,
considere nuevamente la señal:
1 1
𝑥[𝑛] = cos(𝜔0 𝑛) − cos(3𝜔0 𝑛) + cos(5𝜔0 𝑛)
3 5
Ahora considere un sistema pasa todo que cambia la fase de la señal de entrada como se muestra
en la lista de a continuación:
El corrimiento constante de fase en 𝑦3 [𝑛] causa distorsión debido a que cada componente de
frecuencia es retardado una cantidad diferente.
El corrimiento de fase lineal en 𝑦4 [𝑛] no causa ninguna distorsión debido a que resulta en un
retardo de fase constante 𝜏𝑝𝑑 (𝜔) = 62.5 intervalos de muestreo.
El corrimiento de fase no lineal arbitrario en 𝑦5 [𝑛] resulta en un cambio más drástico de la forma
de la señal de entrada.
En la mayoría de los casos, las distorsiones de magnitud y de fase están presentes simultáneamente
y es difícil sino imposible separar sus efectos.
Se concluye que:
Para la transmisión sin distorsión no es suficiente que el sistema amplifique (o atenúe) todas las
componentes de frecuencia por igual.
Todas estas componentes de frecuencia deben también experimentar un retardo de tiempo
idéntico para calcularse correctamente.
Esto demanda un retardo de fase constante, es decir, un corrimiento de fase proporcional a la
frecuencia.
Las respuestas de fase no lineales pueden conducir a severas alteraciones de forma.
Retardo de grupo.- Una forma conveniente de verificar la linealidad de la respuesta de fase es usar
el retardo de grupo, definido como el negativo de la pendiente de la fase continua como sigue:
𝑑Ψ(𝜔)
𝜏𝑔𝑑 ≜ − (5.59)
𝑑𝜔
La derivada en esta definición requiere que la respuesta de fase sea una función continua de la
frecuencia.
Por tanto, para calcular el retardo de grupo se debería usar la respuesta de fase continua Ψ(𝜔).
La respuesta de fase continua puede ser obtenida a partir del retardo de grupo mediante
integración como:
𝜔
Ψ(𝜔) = − ∫ 𝜏𝑔𝑑 (𝜃)𝑑𝜃 + Ψ(0) (5.60)
0
Para sistemas reales Ψ(0) = 0 puesto que Ψ(𝜔) tiene simetría impar.
Las respuestas de fase que son lineales en la frecuencia corresponden a un retardo de fase
constante y un retardo de grupo constante; ambos retardos son idénticos y cada uno puede ser
interpretado como un retardo de tiempo.
Si la respuesta de fase es no lineal, entonces la fase relativa de cada componente de frecuencia
es retardada por una cantidad diferente resultando en serveras distorsiones de forma.
Note que tanto la respuesta de fase lineal ∠𝐻(𝑒 𝑗𝜔 ) = −𝜔𝑛𝑑 y la respuesta de fase lineal
generalizada:
De esta manera, un retardo de grupo constante es una condición más relajada que un retardo
de fase constante.
Para ilustrar mejor la diferencia entre fase y retardo de grupo, considere una señal pasa banda
obtenida modulando una señal pasabajo tal como:
𝑑Ψ(𝜔)
Ψ(𝜔) ≈ Ψ(𝜔𝑐 ) + | (𝜔 − 𝜔𝑐 ) = −𝜏𝑝𝑑 (𝜔𝑐 )𝜔𝑐 − 𝜏𝑔𝑑 (𝜔𝑐 )(𝜔 − 𝜔𝑐 ) (5.63)
𝑑𝜔 𝜔=𝜔
𝑐
∠𝐻(𝑒 𝑗𝜔 )
𝜏𝑝𝑑 (𝜔) ≜ −
𝜔
𝑑Ψ(𝜔)
𝜏𝑔𝑑 ≜ −
𝑑𝜔
Usando las ecuaciones (5.62) y (5.63), se puede mostrar que:
𝑦[𝑛] ≈ |𝐻(𝑒 𝑗𝜔𝑐 )|𝑠[𝑛 − 𝜏𝑔𝑑 (𝜔𝑐 )] cos{𝜔𝑐 [𝑛 − 𝜏𝑝𝑑 (𝜔𝑐 )]} (5.64)
El nombre de retardo de grupo viene debido a que 𝜏𝑔𝑑 (𝜔𝑐 ) muestra el retardo del haz de
componentes de frecuenica alrededor de 𝜔𝑐 .
Si no se satisface (5.63), entonces la salida ya no está dada por (5.64).
Ejemplo 5.6 Distorsiones de magnitud y retardo de grupo.- Considere un filtro con función
sistema:
𝑏0
𝐻(𝑧) = (5.65)
[1 − 2𝑟 cos(𝜔0 )𝑧 −1 + 𝑟 2 𝑧 −2 ]𝐾
Para crear esta señal, primero se calculan 𝑁 = 100 muestras de un pulso Gaussiano:
1 1 (𝑡 − 𝜇)2
𝑠(𝑡) = exp {− } (5.66)
√2𝜋𝜎 2 𝛼2
con 𝜇 = 0 y 𝜎 = 2 en el rango −5 ≤ 𝑡 ≤ 5.
Por definición, un filtro ideal de frecuencia selectiva satisface los requerimientos de respuesta sin
distorsión sobre una o más bandas de frecuencia y tiene una respuesta cero en las frecuencias
restantes.
Por ejemplo, un filtro ideal pasa banda (BPF) está definido por:
−𝑗𝜔𝑛𝑑
𝐻(𝑒 𝑗𝜔 ) = {𝑒 𝜔𝑙 ≤ |𝜔| ≤ 𝜔𝑢 (5.67)
0 de otra manera
donde 𝑛𝑑 ≥ 0 y 0 ≤ 𝜔𝑙 ≤ 𝜔𝑢 ≤ 𝜋.
Puesto que 𝐻(𝑒 𝑗𝜔 ) es periódica con perido 2𝜋 radianes, sólo se especifica y se grafica la
respuesta en frecuencia sobre un solo periodo.
Las bajas frecuencias están localizadas alrededor de 𝜔 = 0 y las altas frecuenas son cercanas a
𝜔 = 𝜋 radianes.
Los parámetros 𝜔𝑙 y 𝜔𝑢 , los cuales satisfacen los puntos terminales de la banda de paso, se
llaman frecuencias de corte inferior y superior, respectivamente.
El ancho de banda del filtro, definido como el ancho de la banda de paso en la parte positiva
del eje de la frecuencia, está dado por:
∆𝜔 = 𝜔𝑢 − 𝜔𝑙 (5.68)
Un filtro pasa bajos ideal está definido por (5.67) con 𝜔𝑙 = 0, mientras que un filtro pasa altos
ideal tiene 𝜔𝑢 = 𝜋.
Los filtros de rechazo de banda tienen un respuesta sin distorsión sobre todas las frecuencia
excepto alguna banda de paro, 𝜔𝑙 ≤ |𝜔| ≤ 𝜔𝑢 donde 𝐻(𝑒 𝑗𝜔 ) = 0.
Se enfatiza que se requiere que la respuesta de fase ∠𝐻(𝑒 𝑗𝜔 ) sea lineal sólo en la banda de paso;
no existe necesidad de que esté defindo en otro lugar, puesto que la respuesta del filtro es cero.
La siguiente figura muestra las respuestas en frecuencia de cuatro tipos de filtros ideales:
Para entender las implicaciones de la transición empinada desde la banda de paso a la banda de
paro en los filtros ideales, considere un filtro ideal pasa bajos con respuesta en frecuencia:
La respuesta al impulso de un filtro pasa banda ideal puede ser obtendia modulando la respuesta
al impulso de un filtro pasabajos ideal con 𝜔𝑐 = (𝜔𝑢 − 𝜔𝑐 )⁄2 = ∆𝜔⁄2 usando una portadora con
frecuencia 𝜔0 = (𝜔𝑢 − 𝜔𝑙 )⁄2.
El resultado es:
sin[𝜔𝑐 (𝑛 − 𝑛𝑑 )]
ℎ𝑏𝑝 [𝑛] = 2 cos(𝜔0 𝑛) (5.72)
𝜋(𝑛 − 𝑛𝑑 )
La respuesta al impulso de los filtros pasa altos y de rechazo de banda están dados por:
Puesto que todos los filtros ideales pueden ser expresados en términos de:
Los filtros ideales son usados en las etapas tempranas de un proceso de diseño para especificar
los módulos en un sistema de procesamiento de señales.
Sin embargo, puesto que no son realizables en la práctica, deben ser aproximados por filtros
prácticos no ideales.
Esto usualmente se hace minimizando algún error de aproximación entre el filtro no ideal y un
filtro ideal prototipo.
Para entender la naturaleza de las aproximaciones requeridas para obtener un filtro práctico a partir
de un filtro ideal, note que se puede obtener un filtro causal FIR truncando la respuesta al impulso
de un filtro pasa bajos ideal como sigue:
sin[𝜔𝑐 (𝑛 − 𝑛𝑑 )]
ℎ̂𝑙𝑝 [𝑛] = { 0 ≤ 𝑛 ≤ 𝑀 − 1 (5.75)
𝜋(𝑛 − 𝑛𝑑 )
0 de otra manera
A medida que el retardo 𝑛𝑑 y la longitud 𝑀 de ℎ̂𝑙𝑝 [𝑛] se incrementan, el filtro resultante 𝐻𝑙𝑝 (𝑒 𝑗𝜔 )
será una mejor aproximación del filtro pasa bajos ideal.
Un aspecto que surge en este punto es cómo evaluar la calidad de un filtro práctico.
La siguiente figura muestra la respuesta de magnitud de un típico filtro pasa banda práctico:
Una banda de paso donde |𝐻(𝑒 𝑗𝜔 )| fluctúa alrededor de uno y las bandas de paso donde
|𝐻(𝑒 𝑗𝜔 )| fluctúa cerca de cero.
Entre la banda de paso y las bandas de paro están las bandas de transición, donde el filtro ni
pasa ni rechaza las componentes de frecuencia de la entrada.
Un buen filtro debería tener sólo un pequeño rizo en la banda de paso, alta atenuación en la
banda de paro y bandas de transición muy estrechas.
En algunas aplicaciones, las especificaciones de las características de fase o las características
en el dominio del tiempo (por ejemplo, el sobrepaso de la respuesta al escalón) son también
importantes.
5.5 Respuesta en frecuencia para funciones de sistema racionales
Anteriormente se demostró que todos los sistemas LTI de interés práctico están descritos por una
ecuación de diferencias de la forma:
𝑁 𝑀
∑𝑀
𝑘=0 𝑏𝑘 𝑧
−𝑘
𝐵(𝑧)
𝐻(𝑧) = 𝑁 −𝑘
= (5.77)
1 + ∑𝑘=1 𝑎𝑘 𝑧 𝐴(𝑧)
∑𝑀
𝑘=0 𝑏𝑘 𝑧
−𝑘
𝐵(𝑧)
𝐻(𝑧) = 𝑁 =
1 + ∑𝑘=1 𝑎𝑘 𝑧 −𝑘 𝐴(𝑧)
se obtiene:
𝐵(𝑧) ∑𝑀
𝑘=0 𝑏𝑘 𝑒
−𝑗𝜔𝑘
𝐻(𝑒 𝑗𝜔 ) = | = (5.78)
𝐴(𝑧) 𝑧=𝑒 𝑗𝜔 1 + ∑𝑁
𝑘=1 𝑎𝑘 𝑒
−𝑗𝜔𝑘
la cual expresa 𝐻(𝑒 𝑗𝜔 ) como la razón de dos polinomios en la variable 𝑒 𝑗𝜔 .
∏𝑀 −1
𝑘=0(1 − 𝑧𝑘 𝑧 ) ∏𝑀
𝑘=1(1 − 𝑧𝑘 𝑒
−𝑗𝜔
)
𝐻(𝑒 𝑗𝜔 ) = 𝑏0 𝑀 −1
| = 𝑏0 𝑀 −𝑗𝜔
| (5.79)
∏𝑘=1(1 − 𝑝𝑘 𝑧 ) 𝑧=𝑒 𝑗𝜔 ∏𝑘=1(1 − 𝑝𝑘 𝑒 )
donde {𝑧1 , 𝑧2 , … , 𝑧𝑀 } son los ceros y {𝑝1 , 𝑝2 , … , 𝑝𝑁 } son los polos del sistema.
De la ecuación anterior, se sigue que las respuestas de magnitud, fase y retardo de grupo están
dadas por:
𝑗𝜔
∏𝑀
𝑘=1|1 − 𝑧𝑘 𝑒
−𝑗𝜔
|
|𝐻(𝑒 )| = |𝑏0 | 𝑁 | (5.80)
∏𝑘=1|1 − 𝑝𝑘 𝑒 −𝑗𝜔 |
𝑀 𝑁
𝑗𝜔 −𝑗𝜔
∠𝐻(𝑒 ) = ∠𝑏0 + ∑ ∠(1 − 𝑧𝑘 𝑒 ) − ∑ ∠(1 − 𝑝𝑘 𝑒 −𝑗𝜔 ) (5.81)
𝑘=1 𝑘=1
𝑀 𝑁
𝑑 𝑑
𝜏𝑔𝑑 (𝜔) = ∑ [∠(1 − 𝑧𝑘 𝑒 −𝑗𝜔 )] − ∑ [∠(1 − 𝑝𝑘 𝑒 −𝑗𝜔 )] (5.82)
𝑑𝜔 𝑑𝜔
𝑘=1 𝑘=1
donde las derivadas en (5.82) se evalúan usando la función de respuesta de fase continua.
Cada uno de estos términos de primer orden pueden ser expresados en notación polar como
𝐶(𝜔) = (1 − 𝛼𝑒 𝑗𝛽 𝑒 −𝑗𝜔 ).
ℛℯ{𝐶(𝜔)} 𝛼 sin(𝜔 − 𝛽)
∠𝐶(𝜔) = tan−1 ( ) = tan−1 ( ) (5.85)
ℐ𝓂{𝐶(𝜔)} 1 − 𝛼 cos(𝜔 − 𝛽)
𝑑Ψ(𝜔) 𝛼 2 − 𝛼 cos(𝜔 − 𝛽)
𝜏𝑔𝑑 (𝜔) = − = (5.86)
𝑑𝜔 1 + 𝛼 2 − 2𝛼 cos(𝜔 − 𝛽)
Expresando los ceros y los polos en notación polar como 𝑧𝑘 = 𝑞𝑘 𝑒 𝑗𝜃𝑘 y 𝑝𝑘 = 𝑟𝑘 𝑒 𝑗𝜙𝑘 y usando las
ecuaciones (5.84) a (5.86) se obtiene:
∏𝑀 2
𝑘=1 √1 + 𝑞𝑘 − 2𝑞𝑘 cos(𝜔 − 𝜃𝑘 )
𝑗𝜔
|𝐻(𝑒 )| = |𝑏0 | || (5.87)
𝑁 2
∏𝑘=1 √1 + 𝑟𝑘 − 2𝑟𝑘 cos(𝜔 − 𝜙𝑘 )
𝑀 𝑁
𝑗𝜔 −1
𝑞𝑘 cos(𝜔 − 𝜃𝑘 ) 𝑟𝑘 cos(𝜔 − 𝜙𝑘 )
∠𝐻(𝑒 ) = ∠𝑏0 + ∑ tan ( ) − ∑ tan−1 ( ) (5.88)
1 − 𝑞𝑘 cos(𝜔 − 𝜃𝑘 ) 1 − 𝑟 cos(𝜔 − 𝜙𝑘 )
𝑘=1 𝑘=1
𝑁 𝑀
𝑟𝑘2 − 2𝑟𝑘 cos(𝜔 − 𝜙𝑘 ) 𝑞𝑘2 − 2𝑞𝑘 cos(𝜔 − 𝜃𝑘 )
𝜏𝑔𝑑 (𝜔) = ∑ − ∑ (5.89)
1 + 𝑟𝑘2 − 2𝑟𝑘 cos(𝜔 − 𝜙𝑘 ) 1 + 𝑞𝑘2 − 2𝑞𝑘 cos(𝜔 − 𝜃𝑘 )
𝑘=1 𝑘=1
El significado de (5.87) a (5.89) es que explícitamente muestran la influencia de cada polo o cero
individual sobre las respuestas de magnitud, fase y retardo de grupo del sistema.
Cálculo de la respuesta en frecuencia.- Matlab proporciona la función freqz para calcular 𝐻(𝑒 𝑗𝜔 ) a
partir de los coeficientes 𝑎𝑘 y 𝑏𝑘 sobre la variable de frecuencia 𝜔, en intervalos igualmente
espaciados.
Las funciones abs y angle son luego usadas para extraer las respuestas de magnitud y fase.
Recuerde la la función angle calcula el valor principal de la fase.
[H.omega]=freqz0(b,a) (5.91)
mostrada en:
Las líneas de código anteriores muestran cómo se puede calcular 𝐻(𝑒 𝑗𝜔 ) en el rango 0 ≤ 𝜔 ≤ 𝜋 o
en el rango −𝜋 ≤ 𝜔 ≤ 𝜋. El último caso, el cual es útil para enfatizar simetrías alrededor de 𝜔 = 0,
explota la periodicidad de 𝐻(𝑒 𝑗𝜔 ) adjuntando la primera mitad del periodo al final del periodo.
𝐷𝑇𝐹𝑇 𝑑𝑋(𝑒 𝑗𝜔 )
𝑛𝑥[𝑛] ↔ −𝑗
𝑑𝜔
esdecir, comola DTFT dela secuencia 𝑛ℎ[𝑛]:
Por tanto:
𝐻 ′ (𝑒 𝑗𝜔 ) 𝐻𝑛 (𝑒 𝑗𝜔 ) 𝐻𝑛 (𝑒 𝑗𝜔 )
𝜏𝑔𝑑 (𝜔) = −ℐ𝓂 { } = ℐ𝓂 {𝑗 } = ℛℯ { } (5.97)
𝐻(𝑒 𝑗𝜔 ) 𝐻(𝑒 𝑗𝜔 ) 𝐻(𝑒 𝑗𝜔 )
[gd,omega]=grpdelay0(b,a) (5.98)
mostrada en:
Si el sistema tiene ceros sobre el círculo unitario, 𝐻(𝑒 𝑗𝜔 ) = 0 en las frecuencias correspondientes.
Puesto que las componentes de entrada en estas frecuencias son filtradas por el sistema, sus fases
son indeterminables.
Para propósitos de graficación se puede hacer que estos valores sean NaN. Sin embargo, si se desea
usar la función 𝜏𝑔𝑑 (𝜔), se puede reemplazar cada NaN con ela media de los dos valores adyacentes.
La función de Matlab grpdelay usa (5.96) y (5.97) para sistemas FIR y (5.89) para sistemas con
funciones de transferencia racionales.
La fase continua Ψ(𝜔) es evaluada a partir del retardo de grupo usando integración trapezoidal
simple.
Sin embargo, no se puede adivinar la forma de |𝐻(𝑒 𝑗𝜔 )| y de ∠𝐻(𝑒 𝑗𝜔 ) inspeccionando los valoes
de ℎ[𝑛] o {𝑎𝑘 , 𝑏𝑘 }.
Sin embargo, existe una fuerte dependencia de la forma de la respuesta en frecuencia con respecto
a la localización de polos y ceros del sistema. Se puede usar esta dependencia:
∏𝑀
𝑘=1(𝑒
𝑗𝜔
− 𝑧𝑘 )
𝐻(𝑒 𝑗𝜔 ) = 𝑏0 𝑒 𝑗𝜔(𝑁−𝑀) 𝑀 𝑗𝜔
| (5.100)
∏𝑘=1(𝑒 − 𝑝𝑘 )
Este número complejo puede ser escrito en forma polar como sigue:
⃗⃗⃗⃗⃗⃗⃗
(𝑒 𝑗𝜔 − 𝑧𝑘 ) =𝑍 𝑘 𝑍= 𝑄𝑘 𝑒
𝑗Θ𝑘
(5.101)
⃗⃗⃗⃗⃗⃗⃗
(𝑒 𝑗𝜔 − 𝑝𝑘 ) =𝑃 𝑘 𝑍= 𝑅𝑘 𝑒
𝑗Φ𝑘
(5.102)
∏𝑀
𝑘=1 𝑄𝑘 (𝜔)
|𝐻(𝑒 𝑗𝜔 )| = |𝑏0 | | (5.104a)
∏𝑀
𝑘=1 𝑅𝑘 (𝜔)
𝑀 𝑁
𝑗𝜔
∠𝐻(𝑒 ) = ∠𝑏0 + 𝜔(𝑁 − 𝑀) + ∑ Θ𝑘 (𝜔) − ∑ Φ𝑘 (𝜔) (5.104b)
𝑘=1 𝑘=1
Por tanto, la respuesta de magnitud en una cierta frecuencia 𝜔 está dada por el producto de las
longitudes de los vectores dibujados desde los polos a 𝑧 = 𝑒 𝑗𝜔 .
Similarmente, la respuesta de fase se obtiene sustrayendo de la suma de los ángulos de los ceros la
suma de los ángulos de los polos.
Usando este procedimiento geométrico, se puede determinar 𝐻(𝑒 𝑗𝜔 ) para cada valor de 𝜔 o,
equivalentemente, cualquier localización del punto 𝑒 𝑗𝜔 sobre el círculo unitario.
|𝐻(𝑒 𝑗𝜔 )|𝑚𝑎𝑥 1 + 𝑟𝑘
= (5.106)
|𝐻(𝑒 𝑗𝜔 )|𝑚𝑖𝑛 1 − 𝑟𝑘
se incrementa cuando el polo se mueve más cerca del círculo unitario.
Como resultado el pico de |𝐻(𝑒 𝑗𝜔 )| en 𝜔 = 𝜙𝑘 se vulve más punteagudo a medida que el polo
se aproxima al círculo unitario.
La ganancia máxima |𝐻(𝜙𝑘 )| se va al infinito cuando el polo se mueve sobre el círculo unitario.
Sin embargo, esto se debería evitar, debido a que los sistemas LTI causales con polos sobre o
fuera del círculo unitario son inestables.
Para evaluar la respuesta de fase de un solo polo, primero recuerde de (5.104) que ∠𝐻(𝑒 𝑗𝜔 ) = 𝜔 −
Φ𝑘 (𝜔).
Puesto que los ángulos del triángulo 𝑂𝑃𝑘 𝑍 suman 𝜋, se tiene que 𝛼𝑘 + (𝜙𝑘 − 𝜔) +
(Φ𝑘 + 𝜋 − 𝜙𝑘 ) = 𝜋 o 𝜔 − Φ𝑘 = 𝛼𝑘 .
Por tanto:
Moviendo el punto 𝑍 alrededor del círculo unitario, se ve que ∠𝐻(𝑒 𝑗𝜔 ) se vuelve cero y cambia de
signo en 𝜔 = 𝜙𝑘 y 𝜔 = 𝜋 + 𝜙𝑘 .
Sin embargo, no es fácil obtener una forma razonablemente precisa para la respuesta de fase con
este método.
Note que estos cambios de signo y el uso del valor principal son la causa de las discontinuidades
observadas en la evaluación numérica de la respuesta de fase.
La interpretación geométrica proporciona una bonita forma para ilustrar las propiedades de
simetría de las respuestas de magnitud y de fase.
Sin embargo, si el polo 𝑝𝑘 se mueve sobre el eje real se tiene que ̅̅̅̅̅̅
𝑃1 𝑍1 = ̅̅̅̅̅̅
𝑃1 𝑍2 y 𝛼1 = 𝛼2 .
Por tanto |𝐻(𝑒 𝑗𝜔 )| = |𝐻(𝑒 −𝑗𝜔 )| (par) y ∠𝐻(𝑒 𝑗𝜔 ) = −∠𝐻(𝑒 −𝑗𝜔 ) (impar), como se esperaba para
sistemas con coeficientes reales (ver tabla).
Otra manera de reforzar esta simetría es ubicar un polo complejo conjugado en 𝑝𝑘∗ = 𝑟𝑘 𝑒 −𝑗𝜙𝑘 , como
se muestra en la siguiente figura:
En este caso, debido a la simetría de los polos alrededor del eje real, siempre se tiene:
𝜅 𝜅
|𝐻(𝑒 𝑗𝜔 )| = =
̅̅̅̅̅ ̅̅̅̅̅
= |𝐻(𝑒 −𝑗𝜔 )| (5.110)
̅̅̅̅̅ ̅̅̅̅̅
(𝑃1 𝑍)(𝑃2 𝑍) (𝑃1 𝑍̅)(𝑃 𝑍̅ )
1
La ganancia mínima es |𝐻(𝑒 𝑗𝜔 )| = 0 cuando el cero cae sobre el círculo unitario; por tanto, el
sistema suprime completamente las componentes sinusoidales con frecuencia 𝜔 = 𝜃𝑘 .
De esta manera, se concluye que los ceros tienen el efecto opuesto de los polos.
De (5.104):
∏𝑀
𝑘=1 𝑄𝑘 (𝜔)
|𝐻(𝑒 𝑗𝜔 )| = |𝑏0 | | (5.104a)
∏𝑀
𝑘=1 𝑅𝑘 (𝜔)
𝑀 𝑁
𝑗𝜔
∠𝐻(𝑒 ) = ∠𝑏0 + 𝜔(𝑁 − 𝑀) + ∑ Θ𝑘 (𝜔) − ∑ Φ𝑘 (𝜔) (5.104b)
𝑘=1 𝑘=1
Esto puede ser probado usando argumentos similares a los usados para los polos complejos
conjugados.
Ceros fuera del círculo unitario.- Aunque los ceros de sistemas causales y estables pueden estar
dentro o fuera dentro del círculo unitario, tienen un efecto interesante sobre su respuesta de fase.
La respuesta de fase del cero dentro del cículo unitario es igual a 𝛼𝑖𝑛 (𝜔) = Θ𝑖𝑛 (𝜔) − 𝜔 y
continuamente cambia de signo en 𝜔 = 0.
En contraste, para un cero fuera del círculo unitario, la respuesta de fase cambia desde – 𝜋 en 𝜔 =
0 − 𝜖 a 𝜋 en 𝜔 = 0 + 𝜖, donde 𝜖 es un número positivo arbitrariamente pequeño.
Más aún, puesto que Θ𝑜𝑢𝑡 (𝜔) ≥ Θ𝑖𝑛 (𝜔) se tiene que α𝑜𝑢𝑡 (𝜔) ≥ α𝑖𝑛 (𝜔).
De esta manera, los ceros fuera del círculo unitario introducen corrimentos de fase más grandes
que los ceros dentro del círculo unitario.
Para un cero 𝑧 = 𝑟𝑒 𝑗𝜃 que no está sobre la línea real se puede simplemente rotar las curvas en la
figura anterior mediante 𝜃 y añadir una constante para obtener las respuestas de fase.
Interpretación visual.- Los términos polos y ceros y su efecto sobre la respuesta de magnitud tienen
sentido cuando se grafica |𝐻(𝑧)| como una función de 𝑧.
El resultado es una superficie, cuya distancia arriba del plano z es igual a la magnitud de 𝐻(𝑧).
Los ceros son los puntos donde la superficie parece como una membbrana flexible como se muestra
en la siguiente figura:
Dominio del tiempo, dominio de la frecuencia y dominio de z.- Las señales y sistemas de tiempo
discreto existen en el dominio del tiempo, es decir, son funciones del índice de tiempo 𝑛.
la cual proporciona el algoritmo básico para el cálculo de la secuencia de salida 𝑦[𝑛] a partir de la
secuencia de entrada 𝑥[𝑛].
En el dominio de z, el sistema está descrito por la función sistema, la cual se obtiene a partir de los
coeficientes de la ecuación de diferencias:
∑𝑀
𝑘=0 𝑏𝑘 𝑧
−𝑘 ∏𝑀 −1
𝑘=1(1 − 𝑧𝑘 𝑧 )
𝐻(𝑧) = = 𝑏0 𝑁 (5.114)
1 − ∑𝑁
𝑘=1 𝑎𝑘 𝑧
−𝑘 ∏𝑘=1(1 − 𝑝𝑘 𝑧 −1 )
La forma de la respuesta al impulso ℎ[𝑛] y la respuesta de magnitud |𝐻(𝑒 𝑗𝜔 )| (es decir, la forma de
las bandas de paso y bandas de paro) son fuertemente dependientes de la localización de los polos
y ceros con respecto al círculo unitario.
Los tres dominios, cuyas relaciones se muestran en la siguiente figura, permiten representar la
información de diferentes formas pero complementariamente
5.7 Diseño de filtros simples mediante localización de polos y ceros
Existe una fuerte dependencia intuitiva entre las localizaciones de los polos y ceros y la respuesta
en frecuencia de un sistema.
Esta relación puede ser usada para diseñar filtros siples con características de frecuencia deseadas
pero interactivamente situando los polos y ceros sobre el plano z.
Usando expansión en fracciones parciales, se puede mostrar que la respuesta al impulso es:
sin[(𝑛 + 1)𝜙]
ℎ[𝑛] = 𝑏0 𝑢[𝑛] (5.117)
sin 𝜙
la cual es una sinusoide amortiguada por la frecuencia 𝜙:
𝑀 𝑁
𝑗𝜔 −1
𝑞𝑘 cos(𝜔 − 𝜃𝑘 ) 𝑟𝑘 cos(𝜔 − 𝜙𝑘 )
∠𝐻(𝑒 ) = ∠𝑏0 + ∑ tan ( ) − ∑ tan−1 ( )
1 − 𝑞𝑘 cos(𝜔 − 𝜃𝑘 ) 1 − 𝑟 cos(𝜔 − 𝜙𝑘 )
𝑘=1 𝑘=1
𝑁 𝑀
𝑟𝑘2 − 2𝑟𝑘 cos(𝜔 − 𝜙𝑘 ) 𝑞𝑘2 − 2𝑞𝑘 cos(𝜔 − 𝜃𝑘 )
𝜏𝑔𝑑 (𝜔) = ∑ −∑
1 + 𝑟𝑘2 − 2𝑟𝑘 cos(𝜔 − 𝜙𝑘 ) 1 + 𝑞𝑘2 − 2𝑞𝑘 cos(𝜔 − 𝜃𝑘 )
𝑘=1 𝑘=1
para 𝑀 = 0, 𝑁 = 2, 𝑟1 = 𝑟2 = 𝑟 y 𝜙1 = −𝜙2 = 𝜙.
La forma de |𝐻(𝑒 𝑗𝜔 )| puede ser fácilmente justificada geométricamente a partir del patrón de polos
y ceros.
Se puede demostrar que el pico de la respuesta de magnitud puede ser localizado en la frecuencia
𝜔𝑐 , dada por:
Puesto que 1 + 𝑟 2 > 2𝑟 para 𝑟 < 1 y que se tiene que cos 𝜔𝑐 > cos 𝜙, el pico es mas bajo cuando
la frecuencia del polo está en el rango de 0 < 𝜙 < 𝜋⁄2 y más alto cuando la frecuencia del polo
está en el rango de 𝜋⁄2 < 𝜙 < 𝜋.
De (5.115):
𝑏0 𝑏0
𝐻(𝑧) = = (5.115)
(1 − 𝑗𝜙 −1
𝑟𝑒 𝑧 )(1 − 𝑟𝑒 −𝑗𝜙 𝑧 −1 ) 1 − (2𝑟 cos 𝜙)𝑧 −1 + 𝑟 2 𝑧 −2
se obtiene que:
El ancho del pico está determinado por el ancho de banda a 3 dB, el cual se calcula determinando
las dos frecuencias más cercanas 𝜔1 y 𝜔2 alrededor de 𝜔𝑐 donde |𝐻(𝑒 𝑗𝜔 )| es igual a
(1⁄√2)|𝐻(𝑒 𝑗𝜔𝑐 )|.
lo cual muestra que el pico se vuelve más punteagudo cuando el polo se aproxima al círculo unitario.
El sistema:
𝑦[𝑛] = (2𝑟 cos 𝜙)𝑦[𝑛 − 1] − 𝑟 2 𝑦[𝑛 − 2] + 𝑏0 𝑥[𝑛]
es conocido como resonador de tiempo discreto puesto que tiene una respuesta de magnitud
grande, es decir, entra en resonancia en el vecindad de las localizaciones de los polos.
Puesto que el resonador es esencialmente un filtro pasa bajos, sus características de la banda de
paso puede mejorarse atenuando las bajas y altas frecuencias, situando un cero en 𝑧 = 1 y un cero
en 𝑧 = −1.
1 − 𝑧 −2
𝐻(𝑧) = 𝑏0 (5.121)
1 − (2𝑟 cos 𝜙)𝑧 −1 + 𝑟 2 𝑧 −2
Osciladores sinusoidales de tiempo discreto.- Si los polos del resonador:
Este sistema, el cual es una forma límite de un resonador, se conoce como oscilador sinusoidal.
El sistema es marginalmente estable debido a que los polos están sobre el círculo unitario.
De esta manera, las gráficas de respuesta en frecuencia de estos sistemas FIR están horizontalmente
volteados de los de la figura:
La respuesta de magnitud de este filtro contiene dos huecos en 𝜔 = ±𝜙.
Si se ponen en cascada varias secciones de segundo orden, se pueden crear filtros FIR con mejores
bandas de paro.
Si los ceros se situan sobre el círculo unitario haciendo que 𝑟 = 1, las componentes de la frecuencia
de entrada en 𝜔 = ±𝜙 son eliminadas.
Los filtros que tienen nulos perfectos en ciertas frecuencias se conocen como filtros notch.
Una forma simple para crear notches más punteagudos es ubicar los ceros en el círculo unitario y
dos polos complejos conjugados en el mismo ángulo que los ceros, cerca de los ceros pero dentro
del círculo unitario.
1 − (2 cos 𝜙)𝑧 −1 + 𝑧 −2
𝐺(𝑧) = (5.126)
1 − (2𝑟 cos 𝜙)𝑧 −1 + 𝑟 2 𝑧 −2
La creación de los notches más agudos se ilustra en la siguiente figura:
la cual muestra la magnitud de las respuestas de (5.125) y (5.126) para 𝑟 = 0.9 y 𝜙 = 0.4𝜋 radianes.
La ganancia 𝑏0 es elegida tal que la máxima respuesta de magnitud sea igual a 1.
Sin embargo, existen aplicaciones que requieren filtros simples con múltiples bandas de paso y
bandas de paro, conocidos como filtros combo.
Para diseñar un filtro combo, inicie con un filtro 𝐻(𝑧) que tenga una sola banda de paso o banda de
paro en el intervalo −𝜋 ≤ 𝜔 ≤ 𝜋.
Si se reemplaza 𝑧 −1 por 𝑧 −𝐿 en 𝐻(𝑧), es decir, si se reemplaza cada retardo unitario por un retardo
de 𝐿 unidades, se obtiene un nuevo sistema definido por:
∞
𝐿)
𝐺(𝑧) ≜ 𝐻(𝑧 = ∑ ℎ[𝑛]𝑧 −𝑛𝐿 (5.127)
𝑛=−∞
donde 𝐿 es un entero.
La respuesta al impulso 𝑔[𝑛] se obtiene insertando (𝐿 − 1) ceros entre las muestras sucesivas de
ℎ[𝑛].
𝐻(𝑧) = 1 − 𝑧 −1 (5.130)
el cual produce el siguiente filtro combo:
𝐺(𝑧) = 1 − 𝑧 −𝐿 (5.131)
Note que 𝐺(𝑒 𝑗𝜔 ) es periódica con periodo 2𝜋⁄8 radianes, como se esperaba.
La expresión polinomial conduce a una implementación no recursiva, mientras que la forma racional
resulta en una implementación recursiva.
Para entende la equivalencia de las dos funciones sistema en (5.135), recuerde que la ecuación 𝑧 𝑀 −
1 = 0 tine 𝑀 raíces dadas por:
Por tanto, el sistema tiene 𝑀 ceros dados por (5.136), un polo en 𝑧 = 0 y 𝑀 − 1 polos en 𝑧 = 0.
Esto se muestra como el patrón de polos y ceros de la siguiente figura para 𝑀 = 10:
La respuesta al impulso es real debido a que los ceros son simétricos con respecto al eje real.
Los 𝑀 − 1 ceros distribuidos sobre el círculo unitario mantienen las respuesta de magnitud
pequeña, excepto en 𝑧 = 1, donde el cero faltante permite valores más grandes.
Esto produce un filtro pasabajos con la respuesta de magnitud mostrada en la figura anterior.
Los notches del filtro, uno para cada cero, están localizados en 𝜔𝑘 = 2𝜋𝑘⁄𝑀 ; 𝑘𝑎1,2, … , 𝑀 − 1.
Filtros pasa banda complejos.- Se puede mover la banda de paso del filtro pasa bajos (5.135):
𝑀−1
1 1 1 − 𝑧 −𝑀 1 𝑧𝑀 − 1
𝐻(𝑧) = ∑ 𝑧 −𝑘 = = (5.135)
𝑀 𝑀 1 − 𝑧 −1 𝑀 𝑧 𝑀−1 (𝑧 − 1)
𝑘=0
La función de sistema del filtro pasa banda resultante 𝑔[𝑘] = 𝑊𝑀𝑚𝑘 ℎ[𝑘] está dada por:
𝑀−1
1 1 1 − (𝑊𝑀−𝑚 𝑧)−𝑀
𝐺(𝑧) = ∑ (𝑊𝑀−𝑚 𝑧)−𝑘 = (5.138)
𝑀 𝑀 1 − (𝑊𝑀−𝑚 𝑧)−1
𝑘=0
𝑀−1
1 1 − (𝑊𝑀−𝑚 𝑧)−𝑀 1
𝐺(𝑧) = = ∏ 1 − 𝑊𝑀𝑘 𝑧 −1 (5.139)
𝑀 1 − (𝑊𝑀−𝑚 𝑧)−1 𝑀
𝑘=0
𝑘≠𝑚
De las ecuaciones anteriores, se tiene 𝐺(𝑧) = 𝐻(𝑊𝑀−𝑚 𝑧), la cual corresponde a una rotación en el
sentido contrario a las manecillas del reloj del patrón de polos y ceros de 2𝜋𝑚⁄𝑀 radianes.
De acuerdo a (5.139) esto es equivalente a la cancelación del cero en 𝑧 = 𝑊𝑀𝑚 por el polo en la
misma localización.
El patrón de polos y ceros y la respuesta de magnitud del filtro pasa banda complejo se muestran
en la siguiente figura:
Puesto que el patrón de polos y ceros carece de simetría alrededor del eje real, la respuesta al
impulso 𝑔[𝑘] = 𝑒 𝑗2𝜋𝑚⁄𝑀 ; 𝑘 = 0,1, … , 𝑀 − 1 es compleja.
Filtros pasa banda reales.- Para obtener un filtro pasa banda con respuesta al impulso real se utiliza
la propiedad de modulación de la DTFT:
𝐷𝑇𝐹𝑇 1 1
ℎ[𝑘] cos(𝜔𝑚 𝑘) ↔ 𝐻(𝑒 𝑗(𝜔−𝜔𝑚) ) + 𝐻(𝑒 𝑗(𝜔+𝜔𝑚) ) (5.140)
2 2
La función de sistema de un filtro con respuesta al impulso 𝑓[𝑘] = cos[(2𝜋𝑚⁄𝑀)𝑘] está dada por:
𝑀−1 𝑀−1
2𝜋𝑚 1
𝐹(𝑧) = ∑ cos ( 𝑘) 𝑧 −𝑘 = ∑ (𝑊𝑀−𝑚𝑘 + 𝑊𝑀𝑚𝑘 )𝑧 −𝑘 (5.141)
𝑀 2
𝑘=0 𝑘=0
1 1 − 𝑧 −𝑀 1 1 − 𝑧 −𝑀
𝐹(𝑧) = + (5.142)
2 1 − 𝑊𝑀−𝑚 𝑧 −1 2 1 − 𝑊𝑀𝑚 𝑧 −1
2𝜋
(1 − 𝑧 −𝑀 ) (1 − 𝑧 −1 cos ( 𝑚))
𝐹(𝑧) = 𝑀 (5.143)
(1 − 𝑊𝑀𝑚 𝑧 −1 )(1 − 𝑊𝑀−𝑚 𝑧 −1 )
Note que (5.142) expresa el sistema FIR (5.141) como la conexión paralela de dos sistemas
pasabanda complejos obtenidos eliminando los dos ceros complejos conjugados.
De acuerdo con (5.143), esto es equivalente a introducir un cero en la parte real de los ceros
complejos conjugados eliminados.
El patrón de polos y ceros y la respuesta de magnitud del filtro pasa banda resultante se muestran
en la siguiente figura:
Puesto que el denominador de (5.143) puede ser escrito como 1 − ((2 cos(2𝜋𝑚))⁄𝑀)𝑧 −1 + 𝑧 −2 ,
es posible obtener una implementación recursiva con coeficientes reales.
Eliminando el término 1 − ((2 cos(2πm))⁄M)z −1 de (5.143) se produce una filtro pasa banda
ligeramente diferente con coeficientes reales.
es decir, se puede convertir un filtro pasa bajos en un filtro pasa altos cambiando los signos de las
muestras numeradas con impares de su respuesta al impulso y viceversa.
El mismo truco puede ser usado para los coeficientes de la ecuación de diferencias:
𝑁 𝑀
𝑘=1 𝑘=0
Este método proporciona una visión del concepto de transformaciones de frecuencia que corre la
respuesta en frecuencia de filtros pasa bajos prototipos.
𝐻(𝑧) ≜ ∑ ℎ[𝑘]𝑧 −𝑘
𝑘=−∞
se tiene que:
∞ ∞
∗ 𝑗𝜔 ∗ [𝑘]𝑒 𝑗𝜔𝑘
𝐻 (𝑒 )= ∑ ℎ = ∑ ℎ∗ [𝑘]𝑧 𝑘 | = 𝑉(𝑧)|𝑧=𝑒 𝑗𝜔 (5.147)
𝑘=−∞ 𝑘=−∞ 𝑧=𝑒 𝑗𝜔
Por tanto, la función 𝑉(𝑧) = 𝐻 ∗ (1⁄𝑧 ∗ ) es obtenida conjugando los coeficientes de 𝐻(𝑧) y
reemplazando donde sea 𝑧 −1 por 𝑧.
∑𝑀
𝑘=0 𝑏𝑘 𝑧
−𝑘
𝐵(𝑧)
𝐻(𝑧) = 𝑁 −𝑘
=
1 + ∑𝑘=1 𝑎𝑘 𝑧 𝐴(𝑧)
se tiene:
∏𝑀 −1 ∗
𝑘=1(1 − 𝑧𝑘 𝑧 )(1 − 𝑧𝑘 𝑧)
𝑅(𝑧) = |𝑏0 |2 (5.151)
∏𝑁 −1 ∗
𝑘=1(1 − 𝑝𝑘 𝑧 )(1 − 𝑝𝑘 𝑧)
Note que:
Ejemplo 5.8.- Considere un sistema FIR de segundo orden con función de sistema:
Este sistema tiene dos ceros reales dentro del círculo unitario. La transformada z:
Dada 𝑅(𝑧), emparejando los diferentes ceros, se pueden formar cuatro sistemas FIR diferentes de
segundo orden:
∏𝑀 −1 ∗
𝑘=1(1 − 𝑧𝑘 𝑧 )(1 − 𝑧𝑘 𝑧)
𝑅(𝑧) = |𝑏0 |2 (5.151)
∏𝑁 −1 ∗
𝑘=1(1 − 𝑝𝑘 𝑧 )(1 − 𝑝𝑘 𝑧)
∑𝑀
𝑘=0 𝑏𝑘 𝑧
−𝑘
𝐵(𝑧)
𝐻(𝑧) = 𝑁 −𝑘
=
1 + ∑𝑘=1 𝑎𝑘 𝑧 𝐴(𝑧)
que satisfacen
2
𝑅(𝑧)|𝑧=𝑒 𝑗𝜔 = |𝐻(𝑒 𝑗𝜔 )| = 𝐻(𝑒 𝑗𝜔 )𝐻 ∗ (𝑒 𝑗𝜔 )
Todos estos sistemas tienen la misma respuesta de magnitud pero diferentes respuestas de fase.
Por tanto, dada |𝐻(𝑒 𝑗𝜔 )| no se puede identicar de manera única la respuesta de fase ∠𝐻(𝑒 𝑗𝜔 ) sin
información adicional.
Sin embargo, es igualmente importante entender que las respuestas de magnitud y de fase no
pueden ser especificadas independientemente debido a la necesidad de realizabilidad del sistema.
|𝐻(𝑒 𝑗𝜔 )| = 𝐺 (5.155)
implican que todos los sistemas pasa todo preservan la potencia o energía de sus señales de entrada.
En este sentido, se dice que los sistemas pasa todo son sistemas sin pérdida.
Los sistemas pasa todo más simples, simplemente escalan y retardan la señal de entrada.
Por tanto:
Una familia no trivial más interesante de sistemas pasa todo (conocidos como sistemas pasa todo
dispersivos) puede ser obtenida notando que los factores (1 − 𝑝𝑘 𝑒 −𝑗𝜔 ) y sus complejos conjugados
(1 − 𝑝𝑘∗ 𝑒 𝑗𝜔 ) tienen la misma magnitud.
1 − 𝑝𝑘∗ 𝑧 𝑧 −1 − 𝑝𝑘∗
𝐻𝑘 (𝑧) = 𝑧 −1 = (5.157)
1 − 𝑝𝑘 𝑧 −1 1 − 𝑝𝑘 𝑧 −1
es un pasa todo.
El término 𝑧 −1 , el cual tiene magnitud 1 sobre el círculo unitario, ha sido introducido para hacer que
el sistema sea causal.
Los sistemas pasa todo pueden ser obtenidos poniendo en cascada múltiples secciones de primer
orden como:
𝑁
𝑗𝛽
𝑧 −1 − 𝑝𝑘∗
𝐻𝑘 (𝑧) = 𝑒 ∏ (5.158)
1 − 𝑝𝑘 𝑧 −1
𝑘=1
Para sistemas con coeficientes reales, las raíces complejas deberías aparecer en pares complejos
conjugados.
Por ejemplo, los sistemas 𝐻1 (𝑧) = 1 y 𝐻2 (𝑧) = 𝑧 −1 son pasa todo, pero 𝐻(𝑧) = 𝐻1 (𝑧) +
𝐻2 (𝑧) = 1 + 𝑧 −1 no es pasa todo debido a que 𝐻(𝑒 𝑗𝜔 ) = 2 cos(𝜔⁄2).
Cada polo 𝑝𝑘 de un sistema pasa todo debería estar acompañado por un cero recíproco
complejo 1⁄𝑝𝑘∗ .
Puesto que todos los sistemas pasa todos causales y estables deben tener todos sus polos
dentro del círculo unitario, todos los ceros están fuera del círculo unitario.
Las propiedades claves de los sistemas pasa todo pueden ser ilustrados geométricamente usando
la gráfica de polos y ceros de la siguiente figura:
Note que el círculo unitario es el lugar de todos los puntos 𝑍 tales que:
̅̅̅̅̅
𝑃𝑘 𝑍 |𝑒 𝑗𝜔 − 1⁄𝑝𝑘∗ | 1
= = ; |𝑝𝑘 | < 1 (5.159)
̅̅̅̅̅
𝑍 𝑘𝑍
𝑗𝜔
|𝑒 − 𝑝𝑘 | |𝑝𝑘 |
es decir, la razón de las distancias de 𝑍 desde el polo 𝑝𝑘 = 𝑟𝑘 𝑒 𝑗𝜙𝑘 y desde el cero 1⁄𝑝𝑘∗ =
(1⁄𝑟𝑘 )𝑒 𝑗𝜙𝑘 es constante.
Las respuestas de magnitud, fase y retardo de grupo del sistema pasa todo de primer orden (5.157);
1 − 𝑝𝑘∗ 𝑧 𝑧 −1 − 𝑝𝑘∗
𝐻𝑘 (𝑧) = 𝑧 −1 = (5.157)
1 − 𝑝𝑘 𝑧 −1 1 − 𝑝𝑘 𝑧 −1
|𝐻𝑘 (𝑒 𝑗𝜔 )| = 1 (5.160)
𝑟𝑘 sin(𝜔 − 𝜙𝑘 )
∠𝐻𝑘 (𝑒 𝑗𝜔 ) = −𝜔 − 2 tan−1 ( ) (5.161)
1 − 𝑟𝑘 cos(𝜔 − 𝜙𝑘 )
1 − 𝑟𝑘2
𝜏𝑘 (𝜔) = (5.162)
1 + 𝑟𝑘2 − 2𝑟𝑘 cos(𝜔 − 𝜙𝑘 )
La función de Matlab angle que calcula el valor principal, produce la curva discontinua rayada.
Puesto que 𝑟𝑘 < 0, para sistemas pasa todo causales y estables, el retardo de grupo (5.162):
1 − 𝑟𝑘2
𝜏𝑘 (𝜔) = (5.162)
1 + 𝑟𝑘2 − 2𝑟𝑘 cos(𝜔 − 𝜙𝑘 )
es siempres positivo.
se concluye que la fase decrece monotónicamente a partir de ∠𝐻(𝑒 −𝑗𝜋 ) a ∠𝐻(𝑒 −𝑗𝜋 ) − 2𝜋 para
cada polo.
Por tanto, la respuesta de fase de un sistema pasa todo de orden 𝑁 decrece monotónicamente en
el rango:
Por tanto, para los sistemas pasa todo con coeficientes reales la respuesta de fase continua cambia
monotónicamente desde 𝑁𝜋 a – 𝑁𝜋 cuando 𝜔 varía desde – 𝜋 a 𝜋 radianes.
De (5.158):
𝑁
𝑧 −1 − 𝑝𝑘∗
𝐻𝑘 (𝑧) = 𝑒 𝑗𝛽 ∏ (5.158)
1 − 𝑝𝑘 𝑧 −1
𝑘=1
𝑎2∗ + 𝑎1∗ 𝑧 −1 + 𝑧 −2 −2
1 + 𝑎1∗ 𝑧 + 𝑎2∗ 𝑧 2
𝐻𝑎𝑝 (𝑧) = = 𝑧 (5.164)
1 + 𝑎1 𝑧 −1 + 𝑎2 𝑧 −2 1 + 𝑎1 𝑧 −1 + 𝑎2 𝑧 −2
donde 𝑎1 = −(𝑝1 + 𝑝2 ) y 𝑎2 = 𝑝1 𝑝2 .
Los sistemas pasa todo tienen muchas aplicaciones, incluyendo el diseño de compensadores de fase
para mitigar la distorsión de fase o de retardo de grupo sin alterar la respuesta de magnitud,
transformaciones de frecuencia y filtrado multitasa.
El sistema 𝐻𝑖𝑛𝑣 (𝑧) que produce 𝑥[𝑛] cuando se lo excita con 𝑦[𝑛] se llaman sistema inverso.
Dada h[n], se puede obtener hinv [n] resolviendo la ecuación de convolución (5.170).
Un método simple es usar la ecuación algebraica (5.171).
∑𝑀
𝑘=0 𝑏𝑘 𝑧
−𝑘
𝐵(𝑧)
𝐻(𝑧) = 𝑁 −𝑘
= (5.77)
1 + ∑𝑘=1 𝑎𝑘 𝑧 𝐴(𝑧)
se tiene:
1 𝐴(𝑧)
𝐻𝑖𝑛𝑣 (𝑧) = = (5.172)
𝐻(𝑧) 𝐵(𝑧)
Por tanto, los ceros de 𝐻(𝑧) se vuelven los polos de sus sistema inverso y viceversa.
Un sistema causal y estable 𝐻(𝑧) debería tener sus polos dentro del círculo unitario; sus ceros
pueden estar donde sea.
En aplicaciones de filtrado inverso, el sistema 𝐻𝑖𝑛𝑣 (𝑧) = 1⁄𝐻(𝑧) debería ser causal y estable
también.
Un sistema LTI causal y estable con inversa causal y estable es un sistema de fase mínima.
De esta manera, las secuencias de la respuesta al impulso ℎ[𝑛] y ℎ𝑖𝑛𝑣 [𝑛] deberían ser causales
y absolutamente sumables.
Algunas vece,s para permitir polos o ceros sobre el círculo unitario, sólo se requiere que las
respuestas al impulso tengan energía finita.
El sistema racional
∑𝑀
𝑘=0 𝑏𝑘 𝑧
−𝑘
𝐵(𝑧)
𝐻(𝑧) = 𝑁 −𝑘
=
1 + ∑𝑘=1 𝑎𝑘 𝑧 𝐴(𝑧)
es de fase mínima si tanto sus polos como sus ceros están dentro del círculo unitario.
Descomposición de fase mínima y pasa todo.- Cualquier sistema con función racional se puede
decomponer en un sistema de fase mínima y un sistema pasa todo.
Para este fin, suponga que 𝐻(𝑧) tine un cero en 𝑧 = 1⁄𝑎∗ , donde |𝑎| < 1, fuera del círculo unitario,
y todos los otros polos y ceros dentro del círculo unitaio.
𝑧 −1 − 𝑎∗
𝐻(𝑧) = 𝐻1 (𝑧)(1 − 𝑎𝑧 −1 ) (5.174)
1 − 𝑎𝑧 −1
𝑧 −1 −𝑎∗
donde 𝐻1 (𝑧)(1 − 𝑎𝑧 −1 ) es de fase mínima y 1−𝑎𝑧 −1 es pasa todo. Si se repite este proceso para
cada cero fuera del círculo unitario, se obtiene:
De esta manera, cualquier función sistema racional puede ser descompuesto en el producto de una
función de sistema de fase mínima y una función de sistema pasa todo.
Propiedad del retardo mínimo.- Explica el origen del nombre de sistemas de fase mínima.
Los sistemas 𝐻(𝑧) y 𝐻𝑚𝑖𝑛 (𝑧) en (5.175) tienen obviamente la misma respuesta de magnitud.
Para ver el efecto sobre la respuesta de fase, considere un cero 𝑧 = 𝑟𝑒 𝑗𝜃 dentro del círculo unitario
(𝑟 < 1).
De las ecuaciones:
𝑀 𝑁
𝑗𝜔 −1
𝑞𝑘 cos(𝜔 − 𝜃𝑘 ) 𝑟𝑘 cos(𝜔 − 𝜙𝑘 )
∠𝐻(𝑒 ) = ∠𝑏0 + ∑ tan ( ) − ∑ tan−1 ( )
1 − 𝑞𝑘 cos(𝜔 − 𝜃𝑘 ) 1 − 𝑟 cos(𝜔 − 𝜙𝑘 )
𝑘=1 𝑘=1
𝑁 𝑀
𝑟𝑘2 − 2𝑟𝑘 cos(𝜔 − 𝜙𝑘 ) 𝑞𝑘2 − 2𝑞𝑘 cos(𝜔 − 𝜃𝑘 )
𝜏𝑔𝑑 (𝜔) = ∑ − ∑
1 + 𝑟𝑘2 − 2𝑟𝑘 cos(𝜔 − 𝜙𝑘 ) 1 + 𝑞𝑘2 − 2𝑞𝑘 cos(𝜔 − 𝜃𝑘 )
𝑘=1 𝑘=1
el corrimiento de fase negativa −Ψ(𝜔) (atraso de fase) y el retardo de grupo están dados por:
sin(𝜔 − 𝜃)
−Ψ(𝜔) = − tan−1 (5.178)
1⁄𝑟 − cos(𝜔 − 𝜃)
𝑟 − cos(𝜔 − 𝜃)
𝜏(𝜔) = (5.179)
(𝑟 + 1⁄𝑟) − 2 cos(𝜔 − 𝜃)
Si se reemplaza 𝑟 por 1⁄𝑟 en (5.178), el atraso de fase se incrementa debido a que el denominador
decrece.
Fácilmente se puede ver que 𝛽𝑜𝑢𝑡 (𝜔) ≥ 𝛽𝑖𝑛 (𝜔) (recuerde que ∠𝐻(𝑒 𝑗𝜔 ) = −𝜔 + Θ𝑘 (𝜔) = 𝛽𝑘 ).
Por tanto, reflejando un cero fuera del círculo unitario a su localización recíproca conjugada
incrementa el retardo de grupo.
Las gráficas muestran el atraso de fase de la ecuación (5.178) y el retardo de grupo (5.179) para 𝑧 =
0.8𝑒 𝑗𝜋⁄4 y su conjugado recíproco 1⁄𝑧 ∗.
Se concluye que un sistema de fase mínima tiene atraso de fase mínimo (algebraicamente) y el
retardo de grupo mínimo entre todos los sistemas con la misma respuesta de magnitud.
Aunque los términos de atraso de fase mínimo o sistema de retardo de grupo mínimo serían
más apropiados, el término de fase mínima ha sido establecido en la literatura.
Sistemas de fase máxima y mezclada.- Un sistema causal y estable con función de sistema racional
se llama de fase máxima si todos sus ceros están fuera del círculo unitario.
Un sistema con 𝐻(𝑧) arbitraria es de fase máxima, si es causal, estable y 𝐻(𝑧) ≠ 0 para |𝑧| <
1.
Un sistema que ni es de fase mínima ni de fase máxima se llama sistema de fase mezclada.
Ejemplo 5.11 Sistemas de fase mínima, máxima y mezclada.- Considere un sistema de fase mínima
con función de sistema:
Este sistema tiene dos ceros dentro del círculo unitario en 𝑧 = 𝑎 y 𝑧 = 𝑏, si sólo se refleja un cero
afuera del círculo unitario, se obtiene el siguiene sistema de fase mezclada:
La ecuación (5.184):
De la ecuación:
−𝑁
1 + 𝑎1∗ 𝑧 + ⋯ + 𝑎𝑁
∗ 𝑁
𝑧 −𝑁
𝐴∗ (1⁄𝑧 ∗ )
𝐻𝑎𝑝 (𝑧) = 𝑧 =𝑧 (5.165)
1 + 𝑎1 𝑧 −1 + ⋯ + 𝑎𝑁 𝑧 −𝑁 𝐴(𝑧)
se puede fácilmente concluir que el sistema 𝐴𝑚𝑎𝑥 (𝑧)⁄𝐴𝑚𝑖𝑛 (𝑧) es pasa todo.
Inversión de sistemas de fase no mínima.- En muchas aplicaciones, la magnitud y la fase de una
señal se distorsionan cuando pasa a través de un sistema 𝐻(𝑧).
La distorsión puede ser tratada, al menos en principio, poniendo en cascada un ecualizador 𝐻𝑒𝑞 (𝑧)
con 𝐻(𝑧).
La salida del sistema combinado será sin distorsión si 𝐻(𝑧)𝐻𝑒𝑞 (𝑧) = 𝐺𝑧 −𝑛𝑑 , donde 𝐺 y 𝑛𝑑 son
constantes arbitrarias.
El ecualizador 𝐻𝑒𝑞 (𝑧) = 𝐺𝑧 −𝑛𝑑 ⁄𝐻(𝑧) es causal y estable si 𝐻(𝑧) es de fase mínima.
Por tanto, 𝐻𝑒𝑞 (𝑧) ecualiza la respuesta de magnitud a 𝐺 y modifica la respuesta de fase a ∠𝐻𝑎𝑝 (𝜔).
6 Muestreo de señales de tiempo continuo
6.1 Muestreo periódico ideal de señales de tiempo continuo
El muestreo periódico esta definido por:
La siguiente figura muestra que un número infinito de señales pueden generar el mismo conjunto
de muestras.
Por tanto, las muestras no dicen nada acerca de los valores de la señal entre los instantes de
muestreo:
Cada vez que una señal de tiempo continuo 𝑥𝑐 (𝑡) es muestreada uniformemente con periodo de
muestreo 𝑇 = 1⁄𝐹𝑠 , el espectro de 𝑥[𝑛] = 𝑥𝑐 (𝑛𝑇) se obtiene escalando el espectro de 𝑥𝑐 (𝑡) por
1⁄𝑇 y poniendo copias en todos los múltiplos enteros de 𝐹𝑠 ;
∞
𝑗2𝜋𝐹𝑇
1
𝑋(𝑒 ) = ∑ 𝑋𝑐 [𝑗2𝜋(𝐹 − 𝑘𝐹𝑠 )]
𝑇
𝑘=−∞
La mínima tasa de muestreo, 2𝐹𝐻 , requerida para evitar el traslape de las copias repetidas de
𝑋𝑐 (𝑗2𝜋𝐹) (distorsión de aliasing) es conocida como la tasa de Nyquist.
donde 𝑥𝑟 (𝑡) es la señal reconstruida y 𝑔𝑟 (𝑡) es una función de reconstrucción por interpolación.
Una señal de banda limitada con 𝑋𝑐 (𝑗2𝜋𝐹) = 0 para |𝐹| > 𝐹𝐻 puede ser exactamente reconstruida
a partir de la secuencia de muestras 𝑥𝑐 (𝑛𝑇), donde 𝐹𝑠 = 1⁄𝑇 ≥ 2𝐹𝐻 , usando la fórmula de
interpolación de banda limitada ideal:
∞
sin[𝜋(𝑡 − 𝑛𝑇)⁄𝑇]
𝑥𝑐 (𝑡) = ∑ 𝑥𝑐 (𝑛𝑇) (6.25)
𝜋(𝑡 − 𝑛𝑇)⁄𝑇
𝑛=−∞
El sistema usado para implementar la ecuación anterior, conocido como DAC ideal, se describe en
forma de diagrama de bloques como en la siguiente figura:
Las realciones entre el par de transformadas de Fourier para señales de tiempo continuo y los pares
de transformadas de Fourier para señales de tiempo discreto, formadas mediante muestreo
uniforme de señales de tiempo continuo, se resumen en:
6.3El efecto del submuestreo: aliasing
Demostración del aliasing en señales sinusoidales.- Las señales 𝑥(𝑡) = cos(2𝜋𝐹1 𝑡),𝐹1 = 1 Hz y
𝑥2 (𝑡) = cos(2𝜋𝐹2 𝑡),𝐹2 = 5 Hz, muestreadas a una tasa de 𝐹𝑠 = 6 Hz generan el mismo conjunto
de muestras.
Frecuencia aparente
Considere el diagrama de bloques de la siguiente figura
La frecuencia aparente es la frecuencia más baja de una sinusoide que tiene exactamente las
mismas muestras que la sinusoide de entrada, y se la denota por 𝐹𝑎 .
Una sinuoide de frecuencia 𝐹 > 𝐹𝑠 aparece como una sinusoide de freccuencia 𝐹0 = 𝐹 − 𝑘𝐹𝑠 ,
donde 𝑘 se elige tal que 0 ≤ 𝐹0 ≤ 𝐹𝑠 .
Si 0 ≤ 𝐹0 ≤ 𝐹𝑠 ⁄2, la frecuencia aparente dela señal reconstruida es 𝐹𝑎 = 𝐹0
Si 𝐹𝑠 ⁄2 ≤ 𝐹0 ≤ 𝐹𝑠 , entonces 𝐹𝑎 = 𝐹0 − 𝐹𝑠 .
El DAC ideal siempre reconstruye una señal seno o coseno con frecuencia en el rango de
− 𝐹𝑠 ⁄2 ≤ 𝐹0 ≤ 𝐹𝑠 ⁄2.
Puesto que cos(−2𝜋𝐹𝑎 𝑡 + 𝜃) = cos(2𝜋𝐹𝑎 𝑡 − 𝜃), el valor aparente de −𝐹𝑎 también es 𝐹𝑎 con
una reversa de cambio de signo en la fase.
considerando los traslapes de las colas de las réplicas corridas del espectro de la señal de
entrada
volteando las colas de la derecha del espectro a la entrada alrededor de 𝐹𝑠 ⁄2 y cero hasta que
la cola entera esté en el rango de 0 ≤ 𝐹0 ≤ 𝐹𝑠 ⁄2, como se muestra en la siguiente figura:
Espectro de 𝑥𝑐 (𝑡)
Señal de tiempo discreto 𝑥[𝑛] muestreada en 𝑇 = 1 seg.
Espectro de 𝑥[𝑛]
Señal periódica:
Coeficientes CTFS de secuencia periódica
Coeficientes DTFS de señal que muestra una versión con alias de la correspondiente CTFS
Del ejemplo anterior, se tiene que el muestreo de una señal periódica produce una secuencia
periódica, cuya DTFS es una versión con alias de los coeficientes CTFS correspondientes. La DTFS
está dada por:
∞
ADC ideal.- La entrada al filtro ideal ADC es una señal de tiempo continuo y la salida es una secuencia
de muestras 𝑥[𝑛] definida por:
𝑥[𝑛] = 𝑥𝑐 (𝑡)|𝑡=𝑛𝑇 = 𝑥𝑐 (𝑛𝑇) (6.38)
Operación del ADC ideal tanto en el dominio del tiempo como en el dominio de la frecuencia:
La operación del sistema LTI está descrita por las siguientes realciones:
∞
La siguiente figura ilustra este proceso para un filtro ideal pasa bajos:
DAC ideal.- La entrada al filtro ideal DAC es una secuencia de números 𝑦[𝑛] y su salida es una señal
de tiempo continuo𝑦𝑟 (𝑡). La salida del DAC ideal está dada por:
∞
donde 𝑔𝐵𝐿 (𝑡) es la función de interpolación ideal y 𝐺𝐵𝐿 (𝑗Ω) es su transformada de Fourier.
Filtro efectivo de tiempo continuo.- La operación global del sistema resulta en:
∞
1 2𝜋
𝑌𝑟 (𝑗Ω) = 𝐺𝐵𝐿 (𝑗Ω)𝐻(𝑒 𝑗ΩT )𝑋(𝑒 𝑗ΩT
) = 𝐺𝐵𝐿 (𝑗Ω)𝐻(𝑒 𝑗ΩT ) ∑ 𝑋 (𝑗Ω − j 𝑘) (6.45)
𝑇 𝑇
𝑘=−∞
Si 𝑋𝑐 (𝑗Ω) es de banda limitada a 2𝜋𝐹𝐻 , la frecuencia se muestreo satisface que 𝐹𝑠 > 2𝐹𝐻 y se usa
un DAC ideal entonces:
𝑌𝑟 (𝑗Ω) = 𝐻𝑒𝑓𝑓 (𝑗Ω)𝑋𝑐 (𝑗Ω) (6.47)
donde
Note que aunque los ADC y DAC ideales son sistemas lineales variantes en el tiempo, el sistema
global es equivalente a un sistema LTI de tiempo continuo efectivo cuya respuesta en frecuencia
está dada por (6.48).
Filtro antialiasing pasa bajos.- La única función de un filtro pasa bajos analógico antes del circuito
muestreador-retenedor es limitar la banda de la señal de entrada a la frecuencia 𝐹𝑠 ⁄2 sin introducir
distorsión excesiva lineal o no lineal y sin generar ruido excesivo.
Es una operación crítica debido a que la señal de salida del filtro es muestreada; cualquier
componente de frecuencia arriba de la frecuencia de muestreo resultará en una distorsión de
aliasing.
Requiere un filtro pasabajos analógico 𝐻𝑎 (𝑗Ω) con una caída empinada y muy alta atenuación
en todas las componentes de frecuencia arriba de 𝐹𝑠 ⁄2.
El diseño e implementación de buenos filtros antialiasing para el muestreo a la tasa de Nyquist
es difícil y caro.
Se pueden usar filtros antialiasing más simples y baratos, si se permite sobremuestreo seguido
de compensación mediante filtrado digital.
Cuando el switch está en la posición muestreo, el S/H sigue la señal de entrada y el capacitor se
carga hasta el valor de la entrada.
Cuando el switch se muesve a la posición de Hold, el capacitor no tiene un trayecto de descarga
y almacena una cantidad analógica que representa a la señal en el instante de muestreo.
Este proceso se repite en cada intervalo de muestreo como se ilustra en la siguiente figura:
Usualmente un ADC tiene una función de muestrador retendor construida internamente; este
tipo de ADC se conoce como ADC de muestreo.
La salida de un circuito S/H puede ser modelada como una forma de onda escalera, donde cada
valor de la muestra retenida es constante hasta la adquisición de la siguiente muestra, como se
muestra en la siguiente figura:
Convertidor ADC.- El convertidor ADC es un dispositivo físico que convierte el valor de voltaje o
corriente en su entrada a una palabra binaria, la cual es la representación numérica de un valor
cuantificado más cercano al valor de la entrada.
Primero se compara el voltaje de entrada con un valor de referencia que es la mitad del máximo.
Si el voltaje de entrada es mayor, la señal es luego comparada con un nivel de referencia de tres
cuartos del máximo y así sucesivamente.
La ventaja es que el resultado puede ser obtenido en el orden de 𝐵 periodos de reloj
Sin embargo, el costo es más alto debido a que requiere un DAC de alta velocidad altamente
precisio.
Tales convertidores son usados en las aplicaciones de telecomunicaciones.
Convertidores paralelos o flash.- Examina todas las subregiones simultáneamente usando un
comparador por subregión.
El resultado puede ser obtenido en el orden de un ciclo de reloj, pero el costo de hardware es
mucho más grande que los convertidores de aproximaciones sucesivas.
Tales convertidores son usados para aplicaciones de alta tasa de muestreo, como radar, sonar
y video.
Ruido de cuantización.- Los dos tipos principales de error introducidos por un ADC son: error de
aliasing y error de cuantización.
Puesto que la cuantización es una operación no lineal, el análisis del error de cuantización se hace
usando técnicas estadísticas, es decir, es tratado como una señal aleatoria.
Sin embargo, si se asume que 𝐹𝑠 satisface el teorema de muestreo y, por tanto, no existe error de
aliasing, entonces se puede obtener una fórmula útil para la potencia del error de cuantización,
cuantificando la señal de tiempo continuo 𝑥𝑐 (𝑡) en vez de la señal de tiempo discreto 𝑥[𝑛] =
𝑥𝑐 (𝑛𝑇).
La idea básica se ilustra en la siguiente figura que muestra la cuantización de una señal sinusoidal
de tiempo continuo:
1 𝑇𝑝 2 2𝜋 𝑋𝑚2
𝑃𝑆 = ∫ 𝑋𝑚 sin2 ( ) 𝑑𝑡 = (6.61)
𝑇𝑝 0 𝑇𝑝 2
1 𝜏 2 ∆2
𝑃𝑄 = ∫ 𝑒𝑐 (𝑡)𝑑𝑡 = (6.60)
2𝜏 −𝜏 12
donde 𝑒𝑐 (𝑡) ≜ 𝑥𝑞 (𝑡) − 𝑥𝑐 (𝑡) es la señal de error de cuantización; en un intervalo típico está dado
por:
∆
𝑒𝑐 (𝑡) = 𝑡; −𝜏 ≤ 𝑡 ≤ 𝜏 (6.59)
2𝜏
donde ∆ es el ancho de la incertidumbre en el redondeo.
La idea básica detrás de la operación del DAC es que los bits binarios causan que los switches
electrónicos se abran o cierren, enrutando la corriente eléctrica a través de una red apropiada
de resistencias para generar el nivel correcto de voltaje.
Debido a que no se requiere conteo o búsqueda, los convertidores DA tienden a ser mucho más
rápidos que los convertidores AD.
El siguiente sistema es un amplificador S/H especial que evita los problemas internos de
conmutación en el DAC que aparecen en la señal analógica de salida.
Esto se hace reteniendo el voltaje de salida constante del DAC durante un periodo de muestreo;
el resultado es una señal escalera de tiempo continuo.
Puesto que el DAC simplemente mapea la palabra binaria de entrada al valor cuantificado 𝑥𝑞 [𝑛],
la interpolación se efectúa mediante el amplificador S/H.
El pulso característico del circuito S/H y su transformada de Fourier están dados por el par:
A esta señal se la llama pasa banda con frecuencia centro Ω𝐶 = 2𝜋𝐹𝐶 = (Ω𝐿 + Ω𝐻 )⁄2 y ancho de
banda en Hz:
2𝐵 ≤ 𝐹𝑠 ≤ 4𝐵
es suficiente para reconstruir una señal pasa banda bajo la condición de que 𝐹𝐻 ⁄𝐵 es un entero.
7 Transformada discreta de Fourier
7.1Análisis computacional de Fourier
Cualquier señal puede ser expresada como una superposición lineal, es decir, una suma o integral
de señales sinusoidales.
Las ecuaciones de la DTFS involucran cálculos sobre un número finito de coeficientes o muestras
usando sumas finitas de productos, por lo que pueden ser exactamente evaluadas mediante cálculo
numérico.
Cálculo de la CTFT.- Se puede obtener una aproximación numérica de 𝑋𝑐 (𝑗Ω), primero muestreando
𝑥𝑐 (𝑡) y luego reemplazando la integral de Fourier mediante una suma:
∞ ∞
El espectro periódico de interés, 𝑋𝑐 (𝑗Ω), es aproximado por un espectro periódico, 𝑋̂𝑐 (𝑗Ω), que se
forma mediante una repetición periódica de 𝑋𝑐 (𝑗Ω).
Si 𝑋𝑐 (𝑗Ω) = 0; |Ω| > 𝜋⁄𝑇, la repetición periódica de 𝑋𝑐 (𝑗Ω) no crea ningún error de aliasing.
Cálculo de la CTFS.- Si se muestrea una señal periódica 𝑥̃𝑐 (𝑡 + 𝑇0 ) = 𝑥̃𝑐 (𝑡) con periodo 𝑇 = 𝑇0 ⁄𝑁,
la señal resultante 𝑥̃[𝑛] = 𝑥̃𝑐 (𝑛𝑇), es una secuencia periódica 𝑥̃[𝑛 + 𝑁] = 𝑥̃[𝑛].
Usando integración rectangular, la CTFS puede ser aproximada por la suma finita:
𝑁−1 𝑁−1
𝑡 1 2𝜋
𝑐𝑘 ≈ ∑ 𝑥̃𝑐 (𝑛𝑇)𝑒 −𝑗𝑘Ω0 𝑛𝑇 (𝑇) = ∑ 𝑥̃[𝑛]𝑒 −𝑗 𝑁 𝑘𝑛 = 𝑐̃𝑘 (7.5)
𝑇0 𝑁
𝑛=0 𝑛=0
En este caso, uno tiene que aproximar 𝑋̃(𝑒 𝑗𝜔 ) por la sumatoria finita:
𝑁−1
𝑋̃(𝑒 𝑗𝜔
) ≈ ∑ 𝑥[𝑛]𝑒 −𝑗𝜔𝑛 ≜ 𝑋̃𝑁 (𝑒 𝑗𝜔 ) (7.7)
𝑛=0
Esta aproximación es razonable si los valores de 𝑥[𝑛] fuera del intervalo 0 ≤ 𝑛 ≤ 𝑁 − 1 son cero o
bien despreciablemente pequeños.
Ahora bien, note que 𝑋̃𝑁 (𝑒 𝑗𝜔 ) no es el espectro de 𝑥[𝑛], pero sí es el espectro de la secuencia:
Segundo: Se puede sólo calcular la función 𝑋̃𝑁 (𝑒 𝑗𝜔 ) de la variable continua 𝜔 en un conjunto finito
de frecuencias 0 ≤ 𝜔𝑘 < 2𝜋, 0 ≤ 𝑘 < 𝐾 − 1.
𝑿 = 𝑾𝒙 (7.12)
Si 𝐾 = 𝑁 se tiene un sistema lineal de 𝑁 ecuaciones con 𝑁 incógnitas.
En este caso, se pueden determinar exactamente los valores de 𝑥[0], 𝑥[1], … , 𝑥[𝑁 − 1] a partir de
las muestras espectrales 𝑋[0], 𝑋[1], … , 𝑋[𝑁 − 1] resolviendo (7.12).
𝐱 = 𝐖 −𝟏 𝐗 (7.13)
La solución de (7.12) requiere efectuar operaciones de punto flotante una cantidad del orden de 𝑁 3
operaciones.
Si se hace que 𝑥̃[𝑛] = 𝑥[𝑛] y se calcula (7.15) con la fórmula DTFS, se obtiene:
1
𝑐̃𝑘 = 𝑋[𝑘] (7.16)
𝑁
Sustituyendo (7.16) en la fórmula de la IDTFS se tiene:
𝑁−1
1 2𝜋
𝑥[𝑛] = ∑ 𝑋[𝑘]𝑒 𝑗 𝐾 𝑘𝑛 ; 𝑛 = 0,1, … , 𝑁 − 1 (7.17)
𝑁
𝑘=0
la cual proporciona un cálculo específico de (7.13) sin tener que invertir una matriz.
Resumen
Las ecuaciones (7.15) y (7.17) proporcionan la base para el análisis computacional de Fourier.
Dado un conjunto de muestras 𝑥[𝑛]; 0 ≤ 𝑛 ≤ 𝑁 − 1, se puede usar (7.15) para calcular un conjunto
de coeficientes 𝑋[𝑘]; 0 ≤ 𝑘 ≤ 𝑁 − 1.
Las 𝑁 muestras de la señal siempre pueden ser exactamente recuperadas a partir de los 𝑁
coeficientes usando (7.17).
Sin embargo, el significado o interpretación de los coeficientes depende del origen de las 𝑁
muestras de la señal:
Si 𝑥[𝑛] tiene longitud finita 𝑁, es decir, 𝑥[𝑛] = 0 fuera del rango 0 ≤ 𝑛 ≤ 𝑁 − 1, entonces se tiene:
2𝜋
𝑋[𝑘] = 𝑋̃ (𝑒 𝑗 𝑁 𝑘 ) (7.18)
Esta es una de las principales razones para definir el par de operaciones reversibles (715 y (7.17)
como una transformada bien definida.
Esta nueva transformada es conocida como transformada discreta de Fourier.
El descubrimiento de los algoritmos FFT establecieron la DFT como una de las herramientas
fundamentales en el procesamiento digital de señales.
Puesto que 𝑋[𝑘] es una función del índice 𝑘 de frecuencia discreta, el cual corresponde al conjunto
de frecuencias 𝜔𝑘 = (2𝜋⁄𝑁); 𝑘 = 0,1, … , 𝑁 − 1, se dice que (7.21) y (7.22) forman un par de
transformada discreta de Fourier (DFT).
Este nombre es usado para enfatizar el hecho de que tiene una transformada tipo Fourier la cual es
discreta tanto en el tiempo como en la frecuencia.
Por conveniencia en la notación a menudo las ecuaciones DFT se expresan de la siguiente forma:
donde la cantidad compleja 𝑊𝑁 , conocida como factor de giro, está definido como:
2𝜋
𝑊𝑁 ≜ 𝑒 −𝑗 𝑁 (7.24)
La DFT únicamente describe 𝑁 muestras consecutivas 𝑥[0], 𝑥[1], … , 𝑥[𝑁 − 1] de una secuencia
en términos de 𝑁 coeficientes de transformada 𝑋[0], 𝑋[1], … , 𝑋[𝑁 − 1].
Para mostrar que (7.23) es una transformada válida reversible se cambia el índice de la sumatoria
en la suma de la IDFT de 𝑘 a 𝑚 y se inserta el resultado a la fórmula de la DFT.
Esto produce:
𝑁−1 𝑁−1 𝑁−1 𝑁−1
1 1 (𝑘−𝑚)𝑛
𝑋[𝑘] = ∑ ∑ 𝑋[𝑚]𝑊𝑁−𝑚𝑛 𝑊𝑁𝑘𝑛 = ∑ 𝑋[𝑚] ∑ 𝑊𝑁 (7.25)
𝑁 𝑁
𝑛=0 𝑚=0 𝑚=0 𝑛=0
De (7.26) se ve que sólo el término de la suma sobre 𝑚 en (7.25), la cual es diferente de cero, es el
término correspondiente a 𝑚 = 𝑘 para cualquier 𝑘 en el rango 0 ≤ 𝑘 ≤ 𝑁 − 1.
Estos son llamados la 𝑁-ésima raiz unitaria puesto que satisface la ecuación:
𝑁 2𝜋 𝑁
−𝑗 𝑘
(𝑊𝑁−𝑘 ) = (𝑒 𝑁 ) = 𝑒 𝑗2𝜋𝑘 = 1 (7.27)
La siguiente figura muestra que estas raíces son números complejos igualmente espaciados
alrededor del círculo unitario:
Este diagrama explica por qué la suma 𝑊80𝑚 + 𝑊81𝑚 + ⋯ + 𝑊87𝑚 es igual a 8 para 𝑚 = 0 y cero
para 𝑚 = 1.
𝑋[0] 1 1 ⋯ 1 𝑥[0]
𝑁−1
𝑋[1] 𝑊𝑁 ⋯ 𝑊 𝑥[1]
] = [1
𝑁
[ ⋱ ⋮ ][ ] (7.30)
⋮ ⋮ ⋮ ⋮
𝑋[𝑁 − 1] 1 𝑊𝑁𝑁−1 ⋯ 𝑊 (𝑁−1)(𝑁−1) 𝑥[𝑁 − 1]
𝑁
𝐗 𝑁 = 𝐖𝑁 𝐱𝑁 ; (DFT) (7.31)
La ecuación (7.30) muestra que la DFT puede ser vista como un operador matricial o como una
transformación lineal de un veector de señal 𝐱𝑁 a un vector de coeficientes de la DFT 𝐗 𝑁 .
Note que la matriz DFT es simétrica, es decir 𝐖𝑁 = 𝐖𝑁𝑇 .
𝐱𝑁 = 𝐖𝑁−1 𝐗 𝑁 (7.32)
La solución en (7.32) proporciona una fórmula ineficiente para el cáclculo de la IDFT.
(𝑁−1)𝑘 𝑇
𝐰𝑘 ≜ [1 𝑊𝑁𝑘 ⋯ 𝑊𝑁 ] (7.33)
Usando (7.26):
𝑁−1 𝑁−1
1 (𝑘−𝑚)𝑛 1 2𝜋
(𝑘−𝑚)𝑛 1 𝑘 − 𝑚 = 𝑟𝑁
∑ 𝑊𝑁 = ∑ 𝑒 −𝑗 𝑁 ={ (7.26)
𝑁 𝑁 0 de otra manera
𝑛=0 𝑛=0
se puede mostrar que el producto interno de la 𝑘-ésima y la 𝑚-ésima columna está dado por:
𝑁−1
𝑁 𝑘=𝑚
𝐰𝑘𝐻 𝑤𝑚 = ∑ 𝑊𝑁−𝑘𝑛 𝑊𝑁𝑚𝑛 = { (7.34)
0 𝑘≠𝑚
𝑛=0
Por tanto, las columnas de la matriz DFT son vectores mutuamente ortogonales.
Se puede fácilmente ver que los elementos de la matriz 𝐂 = 𝐖𝑁𝐻 𝐖𝑁 están dados por 𝑐𝑘𝑚 = 𝐰𝑘𝐻 𝐰𝑚 .
Multiplicando ambos lados de (7.35) desde el lado derecho por 𝐖𝑁−1 y recordando que 𝐖𝑁 es
simétrica, se obtiene:
1 𝐻 1 ∗
𝐖𝑁−1 = 𝐖 = 𝐖 (7.36)
𝑁 𝑁 𝑁 𝑁
De esta manera, las filas de la matriz inversa se obtienen conjugando las columnas de la matriz DFT
y luego dividiendo por 𝑁.
La IDFT de la ecuación anterior se puede escribir en términos de las columnas de 𝐖𝑁∗ como sigue:
𝑁−1
1
𝐱𝑁 = ∑ 𝑋[𝑘]𝐰𝑘∗ (7.38)
𝑁
𝑘=0
Esta fórmula proporciona una descomposición del vector de señal 𝐱𝑁 en una base ortogonal
especificada por las columnas de la matriz DFT.
Cálculo de la DFT.- El cálculo de la DFT o su inversa involucra una multiplicación de una matriz por
un vector, la cual requiere operaciones del orden 𝑂(𝑁 2 ) peraciones.
W=exp(-i*(2*pi/N)*(1:N-1)*(1:N-1)’) (7.39)
W=fft(eye(N)) (7.40)
De (7.30):
𝑋[0] 1 1 ⋯ 1 𝑥[0]
𝑋[1] 𝑊 ⋯ 𝑊𝑁𝑁−1 𝑥[1]
[ ] = [1 𝑁
⋱ ⋮ ][ ] (7.30)
⋮ ⋮ ⋮ ⋮
⋯ 𝑊 (𝑁−1)(𝑁−1)
𝑋[𝑁 − 1] 1 𝑊𝑁𝑁−1 𝑁 𝑥[𝑁 − 1]
se ve que si 𝑥[𝑘] = 1 y 𝑥[𝑛] = 0 para todo otro 𝑛, la DFT es igual a la 𝑘-ésima columna de 𝑊𝑁 . Los
vectores de señal de entrada para 𝑘 = 0,1, … , 𝑁 − 1 forman las columnas de la matriz identidad
eye(N). Puesto que la función de Matlab fft calcula la DFT de cada columna, el resultado de (7.40)
es la matriz DFT.
para determinar los coeficientes de la DFT del segmento de 4 puntos 𝑥[0] = 0, 𝑥[1] = 1, 𝑥[2] =
2, 𝑥[3] = 3 de una secuencia 𝑥[𝑛].
La DFT inversa, x=conj(W)*X/N, también puede ser evaluada usando inversión matricial x=inv(W)*X
o resolviendo el sistema lineal x=W\X.
Claramente, no se puede obtener ninguna información acerca de las muestras no usadas de 𝑥[𝑛] a
partir de la inversa de la DFT.
Se pueden asignar valores a las muestras no disponibles sólo si se tiene información adicional:
Si se conoce a priori que 𝑥[𝑛] tiene longitud finita 𝑁, se pueden asignar los valores 𝑥[𝑛] = 0
para 𝑛 < 0 y 𝑛 ≥ 𝑁.
Si 𝑥[𝑛] es periódica con periodo 𝑁, entonces se puede usar extensión periódica 𝑥[𝑛 − 𝑚𝑁] =
𝑥[𝑛] para obtener valores para todo 𝑛.
¿Qué pasa si se permite que los índices 𝑘 y 𝑛 toman valores fuera del rango 0 ≤ 𝑘, 𝑛 ≤ 𝑁 − 1?
2𝜋
El factor 𝑊𝑁𝑘𝑛 = 𝑒 −𝑗 𝑁 𝑘𝑛 es periódico en 𝑘 y periódico en 𝑛 con periodo fundmantal 𝑁, es decir:
(𝑘+𝑁)𝑛
𝑊𝑁 = 𝑊𝑁𝑘𝑛 y 𝑊𝑁𝑘(𝑁+𝑛) = 𝑊𝑁𝑘𝑛 (7.42)
Esta doble periodicidad tiene las siguientes implicaciones fundamentales:
Si 𝑘 toma valores fuera del conjunto {0,1, … , 𝑁 − 1}, los coeficientes de la DFT, 𝑋[𝑘], se
repetirán con periodo fundamental 𝑁.
Esta extensión periódica puede ser llamada la serie de Fourier discreta (DFS) y denotada por
𝑋̃[𝑘] para enfatizar su naturaleza periódica, es decir:
𝑁−1
La significancia e implicaciones de esta periodicidad inherente se debe tomar en cuenta para una
interpretación significativa de los resultados:
Básicamente, todas las señales con las mismas muestras en el rango de 0 ≤ 𝑛 ≤ 𝑁 − 1, pero valores
diferentes en otra parte
A continuación se muestra que el muestreo de la DTFT 𝑋̃(𝑒 𝑗𝜔 ) de una secuencia 𝑥[𝑛] cada 2𝜋⁄𝑇
radianes, para obtener la DFT, causa repetición periódica de 𝑥[𝑛] cada 𝑁 muestras.
1 2𝜋
𝑥[𝑛] = ∫ 𝑋̃(𝑒 𝑗𝜔 ) 𝑒 −𝑗𝜔𝑛 𝑑𝜔 (7.45)
2𝜋 0
Puesto que la DTFT es igual a la transformada z evaluada sobre el círculo unitario, se sigue que el
mismo resultado puede ser obtenido muestreando 𝑋(𝑧) en 𝑁 puntos igualmente espaciados sobre
el círculo unitario.
De esta manera:
2𝜋
𝑋[𝑘] = 𝑋(𝑧)|𝑧=𝑒 𝑗(2𝜋⁄𝑁)𝑘 = 𝑋̃ (𝑒 𝑗 𝑁 𝑘 ) (7.47)
Ahora, ¿Cómo muchas muestras de la secuencia 𝑥[𝑛] se pueden recuperar a partir de las muestras
(7.46) de la DTFT?
Esto es diferente del problema de recuperar una secuencia de 𝑁 puntos a partir de DFT de 𝑁
puntos.
Para abordar esta pregunta, primero recuerde que la secuencia DFS 𝑋̃[𝑘] correspondiente a la
DFT 𝑋[𝑘] es periódica en 𝑘 con periodo 𝑁.
Por tanto, debería existir una secuencia periódica 𝑥̃[𝑛 + 𝑁] = 𝑥̃[𝑛] con coeficientes de Fourier
relacionados con las muestras de la DTFT.
Para encontrar esta relación se divide la sumatoria infinita (7.46) en un número infinito de
sumatorias finitas, cada una de longitud 𝑁, como sigue:
∞ ℓ𝑁+𝑁−1
2𝜋
𝑋[𝑘] = ∑ ∑ 𝑥[𝑛]𝑒 −𝑗 𝑁 𝑘𝑛 ; 0 ≤ 𝑘 ≤ 𝑁 − 1 (7.48)
ℓ=−∞ 𝑛=ℓ𝑁
Luego se cambia el índice de la sumatoria interna de 𝑛 a 𝑛 − ℓ𝑁 y se intercambia el orden de la
sumatoria. El resultado es:
𝑁−1 ∞
2𝜋
𝑋[𝑘] = ∑ ( ∑ 𝑥[𝑛 − ℓ𝑁]) 𝑒 −𝑗 𝑁 𝑘𝑛 ; 0 ≤ 𝑘 ≤ 𝑁 − 1 (7.49)
𝑛=0 ℓ=−∞
Puesto que 𝑥̃[𝑛] es obtendio mediante la repetición periódica de 𝑥[𝑛] cada 𝑁 muestras, es periódica
con periodo fundamental 𝑁.
la cual muestra cómo calcular la secuencia periódica 𝑥̃[𝑛] a partir de las muestras 𝑋[𝑘] de 𝑋̃(𝑒 𝑗𝜔 )
usando la IDFT.
Para recuperar la secuencia original no periódica 𝑥[𝑛] a partir de 𝑥̃[𝑛] se tiene que usar (7.50).
Puesto que 𝑥̃[𝑛] es periódica con periodo 𝑁, se pueden recuperar a lo más 𝑁 muestras de 𝑥[𝑛].
Esto debería esperarse puesto que sólo se usan 𝑁 muestras de la DTFT.
Alternativamente, si se crea un secuencia de longitud finida de 𝑁 puntos a partir de un periodo
de una secuencia periódica, es decir 𝑥𝑁 [𝑛] ≜ 𝑥̃[𝑛]𝑝𝑁 [𝑛], los coeficientes de la serie de Fourier
de 𝑥̃[𝑛] y la transformada de Fourier de 𝑥𝑁 [𝑛] están relacionados por (7.53).
Note que si 𝑥[𝑛] es cero fuera del rango 0 ≤ 𝑛 ≤ 𝐿 − 1 y 𝑁 ≥ 𝐿, las réplicas corridas de 𝑥[𝑛] no se
traslapan.
En este caso, se puede exactamente recuperar 𝑥[𝑛] a partir de su extensión periódica 𝑥̃[𝑛] usando
la fórmula:
Este fenómeno, el cual es conocido como aliasing en el dominio del tiempo, es la contraparte del
aliasing en el dominio de la frecuencia.
El aliasing en el dominio del tiempo puede ser evitado sólo si 𝑥[𝑛] es de tiempo limitado a 0 ≤
𝑛 ≤ 𝐿 − 1 y el periodo de muestreo en el dominio de la frecuencia ∆𝜔 = 2𝜋⁄𝑁 satisface la
condición 𝑁 ≥ 𝐿.
̃ (𝒆𝒋𝝎 )
7.3.3 Reconstrucción del la DTFT 𝑿
Si no existe aliasing en el dominio del tiempo entonces 𝑥[𝑛] es una secuencia de 𝑁 puntos y por
tanto se puede determinar 𝑋̃(𝑒 𝑗𝜔 ) a partir de la secuencia 𝑥[𝑛] dada por:
∞
como
𝑁−1
El resultado es:
𝑁−1
1 2𝜋 2𝜋
𝑥[𝑛] = [ ∑ 𝑋̃ (𝑒 𝑗 𝑁 𝑘 ) 𝑒 𝑗 𝑁 𝑘𝑛 ] 𝑝𝑁 [𝑛] (7.61)
𝑁
𝑘=0
se obtiene:
𝑁−1
1 2𝜋 2𝜋
𝑗(𝜔− )𝑘
𝑋[𝑒 𝑗𝜔
] = ∑ 𝑋̃ (𝑒 𝑗 𝑁 𝑘 ) 𝑃̃𝑁 [𝑒 𝑁 ] (7.62)
𝑁
𝑘=0
2𝜋
la fórmula de interpolación (7.62) da exactamente los valores muestra originales 𝑋̃ (𝑒 𝑗 𝑁 𝑘 ) ; 𝜔 =
(2𝜋⁄𝑛)𝑘.
Como se nota de (7.54), se puede usar la IDFT de 𝑁 puntos para obtener la secuencia 𝑥[𝑛]; 0 ≤ 𝑛 ≤
𝑁 − 1.
es decir, la DFT de 𝐾 puntos 𝑋𝑧𝑝 [𝑘] de la secuencia de relleno de ceros proporciona valores de la
DTFT en una resolución más fina de frecuencias equi-espaciadas.
Ejemplo 7.4 Relleno de ceros de un pulso rectangular.- Para ilustrar el concepto de relleno de ceros,
considere la secuencia de pulso rectangular de duración finita:
1 0≤𝑛≤𝑁−1
𝑥[𝑛] = 𝑢[𝑛] − 𝑢[𝑛 − 𝑁] = { (7.67)
0 de otra manera
con 𝑁 = 4. La siguiente figura muestra la secuencia 𝑥[𝑛] y la magnitud de su DTFT:
Esta mejor imagen se obtiene rellenando la secuencia de 𝑁 puntos 𝑥[𝑛] por 𝐾 − 𝑁 ceros y
calculando la DFT de 𝐾 puntos.
Para explicar esta mejora en la apariencia visual con el incremento de 𝐾, note que la composición
espectral de 𝑥[𝑛] está proporcionada por su DTFT, la cual está dada por:
𝑁−1
1 − 𝑒 −𝑗𝜔𝑁 sin(𝜋𝑁𝑘⁄𝐾 ) −𝑗𝜋(𝑁−1)𝑘⁄𝐾
𝑋̃(𝑒 𝑗𝜔 ) = ∑ 𝑒 −𝑗𝜔𝑛 = = 𝑒 (7.69)
1 − 𝑒 −𝑗𝜔 sin(𝜋𝑘⁄𝐾 )
𝑛=0
La siguiente figura muestra la magnitud y la fase de 𝑋̃(𝑒 𝑗𝜔 ) cuando 𝑁 = 8 y las muestras son
evaluadas mediante la DFT de 𝐾 puntos con relleno de ceros para 𝐾 = 8 y 𝐾 = 64:
Claramente, el relleno de ceros ayuda a dar forma a la DTFT de manera más evidente evaluando las
muestras en una resolución de frecuencias más densa.
Reconstrucción de 𝑿(𝒛).- Se observó que cuando 𝑥[𝑛] es cero fuera del rango 0 ≤ 𝑛 ≤ 𝐿 − 1 y 𝐿 ≤
𝑁, se pueden recuperar los valores de 𝑥[0], 𝑥[1], … , 𝑥[𝑁 − 1] a partir de las muestras
2𝜋
𝑋̃ (𝑒 𝑗 𝑁 𝑘 ) ; 0 ≤ 𝑘 ≤ 𝑁 − 1 de su DTFT. Consecuentemente, se puede únicamente determinar la
transformada z de 𝑥[𝑛] usando:
𝑁−1
Para 𝑧 = 𝑒 𝑗𝜔 , la fórmula (7.72) toma una forma conocida como interpolación polinomial de
Lagrange.
Esta forma puede ser reducida a (7.62) mediante manipulaciones algebraicas simples.
Esto resulta en una señal de tiempo discreto 𝑥[𝑛] = 𝑥𝑐 (𝑛𝑇) con DTFT especificada por:
∞ ∞
1 2𝜋
𝑋̃(𝑒 𝑗ΩT
) = ∑ 𝑥𝑐 (𝑛𝑇)𝑒 −𝑗Ω𝑇𝑛 = ∑ 𝑋𝑐 (𝑗Ω − j 𝑚) (7.73)
𝑇 𝑇
𝑛=−∞ 𝑚=−∞
Puesto que 𝜔 = Ω𝑇, la DFT de 𝑁 puntos 𝑋[𝑘] se obtiene muestreando la DTFT 𝑋̃(𝑒 𝑗ω ) en 𝜔 =
2𝜋𝑘⁄𝑁 o 𝑋̃(𝑒 𝑗ΩT ) en Ω = 2𝜋𝑘⁄𝑁𝑇 ; 0 ≤ 𝑘 ≤ 𝑁 − 1.
El resultado es:
∞
1 2𝜋𝑘 2𝜋
𝑋[𝑘] = ∑ 𝑋𝑐 (𝑗 −𝑗 𝑚) ; 𝑘 = 0,1, … , 𝑁 − 1 (7.74)
𝑇 𝑁𝑇 𝑇
𝑚=−∞
donde 0 ≤ 𝑛 ≤ 𝑁 − 1 y 0 ≤ 𝑘 ≤ 𝑁 − 1.
Como resultado se espera que la DFT tenga propiedades que reflejen las propiedades de estas otras
transformadas.
Sin embargo, existen también slgunas diferencias importantes debido a la periodicidad inherente
de la DFT.
7.4.1 Linealidad
Sean 𝑥1 [𝑛] y 𝑥2 [𝑛] secuencias de duración finita que tienen longitudes 𝑁1 y 𝑁2 , respectivamente.
La combinación lineal:
La DFT de 𝑁 puntos de 𝑦[𝑛], donde la longitud satisface la condición 𝑁 ≥ 𝑁𝑦 , está dada por:
𝑁1 −1 𝑁2 −1
La primera sumatoria en (7.78) es la DFt de 𝑥1 [𝑛] rellenada por 𝑁 − 𝑁1 ceros y la segunda sumatoria
es la DFt de 𝑥2 [𝑛] rellenada por 𝑁 − 𝑁2 ceros.
El viaje alrededor del círculo una vez, empezando en 𝑛 = 0, produce la secuencia de 𝑁 puntos
𝑥[𝑛].
Si se mantiene repetidamente vueltas alrededor del círculo se obtiene la extensión periódica
𝑥̃[𝑛] de 𝑥[𝑛].
Geométricamente, la secuencia de duración finita 𝑥[𝑛] es recuperada desenvolviendo el cilindro
y volviéndolo plano tal que el eje de tiempo circular sea mapeado sobre el eje de tiempo lineal.
La relación entre el índice de tiempo lineal y el índice de tiempo circular, conocido como operación
módulo-𝑁, está definida por:
Note que todas estas propiedades e interpretaciones también se tienen para la secuencia DFT de 𝑁
puntos, 𝑋[𝑘].
m=mod(n,M) (7.83)
Buffer circular.- Esta ideas conduce al concepto de buffer circular, donde los datos son almacenados
en el sentido contrario a las maneceillas del reloj de una manera circular como se muestra en la
siguiente figura:
Nota importante.- En resumen, se enfatiza que la periodicidad inherente impuesta por la DFT de 𝑁
puntos 𝑋[𝑘] de una secuencia de longitud finita de 𝑁 puntos 𝑥[𝑛] puede ser tratada usando
operaciones de extensión periódica o bien operaciones de mapeo circular.
Reversa circular.- La operación 𝑧[𝑛] = 𝑥[−𝑛] de reversa de tiempo no está definida cuando 𝑥[𝑛]
no está disponible fuera del rango 0 ≤ 𝑛 ≤ 𝑁 − 1.
Sin embargo, basada en la periodicidad inherente de la DFT, se puede definir esta operación en
forma matemáticamente consistente usando la extensión periódica 𝑥̃[𝑛].
Este proceso involucra los siguientes pasos:
Note que, como se esperaba, esta definición mantiene la secuencia en tiempo reverso en el
rango 0 ≤ 𝑛 ≤ 𝑁 − 1.
La muestra 𝑥[0] permanece en su posición y las restantes muestras son arregladas en orden
reverso, es decir, se tiene 𝑥[0]. 𝑥[𝑁 − 1]. … , 𝑥[2], 𝑥[1].
Una función de Matlab, circfold, para implementar la operación reversa circular de la anterior
ecuación está dada por:
La propiedad de reversa de tiempo de la DFT es:
𝐷𝐹𝑇
𝑥[〈−𝑛〉𝑁 ] ↔ 𝑋[〈−𝑘〉𝑁 ] (7.85)
𝑁
la cual también resulta en una reversa circular de 𝑋[𝑘] (reversa de frecuencia) y es análogamente
definida, es decir:
𝑋[0] 𝑘=0
𝑋[〈−𝑘〉𝑁 ] ≜ { (7.86)
𝑋[𝑁 − 𝑘] 1 ≤ 𝑘 ≤ 𝑁 − 1
Simetría circular.- En general, una secuencia tiene simetría par si la reversa de tiempo resulta en
una secuencia idéntica; si la reversa de tiempo cambia los signos de las muestras, la secuencia tiene
simetría impar.
De esta manera, la diferencia entre reversa de tiempo lineal o circular tiene implicaciones sobre
la definición de simetría para secuencias de longitud finita.
Para secuencias definidas para todo 𝑛, la simetría está determinada alrededor del punto 𝑛 = 0.
En el contexto circular, la simetría está determinada con respecto al diámetro del círculo que pasa
a través del punto 𝑛 = 0.
De esta manera, para una secuencia real de longitud finita 𝑥[𝑛], la simetría circular está definida
por las condiciones:
Para desarrollar estas propiedades inicie con el caso más general de una secuencia compleja de 𝑁
puntos 𝑥[𝑛] con su DFT compleja 𝑋[𝑘].
Los números complejos 𝑥[𝑛] y 𝑋[𝑘] pueden ser expresados en forma rectangualr como:
se obtiene:
𝑁−1
2𝜋 2𝜋
𝑋𝑅 [𝑘] = ∑ [𝑥𝑅 [𝑛] cos ( 𝑘𝑛) + 𝑥𝐼 [𝑛] sin ( 𝑘𝑛)] ; 0 ≤ 𝑘 ≤ 𝑁 (7.93)
𝑁 𝑁
𝑛=0
𝑁−1
2𝜋 2𝜋
𝑋𝐼 [𝑘] = ∑ [𝑥𝑅 [𝑛] sin ( 𝑘𝑛) − 𝑥𝐼 [𝑛] cos ( 𝑘𝑛)] ; 0 ≤ 𝑘 ≤ 𝑁 (7.94)
𝑁 𝑁
𝑛=0
se obtiene:
𝑁−1
1 2𝜋 2𝜋
𝑥𝑅 [𝑛] = ∑ [𝑋𝑅 [𝑘] cos ( 𝑘𝑛) − 𝑋𝐼 [𝑘] sin ( 𝑘𝑛)] ; 0 ≤ 𝑛 ≤ 𝑁 (7.95)
𝑁 𝑁 𝑁
𝑛=0
𝑁−1
1 2𝜋 2𝜋
𝑥𝐼 [𝑛] = ∑ [𝑋𝑅 [𝑘] sin ( 𝑘𝑛) + 𝑋𝐼 [𝑘] cos ( 𝑘𝑛)] ; 0 ≤ 𝑛 ≤ 𝑁 (7.96)
𝑁 𝑁 𝑁
𝑛=0
𝑋̃ ∗ [𝑘] = 𝑋̃𝑅 [𝑘] − 𝑗𝑋̃𝐼 [𝑘] = 𝑋̃𝑅 [−𝑘] + 𝑗𝑋̃𝐼 [−𝑘] = 𝑋̃[−𝑘] (7.99)
para todo 𝑘.
La siguiente figura muesta una secuencia de 𝑁 puntos y su DFT para 𝑁 = 8 (par) y 𝑁 = 7 (impar):
lo que muestra que la DFT de una secuencia real y circularmente par es también real y circularmente
par.
la cual muestra que la DFT de una secuencia real y circularmente impar es imaginaria y circularmente
impar.
Secuencias imaginarias con simetrías circulares.- Si 𝑥[𝑛] es puramente imaginaria, es decir: 𝑥[𝑛] =
𝑗𝑥𝐼 [𝑛], entonces (7.93) y (7.94) producen:
𝑁−1 𝑁−1
2𝜋 2𝜋
𝑋𝑅 [𝑘] = ∑ 𝑥𝐼 [𝑛] sin ( 𝑘𝑛) 𝑦 𝑋𝐼 [𝑘] = − ∑ 𝑥𝐼 [𝑛] cos ( 𝑘𝑛) (7.110)
𝑁 𝑁
𝑛=0 𝑛=0
Más aún, si 𝑥𝐼 [𝑛] es circularmente impar, entonces 𝑋𝐼 [𝑘] = 0 y por tanto 𝑋[𝑘] es puramente
real.
Por otro lado, si 𝑥𝐼 [𝑛] es circularmente par, entonces 𝑋𝑅 [𝑘] = 0 y por tanto 𝑋[𝑘] es puramente
imaginario.
Secuencias complejas.- Usando (7.91) y (7.103) se puede mostrar que cualquier secuencia compleja
puede ser descompuesta como sigue:
𝑥[𝑛] = 𝑥𝑅𝑐𝑒 [𝑛] + 𝑥𝑅𝑐𝑜 [𝑛] + 𝑗𝑥𝐼𝑐𝑒 [𝑛] + 𝑥𝐼𝑐𝑜 [𝑛] (7.111)
Una descomposición similar se tiene para los coeficientes de la DFT:
𝑋[𝑘] = 𝑋𝑅𝑐𝑒 [𝑘] + 𝑋𝑅𝑐𝑜 [𝑘] + 𝑗𝑋𝐼𝑐𝑒 [𝑘] + 𝑗𝑋𝐼𝑐𝑒 [𝑘] (7.112)
Similarmente a (7.103)-(7.105), cualquier secuencia 𝑥[𝑛] puede ser descompuesta a una suma de
un componente circularmente conugado par y un componente circularmente conjugado impar
como:
donde
𝑥[𝑛] + 𝑥 ∗ [〈−𝑛〉𝑁 ]
𝑥 𝑐𝑐𝑒 [𝑛] ≜ = (7.114𝑎)
2
𝑥𝑅 [0] 𝑛=0
= {1 (7.114𝑏)
(𝑥[𝑛] + 𝑥 ∗ [𝑁 − 𝑛]) 1 ≤ 𝑛 ≤ 𝑁 − 1
2
𝑥[𝑛] − 𝑥 ∗ [〈−𝑛〉𝑁 ]
𝑥 𝑐𝑐𝑜 [𝑛] ≜ (7.115𝑎)
2
𝑗𝑥𝐼 [0] 𝑛=0
= {1 (7.115𝑏)
(𝑥[𝑛] − 𝑥 ∗ [𝑁 − 𝑛]) 1 ≤ 𝑛 ≤ 𝑁 − 1
2
Note que 𝑥 𝑐𝑐𝑒 [𝑛] = 𝑥𝑅𝑐𝑒 [𝑛] + 𝑗𝑥𝐼𝑐𝑒 [𝑛] y 𝑥 𝑐𝑐𝑜 [𝑛] = 𝑥𝑅𝑐𝑜 [𝑛] + 𝑗𝑥𝐼𝑐𝑜 [𝑛].
Sean 𝑥1 [𝑛] y 𝑥2 [𝑛] dos secuencias reales de 𝑁 puntos con DFTs 𝑋1 [𝑘] y 𝑋2 [𝑘], respectivamente.
con DFT 𝑋[𝑘], entonces, usando la Tabla 7.3, se puede mostrar que:
De esta manera, usando un cálculo de la DFT seguida de una descomposición de simetría conjugada,
da las dos DFTs requeridas.
Sin embargo, debido a que 𝑥[𝑛] no está disponible fuera del intervalo 0 ≤ 𝑛 ≤ 𝑁 − 1, no se puede
obtener 𝑧[𝑛] mediante un simple corrimiento de tiempo de 𝑥[𝑛].
Esta propiedad implica que se puede reemplazar el índice 𝑛 − 𝑚 en (7.119) mediante el índice
módulo-𝑁 〈𝑛 − 𝑚〉𝑁 .
Para responder esta pregunta inicie evaluando el producto de las DFTs de 𝑁 puntos 𝐻[𝑘] y 𝑋[𝑘].
Usando
𝑁−1
2𝜋
𝑋[𝑘] ≜ ∑ 𝑥[𝑛]𝑒 −𝑗 𝑁 𝑘𝑛 (7.21)
𝑛=0
𝑁−1
1 2𝜋
𝑥[𝑛] = ∑ 𝑋[𝑘]𝑒 𝑗 𝑁 𝑘𝑛 (7.22)
𝑇
𝑘=0
2𝜋
𝑊𝑁 ≜ 𝑒 −𝑗 𝑁 (7.24)
se obtiene:
𝑁−1 𝑁−1 𝑁−1 𝑁−1
1 1
𝑦[𝑛] = ∑ 𝐻[𝑘]𝑋[𝑘]𝑊𝑁−𝑘𝑛 = ∑ [ ∑ ℎ[𝑚]𝑊𝑁𝑘𝑛 ] [∑ 𝑥[𝑙]𝑊𝑁𝑘𝑙 ] 𝑊𝑁−𝑘𝑛
𝑁 𝑁
𝑘=0 𝑘=0 𝑚=0 𝑙=0
𝑁−1 𝑁−1 𝑁−1
1 𝑘(𝑚+𝑙−𝑛)
= ∑ ℎ[𝑚] ∑ 𝑥[𝑙] [ ∑ 𝑊𝑁 ] (7.124)
𝑁
𝑚=0 𝑙=0 𝑘=0
La última relación fue obtenida rearreglando el orden de las tres sumatorias finitas.
Sin embargo, la presencia de la operación módulo 〈𝑛 − 𝑚〉𝑁 implica que las operaciones de reversa
de tiempo y corrimiento de tiempo requeridas para obtener 𝑥[〈𝑛 − 𝑚〉𝑁 ] se efectúan de manera
circular.
Por esta razón la operación descrita por (7.127) es conocida como convolución circular.
Un función de Matlab llamada circonv que usa las funciones cirfold y dirshift0 se da a continuación:
Las operaciones de reversa circular, y corriiento circular se ilustraron en las siguientes figuras:
El corrimiento circular es también ilustrado en la siguiente figura usando el concepto de un buffer
circular:
Las 𝑁 muestras de la señal se almacenan en forma circular como se ilustra en la figura (a) para
𝑁 = 8.
Para obtener 𝑥[〈𝑛 − 2〉𝑁 ] se puede físicamente correr las muestras en el sentido contrario a las
manecillas del reloj dos localizaciones como se muestra en la figura (b).
Sin embargo, como se muestra en la figura (c), los buffers circulares pueden evitar esta
operación que consume tiempo ajustando el apuntador de la dirección de inicio sin físicamente
correr ninguna muestra de datos en la memoria.
Ejemplo 7.5 Cálculo de la convolución circular en el dominio del tiempo.- Determine la convolución
circular de 4 puntos de las siguientes secuencias de 4 puntos
Note que la primera fila de la matriz es obtenida mediante reversa circular de la secuencia 𝑥[𝑛].
Para obtener la segunda fila, se corre la primera fila un elemento a la derecha.
El última elemento 𝑥[1], ek cual sale de la fila de la matriz, entra a la fila desde la izquierda; esto
es esencialmente el significado de corrimiento circular.
La tercera y cuarta columna son generadas de manera similar. Una matriz generada mediante
este proceso se llama matriz circulante.
Note que cada matriz circulante es Toeplitz, es decir, todos los elementos sobre las diagnoales
paralelas a la dignonal principalson iguales; sin embargo, una matriz Toeplitz no es
necesariamente circulante.
Es facil ver que la matriz circulante en (7.134) puede también ser generada mediante
corriemiento circular de su primera columna ( es decir, la secuencia 𝑥[𝑛]).
Finalmente es fácil mostrar que (7.130) a (7.133) pueden ser expresadas en forma matricial
usando ℎ[𝑛] para formar la matriz circulante y 𝑥[𝑛] el vector del lado derecho.
En Matlab la forma matricial (7.134) de la convolución circular puede ser implementada usando la
función toepliz como sigue:
y=toeplitz(x,circfold(x,N))*h (7.135)
Se puede usar esta función para verificar el resultado dado por (7.130) a (7.133).
Ejemplo 7.6 Cálculo de la convolución circular usando la DFT.- Determine la convolución circular
de 4 puntos de las secuencias de 4 puntos del ejemplo anterior usando la DFT.
Esto se hace usando las fórmulas del ejemplo 7.2. La DFT de 4 puntos de 𝑥[𝑛] se obtiene mediante:
𝑋[0] 1 1 1 1 0 6
𝑋[1] −𝑗 𝑗 −2 + 𝑗2
[ ] = [1 −1 ] [1] = [ ]
𝑋[2] 1 −1 1 −1 2 −2
𝑋[3] 1 𝑗 −1 −𝑗 3 −2 − 𝑗2
En el segundo paso se calcula el producto 𝑌[𝑘] = 𝐻[𝑘]𝑋[𝑘]; 𝑘 = 0,1,2,3 de las dos DFTs. El
resultado es la DFT de 4 puntos:
𝑌[0] = 18, 𝑌[1] = −2 − 𝑗2, 𝑌[2] = −2, 𝑌[3] = −2 + 𝑗2
𝑦[0] 1 1 1 1 18 3
𝑦[1] 1 1 −𝑗 −1 𝑗 −2 − 𝑗2
= [ ][ ] = [6]
𝑦[2] 4 1 −1 1 −1 −2 5
[𝑦[3]] 1 𝑗 −1 −𝑗 −2 + 𝑗2 4
y=ifft(fft(h).*fft(x)) (7.136)
Aunque la convolución circular es la operación natural cuando se trabaja con DFTs, la operación
requerida por las aplicaciones de procesamiento de señales es la convolución lineal.
Una cuestión lógica es, ¿se puede usar convoución circular para obtener convolución lineal?
Similarmente, la DFT inversa de la secuencia estrechada 𝑋 (𝐿) [𝑘] es igual a 𝐿 periodos consecutivos
de 𝑥̃[𝑛].
Es decir se tiene:
𝐷𝐹𝑇
𝑥 (𝐿) [𝑛] ↔ 𝑋̃[𝑘] = 𝑋[〈𝑘〉𝑁 ] (7.140)
𝑁𝐿
1 1 𝐷𝐹𝑇
𝑥[〈𝑛〉𝑁 ] = 𝑥̃[𝑛] ↔ 𝑋 (𝐿) [𝑘] (7.141)
𝐿 𝐿 𝑁𝐿
Similarmente, la DFT inversa de 𝑋(𝑀) [𝑘] se obtiene traslapando y sumando la secuencia 𝑥[𝑛] como
sigue:
𝑀−1
1 𝑁 𝐷𝐹𝑇
∑ 𝑥 [𝑛 + 𝑚 ] ↔ 𝑋(𝑀) [𝑘] (7.144)
𝑀 𝑀 𝑁⁄𝑀
𝑚=0
Las operaciones de traslape y sumatoria en (7.143) y (7.144) puede resultar en aliasing en el dominio
de la frecuencia o aliasing en el dominio del tiempo, respectivamente.
Estas propiedades son útiles para el entendimiento e interpretación de algoritmos rápidos usados
para el cálculo de la DFT.
El hecho de que las fórmulas de la DFT y de la DFT inversa diferan sólo en un factor de 1⁄𝑁 y en el
signo del exponente de 𝑊𝑁 , resulta en una fuerte dualidad entre las dos transformaciones.
Para establecer esta dualidad, primero se reemplaza 𝑛 por −𝑛 en la fórmula de la DFT inversa para
obtener:
𝑁−1
Para asegurar que 𝑥[−𝑘] esté especificada en el rango 0 ≤ 𝑘 ≤ 𝑁 − 1, se usa el operado módulo
N.
Por ejemplo, se puede mostrar que la DFT del producto de dos secuencias de 𝑁 puntos es la
convolución circular de sus DFTs, es decir:
𝐷𝐹𝑇 1
𝑣[𝑛]𝑥[𝑛] ↔ 𝑉[𝑘] ⊛𝑁 𝑋[𝑘] (7.148)
𝑁 𝑁
Este método es computacionalmente más eficiente para filtros FIR con respuestas al impulso largas
si se usan algoritmos rápidos para el cálculo de la DFT:
Las DFTs inversas de 𝐻[𝑘] = 𝐻(2𝑗2𝜋𝑘⁄𝑁 ) y 𝑋[𝑘] = 𝑋(2𝑗2𝜋𝑘⁄𝑁 ) producen las secuencias ℎ[𝑛] y 𝑥[𝑛]
rellenadas con 𝑁 − 𝑀 y 𝑁 − 𝐿 ceros, respectivamente.
Si 𝑁 < 𝐿 + 𝑀 − 1, debido al aliasing en el dominio del tiempo, 𝑦𝑧𝑝 [𝑛] puede no ser igual a 𝑦[𝑛]
para algunos o todos los valores de 𝑛.
El cálculo de la convolución lineal de dos secuencias de longitud finita usando la DFT se ilustra en la
siguiente figura:
Para apreciar este resultado, recuerde que la DFT inversa de 𝑌[𝑘] no produce 𝑦[𝑛] pero es una
réplica periódica 𝑦̃[𝑛]:
∞
𝐷𝐹𝑇
𝑦̃[𝑛] = ∑ 𝑦[𝑛 − 𝑙𝑁] ↔ 𝑌[𝑘] = 𝐻[𝑘]𝑋[𝑘] (7.153)
𝑁
𝑙=−∞
Una función de Matlab llamada circonvtfft que calcula la convolución lineal usando el método de la
DFT en (7.153) está dada por:
La longitud 𝑀 de la respuesta al impulso en la cual el método basado en DFT es más eficiente que
el cálculo directo de la convolución depende del hardware y software disponible para implementar
los cálculos.
Una interpretación del método matricial.- La convolución lineal se puede expresar en forma
matricial como una multiplicación de una matriz por un vector. Para 𝑀 = 3 y 𝐿 = 5, la suma de
convulación (7.149) puede ser escrita como:
Note que la primera columan de la matriz Toeplitz en (7.154) es la secuencia de 𝐿 puntos 𝑥[𝑛]
rellenada con 𝑀 − 1 ceros.
La segunda columna es obtenida mediante corrimiento circular de la primera solumna hacia
abajo; el elemento que abandona el fondo entra al tope.
Si se repite este proceso 𝐿 − 1 veces y se adjunta la secuencia de 𝑀 puntos ℎ[𝑛] con 𝐿 − 1 ceros,
se obtiene la siguiente ecuación matricial:
Para superar estos problemas se puede segmentar la secuencia de entrada en bloques de longitud
𝑄 y usar uno de los métodos de convolución de bloque descritos a continuación.
Método de traslape-añadir.- La salida de un filtro FIR con respuesta al impulso ℎ[𝑛] de longitud
𝑀 = 3 a una secuencia de entrada 𝑥[𝑛] con longitud 𝐿 = 8 está dada por:
Suponga ahora que se segmenta la secuencia de entrada 𝑥[𝑛] en dos bloques (negro y azul) de
longitud 𝑄 = 4.
La multiplicación de la matriz grande por el vector en (7.156) puede ser dividida en dos más
pequeñas: la parte negra proporciona las muestras de la salida 𝑦[0], … , 𝑦[5] y la parte azul las
muestras 𝑦[4], … , 𝑦[9].
Para calcular las muestras 𝑦[4] y 𝑦[5], se necesita añadir las contribuciones tanto del bloque
negro como del bloque azul.
Este traslape de bloques de salida sucesivos 𝑀 − 1 muestras, conduce al nombre de traslape y
adición para este método de convolución de bloques.
Cada convolución de bloque puede ser implementada usando el método de la DFT en la siguiente
función:
Método de traslape-guardar.- En elmétodo traslape-anadir, se necesatia la salida del siguiente
bloque para completar el cálculo del bloque actual.
Para evitar esta dificultad, se permite que segmentos sucesivos de la entrada se traslapen 𝑀 −
1 muestras.
Para explicar este método se calcula la convolución en (7.149) usando los bloques de entrada
de longitud 𝑄 = 5 que se traslapen 𝑀 − 1 = 2 muestras.
Para entender la idea básica, note que la multiplicación de la matriz negra por vector proporciona
los valores correctos de la salida para 𝑦[0], … , 𝑦[4].
La multiplicación de la matriz azul por el vector proporciona valores erróneos para 𝑦[3] y 𝑦[4]
y los valores correctos de 𝑦[5], … , 𝑦[7].
Sin embargo, no existe problema con eso ya que 𝑦[3] y 𝑦[4] han sido calculados correctamente
en el bloque anterior.
La matriz de respuesta al impulso de 𝑄 × 𝑄 usada en las convoluciones de los bloques puede
ser fácilmente modificada para volverse circulante.
En efecto, si se cambian los últimos ceros en las primeras 𝑀 − 1 = 2 filas de esta matriz, se obtiene
la siguiente convolución circular:
Este método que es conocido como método traslape-guardar, es implementado usando la función
de Matlab:
El método es llamdo tralape-guardar debido a que los segmentos de entrada se traslapan tal que
cada convolución circular de bloque de 𝑄 × 𝑄 calcula 𝑄 − 𝑀 + 1 nuevas muestras de salida y usa
𝑀 − 1 muestras de salida del bloque previo.
De esta manera, la DFT, a través de su implementación eficiente del algoritmo FFT, proporciona la
herramienta computacional fundamental para el análisis práctico.
Asuma que el muestreo ha sido hecho satisfactoriamente y que los efectos de aliasing son
despreciables y concéntrese específicamente en los efectos de la selección de un segmento de
longitud finita de la señal muestreada, debido al mayor impacto sobre la precisión del espectro
estimado.
El término ventaneo es usado para enfatizar el hecho de que sólo se puede ver una parte finita de
la señal a través de una ventana.
Por tanto, la DFT proporciona muestras de la DTFT de las señal ventaneada 𝑥̂[𝑛] = 𝑤[𝑛]𝑥[𝑛], no de
la señal original 𝑥[𝑛].
Para entender cómo la operación de ventaneo de tiempo cambia el espectro de la señal original se
intercambia el orden del muestreo y las operaciones de ventaneo como se muestra en la siguiente
figura:
Claramente, la ventana 𝑤𝑐 (𝑡) debería ser diferente de cero en el intervalo 0 ≤ 𝑡 ≤ 𝑇0 , donde
(𝐿 − 1)𝑇 < 𝑇0 < 𝐿𝑇.
Los dos sistema son equivalentes en la medida en que la ventaja de tiempo continuo satisface
la condición 𝑤[𝑛] = 𝑤𝑐 (𝑛𝑇).
La operación de ventaneo de tiempo continuo (7.161) puede ser usada para entender los
efectos de un intervalo de observación finito, en términos del tiempo físico y variables de
frecuencia, sin interferencia del tiempo subsecuente y de las operaciones de muestreo de
frecuencia.
Más aún, se evitan las complicaciones del tratamiento con espectros periódicos.
Se introducirán los efectos espectrales del ventaneo progresivamente a partir de modelos
simples a más complicados.
Se empieza con una señal sinusoidal de una sola frecuencia y se obtine su espectro ventaneado
para estudiar el efecto del ventaneo.
Luego se modela una señal pasa banda como una suma de sinusoides aisladas con frecuencias
estrechamente separadas y se estudia su espectro ventaneado.
En el límite este modelo luego conduce al espectro de una señal no periódica ventaneada como
una convolución entre el espectro de señal dado y el espectro de la ventana.
Se pueden ilustrar los efectos del ventaneo de tiempo usando la señal sinusoidal:
El espectro de esta señal, como se puede ver de la siguiente expansión, consiste de dos líneas
1
espectrales con amplitudes complejas 2 𝐴1 𝑒 ±𝑗𝜙1 en frecuencias Ω = Ω1 y Ω = −Ω1 :
1 1
𝑥𝑐 (𝑡) = 𝐴1 𝑒 −𝑗𝜙1 𝑒 −𝑗Ω1 𝑡 + 𝐴1 𝑒 𝑗𝜙1 𝑒 𝑗Ω1 𝑡 (7.164)
2 2
La señal ventaneada en tiempo 𝑥̂𝑐 (𝑡) está dada por:
1 1
𝑥̂𝑐 (𝑡) = 𝑤𝑐 (𝑡)𝑥𝑐 (𝑡) = 𝐴1 𝑒 −𝑗𝜙1 𝑤𝑐 (𝑡)𝑒 −𝑗Ω1 𝑡 + 𝐴1 𝑒 𝑗𝜙1 𝑤𝑐 (𝑡)𝑒 𝑗Ω1 𝑡 (7.165)
2 2
Tomando la CTFT de (7.165) u usando la propiedad de corrimiento de frecuencia, se tiene:
1 1
𝑋̂𝑐 (𝑗Ω) = 𝐴1 𝑒 −𝑗𝜙1 𝑊𝑐 (𝑗(Ω + Ω1 )) + 𝐴1 𝑒 𝑗𝜙1 𝑊𝑐 (𝑗(Ω − Ω1 )) (7.166)
2 2
donde 𝑊𝑐 (𝑗Ω) es la CTFT dela ventana.
Como se puede ver de (7.166), el efecto del ventaneo de tiempo es reemplazar cada línea del
espectro discreto con una copia escalada de 𝑊𝑐 (𝑗Ω) centrada en la frecuencia de la línea.
La ventana rectangular:
1 0 ≤ 𝑡 ≤ 𝑇0
𝑤𝑐 (𝑡) ≜ 𝑤𝑅 (𝑡) = { (7.167)
0 de otra manera
tiene una CTFT dada por:
sin(Ω𝑇0 ⁄2) −𝑗Ω𝑇 ⁄2
𝑊𝑐 (𝑗Ω) ≜ 𝑊𝑅 (𝑗Ω) = 𝑒 0 (7.168)
Ω⁄2
Esta definición de la ventana rectangular es útil para señales causales que empiezan en t = 0 y
es compatible con el rango DFT que empieza en n = 0.
Sin embargo, se puede usar cualquier verisión corrida de wc (t); la única diferencia es el
corrimiento de fase lineal en Wc (jΩ).
Para simplificar las ilustraciones pictóricas se corre la ventana rectangular en el intervalo
− T0 ⁄2 ≤ t ≤ T0 ⁄2.
El resultado es una ventana simétrica con transformada de Fourier WR (jΩ) =
sin(ΩT0 ⁄2)⁄(Ω⁄2).
Los efectos del ventaneo de tiempo sobre el espectro de una señal sinusoidal se ilustran en la
siguiente figura:
El espectro de la señal sinusoidal de duración infinita consiste de dos líneas en las frecuencias
Ω = ±Ω1 ; por tanto, como se muestra en (a), su potencia está perfectamente localizada a sólo
dos puntos del eje de la frecuencia.
En (b) se muestra una ventana rectangular simétrica y su transformada de Fourier.
La forma de 𝑊𝑅 (𝑗Ω) es típica para la mayoría de las ventanas de interés práctico.
Existe un gran pico, o lóbullo principal en el origen junto con una serie de picos subsidiarios es
espúreos de magnitud decreciente o lóbulos laterales a ambos lados del origen.
El lóbulo principal tiene cruces por cero en múltiples de 2𝜋⁄𝑇0 rad/seg y un ancho de banda
aproximado de 3 dB de 2𝜋⁄𝑇0 rad/seg.
Cada línea del espectro original es reemplazada por una copia de 𝑊𝑅 (𝑗Ω) escalada por la
amplitud de la correspondiente exponencial compleja, como se muestra en (c).
La suma de copias escaladas y corridas de la transformada de Fourier de la señal sinusoidal
ventaneada, 𝑋̂𝑐 (𝑗Ω), la cual se muestra en (d). Note que la adición de los lóbulos laterales en
fase (fuera de fase) pueden incrementar (reducir) las alturas de los picos.
Por esta razón, el pulso izquierdo (derecho) en (d) no es simétrico alrededor de Ω = −Ω1 (Ω =
Ω1 ).
Comparando los espectros de 𝑥𝑐 (𝑡) y 𝑥̂𝑐 (𝑡) = 𝑤𝑐 (𝑡)𝑥𝑐 (𝑡) se revelan los efectos del ventaneo
rectangular (truncación).
Primero, note que las líneas espectrales de 𝑋𝑐 (𝑗Ω), las cuales tienen ancho cero, se han
esparcido en 𝑋̂𝑐 (𝑗Ω). La cantidad de lo esparcido está determinada por el ancho del lóbulo
principal del espectro de la ventana. Este efecto es conocido como esparcimiento espectral.
Segundo, se ve que aunque el espectro de 𝑥𝑐 (𝑡) es cero en todo lado excepto en Ω = ±Ω1 , el
espectro de 𝑥̂𝑐 (𝑡) no es cero en ninguna parte debido a los lóbulos laterales. Este efecto, el cual
es llamado escape, causa transferencia de potencia desde una banda a otra. Usualmente el
problema es escape espectral de una banda fuerte, donde el espectro es grande, a una banda
débil donde el espectro es pequeño o cero. El escape crea picos falsos, es decir, picos en
frecuencias erróneas, picos no existentes o cambios de amplitud de los picos existentes.
Por tanto, para resolver las dos componentes de freuencia aprtadas ΔΩ rad/seg, la longitud de la
ventana rectangular debería satisfacer la condición:
2𝜋 1
ΔΩ = Ω2 − Ω1 ≥ o 𝑇0 ≥ (7.169)
𝑇0 𝐹2 − 𝐹1
1
Para ver otra implicación importante de (7.169), note que 𝐹1 = 0 produce 𝑇0 ≥ 𝐹 .
2
De esta manera, la longitud de la ventana determina la frecuencia más baja que puede ser vista
en el espectro de la señal ventaneada.
En otras palabras, la longitud de la ventana rectangular requerida para distinguir una sinusoide
a partir de DC debería se mas grande que su periodo fundamental.
7.6.2 Efectos del ventaneo de tiempo sobre señales con espectros continuos
Las ideas discutidas en la sección anterior pueden ser fácilmente extendidas a un número arbitrario
de señales sinusoidales.
Esto se ilustra en la siguiente figura para un número de sinusoides con frecuencias igualmente
espaciadas:
Claramente, a medida que el número de sinusoides se incrementa el espaciamiento entre las líneas
espectrales disminuye; en el límite el resultado es un espectro pasa banda de tiempo continuo ideal.
El espectro de una señal no periódica ventaneada es obtenida tomando la CTFT de (7.161). El
resultado es la siguiente integral de convolución:
1 ∞
𝑋̂𝑐 (𝑗Ω) = ∫ 𝑋 (𝑗𝜃)𝑊𝑐 (𝑗(Ω − 𝜃))𝑑𝜃 (7.170)
2𝜋 −∞ 𝑐
Para entender cómo esta operación cambia el espectro original, se aproxima la integral (7.170)
usando integración trapezoidal como sigue:
∞
1
𝑋̂𝑐 (𝑗Ω) ≈ ∑ 𝑋𝑐 (𝑗𝜃𝑘 )𝑊𝑐 (𝑗(Ω − 𝜃𝑘 ))∆𝜃 (7.171)
2𝜋
𝑘=−∞
Esta relación muestra que el efecto del ventaneo de tiempo es crear un conjunto continuo de copias
corridas en frecuencia de 𝑊𝑐 (𝑗Ω), cada una escalada por la correspondiente amplitud del espectro
original.
La CTFT, 𝑋̂𝑐 (𝑗Ω), es la suma de todas estas copias; este proceso se ilustra en la figura anterior.
Alternativamente, 𝑋̂𝑐 (𝑗Ω) puede ser expresada como una integral ponderada de 𝑋𝑐 (𝑗Ω), donde la
función de peso 𝑊𝑐 (𝑗Ω), es la transformada de Fourier de la ventana.
Otra forma de entender los efectos del ventaneo de tiempo sobre el espectro original es asumir que
el lóbulo principal actúa como un operador de suavización (pasa bajos) y los lóbulos laterales actúan
como un operador de mejoramiento de pico (pasa alto).
Escape.- El principal efecto de los lóbulos laterales es transferir potencia de las bandas de frecuencia
que contienen grandes cantidades de potencia de señal a bandas que contienen poco o ninguna
potencia.
Esta transferencia de potencia, la cual se llama escape, puede crear picos falsos (es decir, picos
en frecuencias erróneas) picos no existentes o cambioar la amplitud de los picos existentes.
El esparcimiento y el escape son especialmente críticos para espectros con fuertes picos y valles
mientras que sus efectos sobre espectros suaves o relativamente planos son despreciables.
Una buena ventana debería tener un lóbulo principal estrecho (para minimizar el esparcimiento
espectral) y lóbulos laterales bajos (para minimizar el escape espectral).
Desafortunadamente, es imposible satisfacer ambos de estos requerimientos
simultáneamente.
Esta es una consecuencia de principio de incertidumbre de la transformada de Fourier.
La ventana rectangular 𝑤𝑅 (𝑡) tiene duración finita 𝑇0 y un espectro 𝑊𝑅 (𝑗Ω) de grado infinito.
Sin embargo, la mayor parte de su energía está contenida en el lóbulo principal de la función
sinc, |Ω| < 2𝜋⁄𝑇0 .
A medida que la duración 𝑇0 se incrementa, el ancho 4𝜋⁄𝑇0 del lóbulo principal disminuye y
viceversa.
Esto puede ser fácilmente visto mediante el escalamiento de la señal 𝑥𝑐 (𝑡) = cos[Ω0 𝑡]. El resultado
es:
Por ejemplo, si 𝑎 > 1, comprimiendo el eje del tiempo por un factor 𝑎 se incrementa la frecuencia
de la sinusoide por un factor de 𝑎.
Para obtener una expresión analítica se necesitan definiciones precisas de la duración de tiempo
y del encho de banda (grado de frecuencia).
Una definición conveniente y ampliamente usada se ha originado del concepto estadístico de
variancia.
Sin pérdidad de generalidad, se considera una señal 𝑥𝑐 (𝑡), la cual es normalizada para tener energía
unitaria, es decir:
∞
1 ∞
𝐸𝑥 = ∫ |𝑥𝑐 (𝑡)|2 𝑑𝑡 = ∫ |𝑋 (𝑗Ω)|2 𝑑Ω = 1 (7.174)
−∞ 2𝜋 −∞ 𝑐
Para asegurar la existencia de las diferentes integrales, se impone la condición √|𝑡|𝑥𝑐 (𝑡) → 0
cuando |𝑡| → ∞.
Más aún, se asume que 𝑥𝑐 (𝑡) es centrada alrededor del origen tal que el valor medio 𝑚𝑡 de |𝑥𝑐 (𝑡)|2
satisface la condición:
∞
𝑚𝑡 ≜ ∫ 𝑡|𝑥𝑐 (𝑡)|2 𝑑𝑡 = 0 (7.175)
−∞
Una señal 𝑥𝑐 (𝑡) que es grande para valores grandes de 𝑡 tendrá duración más grande que una
señal con valores grandes para pequeños valores de 𝑡.
De esta manera, 𝜎𝑡 mide el esparcimiento de la curva |𝑥𝑐 (𝑡)|2 alrededor de 𝑡 = 0.
De esta manera, las señales de corta duración deben tener ancho de banda grande y la señales de
banda estrecha deben tener duración larga.
La igualda se tiene cuando 𝑥𝑐1 (𝑡) esproporcional a 𝑥𝑐2 (𝑡), es decir, 𝑥𝑐1 (𝑡) = 𝑘𝑥𝑐2 (𝑡); ∀𝑡.
La igualdad en (7.178) se tiene cuando 𝑘𝑡𝑥𝑐 (𝑡) = 𝑥𝑐′ (𝑡) o 𝑥𝑐′ (𝑡)⁄𝑥𝑐 (𝑡) = 𝑘𝑡. Integrando, se tiene
que ln[𝑥𝑐 (𝑡)] = 𝑘𝑡 2 ⁄2 + 𝑐1 o:
2 ⁄2
𝑥𝑐 (𝑡) = 𝑐2 𝑒 𝑘𝑡 (7.186)
Para 𝑘 < 0 esta es una señal de energía finita conocida como pulso Gaussiano.
Los pulsos Gaussianos son las únicas señales que satisfacen el principio de incertidumbre (7.178)
con la igualdad.
Otras definiciones de duración de tiempo y ancho de banda conducen a desigualdades con una
cota inferior diferente.
Principios de incertidumbre análogos pueden ser derivados para las otras representaciones de
Fourier.
Elecciones de ventanas.- Una buena ventana debería tener un lóbulo principal estrecho y sin lóbulos
laterales, es decir, debería ser una buena aproximación a una función delta.
La ventana rectangular, que corresponde a la truncación de señal sin reformado, puede ser usada
como el punto de inicio para el diseño de algunas ventanas úties.
Para simplificar las derivaciones se consideran ventanas de banda limitada 𝑤𝑐 (𝑡) = 0; |𝑡| > 𝑇0 ⁄2,
las cuales están centradas en 𝑡 = 0 y normalizadas tal que:
1 ∞
𝑤𝑐 (0) = ∫ 𝑊 (jΩ)𝑑Ω = 1 (7.187)
2𝜋 −∞ 𝑐
Una forma simple de reducir el nivel de lóbulos laterales de la ventana rectangular por un factor de
2 (en dB) está basada en elevar al cuadrado 𝑊𝑅 (jΩ).
Esta ventana en el dominio del tiempo se obtiene mediante la convolución 𝑤𝑅 (𝑡) ∗ 𝑤𝑅 (𝑡) lo que
produce un pulso triangular con duración 2𝑇0 .
Esta ventana es conocida como ventana triangular debido a su forma o ventana de Bartlett después
de su descubrimiento.
Otra forma de reducir el nivel de los lóbulos laterales es correr dos réplica apropiadamente
ponderadas de 𝑊𝐵 (𝑗Ω) en ± 2𝜋⁄𝑇0 rad/seg para lograr la cancelación parcial mediante
superposición.
𝑊𝑐 (𝑗Ω) = 𝑎𝑊𝑅 (𝑗Ω) + 𝑏𝑊𝑅 (𝑗(Ω − 2𝜋⁄𝑇0 )) + 𝑏𝑊𝑅 (𝑗(Ω + 2𝜋⁄𝑇0 )) (7.189)
La elección 𝑎 = 0.5, 𝑏 = 0.25, hecha porl el científico australiano Julius von Hann, produce la
ventana de Hann.
La elección de 𝑎 = 0.54, 𝑏 = 0.23, hecha por Richard Hamming usando prueba y error para
minimizar el nivel del lóbulo lateral más alto, resulta en la ventana de Hamming.
Ejemplo 7.7.- En este ejemplo, se ilustran los efectos de la forma de ventana sobre el espectro de
sinusoides ventaneadas. Considere una señal de tiempo continuo que consiste de una suma de 𝑘 +
1 componentes sinusoidales:
𝐾
La CTFT de la señal ventaneada 𝑥̂𝑐 (𝑡) = 𝑤𝑐 (𝑡)𝑥𝑐 (𝑡) está dada por:
𝐾
1
𝑋̂𝑐 (𝑗Ω) = ∑ 𝐴𝑘 𝑒 −𝑗𝜙𝑘 𝑊𝑐 (𝑗(Ω + Ω𝑘 )) + 𝐴𝑘 𝑒 𝑗𝜙𝑘 𝑊𝑐 (𝑗(Ω − Ω𝑘 )) (7.193)
2
𝑘=0
Se eligen tres sinusoides con amplitud uno, fase cero y frecuencias 𝐹0 = 1 Hz, 𝐹1 = 3 Hz y 𝐹2 = 4
Hz. La longitud 𝑇0 = 2 seg de las ventanas fue elegida para satisfacer la condición 𝑇0 > 1⁄(𝐹2 − 𝐹1 ).
La siguiente figura muestra que es posible distinguir los picos en 𝐹1 y 𝐹2 con una ventana rectangular
de longitud 𝑇0 , pero no con las otras ventanas:
Como se esperaba, la ventana de Hann tiene los lóbuos laterales más pequeños a expensas de
una ligera resolución más baja. Para distinguir dos picos en las frecuencias 𝐹1 y 𝐹2 con ventanas
no rectangulares, sus longitudes deberían satisfacer la condición 𝑇0 > 2⁄(𝐹2 − 𝐹1 ).
Esto no es sorprendente ya que el lóbulo principal de la ventana no rectangular tiene el doble
de ancho comparado con el de la ventana rectangular.
7.6.4 Efectos del muestreo en el dominio de la frecuencia
La siguiente figura muestra los pasos básicos requeridos para determinar el contenido de frecuencia
de una señal de tiempo continuo usando la DFT:
El primer paso es el del ventaneo, el cual como se ha discutido tiene el mayor impacto sobre la
calidad del espectro calculado.
Para evitar complicaciones innecesarias a partir de la periodicidad de la DTFT, se han explicado los
efectos del ventaneo en tiempo continuo usando la CTFT.
Sin embargo, en la práctica la operación del ventaneo tiene lugar en tiempo discreto.
Por tanto, ultimadamente, lo que está disponible para el cálculo digital es la secuencia ventaneada.
El objetivo es determinar 𝑋𝑐 (𝑗Ω), la CTFT de 𝑥𝑐 (𝑡); lo que se puede calcular es la DTFT 𝑋̂(𝑒 𝑗𝜔 )
de la señal muestreada y ventaneada 𝑥̂[𝑛].
El muestreo de 𝑥𝑐 (𝑡) con periodo 𝑇 es equivalente a la periodización de 𝑋𝑐 (𝑗Ω) con periodo
2𝜋⁄𝑇.
El muestreo, el cual puede crear distorsión de aliasing, limita el rango de frecuencia útil a |Ω| ≤
𝜋 ⁄𝑇 .
El ventaneo de tiempo discreto suaviza los picos agudos y las discontinuidades (efectos del
lóbulo principal) y pueden crear picos falsos (efectos de los lóbulos laterales), como el ventaneo
de tiempo continuo. La forma de 𝑊(𝑒 𝑗𝜔 ); |Ω| ≤ 𝜋⁄𝑇, es muy similar a la forma de 𝑊𝑐 (𝑗Ω) para
valores típicos de 𝐿.
Esto es equivalente a periodizar la secuencia 𝑥̂[𝑛] con periodo 𝑁. El cálculo real es efectuado
calculando la DFT de 𝑁 puntos (𝑁 ≥ 𝐿) de la señal ventaneada 𝑥̂[𝑛]; 0 ≤ 𝑛 ≤ 𝐿 − 1 usando un
algoritmo FFT.
La correspondencia entre el índice de los coeficientes DFT y las frecuencias de tiempo continuo es:
2𝜋𝑘
Ω𝑘 = 2𝜋𝐹𝑘 = ; 0 ≤ 𝑛 ≤ 𝑁 − 1 (7.197)
𝑁𝑇
La cantidad 2𝜋⁄(𝑁𝑇) determina el espaciamiento entre las muestras de la DTFT evaluada mediante
la DFT; típicamente se usa relleno de ceros para obtener una representación visual fiel de la DTFT.
Sin embargo, algunas veces se necesitan muestras de la DTFT en el rango −𝜋 < 𝜔 < 𝜋, en vez del
rango de 0 ≤ 𝜔 < 2𝜋.
La conversión entre los dos rangos, que está basada en la periodicidad de la DTFT, se hace usando
la función de Matlab:
X=fftshift(X) (7.198)
Esta función rearregla la salida de la fft moviendo la componente de frecuencia cero al centro
del arreglo.
Es útil para visualizar la transformada de Fourier con la componente de frecuencia cero en el
medio del espectro.
X=ifftshift(X) (7.199)
Se pueden evitar más dificultades relacionadas con la aplicación de a DFT en el análisis espectral, si
se tiene en cuenta las siguientes observaciones:
Ejemplo 7.9 Sinusoides con frecuencias que no coinciden con los cajones (bins) DFT.- Considere la
secuencia:
2𝜋 3 4𝜋
𝑥[𝑛] = {cos ( 𝑛) + cos ( 𝑛) 0 ≤ 𝑛 ≤ 31 (7.202)
9 4 7
0 de otra manera
En este caso, las frecuencias 𝜔1 = 2𝜋⁄9 y 𝜔2 = 4𝜋⁄7 caen entre los cajones (cracks) de la DFT.
En efecto, se puede fácilmente ver que 3⁄32 < 3⁄27 < 4⁄32 y 9⁄32 < 8⁄28 < 10⁄32.
Como en el ejemplo 7.8, el espectro de la señal ventaneada está dada por la DTFT, la cual se muestra
en la siguiente figura con una línea azul continua:
Debido a la falta de coincidencia entre los cruces por cero de la ventana rectangular y las cajas
DFt, todas las muestras de la DFT son diferentes de cero.
En este sentido, existe una diferencia visual significativa entre las DFTs de las ventanas
rectangulares en las figuras anteriores.
En contraste, las DFTs de las señales ventaneadas con Hann son remarcablement similares.
De esta manera, para evitar falsas conclusiones siempre se usa una ventana de Hann y una DFT
con relleno de ceros grande.
7.6.5 El espectrograma
La validez del análisis del espectro usando la DFT está basada en una suposición fundamental
implícita: las amplitudes, frecuencias y fases de las componentes sinusoidales de la señal analizada
no cambia con el tiempo dentro de la ventana de análisis.
Puesto que incrementando la longitud de la ventana resulta en mejor resolución de frecuencia, sería
bueno usar ventanas largas.
Sin embargo, existen dos problemas principales que prohiben el uso de ventanas muy largas en
aplicaciones prácticas.
Primero, la espera que significa adquirr las muestras necesarias introduce largos retardos y
requiere el cálculo de enormes DFTs.
Segundo, el contenido de frecuencia de la voz, el radar, el sonar y otras señals prácticas cambia
con el tiempo.
De esta manera, la longitud de la ventana debería ser suficientemente corta para asegurar que el
contenido espectral no varíe significativamente dentro de la ventana por propósitos prácticos.
Una solución práctica razonable a estos problemas es dividir una señal larga en segmentos pequeños
y analizar cada uno con el DFT.
Para formalizar este método se define la DFT dependiente del tiempo de DFT de corto tiempo de la
señal 𝑥[𝑛] mediante:
𝐿−1
Esta ecuación tiene una interpretación simple: el conjunto de números 𝑋[𝑘, 𝑛]; 0 ≤ 𝑘 ≤ 𝑁 − 1
es la DFT de 𝑁 puntos de un segmento ventaneado de 𝑥[𝑚] empezando en 𝑚 = 𝑛 y terminando
en 𝑀 = 𝑛 + 𝐿 − 1.
La ventana es fijada en el intervalo desde 𝑚 = 0 a 𝑚 = 𝐿 − 1.
A medida que el índice de corrimiento 𝑛 cambia, la señal 𝑥[𝑛 + 𝑚] se desliza y la ventana extrae un
segmento diferente de la señal para análisis.
La siguiente figura (a) muestra las primeras 2000 muestras de 𝑥[𝑛] graficadas como forma de
onda continua (las muestras sucesivas son conectadas mediante líneas rectas).
Note que a medida que progresa el tiempo, los picos se vuelven más cercanos, lo que indica que
la frecuencia se incrementa con el tiempo.
Luego se calcula la DFT de este segmento y se grafica su magnitud después del corrimiento de
la frecuencia cero al medio con la función fftshift (7.198).
El resultado, el cual se muestra en (b), sugiere que la señal contine todas las componentes de
frecuencia desde alrededor de o Hz a 100 Hz- en aproximadamente la misma cantidad.
Esta conclusión que sigue de la suposición fundamental del análisis de Fourier que la amplitud,
la frecuencia y la fase de cada componente de frecuencia permanecen constantes en el tiempo,
es obviamente incorrecta.
En efecto, de (7.124) se conoce que la señal se hace a partir de una sinusoide cuya frecuencia cambia
linealmente con el tiempo.
Si se observa en cualquier segmento corto de 𝑥[𝑛], se refleja una sinusoide con una frecuencia
casi constante.
Por tanto, si se ventanea un segmento suficientemente corto y se calcula su DFT, se podría
obtener un espectro local representativo de la señal.
S=spectrogram0(x,L,N,M,Fs) (7.208)
Matlab incluye una función más general spectrogram en el toolbox de Signal Processing; sin
embargo, spectrogram0 ilustra más claramente cómo calcular y desplegar el espectrograma.
La figura (a) anterior muestra el espectrograma de una señal chirp con duración 𝜏 = 10 seg,
𝐹1 = 500 Hz y 𝐹𝑠 = 1000 Hz, obtenida usando una ventana de Hann con 𝐿 = 50 y una DFT con
𝑁 = 256 puntos.
Como se esperaba, la frecuencia instantánea crece linealmente desde 𝐹 = 0 Hz hasta 𝐹 =
𝐹𝑠 ⁄2 = 500 Hz. El valor de 20 log|𝑋[𝑘, 𝑛]| sobre un rango restringido de 100 dB está
representado por el tono de gris del pixel en [𝑘, 𝑛].
Para desplegar sobre una pantalla de computadora es preferible usar una represeentación de
pseudocolor.
El ancho de la línea está relacionado con el ancho del lóbulo principal, el cual aproximadamente
es 4𝐹𝑠 ⁄𝐿 Hz; la resolución de tiempo es proporcional a la longitud de la ventana.
Por tanto, no se puede simultáneamente mejorar la resolución de tiempo y frecuencia.
La figura anterior en (b) muestra el espectrograma con una resolución de frecuencia mejorada
incrementando la longitud de la ventana a 𝐿 = 200. Si se hace que 𝐹1 = 𝐹𝑠 = 1000 Hz, se
obtiene el espectrograma de la figura (c).
Puesto que la frecuencia más alta que se puede ver en una señal de tiempo discreto es 𝐹𝑠 ⁄2,
note que la frecuencia crece linealmente desde 0 a 500 Hz y luego decae linealmente a 0 debido
al aliasing.
Este ejemplo ilustra cómo aplicar el princiío del análisis espectral a señales cuyas propiedades
cambian con el tiempo.
El espectrograma es la herramienta más práctica para el análisis de señales con espectros variantes
en el tiempo y es extensivamente usada en aplicaciones de procesamiento de voz.
8 Cálculo de la transformada discreta de Fourier
Cálculo directo de la DFT de 𝑵 puntos
La DFT de una secuencia de longitud finita de longitud 𝑁 está definida por:
𝑁−1
Puesto que el tiempo de cálculo de los algoritmos 𝑂(𝑁 2 ) se vuelve muy grande para valores grandes
de 𝑁, uno está interesado en algoritmos computacionales que reduzcan el número de operaciones.
Estos algoritmos usan la estrategia “dividir y conquistar”; es decir, descomponen la DFT de una
secuencia de longitud 𝑁 en DFTs de longitud más pequeña que se fusionan para formar la DFT de 𝑁
puntos.
Los algoritmos que descomponen la secuencia 𝑥[𝑛] en secuencias más pequeñas se conocen como
algoritmos FFT de decimación en tiempo; mientras que los algoritmos que descomponen la DFT
𝑋[𝑘] en secuencias más pequeñas se llaman FFTs de decimación en frecuencia.
La idea de la FFT
La mayoría de los algoritmos para la computación eficiente de la DFT explotan las propiedades de
peridicidad y simetría del factor de giro 𝑊𝑁𝑘𝑛
Las propiedades de peridicidad y simetría de la matriz DFT pueden ser visualizadas mediante la
representación de cada factor de giro 𝑊𝑁𝑘𝑛 como un fasor en el plano complejo.
Para la matriz 𝑊8 esta representación pictórica toma la siguiente forma en la cual el ángulo del fasor
de 0 es mostrado verticalmente hacia arriba y el fasor rota en la dirección del sentido de las
manecillas del reloj:
Para desarrollar algoritmos eficientes para el cálculo de la DFT primero se expresa la DFT de 𝑁
puntos, para 𝑁 = 8 en forma matricial.
El resultado es:
Note que cambiando el orden de las columnas de la matriz y los elementos del vector del lado
derecho de la misma forma no se altera el resultado final.
De esta manera, se puede poner primero las columnas para las muestras pares 𝑥[0], 𝑥[2], 𝑥[4], 𝑥[6]
y luego las columna para las muestras impares 𝑥[1], 𝑥[3], 𝑥[5], 𝑥[7].
Si se usa la identidad 𝑊84 = −1 y se rearregla la matriz anterior agrupando los términos pares e
impares, se obtiene:
donde se ha particionado la matriz DFT como una matriz de 2 × 2 con bloques de 4 × 4 Si se usa la
identidad 𝑊82 = 𝑊4 , resultando en:
𝐗 𝐖 𝐃8 𝐖4 𝐱𝐸
[ 𝑇] = [ 4 ] [ ] (8.10)
𝐗𝐵 𝐖4 −𝐃8 𝐖4 𝐱𝑂
donde 𝐖4 es la matriz DFT de 4 puntos y 𝐷8 es una matriz diagnonal:
1 1 1 1 1 0 0 0
𝑊 2 𝑊3
𝑊 0 𝑊 0 0
𝐖4 = 1
4 4 4 8
𝑦 𝐃8 = [ ] (8.11)
1 𝑊42 1 𝑊42 0 0 𝑊82 0
2 3
[1 𝑊43 𝑊4 𝑊4 ] 0 0 0 𝑊8
𝑁
Ahora defina la DFTs de 2 puntos (𝑁 = 8):
𝐗 𝐸 = 𝐖𝑁 𝐱𝐸 (8.12𝑎)
2
𝐗 𝑂 = 𝐖𝑁 𝐱𝑂 (8.12𝑏)
2
𝐗 𝑇 = 𝐗 𝐸 + 𝐃𝑁 𝐗 𝑂 (8.13𝑎)
𝐗 𝐵 = 𝐗 𝐸 − 𝐃𝑁 𝐗 𝑂 (8.13𝑏)
𝑁
Se ha expresado la DFT de 𝑁 puntos en términos de dos DFTs de 2 puntos.
Esquemáticamente:
𝑁
La fusión de las dos DFTs requiere de multiplicaciones y 𝑁 adiciones
2
Si 𝑁 = 2𝑣 se puede repetir este proceso hasta 𝑁 = 1; la DFT de 1 punto es trivial 𝑋[0] = 𝑥[0].
𝑁−1
𝑁
𝑎[𝑛] ≜ 𝑥[2𝑛]; 𝑛 = 0,1, … , − 1 (8.19𝑎)
2
𝑁
𝑏[𝑛] ≜ 𝑥[2𝑛 + 1]; 𝑛 = 0,1, … , − 1 (8.19𝑏)
2
Debido a que las secuencias más cortas 𝑎[𝑛] y 𝑏[𝑛] se obtienen muestreando (o decimando) la
secuencia 𝑥[𝑛], este proceso se llama descomposición por decimación en tiempo. Sustituyendo
estas definiciones en (8.18) y usando 𝑊𝑁2 = 𝑊𝑁 se tiene:
2
Puesto que la DFT de 1 punto es el propio punto de entrada, se puede pensar que (8.24) esla fusión
de dos DFTs de 1 punto.
El algoritmo FFT de decimación en tiempo fue introducido por Cooler y Tukey (1965)
𝑋[𝑘] = 𝐷𝐹𝑇8 {𝑥[0], 𝑥[1], 𝑥[2], 𝑥[3], 𝑥[4], 𝑥[5], 𝑥[6], 𝑥[7]}; 0 ≤ 𝑘 ≤ 7 (8.25)
Esto requiere las DFTs de 4 puntos de las secuencias decimadas en tiempo con indexación par e
impar
Por tanto, el principal esfuerzo computacional es fundir 𝐶[𝑘] con 𝐷[𝑘], 𝐸[𝑘] con 𝐹[𝑘] y 𝐴[𝑘] con
𝐵[𝑘] usando (8.23) para 𝑁 = 4 y 𝑁 = 8.
Note que se ha usado la identidad 𝑊4𝑘 = 𝑊82𝑘 tal que los factores de giro para todas las ecuaciones
de fusión correspondan a 𝑁 = 8.
La siguiente figura muestra una gráfica de flujo de esta operación, la cual es conocida como cálculo
mapriposa debido a su forma:
Los factores de giro proporcioan el ajuste requerido para doblar el tamaño de la DFT de entrada.
El cálculo mariposa requiere una adición compleja, una resta compleja y una multiplicación
compleja.
La siguiente figura muestra la gráfica de flujo del algoritmo FFT de decimación en tiempo de 8 puntos
usando la operación mariposa:
Algoritmos FFT de decimación en frecuencia
Los algoritmos FFT de decimación en tiempo están basados en la descomposición recursiva de la
secuencia de entrada en subsecuencias con indexación par e impar.
Otro algoritmo con la misma complejidad computacional puede ser derivado aplicando la misma
descomposición de dividir y conquistar sobre los coeficientes de la DFT.
Para evadir este problema se divide la sumatoria en dos partes como sigue:
𝑁 𝑁 𝑁 𝑁
−1 −1 −1 −1
2 2 𝑁 2 2
𝑁 𝑘(𝑛+ ) 𝑁
𝑋[2𝑘] = ∑ 𝑥[𝑛]𝑊𝑁𝑘𝑛 + ∑ 𝑥 [𝑛 + ] 𝑊𝑁 2
= ∑ 𝑥[𝑛]𝑊𝑁𝑘𝑛 + ∑ 𝑥 [𝑛 + ] 𝑊𝑁𝑘𝑛
2 2 2 2 2 2
𝑛=0 𝑛=0 𝑛=0 𝑛=0
𝑁
−1
2
𝑁 𝑁
= ∑ (𝑥[𝑛] + 𝑥 [𝑛 + ]) 𝑊𝑁𝑘𝑛 ; 𝑘 = 0,1, … , − 1 (8.36)
2 2 2
𝑛=0
Siguiendo un procedimiento similar para los coeficientes DFT con indexación impar, se obtiene:
𝑁
−1
2
𝑁 𝑁
𝑋[2𝑘 + 1] = ∑ [(𝑥[𝑛] − 𝑥 [𝑛 + ]) 𝑊𝑁𝑛 ] 𝑊𝑁𝑘𝑛 ; 𝑘 = 0,1, … , − 1 (8.37)
2 2 2
𝑛=0
𝑁
Las ecuaciones (8.36) y (8.37) expresan las DFT original de 𝑁 puntos en términos de dos DFTs de 2
puntos: Los algoritmos FFT basados en la descomposición de la secuencia DFT 𝑋[𝑘] a subsecuencias
con indexación par e impar se llaman algoritmos de decimación en frecuencia.
𝑁
Para desarrollar el algoritmo dividir y conquistar se definen las secuencias de puntos:
2
𝑁 𝑁
𝑎[𝑛] ≜ 𝑥[𝑛] + 𝑥 [𝑛 + ] ; 𝑛 = 0,1, … − 1 (8.38𝑎)
2 2
𝑁 𝑁
𝑏[𝑛] ≜ (𝑥[𝑛] − 𝑥 [𝑛 + ]) 𝑊𝑁𝑛 ; 𝑛 = 0,1, … − 1 (8.38𝑏)
2 2
𝑁
y calcular sus DFTs de puntos:
2
𝑁
−1
2
𝑁
𝐴[𝑘] = ∑ 𝑎[𝑛]𝑊𝑁𝑘𝑛 ; 𝑘 = 0,1, … , − 1 (8.39𝑎)
2 2
𝑛=0
𝑁
−1
2
𝑁
𝐵[𝑘] = ∑ 𝑏[𝑛]𝑊𝑁𝑘𝑛 ; 𝑘 = 0,1, … , − 1 (8.39𝑏)
2 2
𝑛=0
Para encontrar la DFT de 𝑁 puntos de la secuencia original 𝑥[𝑛], se iteran los valores de los dos DFTs
𝑁
de 2 puntos como sigue:
𝑁
𝑋[2𝑘] = 𝐴[𝑘]; 𝑘 = 0,1, … , − 1 (8.40𝑎)
2
𝑁
𝑋[2𝑘 + 1] = 𝐵[𝑘]; 𝑘 = 0,1, … , − 1 (8.40𝑏)
2
De esta manera, la tarea de calcular la DFT de 𝑁 puntos ha sido reemplazada por la tarea de calcular
𝑁
dos DFTs de 2 puntos.
Como en el caso de la decimación en tiempo, no se para aquí. La misma estrategia es aplicada para
𝑁
calcular las DFTs de 𝑎[𝑛] y 𝑏[𝑛], luego nuevamente se calculan las DFTs de 4
puntos, hasta que
eventualente se alcance la DFT de 1 punto, las cuales son triviales de calcular.
Por tanto, el único trabajo involucra la preparación de las secuencias de entrada para cada DFT
sucesiva aplicando las relaciones (8.38) con el valor apropiado de 𝑁. La FFT de decimación en
frecuencia fue encontrada independientemente por Sande; Cooley y Sockham en 1967.
Por muchos años, el tiempo de cálculo de la FFT estuvo dominado por multiplicaciones y adiciones.
El desempeño de las FFTs sobre las computadoras actuales depende de la estructura del algoritmo,
el compilador y la arquitectura de la máquina.
Para aplicaciones que no requieren todos los coeficientes de la DFT de N puntos, se pueden usar
algoritmos basados en operaciones de filtraje lineal; estos incluyen el algoritmo de Goertzel y el
algoritmo de la transformada chirp.
9 Estructuras de sistemas de tiempo discreto
Diagramas de bloques y diagramas de flujo de señal
Considere un filtro IIR de primer orden descrito por:
𝑏0 + 𝑏1 𝑧 −1
𝐻[𝑧] = (9.2)
1 + 𝑎1 𝑧 −1
La siguiente figura muestra la implementación del diagrama de bloques y el diagrama de flujo de
señal de la ecuación de diferencias (9.1):
El digrama de bloques muestra las operaciones descritas por la ecuación de diferencias usando
elementos computacionales básicos, mientras que la gráfica de flujo de señal proporciona una
representación equivalente del flujo de señales y sus operaciones.
Note que en el caso de las gráficas de flujo de señal, la rama de entrada aplica la señal externa 𝑥[𝑛]
al sistema en el nodo de la rama izquierda y la salida de la señal está disponible en la rama de salida
conectada a nodo de la rama derecha.
Más aún, las gráficas de flujo de señal no sólo proporcionan una representación gráfica sino que
también puesen ser manipuladas en forma muy similar a las ecuaciones matemáticas para obtener
estructuras alternativas equivalentes.
Transposición de las gráficas de flujo de señal.- Un método para lograr estructuras alternativas
de la misma función seistema es usar el procedimiento conocido como transposición.
La gráfica reultante es llamada forma transpuesta mientras que la original se llama forma normal.
Las estructuras transpuestas pueden ser derivadas usando el teorema de transposición para gráficas
de flujo.
De acuerdo al este teorema se puede derivar una estructura equivalente a partir de una realizació
dada mediante el siguiente conjunto de operaciones
Reversa de las direcciones de rama
Remplazo de los nodos de rama por nodos de suma y viceversa
Intercambio de los nodos de entrada y salida
Aplicando los tres pvasos anteriores a la gráfica de flujo de señal de la figura anterior
Puesto que el método acostumbrado es mostrar la rama de entrada ala izquierda y la rama de salida
a la derecha, se voltea el diagrama anterior para obtener la forma transpuesta de la siguiente figura:
Para verificar que la nueva estructura representa la misma función sistema de (9.2) denote la señal
del nodo central por 𝑣[𝑛].
𝑌(𝑧) 𝑉(𝑧) 𝑏0 + 𝑏1 𝑧 −1
𝐻(𝑧) = = (9.5)
𝑉(𝑧) 𝑋(𝑧) 1 + 𝑎1 𝑧 −1
que es la misma que en (9.2).
Cada una de estas estructuras también tienen sus variaciones de forma transpuesta.
𝑌(𝑧) ∑𝑀
𝑘=0 𝑏𝑘 𝑧
−𝑘
𝐻[𝑧] = = (9.7)
𝑋(𝑧) 1 + ∑𝑁
𝑘=1 𝑎𝑘 𝑧
−𝑘
Esta estructura es llamada forma directa I debido a que puede ser escrita directamente de la función
sistema o de la ecuación de diferencias por simple inspección; en otras palabras, los coeficientes
{𝑎𝑘 , 𝑏𝑘 } son usadas directamente para formar la estructura
La función sistema puede ser obtendia implementando la parte de todos ceros y luego la parte de
todos polos como sigue:
𝑌(𝑧) 𝑌(𝑧) 𝑆(𝑧)
𝐻(𝑧) = = = 𝐻2 (𝑧)𝐻1 (𝑧) (9.12)
𝑋(𝑧) 𝑆(𝑧) 𝑋(𝑧)
donde
𝑀
𝑆(𝑧)
𝐻1 (𝑧) = = ∑ 𝑏𝑘 𝑧 −𝑘 (todo ceros)
𝑋(𝑧)
𝑘=0
𝑆(𝑧) 1
𝐻2 (𝑧) = = 𝑁 (todo polos)
𝑋(𝑧) 1 + ∑𝑘=1 𝑎𝑘 𝑧 −𝑘
Estructura de forma directa transpuesta I.- La estructura dada en la figura anterior está en la forma
normal. Usando el teorema de transposición se obtiene la estructura mostrada en la siguiente
figura:
Forma directa II.- Puesto que en teoría, el orden de los sistemas interconectados no afecta a la
función sistema global, la ecuación (9.12) se puede expresar equivalentemente por:
es decir, primero se implementa la parte recursiva (polos) y luego la parte no recursive (ceros).
En este caso, el sistema puede ser descrrito por las ecuaciones de diferencias:
𝑁
Esta estructura está en la forma normal y también se le llama forma directa canónica debido a que
requiere el mínimo número posible de retardos, el cual está dada por max(𝑁, 𝑀).
Aunque las estructuras de forma directa I y II son teóricamente equivalentes, pueden haber
diferencias en sus salidas cuando se implementan con aritmética de precisión finita.
Estructura forma directa II transpuesta.- La estructura más ampliamente usada es la forma directa
II transpuesta, la cual se obtiene transponiendo la estructura de forma directa II.
Ejemplo 9.2 Estructura de forma directa IIR.- Considere un sistema IIR con función sistema:
Estructuras en cascada
Cualquier función sistema racional puede ser expresada en forma de polos y ceros como sigue:
∏𝑀1 −1 𝑀2 −1 ∗ −1
𝑘=1(1 − 𝑧𝑘 𝑧 ) ∏𝑘=1(1 − 𝑧𝑘 𝑧 )(1 − 𝑧𝑘 𝑧 )
𝐻(𝑧) = 𝑏0 (9.25)
∏𝑁1
𝑘=1
(1 − 𝑝𝑘 𝑧 −1 ) ∏𝑁2
𝑘=1
(1 − 𝑝𝑘 𝑧 −1 )(1 − 𝑝𝑘∗ 𝑧 −1 )
donde 𝑀 = 𝑀1 + 2𝑀2 y 𝑁 = 𝑁1 + 2𝑁2 . los pares de polos (ceros) complejos conjugados pueden
ser combinados en términos de segundo orden con coeficientes reales. Si 𝑁1 o 𝑀1 son números
impares entonces se incluye un polo o cero en 𝑧 = 0, respectivamento para hacerlos números
pares.
Ahora se pueden combinar pares de polos reales y ceros reales en términos de segundo orden.
donde 𝐺 es la ganancia global del sistema, 𝐻𝑘 (𝑧) son las secciones de segundo orden con ganancias
arbitrarias tales que 𝑏0 = 𝐺 ∏𝐾𝑘=1 𝐵𝑘0 y 𝑁 = 𝑀 = 2𝐾. Si 𝑁 es impar, uno de los coeficientes 𝐵𝑘2 y
uno de los coeficientes 𝐴𝑘2 serán cero. La complejidad adicional debido a los dos coeficientes extra
se pondera por la estructura modular de (9.26).
En efecto, la descomposición en (9.26) permite usar la misma función o módulo de hardware para
implementar el sistema de alto orden.
Las secciones de segundo orden {𝐻𝑘 (𝑧)} en (9.26) pueden ser implementadas ya sea usando la
estructura de forma directa normal II o la o la estructura directa II transpuesta.
Los sistemas resultantes son teóricamente equivalentes cuando se usa precisión aritmética infinita;
sin embargo, el comportamiento puede variar significativamente con aritmética de precisión finita.
Ejemplo 9.3 IIR de forma en cascada.- Considere el sistema IIR:
Combinando tanto pares de polos reales y complejos de los factores parciales se obtiene:
𝑀−𝑁 𝐾
−𝑘
𝐵𝑘0 + 𝐵𝑘1 𝑧 −1
𝐻(𝑧) = ∑ 𝐶𝑘 𝑧 +∑ (9.31)
1 + 𝐴𝑘1 𝑧 −1 + 𝐴𝑘2 𝑧 −2
𝑘=0 𝑘=1
La primera sumatoria no está incluida si 𝑀 < 𝑁. Si el número de polos es impar, se añade un polo
en cero y se hace 𝐾 = (𝑁 + 1)⁄2.
Considere el sistema:
Forma directa
De (9.37) es obvio que la función sistema tiene denominador unidad.
Por tanto, ambas estructuras de forma directa I y II son las mismas, lo que conduce a la realización
mostrada en la siguiente figura para 𝑀 = 4:
Forma en cascada
La función sistema en (9.37) puede ser factorizada en secciones de segundo orden con coeficientes
reales como:
𝑀 𝐾
donde 𝑀 = 2𝐾. Si 𝑀 es impar, uno de los coeficientes 𝐵̃𝑘2 será cero. Las secciones resultantes de
segundo orden se conectan en cascada y cada sección de segundo orden puede ser implementada
usando la forma normal o transpuesta.
La siguiente figura muesta la estructura de forma en cascada para 𝑀 = 6 con secciones de forma
transpuesta:
Comentarios
La mejor estructura para la implementación de sistemas FIR es la forma directa transpuesta. La
mejor estructura para la implementación en punto flotante de sistemas IIR es la forma directa
transpuesta II, mientras que la mejor estructura para la implementación en punto fijo es la
interconexión en cascada de secciones de forma directa II transpuestas.
La estructura reticulada de filtros FIR (todos ceros) e IIR (todos polos) es principalmente usada en
aplicaciones de modelado de voz y aplicaciones de filtrado adaptivo.
Matlab proporciona un gran número de funciones para convertir entre diferentes estructuras, para
implementar una estructura dada y para verificar que las implementación específicas trabajen
apropiadamente.
10 Diseño de filtros FIR
El problema de diseño de filtros consiste en encontrar un filtro prácticamente realizable, es decir,
un filtro causal y estable con una función sistema racional, cuya respuesta en freuencia se aproxime
lo mejor posible a las respuestas deseadas de magnitud y fase, dentro de tolerancias especificadas.
Cuantificación.- Cuantificar los coeficientes del filtro en la representación aritmética de punto fijo
requerida.
Los filtros ideales no pueden ser implementados en la práctica y tienen que ser aproximados por
filtros prácticos realizables.
El borde la de banda de paso es denotado por 𝜔𝑝 y el borde de la banda de paro es denotado por
𝜔𝑠 . La respuesta de fase se deja o bien completamente no especificada o bien puede requerir que
sea lineal. Puesto que uno se enfoca en filtros con respuestas al impulso reales, se necesita prescribir
las especificaciones sólo en el intervalo 0 ≤ 𝜔 ≤ 𝜋.
Los filtros prácticos pueden tener rizos en la banda de paso y en la banda de paro y pueden exhibir
una caída suave o gradual en la banda de transición.
1 − 𝛿𝑝 ≤ |𝐻(𝑒 𝑗𝜔 )| ≤ 1 + 𝛿𝑝 (10.1)
En la banda de paro se requiere que la respuesta de magnitud se aproxime a cero con un error de
±𝛿𝑠 , con 𝛿𝑠 ≪ 1; de esta manera se tiene:
|𝐻(𝑒 𝑗𝜔 )| ≤ 𝛿𝑠 ; 𝜔𝑠 ≤ 𝜔 ≤ 𝜋 (10.2)
Los valores de rizo picos 𝛿𝑝 y 𝛿𝑠 especifican las tolerancias aceptables en términos de los valores
absolutos.
1 − 𝛿𝑝 1 + 𝛿𝑝
𝐴𝑝 ≜ 20 log10 ( ), 𝐴𝑠 ≜ 20 log10 ( ) ≈ −20 log10 (𝛿𝑠 ) (10.5)
1 + 𝛿𝑝 𝛿𝑠
Para un filtro bien diseñado, las cantidades 𝐴𝑝 y 𝐴𝑠 son positivas y,típicamente cumplen 𝐴𝑝 ≅ 0 y
𝐴𝑠 ≫ 1.
lo cual da:
Aproximación de filtros
Considere un filtro ideal con secuencia de respuesta al impulso ℎ𝑑 [𝑛] y función de respuesta en
frecuencia 𝐻𝑑 (𝑒 𝑗𝜔 ) de acuerdo a las especificaciones de diseño (10.6).
Puesto que el filtro práctico debería ser causal, estable y debería tener una función sistema racional
de orden finito:
∑𝑀
𝑘=0 𝑏𝑘 𝑧
−𝑘
𝐻(𝑧) = (10.10)
1 + ∑𝑁
𝑘=1 𝑎𝑘 𝑧
−𝑘
los requerimientos de estabilidad y causalidad tienen algunas implicaciones sobre las características
de 𝐻(𝑒 𝑗𝜔 ), las cuales siguen del siguiente teorema de Paley-Wiener:
Por tanto, dada la respuesta de magnitud |𝐻(𝑒 𝑗𝜔 )| de un sistema causal y estable, no se puede
asignar su respuesta de fase arbitrariamente. Existen dos métodos para tratar con este problema:
Imponer restricciones de la respeusta de fase, por ejemplo ∠𝐻(𝑒 𝑗𝜔 ) = −𝛼𝜔 y obtener un filtro
cuya respuesta de magnitud satisfaga las especificaciones de diseño.
Obtener un filtro cuya respuesta de magnitud satisfaga las especificaciones de diseño
independientemente de la respeusta de fase resultante.
Si ℎ[𝑛] es absolutamente sumable, la DTFT de ℎ[𝑛] existe y puede ser escrita como:
De esta manera, si un filtro es real, causal y estable, su respuesta en frecuencia 𝐻(𝑒 𝑗𝜔 ) está
únicamente definida por su parte real 𝐻𝑅 (𝑒 𝑗𝜔 ).
Esto implica una relación entre las partes real e imaginaria de 𝐻(𝑒 𝑗𝜔 ), la cual está formalmente
dada por la siguiente expresión de la transformada de Hilbert discreta:
1 𝜋 𝜔−𝜃
𝐻𝐼 (𝑒 𝑗𝜔 ) = − ∫ 𝐻𝑅 (𝑒 𝑗𝜔 ) cot ( ) 𝑑𝜃 (10.16)
2𝜋 −𝜋 2
Los coeficientes de 𝐻(𝑧) obtenidos dependen del criterio usado para determinar lo que se considera
como una aproximación óptima.
Si algunas frecuencias son más importantes que otras, se podría usar una función de ponderación
apropiadamente seleccionada 𝑊𝑓 (𝑒 𝑗𝜔 ) ≥ 0 para ponderar el error en (10.17).
El intervalo ℬ usualmente es la unión de todas las bandas de paso y las bandas de paro del filtro.
Aproximación Minimax.- El error cuadrático medio mide el error total o promedio en el intervalo
ℬ; sin embargo, el error cuadrático medio pequeño no precluye la posibilidad de errores grandes
en frecuencias individuales.
Sin embargo, en algunas aplicaciones es muy importante que el error sea pequeño en todas las
frecuencias del intervalo ℬ; en tales casos, se puede minimizar la desviación absoluta máxima, es
decir el error:
La norma máxima es el criterio natural a usar en el diseño de filtros que tienen la precisión asignada
a través del intervalo ℬ.
La solución que minimiza la función de error (10.18) es llamada aproximación minimax o mejor
uniforme o aproximación de Chebyshev.
Si las primeras (𝑚 − 1) derivadas son iguales, el error empezará como el 𝑚-ésimo término, es decir:
(𝑚)
𝐴𝑑 (𝜔0 ) − 𝐴(𝑚) (𝜔0 )
𝐸(𝜔) ≜ 𝐴𝑑 (𝜔0 ) − 𝐴(𝜔) = (𝜔 − 𝜔0 )𝑚 + ⋯ (10.20)
𝑚!
Si todas las posibles derivadas son iguales, se dice que la función de error es completamente plana
en 𝜔 = 𝜔0 , debido a que la función no puede cambiar en valor desde 𝜔 = 𝜔0 .
Las aproximaciones de Taylor son muy buenas alrededor de algún punto 𝜔0 , pero se vuelven malas
fuera de ese punto.
También existen algunas técnicas de diseño de filtros que usan una combinación de estos criterios;
por ejemplo, una aproximación de Chebyshev en la banda de paso y una aproximación
maximalmente plana en la banda de paro.
Otros métodos de diseño popularesson, por ejemplo, los métodos de ventaneo, que no usan
directamente ningún criterio.
El propósito principal de cualquier técnica de diseño de filtros es determinar los coeficientes de una
función sistema o ecuaciones de diferencias que se aproximen a una respuesta de frecuencia
deseada o a una respuesta al impulso dentro de tolerancias especificadas.
Por tanto, las técnicas usadas para el diseño de filtros FIR son diferentes de las técnicas usadas para
diseñar filtros IIR.
Sin pérdida de generalidad, considere un filtro ideal pasa bajos; los mismos resultados se aplican a
todos los filtros ideales.
La respuesta en frecuencia de un filtro pasa bajos ideal con fase lineal es:
𝑐 (𝑡)|
sin[𝜔𝑐 (𝑛 − 𝛼)]
ℎ𝑙𝑝 [𝑛] = ℎ𝑙𝑝 = | (10.23)
𝑡=𝑛𝑇 𝜋(𝑛 − 𝛼) 𝑡=𝑛𝑇
𝑐 (𝑡)
La función ℎ𝑙𝑝 es simétrica alrededor de 𝑡 = 𝛼𝑇 para cualquier valor de 𝛼.
𝑐 (𝑛𝑇)
Sin embargo, la secuencia ℎ𝑙𝑝 [𝑛] = ℎ𝑙𝑝 puede o no puede ser simétricamente dependiente de
los valores del retardo 𝛼.
El retardo de tiempo 𝛼 = 𝑀⁄2 es un múltiplo entero del intervalo de muestreo cuando 𝑀 es par.
Sin embargo, si 2𝛼 no es un entero, la simetría se pierde y el filtro de tiempo discreto resultante
tiene la respuesta de fase no lineal y un retardo de grupo variable, como se muestra en la siguiente
figura:
Si para un valor dad del retardo 𝛼, se elige un valor de 𝑀 > 2𝛼 la simería se pierde de ℎ[𝑛] y el filtro
resultante tiene una respuesta de fase no lineal; de esta manera, no se pueden tener filtros IIR
causales con fase lineal (𝑀 = ∞).
En los hechos, sólo los filtros FIR con fase lineal son prácticamente realizables; todos los filtros IIR
causales con función sistema racional tienen una respuesta de fase no lineal.
Dependiendo del tiempo de simetría (par o impar) y si el orden del filtro 𝑀 es un entero par o impar,
existen cuatro tipos de filtros FIR con fase lineal.
los cuatro casos de interés están especificados por las siguientes condiciones:
𝐻(𝑒 𝑗𝜔
) = (∑ 𝑎[𝑘] cos(𝜔𝑘)) 𝑒 −𝑗𝜔𝑀⁄2 ≜ 𝐴(𝑒 𝑗𝜔 )𝑒 −𝑗𝜔𝑀⁄2 (10.27)
𝑘=0
donde 𝐴(𝑒 𝑗𝜔 ) es una función real, par y periódica de 𝜔 con coeficientes dados por:
𝑎[0] = ℎ[𝑀⁄2], 𝑎[𝑘] = 2ℎ[(𝑀⁄2) − 𝑘]; 𝑘 = 1,2, … , 𝑀⁄2 (10.28)
donde el retardo 𝑀⁄2 es un entero mas un medio y los coeficientes 𝐴(𝑒 𝑗𝜔 ) son:
donde
1
(𝑏̃[1] + 2𝑏̃[0]) 𝑘=1
2
1
𝑏[𝑘] = (𝑏̃[𝑘] + 𝑏̃[𝑘 − 1]) 2 ≤ 𝑘 ≤ (𝑀 − 1)⁄2 (10.32)
2
1
̃ [(𝑀 − 1)⁄2] 𝑘 = (𝑀 − 1)⁄2
{ 2𝑏
La expresión (10.32) es usada para el diseño de filtros FIR tipo II usando el criterio minimax.
El algoritmo de diseño proporciona 𝑏̃[𝑘]; la respuesta al impulso se obtiene usando (10.32) y (10.30).
Por esta razón se ha expresado 𝑏[𝑘] en términos de 𝑏̃[𝑘]; sin embargo es directo expresar 𝑏̃[𝑘] en
términos de 𝑏[𝑘].
Esto implica que los filtros con una respuesta en frecuencia que no son cero en 𝜔 = 𝜋, por ejemplo,
un filtro pasa alto, no puede ser satisfactoriamente aproximado por un filtro tipo II.
𝐻(𝑒 𝑗𝜔
) = (∑ 𝑐[𝑘] sin(𝜔𝑘)) 𝑗𝑒 −𝑗𝜔𝑀⁄2 ≜ 𝑗𝐴(𝑒 𝑗𝜔 )𝑒 −𝑗𝜔𝑀⁄2 (10.34)
𝑘=1
donde
donde
1
(2𝑐̃ [0] − 𝑐̃ [1]) 𝑘=1
2
1
𝑐[𝑘] = (𝑐̃ [𝑘 − 1] − 𝑐̃ [𝑘]) 2 ≤ 𝑘 ≤ 𝑀⁄2 − 1 (10.37)
2
1
[
{ 2 𝑐̃ 𝑀⁄2 − 1] 𝑘 = 𝑀 ⁄2
Además, la presencia del factor 𝑗 = 𝑒 𝑗𝜋⁄2 en (10.34) muestra que la respuesta en frecuencia es
imaginaria.
De esta manera, los filtros tipo III son más apropiados para el diseño de diferenciadores y
transformadores de Hilbert.
donde
Similarment a los filtros de tipo III, 𝐴(𝑒 𝑗𝜔 ) puede ser exprseado como una suma de cosenos:
(𝑀−1)⁄2
𝜔
𝐴(𝑒 𝑗𝜔
) = sin ( ) ∑ 𝑑̃[𝑘] cos(𝜔𝑘) (10.40)
2
𝑘=0
donde
1
(2𝑑̃[0] − 𝑑̃[1]) 𝑘=1
2
1
𝑑[𝑘] = (𝑑̃[𝑘 − 1] − 𝑑̃[𝑘]) 2 ≤ 𝑘 ≤ 𝑀⁄2 − 1 (10.41)
2
1
̃ [𝑀
{ 2 𝑑 ⁄2 − 1] 𝑘 = 𝑀 ⁄2
Para os filtros tipo IV se tiene que 𝐴(𝑒 𝑗𝜔 ) = 0 en 𝜔 = 0, independiente de 𝑑[𝑘] o equivalntemente
ℎ[𝑘].
Como para los de tipo III, esta clase de filtros es más apropiada para aroximar diferenciadores y
transformadores de Hilbert.
La función real 𝐴(𝑒 𝑗𝜔 ), la cual puede tomar valores positivos o negativos, se llama respuesta de
amplitud para distinguirla de la respuesta de magnitud |𝐻(𝑒 𝑗𝜔 )|.
Representación unificada.- De (10.27), (10.31), (10-36) y (10.41) se concluye que la función 𝐴(𝑒 𝑗𝜔 )
puede ser expresada por el producto de dos términos:
donde 𝑄(𝑒 𝑗𝜔 ) es una función fija de 𝜔 dependiente del tipo del filtro y 𝑃(𝑒 𝑗𝜔 ) es una summa de
cosenos dependientes de los coeficientes del filtro.
Las formas diferentes de esta descomposición y su implicación en el diseño de filtros se resumen en
la siguiente tabla:
Esta representación unifica el diseño de los cuatro tipos de filtros FIR con fase lineal usando el
cirterio minimax.
El algoritmo de diseño proporciona los coeficientes de 𝑃(𝑒 𝑗𝜔 ), los cuales pueden ser usados para
obtener las muestras de la respuesta al impulso.
La representación alternativa, basada en los coeficientes {𝑎[𝑘], 𝑏[𝑘], 𝑐[𝑘], 𝑑[𝑘]}, es más propiada
para diseñar filtros que usan optimización de mínimos cuadrados o técnicas de programación lineal.
Estas restricciones sobre el patrón de ceros proporcionan una explicación alternativa para las
restricciones sobre la forma de la respuesta en frecuencia resumidas en la Tabla 10.2
Las siguientes figuras ilustran las propiedades de los filtros I-IV con fase lineal mostran ejemplos de
la respuesta al impulso, patrón de poos y ceros, respuesta en magnitud y respuesta de mplitud para
cada tipo de filtro.
Note que 𝐴(𝑒 𝑗𝜔 ) tiene periodo 2𝜋 para los filtros tipo I y tipo III y periodo 4𝜋 para filtros tipo II y
tipo IV.
También note que, puesto que |𝐻(𝑒 𝑗𝜔 )| es una función par, la función 𝐴(𝑒 𝑗𝜔 ) puede ser ya sea
par o impar alrededor de 𝜔 = 0.
El método de diseño por ventaneo reduce estos rizos a un nivel deseado aplicando una ventana a la
respuesta al impulso; sin embargo, el filtro obtenido ya no es óptimo en el sentido del error
cuadrático medio,
Los últimos dos términos del lado derecho de la ecuación anterior dependen sólo de 𝐻𝑑 (𝑒 𝑗𝜔 ) y no
están afectados por la elección de ℎ[𝑛].
Puesto que el primer término es no negativo, el error cuadrático medio es minimizado sí y sólo si
este término es cero.
El valor de 𝐴(𝑒 𝑗𝜔 ) en 𝜔 = 𝜔0 es igual a la integral del área azul que cambia cuando
𝐴𝑤 (𝑒 𝑗(𝜔−𝜃) ) se desliza a lo largo del eje de la frecuencia.
Cuando el lóbulo principal está dentro de la banda de paso o de la banda de paro, la integral
cambia lentamente debido a las variaciones en los lóbulos laterales.
Esencialmente los lóbuos laterales insertan sus rizos a las regiones de la banda de paso plana y
bando de paro de la respuesta en frecuencia ideal.
Sin embargo, cuando el lóbulo principal de gran tamaño se desliza a través de discontinuidad de
la respuesta ideal la integral decrece rápidamente.
El resultado es dos bandas de transición graduales que reflejan los lados izquierdo y derecho del
lóbulo principal.
Las regiones de transición son aproximadamente simétricas alrededor del punto de
discontinuidad.
Cálculo de los rizos y ancho de banda de la transición.- Para determinar cómo la truncación de la
respuesta al impulso determina el rizo de la banda de paso, la atenuación de la banda de paro y el
ancho de la banda de transición del filtro pasabajos ideal, se usa (10.59) para evaluar la respuesta
de amplitud del filtro diseñado:
1 𝜋 1 𝜔𝑐
𝐴(𝑒 𝑗𝜔 ) = ∫ 𝐴𝑑 (𝑒 𝑗𝜃 )𝐴𝑤 (𝑒 𝑗(𝜔−𝜃) )𝑑𝜃 = ∫ 𝐴 (𝑒 𝑗(𝜔−𝜃) )𝑑𝜃 (10.62)
2𝜋 −𝜋 2𝜋 −𝜔𝑐 𝑤
De la figura, se ve que para 𝜔 cercana a 𝜔𝑐 , la primera integral se puede aproximar por la integral
de 𝐴(𝑒 𝑗𝜔 ) desde 0 a 𝜋, la cual es igual a 𝜋.
También para 𝐿 grande se tiene que 𝐴𝑤 (𝑒 𝑗(2𝜙⁄𝐿) ) = sin 𝜙⁄(sin 𝜙⁄𝐿) ≈ 𝐿 sin 𝜙⁄𝜙. Por tanto, se
obtiene:
𝑗𝜔
1 1 (𝜔𝑐 −𝜔)𝐿⁄2 sin 𝜙 1 1
𝐴(𝑒 )≈ + ∫ 𝑑𝜙 = + Si[(𝜔𝑐 − 𝜔)𝐿⁄2] (10.65)
2 𝜋 0 𝜙 2 𝜋
𝛿𝑝 ≈ 𝛿𝑠 ≈ 0.0895 (10.69)
La truncación de la respuest al impulso ideal produce filtros FIR con rizo en la banda de paso
alrededor de 20 log10(1.0895) = 0.75 𝑑𝐵 y la atenuación mínima de la banda de paso
alrededor de 20 log10(1⁄0.0895) = 21 𝑑𝐵, independientemente de la longitud del filtro;
ambos no son suficientes para aplicaciones prácticas.
El ancho de la banda de transición que está acotada por arriba mediante el ancho del lóbulo
principal de 𝐴𝑤 (𝑒 𝑗𝜔 ), está dado por:
1.8𝜋 4𝜋
∆𝜔 ≜ 𝜔𝑠 − 𝜔𝑝 ≈ ≤ (10.70)
𝑀 𝑀+1
debido a que, como se ilustra en la figura:
Note que a medida que se incrementa el orden 𝑀, el nivel del lóbulo lateral más alto permanece
constante en 13 dB y la atenuación de la banda de paro es fija alrededor de 21 dB-
Los anchos del lóbulo principal y por tanto la banda de transición decrecen a medida que el
orden se incrementa.
Sin embargo, la única forma de mejorar la atenuación de la banda de paro es reducir los lóbulos
laterales de la ventana, lo cual se puede hacer sóo cambiando la forma de la ventana.
Existen ventanas no rectangulares que hacen posible diseñal filtros prácticos útiles.
Las ventanas más comúnmente usadas están definidas por las siguientes ecuaciones:
Rectangular
1 0≤𝑛≤𝑀
𝑤[𝑛] = { (10.72)
0 de otra manera
Bartlett (triangular)
2𝑛⁄𝑀 0 ≤ 𝑛 ≤ 𝑀⁄2 , 𝑀 par
𝑤[𝑛] = {2 − 2𝑛⁄𝑀 𝑀 ⁄2 < 𝑛 ≤ 𝑀 (10.73)
0 de otra manera
Hann
0.5 − 0.5 cos(2𝜋𝑛⁄𝑀) 0≤𝑛≤𝑀
𝑤[𝑛] = { (10.74)
0 de otra manera
Hamming
0.54 − 0.46 cos(2𝜋𝑛⁄𝑀) 0≤𝑛≤𝑀
𝑤[𝑛] = { (10.75)
0 de otra manera
Blackman
0.42 − 0.5 cos(2𝜋𝑛⁄𝑀) + 0.08 cos(4𝜋𝑛⁄𝑀) 0≤𝑛≤𝑀
𝑤[𝑛] = { (10.76)
0 de otra manera
La siguiente figura muestra la forma de onda de la magnitud de su trasformada de Fourier en dB
para estas ventanas comunes con 𝑀 = 50.
Note que, como se esperaba, las ventanas no rectangulares tienen lóbulos principales más anchos
y lóbulos laterales más bajos que la ventana rectangular.
Las transformadas de Fourier de las ventanas no rectangulares pueden ser expresadas en términos
de la transformada de ventanas rectangulares.
Por tanto, la respuesta al impulso ventaneada ℎ[𝑛] = 𝑤[𝑛]ℎ𝑑 [𝑛] tiene la misma simetría con la
respuesta al impulso ideal ℎ𝑑 [𝑛]; en otras palabras, el ventaneo de un filtro FIR con fase lineal no
cambia su tipo.
El efecto de la ventana sobre la respuesta de amplitud puede ser analizado siguiendo el método
usado para la ventana rectangular. Si se asume que 𝐴𝑑 (𝑒 𝑗𝜔 ) tiene una discontinuidad en 𝜔𝑐 tal que
− +
𝐴𝑑 (𝑒 𝑗𝜔𝑐 ) = 1 y 𝐴𝑑 (𝑒 𝑗𝜔𝑐 ) = 0 se puede mostrar que en la vecindad de 𝜔𝑐 se tiene:
1
0.5 + Λ 𝑤 [0.5(𝜔𝑐 − 𝜔)𝐿] 𝜔 < 𝜔𝑐
𝐴(𝑒 𝑗𝜔 ) ≈ { 𝜋 (10.78)
1
0.5 − Λ 𝑤 [0.5(𝜔 − 𝜔𝑐 )𝐿] 𝜔 > 𝜔𝑐
𝜋
donde Λ 𝑤 [𝜙] es la función amplitud integral de la ventana definida por:
1 𝜙
Λ 𝑤 [𝜙] = ∫ 𝐴𝑤 (𝑒 𝑗2𝜃⁄𝐿 )𝑑𝜃 (10.79)
𝐿 0
Por tanto, los rizos de la banda de paso y de la banda de paro y el ancho de la banda de transición
están determinados por la corrida integral de la función amplitud de la ventana 𝐴𝑤 (𝑒 𝑗𝜔 ).
Más aún, para una muy buena aproximación, el rizo de la banda de paso 𝛿𝑝 y la atencuación de
la banda de paro 𝛿𝑠 son iguales e independientes de 𝑀; pueden ser cambiados sólo cambiando
la forma de la ventana.
El ancho de la banda de transición, la cual está controlada por el ancho del lóbulo principal de
𝐴𝑤 (𝑒 𝑗𝜔 ), puede ser reducido incrementando el orden 𝑀 del filtro.
La siguiente tabla resume las propiedades de las ventanas definidas en (10.72) a (10.76):
Así, estas ventanas son llamadas ventanas fijas puesto que la atencuación de su banda de paro es
independiente de la longitud de la ventana. Una inspección de la tabla muestra que la ventana de
Hamming proporciona la mejor elección para el diseño de filtros puesto que da un mejor
compromiso entre un ancho estrecho de transición y una alta atenuación de la banda de paro.
Note que las ventanas con lóbulos laterales más pequeños y lóbulo principal más estrecho
proporcionan una mejor aproximación de la respuesta ideal alrededor de una discontinuidad.
Diseño de filtros FIR usando ventana fija.- Usando funciones de entanas y sus parámetros de la Tabla
10.3 se puede ahora proporcionar un proceedimiento sistemático para el diseño de filtros FIR.
Ejemplo 10.2.- Diseñe un filtro FIR pasa bajos de fase lineal para satisfacer las siguientes
especificaciones:
𝜔𝑝 = 0.25𝜋, 𝜔𝑠 = 0.35𝜋, 𝐴𝑝 = 0.1 dB, 𝐴𝑠 = 50 dB
Primero, usando:
1 − 𝛿𝑝 1 + 𝛿𝑝
𝐴𝑝 ≜ 20 log10 ( ), 𝐴𝑠 ≜ 20 log10 ( ) ≈ −20 log10 (𝛿𝑠 ) (10.5)
1 + 𝛿𝑝 𝛿𝑠
se obtiene 𝛿𝑝 = 0.0058 y 𝛿𝑝 = 0.0032.
Por tanto, 𝛿 es puesto a 0.0032 o 𝐴 = 𝐴𝑝 = 50 dB.
Luego se configura la frecuencia de corte del filtro pasa bajos ideal 𝜔𝑐 = (𝜔𝑝 + 𝜔𝑠 )⁄2 = 0.3𝜋
y se calcula el ancho de banda de transición Δ𝜔 = 𝜔𝑠 − 𝜔𝑝 = 0.1𝜋.
De la Tabla 10.3 se elige una ventana de Hamming puesto que proporciona al menos una
atenuación de 53 dB que es mayor que 𝐴 = 50 dB.
Para esta ventana, usando el ancho de banda de transición Δ𝜔 ≈ 6.6 𝜋⁄𝐿, la longitud es 𝐿 =
66.
Se elige 𝐿 = 67 o 𝑀 = 66 para obtener un filtro tipo I.
Ahora se eligen los parémtros de diseño necesarios y finalmente se calcula la respuesta al
impulso ℎ[𝑛] usando (10.80) y (10.75).
Las gráficas de las respuestas al impulso, error de aproximación y magnitud del filtro diseñado se
muestran en la siguiente figura
A partir del error de aproximación y la respuesta de magnitud se concluye que el filtro diseñado
satisface la especificación dada en (10.81).
Puesto que la banda de transición ∆𝜔 es proporcional a 1⁄𝑀, se puede controlar su ancho a través
de la longitud de la ventana.
Sin embargo, puesto que el tamaño de los rizos depende de la forma de la ventana, no existe forma
sistemática para controlar el rizo de la banda de paso y la atenuación de la banda de paro con
ventanas de forma fija.
La única forma de abordar este problema es usando ventanas cuya forma podría ser controlada con
parámetros ajustables.
Para una buena aproximación, el ancho del lóbulo principal determina el ancho de la banda de
transición, mientras que la altura relativa de los lóbulos laterales controla el tamaño de los rizos en
la respeuta de amplitud.
De acuerdo al principio de incertidumbre, existe un compromiso entre el ancho del lóbulo principal
y la altura del lóbulo lateral; en otras palabras, no se puede reducir ambas cantidades al mismo
tiempo.
Una clase de ventana óptima con parámetros ajustables puede ser diseñada maximizando la razón
de energía en una banda de frecuencia alrededor de 𝜔 = 0 sobre la energía total.
Para ventanas de tiempo continuo este problem ha sido resuelto en forma cerrada en términos de
una clase complicada de funciones llamadas funciones de onda esferoidales alargadas.
La solución de este problema en tiempo discreto conduce a un problema de valores propios mal
condicionado. Kaiser evitó la solución de este problem obteniendo una aproximación simple, pero
suficientemente preciso, a la ventana esferoidal alargada.
Otro método busca miniizar el nivel de los picos de los lóbulos laterales.
La ventana de Kaiser, que es estándar para el diseño de filtros está definida por:
Esta expresión puede ser evaluada mediante la siguiente función de Matlab que usa un algoritmo
debido a Kaiser:
La siguiente figura muestra que la forma de la ventana de Kaiser está controlada mediante el
parámetro 𝛽.
En efecto, la ventana de Kaiser puede ser usada para aproximarse más a las ventanas fijas de la
Tabla 10.3.
La figura (b) muestra que cuando 𝛽se incrementa, el lóbulo principal se vuelve más ancho, mientras
que los lóbulos laterales se vuelven más pequeños.
Para filtros pasa bajos, este procedimiento tiene los siguientes pasos:
Ejemplo 10.3.- Considere las especificaciones de un filtro FIR pasa bajos, de fase lineal, dadas por
(10.81): 𝜔𝑝 = 0.25𝜋, 𝜔𝑠 = 0.35𝜋, 𝐴𝑝 = 0.1 dB, 𝐴𝑠 = 50 dB.
Del ejemplo 10.2 se tiene que 𝐴 = 50 dB y que 𝜔𝑐 = (𝜔𝑝 + 𝜔𝑠 )⁄2 = 0.3𝜋. Usando (10.84) y
(10.85) se obtiene los valores requeridos para un filtro tipo I.
Las gráficas de las respuestas al imulso, error de aproximación y magnitud del filtro diseñado se
muestran en la siguiente figura:
Apartir del error de aproximación y de la respuesta de magnitud se concluye que el filtro diseñado
satisface las especificaciones dadas en (10.81).
Más aún, el diseño de la ventana de Kaiser satisface las especificaciones usando una ventana de
longitud 𝐿 = 61 la cual es más pequeña que 𝐿 = 67 para la ventana de Hamming.
El método anterior puede ser generalizado al diseño de filtros pasa altos, pasa banda, rechazo de
banda y otros filtros multibanda, siempre que se pueda derivar una expresión analítica para la
respuesta al impulso ideal requerida.
Por ejemplo, considera un filtro ideal pasa banda con fase lineal y banda de paso 0 ≤ 𝜔𝑐1 < |𝜔| <
𝜔𝑐2 ≤ 𝜋.
Puesto que este filtro es equivalente a la diferencia de dos filtros pasa bajos con frecuencias de corte
𝜔𝑐1 y 𝜔𝑐2 , su respuesta al impulso está dada por:
y puede ser caracterizado con precisión por las fórmulas (10.78) y (10.79) siempre que las
frecuencias 𝜔𝑘 estén suficientemente alejadas y que los rizos en cada banda estén apropiadamente
escalados por la correspondiente ganancia 𝐴𝑘 .
Ejemplo 10.4.- Se diseñará un filtro pasabanda usando la ventana de Kaiser para satisfacer las
siguientes especificaciones:
|𝐻(𝑒 𝑗𝜔 )| ≤ 0.01 |𝜔| ≤ 0.2𝜋
𝑗𝜔
0.99 ≤ |𝐻(𝑒 )| ≤ 1.01 0.3𝜋 ≤ |𝜔| ≤ 0.7𝜋 (10.88)
𝑗𝜔
|𝐻(𝑒 )| ≤ 0.01 0.78𝜋 ≤ |𝜔| ≤ 𝜋
En los filtros multibanda existen más de dos parámetros de rizo de banda y más de una banda de
transición.
El método de diseño de ventana puede satisface sólo un parámetro de rizo y un ancho de banda de
transición.
Existen dos bandas de transición: 0.2𝜋 ≤ 𝜔 ≤ 0.3𝜋 y 0.7𝜋 ≤ 𝜔 ≤ 0.78𝜋 para las cuales las
frecuencias de corte son 𝜔𝑐1 = 0.25𝜋 y 𝜔𝑐2 = 0.74𝜋, respectivamente.
Similarmente, los anchos de banda de transición son ∆𝜔1 = 0.3𝜋 − 0.2𝜋 = 0.1𝜋 y ∆𝜔2 = 0.78𝜋 −
0.7𝜋 = 0.08𝜋.
Se hace que ∆𝜔 = 0.08𝜋. Usando (10.84) y (10.85) los valores requeridos de los parámetros de la
ventana de Kaiser son 𝛽 = 3.3953 y 𝑀 = 56, los cuales se eligen para un filtro tipo I.
Las gráficas de las respuestas al impulso, el error de aproximación y magnitud del filtro diseñado se
muetran en la siguiente figura:
Del error de aproximación y de la respuesta de magnitud se convluye que el filtro diseñado satisface
las especificaciones dadas en (10.88).
Método de diseño básico.- Suponga que se dan muestras de una repuesta en frecuencia deseada
en 𝐿 puntos igualmente espaciados sobre el círculo unitario:
La respuesta al impulso deseada ℎ𝑑 [𝑛], la cual no está disponible, puede tener duración finita o
infinita.
La DFT inversa de 𝐻𝑑 [𝑘] está relacionada con ℎ𝑑 [𝑛] mediante la relación de aliasing:
𝐿−1 ∞
1
ℎ̃[𝑛] ≜ ∑ 𝐻𝑑 [𝑘]𝑊𝑁−𝑘𝑛 = ∑ ℎ𝑑 [𝑛 − 𝑚𝐿] (10.90)
𝐿
𝑘=0 𝑚=−∞
Se puede diseñar un filtro FIR mediante la multiplicación de ℎ̃[𝑛] con una ventana de longitud 𝐿, es
decir:
Puesto que ℎ̃[𝑛] es periódica, la respuesta en frecuencia del filtro diseñado se obtiene de la
siguiente manera:
𝐿−1
1
𝐻(𝑒 𝑗𝜔
) = ∑ 𝐻𝑑 [𝑘]𝑊(𝑒 𝑗(𝜔−2𝜋𝑘⁄𝐿) ) (10.92)
𝐿
𝑘=0
De esta manera, la respuesta en frecuencia del diltro diseñado es obtenida interpolando entre las
muestras 𝐻𝑑 [𝑘] usando 𝑊(𝑒 𝑗𝜔 ) como una función de interpolación.
El método de ventaneo crea un filtro FIR truncando ℎ𝑑 [𝑛]; el método de muestreo de frecuencia
crea un filtro FIR mediante el aliasing o estrechamiento de ℎ𝑑 [𝑛].
Si 𝑤[𝑛] es una ventana rectangular de 𝐿 puntos, entonces ℎ[𝑛] es el periodo primario de ℎ̃[𝑛]. En
este caso, el error de aproximación es cero en las frecuencias de muestreo y finita entre ellas debido
a que 𝑊(𝑒 𝑗𝜔 ) es una función de Dirichlet (sinc periódica).
En la práctica, para minimizar la distorsión de aliasing en el dominio del tiempo, se empieza con un
valor grande para 𝐿 en (10.89) y luego se elige un valor más pequeño para la longitud de la ventana
en (10.91).
Diseño de filtros FIR de fase lineal.- En general, el método de (10.89) a (10.91) resulta en filtros FIR
con fase arbitraria.
Para diseñar filtros FIR con fase lineal se debería incorporar restricciones apropiadas a las
ecuaciones de diseño.
Para asegurar que la secuencia ℎ[𝑛] sea real y satisfaga las restriciones de fase lineal:
𝐴𝑑 (𝑒 𝑗0 ) 𝑘=0
𝐴𝑑 [𝑘] = { 𝑗2𝜋(𝐿−𝑘)⁄𝐿
(10.94𝑏)
𝐴𝑑 (𝑒 ) 𝑘 = 1,2, … , 𝐿
𝜋 𝐿 − 1 2𝜋
± 𝑞− 𝑘 𝑘 = 0,1, … , 𝑄
Ψ𝑑 [𝑘] = { 2 2 𝐿 (10.94𝑐)
𝜋 𝐿 − 1 2𝜋
∓ 𝑞+ (𝐿 − 𝑘) 𝑘 = 𝑄 + 1, … , 𝐿 − 1
2 2 𝐿
done 𝑄 = [(𝐿 − 1)⁄2].
El parámetro 𝑞 = 0 para filtros FIR tipos I-II y 𝑞 = 1 para filtros FIR tipos III-IV.
La respuesta al impulso ℎ[𝑛] se obtiene usando (10.90) y (10.91) con una ventana rectangular.
Las muestras en el dominio de la frecuencia 𝐻𝑑 [𝑘] de un filtro pasa bajos ideal y la respuesta en
frecuencia interpolada resultante 𝐻(𝑒 𝑗𝜔 ) se ilustran en la siguiente figura, en la cual la frecuencia
de corte es de 0.45𝜋:
Observe que 𝐻(𝑒 𝑗𝜔 ) es cero en las frecuencias de muestreo y que el error de aproximación es
más grande cerca de la transición y es más pequeña fuera de ella.
Esto es debido al fenómeno de Gibbs (debido a la ventana rectangular) creada por la transición
entre la banda de paso y la banda de paro.
El error de aproximación máximo de estama manera depende de la forma de la respuesta en
frecuencia ideal; es más pequeña para una transición suave y viceversa.
Existen varios métodos; uno es óptimo en el sentido de obtener el rizo más pequeño para la longitud
dada, mientras que otros métodos son sub-óptimos y todavía peoducen resultados superiores.
Puesto que 𝐻(𝑒 𝑗𝜔 ) es una combinación lineal de las muestras 𝐻𝑑 [𝑘], se usa optimización basada
en programación lineal para determinar los valores de las muestras no restringidas para minimizar
el error de aproximación del pico.
Para esto, se proporcionan tablas para elegir muestras de la banda de transición de una combinación
selecta de la longitud del filtro 𝐿, el ancho de la banda de paso 𝜔𝑝 y la atencuación de la banda de
paro 𝐴𝑠 .
Método de suavización de la banda de transición.- En este método se introduce una banda de
transición suave que hace que 𝐴𝑑 (𝑒 𝑗𝜔 ) sea continua; esto elimina el fenómeno de Gibbs y causa
que ℎ[𝑛] decaiga asintóticamente más rápido que ℎ𝑑 [𝑛].
Las funciones Spline proporcionan una muy atractiva elección para las funciones de transición.
La siguiente figura muesta un ejemplo de un método de diseño de muestreo de frecuencia que usa
(10.95) y (10.96):
La siguiente figura muestra el efecto de la ventana de Hamming sobre la técnica de diseño básica
de muestreo de frecuencia.
La respuesta en frecuencia resultante es similar a la obtenida usando la transición suave raised-
cosine junto con el ancho de banda de transición más amplio.
Note que en ambos casos la respuesta en frecuencia resultante no va a través de las muestras de la
respuesta en frecuencia deseada cerca de la banda de transición, mientras que la aproximación es
muy cercana para muestras fuera de la transición-
Para muchas aplicaciones, este método de diseño es aceptable y puede ser mejorado usando un
valor más alto de 𝑀 y una función ventana apropiada 𝑤[𝑛].
Procedimiento de diseño.- Para filtros de frecuencia selectiva con bandas de transición no definidas,
el procedimiento de diseño puede ser iterativo si no se usa el método de diseño óptimo.
Por ejemplo, para diseñar un filtro pasa bajos con especificaciones {𝜔𝑝 , 𝜔𝑠 , 𝐴𝑝 , 𝐴𝑠 }, se pueden usar
los siguientes pasos:
Elegir el orden del filtro 𝑀 situando al menos dos muestras en la banda de transición.
Para un método de diseño de ventana obtener muestras de la respuesta enfrecuencia deseada
𝐻𝑑 [𝑘] usando (10.94). Para un método de banda de transición suave, usar (10.95) o (10.96),
para las muestras de la banda de transición además de (10.94) paralas demás muestras.
Calcular la IDFT de 𝑀 + 1 puntos de 𝐻𝑑 [𝑘] para obtener ℎ[𝑛]. Para un método de diseño de
ventana multiplicar ℎ[𝑛] por la función de ventana apropiada.
Calcular la respuesta de magnitd loogarítmica 𝐻𝑑 (𝑒 𝑗𝜔 ) y verificar el diseño en la banda de paso
y la banda de paro.
Si no se alcanzan las especificaciones de diseño volver al inicio.
Ejemplo 10.5 Diseño de un filtro pasabajos.- Considere las siguientes especificaciones para un filtro
pasabajos: 𝜔𝑝 = 0.25𝜋, 𝜔𝑠 = 0.35𝜋, 𝐴𝑝 = 0.1 dB y 𝐴𝑠 = 40 dB.
De la siguiente figura, debería se obvio que se necesitan dos o más muestras en la banda de
transición para reducir sustancialmente los rizos en la banda de paso y la banda de paro:
Puesto que la banda de transición es 0.1𝜋, se necesitarán más de 40 muestras dela respuesta en
frecuencia ideal. Eligiendo 𝑀 = 44 y usando las muestras de banda de transición raised cosine, los
pasos de diseño en Matlab son:
La atenuación de la banda de paro es decibeles del filtro diseñado se mide usando el script:
El valor medido de la atenuación de la banda de paro para este diseño es de 33.2 dB, el cual no
satisface las especificaciones dadas.
Claramente, se necesita incrementar 𝑀 o usar otro método. Puesto que la ventana de Hamming
proporciona más de 50 dB de atenuación, se la usa en el siguiente script:
El valor medido de la banda de atenuación es de 37.4 dB, el cual es mejor que con el método
anterior, pero todavía no es suficiente. Incrementando el valor de 𝑀 y verificando la atenuación de
la banda de paro resultante, se obtiene 𝑀 = 50 en ambos métodos que satisfacen las
especificaciones dadas.
Los valores medidos son 𝐴𝑠 = 40 dB para el diseño de ventana raised-cosine y 𝐴𝑠 = 40.4 dB para
el diseño de ventana de Hamming.
La siguiente figura muestra las gráficas de respuesta en magnitud de los filtros diseñados, las
muestras de las respuestas de frecuencia deseadas y las respuestas de magnitud logarítmica en dB:
El ejemplo anterior muestra que la técnica de muestreo en frecuencia no es muy apropiada para el
diseño de filtros de frecuencia selectiva tales como pasa bajos, pasa bandas, etc.
Debido a esto es difícil, sino imposible, determinar a priori el número de muestras necesarias para
el diseño correcto.
El siguiente ejemplo ilustra una aplicación donde la técnicas de muestreo de frecuencia es más
apropiada.