Está en la página 1de 361

Señales y Sistemas

Daniel W. Berns

14 de marzo de 2022
Contenidos

1 Software para modelización, análisis, procesamiento y sı́ntesis de señales 15


1.1 Introducción a Matlab / Octave . . . . . . . . . . . . . . . . . . . . . . . 15
1.1.1 La lı́nea de comandos . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.1.2 El sistema de ayuda . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.1.3 Valores escalares . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.1.4 Valores matriciales o arreglos . . . . . . . . . . . . . . . . . . . . 16
1.1.5 Metáfora de Matlab/Octave . . . . . . . . . . . . . . . . . . . . . 17
1.1.6 Variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.1.7 Continuando con la metáfora de Matlab / Octave . . . . . . . . . 17
1.1.8 Operaciones con números complejos . . . . . . . . . . . . . . . . . 18
1.1.9 Raı́ces y coeficientes de un polinomio . . . . . . . . . . . . . . . . 18
1.1.10 Generación de vectores y matrices . . . . . . . . . . . . . . . . . . 20
1.1.11 Operaciones sobre vectores y matrices, primera parte . . . . . . . 20
1.1.12 Operaciones sobre vectores y matrices, segunda parte . . . . . . . 21
1.1.13 Operaciones sobre vectores y matrices, tercera parte . . . . . . . . 22
1.1.14 Graficación de funciones . . . . . . . . . . . . . . . . . . . . . . . 23
1.1.15 Como guardar gráficos en archivos postcript, Matlab . . . . . . . 25
1.1.16 Como guardar gráficos en archivos postcript, Octave . . . . . . . 26
1.1.17 Graficación de funciones en tres dimensiones . . . . . . . . . . . . 26
1.1.18 Escritura de texto, o salida de datos en forma de texto . . . . . . 26
1.1.19 Iteración de comandos . . . . . . . . . . . . . . . . . . . . . . . . 27
1.1.20 Toma de decisiones . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.2 Ejemplo 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.3 Ejemplo 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.4 Ejemplo 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

2 Señales (y sistemas) 35
2.1 Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.1.1 Señales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.1.2 Sistemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.2 Operaciones básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

1
2.3 Modelo de una señal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.3.1 Variable independiente . . . . . . . . . . . . . . . . . . . . . . . . 37
2.3.2 La variable dependiente . . . . . . . . . . . . . . . . . . . . . . . 38
2.4 Ejemplos de señales de tiempo continuo y discreto . . . . . . . . . . . . . 40
2.5 Los modelos de señales y sistemas no son únicas . . . . . . . . . . . . . . 40
2.6 Propiedades de las señales . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.6.1 Señales acotadas y no acotadas de tiempo continuo . . . . . . . . 41
2.6.2 Señales acotadas y no acotadas de tiempo discreto . . . . . . . . . 42
2.6.3 Señales infinitas y finitas, lateral derecha o lateral izquierda, causales
y anticausales (tiempo continuo) . . . . . . . . . . . . . . . . . . . 42
2.6.4 Señales infinitas y finitas, lateral derecha o lateral izquierda, causales
y anticausales (tiempo discreto) . . . . . . . . . . . . . . . . . . . 43
2.6.5 Señales pares de tiempo continuo . . . . . . . . . . . . . . . . . . 43
2.6.6 Señales pares de tiempo discreto . . . . . . . . . . . . . . . . . . . 44
2.6.7 Señales impares de tiempo continuo . . . . . . . . . . . . . . . . . 44
2.6.8 Señales impares de tiempo discreto . . . . . . . . . . . . . . . . . 46
2.6.9 Componentes par e impar de una señal de tiempo continuo . . . . 46
2.6.10 Componentes par e impar de una señal de tiempo discreto . . . . 47
2.7 Señales periódicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.7.1 Definición de perı́odo (tiempo continuo) . . . . . . . . . . . . . . 48
2.7.2 Definición de perı́odo (tiempo discreto) . . . . . . . . . . . . . . . 48
2.7.3 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.7.4 Como encontrar los perı́odos de señales periódicas de tiempo con-
tinuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.8 Señales exponenciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.8.1 Repaso de números complejos . . . . . . . . . . . . . . . . . . . . 51
2.8.2 Señales exponenciales de tiempo continuo . . . . . . . . . . . . . . 53
2.8.3 Propiedades de la señal exponencial imaginaria de tiempo continuo 55
2.8.4 Señales exponenciales de tiempo discreto . . . . . . . . . . . . . . 55
2.8.5 Propiedades de la señal exponencial imaginaria de tiempo discreto 56
2.8.6 La señal exponencial imaginaria es el bloque constructivo de otras
señales periódicas . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.8.7 Comparación de las señales periódicas de tiempo continuo y discreto 59
2.9 Señales singulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.9.1 El impulso unitario (tiempo discreto) . . . . . . . . . . . . . . . . 59
2.9.2 El escalón unitario (tiempo discreto) . . . . . . . . . . . . . . . . 61
2.9.3 Relación entre impulso y escalón (tiempo discreto) . . . . . . . . . 63
2.9.4 El escalón unitario (tiempo continuo) . . . . . . . . . . . . . . . . 64
2.9.5 El impulso unitario (tiempo continuo) . . . . . . . . . . . . . . . 64
2.9.6 Construcción del impulso y el escalón unitario . . . . . . . . . . . 64
2.10 Señales muestreadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

2
2.10.1 Tiempo discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
2.10.2 Tiempo continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
2.11 Energı́a y potencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
2.11.1 Energı́a de una señal de tiempo continuo . . . . . . . . . . . . . . 70
2.11.2 Energı́a de una señal de tiempo discreto . . . . . . . . . . . . . . 70
2.11.3 Potencia de una señal de tiempo continuo . . . . . . . . . . . . . 70
2.11.4 Potencia de una señal de tiempo discreto . . . . . . . . . . . . . . 70
2.11.5 Señal de energı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
2.11.6 Señal de potencia . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
2.11.7 Decibeles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
2.11.8 Ejemplo: Energı́a promedio para la exponencial imaginaria de
tiempo continuo en un perı́odo T0 . . . . . . . . . . . . . . . . . . 74
2.11.9 Ejemplo: Potencia promedio para la exponencial imaginaria de
tiempo continuo en un perı́odo T0 . . . . . . . . . . . . . . . . . . 75
2.11.10 Ejemplo: Potencia promedio para la exponencial imaginaria de
tiempo continuo en lapso de tiempo infinito . . . . . . . . . . . . 75
2.11.11 Ejemplo: Energı́a y potencia para señales de tiempo discreto . . . 75
2.12 Transformaciones de la variable independiente . . . . . . . . . . . . . . . 78
2.12.1 Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
2.12.2 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
2.13 Respuestas a algunas preguntas . . . . . . . . . . . . . . . . . . . . . . . 83

3 Composición de señales 84
3.1 Composición de señales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.1.1 Ventanas rectangulares . . . . . . . . . . . . . . . . . . . . . . . . 84
3.1.2 Sumatoria de señales desplazadas en el tiempo . . . . . . . . . . . 85
3.1.3 Sumatoria de impulsos desplazadas en el tiempo . . . . . . . . . . 85
3.2 Señales de tiempo discreto . . . . . . . . . . . . . . . . . . . . . . . . . . 85
3.2.1 El impulso unitario . . . . . . . . . . . . . . . . . . . . . . . . . . 85
3.2.2 El impulso unitario desplazado . . . . . . . . . . . . . . . . . . . 85
3.2.3 El impulso multiplicado por un coeficiente . . . . . . . . . . . . . 89
3.2.4 La suma de dos impulsos desplazados en el tiempo y multiplicados
por coeficientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
3.2.5 La suma de N impulsos desplazados en el tiempos y multiplicados
por coeficientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
3.2.6 La señal como combinación lineal de impulsos . . . . . . . . . . . 90
3.2.7 La señal multiplicada con un impulso . . . . . . . . . . . . . . . . 92
3.2.8 Escalado temporal . . . . . . . . . . . . . . . . . . . . . . . . . . 92
3.2.9 Tiempo inverso . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
3.2.10 Desplazamiento en el tiempo . . . . . . . . . . . . . . . . . . . . . 94
3.2.11 Tren de impulsos . . . . . . . . . . . . . . . . . . . . . . . . . . . 94

3
3.3 Señales de tiempo continuo . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3.3.1 El pulso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3.3.2 El pulso desplazado . . . . . . . . . . . . . . . . . . . . . . . . . . 95
3.3.3 El impulso como lı́mite del pulso . . . . . . . . . . . . . . . . . . 95
3.3.4 La señal aproximada por una combinación lineal de pulsos . . . . 97
3.3.5 La señal como combinación lineal de impulsos . . . . . . . . . . . 98
3.3.6 Desplazamiento en el tiempo . . . . . . . . . . . . . . . . . . . . . 99
3.3.7 Escalado temporal . . . . . . . . . . . . . . . . . . . . . . . . . . 99
3.3.8 Tiempo inverso . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
3.3.9 Tren de impulsos . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
3.3.10 Muestreo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
3.4 Operaciones útiles, para tiempo discreto . . . . . . . . . . . . . . . . . . 100
3.4.1 Decimación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
3.4.2 Interpolación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100

4 Sistemas (y señales) 101


4.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
4.1.1 Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
4.1.2 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
4.2 Modelos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
4.2.1 Ecuaciones diferenciales . . . . . . . . . . . . . . . . . . . . . . . 105
4.2.2 Ecuaciones de diferencias . . . . . . . . . . . . . . . . . . . . . . . 106
4.2.3 De ecuación diferencial a ecuación de diferencias . . . . . . . . . . 107
4.3 Propiedades de sistemas . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
4.3.1 Sistemas sin memoria o estáticos . . . . . . . . . . . . . . . . . . 108
4.3.2 Sistemas con memoria o dinámicos . . . . . . . . . . . . . . . . . 109
4.3.3 Sistemas inversos . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
4.3.4 Sistemas causales . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
4.3.5 Sistemas no causales . . . . . . . . . . . . . . . . . . . . . . . . . 109
4.3.6 Sistemas dinámicos autónomos . . . . . . . . . . . . . . . . . . . 110
4.3.7 Sistemas dinámicos no autónomos . . . . . . . . . . . . . . . . . . 110
4.3.8 Linealidad homogénea . . . . . . . . . . . . . . . . . . . . . . . . 111
4.3.9 Sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
4.3.10 Sistemas no lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 111
4.3.11 Puntos de equilibrio . . . . . . . . . . . . . . . . . . . . . . . . . 112
4.3.12 Sistemas dinámicos estables . . . . . . . . . . . . . . . . . . . . . 112
4.3.13 Sistemas dinámicos inestables . . . . . . . . . . . . . . . . . . . . 112
4.3.14 Sistemas invariantes en el tiempo . . . . . . . . . . . . . . . . . . 112
4.3.15 Sistemas variantes en el tiempo . . . . . . . . . . . . . . . . . . . 112
4.3.16 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
4.4 Diagrama de bloques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

4
4.5 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
4.5.1 Planteo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
4.5.2 Solución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
4.6 Para practicar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117

5 La suma de convolución 120


5.1 Deducción de la fórmula . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
5.1.1 Representación de señales en términos de impulsos . . . . . . . . 120
5.1.2 La respuesta al impulso y la suma de convolución . . . . . . . . . 122
5.2 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
5.2.1 Convolución con un impulso desplazado . . . . . . . . . . . . . . . 124
5.2.2 Convolución con varios impulsos desplazados . . . . . . . . . . . . 125
5.3 La suma de convolución paso a paso . . . . . . . . . . . . . . . . . . . . . 125
5.4 Cálculo de la suma de convolución en forma gráfica . . . . . . . . . . . . 126
5.5 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
5.5.1 Convolución de señales de duración finita . . . . . . . . . . . . . . 127
5.5.2 Convolución con un impulso . . . . . . . . . . . . . . . . . . . . . 134
5.5.3 Convolución de una señal con una ventana rectangular . . . . . . 136
5.5.4 Convolución de señales infinitas . . . . . . . . . . . . . . . . . . . 137
5.5.5 Convolución de una señal consigo misma . . . . . . . . . . . . . . 139

6 Sistemas LIT y la convolución 140


6.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
6.2 Propiedades de los sistemas LIT . . . . . . . . . . . . . . . . . . . . . . . 140
6.2.1 La propiedad conmutativa . . . . . . . . . . . . . . . . . . . . . . 140
6.2.2 La propiedad distributiva . . . . . . . . . . . . . . . . . . . . . . 141
6.2.3 La propiedad asociativa . . . . . . . . . . . . . . . . . . . . . . . 141
6.2.4 Preguntas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
6.2.5 Sistemas LIT con y sin memoria . . . . . . . . . . . . . . . . . . . 143
6.2.6 Preguntas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
6.2.7 Sistemas LIT causales . . . . . . . . . . . . . . . . . . . . . . . . 143
6.2.8 Preguntas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
6.2.9 Sistemas LIT estables e inestables . . . . . . . . . . . . . . . . . . 144
6.2.10 Respuesta de un sistema LIT en tiempo discreto a una entrada
exponencial imaginaria . . . . . . . . . . . . . . . . . . . . . . . . 145
6.2.11 Respuestas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146

7 La integral de convolución 147


7.1 Deducción de la fórmula . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
7.1.1 Una señal como lı́mite de una sumatoria . . . . . . . . . . . . . . 147
7.1.2 La respuesta al impulso y la convolución . . . . . . . . . . . . . . 150

5
7.2 Cálculo de la suma de convolución en forma gráfica . . . . . . . . . . . . 151
7.3 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
7.3.1 Convolución de una señal con un impulso desplazado . . . . . . . 152
7.3.2 Dos señales infinitas . . . . . . . . . . . . . . . . . . . . . . . . . 152
7.3.3 Una señal finita y otra infinita . . . . . . . . . . . . . . . . . . . . 153
7.3.4 Dos señales limitadas en tiempo . . . . . . . . . . . . . . . . . . . 154

8 Sistemas LIT y la convolución 155


8.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
8.2 Propiedades de los sistemas LIT . . . . . . . . . . . . . . . . . . . . . . . 155
8.2.1 La propiedad conmutativa . . . . . . . . . . . . . . . . . . . . . . 155
8.2.2 La propiedad distributiva . . . . . . . . . . . . . . . . . . . . . . 156
8.2.3 La propiedad asociativa . . . . . . . . . . . . . . . . . . . . . . . 156
8.2.4 Preguntas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
8.2.5 Sistemas LIT con y sin memoria . . . . . . . . . . . . . . . . . . . 156
8.2.6 Preguntas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
8.2.7 Sistemas LIT causales y no causales . . . . . . . . . . . . . . . . . 157
8.2.8 Sistemas LIT estables e inestables . . . . . . . . . . . . . . . . . . 157
8.2.9 Preguntas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158

9 Series de Fourier (Tiempo continuo) 159


9.1 Motivación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
9.2 Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
9.2.1 Señales periódicas armónicamente relacionadas . . . . . . . . . . . 160
9.3 Definición de serie de Fourier . . . . . . . . . . . . . . . . . . . . . . . . 161
9.3.1 Serie de Fourier (exponenciales imaginarias) . . . . . . . . . . . . 161
9.3.2 Serie de Fourier (senos “y” cosenos) . . . . . . . . . . . . . . . . . 162
9.3.3 Serie de Fourier (senos con fase) . . . . . . . . . . . . . . . . . . . 162
9.3.4 Serie de Fourier (cosenos con fase) . . . . . . . . . . . . . . . . . . 163
9.4 Cálculo de coeficientes de la serie de Fourier . . . . . . . . . . . . . . . . 163
9.5 Condiciones para la convergencia de las series de Fourier . . . . . . . . . 165
9.5.1 Condición de la energı́a finita . . . . . . . . . . . . . . . . . . . . 165
9.5.2 Condiciones de Dirichlet (alternativas) . . . . . . . . . . . . . . . 165
9.6 Propiedades de las series de Fourier . . . . . . . . . . . . . . . . . . . . . 166
9.6.1 Linealidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
9.6.2 Desplazamiento en el tiempo . . . . . . . . . . . . . . . . . . . . . 168
9.6.3 Inversión temporal . . . . . . . . . . . . . . . . . . . . . . . . . . 168
9.6.4 Escalado temporal . . . . . . . . . . . . . . . . . . . . . . . . . . 169
9.6.5 Multiplicación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
9.6.6 Conjugación y simetrı́a de la conjugación . . . . . . . . . . . . . . 170
9.6.7 Funciones pares . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170

6
9.6.8 Funciones impares . . . . . . . . . . . . . . . . . . . . . . . . . . 171
9.6.9 Relación de Parseval . . . . . . . . . . . . . . . . . . . . . . . . . 171
9.6.10 Diferenciación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
9.6.11 Integración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
9.7 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
9.7.1 Tren de pulsos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
9.7.2 Tren de pulsos desfasados . . . . . . . . . . . . . . . . . . . . . . 175
9.7.3 Tren de pulsos alternados . . . . . . . . . . . . . . . . . . . . . . 180
9.7.4 Suma de señales periódicas . . . . . . . . . . . . . . . . . . . . . 182
9.7.5 Una función periódica par . . . . . . . . . . . . . . . . . . . . . . 185
9.7.6 Una función periódica impar . . . . . . . . . . . . . . . . . . . . 189
9.8 Sistema lineal excitado con una serie de Fourier . . . . . . . . . . . . . . 192
9.9 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194

10 Transformada de Fourier de tiempo continuo 195


10.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
10.2 Sı́ntesis y análisis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
10.2.1 Teorı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
10.2.2 Prestar atención . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
10.2.3 Concepto de la Transformada de Fourier . . . . . . . . . . . . . . 198
10.3 Convergencia de la Transformada de Fourier . . . . . . . . . . . . . . . . 198
10.3.1 Energı́a finita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
10.3.2 Condiciones de Dirichlet . . . . . . . . . . . . . . . . . . . . . . . 198
10.3.3 Pregunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
10.4 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
10.4.1 Impulso temporal . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
10.4.2 Impulso temporal desplazado . . . . . . . . . . . . . . . . . . . . 199
10.4.3 Impulso en frecuencia . . . . . . . . . . . . . . . . . . . . . . . . . 200
10.4.4 Tren de impulsos en frecuencia . . . . . . . . . . . . . . . . . . . 200
10.4.5 Tren de impulsos temporal . . . . . . . . . . . . . . . . . . . . . . 200
10.4.6 Pulso rectangular en tiempo . . . . . . . . . . . . . . . . . . . . . 201
10.4.7 Pulso rectangular en frecuencia . . . . . . . . . . . . . . . . . . . 201
10.4.8 Exponencial decreciente derecha . . . . . . . . . . . . . . . . . . . 202
10.5 Propiedades de la Transformada de Fourier de tiempo continuo . . . . . . 203
10.5.1 Linealidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
10.5.2 Desplazamiento en el tiempo . . . . . . . . . . . . . . . . . . . . . 203
10.5.3 Conjugación y simetrı́a del conjugado . . . . . . . . . . . . . . . . 204
10.5.4 Diferenciación en tiempo . . . . . . . . . . . . . . . . . . . . . . . 205
10.5.5 Diferenciación en frecuencia . . . . . . . . . . . . . . . . . . . . . 206
10.5.6 Escalado en tiempo y frecuencia . . . . . . . . . . . . . . . . . . . 206
10.5.7 Convolución en el dominio del tiempo . . . . . . . . . . . . . . . . 207

7
10.5.8 Convolución en el dominio de la frecuencia . . . . . . . . . . . . . 208
10.5.9 Traslación en frecuencia . . . . . . . . . . . . . . . . . . . . . . . 208
10.5.10 Relación de Parseval . . . . . . . . . . . . . . . . . . . . . . . . . 209
10.5.11 Dualidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
10.5.12 Integración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210

11 La transformada de Laplace 212


11.1 Definiciones de la transformada de Laplace . . . . . . . . . . . . . . . . . 212
11.1.1 Transformada de Laplace bilateral . . . . . . . . . . . . . . . . . . 212
11.1.2 Transformada de Laplace unilateral . . . . . . . . . . . . . . . . . 212
11.2 Relación entre la Transformada de Laplace bilateral y la Transformada
de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
11.3 Existencia de la TL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
11.4 Relación entre la transformada de Laplace y la integral de convolución . 214
11.5 Región de convergencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
11.5.1 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
11.5.2 Reglas para determinar la región de convergencia de la TL . . . . 216
11.5.3 Ejemplos de determinación de región de convergencia . . . . . . . 216
11.6 Comparación entre ambas TL . . . . . . . . . . . . . . . . . . . . . . . . 217
11.6.1 Similitudes entre ambas TL . . . . . . . . . . . . . . . . . . . . . 217
11.6.2 La diferencia entre ambas TL . . . . . . . . . . . . . . . . . . . . 217
11.7 La transformada de Laplace bilateral . . . . . . . . . . . . . . . . . . . . 218
11.7.1 Par función transformada . . . . . . . . . . . . . . . . . . . . . . 218
11.7.2 Señales temporales y sus transformadas . . . . . . . . . . . . . . . 218
11.8 Demostraciones de las propiedades . . . . . . . . . . . . . . . . . . . . . 219
11.8.1 Linealidad de la transformada de Laplace bilateral . . . . . . . . . 220
11.8.2 Señal desplazada en el tiempo . . . . . . . . . . . . . . . . . . . . 220
11.8.3 Señal modulada por una exponencial ea t . . . . . . . . . . . . . . 221
11.8.4 Conjugación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
11.8.5 Convolución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
11.8.6 Derivación en el dominio del tiempo . . . . . . . . . . . . . . . . . 222
11.8.7 Integración en el dominio del tiempo . . . . . . . . . . . . . . . . 223
11.8.8 Derivación en el dominio s . . . . . . . . . . . . . . . . . . . . . . 223
11.9 Tabla de propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
11.10La Transformada Laplace Unilateral . . . . . . . . . . . . . . . . . . . . . 224
11.10.1 Motivación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
11.10.2 Tabla de propiedades de la Transformada Laplace unilateral . . . 226
11.10.3 La TL de la derivada de una función . . . . . . . . . . . . . . . . 226
11.10.4 Teorema del valor final . . . . . . . . . . . . . . . . . . . . . . . . 228
11.10.5 Teorema del valor inicial . . . . . . . . . . . . . . . . . . . . . . . 229
11.10.6 La integral de convolución . . . . . . . . . . . . . . . . . . . . . . 229

8
11.10.7 El producto de dos señales . . . . . . . . . . . . . . . . . . . . . . 230
11.10.8 Potencias de t . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
11.10.9 Funciones exponenciales y trigonométricas . . . . . . . . . . . . . 230
11.10.10Funciones exponenciales e hiperbólicas . . . . . . . . . . . . . . . 230
11.10.11Funciones trigonométricas e hiperbólicas . . . . . . . . . . . . . . 231
11.10.12Impulso unitario o Delta de Dirac . . . . . . . . . . . . . . . . . . 231
11.10.13Función escalón unitario . . . . . . . . . . . . . . . . . . . . . . . 231
11.10.14Funciones generales . . . . . . . . . . . . . . . . . . . . . . . . . . 232

12 Transformada de Laplace y ecuaciones diferenciales 233


12.1 Respuesta de sistemas lineales para entradas exponenciales complejas . . 233
12.1.1 Cálculo mediante convolución . . . . . . . . . . . . . . . . . . . . 233
12.1.2 Calculo de y(t) con la ecuación diferencial . . . . . . . . . . . . . 235
12.2 Causalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
12.3 Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
12.4 Ecuación diferencial lineal homogénea . . . . . . . . . . . . . . . . . . . . 236
12.4.1 Ecuación homogénea de orden 2 o superior . . . . . . . . . . . . . 239
12.5 Ecuación diferencial lineal forzada con condiciones iniciales nulas . . . . . 239
12.6 Ecuación diferencial lineal forzada con condiciones iniciales no nulas . . . 240
12.6.1 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
12.7 La función de transferencia . . . . . . . . . . . . . . . . . . . . . . . . . . 242
12.8 Polos y ceros de una función de transferencia . . . . . . . . . . . . . . . . 243
12.8.1 Ejemplo uno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243
12.8.2 Ejemplo dos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
12.9 Solución completa de la ecuación diferencial con entrada exponencial com-
pleja . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
12.9.1 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
12.10Polos múltiples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246
12.11Respuesta para entradas no periódicas . . . . . . . . . . . . . . . . . . . 247
12.11.1 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
12.12Estabilidad de sistemas LIT . . . . . . . . . . . . . . . . . . . . . . . . . 249
12.12.1 Sistemas con un polo . . . . . . . . . . . . . . . . . . . . . . . . . 249
12.12.2 Sistemas con dos polos distintos . . . . . . . . . . . . . . . . . . . 250
12.12.3 Sistemas con dos polos iguales . . . . . . . . . . . . . . . . . . . . 251

13 Respuesta en frecuencia de sistemas LIT TC 253


13.1 Respuesta en frecuencia . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
13.1.1 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
13.2 Representación gráfica de la respuesta en frecuencia de un sistema LIT . 255
13.2.1 Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
13.3 Gráficos de Bode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256

9
13.3.1 Sistemas de primer orden de tiempo continuo . . . . . . . . . . . 256
13.3.2 Sistemas de segundo orden de tiempo continuo . . . . . . . . . . . 258
13.4 Diagramas de Bode para respuestas en frecuencias racionales . . . . . . . 262
13.4.1 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263

14 Muestreo en tiempo 265


14.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
14.1.1 Definiciones básicas . . . . . . . . . . . . . . . . . . . . . . . . . . 265
14.2 Muestreo por modulación con un tren de impulsos, tiempo continuo . . . 266
14.3 Teorema del muestreo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
14.4 Reconstrucción ideal de señales muestreadas . . . . . . . . . . . . . . . . 268
14.5 Reconstrucción real de señales muestreadas . . . . . . . . . . . . . . . . . 271

15 Series de Fourier (Tiempo discreto) 274


15.1 Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274
15.1.1 Señales periódicas . . . . . . . . . . . . . . . . . . . . . . . . . . . 274
15.1.2 Señales periódicas armónicamente relacionadas . . . . . . . . . . . 274
15.2 Serie de Fourier de tiempo discreto . . . . . . . . . . . . . . . . . . . . . 275
15.2.1 Sı́ntesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275
15.2.2 Análisis, o el cálculo de coeficientes de la serie de Fourier . . . . . 276
15.2.3 Ejemplo de cálculo de los coeficientes de una serie de Fourier . . . 277
15.3 Propiedades de las series de Fourier . . . . . . . . . . . . . . . . . . . . . 278
15.3.1 Linealidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278
15.3.2 Desplazamiento en el tiempo . . . . . . . . . . . . . . . . . . . . . 278
15.3.3 Desplazamiento en frecuencia . . . . . . . . . . . . . . . . . . . . 280
15.3.4 Conjugación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280
15.3.5 Inversión temporal . . . . . . . . . . . . . . . . . . . . . . . . . . 280
15.3.6 Escalado temporal . . . . . . . . . . . . . . . . . . . . . . . . . . 280
15.3.7 Convolución periódica . . . . . . . . . . . . . . . . . . . . . . . . 281
15.3.8 Multiplicación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281
15.3.9 Primera diferencia . . . . . . . . . . . . . . . . . . . . . . . . . . 281
15.3.10 Suma corrida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281
15.3.11 Conjugación y simetrı́a de la conjugación . . . . . . . . . . . . . . 281
15.3.12 Señales reales pares . . . . . . . . . . . . . . . . . . . . . . . . . . 282
15.3.13 Señales reales impares . . . . . . . . . . . . . . . . . . . . . . . . 282
15.3.14 Parte par e impar de señales reales . . . . . . . . . . . . . . . . . 282
15.3.15 Relación de Parseval . . . . . . . . . . . . . . . . . . . . . . . . . 282
15.4 Cálculo de los coeficientes, otra vez . . . . . . . . . . . . . . . . . . . . . 283
15.4.1 FFT, Teorı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
15.4.2 FFT, práctica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284
15.4.3 Como usar la función fft de Matlab/Octave . . . . . . . . . . . . . 285

10
15.4.4 Las diferencias entre notas musicales de diferentes instrumentos . 286

16 Transformada de Fourier de tiempo discreto 288


16.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288
16.2 Las ecuaciones de análisis y sı́ntesis . . . . . . . . . . . . . . . . . . . . . 290
16.2.1 Análisis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 290
16.2.2 Sı́ntesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291
16.3 Convergencia de la Transformada de Fourier . . . . . . . . . . . . . . . . 291
16.4 Transformada de Fourier para señales periódicas . . . . . . . . . . . . . . 292
16.5 Propiedades de la Transformada de Fourier de tiempo discreto . . . . . . 293
16.5.1 Ecuación de sı́ntesis . . . . . . . . . . . . . . . . . . . . . . . . . . 293
16.5.2 Ecuación de análisis . . . . . . . . . . . . . . . . . . . . . . . . . 294
16.5.3 Notación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294
16.5.4 Periodicidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294
16.5.5 Linealidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294
16.5.6 Desplazamiento en el tiempo . . . . . . . . . . . . . . . . . . . . . 294
16.5.7 Desplazamiento en frecuencia . . . . . . . . . . . . . . . . . . . . 294
16.5.8 Conjugación y simetrı́a del conjugado . . . . . . . . . . . . . . . . 295
16.5.9 Diferencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
16.5.10 Suma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
16.5.11 Diferenciación en frecuencia . . . . . . . . . . . . . . . . . . . . . 295
16.5.12 Relación de Parseval . . . . . . . . . . . . . . . . . . . . . . . . . 295
16.5.13 Convolución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296
16.5.14 Multiplicación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296

17 La transformada Zeta 297


17.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297
17.1.1 Origen de la transformada Zeta . . . . . . . . . . . . . . . . . . . 297
17.1.2 Ecuación de análisis (bilateral) . . . . . . . . . . . . . . . . . . . 298
17.1.3 Ecuación de análisis (unilateral) . . . . . . . . . . . . . . . . . . . 298
17.1.4 Ecuación de sı́ntesis . . . . . . . . . . . . . . . . . . . . . . . . . . 298
17.1.5 Aclaraciones respecto a ambas transformadas . . . . . . . . . . . 298
17.1.6 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298
17.2 La transformada Z, la transformada de Fourier, y la región de convergencia300
17.2.1 Desarrollo teórico . . . . . . . . . . . . . . . . . . . . . . . . . . . 300
17.2.2 Reglas prácticas para determinar la región de convergencia . . . . 301
17.3 La transformada Zeta bilateral . . . . . . . . . . . . . . . . . . . . . . . . 302
17.3.1 El par función temporal transformada . . . . . . . . . . . . . . . 302
17.3.2 Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302
17.3.3 Linealidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302
17.3.4 Demora n0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303

11
17.3.5 Multiplicación por n . . . . . . . . . . . . . . . . . . . . . . . . . 303
17.3.6 Convolución en z . . . . . . . . . . . . . . . . . . . . . . . . . . . 303
17.3.7 Convolución en n . . . . . . . . . . . . . . . . . . . . . . . . . . . 303
17.4 Transformada Zeta de algunas secuencias . . . . . . . . . . . . . . . . . . 303
17.4.1 Secuencia impulso unitario . . . . . . . . . . . . . . . . . . . . . . 303
17.4.2 Secuencia escalón unitario . . . . . . . . . . . . . . . . . . . . . . 303
17.5 Relación entre secuencias causales y diagramas de ceros y polos . . . . . 304
17.5.1 Secuencia exponencial causal . . . . . . . . . . . . . . . . . . . . . 304
17.5.2 Secuencia exponencial no causal . . . . . . . . . . . . . . . . . . . 304
17.5.3 Comparación entre secuencias causales y no causales . . . . . . . 305
17.5.4 Secuencias bilaterales . . . . . . . . . . . . . . . . . . . . . . . . . 305
17.6 La transformada Zeta Inversa . . . . . . . . . . . . . . . . . . . . . . . . 305
17.6.1 Primer método . . . . . . . . . . . . . . . . . . . . . . . . . . . . 306
17.6.2 Segundo método . . . . . . . . . . . . . . . . . . . . . . . . . . . 307
17.6.3 Tercer método . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308
17.6.4 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308
17.7 Transformada Zeta Unilateral . . . . . . . . . . . . . . . . . . . . . . . . 309
17.7.1 Algunos comentarios . . . . . . . . . . . . . . . . . . . . . . . . . 309
17.7.2 Propiedades de la transformada Z unilateral . . . . . . . . . . . . 309

18 Ecuaciones de diferencias finitas 311


18.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311
18.2 Ecuación de diferencias con entrada exponencial compleja . . . . . . . . . 311
18.2.1 Solución de una ecuación de diferencias homogénea . . . . . . . . 312
18.2.2 Solución particular de una ecuación de diferencias para una en-
trada z n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 314
18.2.3 Solución general de la ecuación de diferencias para una entrada z n 316
18.3 Definición de la función de transferencia para sistemas de tiempo discreto 316
18.3.1 Ejemplo uno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317
18.3.2 Ejemplo dos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317
18.3.3 Pregunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317
18.4 Polos y ceros de la función de transferencia . . . . . . . . . . . . . . . . . 318
18.4.1 Solución general de la ecuación de diferencias con entrada expo-
nencial compleja . . . . . . . . . . . . . . . . . . . . . . . . . . . 318
18.5 Respuesta a exponenciales complejas . . . . . . . . . . . . . . . . . . . . 319
18.6 Solución general de la ecuación de diferencias . . . . . . . . . . . . . . . 319
18.6.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319
18.6.2 Sistemas causales . . . . . . . . . . . . . . . . . . . . . . . . . . . 320
18.6.3 Resumen: La función de transferencia . . . . . . . . . . . . . . . . 322
18.6.4 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 322
18.7 Estabilidad de sistemas LIT . . . . . . . . . . . . . . . . . . . . . . . . . 324

12
18.7.1 Sistemas con un polo . . . . . . . . . . . . . . . . . . . . . . . . . 324
18.7.2 Sistemas con dos polos . . . . . . . . . . . . . . . . . . . . . . . . 325
18.8 Aplicación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 326
18.8.1 Red eléctrica en escalera . . . . . . . . . . . . . . . . . . . . . . . 326

19 Respuesta en frecuencia de sistemas LIT TD 327


19.1 Respuesta en frecuencia (tiempo discreto) . . . . . . . . . . . . . . . . . 327
19.1.1 Respuesta de un sistema LIT a una entrada periódica . . . . . . . 327
19.1.2 Respuesta de un sistema LIT estable a entradas con transformada
Z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 328
19.2 Representación gráfica de la respuesta en frecuencia de un sistema LIT . 329
19.2.1 Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 329
19.3 Gráficos de Bode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 330
19.3.1 Sistema de tiempo discreto con un polo . . . . . . . . . . . . . . . 330
19.3.2 Sistema de tiempo discreto con dos polos . . . . . . . . . . . . . . 332

20 Filtros 333
20.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333
20.1.1 ¿Qué es un filtro? . . . . . . . . . . . . . . . . . . . . . . . . . . . 333
20.2 Definiciones básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 334
20.2.1 Especificaciones para filtros . . . . . . . . . . . . . . . . . . . . . 335
20.3 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335
20.3.1 Un filtro pasabajos de tiempo continuo . . . . . . . . . . . . . . . 335
20.3.2 Un filtro pasaaltos de tiempo continuo . . . . . . . . . . . . . . . 338
20.4 Filtros especiales de tiempo continuo . . . . . . . . . . . . . . . . . . . . 339
20.4.1 Filtros Butterworth . . . . . . . . . . . . . . . . . . . . . . . . . . 339
20.4.2 Filtros Chebyshev . . . . . . . . . . . . . . . . . . . . . . . . . . . 340
20.4.3 Filtros elı́pticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 343
20.5 Pasabajo, frecuencia no normalizado . . . . . . . . . . . . . . . . . . . . 344
20.6 Transformación de pasabajo a pasaalto . . . . . . . . . . . . . . . . . . . 344
20.7 Pasaje de pasabajo a pasabanda . . . . . . . . . . . . . . . . . . . . . . . 344
20.8 Pasaje de pasabajo a suprimebanda . . . . . . . . . . . . . . . . . . . . . 344
20.9 Filtros de tiempo discreto . . . . . . . . . . . . . . . . . . . . . . . . . . 344
20.9.1 Filtro recursivo o de respuesta al impulso infinita IIR . . . . . . . 345
20.9.2 Filtros de respuesta al impulso finita FIR . . . . . . . . . . . . . 345
20.9.3 Diseño de filtros de tiempo discreto con respuesta al impulso in-
finita (IIR) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 346
20.10Funciones Matlab usadas para el diseño de filtros . . . . . . . . . . . . . 348

13
21 Ejemplos 353
21.1 FFT con eje de frecuencia . . . . . . . . . . . . . . . . . . . . . . . . . . 353
21.2 Filtro y FTT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353
21.3 Diseño de filtros de tiempo discreto . . . . . . . . . . . . . . . . . . . . . 355
21.3.1 Filtro Butterworth pasabajo . . . . . . . . . . . . . . . . . . . . . 355
21.3.2 Filtro Butterworth pasabanda . . . . . . . . . . . . . . . . . . . . 355
21.3.3 Filtro eliptico pasabanda . . . . . . . . . . . . . . . . . . . . . . . 356
21.3.4 Filtro eliptico suprimebanda . . . . . . . . . . . . . . . . . . . . . 357

22 Puntos sin terminar 358


22.1 Conclusiones sobre filtros de tiempo discreto . . . . . . . . . . . . . . . . 358
22.2 Transformación de filtros de tiempo continuo a tiempo discreto . . . . . . 358
22.2.1 Transformación bilineal . . . . . . . . . . . . . . . . . . . . . . . . 359
22.3 Sumario de representaciones de señales en los dominios del tiempo y la
frecuencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 360

14
Capı́tulo 1

Software para modelización, análisis,


procesamiento y sı́ntesis de señales

1.1 Introducción a Matlab / Octave


Matlab y Octave son intérpretes que nos permite realizar cálculos numéricos, incluso con
números complejos, vectores y matrices, y realizar gráficos en distintas representaciones.
En este apunte, mostramos algunas de las operaciones y comandos básicos para la
operación interactiva.

1.1.1 La lı́nea de comandos


1. Cuando Matlab/Octave comienza a ejecutarse, aparece una ventana tipo consola
(sin interfaz gráfica), y una lı́nea marcada con el sı́mbolo >>. Esta es la lı́nea de
comandos, donde escribimos las diferentes ordenes.

2. Para probar podemos escribir

2 + 2
3 - 5
3 / 1.4
2 * pi / 4
(1 + 2 * i) / (1 - 2 * i)

Nota: i es la unidad imaginaria.

3. En las últimas versiones de Matlab/Octave, a medida que vamos escribiendo co-


mandos, estos quedan registrados a una historia de comandos, que podemos revisar
más tarde y recordar lo hecho.

15
4. El comando diary nos permite grabar en un archivo de texto todas las ordenes,
datos y resultados de una sesión. Para usar el comando diary escribamos en la
lı́nea de comando

>> diary ’archivo.txt’

5. La idea de esta clase es generar un archivo, denominado archivo.txt con todas


las órdenes dadas.

1.1.2 El sistema de ayuda


1. Para ver como se usa un comando es posible escribir en la lı́nea de comando

>> help comando

donde comando es el nombre del comando que nos interesa.

2. La orden help comando nos da una descripción del comando y posiblemente una
lista de comandos relacionados.

>> help diary

1.1.3 Valores escalares


1. Como hemos visto, operamos con números reales y complejos, también llamados
escalares.

2. La unidad imaginaria puede escribirse i o j.

3. Probemos los siguientes comandos

(1 + 2 * j) * (1 - 2 * i)
45 * (56 + i) - 34 * (16 - 32 * j)

1.1.4 Valores matriciales o arreglos


1. Matlab/Octave trabaja también con arreglos de reales y complejos.

2. Podemos crear un vector fila escribiendo

[ 1 + 2 * i 1 - 3 * i]

[ 1 + 2 * i, 1 - 3 * i]

16
3. Podemos crear un vector columna escribiendo

[ 1 + 2 * i; 1 - 3 * i]

[ 1 + 2 * i
1 - 3 * i]

1.1.5 Metáfora de Matlab/Octave


Podemos suponer, a modo de metáfora, que disponemos de un pizarrón donde escribimos
las cuentas que vamos haciendo, lı́nea por lı́nea.

1.1.6 Variables
1. A diferencia de una calculadora, Matlab/Octave permite asignar nombres a los
diferentes valores. Esta combinación de nombre y valor recibe el nombre de vari-
able.

2. A continuación vemos ejemplos de los distintos tipos de variables. La constante i


es la unidad imaginaria, y ya está definida en Matlab. El sı́mbolo % se usa para
indicar que aquello escrito a su derecha hasta el fin de la lı́nea es un comentario

3. Pruebe ingresar lo que aparece entre >> y %

>> a = 5 % escalar real


>> b = 5 + 10 * i % escalar complejo.
>> c = [1 2 3] % vector fila
>> d = [1, 2, 3] % otra forma de escribir un vector fila
>> e = [1; 2; 3] % un vector columna
>> f = [1, 2, 3; 4, 5, 6; 7, 8, 9]; % una matriz 3 x 3

4. Matlab considera comentario todo lo que aparece despúes del sı́mbolo %, y no lo


ejecuta.

1.1.7 Continuando con la metáfora de Matlab / Octave


1. Las variables son similares a divisiones que dibujamos en nuestro pizarrón, en las
cuales escribimos los valores y los nombres respectivos.

2. El espacio ocupado por las variables se denomina espacio de trabajo.

17
Los comandos who y what
1. El comando who da una lista de las variables presentes en el espacio de trabajo
(workspace)

2. Pruebe ingresar

>> help who

3. El comando what da una lista de archivos matlab presentes en un directorio.


Verifique cual es el directorio por defecto.

4. Pruebe ingresar

>> help what

5. Pruebe ingresar

>> who
>> what

1.1.8 Operaciones con números complejos


1. A continuación vemos algunas de las operaciones que pueden realizarse con números
complejos

2. Pruebe ingresar lo que aparece entre >> y %

>> x = 3 + 4 * i
>> real(x) % 3
>> imag(x) % 4
>> conj(x) % 3 - 4 * i
>> abs(x) % 5
>> angle(x) % 0.9273

1.1.9 Raı́ces y coeficientes de un polinomio


1. Supongamos que tenemos un polinomio

bn xn + bn−1 xn−1 + ... + b0 = 0. (1.1)

Para hallar las raı́ces del polinómio podemos colocar los coeficientes del polinomio
en un vector y usar la función roots

18
p = [bn, ..., b0];
roots(p)

2. Supongamos que tenemos que hallar las raı́ces de un polinomio

x2 + 2x + 3 = 0. (1.2)

Escribamos entonces

p = [1,2,3];
roots(p)

3. Supongamos ahora que tenemos las raı́ces y necesitamos hallar los coeficientes del
polinomio. Podemos escribir entonces

>> r = [-1.0, 2.7, -3.1, -3.1];


>> poly(r)

4. Por ejemplo, si las raı́ces son

1, −1 + 2i, −1 − 2i, (1.3)

entonces para hallar los coeficientes del polinomio, debemos escribir

>> r = [1,-1+2*i,-1-2*i];
>> poly(r)

5. Pruebe con

>> p = [1, 2, 3, 4, 5];


% el vector correspondiente al polinomio x^4+2x^3+3x^2+4x+5
>> r = roots(p)
>> poly(r)

6. ¿Cuál le parece que es el resultado de la siguiente orden?

poly(roots(p))

7. Pruebe las siguientes órdenes

>> help roots


>> help poly

19
1.1.10 Generación de vectores y matrices
1. Matlab permite la generación de valores y su asignación a vectores y matrices
mediante un mecanismo sumamente eficiente.

2. Por ejemplo, supongamos que deseamos obtener un vector con una lista de números
que comienza en 1, termina en 2 con incrementos de 0.1. Escribiendo

>> t = 1:0.1:2

se obtiene el vector deseado. Observe que t es un vector fila, es decir, está formado
por una fila de once columnas (1 × 11).

3. Si deseamos generar t como un vector columna debemos escribir

>> t = (1:0.1:2)’

4. Practique los siguientes puntos

(a) Genere un vector que contenga valores entre −2 y 2 separados 0.01.


(b) En especial, para generar matrices llenas de ceros o unos podemos usar las
funciones Zeros y Ones, respectivamente. Encuentre como se usan estas
funciones y haga un ejemplo con cada una.

1.1.11 Operaciones sobre vectores y matrices, primera parte


1. Matlab permite realizar operaciones con matrices siempre que sus dimensiones
sean compatibles. Por lo tanto, primero veremos cuál es la función que nos permite
averiguar las medidas de una variable.

2. Pruebe los siguientes comandos

>> t = 1:0.1:2;
>> size(t)
>> size(t’)

3. Las operaciones de suma, resta y multiplicación por escalares son muy simples.
Pruebe los siguientes comandos

>> t + 2
>> t - 2
>> t * 2

20
4. Estas operaciones se realizan sumando 2, restando 2 y multiplicando por 2 cada el-
emento del vector. De la misma forma se pueden aplicar funciones trigonométricas

>> cos(t)
>> sin(2 * t - 1)

5. Supongamos ahora que queremos elevar al cuadrado cada elemento de un vector.


Pruebe con los comandos

>> t .* t
>> t .^2

6. Para realizar el producto de dos vectores escriba

>> t’ * t
>> t * t’

Indique la diferencia entre ambas operaciones

1.1.12 Operaciones sobre vectores y matrices, segunda parte


Es posible realizar operaciones vectoriales como el producto o la exponenciación ele-
mento a elemento, como la suma o la resta.

1. Definamos

x = [-1 2]
y = [3 4]

2. Si calculamos z = x + y resulta z = [(−1 + 3), (2 + 4)].

3. Si calculamos z = x ∗ y obtenemos un mensaje de error, diciendo que los vectores


no tienen dimensiones adecuadas para ser multiplicados. ¿Cómo podemos obtener
[(−1 ∗ 3), (2 ∗ 4)]?.

4. Es posible emplear el operador .∗ para multiplicar elemento a elemento. Pruebe

x .* y

y obtendrá

[-3 8]

21
5. Lo mismo se puede hacer con la división

x ./ y

y la exponenciación

x .^ y

x .^ 2

1.1.13 Operaciones sobre vectores y matrices, tercera parte


1. Ingresemos un vector

v = [1, 2, 3, 4, 5, 6, 7]

2. Podemos manipular los valores almacenados en un vector v empleando la notación


v(i), donde i es un número entero mayor que 0. Pruebe

v(1)

3. También podemos manipular una parte del vector v escribiendo v(i:j), donde i
es un número entero mayor que 0, y i <= j. Pruebe

v(2:7)
v(1:6)
v(2:7) - v(1:6)

4. Observe que también es posible escribir

v(2:end) - v(1:end-1)

5. Matlab/Octave tiene una extensa librerı́a de funciones aplicables a vectores y


matrices. A continuación mostramos una pequeña tabla representativa

Comando Resultado
det determinante de una matriz
eig autovalores y autovectores
inv inversa matricial
svd valores singulares de una matriz
cond numero de condicion de una matriz

22
6. Supongamos un sistema de 2 ecuaciones con dos incógnitas

Ax = b (1.4)

donde

A = [ 1, 2; 2, 1];
b = [ 1; 2];

(a) Como se puede resolver este sistema de ecuaciones con alguna de las funciones
indicadas arriba?
x = inv(A) * b;
(b) Como puede asegurar que el resultado es correcto?
x = inv(A) * b;
e = A * x - b;
e’ * e % e’ es el vector transpuesto
(c) Resuelva los sistemas de ecuaciones con los siguientes coeficientes y calcule
los errores correspondientes
" # " #
1 1 0
A1 = , b1 = , (1.5)
−1 1 1
" # " #
100.0 100.0 0
A2 = , b2 = . (1.6)
100.0 100.0 + 5 ∗ eps 1

(d) ¿Para que sirve la variable eps?


(e) Escriba un pequeño resumen del uso de las operaciones matriciales empleadas
hasta ahora junto con sus conclusiones.
(f) Busque en la ayuda de Matlab/Octave el listado de operaciones matriciales
disponibles.

1.1.14 Graficación de funciones


1. Para graficar funciones existen en Matlab/Octave distintos comandos.
2. Escriba

>> t = 0:0.1: 2* pi;


>> y = cos(2 * t - 1);
>> figure(1); plot(t,y);
>> figure(2); stem(t,y);

23
3. Como ve, f igure sirve para generar distintas ventanas de graficación, plot recon-
struye una función continua a partir de una secuencia de valores discretos uniendo
los puntos con rectas, y stem grafica una secuencia de valores discretos.

4. Para obtener su propia interpretación de estos comandos escriba

>> help figure


>> help plot
>> help stem

5. Como puede ver, estos comandos tienen muchas opciones y están relacionadas con
muchos otros comandos. Por ejemplo, si desea generar distintos distintos tipos de
lı́neas y colores para los gráficos puede escribir plot (t, y, s) donde s es un
string o cadena de carácteres del tipo abc donde a es cualquiera de los siguientes
códigos

y (yellow) amarillo,
m (magenta o violeta),
c (cyan o celeste),
r (red o rojo),
g (green) verde, b (blue)
azul, w (white), k (black) negro

b es cualquiera de los siguientes códigos

. punto,
o circulo,
x equis,
* asterisco,
s (square) cuadrado,
d diamante o rombo,
v la letra v (abajo),
< menor (izquierda),
> mayor (derecha),
^ carat (arriba),
p pentagrama,
h hexagrama

y c es cualquiera de los siguientes códigos

24
- solida,
: punteada,
-. barra y punto,
-- barra.

6. Por ejemplo,

>> plot(t,y,’c+:’)

dibuja una lı́nea color celeste con la interpolación punteada uniendo las cruces en
cada dato.

7. Observe que con grid puede superponer una grilla al dibujo, con xlabel coloca un
tı́tulo al eje de coordenadas, ylabel coloca un tı́tulo al eje de absisas, title coloca
un tı́tulo al gráfico y clf borra el gráfico anterior si lo hubiera. Pruebe

>> t = 0:0.1:2*pi;
>> clf; plot(t,cos(t),’m:o’);
>> grid;
>> xlabel(’t’);
>> ylabel(’cos(t)’);
>> title(’funci\’{o}n peri\’{o}dica’); % Latex para acentos, solo en Matlab

8. Un comando que nos resultará útil es subplot. Nos permite componer distintos
subgráficos en una misma ventana. Pruebe

>> clf;
>> subplot(3,2,1); plot(t,cos(t));
>> subplot(3,2,2); stem(t,cos(t));
>> subplot(3,2,3); plot(t,sin(t));
>> subplot(3,2,4); stem(t,sin(t));
>> subplot(3,2,5); plot(t,tan(t));
>> subplot(3,2,6); stem(t,tan(t));
>> help subplot

1.1.15 Como guardar gráficos en archivos postcript, Matlab


1. Supongamos que hemos realizado un gráfico cualquiera y lo queremos guardar en
un archivo para incluirlo después en un informe.

2. Pruebe

25
>> t = 0:0.1:2*pi;
>> clf; plot(t,cos(t));
>> print -deps cos.eps

3. Vea cuales son las opciones del comando print con el sistema de ayuda.

4. El archivo generado cos.eps puede incluirse en un documento Latex, y a contin-


uación generar un documento pdf.

1.1.16 Como guardar gráficos en archivos postcript, Octave


1. Pruebe

>> t = 0:0.1:2*pi;
>> clf; plot(t,cos(t));
>> print(’my_plot.tex’, ’-dtex’);

1.1.17 Graficación de funciones en tres dimensiones


1. Es posible graficar curvas y superficies en “tres dimensiones”. Por ejemplo, pode-
mos usar el comando plot3.

2. Busque la ayuda de plot3.

3. Haga un gráfico con plot3.

4. Grabe el gráfico en un archivo.

1.1.18 Escritura de texto, o salida de datos en forma de texto


1. Con el comando fprintf podemos escribir texto en la pantalla (salida estandar).

2. Busque la ayuda de fprintf.

3. Compare el resultado de

>> fprintf(’hola’)

con

>> fprintf(’hola\n’)

El caracter \n indica que el cursor debe moverse a la lı́nea siguiente.

26
4. Es posible escribir datos de una forma similar a la de un programa en C

>> fprintf(’entero %d real %f\n’, 1, 1.44);


>> fprintf(’strings %s\n’, ’cadenas’);

1.1.19 Iteración de comandos


1. Supongamos que deseamos armar una tabla de la función y = 2 x − 1 para todos
los valores enteros de x entre 1 y 8.

2. Podemos usar el comando

for x = 1:8
fprintf(’x = %d; y = %d\n’, x, 2 * x - 1);
end

3. Podemos usar el comando

x = 1;
while (x <= 8)
fprintf(’x = %d; y = %d\n’, x, 2 * x - 1);
x = x + 1;
end

1.1.20 Toma de decisiones


1. la función mod(x, y) calcula el resto de la división entera, o sea el número r tal
que x = q ∗ y + r, donde y > r >= 0, donde q, r, x, y son enteros.

2. Podemos tomar decisiones con el comando if, else, y elseif

for x = 1:15
if (mod(x, 2) == 0)
fprintf(’%d es par\n’, x);
elseif (mod(x, 3) == 0)
fprintf(’%d es impar y divisible por 3\n’, x);
else
fprintf(’%d es impar\n’, x);
end
end

27
1.2 Ejemplo 1
En esta sección vemos

1. Como generar una lista de 51 números,

2. Imprimir en pantalla.

3. Graficar, colocando las leyendas correspondientes a tı́tulo, eje x, eje y.

4. Guardar el gráfico en un archivo.

La idea es hacer una práctica de la escritura de un programa (aún cuando este no tenga
otra utilidad).
Hay varias de formas de generar números.

1. Con un ciclo for (Matlab)

for x = 1:51
fprintf(’%d\n’, x);
end;

2. Con un ciclo for (Octave)

for x = 1:51
fprintf(’%d\n’, x);
endfor;

3. Con un ciclo while (Matlab)

x = 1;
while (x < 51)
fprintf(’%d\n’, x);
x = x + 1;
endwhile

4. Con un ciclo while (Octave)

x = 1;
while (x < 51)
fprintf(’%d\n’, x);
x = x + 1;
endwhile

28
5. Generando un vector

x = 1:1:51

Para graficar los números generados, pruebe con

x = 1:1:51 % los datos del eje x


y = rand(size(x)) % los datos del eje y, generados al azar
plot(x, y);
title(’n\’{u}meros generados por computadora’);
xlabel(’n\’{u}meros consecutivos’);
ylabel(’n\’{u}meros al azar’);

¿Como puede variar el color y el tipo de las gráficas?


A continuación se explica como se hace para guardar los resultados en un archivo de
texto.

1.3 Ejemplo 2
En esta sección veremos como escribir y leer archivos de texto.

1. Para leer y escribir archivos de texto, necesitamos primero abrir el archivo. Para
esto usamos una función denominada “fopen”.

2. “fopen” necesita como mı́nimo un nombre de archivo como argumento de entrada.


Por eso escribimos fopen(’nombre’);.

3. “fopen” devuelve un valor que tenemos que guardar en una variable. Por lo tanto,
el comando se escribe

fid = fopen(’nombre.txt’);

La variable fid guarda un número que funciona como identificador del archivo
(“File IDentifier”). Si fopen falla, fid será igual a −1.

4. Un archivo se puede abrir para leer, para escribir, o para agregar.

5. Cuando un archivo se abre para leer, el comando es

fid = fopen(’archivo’,’r’);

Si el archivo no existe, el comando falla.

29
6. Cuando un archivo se abre para escribir, el comando es

fid = fopen(’archivo’,’w’);

Si el archivo no existe, se crea.

7. Cuando un archivo se abre para agregar, el comando es

fid = fopen(’archivo’,’a’);

Si el archivo no existe, se crea.

8. Existen otras opciones que puede ver escribiendo “help fopen”. Por el momento,
no las usaremos.

9. Para escribir texto, podemos usar “fprintf” de la siguiente forma

x = 2;
y = 3;
fprintf(fid, ‘‘x = %d; y = %f’’, x, y);

10. Para leer, podemos usar “fscanf” de la siguiente forma

A = fscanf(fid, ‘‘%d’’);

11. Una ventaja de Matlab es que muchas funciones están vectorizadas. Por lo tanto,
escribiendo

[A,s] = fscanf(fid, ‘‘%d’’,[3,10]);

podemos leer una matriz de 3 filas y 10 columnas (suponiendo que el archivo


contenga esa información.

12. Finalmente, tanto para lectura como para escritura, debemos cerrar los archivos
con el comando “fclose(fid)”.

13. Como ejemplo, veamos

% este programa escribe y lee


% una matriz de 3 filas y 10 columnas

% abro archivo texto para escritura


esc = fopen(’texto’,’w’);

30
for x = 1:3
for y = 1:10

% escribo en archivo
% identificado con la
% variable esc
fprintf(esc, ’%d ’, x + y);
end

% escribo en archivo
% identificado con la
% variable esc
fprintf(esc,’\n’);
end

% cierro archivo identificado con


% la variable esc
fclose(esc);

% abro archivo texto para lectura


lec = fopen(’texto’,’r’);

% leo archivo identificado con


% la variable lec
[A,s] = fscanf(lec,’%d’,[3,10]);

% cierro archivo identificado con


% la variable lec
fclose(lec);

14. El archivo “texto” generado resulta ser

2 3 4 5 6 7 8 9 10 11
3 4 5 6 7 8 9 10 11 12
4 5 6 7 8 9 10 11 12 13

15. La variable A coincide con lo guardado en el archivo.

16. La variable s es igual a 30, porque se leyeron correctamente 30 números enteros.

31
1.4 Ejemplo 3
En esta sección vemos como

1. Leer una tabla de datos con tres columnas a las que llamaremos a, b, y c.

2. Calcular las coordenadas u = (a+b)/c, v = c/(a−b). Evitar problemas de división


por cero.

3. Imprimir u y v.

4. Graficar los resultados u y v, colocando las leyendas correspondientes a tı́tulo, eje


x, eje y.

A continuación vemos como realizar operaciones básicas con vectores y matrices.

1. Para generar un vector de 1001 elementos, puedo escribir

x = 0:1:1000;

2. Para el cálculo del promedio debo sumar todos los elementos de x. Explique
porqué funciona el siguiente truco:

u = ones(size(x));
suma = u’ * x

Para entenderlo, pruebe un vector x con muy pocos elementos (4 o 5).

3. ¿Cómo calculan el promedio?

4. Usamos la constante eps de Matlab para protegernos contra la división por cero.

5. La constante eps es el número más pequeño distinto de 0 que maneja Matlab.

6. .Si un divisor es 0, le sumo la constante eps.

7. Para seleccionar toda la columna n de una matriz A, puedo escribir A(:,n).

8. Al escribir : en A(:, n), Matlab se encarga de usar un ciclo for para recu- perar
todas las filas de la columna n de la matriz A.

9. Para seleccionar toda la fila n de una matriz A, puedo escribir A(n,:).

10. Al escribir : en A(n, :), Matlab se encarga de usar un ciclo for para recu- perar
todas las columnas de la fila n de la matriz A.

32
11. Puedo verificar una condición sobre todo un vector sin escribir un ciclo. Supong-
amos que x = [1, 2, −3, −4, −6, 7, 8, 9]. Entonces y = x > 0 me permite obtener
y = [1, 1, 0, 0, 0, 1, 1, 1] donde los 1 en las posiciones 1, 2, 6, 7y8 de y me indican
que x(1) es mayor que 0, x(2) es mayor que 0, x(6) es mayor que 0, x(7) es mayor
que 0 y x(8) es mayor que 0, y los 0 en las posiciones 3, 4 y 5 de y me indican que
x(3) <= 0, x(4) <= 0 y x(5) <= 0.

12. Supongamos que queremos dividir todos los elementos del vector x = [1, 2, 3, 4],
por los del vector y = [2, 3, 4, 6] (ambos del mismo tamaño). Podemos dividir
elemento a elemento a los vectores x e y escribiendo x./y.

13. Ejemplo

% este programa escribe y lee


% una matriz de 10 filas y 3 columnas

% abro archivo texto para escritura


esc = fopen(’texto’,’w’);

for x = 1:10
for y = 1:3

% escribo en archivo
% identificado con la
% variable esc
fprintf(esc, ’%d ’, x + y);
end

% escribo en archivo
% identificado con la
% variable esc
fprintf(esc,’\n’);
end

% cierro archivo identificado con


% la variable esc
fclose(esc);

% abro archivo texto para lectura


lec = fopen(’texto’,’r’);

33
% leo archivo identificado con
% la variable lec
[A,s] = fscanf(lec,’%d’,[10,3]);

% cierro archivo identificado con


% la variable lec
fclose(lec);

% obtengo las filas por separado


a = A(:,1);
b = A(:,2);
c = A(:,3);
% obtengo los denominadores
% protegiendome de division por 0
ud = c + (abs(c) < eps) * eps;
vd = (a - b);
vd = vd + (abs(vd) < eps) * eps;
% observe el uso de ./ en lugar de /
u = (a + b) ./ ud; % division elemento a elemento
v = c ./ vd; % division elemento a elemento

34
Capı́tulo 2

Señales (y sistemas)

2.1 Definiciones
En este capı́tulo vemos las definiciones de señales y sistemas, sus representaciones y
propiedades. Por el momento ponemos más énfasis en el concepto de señales.

2.1.1 Señales
1. Una señal es un fenómeno natural que se propaga de un punto (emisor) a otro
(receptor) del espacio y el tiempo.

2. Empleamos señales para transmitir o almacenar información: en otras palabras,


para reproducir en el receptor una medida hecha en el emisor. (Empleamos esta
definición para evitar definir información por el momento).

3. En electrónica, las señales son cargas, corrientes y tensiones electrı́cas, ondas elec-
tromagnéticas, campos eléctricos y magnéticos.

4. Las señales se representan mediante funciones de una o más variables independi-


entes (generalmente tiempo y espacio), con alguna caracterı́stica que pueda mod-
ificarse, o modularse.

5. Por ejemplo en una radio AM, el sonido provoca en un micrófono una tensión
eléctrica variable, que se usa para modular (modificar) otra tensión eléctrica de
alta frecuencia, que aplicada a un circuito conectado a una antena de las dimen-
siones adecuadas, provoca la emisión de un campo electromagnético que transmite
información hasta el receptor, donde se producen procesos similares para obtener
un sonido similar al que excitó al micrófono en el emisor.

6. Una señal puede ser

35
(a) Determinı́stica, si conocemos el valor de su función para todo valor de sus
variables independientes. Por ejemplo x(t) = cos(2 π 50 t).
(b) Estocástica, aleatoria o probabilı́stica si sólo conocemos medidas estadı́sticas
del valor de la señal, como el promedio, la desviación estándar, etc, o fun-
ciones como la distribución de la probabilidad que la variable verifique cierta
condición. Por ejemplo, la temperatura media del verano en Rio de Janeiro.

2.1.2 Sistemas
1. Los sistemas son conjuntos de partes que interactúan entre sı́, recibiendo señales
(entradas) y generando señales (salidas).
2. Por ejemplo, un automóvil es un sistema: tiene diferentes partes, recibe entradas
por el acelerador, el freno, el embrague y el volante, y genera salidas como la
velocidad de las ruedas, y la dirección de movimiento.
3. Podemos representar a los sistemas mediante modelos. Un modelo es una de-
scripción del conjunto de señales de entrada, el conjunto de señales de salida, y la
relación entre las señales de entradas y salidas
4. El conjunto de señales de entrada de un sistema se denomina interfaz de entrada.
5. El conjunto de señales de salida se denomina interfaz de salida.
6. Un sistema puede tener múltiples modelos, de distinto tipo y exactitud. Un modelo
representa al sistema en forma parcial y aproximada.
(a) la ley de Newton F = m a es un modelo que solo describe como se acelera un
sistema de masa m con una fuerza aplicada F siempre y cuando la velocidad
sea baja, y la masa sea “normal” (dentro de los lı́mites de la experiencia
cotidiana). Si queremos saber que pasa a velocidades cercanas a la de la
luz, necesitamos emplear la teorı́a de la relatividad general para estudiar la
dinámica del sistema.
(b) Si vamos a construir una casa, podemos suponer que el terreno es plano.
Si vamos a viajar a China, tenemos que tener en cuenta que la Tierra no
es plana. Podemos suponer que es esférica, aunque en realidad tiene forma
de pera. En cambio, si deseamos lanzar un satélite y controlar su órbita,
tenemos que tener en cuenta la forma de pera
7. Generalmente se intenta construir el modelo más simple que explique las observa-
ciones realizadas sobre un sistema dado. Esta regla, llamada la navaja de Ockham,
se debe a William of Ockham, un fraile franciscano y sabio inglés del siglo catorce,
que la enunció por primera vez.

36
8. Estamos interesados en obtener modelos para construir programas de simulación
que aceptando mediciones de las entradas de un sistema natural dado, generen
resultados iguales (o aproximados con un error máximo conocido) a las salidas
que observamos en la realidad. Por ejemplo, LT Spice nos permite simular el
funcionamiento de circuitos eléctricos y electrónicos.

9. En esta materia, vamos a emplear como modelos las ecuaciones diferenciales lin-
eales y las ecuaciones de diferencias lineales.

2.2 Operaciones básicas


En señales y sistemas vamos a trabajar con cuatro operaciones básicas:

1. Modelización: la búsqueda de un cálculo que, en una secuencia limitada de pasos,


nos permita generar una secuencia de números concordante con la magnitud fı́sica
de una caracterı́stica determinada de la realidad.

2. Análisis: la determinación de una cantidad asociada a una caracterı́stica de la


realidad.

3. Procesamiento: operación de transformación de variables fı́sicas o de información


asociada.

4. Sı́ntesis: generación de una variación fı́sica determinada.

2.3 Modelo de una señal


1. El concepto de señal supone la existencia de magnitudes variables. Para represen-
tar estas variaciones empleamos funciones.

2. Consideremos una función y = f (x), donde y es la variable dependiente y x es la


variable independiente de la función f .

2.3.1 Variable independiente


1. La variable independiente x puede ser

(a) unidimensional (tiempo);


(b) bidimensional (posición en un plano para una foto);
(c) tridimensional (posición en un plano y tiempo desde el inicio en una pelı́cula);
(d) N dimensional, en general.

37
Figura 2.1: Señal de tiempo continuo

2. Consideraremos en lo sucesivo que la variable independiente es el tiempo. Esto es


algo que resulta cómodo pero debe recordarse que no es la única interpretación
posible.

3. Si la variable independiente es continua diremos que la señal x es de tiempo con-


tinuo y la representaremos
x (t) . (2.1)
Veamos un gráfico de una señal de tiempo continuo en la Fig. (2.1).

4. Si la variable independiente solo toma algunos valores aislados (por ejemplo,


múltiplos enteros de un tiempo T ) diremos que la señal x es de tiempo discreto y
la representaremos
x [n] . (2.2)
Una señal de tiempo discreto x [n] recibe el nombre especial de secuencia. Veamos
un gráfico de una señal de tiempo discreto en la Fig. (2.2).

5. Observe el uso de paréntesis y llaves cuadradas para distinguir entre señales de


tiempo continuo y tiempo discreto.

2.3.2 La variable dependiente


1. La variable dependiente y también puede ser continua o discreta.

38
Figura 2.2: Señal de tiempo discreto

2. En este curso consideramos solamente variables dependientes continuas.

3. En la realidad, cuando trabajamos con técnicas digitales, las variables dependi-


entes son discretas. En este caso decimos que están cuantificadas.

Tiempo continuo como variable independiente


En las materias previas de la carrera, hemos trabajado con funciones de tiempo con-
tinuo como variable independiente. Hemos estudiado lı́mites, derivadas, integrales, y
ecuaciones diferenciales en variables continuas. Con estas herramientas hemos logrado
descripciones de nuestro mundo como la primer ley de Newton, o las leyes de Maxwell.

Tiempo discreto como variable independiente


En esta materia introduciremos los conceptos de variables discretas, lı́mites, diferencias,
sumatorias, y ecuaciones de diferencias en variables discretas. Con estas herramientas
lograremos descripciones de nuestro mundo que pueden ser manipuladas por una com-
putadora, un sistema basado en transistores, componentes que conducen o no conducen
electricidad representando ası́ ceros y unos (valores discretos).
Como método de estudio, repasaremos contenidos de materias previas pero represen-
tados en una notación uniforme y adaptada a nuestras necesidades. Una vez expuestos
los temas correspndientes a variables continuas, se exponen los temas en variables disc-
retas (con la única excepción de la operación de convolución).

39
2.4 Ejemplos de señales de tiempo continuo y dis-
creto
1. Nuestros cinco sentidos detectan o responden a señales de tiempo continuo.

2. Sonido y video están grabados en DVD como señales de tiempo discreto.

3. Un radar es un sistema de tiempo discreto, porque muestra la posición de un avión


a intervalos regulares (Una vez por vuelta de la antena).

4. Las secuencias de bases (sı́mbolos quı́micos) en un gen son señales de “tiempo”


discreto. Este es un ejemplo en el que la variable independiente es unidimensional
y no es el tiempo.

5. Un reloj análogico (de agujas) es un sistema de tiempo ... discreto. Este tipo
de reloj es, básicamente, un contador de tic tacs (o intervalos de tiempo). En
efecto, en el año 1678, Mateo Campani de Alimenis da la siguiente descripción de
un reloj: “Horologium, solo naturae motu, atque ingenio, dimetiens, et numerans
momenta temporis, constantissime aequalia.” (un reloj que, solo por movimientos
naturales, indica regularmente iguales divisiones de tiempo).

6. ¿Cúal podrı́a ser un ejemplo de reloj analógico de “verdad”? ¿Este reloj analógico
de verdad serı́a exacto ?

7. ¿Que ejemplos puede dar de señales de tiempo continuo y discreto?

2.5 Los modelos de señales y sistemas no son únicas


1. Por lo general, los modelos o representaciones de señales y sistemas no son únicas,
y dependen de los detalles que deseamos estudiar. Por ejemplo, consideremos una
señal x(t) en el interior de una computadora (vea la Fig. (2.3))

(a) Cuando el ingeniero está diseñando las distintas operaciones lógicas de la


computadora, la señal x(t) se representa por una función que toma solamente
los valores 0 y 1, con puntos de discontinuidad en las transiciones de valor
(valores lógicos).
(b) Cuando el ingeniero está eligiendo los distintos circuitos integrados y compo-
nentes pasivos (resistencias y capacitores), la señal x(t) puede representarse
por una función real continua.

40
Representacion logica

0.5

0 2 4 6 8 10 12 14

Representacion continua

0.5

0 2 4 6 8 10 12 14

Figura 2.3: Diversas representaciones de la misma señal.

2. Consideremos ahora la función de tiempo continuo

x (t) = cos (2 t) , (2.3)

Veamos su representación en la Fig. (2.4). Es evidente que en realidad tenemos


secuencias de puntos, o sea señales de tiempo discreto, unidos por rectas de forma
tal de dar la impresión de una señal de de tiempo continuo cuando se la observa
a una distancia adecuada. Toda señal procesada con una computadora es de
tiempo discreto, porque las computadoras solo pueden procesar una cantidad finita
y numerable de pedacitos de información (bits, en inglés). Lo que hacemos es
graficar de forma tal que aceptamos lo que vemos como (un sı́mbolo de) una señal
de tiempo continuo.

2.6 Propiedades de las señales


2.6.1 Señales acotadas y no acotadas de tiempo continuo
Una señal de tiempo continuo x(t) es acotada si existe un número real finito M que es
mayor que el valor absoluto de x(t) para todo valor de t

|x(t)| < M, (2.4)

41
Figura 2.4: Es posible notar la discretización de esta función “continua”.

Una señal de tiempo continuo x(t) es no acotada si existe t1 tal que


Lim
|x(t)| = ∞. (2.5)
t → t1

2.6.2 Señales acotadas y no acotadas de tiempo discreto


Una señal de tiempo discreto x[n] es acotada si existe un número real finito M que es
mayor que el valor absoluto de x[n] para todo valor de n
|x[n]| < M, (2.6)
.
Una señal de tiempo discreto x[n] es no acotada si existe un tiempo n1 tal que
Lim
|x[n]| = ∞. (2.7)
n → n1

2.6.3 Señales infinitas y finitas, lateral derecha o lateral iz-


quierda, causales y anticausales (tiempo continuo)
Esto se refiere al momento en que las señales empiezan y terminan.

1. Una señal x(t) es finita si su valor es nulo antes de un tiempo de inicio t1 y después
de un tiempo de finalización t2 . En caso contrario, la señal es infinita.

42
2. Note que estas definiciones implican que para que una señal sea infinita uno solo
de ambos tiempos t1 y t2 necesita ser infinito mientras que el otro puede ser finito.

3. Una señal x(t) es infinita lateral derecho si t2 → ∞ y t1 tiene un valor finito.

4. Una señal x(t) es infinita lateral izquierdo si t1 → −∞ y t2 tiene un valor finito.

5. Una señal x(t) es causal si es infinita lateral derecha y además t1 = 0.

6. Una señal x(t) es nocausal si es infinita lateral izquierda y además t2 = 0.

7. Note que una señal puede ser infinita y acotada a la vez. Por ejemplo, x(t) = cos(t).

2.6.4 Señales infinitas y finitas, lateral derecha o lateral iz-


quierda, causales y anticausales (tiempo discreto)
• Una señal x[n] es finita si su valor es nulo antes de un tiempo de inicio n1 y después
de un tiempo de finalización n2 . En caso contrario, la señal es infinita.

• Note que estas definiciones implican que para que una señal sea infinita uno solo
de ambos tiempos n1 y n2 necesita ser infinito mientras que el otro puede ser finito.

• Una señal x[n] es infinita lateral derecho si n2 → ∞ y n1 tiene un valor finito.

• Una señal x[n] es infinita lateral izquierdo si n1 → −∞ y n2 tiene un valor finito.

• Una señal x[n] es causal si es infinita lateral derecha y además n1 = 0.

• Una señal x[n] es nocausal si es infinita lateral izquierda y además n2 = 0.

• Note que una señal puede ser infinita y acotada a la vez. Por ejemplo, x[n] = cos[n].

2.6.5 Señales pares de tiempo continuo


Una señal de tiempo continuo es par si verifica la condición

x(−t) = x(t). (2.8)

Ejemplo
Considere la siguiente ecuación

cos(−t) = cos(t). (2.9)

Vea la Fig. (2.5). Existe simetrı́a vertical, o respecto al eje de absisas.

43
Figura 2.5: Función par (tiempo continuo)

2.6.6 Señales pares de tiempo discreto


Una señal de tiempo discreto es par si verifica la condición
x[−n] = x[n]. (2.10)

Ejemplo
Considere la siguiente función
(−n)2 n2
x[−n] = = = x[n]. (2.11)
10 10
Vea la Fig. (2.6). La gráfica es invariante para una rotación de π radianes.

2.6.7 Señales impares de tiempo continuo


Una señal de tiempo discreto es impar si verifica la condición
x(−t) = −x(t). (2.12)

Ejemplo
Considere la siguiente función
sin(−t) = − sin(t). (2.13)
Vea la Fig. (2.7)

44
n^2/10 funcion par
10

0
-10 -5 0 5 10

Figura 2.6: Función par (tiempo discreto). La gráfica es invariante para una rotación
de π radianes.

Figura 2.7: Función impar (tiempo continuo)

45
n^3/100 funcion impar
10

-5

-10
-10 -5 0 5 10

Figura 2.8: Función impar (tiempo discreto)

2.6.8 Señales impares de tiempo discreto


Una señal de tiempo continuo es impar si verifica la condición
x[−n] = −x[n]. (2.14)

Ejemplo
Considere la siguiente función
x[−n] = (−n)3 = −n3 = −x[n]. (2.15)
Vea la Fig. (2.8).

2.6.9 Componentes par e impar de una señal de tiempo conti-


nuo
Una señal de tiempo continuo puede descomponerse en componentes par e impar
x(t) = par(x(t)) + impar(x(t)), (2.16)
definiendo
1
par (x (t)) = (x (t) + x (−t)) , (2.17)
2
1
impar (x (t)) = (x (t) − x (−t)) . (2.18)
2
46
cos(5*t)+sin(10*t)

2
1
0
-1
-2
-3 -2 -1 0 1 2 3

parte par

1
0.5
0
-0.5
-1
-3 -2 -1 0 1 2 3

parte impar

1
0.5
0
-0.5
-1
-3 -2 -1 0 1 2 3

Figura 2.9: Primer gráfico: una función con componentes pares e impares (tiempo
continuo). Segundo gráfico: componente par. Tercer gráfico: componente impar.

Ejemplo
Vea la Fig. (2.9).

2.6.10 Componentes par e impar de una señal de tiempo dis-


creto
Una señal de tiempo discreto puede descomponerse en componentes par e impar

x[n] = par(x[n]) + impar(x[n]), (2.19)

definiendo
1
par (x [n]) = (x [n] + x [−n]) , (2.20)
2
1
impar (x [n]) = (x [n] − x [−n]) . (2.21)
2

Ejemplo
Vea la Fig. (2.10).

47
n^3/100+n^2/10
20
10
0
-10
-20
-10 -5 0 5 10

parte par
10
5
0
-5
-10
-10 -5 0 5 10

parte impar
10
5
0
-5
-10
-10 -5 0 5 10

Figura 2.10: Primer gráfico: una función con componentes pares e impares (tiempo
discreto). Segundo gráfico: componente par. Tercer gráfico: componente impar.

2.7 Señales periódicas


2.7.1 Definición de perı́odo (tiempo continuo)
Una señal de tiempo continuo es periódica si existe un número T denominado perı́odo
tal que
x(t) = x (t + k T ) , (2.22)
donde k es un número entero.

2.7.2 Definición de perı́odo (tiempo discreto)


Una señal de tiempo discreto es periódica si existe un número N denominado perı́odo
tal que
x[n] = x[n + k N ], (2.23)
donde k es un número entero.

2.7.3 Ejemplos
1. Vea la Fig. (2.11). El perı́odo es T = 10.

2. Vea la Fig. (2.12). El perı́odo es N = 10.

48
3. Vea la Fig. (2.13). No existe un número N tal que
x[n] = x[n + N ]. (2.24)
Esta señal nos parece periódica porque puede dibujarse sobre una señal periódica
de tiempo continuo, denominada envolvente.

2.7.4 Como encontrar los perı́odos de señales periódicas de


tiempo continuo
Las señales periódicas de tiempo continuo xc (t) = cos(ω0 t) y xs (t) = sin(ω0 t) verifican
la igualdad
ω0 T = 2 π. (2.25)

Por lo tanto T = ω0
.

Ejemplos
1. x (t) = 4 cos (5 π t) , donde ω0 = 5 π. Podemos calcular el perı́odo
2 2
 
5 π T = 2 π, T = , cos 5 π = cos (2 π) = cos (0) . (2.26)
5 5
 
π
2. x (t) = 4 cos 4 π t − 4
. Podemos calcular el perı́odo
1 1 π π π
     
4 π T = 2 π, T = , cos 4π − = cos 2 π − = cos − .
2 2 4 4 4
(2.27)
3. x (t) = u (t) + 4 cos (5 π t) , no es periódica, porque
−2 2 2 2
       
u − 4 cos −5 π 6= u − 4 cos 5 π . (2.28)
5 5 5 5

4. x (t) = u (t) − 21 . No es periódica.


5. x [n] = 4 cos (π n) . En este caso veremos que debe cumplirse
π N = 2 π, N = 2. (2.29)

6. x [n] = 4 sin (3 n) . En este caso veremos que 3 N 6= 2 π. Por lo tanto x[n] no es


periódica.
7. x [n] = 4 cos (πn − 2) , es periódica con N = 2.
8. x [n] = (−1)n es periódica con N = 2.

49
Funcion periodica x(t) = cos(2 * pi * t / 10)

0.5
cos(2 * pi * t / 10)

-0.5

-1

0 10 20 30 40 50
t

Figura 2.11: Señal periódica de tiempo continuo T = 10


Funcion periodica x[n] = cos[2 * pi * n / 10]

0.5
cos(2 * pi * n / 10)

-0.5

-1

0 10 20 30 40 50
n

Figura 2.12: Señal periódica de tiempo discreto N = 10

50
Funcion discreta no periodica con envolvente continua periodica

0.5
cos(7 * n / 10)

-0.5

-1

0 10 20 30 40 50
n

Figura 2.13: Señal de tiempo discreto que NO es periódica y que tiene una envolvente
continua que si es periódica

2.8 Señales exponenciales


2.8.1 Repaso de números complejos
Vamos a considerar distintos conceptos en los cuales emplearemos números complejos.
Por lo tanto, nos conviene recordar ciertas notaciones y operaciones.

Unidad imaginaria
Definimos la unidad imaginaria como

j= −1. (2.30)

Por lo tanto, cumple con la igualdad

j 2 = −1. (2.31)

Números complejos
El conjunto de los números complejos se simboliza C y sus elementos se representan en
forma cartesiana como a + b j, donde a ∈ R, b ∈ R, y j es la unidad imaginaria.

51
Números complejos conjugados
Llamamos números complejos conjugados a un par de números que simbolizamos z y z

z = a + jb,
(2.32)
z = a + jb = a − jb,

donde a ∈ R, b ∈ R, y j es la unidad imaginaria.

Parte real de un número complejo


Definimos a la función parte real de un número complejo como

<(a + jb) = a. (2.33)

Es sencillo deducir la propiedad

(a + jb) + (a + jb) (a + jb) + (a − jb)


<(a + jb) = = = a. (2.34)
2 2

Parte imaginaria de un número complejo


Definimos a la función parte imaginaria de un número complejo como

=(a + jb) = b. (2.35)

Es sencillo deducir la propiedad

(a + jb) − (a + jb) (a + jb) − (a − jb)


=(a + jb) = = = b. (2.36)
2j 2j

Módulo de un número complejo


Definimos a la función módulo de un número complejo como
q √
ka + jbk = (a + jb) (a − jb) = a2 + b2 . (2.37)

Por su definición, es un número real igual o mayor que 0.

Fase de un número complejo


Definimos a la función fase de un número complejo como
b
6 a + jb = arctan( ). (2.38)
a
52
Exponencial compleja
Definimos la función exponencial compleja como

ea+jb = ea ej b = ea (cos(b) + j sin(b)) , (2.39)

Relación de Euler
La relación de Euler es la igualdad

ejb = cos (b) + j sin (b) , (2.40)

Por lo tanto podemos escribir

ejb + e−jb
cos (b) = , (2.41)
2
y
ejb − e−jb
sin (b) = . (2.42)
2j

Representación en forma polar


Un número complejo a + jb puede representarse en forma polar
6 a+j b
a + jb = ka + jbkej . (2.43)

2.8.2 Señales exponenciales de tiempo continuo


Las señales exponenciales de tiempo continuo son las que tienen la forma

x(t) = R ea t . (2.44)

Señales exponenciales reales de tiempo continuo


Se dice que la señal exponencial es real si R ∈ < y a ∈ <.
Si a > 0, entonces la señal exponencial crece a medida que t crece.
Si a < 0, entonces la señal exponencial decrece a medida que t crece.

Señales exponenciales imaginarias de tiempo continuo



Si a = jω0 donde j = −1 puede aplicarse la relación de Euler

x (t) = R ej ω0 t = R (cos (ω0 t) + j sin (ω0 t)) . (2.45)

53
Señales exponenciales complejas de tiempo continuo
La exponencial es compleja si R es un número real y a es un número complejo

R ∈ <, (2.46)

y
a = γ + j ω0 ∈ C. (2.47)
La exponencial compleja puede evaluarse con la relación de Euler

x(t) = R eγ t ej ω0 t = R eγ t (cos (ω0 t) + j sin (ω0 t)) , (2.48)

donde

• j= −1 es la unidad imaginaria

• R eγ t es la envolvente,

• Perı́odo T y frecuencia ω0 = 2π
T
.

Señales exponenciales generalizadas de tiempo continuo


La exponencial es generalizada si tanto R como a son números complejos

R = α ej θ , (2.49)
a = γ + j ω0 . (2.50)

Podemos escribir entonces aplicando la relación de Euler

x (t) = R ea t = α ej θ e(γ+j ω0 ) t = α ej θ eγ t ej ω0 t , (2.51)

x (t) = R ea t = α ej θ e(γ+j ω0 ) t = α eγ t ej (ω0 t+θ) , (2.52)


x (t) = R ea t = α eγt (cos (ω0 t + θ) + j sin (ω0 t + θ)) , (2.53)
donde

• j= −1 es la unidad imaginaria,

• αeγt es la envolvente,

• θ es la fase,

• ω0 la frecuencia.

54
2.8.3 Propiedades de la señal exponencial imaginaria de tiempo
continuo
Perı́odo y frecuencia
Consideremos una señal periódica de tiempo continuo con perı́odo T0
x (t) = x (t + T0 ) . (2.54)
Para verificar que una señal exponencial imaginaria de tiempo continuo sea periódica
podemos factorear
R ej ω0 t = R ej ω0 (t+T0 ) = R ej ω0 t ej ω0 T0 , (2.55)
Aplicando la relación de Euler, verificamos
ej ω0 T0 = cos (ω0 T0 ) + j sin (ω0 T0 ) = cos(2 π) + j sin(2 π) = 1, (2.56)
y

T0 = . (2.57)
|ω0 |
La conclusión es que la señal exponencial imaginaria de tiempo continuo siempre es
periódica porque siempre podemos encontrar T0 dado ω0 .

Funciones armónicas de tiempo continuo


Dada una señal periódica
x(t) = x(t + T ), (2.58)

existen infinitas señales periódicas armónicas de frecuencia ωk = k ω0 = k T
, y perı́odo
Tk = Tk0 , para k ∈ N , k > 0.

2.8.4 Señales exponenciales de tiempo discreto


Consideremos ahora la señal exponencial de tiempo discreto
x [n] = R eβ n = R αn , (2.59)
donde definimos
α = eβ . (2.60)

Señales exponenciales reales de tiempo discreto


1. Decimos que la exponencial es real si α ∈ < y β ∈ <.
2. Si |α| > 1, o sea β > 0, entonces la exponencial crece a medida que n crece.
3. Si |α| < 1, o sea β < 0, entonces la exponencial decrece a medida que n crece.

55
Señales exponenciales imaginarias de tiempo discreto
Si β es un número imaginario puro entonces α = ej ω0 → |α| = 1, y por la relación de
Euler
x [n] = ej ω0 n = cos (ω0 n) + j sin (ω0 n) . (2.61)

Señales exponenciales generalizadas de tiempo discreto


Definimos a la señal exponencial generalizada de tiempo discreto como

x [n] = R αn , (2.62)

donde

R = |R | ejθ , (2.63)
α = |α| ej ω0 . (2.64)

Podemos escribir entonces

x [n] = R αn = |R | |α|n ej θ ej ω0 n = |R | |α|n ej (ω0 n+θ) , (2.65)

y
x [n] = R αn = |R | |α|n (cos (ω0 n + θ) + j sin (ω0 n + θ)) . (2.66)

2.8.5 Propiedades de la señal exponencial imaginaria de tiempo


discreto
Perı́odo y frecuencia
Supongamos una función exponencial imaginaria de tiempo discreto que tenga perı́odo
N
x[n] = x[n + N ]. (2.67)
Por lo tanto, deberı́a ser
ej ω0 n = ej ω0 (n+N ) . (2.68)
Esto significa que ω0 cumple con la relación

ej ω0 (n+N ) = ej ω0 n ej ω0 N = ej ω0 n ⇔ ej ω0 N = 1 ⇔ ω0 N = 2 πM, (2.69)

donde M es un número entero. Por lo tanto, el perı́odo debe ser



N= M. (2.70)
ω0

56
Entonces si ω0 = P 2 π, donde P es un número racional,
2π M
N= M= , (2.71)
P 2π P
y
M
. P = (2.72)
N
Para que una exponencial imaginaria de tiempo discreto sea periódica, su
frecuencia debe ser una fracción propia de π.

Igualdad entre señales exponenciales con frecuencias ω0 y ω0 + 2 π


Consideremos la función ej(ω0 +2 π)n que puede ser simplificada de la siguiente forma

ej(ω0 +2 π) n = ej ω0 n ej 2 πn = ej ω0 n , (2.73)

porque

ej2 π n = sin (2 π n) + j cos (2 π n) = 1 + j 0, ∀n ∈ −2, −1, 0, 1, 2, .... (2.74)

Esto significa que dos funciones exponenciales complejas de tiempo discreto de frecuen-
cias que difieran en 2 π son iguales.

Señales armónicas de tiempo discreto


Dada una señal periódica
x[n] = x[n + N ], (2.75)

existen a lo sumo N señales periódicas armónicas de frecuencia ωk = k N
enumerables
0 ≤ k < N , porque sino fuera ası́, ωk+N = ωk + 2 π.
Por ejemplo, consideremos
2πM
x[n]k = ej k N . (2.76)
Supongamos ahora que k = N + 1. Entonces
2πM 2πM 2πM 2πM
x[n]N +1 = ej (N +1) N = ej N N ej N = ej N = x[n]1 , (2.77)
2πM
porque ej N N = ej 2 π M = 1.

57
2.8.6 La señal exponencial imaginaria es el bloque constructivo
de otras señales periódicas
1. Para construir otras señales periódicas usaremos conjuntos de exponenciales imag-
inarias (o sea, varias señales exponenciales imaginarias) a las que simbolizaremos
φk (t) . (2.78)

2. Usaremos exponenciales complejas φk (t) armónicas con un perı́odo común T0 .


3. Definiendo la frecuencia fundamental

ω0 = , (2.79)
T0
podemos definir el conjunto de funciones armónicas
φk (t) = ej k ω0 t , k = 0, ±1, ±2, .... (2.80)

4. Con la definición de función armónica dada en el punto 2 podemos construir fun-


ciones periódicas escritas como sumatorias de exponenciales imaginarias (multi-
plicadas por coeficientes adecuados).
5. Para obtener funciones periódicas escritas como combinaciones lineales de fun-
ciones trigonométricas podemos usar las relaciones
ej a t + e−j a t
cos (a t) = , (2.81)
2
y
ej a t − e−j a t
sin (at) = . (2.82)
2j

Ejemplo
Consideremos la señal
x(t) = ej2t + e−j2t + jej3t − je−j3t , (2.83)
equivalente a
ej 2 t + e−j 2 t (ej 3 t − e−j 3 t )
x(t) = 2 + (2 j) j , (2.84)
2 2j
y finalmente a
x(t) = 2 cos (2 t) − 2 sin (3 t) . (2.85)
Observe que como los sumandos de (2.83) son complejos conjugados, x(t) resulta ser
una función real, como vemos en (2.85).

58
2.8.7 Comparación de las señales periódicas de tiempo conti-
nuo y discreto
Señal de tiempo continuo ej ω0 t
1. Distintas señales para distintos valores de ω0 ;

2. Periódica para cualquier valor de ω0 ;

3. Frecuencia fundamental ω0 ;

4. Perı́odo fundamental T = ω0
.

Señal de tiempo discreto ej ω0 n


1. Idénticas señales para ω0 y ω0 + 2 π;

2. Periódica sólo si ω0 N = 2 π M, y N y M sin factores en común;

3. Frecuencia fundamental ω0 ;
N 2π
4. Perı́odo fundamental N tal que M
= ω0
.

2.9 Señales singulares


A continuación veremos unos objetos matemáticos especiales que nos permiten repre-
sentar ciertas señales singulares, y ası́ desarrollar una teorı́a matemática útil.

2.9.1 El impulso unitario (tiempo discreto)


Se define el impulso unitario de tiempo discreto como
(
0, n 6= 0,
δ [n] = (2.86)
1, n = 0.

Vea la Fig. (2.14).


Podemos desplazar al impulso unitario en el tiempo. En este caso la definición es
(
0, n 6= n0 ,
δ [n − n0 ] = (2.87)
1, n = n0 .

Vea la Fig. (2.15).

59
Impulso unitario

0.8

0.6

0.4

0.2

-0.2
-10 -5 0 5 10

Figura 2.14: Impulso unitario de tiempo discreto.

Impulso unitario desplazado

0.8

0.6

0.4

0.2

-0.2
-10 -5 0 5 10

Figura 2.15: Impulso unitario de tiempo discreto desplazado.

60
Impulso unitario desplazado y multiplicado por una constante

0.5

-0.5

-1

-10 -5 0 5 10

Figura 2.16: Impulso unitario de tiempo discreto desplazado y multiplicado.

También podemos multiplicar al impulso unitario por un valor real v. En este caso
la definición es (
0, n 6= n0 ,
vδ [n − n0 ] = (2.88)
v, n = n0 .
Vea la Fig. (2.16).

2.9.2 El escalón unitario (tiempo discreto)


Se define el escalón unitario de tiempo discreto como
(
0, n < 0,
u [n] = (2.89)
1, n ≥ 0.
Vea la Fig. (2.17).
Podemos desplazar al escalón unitario en el tiempo. En este caso la definición es
(
0, n < n0 ,
u [n − n0 ] = (2.90)
1, n ≥ n0 .
Vea la Fig. (2.18).
También podemos multiplicar al escalón unitario por un valor real v. En este caso
la definición es (
0, n < n0 ,
vu [n − n0 ] = (2.91)
v, n ≥ n0 .
Vea la Fig. (2.19).

61
Escalon unitario

0.8

0.6

0.4

0.2

-0.2
-10 -5 0 5 10

Figura 2.17: Escalón unitario de tiempo discreto.

Escalon unitario desplazado

0.8

0.6

0.4

0.2

-0.2
-10 -5 0 5 10

Figura 2.18: Escalón unitario de tiempo discreto desplazado.

62
Escalon unitario desplazado y multiplicado por una constante

0.5

-0.5

-1

-10 -5 0 5 10

Figura 2.19: Escalón unitario de tiempo discreto desplazado y multiplicado.

2.9.3 Relación entre impulso y escalón (tiempo discreto)


Las relaciones entre impulso y escalón son las siguientes

δ [n] = u [n] − u [n − 1] . (2.92)


n
X
u [n] = δ [m] . (2.93)
m=−∞

Cambiando k = n − m
0
X
u [n] = δ [n − k] , (2.94)
k=∞
o ∞
X
u [n] = δ [n − k] . (2.95)
k=0

Esta es la definición implı́cita del impulso, como la señal que sumada en el tiempo
“genera” un escalón. Vea la Fig. (2.20).
Escribiendo
   

X ∞
X
u [n] =  δ [n − k] + δ (0) +  δ [n − k] , (2.96)
k<n n<k

63
impulso unitario escalon unitario
1 1
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2

-2 2 4 6 8 10 12 -2 2 4 6 8 10 12

Figura 2.20: Impulso de tiempo discreto desplazado y multiplicado, y escalón unitario


de tiempo discreto

2.9.4 El escalón unitario (tiempo continuo)


Definimos el escalón unitario de tiempo continuo como
(
0, t < 0
u (t) = (2.97)
1, t > 0

Observe que la función tiene una discontinuidad en t = 0. Vea la Fig. (2.25)

2.9.5 El impulso unitario (tiempo continuo)


Definimos el impulso unitario de tiempo continuo como
Z t
u (t) = δ (τ ) dτ. (2.98)
−∞

Esta es la definición implı́cita del impulso, como la señal que integrada en el tiempo
“genera” un escalón.

2.9.6 Construcción del impulso y el escalón unitario


La ecuación (2.98) nos da una definición de un impulso pero no nos dice como construirlo.
Para esto podemos ver al impulso unitario como el lı́mite de una sucesión de funciones
de area unitaria.
1. Definamos una sucesión de funciones r∆ (t − t0 ) de área unitaria


 0 t < t0 ,
1
r∆ (t − t0 ) = ∆
t0 ≤ t ≤ t0 + ∆, (2.99)


0 t0 + ∆ < t,

64
4

-3 -2 -1 0 1 2 3

Figura 2.21: Sucesión de funciones que convergen a un impulso unitario de tiempo


continuo.

donde ∆ es una constante real no negativa. Vea la Fig. (2.21). Esta no es la única
forma de hacerlo, vea las Figs. (2.22) y (2.23).

2. Tenemos entonces que el impulso δ (t) es el lı́mite

Lim
δ (t − t0 ) = r (t − t0 ) . (2.100)
∆→0 ∆

3. Definamos también una sucesión de funciones s∆ (t) dadas por




 0, t < t0 ,
t
s∆ (t − t0 ) = ∆
, t0 ≤ t ≤ t0 + ∆, (2.101)


1, t0 + ∆ < t.

Vea la Fig. (2.24).

4. Tenemos entonces que el escalón u (t) es el lı́mite

Lim
u (t − t0 ) = s (t − t0 ) . (2.102)
∆→0 ∆

Vea la Fig. (2.25).

65
Aproximacion del impulso unitario
17.5
15
12.5
10
7.5
5
2.5

-1 -0.5 0.5 1
Figura 2.22: Aproximación del impulso unitario de tiempo continuo.

Aproximacion del impulso unitario


30

20

10

-1 -0.5 0.5 1

Figura 2.23: Aproximación del impulso unitario de tiempo continuo.

66
1.5

0.5

-0.5
-3 -2 -1 0 1 2 3

1.5

0.5

-0.5
-3 -2 -1 0 1 2 3

1.5

0.5

-0.5
-3 -2 -1 0 1 2 3

Figura 2.24: Sucesión de funciones que convergen a un escalón unitario de tiempo con-
tinuo.

Escalon unitario
1.4
1.2
1
0.8
0.6
0.4
0.2

-2 -1 1 2 3 4 5
Figura 2.25: Escalón unitario de tiempo continuo

67
Impulso en el tiempo
1. Un impulso de corriente en tiempo entrega una unidad de carga instan-táneamente
a un circuito.

2. Un impulso de fuerza en tiempo entrega un momento instantáneo a un mecanismo.

Impulso en el espacio
1. Un impulso de masa en el espacio es una masa puntual.

2. Un impulso de densidad de carga en el espacio es una carga puntual.

3. Un impulso de intensidad de luz en el espacio es una luz puntual.

2.10 Señales muestreadas


El muestreo de señales es una operación muy importante. Preste atención. Veremos
primero el muestreo en tiempo discreto, y después en tiempo continuo.

2.10.1 Tiempo discreto


1. Recordemos la definición del impulso unitario de tiempo discreto
(
0, n 6= n0 ,
δ [n − n0 ] = (2.103)
1, n = n0 .

2. Supongamos que tenemos una señal x[n]. Podemos obtener una nueva señal

z[n] = x[n]δ[n − n0 ], (2.104)

de la siguiente forma (
0 n 6= n0 ,
z[n] = (2.105)
x[n0 ] n = n0 .

3. Podemos resumir la operación realizada en la ec. (2.105) como

x [n] δ [n − n0 ] = x [n0 ] δ [n − n0 ] , (2.106)

y la denominaremos muestreo en tiempo discreto.

4. La ec. (2.106) es una de las claves de esta materia. Por favor recuerdela.

68
2.10.2 Tiempo continuo
1. Recordemos la definición de la sucesión de funciones cuyo lı́mite es el impulso
unitario 
 0
 t < t0 ,
1
r∆ (t − t0 ) = t0 ≤ t ≤ t0 + ∆, (2.107)
 ∆

0 t0 + ∆ < t,
donde ∆ es una constante real no negativa.
2. Supongamos que tenemos una señal x (t). Podemos obtener una nueva señal
z (t) = x (t) δ (t − t0 ) , (2.108)
de la siguiente forma
(a) Construyamos una sucesión de funciones


 0 t < t0 ,
z∆ (t) = x (t0 ) ∆1 t0 ≤ t ≤ t0 + ∆, (2.109)


0 t0 + ∆ < t,

(b) La función z (t) es el lı́mite de la sucesión cuando ∆ → 0.


z (t) = x (t) δ (t − t0 ) = x (t0 ) δ (t − t0 ) . (2.110)
3. La ec. (2.110) es una de las claves de esta materia. Por favor recuerdela.

2.11 Energı́a y potencia


A continuación analizamos dos importantes propiedades de las señales en general. La
energı́a y potencia de una señal son funciones que dependen de un lapso determinado
de tiempo.
Consideremos el caso especial de un circuito eléctrico con una resistencia R sujeta a
una diferencia de potencial v(t) y una corriente i(t) = v(t) R
. La potencia instantánea por
ohm está definida como
i2 (t)
p(t) = v(t) i(t) = . (2.111)
R
La energı́a total E se define como
Z T
Lim
E= i2 (t)dt, (2.112)
T →∞ −T

y la potencia promedio P por ohm se define como


Lim 1 ZT 2
P = i (t)dt. (2.113)
T → ∞ 2 T −T

69
2.11.1 Energı́a de una señal de tiempo continuo
La energı́a en un lapso determinado de tiempo se define como
Z t2
Et2 ,t1 = |x (t)|2 dt. (2.114)
t1

La energı́a total de una señal se define como


Z T
Lim
E∞ = |x (t)|2 dt. (2.115)
T →∞ −T

2.11.2 Energı́a de una señal de tiempo discreto


La energı́a en un lapso determinado de tiempo se define como
n2
|x [n]|2 .
X
En2 ,n1 = (2.116)
n=n1

La energı́a total de una señal se define como


N
Lim
|x [n]|2 .
X
E∞ = (2.117)
N →∞ n=−N

2.11.3 Potencia de una señal de tiempo continuo


La potencia en un lapso determinado de tiempo se define como
1 Z t2
Pt2 ,t1 = |x (t)|2 dt. (2.118)
t2 − t1 t1
La potencia total de una señal se define como
Lim 1 ZT
P∞ = |x (t)|2 dt. (2.119)
T → ∞ 2T −T

2.11.4 Potencia de una señal de tiempo discreto


La potencia de una señal de tiempo discreto en un lapso determinado de tiempo se define
como n2
1
|x [n]|2 .
X
Pn2 ,n1 = (2.120)
n2 − n1 + 1 n=n1
La potencia total de una señal de tiempo discreto se define como
N
Lim 1
|x [n]|2 .
X
P∞ = (2.121)
N → ∞ 2N + 1 n=−N

70
2.11.5 Señal de energı́a
La señal x es de energı́a finita (o señal x de energı́a) si y sólo si 0 < E < ∞, lo que
implica P = 0.

2.11.6 Señal de potencia


La señal x es de potencia finita (o señal x de potencia) si y sólo si 0 < P < ∞, lo que
implica E = ∞.

2.11.7 Decibeles
Definición
El decibel o dB es la décima parte de un bel, una unidad de medida relativa. Supongamos
que deseamos expresar en Bels la potencia medida Pm , con respecto a la potencia de
referencia. Tenemos entonces la relación
Pm
AB = log10 ( ). (2.122)
Pr
En otras palabras, AB , la potencia medida Pm expresada en Bels, es igual al logaritmo
en base 10 de la potencia Pm relativa a una potencia de referencia Pr . La elección de la
potencia de referencia define la escala usada.
Dado que la potencia está calculada en base a la norma cuadrática de la señal,
podemos escribir
|Am |
AB = 2 log10 ( ), (2.123)
|Ar |
donde Am y Ar son las amplitudes de las señales medida y de referencia. Además como
hay 10 decibeles en un bel, tenemos

|Am |
AdB = 20 log10 ( ), (2.124)
|Ar |

Décadas y octavas
Veamos la figura 2.26 para entender como definir décadas y octavas en escalas logarı́tmicas
de medida. Tanto décadas como octavas son unidades de medida para escalas logarı́tmicas.
Observemos que necesitamos una referencia X para después poder marcar la década
10 X y la octava 2 X.

71
Figura 2.26: Décadas y octavas

72
Propiedades de las escalas en dB
En todas las clases de dB, un factor de 10 en la amplitud de la señal medida corresponde
a un incremento de 20 decibeles
10|Am | |Am |
20 log10 ( ) = 20 log10 (10) + 20 log10 ( ). (2.125)
|Ar | |Ar |

Una función f (x) que es proporcional a x1 se dice que “cae” o disminuye a una razón
de 20dB por década. Esto es, por cada factor de 10 en x (cada década), la amplitud
cae 20dB.
En forma similar, un factor de 2 en la amplitud corresponde a una variación de
(aproximadamente) 6dB:

2|Am | |Am |
20 log10 ( ) = 20 log10 (2) + 20 log10 ( ). (2.126)
|Ar | |Ar |

Una función que es proporcional a x1 se dice que cae 6dB por octava, o sea que por
cada factor de 2 en x (por cada octava) la amplitud disminuye aproximadamente 6dB.
Entonces 6dB por octava equivale a 20dB por década.
Finalmente, observemos que la elección de la referencia determina el desplazamiento
vertical en la escala de dB:
|Am |
20 log10 ( ) = 20 log10 (|Am |) − 20 log10 (|Ar |), (2.127)
|Ar |

donde −20 log10 (|Ar |) es el desplazamiento constante de la escala vertical.

Escalas en dB
Dado que frecuentemente cambiamos las escalas de nuestras señales para acomodarlas
a nuestras necesidades parece ser inútil en preocuparse por cuál es la referencia de la
escala en dB. Sin embargo, hay algunas escalas que debemos conocer.

Escala dBm La referencia de potencia es 1mW disipado en un resistor de 600Ω.

Escala dBV La referencia de amplitud es 1 volt. Entonces una señal de 100 volts
equivale a
100
20log10 ( ) = 40dBV. (2.128)
1

73
Escala dB SPL La referencia es la amplitud de una sinusoide de 1000 hz de frecuencia
que ejerce una presión de 20 mBar = 20 µP a. En unidades de intensidad sonora la
referencia es igual a
W
I0 = 10−16 2 . (2.129)
cm
Dado que el sonido se crea mediante una presión variante en el tiempo, calculamos
niveles de sonido en dB SP L usando la intensidad promedio (calculada a lo largo de por
lo menos un perı́odo de la menor frecuencia contenida en el sonido).
Sonido dB SPL
Motor jet a tres metros 140
Umbral de dolor 130
Concierto de Rock 120
Moto acelerando a cinco metros 110
Martillo neumático a dos metros 100
Fábrica 90
Aspiradora 80
Tráfico pesado 70
Restaurante quieto 50
Area residencial a la noche 40
Cine vacio 30
Murmullo de hojas secas 20
Respiración de una persona a tres metros 10
Umbral de audición 0

Escala dB para gráficos La referencia elegida es la máxima amplitud de la señal:


Normalizamos la señal tomando la máxima amplitud como referencia, a la que le cor-
responderá una medida en decibeles de 0dB. Para poder realizar esta normalización es
evidente que necesitamos conocer la señal en un lapso de tiempo. Después de encontrar
el máximo en dicho intervalo recién podemos realizar los cálculos.

2.11.8 Ejemplo: Energı́a promedio para la exponencial imagi-


naria de tiempo continuo en un perı́odo T0
Calculemos la energı́a promedio de la exponencial imaginaria en su perı́odo
Z T0 Z T0 
j ω0 t 2

ET0 = e dt = cos (ω0 t)2 + sin (ω0 t)2 dt = T0 . (2.130)
0 0

74
2.11.9 Ejemplo: Potencia promedio para la exponencial imag-
inaria de tiempo continuo en un perı́odo T0
Calculemos su potencia promedio en un perı́odo T0
1 1
PT0 = ET0 = T0 = 1. (2.131)
T0 T0

2.11.10 Ejemplo: Potencia promedio para la exponencial imag-


inaria de tiempo continuo en lapso de tiempo infinito
Calculemos ahora su potencia promedio

Lim 1 Z T0 j ω0 t 2
P∞ = e dt. (2.132)
T0 → ∞ 2T0 −T0

Lim 2T0
P∞ = = 1. (2.133)
T0 → ∞ 2T0

2.11.11 Ejemplo: Energı́a y potencia para señales de tiempo


discreto
1. Calculemos los valores de E∞ y P∞ para el escalón x1 [n] = u[n]. Planteamos la
fórmula de energı́a
N
Lim
(u [n])2 ,
X
E∞ (x1 [n]) = (2.134)
N →∞ n=−N

Considerando que el escalón es nulo (u[n] = 0) para n negativo n < 0, cambiamos


el lı́mite inferior de la sumatoria a 0. Dado que el escalón es igual a 1 para n no
negativo (n ≥ 0), reemplazamos u(n) por 1. Entonces resolvemos
N
Lim X
E∞ (x1 [n]) = 1 = ∞. (2.135)
N → ∞ n=0

Planteamos la fórmula de potencia

(u [n])2
PN
Lim n=−N
P∞ (x1 [n]) = , (2.136)
N →∞ 2N + 1
y con las mismas consideraciones que para el cálculo de la energı́a resolvemos
N P
Lim n=0 1 1
P∞ (x1 [n]) = = . (2.137)
N → ∞ 2N + 1 2

75
2. Calculemos los valores de E∞ y P∞ para x2 [n] = 2−n u [n] . Planteamos la fórmula
de energı́a
N
Lim  2
2−n u [n] .
X
E∞ (x2 [n]) = (2.138)
N → ∞ n=−N
Considerando que el escalón es nulo (u[n] = 0) para n negativo (n < 0), cambiamos
el lı́mite inferior a n = 0. Dado que el escalón es igual a 1 (u[n] = 1) para n no
negativo (n ≥ 0), reemplazamos u[n] por 1. Resolvemos
N 
Lim X  1 4
E∞ (x2 [n]) = 4−n = 1 = , (2.139)
N → ∞ n=0 1− 4
3

aplicando la propiedad de las sumas geométricas


N
1 − q N +1
qn =
X
, (2.140)
n=0 1−q

y su lı́mite
Lim 1 − q n+1 1
= , (2.141)
n→∞ 1−q 1−q
para k q k2 < 1. Planteamos la fórmula de potencia
PN 2
Lim n=−N (2−n u [n])
P∞ (x2 [n]) = , (2.142)
N →∞ 2N + 1

y con las mismas consideraciones que para el cálculo de la energı́a resolvemos


4
Lim 3
P∞ (x2 [n]) = = 0. (2.143)
N → ∞ 2N + 1

3. Calculamos los valores de E∞ y P∞ para x3 [n] = u [n] − u [n − 2]. Planteamos la


fórmula de energı́a
N
Lim
(u [n] − u [n − 2])2 .
X
E∞ (x3 [n]) = (2.144)
N →∞ n=−N

Observemos que la función es igual a 1 para 0 ≤ n < 2, e igual a 0 para n < 0 y


n ≤ 2.Por lo tanto los lı́mites de la sumatoria pueden cambiarse a n = 0 y n = 2.
Podemos resolver
Lim
E∞ (x3 [n]) = 2 = 2. (2.145)
N →∞

76
Planteamos la fórmula de potencia

(u [n] − u [n − 2])2
PN
Lim n=−N
P∞ (x3 [n]) = , (2.146)
N →∞ 2N + 1

y resolvemos
Lim 2
P∞ (x3 [n]) = = 0. (2.147)
N → ∞ 2N + 1
 
π
4. Calculamos los valores de E∞ y P∞ para x4 [n] = cos 4
n (u [n] − u [n − 4]).
Planteamos la fórmula de energı́a
N 2
Lim π
X   
E∞ (x4 [n]) = cos n (u [n] − u [n − 4]) , (2.148)
N →∞ n=−N 4

y resolvemos
Lim
E∞ (x4 [n]) = 2 = 2, (2.149)
N →∞
Planteamos la fórmula de potencia
PN    2
π
Lim n=−N cos 4
n (u [n] − u [n − 4])
P∞ (x4 [n]) = . (2.150)
N →∞ 2N + 1

y resolvemos
Lim 2
P∞ (x4 [n]) = = 0. (2.151)
N → ∞ 2N + 1

5. Calculamos los valores de E∞ y P∞ para x5 (t) = cos (t). Planteamos la fórmula


de energı́a y resolvemos
Z T
Lim
E∞ (x5 (t)) = (cos (t))2 dt = ∞. (2.152)
T →∞ −T

Planteamos la fórmula de potencia

(cos (t))2 dt
RT
Lim −T Lim T + 12 sin (2T )
P∞ (x5 (t)) = = , (2.153)
T →∞ 2T T →∞ 2T

y resolvemos
Lim T + 21 sin (2T ) 1
P∞ (x5 (t)) = = . (2.154)
T →∞ 2T 2

77
π
6. Calculamos los valores de E∞ y P∞ para x6 (t) = ej (2t+ 4 ) . Planteamos la fórmula
de energı́a
Z T
Lim π π
E∞ (x6 (t)) = e−j (2t+ 4 ) ej (2t+ 4 ) dt. (2.155)
T → ∞ −T
Lim
E∞ (x6 (t)) = 2T = ∞, (2.156)
T →∞
Planteamos la fórmula de potencia y resolvemos

Lim 2T
P∞ (x6 (t)) = = 1. (2.157)
T → ∞ 2T

2.12 Transformaciones de la variable independiente


2.12.1 Definición
Una señal se puede transformar en otra manipulando su variable independiente. Con-
sideraremos transformaciones lineales con coeficientes a y b.
El coeficiente b determina el desplazamiento en el tiempo: es decir, si la señal trans-
formada está adelantada o retrasada respecto a la señal original. Este coeficiente es
denominado fase.
El coeficiente a determina la rapidez en el tiempo: es decir, si la señal transformada
está “comprimida” o “estirada” respecto a la señal original.

Tiempo continuo
f (t) → f (at + b) . (2.158)

Tiempo discreto
f [n] → f [an + b] . (2.159)

2.12.2 Ejemplos
Transformaciones de la variable independiente, tiempo continuo
1. Vea la Fig. (2.27). Aquı́ se muestran variaciones de rapidez y fase en una señal de
tiempo continuo mediante las transformaciones de la variable tiempo t indicadas
sobre cada uno de los gráficos.

2. Vea la Fig. (2.29). Aquı́ se muestran variaciones de fase en una señal de tiempo
continuo. Verifique el cambio de fase observando el valor de la señal en cercanı́as
de t = 0.

78
Figura 2.27: Transformación de la variable independiente (tiempo continuo)

Figura 2.28: Transformación de la variable independiente (tiempo discreto)

79
Figura 2.29: Distintas fases (tiempo continuo)

Figura 2.30: Distintas fases (tiempo continuo)

80
Figura 2.31: Distintas “velocidades” (tiempo continuo)

Figura 2.32: Distintas fases (tiempo discreto)

81
Figura 2.33: Distintas “velocidades” (tiempo discreto)

3. Vea la Fig. (2.30).

4. Vea la Fig. (2.31). Aquı́ se muestran variaciones de velocidad en una señal de


tiempo continuo. Verifique el “estiramiento” o la “compresión” de la señal con-
tando los máximos.

Transformaciones de la variable independiente, tiempo discreto


1. Vea la Fig. (2.28). Aquı́ se muestran variaciones de rapidez y fase en una señal de
tiempo discreto mediante las transformaciones de la variable tiempo n indicadas
sobre cada uno de los gráficos.

2. Vea la Fig. (2.32). Aquı́ se muestran variaciones de fase en una señal de tiempo
discreto. Verifique el cambio de fase observando el valor de la señal en cercanı́as
de n = 0.

3. Vea la Fig. (2.33). Aquı́ se muestran variaciones de velocidad en una señal de


tiempo discreto. Verifique el “estiramiento” o la “compresión” de la señal contando
los máximos.

82
2.13 Respuestas a algunas preguntas
• ¿Cuál es el valor de p(1) que maximiza H([0, 1]) = p(1) log2 p(1)+(1−p(1)) log2 (1−
p(1))? Dada q(x) = x log2 x + (1 − x) log2 (1 − x), tenemos que obtener la raı́z de
dq(x)
dx
= 0 o graficar q(x) para x ∈ [0, 1]. El resultado buscado es p(1) = x = 12 .

• ¿Cúal podrı́a ser un ejemplo de reloj analógico de “verdad”? ¿Este reloj analógico
de verdad serı́a exacto ? Los relojes de sol, los relojes de agua y arena, y las
velas ardientes son relojes de tiempo continuo. El problema intrı́nseco que tiene
el manejo de la información “continua” es que no es reproducible con facilidad y
se deteriora con rapidez ante la presencia inevitable de ruido.

• ¿Qué entiende por procesamiento, modelado y análisis de señales y sistemas?

– Procesamiento de señales: transformación de una señal en otra.


– Modelado de señales y sistemas: usar un algoritmo y sus parámetros para
reproducir o explicar caracterı́sticas de la señal o sistemas en estudio, con el
objetivo de realizar inferencias.
– Análisis de señales y sistemas: Obtención de medidas.

83
Capı́tulo 3

Composición de señales

3.1 Composición de señales


Mediante la aplicación de diferentes operaciones matemáticas a dos o más señales se
pueden generar o componer nuevas señales.

3.1.1 Ventanas rectangulares


1. Consideremos las siguientes señales generadas mediante diferencias de escalones
unitarios

xc (t) = u(t) − u(t − 2), (3.1)


xd [n] = u[n] − u[n − 2]. (3.2)

Vea las figuras (3.1) y (3.3). Este tipo de señales, al multiplicar a otra señal, nos
permite extraer determinados intervalos en el dominio del tiempo. Esta operación
se denomina “windowing” o aventanamiento.

2. Las seńales definidas en (3.1) y (3.2) actúan como selectoras o ventanas

x1 (t) = txc (t), (3.3)


x2 (t) = (t − 2)xc (t − 2), (3.4)
x3 (t) = txc (t) − (t − 2)xc (t − 2), (3.5)
x4 [n] = n2 xd [n], (3.6)
x5 [n] = nxd [n − 4], (3.7)
x6 [n] = n2 xd [n] − nxd [n − 4]. (3.8)

Vea las figuras (3.2) y (3.4).

84
3.1.2 Sumatoria de señales desplazadas en el tiempo
Desplazando en el tiempo ventanas rectangulares y multiplicandolas por coeficientes
adecuados, se pueden obtener por sumatoria señales periódicas como la x3 (t)

(−1)k xc (t − T k),
X
x3 (t) = (3.9)
k=−∞

(Vea la figura (3.5)) y la x4 (t)



(−1)k xd [n − N k],
X
x4 (t) = (3.10)
k=−∞

(Vea la figura (3.6)).

3.1.3 Sumatoria de impulsos desplazadas en el tiempo


Desplazando en el tiempo impulsos y multiplicandolas por coeficientes adecuados, se
pueden obtener por sumatoria señales periódicas como la x5 (t)

(−1)k δ(t − T k),
X
x5 (t) = (3.11)
k=−∞

y la x6 (t)

(−1)k δ[n − N k].
X
x6 (t) = (3.12)
k=−∞

3.2 Señales de tiempo discreto


3.2.1 El impulso unitario
Hemos visto que el impulso unitario de tiempo discreto se define como
(
0, n 6= 0,
δ [n] = (3.13)
1, n = 0.
Vea la Fig. (3.7).

3.2.2 El impulso unitario desplazado


Desplazar un impulso unitario en el tiempo es sencillo. Veamos la definción de δ[n − m]
(La diferencia con la definición de δ[n] aparece resaltada)
( (
1 n−m = 0 1 n=m
δ[n−m] = → δ[n−m] = (3.14)
6 0
0 n−m = 6 m
0 n=

85
u(t) - u(t-2)
1.5

0.5

-0.5
-2 -1 0 1 2 3 4

Figura 3.1: Composición de dos escalones para formar una señal tipo pulso (tiempo
continuo)

2.5

1.5

0.5

-0.5
-2 0 2 4 6 8

Figura 3.2: Composición de señales (tiempo continuo)

86
u[n] - u[n-2]
1.5

0.5

-0.5
-2 -1 0 1 2 3 4

Figura 3.3: Composición de dos escalones para formar un par de impulsos (tiempo
discreto)

1.5

0.5

-0.5

-1

-1.5
-2 0 2 4 6 8

Figura 3.4: Composición de señales (tiempo discreto)

87
1.5 2.5

1 2

0.5 1.5

0 1

-0.5 0.5

-1 0

-1.5 -0.5
-2 0 2 4 6 8 10 -2 0 2 4 6 8 10

Figura 3.5: Pregunta sobre composición de señales (tiempo continuo)

1.5 2.5

1 2

0.5 1.5

0 1

-0.5 0.5

-1 0

-1.5 -0.5
-2 0 2 4 6 8 10 -2 0 2 4 6 8 10

Figura 3.6: Pregunta sobre composición de señales (tiempo discreto)

88
Impulso unitario

0.8

0.6

0.4

0.2

-0.2
-10 -5 0 5 10

Figura 3.7: Impulso unitario de tiempo discreto.

3.2.3 El impulso multiplicado por un coeficiente


La multiplicación de un impulso unitario δ[n] por un coeficiente a se define como
(
a n=0
a δ[n] = (3.15)
6 0
0 n=

3.2.4 La suma de dos impulsos desplazados en el tiempo y


multiplicados por coeficientes
La suma de dos impulsos desplazados en el tiempo y multiplicados por coeficientes es
una combinación lineal de impulsos. La podemos definir de la siguiente forma

a1 n = m1


a1 δ[n − m1 ] + a2 δ[n − m2 ] = a2 n = m2 (3.16)
0 (n 6= m1 ) ∧ (n 6= m2 )

3.2.5 La suma de N impulsos desplazados en el tiempos y mul-


tiplicados por coeficientes
Podemos definir la suma de N impulsos desplazados en el tiempo y multiplicados por
coeficientes ak
N
X
x[n] = ak δ[n − k], (3.17)
k=1

donde para m ∈ N
N
X
x[m] = ak δ[m − k] = am , (3.18)
k=1

89
porque solo donde m = k se cumple δ[m − k] = δ[0] = 1 y por lo tanto hay un solo
impulso igual a 1 que multiplica al coeficiente am . Todos los otros coeficientes están
multiplicados por 0.

3.2.6 La señal como combinación lineal de impulsos


1. Consideremos una sucesión de impulsos δ [n − n0 ], (ver Fig.(3.8) y la Ec. (2.106)),
multiplicados por los respectivos coeficientes x [n0 ],
(
x[−2], n = −2,
x[−2]δ [n + 2] = (3.19)
0, n=6 −2,
(
x[−1], n = −1,
x[−1]δ [n + 1] = (3.20)
0, n=6 −1,
(
x[0], n = 0,
x[0]δ [n] = (3.21)
0, n=6 0,
(
x[1], n = 1,
x[1]δ [n − 1] = (3.22)
0, n=6 1,
(
x[2], n = 2,
x[2]δ [n − 2] = (3.23)
0, n=6 2,

y en general, (
x[k], n = k,
x[k]δ [n − k] = (3.24)
0, n=6 k.

2. Como podemos ver en la Fig.(3.8), la suma de impulsos desplazados en el tiempo


multiplicados por coeficientes adecuados equivalen a cualquier señal arbitraria x[n].

3. En efecto, agregando más impulsos desplazados y multiplicados adecuadamente


podemos obtener una expresión que se puede escribir en forma general

X
x [n] = x [k] δ [n − k] . (3.25)
k=−∞

4. La Ec. (3.25) corresponde a la representación de una secuencia arbitraria x[n]


como

• una combinación lineal de impulsos desplazados δ [n − k],


• donde los coeficientes de la combinación lineal son los valores x[k].

90
2
x[0] d[n]
0

−2
−1 0 1 2 3

0
x[1] d[n−1]
−2
−1 0 1 2 3

2
x[2] d[n−2]
0

−2
−1 0 1 2 3

2
x[n]
0

−2
−1 0 1 2 3

Figura 3.8: Una señal como suma de impulsos desplazados en el tiempo multiplicados
por coeficientes adecuados. Los impulsos desplazados δ[n − k] se representan d[n − k].
Sólo se muestran tres impulsos por razones de espacio.

5. Cada impulso desplazado δ [n − k] actúa como selector: suponga que elegimos un


valor n = n0 y entonces tenemos que

X
x [n0 ] = x [k] δ [n0 − k] . (3.26)
k=−∞

6. Recordemos la definición de impulso


(
1, n = 0,
δ [n] = (3.27)
6 0.
0, n =

El impulso “vale” 1 cuando el ı́ndice n (lo que aparece entre corchetes) vale 0.
Note que en la ec. (3.26) sólo uno de los infinitos impulsos tiene un ı́ndice nulo,
especı́ficamente
n0 − k = 0. (3.28)
Entonces, de todos los infinitos términos sólo uno es no nulo (k = n0 ). Ası́ obten-
emos la igualdad
x [n0 ] = x [n0 ] . (3.29)

7. La utilidad de la ecuación (3.25) es que expresa una secuencia

...x[−3], x[−2], x[−1], x[0], x[1], x[2], x[3]... (3.30)

como una sumatoria.

91
3.2.7 La señal multiplicada con un impulso
1. Consideremos una señal x [n] a la que multiplicamos por un impulso δ [n − n0 ].
Hemos probado que

x [n] δ [n − n0 ] = x [n0 ] δ [n − n0 ] . (3.31)

2. Recordemos que el impulso desplazado δ [n − n0 ] actúa como “selector” al multi-


plicar a una señal x[n]: la única muestra de x[n] multiplicada por 1 es x[n0 ], todas
las demás se multiplican por 0.

3.2.8 Escalado temporal


1. Supongamos que tenemos una señal x[n] y la usamos para generar otra señal

y[n] = x[3 n]. (3.32)

¿Qué significa la Ec. (3.32)? Analizemos la siguiente tabla,


n x[n] y[n] = x[3 n]?
0 x[0] x[0]

1 x[1] x[3]

2 x[2] x[6]

3 x[3] x[9]

4 x[4] x[12]

5 x[5] x[15]

6 x[6] x[18]
... ... ...

2. Supongamos que tenemos una señal x[n] y la usamos para generar otra señal
1
y[n] = x[ n]. (3.33)
3
¿Qué significa la Ec. (3.33)? Analizemos la siguiente tabla

92
n x[n] x[ n3 ]

0 x[0] x[ 03 ]

1 x[1] x[ 13 ] ?

2 x[2] x[ 23 ] ?

3 x[3] x[ 33 ]

4 x[4] x[ 43 ] ?

5 x[5] x[ 53 ] ?

6 x[6] x[ 63 ]

7 x[7] x[ 73 ] ?
... ... ...
Como podemos ver, el problema es que el ı́ndice de una señal de tiempo discreto
debe ser un número entero. Por lo tanto, deberı́amos emplear la siguiente definición

x[ n3 ],


 n = 3m
y[n] = 0, n = 3 m + 1 (3.34)


0, n = 3 m + 2

∀m ∈ N .

3.2.9 Tiempo inverso


El caso de escalado temporal más sencillo es el del “viaje al pasado”. En este caso
y[n] = x[−n]. Es algo como reproducir un audio ”al revés”.
Esta es una operación usada en dos casos. Existe un dispositivo denominado scram-
bler que se puede aplicar a un teléfono: divide el audio en segmentos y después los
invierte en tiempo, segmento por segmento, antes de enviarlos por el canal de comuni-
cación. En el otro lado del canal, un dispositivo similar recupera la señal original con
el mismo proceso. La idea es que ”nadie” pueda espiar la conversación, o mejor dicho
que nadie la espı́e fácilmente. También hubo rumores que si se reproducen en tiempo
inverso las canciones de rock se pueden oir mensajes ocultos.
Un ejemplo con matlab
n = 1:5;
x = randn(1, 5);

93
subplot(2,1,1); stem(n, x);
subplot(2,1,2); stem(-n, x);

3.2.10 Desplazamiento en el tiempo


1. Supongamos una señal x[n]. Podemos desplazarla en el tiempo haciendo y[n] =
x[n − n0 ].
2. Por ejemplo, si x1 [n] = cos(2 π 52 n), podemos obtener su versión desplazada cuatro
muestras como y1 = x1 [n − 4] = cos(2 π 52 (n − 4)).

3.2.11 Tren de impulsos


1. El impulso unitario está definido como
(
1 n = 0,
δ[n] = (3.35)
0 n=6 0.
2. Podemos desplazar el impulso unitario definiendo
(
1 n = n0 ,
δ[n − n0 ] = (3.36)
0 n=6 n0 .
3. Por lo tanto, la siguiente definición
(
1 n = k n0 ,
δ[n − k n0 ] = (3.37)
0 n=6 k n0 .
donde k es un número entero, nos da impulsos ubicados en múltiplos enteros de
n0 .
4. Si sumamos todos los impulsos obtenidos en el punto anterior, obtenemos el tren
de impulsos

X
x[n] = δ[n − k n0 ]. (3.38)
k=−∞

3.3 Señales de tiempo continuo


3.3.1 El pulso
Un pulso unitario de tiempo continuo p(t) de duración τ se define como una diferencia
de escalones unitarios con un factor τ1
1
p(t) = (u(t) − u(t − τ )) , (3.39)
τ
donde τ > 0.

94
u(t) - u(t-2)
1.5

0.5

-0.5
-2 -1 0 1 2 3 4

Figura 3.9: Pulso de tiempo continuo con τ = 2

-3 -2 -1 0 1 2 3

Figura 3.10: Impulso como lı́mite de una sucesión de impulsos

3.3.2 El pulso desplazado


Un pulso unitario de tiempo continuo p(t) de duración τ desplazado en el tiempo t0 se
define como una diferencia de escalones unitarios desplazados en el tiempo t0
1
p(t − t0 ) = (u(t − t0 ) − u(t − t0 − τ )) . (3.40)
τ

3.3.3 El impulso como lı́mite del pulso


Cuando τ tiende a 0, el ancho del impulso tiende a 0, su altura tiende a ∞, y su área
se mantiene igual a 1.

95
Aproximacion del impulso unitario
17.5
15
12.5
10
7.5
5
2.5

-1 -0.5 0.5 1

Figura 3.11: Otra función de área unitaria (y van dos)

Aproximacion del impulso unitario


30

20

10

-1 -0.5 0.5 1

Figura 3.12: Otra función de área unitaria (y van tres)

96
Figura 3.13: Señal aproximada por combinación lineal de pulsos

3.3.4 La señal aproximada por una combinación lineal de pul-


sos
La señal x(t) puede aproximarse como una combinación lineal de pulsos desplazados
en el tiempo como puede verse en la figura (3.13), o analı́ticamente con mediante los
siguientes pasos:

1. Desplaze los pulsos en el tiempo

( ...
1

, −∆ ≤ t < 0,
δ∆ (t + ∆) =
(
0, (t < −∆) ∨ (0 ≤ t) ,
1
, 0 ≤ t < ∆,
δ∆ (t) = ∆
0, (t < 0) ∨ (∆ ≤ t) ,
(
1 (3.41)
, ∆ ≤ t < 2∆,
δ∆ (t − ∆) = ∆
0, (t < ∆) ∨ (2∆ ≤ t) ,
( ...
1
, k∆ ≤ t < (k + 1) ∆,
δ∆ (t − k∆) = ∆
0, (t < k∆) ∨ ((k + 1) ∆ ≤ t) .

97
2. Multiplicando por x (k∆) ∆ al k − ésimo pulso se obtiene

( ...
x(−∆)
∆, −∆ ≤ t < 0,
x (−∆) δ∆ (t + ∆) ∆ = ∆
( 0,
(t < −∆) ∨ (0 ≤ t) ,
x(0)
∆, 0 ≤ t < ∆,
x (0) δ∆ (t) ∆ = ∆
0, (t < 0) ∨ (∆ ≤ t) ,
(
x(∆) (3.42)
∆, ∆ ≤ t < 2∆,
x (∆) δ∆ (t − ∆) ∆ = ∆
0, (t < ∆) ∨ (2∆ ≤ t) ,
( ...
x(k∆)
∆, k∆ ≤ t < (k + 1) ∆,
x (k∆) δ∆ (t − k∆) ∆ = ∆
0, (t < k∆) ∨ ((k + 1) ∆ ≤ t) .

3. Observe que un valor dado de t (por ejemplo t0 ) sólo puede pertenecer a un


intervalo k∆ ≤ t < (k + 1) ∆, por lo tanto para t0 solo uno de los productos puede
ser distinto de 0. Sumando los infinitos productos obtenemos

X
x∆ (t) = x (k∆) δ∆ (t − k∆) ∆. (3.43)
k=−∞

3.3.5 La señal como combinación lineal de impulsos


Observe que en la ecuación (3.43) cuando ∆ tiende a cero x∆ (t) tiende a x (t) .

Lim Lim X
x (t) = x (t) = x (k∆) δ∆ (t − k∆) ∆. (3.44)
∆→0 ∆ ∆→0 k=−∞

Además, cuando ∆ tiende a cero, la sumatoria se convierte en una integral


Z ∞
x (t) = x (τ ) δ (t − τ ) dτ. (3.45)
−∞

Notemos que por la propiedad del muestreo, debe cumplirse

x (τ ) δ (t − τ ) = x (t) δ (t − τ ) , (3.46)

y en ese caso Z ∞ 
x (t) = x (t) δ (t − τ ) dτ , (3.47)
−∞

con lo que hemos probado que una función x(t) puede escribirse como una combinación
lineal de impulsos.

98
3.3.6 Desplazamiento en el tiempo
1. Supongamos una señal x(t). Podemos desplazarla en el tiempo haciendo y(t) =
x(t − t0 ).
2
2. Por ejemplo, si x1 (t) = cos(2 π 10 t), podemos obtener su versión desplazada cuatro
2
unidades de tiempo como y1 (t) = x1 (t − 4) = cos(2 π 10 (t − 4)).

3.3.7 Escalado temporal


1. El escalado temporal es reemplazar la variable independendiente t por otra variable
a la que llamaremos v. La relación de estas variables está dada por una escala que
simbolizaremos con la letra a. Por ejemplo, t = a v.

2. Considermos la señal x(t) = sen(2 π t). Podemos realizar el escalado temporal


t = 2 v, para obtener y(v) = sen(4 π v).

3.3.8 Tiempo inverso


Un caso especial de escalado temporal es cuando la escala es negativa. Por ejemplo, con
t = −v, obtenemos el denominado tiempo inverso.

3.3.9 Tren de impulsos


1. Supongamos una serie de impulsos desplazados en el tiempo δ(t), δ(t − T ), δ(t −
2 T ), δ(t − 3 T ) y en general δ(t − k T ), para k entero.

2. El par de impulsos sucesivos δ(t − k T ) y δ(t − (k + 1) T ) esta separado por un


intervalo de tiempo T .

3. El tren de impulsos es igual a a la sumatoria de todos los impulsos δ(t − k T ), para


k entero ∞X
ΠT (t) = δ(t − k T ), (3.48)
k=−∞

donde los impulsos son no nulos en t = k T .

3.3.10 Muestreo
El muestreo digital de una señal analógica (de tiempo continuo) nos permite obtener
una señal de tiempo discreto. Si cumplimos ciertas condiciones, que vamos a estudiar
durante este curso, es posible realizar un proceso inverso que nos permite recuperar la
señal de tiempo continuo original.

99
El muestreo ideal es una función que toma los valores de x(t) en los instantes t = k T ,
y 0 para todo t 6= k T , donde T es el perı́odo de muestreo y k es una variable entera.
Matemáticamente, podemos representar la operación de muestreo como la multiplicación
de una señal x(t) con un tren de impulsos de perı́odo T
 

X
y(t) = x(t) × ΠT (t) = x(t) ×  δ(t − k T ) . (3.49)
k=−∞

Entonces
 

X ∞
X
y(t) =  x(t) × δ(t − k T ) = x(k T ) × δ(t − k T ). (3.50)
k=−∞ k=−∞

3.4 Operaciones útiles, para tiempo discreto


3.4.1 Decimación
Supongamos una señal x[n]. La decimación de una señal x[n] es la generación de una
nueva señal y[n] mediante la eliminación de ciertas muestras de x[n]. Para eso multipli-
camos x[n] por  

X
y[n] = x[n] ×  δ[n − k N ] , (3.51)
k=−∞

Si escribimos

X ∞
X
y[n] = x[n] × δ[n − k N ] = x[k N ] × δ[n − k N ]. (3.52)
k=−∞ k=−∞

es evidente que para n = q N + r, q ∈ N , 0 < r < N debe ser y[n] = 0,

3.4.2 Interpolación
Supongamos una señal x[n]. La interpolación de una señal x[n] es la generación de una
nueva señal y[n] mediante la introducción de nuevas muestras calculadas, por ejemplo,
como promedios de dos muestras consecutivas de x[n]. Por ejemplo,
y[0] = x[0], (3.53)
y[1] = (x[0] + x[1])/2, (3.54)
y[2] = x[1], (3.55)
y[3] = (x[1] + x[2])/2, (3.56)
y ası́ sucesivamente.
Esta no es la única forma de interpolar. Es sólo un ejemplo de un tema que vamos
a ver con más detenimiento cuando veamos transformada de Fourier.

100
Capı́tulo 4

Sistemas (y señales)

4.1 Introducción
4.1.1 Definiciones
1. Las señales son magnitudes naturales variables portadoras de información entre
sistemas, representadas por funciones de variables independientes.

2. Los sistemas son conjuntos de partes que interactúan entre si, con un propósito
común.

3. Los sistemas reciben señales de entrada para entregar señales de salida.

4. Sistema de tiempo continuo es aquel que recibe, procesa y entrega solamente


señales de tiempo continuo.

5. Sistema de tiempo discreto es aquel que recibe, procesa y entrega solamente señales
de tiempo discreto.

6. Sistema hı́brido es aquel que recibe, procesa y entrega señales de tiempo continuo
y discreto.

7. Los sistemas pueden representarse mediante relaciones entre las señales de entrada
y salida.

8. En el caso de sistemas de tiempo continuo, simbolizados

S
x(t) y(t), (4.1)

podemos emplear los siguientes operadores matemáticos para describirlos

101
(a) Ecuaciones algebraicas
F (t, x(t), y(t)) = 0, (4.2)
donde x(t) es la entrada e y(t) es la salida del sistema. Por ejemplo,

y(t) − x(t) cos(2 t) = 0. (4.3)

(b) Ecuaciones diferenciales donde x(t) es la entrada e y(t) es la salida del sistema.
Por ejemplo,
dy(t)
+ 2 y(t) − x(t) = 0. (4.4)
dt
9. En el caso de sistemas de tiempo discreto, simbolizados

S
x [n] y [n] , (4.5)

podemos emplear los siguientes operadores matemáticos para describirlos

(a) Ecuaciones algebraicas donde x[n] es la entrada e y[n] es la salida del sistema.
Por ejemplo,
y[n] − x[n] 2−n = 0. (4.6)
(b) Ecuaciones de diferencias finitas donde x[n] es la entrada e y[n] es la salida
del sistema. Por ejemplo

x[n − 1]
y[n] − x[n] + x[n − 1] − − y[n − 1] − 2 y[n − 2] + 4 y[n − 3] = 0. (4.7)
2
10. Las descripciones de sistemas, ya sean ecuaciones algebraicas, ecuaciones diferen-
ciales, o de diferencias son modelos matemáticos del sistema, y los podemos usar
para análisis y diseño.

4.1.2 Ejemplos
Divisor resistivo de tensión
Supongamos que tenemos un divisor resistivo de tensión donde la relación entre la
tensión de entrada ve (t) y salida vs (t) es la ecuación

R2
Vs (t) = Ve (t) . (4.8)
R1 + R2
Esta es una ecuación algebraica de tiempo continuo. Ver Figura (4.1)

102
Circuito RC Serie
Supongamos que tenemos un circuito RC serie descripto por la ecuación diferencial
dvc (t) 1 1
+ vc (t) = vs (t) . (4.9)
dt RC RC
donde
1. vc (t) tensión en el capacitor,
2. vs (t) tensión en la fuente,
3. R valor de la resistencia,
4. C valor del capacitor.
Ver Figura (4.1).

Un negocio
Supongamos que el dueño de un negocio repone todos los dı́as la mercaderı́a. La ecuación
que describe la relación entre la cantidad de mercaderı́a que entra en el depósito y el
dinero necesario para comprarla es

t[n] = p (m − x[n]). (4.10)

donde
1. x[n] es la cantidad de mercaderı́a en el depósito,
2. m la cantidad máxima de mercaderı́a que puede tener guardada,
3. p el precio unitario,
4. t[n] el pago por la compra del dı́a n.
Esta es una ecuación algebraica de tiempo discreto.

Cuenta bancaria
Supongamos que tenemos una cuenta bancaria en la que obtenemos cierto interés men-
sual por mantener cierto depósito de dinero. La ecuación de diferencias que nos dice
cuanto dinero tendremos el próximo mes es

y [n + 1] = (1 + c/100) y[n] + x[n], (4.11)

donde

103
1. y[n + 1] dinero en la cuenta el próximo mes,

2. y[n] dinero en la cuenta este mes,

3. x[n] dinero depositado o extraı́do este mes,

4. c interés.

Esta es una ecuación de diferencias y por lo tanto, de tiempo discreto.

Cálculo de raı́ces de polinómios


Supongamos que tenemos que calcular una raı́z del polinómio

Q(x) = 0. (4.12)

Para obtener una solución podemos escribir la ecuación de diferencias


 
Q(x) 
xk+1 = xk − 
dQ(x)
. (4.13)
dx x=xk

Si damos a x0 un valor suficientemente cercano a la raı́z buscada del polinómio Q(x),


obtendremos una secuencia que converge rápidamente. Por ejemplo, si consideramos el
polinomio
Q(x) = x2 − 2 = 0, (4.14)
calcularemos la raı́z cuadrada de 2. Por lo tanto, iteremos la ecuación de diferencias

2 + x2k
xk+1 = , x0 = 2, (4.15)
2xk
para obtener los primeros cinco valores de la secuencia

2 1.5 1.41667 1.41422 1.41421 ... (4.16)

que como vemos se acerca rápidamente al resultado correcto.

4.2 Modelos
Necesitamos describir los sistemas con los que trabajamos para poder analizarlos, veri-
ficar sus propiedades, o para diseñar nuevos sistemas. Como ya vimos, podemos usar
ecuaciones diferenciales y ecuaciones de diferencias.

104
4.2.1 Ecuaciones diferenciales
Consideremos una ecuación diferencial
−1
dN y(t) NX di y(t) X M
dj x(t)
+ a i = b i , (4.17)
dtN i=0 dti j=0 dtj

donde x(t) es la entrada, y(t) es la salida, y los coeficientes ai y bj son constantes reales,
N ≥ 1, M ≥ 0, N > M . Por ejemplo,
dy 3 (t) dy 2 (t) dy(t)
+3 + 2 + y(t) = x(t). (4.18)
dt dt2 dt
Las ecuaciones diferenciales pueden escribirse como un sistema de ecuaciones diferen-
ciales de primer orden denominadas ecuaciones de estado empleando variables de estado.
Una posible definición de las variables de estado es la siguiente
v1 = y(t), (4.19)
dvk dk y
vk+1 = = k , 0 < k < N. (4.20)
dt dt
Con esta definición podemos escribir las ecuaciones de estado
dvk
= vk+1 , 1 ≤ k < N, (4.21)
dt
dvN
= G(t, x(t), v1 , v2 , ..., vN ). (4.22)
dt
Por ejemplo, para
dy 3 (t) dy 2 (t) dy(t)
+3 + 2 + y(t) = x(t), (4.23)
dt dt2 dt
definimos
v1 = y(t), (4.24)
dv1 dy(t)
= v2 = , (4.25)
dt dt
dv2 dy 2 (t)
= v3 = , (4.26)
dt dt2
dv3 dy 3 (t)
= = −v1 − 2 v2 − 3 v3 + x(t). (4.27)
dt dt3
En forma matricial
 dv       
1
dt
0 1 0 v1 0
 dv2 
 dt  = 0

0 1  ·  v2  +  0 
   
 x(t). (4.28)
dv3
dt
−1 −2 −3 v3 1
Las principales razones para emplear ecuaciones de estado son las siguientes:

105
1. La teorı́a de ecuaciones diferenciales en esta notación permite trabajar con sistemas
de varias entradas y varias salidas.
2. Es muy sencillo programar computadoras para trabajar con esta notación.
3. Esta notación permite realizar simulaciones por computadora de grandes sistemas
con muchas entradas y muchas salidas.

4.2.2 Ecuaciones de diferencias


Consideremos una ecuación de diferencias
F (n, x[n], y[n − 1], ..., y[n − M + 1]) = y[n]. (4.29)
donde x[n] es la entrada, y[n] es la salida, y M > 1. Por ejemplo
1 1 1
y[n + 1] + y[n] + y[n − 1] + y[n − 2] − x[n] = 0. (4.30)
2 4 8
Las ecuaciones de diferencias pueden escribirse como un sistema de ecuaciones de dife-
rencias de primer orden denominadas ecuaciones de estado. Una posible definición de
las variables de estado es
v1 [n] = y[n], (4.31)
vk+1 [n] = vk [n − 1] = y[n − k], 0 < k < M. (4.32)
Con esta definición podemos escribir las ecuaciones de estado
vk [n + 1] = vk+1 [n], 1 ≤ k < M, (4.33)
vM [n + 1] = G(n, x[n], v1 [n], v2 [n], ..., vM [n]). (4.34)
Por ejemplo, considerando la ecuación de diferencias
1 1 1
y[n + 1] + y[n] + y[n − 1] + y[n − 2] − x[n] = 0, (4.35)
2 4 8
podemos definir las variables de estado
v1 [n] = y[n − 2], (4.36)
v2 [n] = y[n − 1] = v1 [n + 1] (4.37)
v3 [n] = y[n] = v2 [n + 1], (4.38)
1 1 1
v3 [n + 1] = y[n + 1] = − v3 [n] − v2 [n] − v1 [n] + x[n]. (4.39)
2 4 8
En forma matricial
       
v1 [n + 1] 0 1 0 v1 [n] 0
 v2 [n + 1]  =  0
  
0 1  ·  v2 [n]  +  0 
   
 x[n]. (4.40)
1 1 1
v3 [n + 1] −8 −4 −2 v3 [n] 1

106
4.2.3 De ecuación diferencial a ecuación de diferencias
Aproximando la derivada, hacia adelante
Sabemos que por definición de derivada
dy Lim y(t + ∆) − y(t)
= . (4.41)
dt ∆→0 ∆
Entonces, si cambiamos el lı́mite por un ∆ pequeño, podemos escribir
dy y[n + 1] − y[n]
≈ . (4.42)
dt ∆
Entonces, si tenemos la ecuación diferencial
dy(t)
+ 2 y(t) = x(t), (4.43)
dt
resulta la ecuación de diferencias
y[n + 1] − y[n]
+ 2 y[n] = x[n], (4.44)

o
(y[n + 1] − y[n]) + 2 ∆ y[n] = ∆ x[n], (4.45)
y finalmente
y[n + 1] + (2 × ∆ − 1) y[n] = ∆ x[n]. (4.46)

Aproximando la derivada, hacia atrás


Podemos cambiar levemente la definición de derivada
dy Lim y(t) − y(t − ∆)
= . (4.47)
dt ∆→0 ∆
Entonces, si cambiamos el lı́mite por un ∆ pequeño, podemos escribir
dy y[n] − y[n − 1]
≈ . (4.48)
dt ∆
Entonces, si tenemos la ecuación diferencial
dy(t)
+ 2 y(t) = x(t), (4.49)
dt
resulta la ecuación de diferencias
y[n] − y[n − 1]
+ 2 y[n] = x[n], (4.50)

o
(y[n] − y[n − 1]) + 2 ∆ y[n] = ∆ x[n], (4.51)
y finalmente
(1 + 2 × ∆) y[n] − y[n − 1] = ∆ x[n]. (4.52)

107
Otra aproximación de derivada
Otra forma de definir derivada es
dy Lim y(t + ∆) − y(t − ∆)
= . (4.53)
dt ∆→0 2∆

Entonces podemos aproximar, para un ∆ pequeño

dy y(t + ∆) − y(t − ∆)
≈ . (4.54)
dt 2∆
Entonces, si tenemos la ecuación diferencial

dy(t)
+ 2 y(t) = x(t), (4.55)
dt
resulta la ecuación de diferencias
y[n + 1] − y[n − 1]
+ 2 y[n] = x[n], (4.56)
2∆
o
(y[n + 1] − y[n − 1]) + 4 ∆ y[n] = 2 ∆ x[n], (4.57)
y finalmente
y[n + 1] + 4 ∆ y[n] − y[n − 1] = 2 ∆ x[n]. (4.58)

4.3 Propiedades de sistemas


Vamos a establecer un vocabulario básico para estudiar distintas caracterı́sticas de sis-
temas.

4.3.1 Sistemas sin memoria o estáticos


Los sistemas sin memoria o estáticos son aquellos en los que la salida actual depende
únicamente de la entrada actual.

y (t) = 2 x (t) , (4.59)


y[n] = (x[n])3 + 4 x[n]. (4.60)

108
4.3.2 Sistemas con memoria o dinámicos
Los sistemas con memoria o dinámicos son aquellos en los que la salida actual depende
de entradas de un momento distinto al actual. Por ejemplo,

dy(t)
+ a y(t) = x(t), (4.61)
dt
Z T
x(t) dt = y(t), (4.62)
t=0

y(t) = x(t) − x(t − τ ), (4.63)


2
X
y [n] = x[n − k] = x[n] + x[n − 1] + x[n − 2]. (4.64)
k=0

4.3.3 Sistemas inversos


Un sistema S tiene un sistema inverso S −1 si su composición es tal que

x (t) = S −1 (S (x (t))) , (4.65)

x [n] = S −1 (S (x [n])) , (4.66)


Tengamos en cuenta que un sistema puede no tener sistema inverso. Por ejemplo

y(t) = (x(t))2 . (4.67)

4.3.4 Sistemas causales


Un sistema es causal o no anticipativo si su salida no depende de entradas futuras. Por
ejemplo
y (t) = ax (t) , (4.68)
y [n] = x [n − 1] + x [n − 2] . (4.69)
Todos los sistemas sin memoria son causales.

4.3.5 Sistemas no causales


Un sistema es no causal o anticipativo si su salida depende de entradas futuras. Por
ejemplo, consideremos la ecuación
2
1 X
y [n] = x [n − k] . (4.70)
5 k=−2

109
Calculemos la salidad para y[2]. Expandiendo la sumatoria obtenemos
1
y[2] = (x[2 − (−2)] + x[2 − (−1)] + x[2 − (0)] + x[2 − (1)] + x[2 − (2)]) . (4.71)
5
Simplificando, resulta
1
y[2] = (x[4] + x[3] + x[2] + x[1] + x[0]) . (4.72)
5
Como podemos ver, para calcular y[2] necesitamos conocer las entradas futuras x[4] y
x[3]. Por lo tanto, el sistema es no causal.

4.3.6 Sistemas dinámicos autónomos


Un sistema dinámico es autónomo si

• Su ecuación diferencial es del tipo

dy dM y
F (y(t), , ..., M ) = 0, (4.73)
dt dt
donde y(t) es la salida del sistema.

• Su ecuación de diferencias es del tipo

F (y[n], ..., y[n − M ]) = 0, (4.74)

donde y[n] es la salida del sistema.

4.3.7 Sistemas dinámicos no autónomos


Un sistema dinámico es no autónomo si

• Su ecuación diferencial es del tipo

dx dN x dy dM y
F (t, x(t), , ..., N , y(t), , ..., M ) = 0, (4.75)
dt dt dt dt
donde x(t) es la entrada e y(t) es la salida del sistema.

• Su ecuación de diferencias es del tipo

F (n, x[n], ..., x[n − N ], y[n], ..., y[n − M ]) = 0, (4.76)

donde x[n] es la entrada e y[n] es la salida del sistema.

110
4.3.8 Linealidad homogénea
Una función es lineal homogénea sı́ y solo sı́

f (a x1 + b x2 ) = a f (x1 ) + b f (x2 ) . (4.77)

Por ejemplo,
y = f (x) = m x, (4.78)
es una función lineal, porque se cumple

y1 = m x1 ,
y2 = m x2 , (4.79)
a y1 + b y2 = a m x1 + b m x2 = m (a x1 + b x2 ) .

En cambio,
y = f (x) = m x + 1, (4.80)
no es una función lineal como podemos verificar

y1 = m x1 + 1,
y2 = m x2 + 1, (4.81)
a y1 + b y2 = m (a x1 + b x2 ) + (a + b) 6= m (a x1 + b x2 ) + 1.

4.3.9 Sistemas lineales


Se dice que un sistema S es lineal si su respuesta para una entrada compuesta a x1 + b x2
cumple con la siguiente propiedad,

S (a x1 + b x2 ) = a S (x1 ) + b S (x2 ) , (4.82)

conocida como principio de superposición.

4.3.10 Sistemas no lineales


Se dice que un sistema f es no lineal si su respuesta para una entrada compuesta
a x1 + b x2 cumple con la siguiente propiedad,

f (a x1 + b x2 ) 6= a f (x1 ) + b f (x2 ) , (4.83)

y por lo tanto, NO cumple con el principio de superposición. Por ejemplo, esta ecuación
diferencial no es lineal
dy
= y(t) (M − y(t)) + x(t). (4.84)
dt

111
4.3.11 Puntos de equilibrio
1. Un sistema dinámico de tiempo continuo con ecuación de estado
ẋ = f (x), (4.85)
tiene un punto de equilibrio xe si se satisface la siguiente ecuación
0 = f (xe ). (4.86)

2. Un sistema dinámico de tiempo discreto con ecuación de estados


xk+1 = f (xk ), (4.87)
tiene un punto de equilibrio xe si se satisface la siguiente ecuación
xe = f (xe ). (4.88)

4.3.12 Sistemas dinámicos estables


1. Sistemas no autónomos (Bounded Input Bounded Output) La salida per-
manece acotada para entradas acotadas.
2. Sistemas autónomos El sistema estable evoluciona por si sólo a un estado de
equilibrio.

4.3.13 Sistemas dinámicos inestables


Aquellos que no son estables. Apartados del equilibrio, se apartan aún más de él.

4.3.14 Sistemas invariantes en el tiempo


Un sistema invariante en el tiempo es aquél cuyas caracterı́sticas y comportamiento
están fijas en el tiempo.
Este tipo de sistemas para una entrada determinada generan la misma salida inde-
pendientemente del momento.
1. La salida y(t) para la entrada x(t + t0 ) es independiente del valor t0 .
2. la salida y[n] para la entrada x[n + n0 ] es independiente del valor n0 .

4.3.15 Sistemas variantes en el tiempo


Si un sistema no es invariante en el tiempo, entonces se dice que es variante. En realidad,
todos los sistemas fı́sicos son variantes, debido al deterioro natural impuesto por la
termodinámica. Lo que sucede es que con una escala de tiempo adecuada, el deterioro
puede ignorarse.

112
4.3.16 Ejemplos
Clasificación
Supongamos un sistema definido por
y(t) = g(t) x (t) . (4.89)
¿Es lineal? Si, como podemos ver en las siguientes ecuaciones
y(t) = g(t) (a x1 (t) + b x2 (t)) = a g(t) x1 (t) + b g(t) x2 (t), (4.90)
y(t) = a g(t) x1 (t) + b g(t) x2 (t) = a y1 (t) + b y2 (t). (4.91)
¿Es invariante en el tiempo? No, como podemos ver en las siguientes ecuaciones
y1 (t) = g (t) x1 (t) ←→ y1 (t − τ ) = g (t − τ ) x1 (t − τ ) , (4.92)
y2 (t) = g (t) x1 (t − τ ) . (4.93)
¿Tiene memoria? No, porque no necesitamos conocer otro valor que el de la entrada
actual para calcular la salida, ni tampoco sus derivadas.

Un circuito eléctrico
Supongamos un circuito eléctrico con las siguientes magnitudes: corriente i(t), tensión
v(t), resistencia R, capacidad C, inductancia L.
dv (t) v (t) 1 Z t
i (t) = C + + v (τ ) dτ. (4.94)
dt R L 0
Ver Figura (4.1).
¿Es lineal? Si, porque las operaciones derivada e integral son lineales
d(ax(t) + by(t) dx dy
= a +b , (4.95)
Z dt dt
Z dt Z
ax(t) + by(t)dt = a x(t)dt + b y(t)dt. (4.96)

¿Es invariante en el tiempo? El sistema es invariante en el tiempo. ¿Porqué?


¿Tiene memoria? Si, por las operaciones derivada e integral.

Un sistema abstracto, tiempo continuo


El sistema
y(t) = S (x (t)) = 2x (t) , (4.97)
es un sistema sin memoria o estático de tiempo continuo que tiene un sistema inverso
1
S −1 (x (t)) = x(t), (4.98)
2
113
5 4 3 2 1

D D

VCC VCC

C C

R1 R1
Ve Ve
R2 Vs
C1
Vs

B B

i(t)

v(t) R C L

A A

Title
Señales y sistemas

Size Document Number Rev


A <Doc>

Date: Monday, March 11, 2002 Sheet 1 of 1


5 4 3 2 1

Figura 4.1: Distintos circuitos usados para plantear las ecua-ciones (4.8), (4.9) y (4.94)

Otro sistema abstracto, tiempo discreto


El sistema ∞
X
y [n] = x[n − k], (4.99)
k=0

es un sistema con memoria o dinámico de tiempo discreto que tiene un sistema inverso
∞ ∞
! !
X X
x [n] = y [n] − y [n − 1] = x[n − k] − x[n − 1 − k] . (4.100)
k=0 k=0

∞ ∞
! !
X X
x [n] = x[n] + x[n − k] − x[n − 1 − k] . (4.101)
k=1 k=0
 
∞ ∞
!
X X
x [n] = x[n] +  x[n − 1 − p] − x[n − 1 − k] . (4.102)
p=0 k=0

x [n] = x[n]. (4.103)

114
Sistema mecánico
Supongamos un sistema mecánico con las siguientes magnitudes: masa M, constante de
fricción B, constante del resorte K, fuerza externa f (t), velocidad de la masa v(t).
Z t
dv (t)
f (t) = M + Bv (t) + K v (τ ) dτ. (4.104)
dt −∞

1. ¿Es lineal?

2. ¿Es invariante en el tiempo?

3. ¿Tiene memoria?

Analogı́a entre diferentes sistemas


Compare las ecuaciones diferenciales de los sistemas:

dv (t) v (t) 1 Z t
i (t) = C + + v (τ ) dτ, (4.105)
dt R L −∞
Z t
dv (t)
f (t) = M + Bv (t) + K v (τ ) dτ. (4.106)
dt −∞

Estas ecuaciones diferenciales corresponden a distintos sistemas (uno eléctrico, otro


mecánico), pero las dos tienen la misma forma.

4.4 Diagrama de bloques


1. Es posible hacer descripciones de sistemas usando

(a) bloques que representan los distintos componentes del sistema.


(b) flechas que representan los flujos de señal entre los componentes (que salida
se conecta a cada entrada).

2. Se pueden hacer diagramas de bloques del mismo sistema con énfasis en distintos
aspectos:

(a) Caja negra, con énfasis en los conjuntos de entradas y salidas (o interfases de
entrada y salida). Vea la Fig. (4.2).
(b) Caja blanca, con énfasis en las relaciones entre los distintos componentes del
sistema (o subsistemas). Vea la Fig. (4.3).

3. Existen varias formas de interconectar sistemas (Vea la Fig. 4.4)

115
Out1

1 In1 Uno

Constante Out2

Dos

Out3

In2 Tres

Seno Out4

Cuatro
Sistema

Figura 4.2: Sistema visto como caja negra, con énfasis en las interfaces de entrada y
salida

Product

1
In1

1 1 1
s s
2 Product1 Out1
Integrator Integrator1
In2
1
Gain
Out3 3 1
Gain1
4
Out4
2
Out2

Figura 4.3: Sistema visto como caja blanca, con énfasis en los subsistemas

116
(a) Conexión serie
(b) Conexión paralelo
(c) Retroalimentación

4.5 Ejemplos
4.5.1 Planteo
Indique si los sistemas definidos por las siguientes relaciones entrada salida son lineales
o no lineales

1. y [n + 1] = 12 y [n] + x [n],

2. y [n + 1] = − 41 y [n] + x [n],
(
1
2
y [n] + x [n] , y [n] > 12 ,
3. y [n + 1] =
− 14 y [n] + x [n] , y [n] ≤ 12 .

4.5.2 Solución
1. y [n + 1] = 21 y [n] + x [n], Sistema lineal, ecuación de diferencias donde aparecen
las señales multiplicadas por coeficientes constantes y sumadas.

2. y [n + 1] = − 14 y [n] + x [n], Sistema lineal, ecuación de diferencias donde aparecen


las señales multiplicadas por coeficientes constantes y sumadas.
(
1
2
y [n] > 12 ,
y [n] + x [n] ,
3. y [n + 1] = 1 Sistema no lineal, o lineal a tramos. No
y [n] ≤ 12 .
− 4 y [n] + x [n] ,
cumple con el principio de superposición.

4.6 Para practicar


Escriba un programa que calcule la raı́z cúbica de 10 mediante una ecuación de diferen-
cias. Haga la verificación correspondiente.
Si planteamos
p(x) = x3 − 10, (4.107)
podemos calcular la derivada
dp(x)
= 3 x2 (4.108)
dx

117
Distintas formas de interconectar sistemas

In1 Out1 In1 Out1

Generador de señal Salida serie


Sistema 1 Sistema 2
Sistemas en serie

In1 Out1

Salida paralelo
Sistema 3

In1 Out1

Sistema 4

Sistemas en paralelo

In1 Out1

Salida realimentación
Sistema 5

Out1 In1

Sistema 6
Sistemas realimentados

Figura 4.4: Interconección de sistemas. El bloque circular con dos signos + en su interior
es un sumador.

118
Entonces podemos escribir la ecuación de diferencias

x[n]3 − 10
x[n + 1] = x[n] − , (4.109)
3 x[n]2

Supongamos x[0] = 1.

119
Capı́tulo 5

La suma de convolución

5.1 Deducción de la fórmula


A continuación calculamos la salida y[n] de un sistema lineal para una entrada arbitraria
x[n]. Para poder hacerlo, usamos pulsos desplazados en el tiempo δ[n − n0 ] donde n0 es
un instante de tiempo.

5.1.1 Representación de señales en términos de impulsos


1. Consideremos una secuencia x [n], (ver Fig.(3.8)). Por la propiedad del muestreo
podemos escribir
(
x[−2], n = −2,
x[−2]δ [n + 2] = (5.1)
0, n=6 −2,
(
x[−1], n = −1,
x[−1]δ [n + 1] = (5.2)
0, n=6 −1,
(
x[0], n = 0,
x[0]δ [n] = (5.3)
0, n=6 0,
(
x[1], n = 1,
x[1]δ [n − 1] = (5.4)
0, n=6 1,
(
x[2], n = 2,
x[2]δ [n − 2] = (5.5)
0, n=6 2,

y en general, (
x[k], n = k,
x[k]δ [n − k] = (5.6)
0, n=6 k.

2. Como podemos ver en la Fig.(5.1), la suma de impulsos desplazados en el tiempo

120
2
x[0] d[n]
0

−2
−1 0 1 2 3

0
x[1] d[n−1]
−2
−1 0 1 2 3

2
x[2] d[n−2]
0

−2
−1 0 1 2 3

2
x[n]
0

−2
−1 0 1 2 3

Figura 5.1: Una señal como suma de impulsos desplazados en el tiempo multiplicados
por coeficientes adecuados. Los impulsos desplazados δ[n − k] se representan d[n − k].
Sólo se muestran tres impulsos por razones de espacio.

multiplicados por coeficientes adecuados equivalen a cualquier señal arbitraria x[n].

3. En efecto, agregando más impulsos desplazados y multiplicados adecuadamente


podemos obtener una expresión que se puede escribir en forma general

X
x [n] = x [k] δ [n − k] . (5.7)
k=−∞

4. La Ec. (5.7) corresponde a la representación de una secuencia arbitraria x[n] como

• una combinación lineal de impulsos desplazados δ [n − k],


• donde los coeficientes de la combinación lineal son los valores x[k].

5. Cada impulso desplazado δ [n − k] actúa como selector: suponga que elegimos un


valor n = n0 y entonces tenemos que

X
x [n0 ] = x [k] δ [n0 − k] . (5.8)
k=−∞

6. Recordemos la definición de impulso


(
1, n = 0,
δ [n] = (5.9)
6 0.
0, n =

121
El impulso “vale” 1 cuando el ı́ndice n (lo que aparece entre corchetes) vale 0.
Note que en la ec. (5.8) sólo uno de los infinitos impulsos tiene un ı́ndice nulo,
especı́ficamente
n0 − k = 0. (5.10)
Entonces, de todos los infinitos términos sólo uno es no nulo (k = n0 ). Ası́ obten-
emos la igualdad
x [n0 ] = x [n0 ] . (5.11)

7. La utilidad de la ecuación (5.7) es que expresa una secuencia

...x[−3], x[−2], x[−1], x[0], x[1], x[2], x[3]... (5.12)

como una sumatoria.

5.1.2 La respuesta al impulso y la suma de convolución


1. Sea hk [n] = h [n − k] la respuesta de un sistema lineal S al impulso unitario
desplazado δ [n − k],
...
S
δ [n + 1] h [n] ,
→ −1
S
δ [n] h [n] ,
→ 0
(5.13)
S
δ [n − 1] h1 [n] ,

...
S
δ [n − k] h [n] .
→ k
Vea la Fig.(5.2).
2. Como el sistema S es lineal, podemos multiplicar a ambos lados por constantes y
obtenemos
...
S
x [−1] δ [n + 1] x [−1] h−1 [n] ,

S
x [0] δ [n] x [0] h0 [n] ,

(5.14)
S
x [1] δ [n − 1] x [1] h1 [n] ,

...
S
x [k] δ [n − k] x [k] hk [n] .

122
2 2

0 0

−2 −2
−1 0 1 2 3 4 5 −1 0 1 2 3 4 5

2 2

0 0

−2 −2
−1 0 1 2 3 4 5 −1 0 1 2 3 4 5

2 2

0 0

−2 −2
−1 0 1 2 3 4 5 −1 0 1 2 3 4 5

2 2

0 0

−2 −2
−1 0 1 2 3 4 5 −1 0 1 2 3 4 5

2 2

0 0

−2 −2
−1 0 1 2 3 4 5 −1 0 1 2 3 4 5

Figura 5.2: Las respuestas de un sistema lineal frente a impulsos desplazados en el


tiempo. Los gráficos de la columna izquierda representan las entradas, y los de la
columna derecha las salidas.

Como el sistema es lineal, podemos “sumar” las infinitas entradas y las infinitas
salidas para obtener
   
∞ ∞
X S  X
x [n] =  x [k] δ [n − k]  x [k] hk [n] = y [n] . (5.15)
k=−∞
→ k=−∞

Vea la Fig.(5.3).
Por el principio de superposición, y [n] es la respuesta a la entrada x [n]

X
y [n] = x [k] hk [n] (5.16)
−∞

3. Si el sistema S es invariante en el tiempo, entonces para cualquier valor de k se


cumple que
hk [n] = h0 [n] . (5.17)
Por conveniencia notacional, definimos la respuesta al impulso de un sistema in-
variante en el tiempo
h [n] = h0 [n] , (5.18)
o sea que h [n] es la salida de un sistema S LIT cuando δ [n] es la entrada. Entonces
podemos escribir
hk [n] = h [n − k] , (5.19)
y

X
y [n] = x [k] h [n − k] . (5.20)
−∞

123
2 2
0 0
−2 −2
−1 0 1 2 3 4 5 −1 0 1 2 3 4 5
2 2
0 0
−2 −2
−1 0 1 2 3 4 5 −1 0 1 2 3 4 5
2 2
0 0
−2 −2
−1 0 1 2 3 4 5 −1 0 1 2 3 4 5
2 2
0 0
−2 −2
−1 0 1 2 3 4 5 −1 0 1 2 3 4 5
2 2
0 0
−2 −2
−1 0 1 2 3 4 5 −1 0 1 2 3 4 5
2 2
0
0
−2
−2 −4
−1 0 1 2 3 4 5 −1 0 1 2 3 4 5

Figura 5.3: En la columna de la izquierda, desde la primera a la quinta fila vemos


impulsos desplazados en el tiempo δ[n − k] multiplicados por x[k]. En la columna
de la derecha, en las filas respectivas vemos las respuestas correspondientes. En los
subgráficos de la sexta fila, vemos la suma de los resultados parciales para obtener la
señal de entrada x[n] (izquierda) y la salida correspondiente y[n] (derecha)

Esta es la suma de convolución o superposición. La convolución de dos señales se


representa
y [n] = x [n] ∗ h [n] . (5.21)

5.2 Ejemplos
5.2.1 Convolución con un impulso desplazado
Supongamos un sistema con una respuesta al impulso h[n] = δ[n−n0 ]. Vamos a calcular
su salida para una entrada x[n].
1. Comenzamos escribiendo la suma de convolución

X
y [n] = x [k] h [n − k] . (5.22)
−∞

2. Si h[n] = δ[n − n0 ], entonces h[n − k] = δ[n − n0 − k].


3. Reemplazando h[n − k] en la suma de convolución resulta

X ∞
X
y [n] = x [k] h [n − k] = x [k] δ [n − n0 − k] . (5.23)
−∞ −∞

Observemos que tenemos una señal x[k] multiplicada por un impulso δ [n − n0 − k].

124
4. ¿Donde “vale” 1 el impulso δ [n − n0 − k]? Justo cuando n − n0 − k = 0.

5. ¿Para cual valor de k la señal x[k] va a estar multiplicada por 1, y para cuales
valores de k va a estar multiplicada por 0?

6. Para el valor k = n − n0 → x[k] δ [n − n0 − k] = x[n − n0 ] δ[0].

7. Para los valores n − n0 − k = m 6= 0 se verifica

x[k] δ [n − n0 − k] = x[n − n0 − m] x[m 6= 0] = 0. (5.24)

8. Por lo tanto

X
y [n] = x [k] h [n − k] = ...+x[n−n0 +1] 0+x[n−n0 ] 1+x[n−n0 −1] 0+... (5.25)
−∞

9. El resultado es ∞
X
y [n] = x [k] h [n − k] = x[n − n0 ]. (5.26)
−∞

10. Como la respuesta al impulso es un impulso desplazado en el tiempo, todas las


entradas para este sistema generan salidas desplazadas en el tiempo.

5.2.2 Convolución con varios impulsos desplazados


Supongamos que tenemos un sistema lineal invariante en el tiempo con respuesta al
impulso h[n] = δ[n − n0 ] + δ[n − n1 ]. Calcular la respuesta y[n] para una entrada x[n].

1. Si la respuesta al impulso fuera h[n] = δ[n − n0 ], la salida serı́a y[n] = x[n − n0 ].

2. Si la respuesta al impulso fuera h[n] = δ[n − n1 ], la salida serı́a y[n] = x[n − n1 ].

3. Entonces, para h[n] = δ[n − n0 ] + δ[n − n1 ], la salida es y[n] = x[n − n0 ] + x[n − n1 ]


(Principio de superposición).

5.3 La suma de convolución paso a paso


Para calcular la convolución

X
y[n] = x[k]h[n − k], (5.27)
k=−∞

en el momento n = n0 , debemos ejecutar los siguientes pasos:

125
1. reemplazar la variable independiente k por −k para obtener h[−k], la versión
reflejada respecto a k = 0.

2. desplazar h[−k] a la posición n0 , o en otras palabras, se desplaza h[−k] de forma


tal que el valor original h[0] esté ubicado en k = n0 .

3. evaluar el producto z[n0 , k] = x[k] h[n0 − k].


P∞
4. evaluar la sumatoria y[n0 ] = k=−∞ z[n0 , k].

5.4 Cálculo de la suma de convolución en forma


gráfica
El cálculo de la convolución tiene una interpretación gráfica.

1. Consideremos la fórmula

X
y [n] = x [k] h [n − k] . (5.28)
−∞

2. En la ec. (5.28) el factor h[n − k] es una versión de h[k] invertida en el tiempo


(observe la variable k en ambas funciones) y desplazada en el tiempo (observe la
variable n, que toma un valor constante para todos los sumandos x [k] h [n − k]).

3. En la ec. (5.28), el desplazamiento en el tiempo del factor h[n − k] depende del


ı́ndice de la salida y[n].

4. En base a las anteriores observaciones, es posible enunciar la siguiente “receta”


para calcular la convolución en forma gráfica.

(a) Dibuje la señal x[k].


(b) Invierta en el tiempo la señal h[k] para obtener h[−k].
(c) Repita los siguientes pasos para calcular distintos valores de y[n]
i. Desplace en el tiempo la señal h[−k] para obtener h[n − k].
ii. Obtenga el producto z[n, k] = x[k] h[n − k].
P
iii. El valor de y[n] es k z[n, k].

126
5.5 Ejemplos
5.5.1 Convolución de señales de duración finita
Calculemos la convolución de las señales
n ≤ 0,


 0
2 n = 1,


x [n] = (5.29)


 −2 n = 2,
0 n > 2,

n ≤ 0,


0
−1 n = 1,


h [n] = (5.30)


 −1 n = 2,
0 n > 2.

Dado que podemos considerar la señal x[n] como dos impulsos desplazados y multipli-
cados por coeficientes, podemos calcular la respuestas del sistema a los impulsos por
separado y sumarlas despues de multiplicarlas por los coeficientes adecuados. Tenemos
entonces
n h[n − 1] h[n − 2] y[n] = h[n − 1]x[1] + h[n − 2]x[2],
0 0 0 0,
1 0 0 0,
2 −1 0 −2,
(5.31)
3 −1 −1 0,
4 0 −1 2,
5 0 0 0,
6 0 0 0.
Resumiendo, 



0 n ≤ 1,
−2 n = 2,




y [n] = 0 n = 3, (5.32)




 2 n = 4,
0 n > 4.

Forma gráfica
1. Dibujemos las señales x[n], h[n] y h[−n]. Ver Fig. (5.4) a (5.9).
2. Dibujemos h[n − k] para distintos valores de n, junto con x[k].
3. Dibujemos el producto z[n, k] = x[k] h[n − k].
P
4. Calculemos k z[n, k] para obtener y[n].

127
Figura 5.4: Señales x[k], h[k] y h[−k].

128
Figura 5.5: Señales x[k], h[k] y h[1 − k].

129
Figura 5.6: Señales x[k], h[k] y h[2 − k].

130
Figura 5.7: Señales x[k], h[k] y h[3 − k].

131
Figura 5.8: Señales x[k], h[k] y h[4 − k].

132
Figura 5.9: Señales x[k], h[k] y h[5 − k].

133
5.5.2 Convolución con un impulso
Calculemos ahora la convolución de las señales
99 n
 
x [n] = u [n] , (5.33)
100
h [n] = δ [n − 1] . (5.34)

Forma gráfica
1. Dibujemos las señales x[k], h[k] y h[−k].

2. Dibujemos h[n − k] para distintos valores de n, junto con x[k]. Ver (5.10).

3. Dibujemos el producto z[n, k] = x[k] h[n − k].


P
4. Calculemos k z[n, k] para obtener y[n].

Forma analı́tica
1. Según la Ec. (5.15), tenemos
∞  k
X 99
y [n] = u [k] δ [n − 1 − k] . (5.35)
k=−∞ 100

2. Dado que dentro de la sumatoria aparece un escalón unitario, podemos eliminarlo


modificando adecuadamente el lı́mite inferior del ı́ndice k. Como u[k] = 0 para
k < 0, el lı́mite inferior es k = 0,
∞  k
X 99
y [n] = δ [n − 1 − k] . (5.36)
k=0 100

3. Observe que el ı́ndice del impulso es n − 1 − k, y que por lo tanto está ubicado en
k = n − 1. Entonces
k n−1
99 99
 
δ [n − 1 − k] = δ [n − 1 − k] . (5.37)
100 100

4. Reemplazando (5.37) en la sumatoria, obtenemos


∞  n−1 ∞
n−1 X n−1
99 99 99
X  
δ [n − 1 − k] = δ [n − 1 − k] = u (n − 1) .
k=0 100 100 k=0 100
(5.38)

134
Figura 5.10: Señales x[k], h[k] y h[2 − k].

135
5. Por lo tanto, la salida es
n−1
99

y [n] = u[n − 1]. (5.39)
100

6. En general, consideremos una respuesta al impulso

h [n] = δ [n − n0 ] . (5.40)

y calculemos su convolución para una entrada genérica x[n].

7. Según la Ec. (5.15), tenemos



X
y [n] = x[k] δ [n − n0 − k] , (5.41)
k=−∞

8. Observe que el ı́ndice del impulso es n − n0 − k, y que por lo tanto está ubicado
en k = n − n0 . Entonces

x[k] δ [n − n0 − k] = x[n − n0 ] δ [n − n0 − k] , (5.42)

9. Considerando la sumatoria, obtenemos


 

X ∞
X
x[n − n0 ]δ [n − n0 − k] = x[n − n0 ]  δ [n − n0 − k] (5.43)
k=−∞ k=−∞

10. Dado que  



X
u[n − n0 ] =  δ [n − n0 − k] (5.44)
k=−∞

la salida y[n] es
y [n] = x[n − n0 ] u[n − n0 ]. (5.45)

5.5.3 Convolución de una señal con una ventana rectangular


Calculemos la convolución de las señales
 n
1
x [n] = u [n] , (5.46)
2
h [n] = u [n] − u [n − 2] = δ [n] + δ [n − 1] , (5.47)

136
Forma gráfica
1. Dibujemos las señales x[k], h[k] y h[−k].
2. Dibujemos h[n − k] para distintos valores de n, junto con x[k].
3. Dibujemos el producto z[n, k] = x[k]h[n − k].
P
4. Calculemos k z[n, k] para obtener y[n].

Forma analı́tica
1. Según la Ec. (5.15), tenemos
∞  k
X 1
y [n] = u [k] h [n − k] . (5.48)
k=−∞ 2

2. Ajustamos los ı́ndices de la sumatoria porque la ventana rectangular es nula para


k<0
∞  k
X 1
y [n] = h [n − k] . (5.49)
k=0 2

3. Expresamos a la ventana rectangular como una suma de impulsos desplazados en


el tiempo
∞  k
X 1
y [n] = (δ [n − k] + δ [n − 1 − k]) . (5.50)
k=0 2

4. Desdoblamos la convolución en dos,


∞  k  n
X 1 1
δ [n − k] = u[n], (5.51)
k=0 2 2
∞  k  n−1
X 1 1
δ [n − 1 − k] = u[n − 1]. (5.52)
k=0 2 2
5. El resultado final es
 n  n−1
1 1
y [n] = u[n] + u[n − 1]. (5.53)
2 2
5.5.4 Convolución de señales infinitas
Considere una entrada x [n] y una respuesta al impulso unitario dadas por
x [n] = αn u [n] , (5.54)
h [n] = u [n] , (5.55)
donde el valor absoluto de α es menor que 1,
0 < |α| < 1. (5.56)

137
Forma gráfica
1. Dibujemos las señales x[k], h[k] y h[−k].
2. Dibujemos h[n − k] para distintos valores de n, junto con x[k].
3. Dibujemos el producto z[n, k] = x[k] h[n − k].
P
4. Calculemos k z[n, k] para obtener una aproximación de y[n]

Forma analı́tica
1. Según la Ec. (5.15), tenemos
(
k αk , 0 ≤ k ≤ n,
α u[k]u[n − k] = (5.57)
0, (k < 0) ∨ (k > n)

2. Para poder realizar esta sumatoria, debemos recordar sucesiones geométricas. De-
finamos la suma parcial
n
αk ,
X
Sn = (5.58)
k=0
y multipliquemos por a para obtener
n
αk+1 .
X
α Sn = (5.59)
k=0

Entonces podemos escribir


n n
! !
k k+1
X X
Sn − α Sn = α − α (5.60)
k=0 k=0

y simplificando
Sn − α Sn = α0 − αn+1 . (5.61)
Podemos despejar entonces
α0 − αn+1 1 − αn+1
Sn = = . (5.62)
1−α 1−α
3. Aplicamos la Ec. (5.62) a la Ec. (5.57)
n
1 − αn+1
αk =
X
. (5.63)
k=0 1−α
Por lo tanto, la respuesta es
1 − αn+1
!
y [n] = u (n) . (5.64)
1−α

138
5.5.5 Convolución de una señal consigo misma
Vamos a calcular la convolución de una señal consigo misma, definiendo
8 n
 
x [n] = u [n] , (5.65)
10
 n
8
h [n] = u [n] . (5.66)
10

Forma gráfica
1. Dibujemos las señales x[k], h[k] y h[−k].

2. Dibujemos h[n − k] para distintos valores de n, junto con x[k].

3. Dibujemos el producto z[n, k] = x[k]h[n − k].


P
4. Calculemos k z[n, k] para obtener y[n] en forma aproximada

Forma analı́tica
1. Según la Ec. (5.15), tenemos
∞  k n−k
8 8
X 
y [n] = u [k] u [n − k] , (5.67)
k=−∞ 10 10

2. Podemos modificar los lı́mites de la sumatoria, pues u[k] = para k < 0, y u[n−k] =
0 para n − k < 0
n 
8 k+n−k
X 
y [n] = , (5.68)
k=0 10

8 n
3. Extraemos de la sumatoria el factor común de todos los sumandos ( 10 ) , que es
independiente de k, y obtenemos
n
n X
8

y [n] = 1, (5.69)
10 k=0

4. Finalmente resulta
8 n
 
y [n] = (n + 1) u[n]. (5.70)
10
El factor u[n] aparece porque la sumatoria cuyo resultado es n + 1 tiene un lı́mite
inferior k = 0, y por lo tanto la sumatoria es no nula sı́ y solo sı́ n ≥ 0.

139
Capı́tulo 6

Sistemas LIT y la convolución

6.1 Introducción
Hemos visto que la suma de convolución

X
y [n] = x [k] h [n − k] = x [n] ∗ h [n] , (6.1)
k=−∞

define la respuesta y de un sistema LIT para una entrada x si conocemos la respuesta


al impulso h. Por lo tanto, en este capı́tulo usaremos la convolución como herramienta
para estudiar distintas propiedades de los sistemas LIT.

6.2 Propiedades de los sistemas LIT


6.2.1 La propiedad conmutativa
El resultado de la convolución es independiente del ordenamiento de las señales, o en
otras palabras, un sistema LIT de respuesta al impulso h excitado con una entrada x
genera una salida similar al de un sistema LIT de respuesta al impulso x excitado con
una entrada h.
Consideremos la operación de convolución

X ∞
X
y [n] = x [k] h [n − k] = h [k] x [n − k] . (6.2)
k=−∞ k=−∞

Realizamos un cambio de variable m = n−k y por consecuencia definimos k = m−n


para obtener

X ∞
X
y [n] = x [k] h [n − k] = x [n − m] h [m] . (6.3)
k=−∞ m=−∞

140
6.2.2 La propiedad distributiva
La salida de un sistema LIT cuya respuesta al impulso es ha + hb para una entrada x es
similar a la suma de las salidas de dos sistemas de respuestas al impulso ha y hb frente
a una entrada x.
Probaremos la distributividad de la convolución discreta

y [n] = x [n] ∗ (ha [n] + hb [n]) , (6.4)


y [n] = x [n] ∗ ha [n] + x [n] ∗ hb [n] , (6.5)

planteando

X
y [n] = x [k] (ha [n − k] + hb [n − k]) . (6.6)
k=−∞

Dado que la multiplicación es distributiva respecto a la suma, obtenemos



X
y [n] = (x [k] ha [n − k] + x [k] hb [n − k]) . (6.7)
k=−∞

Reagrupando términos

X
y [n] = ((x [k] ha [n − k]) + (x [k] hb [n − k])) , (6.8)
k=−∞

y separando sumatorias

X ∞
X
y [n] = (x [k] ha [n − k]) + (x [k] hb [n − k]) , (6.9)
k=−∞ k=−∞

obtenemos
y [n] = x [n] ∗ ha [n] + x [n] ∗ hb [n] . (6.10)

6.2.3 La propiedad asociativa


La operación de convolución es asociativa

y [n] = x [n] ∗ (ha [n] ∗ hb [n]) , (6.11)


y [n] = (x [n] ∗ ha [n]) ∗ hb [n] , (6.12)
y [n] = x [n] ∗ ha [n] ∗ hb [n] . (6.13)

Para probar la propiedad asociativa, planteamos las dos formas de hacer el cálculo.
Primero consideremos ∞ X
y1 [n] = x[p] ha [n − p], (6.14)
p=−∞

141

X
y[n] = y1 [q] hb [n − q]. (6.15)
q=−∞
 

X ∞
X
y[n] =  x[p] ha [q − p] hb [n − q]. (6.16)
q=−∞ p=−∞

y

X ∞
X
y[n] = x[p] ha [q − p] hb [n − q]. (6.17)
q=−∞ p=−∞

Despues consideramos el cálculo alternativo



X
h[n] = ha [r] hb [n − r], (6.18)
r=−∞


X
y[n] = x[s] h[n − s], (6.19)
s=−∞
∞ ∞
!
X X
y[n] = x[s] ha [r] hb [n − r − s] , (6.20)
s=−∞ r=−∞
y

X ∞
X
y[n] = x[s] ha [r] hb [n − r − s]. (6.21)
s=−∞ r=−∞

Por lo tanto, comparemos



X ∞
X
y[n] = x[p] ha [q − p] hb [n − q], (6.22)
q=−∞ p=−∞


X ∞
X
y[n] = x[s] ha [r] hb [n − r − s]. (6.23)
s=−∞ r=−∞

Considerando las igualdades


p = s, q − p = r, (6.24)
obtenemos
n − q = n − q + p − p = n − r − s, (6.25)
y por lo tanto P∞ P∞
s=−∞ r=−∞ x[s] ha [r] hb [n − r − s] =
(6.26)
P∞ P∞
q=−∞ p=−∞ x[p] ha [q − p] hb [n − q].

142
6.2.4 Preguntas
1. ¿Qué significado tiene la propiedad conmutativa de los sistemas lineales?

2. ¿Qué significado tiene la propiedad distributiva de los sistemas lineales?

3. ¿Qué significado tiene la propiedad asociativa de los sistemas lineales?

4. Dé algún ejemplo concreto de estas tres propiedades.

6.2.5 Sistemas LIT con y sin memoria


Un sistema no tiene memoria si su salida en cualquier momento depende solamente de
la entrada de ese momento.
Si un sistema no tiene memoria entonces debe ser h [n] = 0, para todo n 6= 0, y por
lo tanto
h [n] = K δ [n] . (6.27)
Si un sistema tiene una respuesta al impulso h [n] que es distinta de 0 para n 6= 0,
entonces el sistema tiene memoria.

6.2.6 Preguntas
1. ¿Conoce algún sistema fı́sico que no tenga memoria?

2. ¿Conoce algún sistema fı́sico que tenga memoria?

6.2.7 Sistemas LIT causales


Si y [n0 ] no depende de x [n] para n > n0 , entonces un sistema LIT es causal. Entonces
todos los valores h [n] para n < 0 deben ser 0 y por lo tanto en la suma de convolución
podemos cambiar el lı́mite superior
n
X
y [n] = x [k] h [n − k] , (6.28)
k=−∞

porque debe ser n − k ≥ 0, o n ≥ k.


Además, si la entrada x[n] comienza en n = 0, podemos cambiar el lı́mite inferior de
la sumatoria nX
y [n] = x [k] h [n − k] . (6.29)
k=0

Esta fórmula significa que podemos calcular la salida de un sistema LIT de tiempo
discreto con una cantidad limitada de multiplicaciones y sumas.

143
6.2.8 Preguntas
Indicar si las siguientes afirmaciones son verdaderas o falsas, en el caso de un sistema
lineal invariante en el tiempo:

1. Si la entrada es nula para todo tiempo, entonces la salida es nula para todo tiempo.
2. Si la relación entre entrada y salida es y[n] = x[n] cos (n) , entonces el sistema es
LIT.
Pn
3. Si la relación entre entrada y salida es y[n] = k=0 x[k], entonces el sistema es
LIT.

6.2.9 Sistemas LIT estables e inestables


Estabilidad BIBO
El criterio de estabilidad Bounded Input Bounded Output (entrada acotada, salida
acotada) se puede expresar matemáticamente como

|x [n]| < Mx → |y [n]| < My , (6.30)

para tiempo discreto, o


|x (t)| < Mx → |y (t)| < My , (6.31)
para tiempo continuo.
El sistema es estable si para entradas acotadas

|x [k]| < Mx , (6.32)

tenemos salidas acotadas


|y [k]| < My . (6.33)
La suma de convolución es
n
X
y [n] = x [k] h [n − k] . (6.34)
k=0

Entonces podemos escribir


n n

X X
|y [n]| =
x [k] h [n − k] ≤ |x [k]| |h [n − k]| , (6.35)

k=0 k=0

y aplicando la desigualdad triangular obtenemos la cota para |y[n]|


n n n
! !
X X X
|y [n]| ≤ |x [k]| |h [n − k]| ≤ |x [k]| |h [n − k]| . (6.36)
k=0 k=0 k=0

144
Dado que resulta
n
!
X
|y [n]| ≤ Mx |h [n − k]| ≤ My . (6.37)
k=0

Dado que My es finito entonces el valor absoluto de la respuesta al impulso es acotada.

6.2.10 Respuesta de un sistema LIT en tiempo discreto a una


entrada exponencial imaginaria
1. Vamos a calcular la convolución de una entrada x[n] = ej ω n con una respuesta al
impulso h[n].

2. Comenzamos escribiendo la fórmula de la suma de convolución



X ∞
X
y [n] = x [k] h [n − k] = h [k] x [n − k] . (6.38)
k=−∞ k=−∞

3. Vamos a usar la fórmula alternativa



X
y [n] = h [k] x [n − k] . (6.39)
k=−∞

4. Sustituyendo x[n − k] = ej ω (n−k) obtengo


∞ ∞
h [k] ej ω (n−k) = h [k] e−j ω k ej ω n .
X X
y [n] = (6.40)
k=−∞ k=−∞

5. Viendo la ecuación (6.40) podemos extraer el factor común ej ω n de la sumatoria


y escribir  

h [k] e−j ω k  ej ω n .
X
y [n] =  (6.41)
k=−∞

6. Viendo la ecuación (6.41), podemos definir H(ej ω ), la transformada de Fourier de


h[n]

H(ej ω ) = h [k] e−j ω k .
X
(6.42)
k=−∞

7. Entonces resulta
y[n] = H(ej ω ) ej ω n . (6.43)
Se dice que las funciones de la forma ej ω n son autofunciones de los sistemas lineales
invariantes en el tiempo.

145
6.2.11 Respuestas
Estas son las respuestas a las preguntas planteadas arriba

1. ¿Qué significado tiene la propiedad conmutativa de los sistemas lineales? Un


sistema LIT con respuesta al impulso h[n] responde a una entrada x[n] igual que un
sistema LIT con respuesta al impulso x[n] responde a una entrada h[n]. Además,
cuando conectamos en serie dos sistemas LIT, no importa el orden en que se
conecten: el conjunto de los dos sistemas va a responder igual ante cualquier
entrada.

2. ¿Qué significado tiene la propiedad distributiva de los sistemas lineales? Podemos


implementar un sistema LIT con respuesta al impulso h1 [n] + h2 [n] conectando
en paralelo dos sistemas LIT cuyas respectivas respuestas al impulso sean h1 [n] y
h2 [n].

3. ¿Qué significado tiene la propiedad asociativa de los sistemas lineales? Cuando


conectamos en serie sistemas LIT, podemos formar nuevos sistemas LIT.

4. ¿Conoce algún sistema fı́sico que no tenga memoria? Un cable.

5. ¿Conoce algún sistema fı́sico que tenga memoria? Un tanque de agua (acumula o
”recuerda” el agua que entra).

6. ¿La siguiente afirmación es verdadera o falsa? ”Si la entrada es nula para todo
tiempo, entonces la salida es nula para todo tiempo.” Verdadero, pues si la
entrada es nula, la suma de convolución es nula.

7. ¿La siguiente afirmación es verdadera o falsa? ”Si la relación entre entrada y salida
es y[n] = x[n] cos (n) , entonces el sistema es LIT.” Falso, porque la respuesta
al impulso depende del tiempo en que el impulso ocurre.

y[n] = δ[n − n0 ] cos (n0 ) . (6.44)

8. ¿La siguiente afirmación es verdadera o falsa? Si la relación entre entrada y salida


es y[n] = nk=0 x[k], entonces el sistema es LIT. Verdadero, pues dicha relación
P

puede escribirse como una convolución


X
y[n] = ∞x[k] u[k] u[n − k]. (6.45)
k=−∞

146
Capı́tulo 7

La integral de convolución

7.1 Deducción de la fórmula


A continuación calculamos la salida y(t) para una entrada arbitraria x(t) en función de
la respuesta al impulso h(t) del sistema lineal invariante en el tiempo.

7.1.1 Una señal como lı́mite de una sumatoria


Vamos a probar que podemos representar una señal continua como el lı́mite de una
suma de pulsos. Consideremos pulsos desplazados en el tiempo δ∆ (t − k ∆) donde ∆
es un incremento de tiempo variable. Observando la figura 7.1, podemos escribir las
definiciones de los pulsos desplazados en el tiempo

( ...
1

, −∆ ≤ t < 0,
δ∆ (t + ∆) =
(
0, (t < −∆) ∨ (0 ≤ t) ,
1
, 0 ≤ t < ∆,
δ∆ (t) = ∆
0, (t < 0) ∨ (∆ ≤ t) ,
(
1 (7.1)
, ∆ ≤ t < 2 ∆,
δ∆ (t − ∆) = ∆
0, (t < ∆) ∨ (2 ∆ ≤ t) ,
( ...
1
, k ∆ ≤ t < (k + 1) ∆,
δ∆ (t − k ∆) = ∆
0, (t < k ∆) ∨ ((k + 1) ∆ ≤ t) .

147
Figura 7.1: Pulsos desplazados en el tiempo

Figura 7.2: Pulsos desplazados en el tiempo y modulados

148
Figura 7.3: Aproximación grosera

Figura 7.4: Aproximación fina

149
Multiplicando por x (k ∆) ∆ al k − ésimo pulso (ver figura 7.2) se obtiene

( ...
x(−∆)
∆, −∆ ≤ t < 0,
x (−∆) δ∆ (t + ∆) ∆ = ∆
( 0,
(t < −∆) ∨ (0 ≤ t) ,
x(0)
∆, 0 ≤ t < ∆,
x (0) δ∆ (t) ∆ = ∆
0, (t < 0) ∨ (∆ ≤ t) ,
(
x(∆) (7.2)
∆, ∆ ≤ t < 2 ∆,
x (∆) δ∆ (t − ∆) ∆ = ∆
0, (t < ∆) ∨ (2 ∆ ≤ t) ,
( ...
x(k ∆)
∆, k ∆ ≤ t < (k + 1) ∆,
x (k∆) δ∆ (t − k∆) ∆ = ∆
0, (t < k ∆) ∨ ((k + 1) ∆ ≤ t) .

Observe que un valor dado de t (por ejemplo t0 ) sólo puede pertenecer a un intervalo
k∆ ≤ t < (k + 1) ∆, por lo tanto para t0 solo uno de los productos puede ser distinto
de 0. Sumando los infinitos productos (ver figura 7.3) obtenemos

X
x∆ (t) = x (k∆) δ∆ (t − k ∆) ∆. (7.3)
k=−∞

Considerando la suma de los pulsos desplazados en el tiempo podemos observar que


cuando ∆ tiende a cero (ver figura 7.4) x∆ (t) tiende a x (t) .

Lim Lim X
x (t) = x∆ (t) = x (k ∆) δ∆ (t − k ∆) ∆. (7.4)
∆→0 ∆→0 k=−∞

Además, cuando ∆ tiende a cero, la sumatoria se convierte en una integral


Z ∞
x (t) = x (τ ) δ (t − τ ) dτ. (7.5)
−∞

Notemos que por la propiedad del muestreo, debe cumplirse

x (t) δ (t − τ ) = x (τ ) δ (t − τ ) , (7.6)

y en ese caso Z ∞ 
x (t) = x (t) δ (t − τ ) dτ . (7.7)
−∞

7.1.2 La respuesta al impulso y la convolución


Definamos hk ∆ (t) = h∆ (t − k ∆) como la salida de un sistema invariante en el tiempo
para el pulso δ∆ (t − k ∆).

150
Además, recordemos la ecuación (7.5)

X
x∆ (t) = x (k ∆) δ∆ (t − k ∆) ∆, (7.8)
k=−∞

La salida y∆ (t) para una entrada x∆ (t) puede definirse, por el principio de super-
posición, como

X
y∆ (t) = x (k∆) hk∆ (t) ∆ (7.9)
k=−∞

Definamos k∆ = τ. Entonces, cuando ∆ → 0, obtenemos como lı́mite la señal y(t),


pero como siempre vamos a tener un k suficientemente grande τ no es necesariamente
nula. Podemos escribir
∞ Z ∞
Lim X
y (t) = x (k ∆) hk∆ (t) ∆ = x (τ ) hτ (t) dτ, (7.10)
∆→0 k=−∞ −∞

Si el sistema es invariante en el tiempo, entonces

hτ (t) = h0 (t − τ ) , (7.11)

(es decir, no importa para que τ calculamos la respuesta, y por lo tanto elegimos τ = 0),
y por lo tanto obtenemos la integral de convolución
Z ∞
y (t) = x (τ ) h (t − τ ) dτ. (7.12)
−∞

7.2 Cálculo de la suma de convolución en forma


gráfica
El cálculo de la convolución tiene una interpretación gráfica.

1. Consideremos la fórmula
Z ∞
y (t) = x (v) h (t − v) dv. (7.13)
−∞

2. En la ec. (7.13) el factor h(t − v) es una versión de h(v) invertida en el tiempo


(observe la variable v en ambas funciones) y desplazada en el tiempo con despla-
zamiento t, la variable independiente t de la salida y(t).

3. En base a la observación anterior, es posible enunciar la siguiente “receta” para


calcular la convolución en forma gráfica.

151
(a) Dibuje la señal x(v).
(b) Invierta en el tiempo la señal h(v) para obtener h(−v).
(c) Repita los siguientes pasos para calcular distintos valores de y(t)
i. Desplace en el tiempo la señal h(−v) para obtener h(t − v).
ii. Obtenga el producto z(v, t) = x(v) h(t − v).
R
iii. El valor de y(t) es z(v, t) dv

7.3 Ejemplos
7.3.1 Convolución de una señal con un impulso desplazado
Supongamos la entrada x(t) = δ(t − a) a un sistema linear invariante en el tiempo con
respuesta al impulso h(t). En este caso la salida es
Z ∞
y(t) = δ(v − a) h(t − v) dv (7.14)
−∞

Notemos el producto δ(v − a) h(t − v) = h(t − a) δ(v − a), donde v = a. Por lo tanto
Z ∞
y(t) = h(t − a) δ(v − a) dv, (7.15)
−∞
Z ∞ 
y(t) = h(t − a) δ(v − a) dv . (7.16)
−∞

Recordemos que por definición de impulso


Z ∞
δ(v − a) dv = 1. (7.17)
−∞

Por lo tanto
y(t) = h(t − a), (7.18)
y ası́ comprobamos la invariancia en el tiempo de los sistemas cuya salida y(t) para una
entrada x(t) puede calcularse con la integral de convolución.

7.3.2 Dos señales infinitas


1. Sean dos señales definidas como

x (t) = e2 t u (−t) , (7.19)


h (t) = u (t − 3) . (7.20)

152
2. Calculando la suma de convolución tenemos
Z ∞
x (t) ∗ h (t) = e2 τ u (−τ ) u (t − 3 − τ ) dτ, (7.21)
−∞

3. El producto u (−τ ) u (t − 3 − τ ) puede analizarse ası́:


(a) Debemos observar las transiciones de los escalones: donden cambian de 0
a 1 y viceversa. Estas transiciones determinan los lı́mites de las integrales,
porque si el integrando es nulo (o sea, si alguno de los escalones incluidos como
factores en el integrando tiene un argumento negativo) entonces la integral
se anula también en un intervalo de tiempo determinado.
(b) Para este caso
(c) Para t < 3,
t < 3 → u (−τ ) u (t − 3 − τ ) = u (t − 3 − τ ) , (7.22)
Z t−3
t < 3 → x (t) ∗ h (t) = e2τ dτ, (7.23)
−∞
(d) Para t ≥ 3,
t ≥ 3 → u (−τ ) u (t − 3 − τ ) = u (−τ ) , (7.24)
y Z 0
t ≥ 3 → x (t) ∗ h (t) = e2τ dτ. (7.25)
−∞

7.3.3 Una señal finita y otra infinita


1. Sean las señales
x (t) = u (t) − u (t − 4) , (7.26)
y
πt
 
h (t) = cos (u (t) − u (t − 4)) , (7.27)
2
2. Planteando la integral de convolución, obtenemos
Z ∞
πτ
 
x (t) ∗ h (t) = cos (u (τ ) − u (τ − 4)) (u (t − τ ) − u (t − 4 − τ )) dτ,
−∞ 2
(7.28)
3. Finalmente, obtenemos
t < 0, x (t) ∗ h (t) = 0, (7.29)
Z t
πτ
 
4 > t ≥ 0, x (t) ∗ h (t) = cos dτ, (7.30)
0 2
Z 4
πt
 
8 > t ≥ 4, x (t) h () = cos dτ, (7.31)
t−4 2
y
t ≥ 8, x (t) h (t) = 0. (7.32)

153
7.3.4 Dos señales limitadas en tiempo
1. Sean dos señales definidas por
(
1 0 < t < T,
x (t) = (7.33)
0 (t ≤ 0) ∨ (T ≤ t) ,
(
t 0 < t < T,
h (t) = (7.34)
0 (t ≤ 0) ∨ (T ≤ t) .

En otras palabras (o mejor dicho, fórmulas)

x (t) = u (t) − u (t − T ) , (7.35)

y
h (t) = t (u (t) − u (t − T )) . (7.36)

2. Invirtiendo y desplazando en el tiempo una de las señales, tenemos

h (t − τ ) = (t − τ ) (u (t − τ ) − u (t − τ − T )) . (7.37)

3. Finalmente, calculamos la integral


Z ∞
f (t) = (u (τ ) − u (τ − T )) (t − τ ) (u (t − τ ) − u (t − τ − T )) dτ (7.38)
−∞
Z ∞
f (t) = (t − τ ) (u (t) − u (t − T )) (u (t − τ ) − u (t − T − τ )) dτ (7.39)
−∞

t < 0 → f (t) = 0, (7.40)


#t
τ2 t2
"
0 ≤ t < T → f (t) = t τ − = , (7.41)
2 0
2
2 T
t2
" #
τ
T ≤ t < 2 T → f (t) = t τ − =− + t T. (7.42)
2 t−T
2
2 T ≤ t → f (t) = 0. (7.43)

154
Capı́tulo 8

Sistemas LIT y la convolución

8.1 Introducción
Hemos visto que la integral de convolución
Z ∞
y (t) = x (τ ) h (t − τ ) dτ = x (t) ∗ h (t) , (8.1)
−∞

define la respuesta y(t) de un sistema LIT para una entrada x(t) si conocemos la res-
puesta al impulso h(t). Por lo tanto, en este capı́tulo usaremos la convolución como
herramienta para estudiar distintas propiedades de los sistemas LIT.

8.2 Propiedades de los sistemas LIT


8.2.1 La propiedad conmutativa
El resultado de la convolución es independiente del ordenamiento de las señales, o en
otras palabras, un sistema LIT de respuesta al impulso h(t) excitado con una entrada
x(t) genera una salida similar al de un sistema LIT de respuesta al impulso x(t) excitado
con una entrada h(t).
Consideremos la operación de convolución
Z ∞ Z ∞
y (t) = x (τ ) h (t − τ ) dτ = h (τ ) x (t − τ ) dτ. (8.2)
−∞ −∞

Realizamos un cambio de variable υ = t − τ y por consecuencia definimos τ = t − υ


para obtener
Z −∞ Z ∞
y (t) = − x (t − υ) h (υ) dυ = x (t − υ) h (υ) dυ. (8.3)
∞ −∞

155
8.2.2 La propiedad distributiva
La salida de un sistema LIT cuya respuesta al impulso es ha + hb para una entrada x es
similar a la suma de las salidas de dos sistemas de respuestas al impulso ha y hb frente a
una entrada x. Se puede probar la distributividad de la convolución respecto a la suma
de señales

y (t) = x (t) ∗ (ha (t) + hb (t)) , (8.4)


y (t) = x (t) ∗ ha (t) + x (t) ∗ hb (t) , (8.5)

pues para la integral vale la siguiente propiedad


Z b Z b Z b
x(v) (f (v) + g(v)) dv = x(v) f (v) dv + x(v) g(v)) dv. (8.6)
a a a

8.2.3 La propiedad asociativa


Queda como ejercicio para el alumno la prueba de esta propiedad.

y (t) = x (t) ∗ (ha (t) ∗ hb (t)) , (8.7)


y (t) = (x (t) ∗ ha (t)) ∗ hb (t) , (8.8)
y (t) = x (t) ∗ ha (t) ∗ hb (t) . (8.9)

8.2.4 Preguntas
1. ¿Qué significado tiene la propiedad conmutativa de los sistemas lineales?

2. ¿Qué significado tiene la propiedad distributiva de los sistemas lineales?

3. ¿Qué significado tiene la propiedad asociativa de los sistemas lineales?

4. Dé algún ejemplo concreto de estas tres propiedades.

8.2.5 Sistemas LIT con y sin memoria


Un sistema no tiene memoria si su salida en cualquier momento depende solamente de
la entrada de ese momento.
Si un sistema no tiene memoria entonces debe ser y (t) = 0, para todo t 6= 0, y por
o tanto
h (t) = K δ (t) . (8.10)
Si un sistema tiene una respuesta al impulso h (t) que no es idénticamente cero para
t 6= 0, entonces el sistema tiene memoria.

156
8.2.6 Preguntas
1. ¿Conoce algún sistema fı́sico que no tenga memoria?
2. ¿Conoce algún sistema fı́sico que tenga memoria?

8.2.7 Sistemas LIT causales y no causales


Si y(t) no depende de x(t1 ) para t1 > t, entonces un sistema LIT es causal y la función
h (t − τ ) que multiplica a x(t) debe ser cero para t < τ , o sea que
h (t) = 0, t < 0, (8.11)
y la integral de convolución para un sistema LIT causal es
Z t
y (t) = x (τ ) h (t − τ ) dτ. (8.12)
0

8.2.8 Sistemas LIT estables e inestables


Estabilidad BIBO
El criterio de estabilidad Bounded Input Bounded Output (entrada acotada, salida
acotada) se puede expresar matemáticamente como
|x (t)| < Mx → |y (t)| < My , (8.13)
para tiempo continuo.
El sistema es estable si para entradas acotadas
Z t


x (τ ) dτ < Mx . (8.14)
−∞

tenemos salidas acotadas


Z t Z t Z t

|y (t)| = x (τ ) h (t − τ ) dτ < x (τ ) dτ h (t − τ ) dτ . (8.15)
−∞ −∞ −∞
R
t
Reemplazando −∞ x (τ ) dτ por la cota Mx

Z t

|y (t)| < Mx h (t − τ ) dτ = My (8.16)
−∞

obtenemos que debe existir una cota


Z t


h (t − τ ) dτ < Mh , (8.17)
−∞

como condición para la estabilidad BIBO del sistema LIT.

157
8.2.9 Preguntas
1. ¿Conoce algún sistema fı́sico inestable?

2. De ejemplos de sistemas estables e inestables.

3. Indicar si las siguientes afirmaciones son verdaderas o falsas, en el caso de un


sistema lineal invariante en el tiempo:

(a) Si la entrada es nula para todo tiempo, entonces la salida es nula para todo
tiempo.
(b) Si la relación entre entrada y salida es y (t) = x (t) cos (t) , entonces el sistema
es LTI.
Rt
(c) Si la relación entre entrada y salida es y (t) = −∞ x (τ ) dτ, entonces el sistema
es LTI.

158
Capı́tulo 9

Series de Fourier (Tiempo continuo)

9.1 Motivación
¿Para que estudiamos series de Fourier? Veremos que es posible representar una señal de
dos formas diferentes, una en el dominio del tiempo y otra en el dominio de la frecuencia.
En otras palabras, podemos visualizar la señal de dos formas: una cuyo eje horizontal
corresponde al tiempo, y otra cuyo eje horizontal corresponde a la frecuencia. En las
dos representaciones tenemos la misma información.
La forma más sencilla de comenzar a trabajar en el dominio de la frecuencia es
graficar los coeficientes de series de Fourier en función de las frecuencias de las armónicas
de funciones periódicas. En las aplicaciones de procesamiento de señales y electrónica,
nos interesa conocer la distribución de energı́a en función de la frecuencia.

9.2 Definiciones
Recordemos que una señal x(t) es periódica si y sólo si existe el perı́odo, un número
T > 0 que cumple con la condición

x (t) = x (t + T ) , (9.1)

para todo valor de t. Como ejemplos, veamos las siguientes funciones



 
x(t) = cos (ω t) = cos ω (t + ) = cos (ω t + 2 π) , (9.2)
ω

 
x (t) = sin (ω t) = sin ω (t + ) = sin (ω t + 2 π) , (9.3)
ω
jωt j ω (t+ 2ωπ ) j ωt j 2π
x (t) = e =e =e e . (9.4)

En estos casos T = ω
. Recordemos además que ej 2 π = cos(2 π) + j sin(2 π) = 1.

159
2.0

1.6

1.2

0.8

0.4

0.0

−0.4

−0.8

−1.2

−1.6

−2.0
0.000 0.628 1.257 1.885 2.513 3.142 3.770 4.398 5.027 5.655 6.283
a1
a2
a3

Figura 9.1: Funciones periódicas armónicas de tiempo continuo

9.2.1 Señales periódicas armónicamente relacionadas


Podemos definir a las señales periódicas armónicamente relacionadas como

φk (t) = ej k ω t = ej k( T )t , k = 0, ±1, ±2, ... (9.5)


 
αk (t) = cos (k ω t) = cos k t , k = 0, ±1, ±2, ... (9.6)
T

 
βk (t) = sin (k ω t) = sin k t , k = 0, ±1, ±2, ... (9.7)
T
Como ejemplo, veamos la figura (9.1)

1. Cada una de estas familias de señales tiene una frecuencia fundamental ω y perı́odo
fundamental T.
T
2. Cada una de estas funciones armónicas es periódica con perı́odo k
, donde |k| > 0.

160
9.3 Definición de serie de Fourier
9.3.1 Serie de Fourier (exponenciales imaginarias)
• Según la definición de serie de Fourier podemos escribir
∞ ∞

ak e j k ω t = ak e j k ( T ) t ,
X X
x (t) = (9.8)
k=−∞ k=−∞

donde x (t) es periódica con perı́odo T.

• La sumatoria puede desdoblarse


 
∞ ∞ −1
!
ak ej k ω t = a0 + ak e j k ω t +  ak ejk ω t  ,
X X X
x (t) = (9.9)
k=−∞ k=1 k=−∞

• Se cambian los valores extremos del ı́ndice y la fórmula de la sumatoria


∞ ∞ ∞
! !
jkωt jkωt −jk ω t
X X X
x (t) = ak e = a0 + ak e + a−k e , (9.10)
k=−∞ k=1 k=1

y se reescribe
∞ ∞
!
jkωt jkωt −jk ω t
X X
x (t) = ak e = a0 + ak e + a−k e . (9.11)
k=−∞ k=1

• Si x (t) es una señal real entonces es igual a su conjugada



āk e−jk ω t .
X
x (t) = x̄ (t) = (9.12)
k=−∞

Reemplazando n = −k tenemos
∞ ∞
ā−n ej n ω t = ak e j k ω t ,
X X
x (t) = (9.13)
n=−∞ k=−∞

de donde se deduce que


ā−k = ak . (9.14)

161
9.3.2 Serie de Fourier (senos “y” cosenos)
• La serie de Fourier definida mediante exponenciales imaginarias es
∞ ∞
!
jkωt jkωt −jk ω t
X X
x (t) = ak e = a0 + ak e + a−k e . (9.15)
k=−∞ k=1

• Sus coeficientes complejos son

ak = Bk + jCk , (9.16)
a−k = a¯k = Bk − j Ck . (9.17)

• Tenemos por lo tanto, reemplazando (9.16) y (9.17) en (9.15),


"∞ #
(Bk + j Ck ) ej k ω t + (Bk − j Ck ) e−j k ω t .
X
x (t) = B0 + (9.18)
k=1

• Reagrupando exponenciales con coeficientes B y exponenciales con coeficientes C,


tenemos
"∞ #
   
jkωt −j k ω t jkωt −jk ω t
X
x (t) = B0 + Bk e +e + j Ck e −e . (9.19)
k=1

• Multiplicando y dividiendo por 2 y considerando que j = − 1j , obtenemos


    

X ej k ω t + e−jk ω t ej k ω t − e−jk ω t
x (t) = B0 + 2  Bk − Ck . (9.20)
k=1 2 2j

• Finalmente, aplicando las igualdades (2.41) y (2.42), resulta


"∞ #
X
x (t) = B0 + 2 Bk cos (k ω t) − Ck sin (k ω t) . (9.21)
k=1

9.3.3 Serie de Fourier (senos con fase)


• La serie de Fourier puede escribirse como
"∞ #
X
x (t) = D0 + Dk sin (k ω t + θk ) . (9.22)
k=1

162
• Considerando la ecuación (2.42) podemos reemplazar
ej (k ω t+θk ) − e−j (k ω t+θk )
sin (k ω t + θk ) = , (9.23)
2j
y obtener "∞
ej (k ω t+θk ) − e−j (k ω t+θk )
#
X
x (t) = D0 + Dk . (9.24)
k=1 2j

• Separando las exponenciales resulta


"∞
ej(k ω t+θk ) e−j(k ω t+θk )
#
X
x (t) = D0 + Dk − Dk . (9.25)
k=1 2j 2j

• Finalmente resulta
"∞
ej θk j k ω t e−j θk −j k ω t
#
X
x (t) = D0 + Dk e − Dk e , (9.26)
k=1 2j 2j
y por lo tanto
ej θk
Ak = Dk . (9.27)
2j

9.3.4 Serie de Fourier (cosenos con fase)


De la misma forma, puede transformarse
"∞ #
X
x (t) = E0 + Ek cos (k ω t + θk ) . (9.28)
k=1

a "∞
ejθk jk ω t e−jθk −jk ω t
#
X
x (t) = E0 + Ek e + Ek e . (9.29)
k=1 2 2

9.4 Cálculo de coeficientes de la serie de Fourier


• Por definición de serie de Fourier escribimos

ak e j k ω t .
X
x (t) = (9.30)
k=−∞

• Multipliquemos ambos miembros por e−j n ω t ,



x (t) e−j n ω t = ak ej k ω t e−j n ω t .
X
(9.31)
k=−∞

163
• Integremos ambos miembros
Z T ∞
Z T X
−j n ω t
x (t) e dt = ak ej (k−n) ω t dt. (9.32)
0 0 k=−∞

• Intercambiamos la integral por la sumatoria



Z T Z T !
−j n ω t j (k−n) ω t
X
x (t) e dt = ak e dt . (9.33)
0 k=−∞ 0

• Puede probarse la siguiente igualdad


Z T (
j (k−n)ωt T k = n,
e dt = (9.34)
0 0 k=6 n.

En efecto, cuando k = n
Z T Z T
j (0) ωt
e dt = dt = T. (9.35)
0 0

En cambio, cuando k − n = m 6= 0, entonces


Z T
1 Z T j mωt
ej m ω t dt = e (j m ω) dt. (9.36)
0 j mω 0
Evaluando la integral, obtenemos finalmente
Z T
1
ejmωt dt = (ej m ω T − e0 ) = 0, (9.37)
0 j mω
dado que

ω= , (9.38)
T
y por lo tanto
ej m ωT = e0 = 1. (9.39)

• Obtenemos ası́ Z T
x (t) e−j n ω t dt = T an . (9.40)
0

• Definimos la ecuación de análisis como


1ZT
x (t) e−j n ω t dt = an . (9.41)
T 0

164
9.5 Condiciones para la convergencia de las series
de Fourier
Supongamos que usamos una aproximación xN (t) con una cantidad finita de armónicas
a una función x(t) periódica T ,
N
ak ej k ω t ,
X
xN (t) = (9.42)
k=−N


donde ω = T
. Sea
N
ak ej k ω t ,
X
eN (t) = x(t) − (9.43)
k=−N

el error de aproximación. Definimos entonces como medida de la magnitud del error a


la integral Z T
EN = eN (t) eN (t) dt. (9.44)
0

9.5.1 Condición de la energı́a finita


Puede probarse que

1. Una señal x (t) tiene una serie de Fourier con coeficientes ak finitos si la energı́a
de la señal en un perı́odo T es acotada
Z T
x(t) x(t)dt < ∞. (9.45)
0

2. La integral EN es mı́nima cuando


1ZT 2π
ak = x(t) e−j k T t dt. (9.46)
T 0

3. Además, la integral EN tiende a 0 cuando N tiende a ∞.

9.5.2 Condiciones de Dirichlet (alternativas)


Una señal x (t) tiene una serie de Fourier con coeficientes ak finitos si

1. Tiene una cantidad finita de máximos y mı́nimos en un perı́odo.

2. Tiene una cantidad finita de discontinuidades acotadas en un perı́odo.

165
3. Su valor absoluto es integrable sobre un perı́odo
Z T
|x (t)| dt < ∞. (9.47)
0

Bajo estas condiciones, la serie de Fourier converge a x(t) para todo t si x(t) es
continua. En caso de que x(t) sea discontinua, la serie de Fourier converge al valor
medio de la discontinuidad para los correspondientes valores de t.

9.6 Propiedades de las series de Fourier


Supongamos que tenemos tres señales periódicas x, y, z de perı́odo T que pueden ser
expresadas como sumas de Fourier con coeficientes ak , bk y ck respectivamente. Podemos
resumir estas hipótesis de la siguiente forma

FS
x (t) = x (t + T ) a , (9.48)
←→ k
FS
y (t) = y (t + T ) b , (9.49)
←→ k
FS
z (t) = z (t + T ) c . (9.50)
←→ k

9.6.1 Linealidad
Las ecuaciones de análisis y sı́ntesis son operaciones lineales. Podemos expresar esta
propiedad de la siguiente forma: si la señal z(t) es una combinación lineal de las señales
x(t) e y(t), con coeficientes u y v, entonces los coeficientes de z(t) son una combinación
lineal de los coeficientes correspondientes a x(t) e y(t), con coeficientes u y v

FS
z (t) = u x (t) + v y (t) c = u ak + v bk . (9.51)
←→ k

1. Para probarla, supongamos que se cumple la igualdad


1ZT 2π
ck = z(t) e−j T t dt, (9.52)
T 0
donde se define z(t) = u x(t) + v y(t), y por lo tanto

1ZT 2π
ck = (u x(t) + v y(t)) e−j T t dt. (9.53)
T 0

166
2. Distribuyendo la exponencial y extrayendo las constantes u y v de la integral
obtenemos
Z T ! Z T !
1 −j 2π
t 1 −j 2π
t
ck = u x(t) e T dt + v y(t) e T dt . (9.54)
T 0 T 0

3. Observe que, aplicando la definición de la ecuación de sı́ntesis, obtenemos

ck = u ak + v bk , (9.55)

como querı́amos demostrar.

4. De otra forma, supongamos que se cumple la igualdad

ck = u ak + v bk . (9.56)


5. Multiplicando por ejk T t obtenemos
2π 2π 2π
ck e j T
t
= u ak ej T
t
+ v bk ej T
t
. (9.57)

6. Sumando miembro a miembro resulta


∞ ∞
2π 2π 2π
j t
u ak ej t
+ v bk ej t
X X
ck e T = T T . (9.58)
k=−∞ k=−∞

7. Reacomodando la sumatoria de la derecha obtenemos


   
∞ ∞ ∞
2π 2π 2π
ck ej t
u ak ej t
v bk ej t
X X X
T = T + T . (9.59)
k=−∞ k=−∞ k=−∞

8. A continuación, extraemos las constantes u y v como factores comunes de las


respectivas sumatorias
   
∞ ∞ ∞
2π 2π 2π
ck e j t
ak e j t
b k ej t
X X X
T =u T +v  T . (9.60)
k=−∞ k=−∞ k=−∞

9. Observando la ecuación (9.60) y las hipótesis (9.48), (9.49) y (9.50) , es inmediato


ver que hemos obtenido que

z(t) = u x(t) + v y(t). (9.61)

167
9.6.2 Desplazamiento en el tiempo
1. Queremos calcular la serie de Fourier de y(t) definida como
y (t) = x (t − t0 ) , (9.62)
conociendo la serie de Fourier de x(t). Por lo tanto, probaremos que se cumple la
siguiente relación
FS
y (t) = x(t − t0 ) = b = e−jk ω t0 ak . (9.63)
←→ k

2. En efecto, aplicando la ecuación de análisis tenemos la igualdad


1 ZT
bk = x (t − t0 ) e−jk ω t dt. (9.64)
T 0
3. Cambiemos la variable temporal
τ = t − t0 , (9.65)
y, extrayendo factor común, obtenemos la igualdad
−j k ω t0 1ZT
bk = e x (τ ) e−j kωτ dτ, (9.66)
T 0
equivalente a
bk = e−j k ω t0 ak . (9.67)

9.6.3 Inversión temporal


1. Definiendo la función
y (t) = x (−t) , (9.68)
podemos obtener su serie de Fourier con la siguiente relación
FS
y (t) b = a−k , (9.69)
←→ k

2. Consideremos la ecuación de sı́ntesis con el tiempo invertido



ak e−j k ω t .
X
y(t) = x (−t) = (9.70)
k=−∞

3. Haciendo el cambio de variable k = −m, obtenemos la ecuación de sı́ntesis para


x(−t),

a−m ej m ω t .
X
y(t) = x (−t) = (9.71)
m=−∞

de donde se puede deducir que los coeficientes de y(t) deben ser bk = a−k .

168
9.6.4 Escalado temporal
1. Con el cambio de variables t = α τ , obtenemos una serie de Fourier con los mis-
mos coeficientes pero de distinta frecuencia fundamental, como podemos ver a
continuación ∞
ak ej k ω α τ .
X
x (α τ ) = (9.72)
k=−∞

2. La nueva frecuencia es ω0 = ω α.

3. El nuevo perı́odo es T0 = Tα .

9.6.5 Multiplicación
1. Probaremos que el producto de dos funciones x(t) e y(t) periódicas T es periódico T
y sus coeficientes de Fourier se obtienen mediante una convolución de las secuencias
ak y bk (los coeficientes de x(t) e y(t))
 

FS  X
z (t) = x (t) y (t) ck = al bk−l  . (9.73)
←→ l=−∞

2. Sea
   
∞ ∞ ∞
2π 2π 2π
ck ej k t
ap e j p t
bq e j q t
X X X
z(t) = T = x(t) y(t) =  T  T . (9.74)
k=−∞ p=−∞ q=−∞

3. Podemos escribir
∞ ∞ ∞
2π 2π
ck e j k t
ap bq ej (p+q) t
X X X
z(t) = T = T . (9.75)
k=−∞ p=−∞ q=−∞

4. Finalmente, con el cambio de variable k = p + q, y q = k − p, obtenemos


 
∞ ∞ ∞
2π 2π
ck ej k t
ap bk−p  ej k t
X X X
z(t) = T =  T . (9.76)
k=−∞ k=−∞ p=−∞

5. Observando la ecuación (9.76) podemos deducir que



X
ck = ap bk−p , (9.77)
p=−∞

como querı́amos demostrar.

169
9.6.6 Conjugación y simetrı́a de la conjugación
1. Dada una función periódica real

FS
x (t) a , (9.78)
←→ k

su conjugada está dada por


FS
x(t) a . (9.79)
←→ −k

2. Si x(t) es real, debe ser x(t) − x(t) = 0. Por lo tanto


   
∞ ∞
k 2Tπ j k 2Tπ t 
X X
 ak e j t
− ak e = 0. (9.80)
k=−∞ k=−∞

3. Distribuyendo la conjugación respecto a la sumatoria, resulta


   
∞ ∞
k 2Tπ k 2Tπ
ak e j t
X X
 ak e j t
− = 0. (9.81)
k=−∞ k=−∞

4. También, distribuyendo la conjugación respecto al producto, resulta


   
∞ ∞
k 2Tπ k 2Tπ
ak e−j t
ak e j t
X X
 − = 0. (9.82)
k=−∞ k=−∞

5. Agrupando potencias iguales de e resulta




(a−k − ak ) ej k T t
X
= 0, (9.83)
k=−∞

de donde podemos deducir a−k = ak .

9.6.7 Funciones pares


1. Si x(t) es una función par, entonces debe ser x(−t) = x(t).

2. Desarrollando x(t) = −x(t) como igualdad de series obtenemos


∞ ∞
ak e j k ω t = ak e−j k ω t .
X X
(9.84)
k=−∞ k=−∞

170
3. Podemos reagrupar todo en una sumatoria

(ak − a−k ) ej k ω t = 0.
X
(9.85)
k=−∞

4. Como las funciones exponenciales ej k ω t son distintas de 0 para todo t, se desprende


que los coeficientes deben verificar ak − a−k = 0, y por lo tanto ak = a−k .

5. Si x(t) es una función real, a−k es un número complejo conjugado de ak . Por lo


tanto, la condición ak = a−k implica que la parte imaginaria de ak es nula.

9.6.8 Funciones impares


1. Si x(t) es una función impar, entonces debe ser x(t) = −x(−t).

2. Desarrollando x(t) = −x(−t) como igualdad de series obtenemos


∞ ∞
jkωt
ak e−j k ω t .
X X
ak e =− (9.86)
k=−∞ k=−∞

3. Podemos reagrupar todo en una sumatoria



(ak + a−k ) ej k ω t = 0.
X
(9.87)
k=−∞

4. Como las funciones exponenciales ej k ω t son distintas de 0 para todo t, se desprende


que los coeficientes deben verificar ak + a−k = 0, y por lo tanto ak = a−k .

5. Si x(t) es una función real, a−k es un número complejo conjugado de ak . Por lo


tanto, la condición ak = −a−k implica que la parte real de ak es nula.

9.6.9 Relación de Parseval


1. La relación de Parseval expresa que la potencia total periódica de x(t) equivale a
la suma de la potencia promedio de todos sus componentes armónicos

1Z X
x(t) x(t)dt = ak ak . (9.88)
T T k=−∞

2. Empezemos con
∞ ∞ Z
1Z 1 X 2π
ap aq ej (q−p) T t dt.
X
x(t) x(t)dt = (9.89)
T T T p=−∞ q=−∞ T

171
3. Observe que si q 6= p, entonces
Z

ap aq ej (q−p) T t dt = 0, (9.90)
T

y que si q = p = k, entonces
1Z
ak ak dt = ak ak . (9.91)
T T

4. Por lo tanto, resulta


∞ ∞ Z ∞
1Z 1 X 2π
ap aq ej (q−p) T t dt =
X X
x(t) x(t)dt = ak ak , (9.92)
T T T p=−∞ q=−∞ T k=−∞

como querı́amos demostrar.

9.6.10 Diferenciación
Dada la señal ∞
ak e j k ω t ,
X
x(t) = (9.93)
k=−∞

es inmediato demostrar ∞
dx (t)
j k ω ak ej k ω t .
X
= (9.94)
dt k=−∞

9.6.11 Integración
Dada la señal ∞
ak e j k ω t ,
X
x(t) = (9.95)
k=−∞

si a0 = 0, entonces es inmediato probar que


∞ −1
Z t ! !
1 1
ak ej k ωt + ak e j k ω t .
X X
x (v) dv = (9.96)
−∞ k=1 jkω k=−∞ j k ω

9.7 Ejemplos
9.7.1 Tren de pulsos
1. Calculemos la serie de Fourier de la señal definida por
(
1, 0 < t ≤ T1 ,
x1 (t) = x1 (t + T ) (9.97)
0, T1 < t ≤ T.

172
2. Consideremos la ec. (9.41), que en este caso se escribe
Z T1

T ak = e−j k T
t
dt. (9.98)
0

(a) Para k = 0
Z T1

T a0 = e−j 0 T
t
dt = [t]T0 1 = T1 . (9.99)
0
y aplicando la regla de Barrow, obtenemos finalmente
Z T1
T a0 = 1 dt = [t]T0 1 = T1 . (9.100)
0

(b) Para k 6= 0
Z T1 Z T1
2π 1 2π 2π
T ak = e−j k T
t
dt = 2π e−j k T
t
d(−j k t), (9.101)
0 −j k T 0 T
Z T1
2π 1 h 2π
t T1
i
T ak = e−j k T
t
dt = 2π e−j k T . (9.102)
0 −j k T
0

y aplicando la regla de Barrow, obtenemos finalmente


 
−j 2 k π T1
e T −1
T ak = −j 2 k π . (9.103)
T

3. Asi, podemos exponer las expresiones de los coeficientes de Fourier



T1


 k = 0 → a0 = T
,



(9.104)
 
2 π T1
−j k

 1−e T
 T1


 k 6= 0 → ak = T 2 π T1 .
jk T

A continuación vemos el código en Matlab / Octave para graficar los coeficientes de


Fourier en el dominio de la frecuencia y la serie de Fourier en el dominio del tiempo.
% s e r i e s de F o u r i e r tiempo c o n t i n u o
% ejemplo 9. 7 .1

% numero de armonicas a c a l c u l a r
N = 32;

% Periodo

173
T = 2.0;
% Parte d e l p e r i o d o que l a s i g n a l e s 1
T1 = 0 . 7 ;

a0 = T1 / T;

k = ( 1 :N) ’ ;
ak = T1/ T ∗ . . .
( 1 − exp(− j ∗ k ∗ 2 ∗ pi ∗ T1 / T) ) . / . . .
( j ∗ k ∗ 2 ∗ pi ∗ T1/ T ) ;

% Dominio de l a f r e c u e n c i a
% preparando l a g r a f i c a
K = (−N : 1 : N) ’ ;
akn = conj ( ak ( end : − 1 : 1 ) ) ;
AK = [ akn ; a0 ; ak ] ;
magAK = sqrt ( conj (AK) . ∗AK) ;

h1 = f i g u r e ( 1 ) ; c l f
subplot ( 3 , 1 , 1 ) ;
stem (K, r e a l (AK) ) ;
xlabel ( ’ k ’ ) ;
ylabel ( ’ r e a l ak ’ )
subplot ( 3 , 1 , 2 ) ;
stem (K, imag (AK) ) ;
xlabel ( ’ k ’ ) ;
ylabel ( ’ imag ak ’ )
subplot ( 3 , 1 , 3 ) ;
stem (K, magAK ) ;
xlabel ( ’ k ’ ) ;
ylabel ( ’ norm ak ’ )
print ( ’ d o m i n i o f r e c u e n c i a a l p h a . png ’ )

% Dominio d e l tiempo
% Preparando l a g r a f i c a
puntos =500;
t = linspace ( 0 , 4∗T, puntos ) ;
xt = zeros ( s i z e ( t ) ) ;
for n=1: puntos ,
expo = exp ( j ∗ K’ ∗ 2 ∗ pi ∗ t ( n ) / T ) ;

174
Figura 9.2: Dominio de la frecuencia ejemplo 9.7.1

xt ( n ) = expo ∗ AK;
end ;

h2 = f i g u r e ( 2 ) ; c l f
plot ( t , xt )
xlabel ( ’ t ’ )
ylabel ( ’ x ( t ) ’ )
print ( ’ d o m i n i o t i e m p o a l p h a . png ’ )

9.7.2 Tren de pulsos desfasados


1. Calculemos la serie de Fourier de la señal definida por


0, 0 < t ≤ Td ,
x2 (t) = x2 (t + T )  1, Td < t ≤ Td + T1 , (9.105)

0, Td + T1 < t ≤ T.

Observemos que
x2 (t) = x1 (t − Td ), (9.106)
por lo que decimos que x2 (t) es un tren de pulsos desfasados (desplazados en el
tiempo).

175
Figura 9.3: Dominio del tiempo ejemplo 9.7.1

2. Consideremos la ec. (9.41), que en este caso se escribe como


Z Td +T1

T ak = e−j k T
t
dt. (9.107)
Td

3. Para k = 0, obtenemos Z Td +T1



T ak = e−j 0 T
t
dt, (9.108)
Td

o, resolviendo la integral
Z Td +T1
T ak = 1 dt = [t]TTdd +T1 = T1 . (9.109)
Td

4. Para k 6= 0, obtenemos Z Td +T1



T ak = e−j k T
t
dt, (9.110)
Td
o Z Td +T1
1 2π 2π
T ak = 2π e−j k T
t
d(−j k t). (9.111)
−j k T Td T
Finalmente
1 h 2π
t Td +T1
i
T ak = 2π e−j k T . (9.112)
−j k T
Td

176
Observe que podemos extraer un factor común de la integral

e−j k T Td h −j k 2 π t iT1
T ak = e T , (9.113)
−j k 2Tπ 0

y ası́ obtener finalmente



e−j k T Td
 
2 π T1
−j k
T ak = e T −1 . (9.114)
−j k 2Tπ

5. Por lo tanto, los coeficientes de la serie de Fourier son



T1


 k = 0 → a0 = T
,



(9.115)
 
2 π T1
−j k

 1−e T
k 2Tπ
k 6= 0 → ak = e−j Td T1



 T 2 π T1 .
jk T

6. Comparando los coeficientes de x1 (t) con los de x2 (t) = x1 (t + Td ) podemos notar



que solamente difieren en un factor e−j k T Td , cuya magnitud es 1 y su fase es
proporcional a k.

% s e r i e s de F o u r i e r tiempo c o n t i n u o

% numero de armonicas a c a l c u l a r
N = 32;

% Periodo
T = 2.0;
% Parte d e l p e r i o d o donde x ( t ) == 1
T1 = 0 . 7 ∗ T;
% Demora
Td = 0 . 4 ∗ T;

a0 = T1 / T;

k = ( 1 :N) ’ ;
ak = T1/ T ∗ exp(− j ∗ k ∗ 2 ∗ pi ∗ Td/T) . ∗ . . .
( 1 − exp(− j ∗ k ∗ 2 ∗ pi ∗ T1 / T) ) . / . . .
( j ∗ k ∗ 2 ∗ pi ∗ T1/ T ) ;

177
% Dominio de l a f r e c u e n c i a
% preparando l a g r a f i c a
K = (−N : 1 : N) ’ ;
akn = ak ( end : − 1 : 1 ) ;
AK = [ conj ( akn ) ; a0 ; ak ] ;
magAK = sqrt ( conj (AK) . ∗AK) ;

h1 = f i g u r e ( 1 ) ; c l f
subplot ( 3 , 1 , 1 ) ;
stem (K, r e a l (AK) ) ;
xlabel ( ’ k ’ ) ;
ylabel ( ’ r e a l ak ’ )
subplot ( 3 , 1 , 2 ) ;
stem (K, imag (AK) ) ;
xlabel ( ’ k ’ ) ;
ylabel ( ’ imag ak ’ )
subplot ( 3 , 1 , 3 ) ;
stem (K, magAK ) ;
xlabel ( ’ k ’ ) ;
ylabel ( ’ norm ak ’ )
print ( ’ d o m i n i o f r e c u e n c i a b r a v o . png ’ )
% Dominio d e l tiempo
% Preparando l a g r a f i c a
puntos =500;
t = linspace ( 0 , 4∗T, puntos ) ;
xt = zeros ( s i z e ( t ) ) ;
for n=1: puntos ,
expo = exp ( j ∗ K’ ∗ 2 ∗ pi ∗ t ( n ) / T ) ;
xt ( n ) = expo ∗ AK;
end ;
h2 = f i g u r e ( 2 ) ; c l f
plot ( t , xt )
xlabel ( ’ t ’ )
ylabel ( ’ x ( t ) ’ )
print ( ’ d o m i n i o t i e m p o b r a v o . png ’ )

178
Figura 9.4: Dominio de la frecuencia ejemplo 9.7.2

Figura 9.5: Dominio del tiempo ejemplo 9.7.2

179
9.7.3 Tren de pulsos alternados
1. Calculemos la serie de Fourier de la señal definida por
(
−1, −T < t ≤ 0,
x3 (t) = x3 (t + 2 T ) = (9.116)
1, 0<t≤T

2. Entonces podemos escribir para k = 0,


Z 0 Z T Z 0 Z T
2π 2π
−j 0 t −j 0 t
2 T a0 = − e 2T dt + e 2T dt = − 1 dt + 1 dt = 0. (9.117)
−T 0 −T 0

3. Para k 6= 0 tenemos
Z 0 Z T
2π 2π
2 T a0 = − e−j k 2 T t dt + e−j k 2 T t dt, (9.118)
−T 0

donde
Z 0
2π 2π h π
i0 π
e−j k 2 T t d(−j k ) t = e−j k T t = 1 − ej k T T = 1 − ej k π , (9.119)
−T 2T −T

y
Z T
2π 2π h 2π
iT π
e−j k 2 T t d(−j k ) t = e−j k 2 T t = e−j k T T − 1 = e−j k π − 1. (9.120)
0 2T 0

4. Por lo tanto resulta


−1 + ej k π + e−j k π − 1
2 T ak = . (9.121)
−j k Tπ

5. Simplificando
ej k π +e−j k π
2
−1
ak = . (9.122)
−j k π
podemos escribir
cos(k π) − 1
ak = j . (9.123)

6. Observemos que cuando k = 2 p, cos(k π) = cos(p 2 π) = 1 y por lo tanto

a2 p = 0. (9.124)

Cuando k = 2 p + 1, entonces cos((2 p + 1) π) = −1 y


−2 j
a2 p+1 = . (9.125)

180
% s e r i e s de F o u r i e r tiempo c o n t i n u o

% numero de armonicas a c a l c u l a r
N = 32;

% Periodo
T = 2.0;

a0 = 0 ;

k = ( 1 :N) ’ ;
ak = j ∗ ( cos ( k ∗ pi ) − 1 ) . / ( k ∗ pi ) ;

% Dominio de l a f r e c u e n c i a
% preparando l a g r a f i c a
K = (−N : 1 : N) ’ ;
akn = ak ( end : − 1 : 1 ) ;
AK = [ conj ( akn ) ; a0 ; ak ] ;
magAK = sqrt ( conj (AK) . ∗AK) ;

h1 = f i g u r e ( 1 ) ; c l f
subplot ( 3 , 1 , 1 ) ;
stem (K, r e a l (AK) ) ;
xlabel ( ’ k ’ ) ;
ylabel ( ’ r e a l ak ’ )
subplot ( 3 , 1 , 2 ) ;
stem (K, imag (AK) ) ;
xlabel ( ’ k ’ ) ;
ylabel ( ’ imag ak ’ )
subplot ( 3 , 1 , 3 ) ;
stem (K, magAK ) ;
xlabel ( ’ k ’ ) ;
ylabel ( ’ norm ak ’ )
print ( ’ d o m i n i o f r e c u e n c i a c h a r l i e . png ’ )
% Dominio d e l tiempo
% Preparando l a g r a f i c a
puntos =500;
t = linspace (−2∗T, 2∗T, puntos ) ;
xt = zeros ( s i z e ( t ) ) ;
for n=1: puntos ,

181
Figura 9.6: Dominio de la frecuencia ejemplo 9.7.3

expo = exp ( j ∗ K’ ∗ 2 ∗ pi ∗ t ( n ) / T ) ;
xt ( n ) = expo ∗ AK;
end ;
h2 = f i g u r e ( 2 ) ; c l f
plot ( t , xt )
xlabel ( ’ t ’ )
ylabel ( ’ x ( t ) ’ )
print ( ’ d o m i n i o t i e m p o c h a r l i e . png ’ )

9.7.4 Suma de señales periódicas


1. Calculemos la serie de Fourier de la señal definida por

0 < t ≤ 1,


1,
0, 1 < t ≤ 2,


x4 (t) = x4 (t + 4) (9.126)
 −1,
 2 < t ≤ 3,

0, 3 < t ≤ 4.

En este caso, x4 (t) = x1 (t) − x1 (t − Td ), con T = 4, T1 = 1 y Td = 2. Si escribimos



2πt
bk e j k
X
x4 (t) = T , (9.127)
k=−∞

182
Figura 9.7: Dominio del tiempo ejemplo 9.7.3

deberı́a ser 2 π Td 2 π Td
bk = ak − ak e−j k T = ak (1 − e−j k T ). (9.128)

2. Para comprobarlo, escribimos


 2π
  2π

−j k jk
1 1 1−e
∞ 4
2πt 1 1−e 4 2πt
ej k e−j k
X
x1 (t) = + 4 + 4 , (9.129)
4 k=1 4 j k 24π 4 −j k 24π

3. También podemos escribir


  2π
  2π
 
1 ∞
X 1 − e−j k 4
jk
2 π (t−2) 1 − ej k 4
−j k
2 π (t−2)
x1 (t − 2) = 1 + 2π e 4 + 2π e 4 .
4 k=1 jk 4
−j k 4
(9.130)
y por lo tanto
  π
  π
 
1 X∞ 1 − e−j k 2 −j k π j k π t 1 − ej k 2 j k π −j k π t
x1 (t − 2) = 1 + e e 2 + e e 2 .
4 k=1 j k π2 −j k π2
(9.131)
4. Por lo tanto, podemos ver que
1 1
a0 = − = 0, (9.132)
4 4
183
y    
π π
−j k 2 −j k 2
1 1−e −j k π 1 1−e
ak = (1 − e )= (1 − e−j k π ). (9.133)
4 j k π2 4 j k π2

% s e r i e s de F o u r i e r tiempo c o n t i n u o

% numero de armonicas a c a l c u l a r
N = 32;

% Periodo
T = 4.0;
% Parte d e l p e r i o d o que l a s i g n a l e s 1
T1 = 1 . 0 ;
% Desplazamiento
Td = 2 . 0 ;

a0 = T1 / T;

k = ( 1 :N) ’ ;
ak = T1/ T ∗ . . .
( 1 − exp(− j ∗ k ∗ 2 ∗ pi ∗ T1 / T) ) . / . . .
( j ∗ k ∗ 2 ∗ pi ∗ T1/ T ) ;

bk = ak . ∗ ( 1 − exp(− j ∗ k ∗ 2 ∗ pi ∗ Td/T ) ) ;

% Dominio de l a f r e c u e n c i a
% preparando l a g r a f i c a
K = (−N : 1 : N) ’ ;
akn = conj ( ak ( end : − 1 : 1 ) ) ;
AK = [ akn ; a0 ; ak ] ;
magAK = sqrt ( conj (AK) . ∗AK) ;

bkn = conj ( bk ( end : − 1 : 1 ) ) ;


BK = [ bkn ; 0 ; bk ] ;
magBK = sqrt ( conj (BK) . ∗BK) ;

h1 = f i g u r e ( 1 ) ; c l f
subplot ( 3 , 1 , 1 ) ;
stem (K, r e a l (BK) ) ;
xlabel ( ’ k ’ ) ;

184
ylabel ( ’ r e a l bk ’ )
subplot ( 3 , 1 , 2 ) ;
stem (K, imag (BK) ) ;
xlabel ( ’ k ’ ) ;
ylabel ( ’ imag bk ’ )
subplot ( 3 , 1 , 3 ) ;
stem (K, magBK ) ;
xlabel ( ’ k ’ ) ;
ylabel ( ’ norm bk ’ )
print ( ’ d o m i n i o f r e c u e n c i a d e l t a . png ’ )

% Dominio d e l tiempo
% Preparando l a g r a f i c a
puntos =1000;
t = linspace ( 0 , 4∗T, puntos ) ;
xt = zeros ( s i z e ( t ) ) ;
for n=1: puntos ,
expo = exp ( j ∗ K’ ∗ 2 ∗ pi ∗ t ( n ) / T ) ;
xt ( n ) = expo ∗ BK;
end ;

h2 = f i g u r e ( 2 ) ; c l f
plot ( t , xt )
xlabel ( ’ t ’ )
ylabel ( ’ x ( t ) ’ )
print ( ’ d o m i n i o t i e m p o d e l t a . png ’ )

9.7.5 Una función periódica par


1. Calculemos la serie de Fourier de la señal definida por

0 −T < t ≤ −T1 ,


x4 (t) = x4 (t + 2 T )  1 −T1 < t ≤ T1 , (9.134)

0 T1 < t ≤ T.

2. La ecuación de análisis (9.41) para este caso es


Z T1

2 T ak = e−j k 2 T t dt. (9.135)
−T1

3. Para k = 0, Z T1

2 T a0 = e−j 0 2 T t dt = 2 T1 . (9.136)
−T1

185
Figura 9.8: Dominio de la frecuencia ejemplo 9.7.4

Figura 9.9: Dominio del tiempo ejemplo 9.7.4

186
2 T1 T1
a0 = = . (9.137)
2T T
4. Para k 6= 0, R T1 π
−T1 e−j k T t d(−j k Tπ )t
2 T ak = . (9.138)
−j k Tπ

5. Evaluamos la integral
h −j k π t
iT1
−j k π T1 j k π T1
e T
e T −e T
−T1
2 T ak = jkπ = −j k π . (9.139)
T T

6. Simplificamos expresiones
−j k π T1 j k π T1 j k π T1 −j k π T1
e T −e T e T −e T sin( k πTT1 )
ak = = = . (9.140)
−2 j k π 2j kπ kπ

7. Multiplicando y dividiendo

T1 sin( k πTT1 )
ak = . (9.141)
T k π TT1

8. Resumiendo
T1
a0 = , (9.142)
T2
y
T1 sin( k πTT1 )
ak = . (9.143)
T k π TT1

% s e r i e s de F o u r i e r tiempo c o n t i n u o
% ejemplo 9. 7 .5

% numero de armonicas a c a l c u l a r
N = 32;

T = 8;
T1 = 4 ;
a0 = T1/T;

k = ( 1 :N) ’ ;

187
ak = (T1/T) ∗ . . .
sin ( k ∗ pi ∗ T1/T ) . / ( k ∗ pi ∗ T1/T ) ;

% Dominio de l a f r e c u e n c i a
% preparando l a g r a f i c a
K = (−N : 1 : N) ’ ;
akn = conj ( ak ( end : − 1 : 1 ) ) ;
AK = [ akn ; a0 ; ak ] ;
magAK = sqrt ( conj (AK) . ∗AK) ;

h1 = f i g u r e ( 1 ) ; c l f
subplot ( 3 , 1 , 1 ) ;
stem (K, r e a l (AK) ) ;
xlabel ( ’ k ’ ) ;
ylabel ( ’ r e a l ak ’ )
subplot ( 3 , 1 , 2 ) ;
stem (K, imag (AK) ) ;
xlabel ( ’ k ’ ) ;
ylabel ( ’ imag ak ’ )
subplot ( 3 , 1 , 3 ) ;
stem (K, magAK ) ;
xlabel ( ’ k ’ ) ;
ylabel ( ’ norm ak ’ )
print ( ’ d o m i n i o f r e c u e n c i a e c h o . png ’ )

% Dominio d e l tiempo
% Preparando l a g r a f i c a
puntos =1000;
t = linspace (−2∗T, 2∗T, puntos ) ;
xt = zeros ( s i z e ( t ) ) ;
for n=1: puntos ,
expo = exp ( j ∗ K’ ∗ 2 ∗ pi ∗ t ( n ) / T ) ;
xt ( n ) = expo ∗ AK;
end ;

h2 = f i g u r e ( 2 ) ; c l f
plot ( t , xt )
xlabel ( ’ t ’ )
ylabel ( ’ x ( t ) ’ )
print ( ’ d o m i n i o t i e m p o e c h o . png ’ )

188
Figura 9.10: Dominio de la frecuencia ejemplo 9.7.5

9.7.6 Una función periódica impar


1. Calculemos la serie de Fourier de la señal definida por
0 −T < t ≤ −T1 ,



−1 −T1 < t ≤ 0,


x5 (t) = x4 (t + 2 T ) (9.144)
 1

 0 < t ≤ T1 ,
0 T1 < t ≤ T.

2. La ecuación de análisis (9.41) para k = 0 es


Z 0  Z T1 !
2 T a0 = − dt + dt = 0. (9.145)
−T1 0

3. La ecuación de análisis (9.41) para k 6= 0 es


Z 0  Z T1 !
2π 2π
−j k t −j k t
2 T ak = − e 2T dt + e 2T dt . (9.146)
−T1 0

π
4. Para resolver (9.146) multiplicamos y dividimos por −j k T
h π
i0 h iT1
π
e−j k T t e−j k T t
−T1 0
2 T ak = − π + π . (9.147)
−j k T
−j k T

189
Figura 9.11: Dominio del tiempo ejemplo 9.7.5

5. Escribamos
π h π
i0 h π
iT1
−j 2 T k ak = − e−j k T t + e−j k T t . (9.148)
T −T1 0

6.
π π
   
−j 2 k π ak = − 1 − ej k T T1 + e−j k T T1 − 1 . (9.149)

7.
π π
−j 2 k π ak = ej k T T1 + e−j k T T1 − 2. (9.150)

8.
π π
−j 2 k π ak = ej k T T1 + e−j k T T1 − 2. (9.151)

9. π π
2 − ej k T T1 − e−j k T T1
ak = . (9.152)
j 2kπ
10.
T1 1 − cos(k Tπ T1 )
ak = . (9.153)
T j k π TT1

190
% s e r i e s de F o u r i e r tiempo c o n t i n u o
% ejemplo 9. 7 .3

% numero de armonicas a c a l c u l a r
N = 32;

% Periodo
T = 8.0;
T1 = 0 . 5 ;

a0 = 0 ;

k = ( 1 :N) ’ ;
ak = . . .
(1− cos ( k ∗ pi ∗ T1/T) ) . / . . .
( j ∗k ∗ pi ) ;

% Dominio de l a f r e c u e n c i a
% preparando l a g r a f i c a
K = (−N : 1 : N) ’ ;
akn = ak ( end : − 1 : 1 ) ;
AK = [ conj ( akn ) ; a0 ; ak ] ;
magAK = sqrt ( conj (AK) . ∗AK) ;

h1 = f i g u r e ( 1 ) ; c l f
subplot ( 3 , 1 , 1 ) ;
stem (K, r e a l (AK) ) ;
xlabel ( ’ k ’ ) ;
ylabel ( ’ r e a l ak ’ )
subplot ( 3 , 1 , 2 ) ;
stem (K, imag (AK) ) ;
xlabel ( ’ k ’ ) ;
ylabel ( ’ imag ak ’ )
subplot ( 3 , 1 , 3 ) ;
stem (K, magAK ) ;
xlabel ( ’ k ’ ) ;
ylabel ( ’ norm ak ’ )
print ( ’ d o m i n i o f r e c u e n c i a f o x t r o t . png ’ )
% Dominio d e l tiempo
% Preparando l a g r a f i c a

191
Figura 9.12: Dominio de la frecuencia ejemplo 9.7.6

puntos =5000;
t = linspace (−2∗T, 2∗T, puntos ) ;
xt = zeros ( s i z e ( t ) ) ;
for n=1: puntos ,
expo = exp ( j ∗ K’ ∗ 2 ∗ pi ∗ t ( n ) / T ) ;
xt ( n ) = expo ∗ AK;
end ;
h2 = f i g u r e ( 2 ) ; c l f
plot ( t , xt )
xlabel ( ’ t ’ )
ylabel ( ’ x ( t ) ’ )
print ( ’ d o m i n i o t i e m p o f o x t r o t . png ’ )

9.8 Sistema lineal excitado con una serie de Fourier


1. Supongamos que tenemos un sistema lineal invariante en el tiempo con una res-
puesta al impulso h(t). Vamos a calcular la salida y(t) para una entrada


ak ej k t
X
x(t) = T . (9.154)
k=−∞

192
Figura 9.13: Dominio del tiempo ejemplo 9.7.6

2. Para evaluar la integral de convolución, emplearemos la fórmula


Z ∞
y(t) = h(v) x(t − v) dv. (9.155)
−∞

3. Reemplazando (9.154) en (9.155) obtenemos


 
Z ∞ ∞

ak ej k (t−v) 
X
y(t) = h(v)  T dv. (9.156)
−∞ k=−∞

4. Intercambiamos la posición del signo de integral con el signo de sumatoria y fac-


toreamos la exponencial
∞ Z ∞
2π 2π
t −j k
h(v) ak ej k v
X
y(t) = T e T dv. (9.157)
k=−∞ −∞


5. Podemos extraer el factor ak ej k T
t
fuera de las integrales en (9.157)
∞ Z ∞ 
2π 2π
−j k v
dv ak ej k t
X
y(t) = h(v) e T T . (9.158)
k=−∞ −∞

193
6. En la ecuación (9.158) podemos definir
Z ∞
2π 2π
H(k )= h(v) e−j k T v dv, (9.159)
T −∞

y escribir

2π 2π
) ak ej k T t .
X
y(t) = H(j k (9.160)
k=−∞ T

7. Los factores H(j k 2Tπ ) son evaluaciones de la transformada de Fourier H(j ω) para
los valores de frecuencia j k 2Tπ . Si elegimos los valores de H(j k 2Tπ ) en forma ade-
cuada, podemos procesar la señal de entrada para obtener una salida conveniente
o adecuada. Esto es el principio matemático de los filtros de señal.

9.9 Ejercicios
1. Obtenga coeficientes de Fourier (para una serie expresada como suma ponderada
de exponenciales imaginarias) para una señal triangular obtenida integrando la
señal x5 (t) definida arriba en la ecuación (9.126). Grafique el espectro correspon-
diente.

2. Obtenga coeficientes de Fourier (para una serie expresada como suma ponderada
de exponenciales imaginarias) para una señal triangular obtenida integrando la
señal x6 (t) definida arriba en la ecuación (9.134). Grafique el espectro correspon-
diente.

3. Obtenga coeficientes de Fourier (para una serie expresada como suma ponderada
de exponenciales imaginarias) para la señal peródica T , tal que 0 < T1 ≤ T ,
definida como
T1

 1 |t − k T | ≤ 2 ,

x7 (t) = (9.161)
T1
0 |t − k T | > 2 ,

Compruebe que los coeficientes se pueden definir como

sin(k 2Tπ T21 )


ck = T1 . (9.162)
k 2Tπ T21

Explique que sucede cuando k = 0.

4. Desplaze la señal x5 en el tiempo hasta que coincida con la señal x7 . ¿Que factor
es el necesario para modificar los coeficientes de x5 para que coincidan con los de
x7 ?

194
Capı́tulo 10

Transformada de Fourier de tiempo


continuo

10.1 Introducción
1. Vamos a ver como podemos modificar el concepto de serie de Fourier para
estudiar funciones no periódicas de tiempo continuo. Esto nos permite definir
el concepto de contenido de frecuencias de una señal, aún cuando sea no
periódica.
2. Pensemos en el ejemplo (9.7.5), donde
T1
a0 = , (10.1)
T2
y
T1 sin( k πTT1 )
ak = k π T1 . (10.2)
T T

3. Podemos escribir (10.2) de la siguiente forma



sin(ω)
T ak = T ak = T1 (10.3)
ω ω= k π T1
T

y entonces es evidente que la podemos interpretar como una secuencia formada


por muestras de una función envolvente T1 sin(ω) ω
) donde la variable ω es con-
tinua, y la secuencia T ak está formada por valores igualmente espaciados en fre-
cuencia, con intervalo πTT1 .
4. Observe que la separación de las muestras de la envolvente de T ak está dada por
π T1
ωT = . (10.4)
T
195
Entonces, cuando mayor sea T menor será ωT y la cantidad de muestras en un
intervalo dado de frecuencia será mayor.
5. Si fijamos el valor T1 (recordando que debe ser T1 < T, por hipótesis) la envolvente
de T ak es independiente de T .

10.2 Sı́ntesis y análisis


10.2.1 Teorı́a
1. Vamos a construir una señal x (t) no periódica como el lı́mite de una señal x̂ (t)
periódica cuando el perı́odo T tiende a ∞. Veamos que pasa con los coeficientes
de la serie de Fourier. Recordemos que una señal periódica x̂ (t) = x̂ (t + T ) se
puede escribir como una serie de Fourier mediante la ecuación de sı́ntesis

ak e j k ω 0 t ,
X
x̂ (t) = (10.5)
k=−∞

donde los coeficientes ak se calculan mediante la ecuación de análisis


T
1Z 2
ak = x̂ (t) e−j k ω0 t dt. (10.6)
T −2
T

2. Definamos la señal no periódica x(t) especificando


x̂ (t) |t| ≤ T2 ,



x (t) = x̂ (t) = x̂ (t + T ) . (10.7)
T
|t| >


0 2
,
Entonces los coeficientes de la serie de Fourier son
T
1Z 2 −j k ω0 t 1Z∞
ak = x̂ (t) e dt = x (t) e−j k ω0 t dt. (10.8)
T −2
T T −∞
Las dos integrales son iguales en valor porque un perı́odo de x̂ (t) co-
incide con x (t) , justamente donde se evalúa la primer integral, y x (t)
es nula para |t| > T2 .
3. Definamos la ecuación de análisis de la transformada de Fourier como
Z ∞
X (j ω) = x (t) e−j ω t dt. (10.9)
−∞

Tenemos que los coeficientes de la serie de Fourier forman la secuencia de valores


T ak = X (j k ω0 ) . (10.10)

196
4. Usando la ecuación de sı́ntesis de la serie de Fourier podemos escribir

1 X
x̂ (t) = X (j k ω0 ) ej k ω0 t . (10.11)
T k=−∞
2π 2π
Dado que ω0 = T
←→ T = ω0
vemos que la serie de Fourier puede escribirse
como ∞
1 X
x̂ (t) = X (j k ω0 ) ej k ω0 t ω0 . (10.12)
2 π k=−∞
A medida que T → ∞, ω0 → 0 (o sea un diferencial de frecuencia dω), x̂ (t) → x (t)
y obtenemos la ecuación de sı́ntesis
1 Z∞
x (t) = X (j ω) ej ω t dω. (10.13)
2 π −∞
A medida que T → ∞, se agranda el rango de valores de t en la que las
dos funciones x̂ (t) e x (t) son iguales.

10.2.2 Prestar atención


Como hemos visto antes, vamos a usar la ecuación de análisis
Z ∞
X (j ω) = x (t) e−j ω t dt, (10.14)
−∞

y la ecuación de sı́ntesis
1 Z∞
x (t) = X (j ω) ej ω t dω. (10.15)
2 π −∞
Esto significa que estamos usando la variable ω (radianes por segundo), y no la variable
f (ciclos por segundo). Recordemos que ambas están relacionadas por

ω = 2 πf. (10.16)

Este cambio de variables afecta a las ecuaciones que serı́an de la forma


Z ∞
X (f ) = x (t) e−j2 πf t dt, (10.17)
−∞

y Z ∞
x (t) = X (f ) ej2 πf t df. (10.18)
−∞

Usamos las fórmulas dadas por las ecs. (10.14) y (10.15) porque son las que aparecen
en los libros disponibles en biblioteca. La diferencia de notación no afecta la teorı́a.

197
10.2.3 Concepto de la Transformada de Fourier
1. La Transformada de Fourier es una generalización de la serie de Fourier, y permite
estudiar funciones no periódicas en el dominio de la frecuencia.

2. La Transformada de Fourier permite descomponer una señal en componentes


armónicas cuyas frecuencias varı́an en diferenciales, a diferencia de la serie de
Fourier donde las frecuencias de las armónicas varı́an en incrementos de ωT = 2Tπ
la frecuencia fundamental correspondiente al perı́odo T .

10.3 Convergencia de la Transformada de Fourier


Sea una señal x (t) , y consideremos las funciones X (j ω) y xF (t) definidas como
Z ∞
X (j ω) = x (t) e−j ω t dt, (10.19)
−∞

y
1 Z∞
xF (t) = X (j ω) ej ω t dω. (10.20)
2 π −∞
La pregunta es: ¿cuándo xF (t) es una representación válida de x (t)?

10.3.1 Energı́a finita


Si x (t) tiene energı́a finita Z ∞
[x (t)]2 dt < ∞, (10.21)
−∞

entonces X (j ω) es finita, o sea que la integral (10.19) converge, y además


Z ∞
[x (t) − xF (t)]2 dt = 0. (10.22)
−∞

Esto implica que xF (t) y x (t) son similares excepto en, a lo sumo, una cantidad limitada
de valores de t donde las funciones tengan discontinuidades.

10.3.2 Condiciones de Dirichlet


Son condiciones alternativas a la anterior, y son suficientes para asegurar que
xF (t) es igual a x (t) excepto en puntos de discontinuidad.

1. x (t) debe ser absolutamente integrable


Z ∞
|x (t)| dt < ∞. (10.23)
−∞

198
2. x (t) tiene un número finito de máximos y mı́nimos dentro de cualquier intervalo
finito.

3. x (t) tiene un número finito de discontinuidades dentro de cualquier intervalo finito,


y dichas discontinuidades son finitas. En este caso, en los puntos de discontinuidad
de x (t), xF (t) es igual al promedio de valores de x (t) a ambos lados de la discon-
tinuidad.

Si se cumplen estas condiciones entonces x (t) tiene transformada de Fourier.

10.3.3 Pregunta
Las señales que llegan a las antenas de un televisor o un equipo de radio, por mencionar
dos ejemplos, ¿tienen transformada de Fourier? Justifique.

10.4 Ejemplos
10.4.1 Impulso temporal
Calculemos la transformada de Fourier de un impulso δ (t)
Z ∞
X (j ω) = δ (t) e−j ω t dt. (10.24)
−∞

Por la propiedad del muestreo

δ (t) e−j ω t = δ (t) e−j ω0 = δ (t) , (10.25)

y por lo tanto Z ∞ Z ∞
−j ω t
X (j ω) = δ (t) e dt = δ (t) dt = 1. (10.26)
−∞ −∞

Note que es un valor constante para todo valor de ω.

10.4.2 Impulso temporal desplazado


Calculemos la transformada de Fourier de un impulso desplazado en el tiempo δ (t − t0 )
Z ∞
X (j ω) = δ (t − t0 ) e−j ω t dt. (10.27)
−∞

Recordemos que, por la propiedad del muestreo,

δ (t − t0 ) e−j ω t = δ (t − t0 ) e−j ω t0 = δ (t − t0 ) e−jω t0 (10.28)

199
y por lo tanto podemos escribir
Z ∞ Z ∞ 
X (j ω) = δ (t − t0 ) e−j ω t dt = δ (t) dt e−j ω t0 = e−j ω t0 , (10.29)
−∞ −∞

teniendo en cuenta que el factor e−j ω t0 no depende de la variable de integración t y


puede ser extraı́do de la integral como una constante.

10.4.3 Impulso en frecuencia


Sea la transformada de Fourier

X (j ω) = 2 π δ (ω − ω0 ) . (10.30)

Apliquemos la ecuación de sı́ntesis para obtener


1 Z∞
x (t) = 2 π δ (ω − ω0 ) ej ω t dω = ej ω0 t . (10.31)
2 π −∞
Esto significa que las funciones periódicas ej ω0 t también tienen transformada de Fourier,
y son impulsos en frecuencia 2 π δ (ω − ω0 ).

10.4.4 Tren de impulsos en frecuencia


En general, si tenemos un tren de impulsos en frecuencia

X
X (j ω) = 2 π ak δ (ω − k ω0 ) , (10.32)
k=−∞

y la serie de Fourier

ak ej k ω0 t ,
X
x (t) = (10.33)
k=−∞

podemos escribir
∞ ∞
X
j k ω0 t TF X
ak e 2 π ak δ (ω − kω0 ) . (10.34)
k=−∞
⇔ k=−∞

10.4.5 Tren de impulsos temporal


Consideremos el tren de impulsos temporal

X
x (t) = δ (t − kT ) . (10.35)
k=−∞

200
Calculemos los coeficientes de la serie de Fourier, y observemos que dentro de los lı́mites
de integración x (t) = δ (t) lo que permite escribir
T
1Z 2 1
ak = δ (t) e−j k ω t dt = . (10.36)
T −2
T T

y por lo tanto tenemos que la transformada de Fourier es (vea 10.34)



!
X 2π 2πk
X (j ω) = δ ω− . (10.37)
k=−∞ T T

10.4.6 Pulso rectangular en tiempo


Calculemos la transformada de la señal pulso rectangular
(
1, |t| ≤ T1 ,
x (t) = (10.38)
0, |t| > T1 .

Según la ecuación de análisis


Z T1 [e−j ω t ]−T T1
−j ω t 1
X (j ω) = e dt = . (10.39)
−T1 −j ω
Evaluando la integral
T
[e−j ω t ]−T
1
1
e−j ω T1 − ej ω T1
X (j ω) = = . (10.40)
−j ω −j ω
Finalmente, multiplicando y diviendo por 2 T1 y simplificando signos llegamos a la ex-
presión

e−j ω T1 − ej ω T1 ej ω T1 − e−j ω T1 sin (ω T1 )


X (j ω) = = 2 T1 = 2 T1 . (10.41)
−j ω 2 j ω T1 ω T1
Por lo tanto, resulta
sin (ω T1 )
X (j ω) = 2 T1 . (10.42)
ω T1

10.4.7 Pulso rectangular en frecuencia


Veamos cuál es la señal x (t) cuya transformada de Fourier es
(
1, |ω| ≤ W1 ,
X (j ω) = (10.43)
0, |ω| > W1 .

201
Según la ecuación de sı́ntesis

1 Z W1 j ω t sin (W1 t)
x (t) = e dω = , (10.44)
2 π −W1 πt
Evaluando la integral
W
1 [e−j ω t ]−W1
1
1 e−j W1 t − ej W1 t
x (t) = = . (10.45)
2π −j t 2π −j t
Finalmente, multiplicando y diviendo por 2 W1 y simplificando signos llegamos a la
expresión

1 e−j W1 t − ej W1 t 1 ej W1 t − e−j W1 t W1 sin (W1 t)


x (t) = = 2 W1 = . (10.46)
2π −j t 2π 2 j W1 t π W1 t
Por lo tanto, resulta
W1 sin (W1 t)
x (t) = . (10.47)
π W1 t

10.4.8 Exponencial decreciente derecha


Consideremos la señal
x (t) = e−a t u (t) , a > 0. (10.48)
Según la ecuación de análisis
#∞
e−(a+j ω)t
Z ∞ "
−a t −j ω t
X (j ω) = e e dt = − , (10.49)
0 a+jω 0

o sea que
1
X (j ω) = , a > 0. (10.50)
a+jω
Observe además que la siguiente integral está acotada
Z ∞
−a t
1
e u (t) dt = . (10.51)

0 a
y además la función x(t) tiene una única discontinuidad acotada en t = 0. Por lo tanto
esta función verifica las condiciones de Dirichlet.

202
10.5 Propiedades de la Transformada de Fourier de
tiempo continuo
10.5.1 Linealidad
Sea una función
r (t) = a x (t) + b y (t) . (10.52)
Podemos probar que su transformada es
Z ∞
R (j ω) = (ax (t) + by (t)) e−j ω t dt. (10.53)
−∞

En otras palabras, la transformada de Fourier es una operación lineal.


Escribiendo la ecuación de análisis para r (t) tenemos
Z ∞ 
−j ω t −j ω t
R (j ω) = a x (t) e + b y (t) e dt , (10.54)
−∞

que puede rescribirse, por la linealidad del operador integral, como


Z ∞  Z ∞ 
R (j ω) = a x (t) e−j ω t dt + b y (t) e−j ω t dt . (10.55)
−∞ −∞

Por lo tanto resulta


R (j ω) = a X (j ω) + b Y (j ω) . (10.56)
Ası́ deducimos la propiedad
TF
ax (t) + by (t) a X (j ω) + b Y (j ω) . (10.57)

10.5.2 Desplazamiento en el tiempo


Dada la función
r (t) = x (t − t0 ) , (10.58)
su transformada es Z ∞
R (j ω) = x (t − t0 ) e−j ω t dt. (10.59)
−∞

Escribiendo la ecuación de análisis de r (t) y aplicando un cambio de variable τ =


t − t0 , obtenemos Z ∞
R (j ω) = x (τ ) e−j ω(τ +t0 ) dt. (10.60)
−∞
Por las propiedades de la función exponencial

e−j ω (τ +t0 ) = e−j ω τ e−j ω t0 , (10.61)

203
reescribimos la ecuación anterior como
Z ∞
−j ω t0
R (j ω) = e x (τ ) e−j ωτ dτ. (10.62)
−∞

Observe que e−j ω t0 sale de la integral pues no depende de la variable de integración τ .


As´’i, llegamos a la conclusión
T F −j ω t0
x (t − t0 ) e X (j ω) . (10.63)

10.5.3 Conjugación y simetrı́a del conjugado


1. El conjugado de la transformada de Fourier es
Z ∞ Z ∞
X (j ω) = x (t) e−j ω t dt = x (t) ej ω t dt. (10.64)
−∞ −∞

Cambiando el signo de ω en ambos lados de la ecuación mantenemos la igualdad


Z ∞
X (−j ω) = x (t) e−j ω t dt. (10.65)
−∞

Como conclusión, podemos escribir


TF
x (t) X (−j ω). (10.66)

2. Si x (t) es real entonces


x (t) = x (t). (10.67)
Planteando la igualdad
Z ∞ Z ∞
X (−j ω) = x (t) ej ω t dt = x (t) e−j ω t dt, (10.68)
−∞ −∞

y considerando la Ec. (10.67) obtenemos


Z ∞ Z ∞
X (−j ω) = x (t)e−j ω t dt = x (t) e−j ω t dt = X (j ω) , (10.69)
−∞ −∞

lo que demuestra
X (−j ω) = X (j ω). (10.70)

3. Si x (t) es real por la ec. (10.70) tenemos que


< (X (j ω)) = < (X (−j ω)) , (10.71)
y
= (X (j ω)) = −= (X (−j ω)) . (10.72)

204
4. Si x (t) es real, entonces
kX (j ω)k = X (j ω) X (j ω) = X (j ω) X (−j ω) , (10.73)
kX (−j ω)k = X (−j ω) X (−j ω) = X (−j ω) X (j ω) , (10.74)
debido a la ec. (10.70), y por lo tanto kX (j ω)k es una función par, y de forma
similar puede demostrarse que 6 X (j ω) = arctan =(X(j ω))
<(X(j ω))
es una función impar.

5. Si x (t) es real y par entonces X (j ω) es real y par pues


Z ∞ Z ∞
X (−j ω) = x (t) ej ω t dt = x (−t) e−j ω t dt. (10.75)
−∞ −∞

Como x (t) = x (−t) (función par) tenemos que


Z ∞
X (−j ω) = x (τ ) e−j ωτ dτ = X (j ω) , (10.76)
−∞

y por lo tanto es una función par.


6. Si x (t) es real e impar, (x (t) = −x (−t)) , entonces X (j ω) es impar pues
Z ∞ Z ∞
−X (−j ω) = − x (t) ej ω t dt = −x (−τ ) e−j ωτ dτ, (10.77)
−∞ −∞
Z ∞ Z ∞
−X (−j ω) = −x (−τ ) e−j ωτ dτ = x (τ ) e−j ωτ dτ = X (j ω) . (10.78)
−∞ −∞
y considerando la ec. (10.70), además X (j ω) es imaginaria pura
X (j ω) = −X (−j ω) . (10.79)

10.5.4 Diferenciación en tiempo


1. Escribamos la ecuación de sı́ntesis
1 Z∞
x (t) = X (j ω) ej ω t dω. (10.80)
2 π −∞
2. Derivemos ambos términos respecto al tiempo
dx (t) 1 Z∞ d (ej ω t )
= X (j ω) dω. (10.81)
dt 2 π −∞ dt
3. Obtenemos finalmente
dx (t) 1 Z∞
= j ω X (j ω) ej ω t dω. (10.82)
dt 2 π −∞
4. La conclusión es
dx (t) F
j ω X (j ω) . (10.83)
dt ↔

205
10.5.5 Diferenciación en frecuencia
1. Escribamos la ecuación de análisis
Z ∞
X (j ω) = x (t) e−j ω t dt. (10.84)
−∞

2. Derivemos ambos términos respecto a la frecuencia


dX (j ω) Z ∞ d (e−j ω t )
= x (t) dt. (10.85)
dω −∞ dω

3. Obtenemos
dX (j ω) Z ∞
= −j t x (t) e−j ω t dω dt. (10.86)
dω −∞

4. Finalmente
dX (j ω) Z ∞
j = t x (t) e−j ω t dω dt. (10.87)
dω −∞

Conclusión
F dX (j ω)
t x (t) j . (10.88)
↔ dω

10.5.6 Escalado en tiempo y frecuencia


1. Vamos a calcular la transformada de x(a t) en función de la transformada de x(t).
2. Escribamos la ecuación de análisis
Z ∞
F (x (at)) = x (a t) e−j ω t dt, (10.89)
−∞

donde a 6= 0.
3. Hagamos la sustitución τ = a t para obtener
 jω
1 R∞


 a −∞
x (τ ) e− a
τ
dτ, a > 0,
F (x (at)) =  (10.90)
− jaω τ
R∞
− a1 −∞ x (τ ) e dτ, a < 0.

4. El signo de a afecta al orden de integración. Si se conservan los lı́mites de inte-


gración, debe observarse el signo correspondiente. La conclusión es
F 1 jω
 
x (at) X , (10.91)
↔ |a| a
donde a 6= 0.

206
10.5.7 Convolución en el dominio del tiempo
1. Empezamos con la integral de convolución
Z ∞
y (t) = x (τ ) h (t − τ ) dτ. (10.92)
−∞

2. Deseamos obtener la transformada de Fourier


Z ∞ Z ∞ 
Y (j ω) = F (y (t)) = x (τ ) h (t − τ ) dτ e−j ω t dt. (10.93)
−∞ −∞

3. Cambiando el orden de integración, y observando que x (τ ) no depende de t,


obtenemos
Z ∞ Z ∞  Z ∞ Z ∞ 
x (τ ) h (t − τ ) dτ e−j ω t dt = x (τ ) h (t − τ ) e−j ω t dt dτ.
−∞ −∞ −∞ −∞
(10.94)

4. Por la propiedad de desplazamiento en el tiempo, aplicada a h(t − τ ), tenemos que


Z ∞
h (t − τ ) e−j ω t dt = e−j ωτ h (j ω) , (10.95)
−∞

que podemos reemplazar para obtener


Z ∞ Z ∞  Z ∞
−j ω t
Y (j ω) = x (τ ) h (t − τ ) e dt dτ = x (τ ) e−j ωτ H (j ω) dτ.
−∞ −∞ −∞
(10.96)

5. La integral entre paréntesis


Z ∞  
Y (j ω) = x (τ ) e−j ωτ dτ H (j ω) , (10.97)
−∞

es igual a la transformada de Fourier X (j ω) y por lo tanto

Y (j ω) = X (j ω) H (j ω) . (10.98)

6. Conclusión
F
y (t) = x (t) ∗ h (t) Y (j ω) = X (j ω) R (j ω) . (10.99)

Convolución de señales en el dominio del tiempo implica multiplicación


de transformadas de Fourier en el dominio de la frecuencia

207
10.5.8 Convolución en el dominio de la frecuencia
1. Empezamos con la expresión
1 Z∞
R (j ω) = X (j ω) Y (j (ω − θ)) dθ. (10.100)
2 π −∞

2. Aplicamos la ecuación de sı́ntesis


1 Z∞ 1 Z∞
 
r (t) = X (j ω) Y (j (ω − θ)) dθ ej ω t dω. (10.101)
2 π −∞ 2 π −∞

3. Intercambiamos el orden de integración


Z ∞
1 1 Z∞
  
jωt
r (t) = X (j ω) Y (j (ω − θ)) e dω dθ . (10.102)
2π −∞ 2 π −∞

4. Aplicamos la ecuación de sı́ntesis


Z ∞
1

jθt
r (t) = X (j ω) y (t) e dθ . (10.103)
2π −∞

y dado que y (t) no depende de la variable de integración lo podemos extraer de


la integral Z ∞
1

jθt
r (t) = y (t) X (j ω) e dθ . (10.104)
2 π −∞
5. Finalmente, aplicando nuevamente la ecuación de sı́ntesis, obtenemos

r (t) = y (t) x (t) . (10.105)

Conclusión
F 1 Z∞
r (t) = x (t) y (t) R (j ω) = X (j ω) Y (j (ω − θ)) dθ. (10.106)
↔ 2 π −∞
Convolución de transformadas implica multiplicación de señales en el do-
minio del tiempo

10.5.9 Traslación en frecuencia


Empezamos con la integral de sı́ntesis
1 R∞
2π −∞ X (j (ω − ω0 )) ej ω t dω =
(10.107)
ej ω0 t R∞ j(ω−ω0 )t
2π −∞ X (j (ω − ω0 )) e d (ω − ω0 ) ,

208
ej ω0 t Z ∞
X (j ω1 ) ej ω1 t dω1 = ej ω0 t x (t) . (10.108)
2 π −∞
Conclusión
F
ej ω0 t x (t) X (j (ω − ω0 )) . (10.109)

Recordemos la propiedad de desplazamiento temporal para comparar

F −j ω t0
x (t − t0 ) e X (j ω) . (10.110)

10.5.10 Relación de Parseval


Empezamos con la igualdad
Z ∞ Z ∞
2
|x (t)| dt = x (t) x (t) dt. (10.111)
−∞ −∞

Recordamos la ecuación de sı́ntesis


Z ∞ Z ∞
1 Z∞
 
−j ω t
x (t) x (t) dt = x (t) X (j ω)e dω dt, (10.112)
−∞ −∞ 2 π −∞
y cambiamos el orden de integración
Z ∞
1 Z∞
Z ∞ 
−j ω t
x (t) x (t) dt = X (j ω) x (t) e dt dω. (10.113)
−∞ 2 π −∞ −∞

Recordemos la ecuación de análisis y escribimos


Z ∞
1 Z∞
x (t) x (t) dt = X (j ω) X (j ω) dω. (10.114)
−∞ 2 π −∞
Conclusión: si es limitada, la energı́a de una señal puede calcularse en el dominio del
tiempo y en el dominio de la frecuencia
Z ∞
1 Z∞
|x (t)|2 dt = |X (j ω)|2 dω. (10.115)
−∞ 2 π −∞

10.5.11 Dualidad
La demostración de la propiedad de dualidad es más sencilla si consideramos las ecua-
ciones de análisis y sı́ntesis en la variable f
Z ∞
X1 (f ) = x1 (t) e−j2 πf t dt, (10.116)
−∞

209
y Z ∞
x1 (t) = X1 (f ) ej2 πf t df. (10.117)
−∞

Observemos que las dos ecuaciones son muy similares. Reemplazemos ahora t = −τ
para obtener Z ∞
X2 (f ) = x2 (−τ ) ej2 πf τ d(−τ ), (10.118)
−∞
y Z ∞
x2 (−τ ) = X2 (f ) e−j2 πf τ df. (10.119)
−∞

Comparemos los pares de ecuaciones (10.116) y (10.119), (10.117) y (10.118). Pode-


mos ver que tienen la misma forma, más alla de que la variable de integración es distinta.
De esta similitud entre las ecuaciones es posible deducir la relación de dualidad

F
x(t) X(f )

(10.120)
F
X(−t) x(f )

10.5.12 Integración
t R
Dada una señal x(t), la integral de x(t) es la función −∞ x(v)dv. Supongamos que x(t)
tiene una transformada de Fourier X(ω). No podemos asegurar que la integral de x(t)
tenga una transformada de Fourier en el sentido ordinario, pero tiene una transformada
generalizada. Se puede demostrar que
Z t
F 1
x (t) dt X (j ω) + πX (0) δ (ω) , (10.121)
−∞ ↔ jω

donde δ(ω) es un impulso en el dominio de la frecuencia. El término πX (0) δ (ω) aparece


para tomar en cuenta el valor promedio de la integral.
Para probar esta propiedad, debemos encontrar primero la transformada del impulso
δ(t) y del escalón u(t).

Impulso δ(t)
1. Por la propiedad del muestreo

δ(t)ejω t = δ(t). (10.122)

2. Por lo tanto,
Z ∞
F
δ(t) δ(t)dt = 1. (10.123)
↔ −∞

210
Escalón u(t)
1. Primero encontremos la transformada de
1
x(t) = − + u(t). (10.124)
2

2. Dado que la señal x(t) es constante excepto por un salto de valor 1 desde t = 0−
a t = 0+ , la derivada (generalizada) de x(t) es igual al impulso unitario δ(t).
Entonces por la propiedad de la derivada, la transformada de Fourier de x(t) debe
ser
1 F 1
x(t) = + u(t) . (10.125)
2 ↔ jω

3. Recordemos que la transformada de Fourier de la señal constante 21 es πδ(ω).


Empleando la ec. (10.125) y la propiedad de linealidad, obtenemos finalmente

F 1
u(t) πδ(ω) + . (10.126)
↔ jω

Integral
1. La integral de x(t) puede ser expresada como
Z t
x(v)dv = u(t) ∗ x(t). (10.127)
−∞

Entonces por la propiedad de la convolución, la transformada de Fourier de la


integral x(t) es igual a U (ω)X(ω).

2. Por lo tanto
Z t
F 1 X(ω)
x (t) dt ( + πδ(ω))X (ω) = + πX(0)δ(ω). (10.128)
−∞ ↔ jω jω

211
Capı́tulo 11

La transformada de Laplace

La transformada de Laplace transforma un problema en el dominio del tiempo (encontrar


la solución de una ecuación diferencial) en un problema en el dominio de la frecuencia
compleja s (encontrar la función temporal que corresponde a la función de transferencia
asociada a la ecuación diferencial).
Aplicaremos la transformadas de Laplace y Fourier al estudio de la respuesta tem-
poral y en frecuencia de circuitos eléctricos y electrónicos.

11.1 Definiciones de la transformada de Laplace


11.1.1 Transformada de Laplace bilateral
A continuación vemos

1. la ecuación de análisis Z ∞
X (s) = x (t) e−s t dt. (11.1)
−∞

2. la ecuación de sı́ntesis de la transformada de Laplace bilateral


1 Z σ+j ∞
x (t) = X (s) es t ds, (11.2)
2 π j σ−j ∞

3. y el par función transformada de la transformada de Laplace bilateral

L
x (t) X (s) . (11.3)

11.1.2 Transformada de Laplace unilateral


A continuación vemos

212
1. la ecuación de análisis Z ∞
X + (s) = x (t) e−s t dt, (11.4)
0

2. la ecuación de sı́ntesis
1 Z σ+j ∞ +
x (t) = X (s) es t ds (11.5)
2 π j σ−j ∞
3. y el par función transformada de la Transformada de Laplace unilateral
L+ +
x (t) X (s) . (11.6)

11.2 Relación entre la Transformada de Laplace bi-


lateral y la Transformada de Fourier
Cuando s = jω, la ecuación de análisis de la transformada de Laplace bilateral
Z ∞
X (s) = x (t) e−s t dt, (11.7)
−∞

se transforma en la ecuación de análisis de la transformada de Fourier de x(t)


Z ∞
X (jω) = x (t) e−j ω t dt. (11.8)
−∞

11.3 Existencia de la TL
Reemplazando s = σ + j ω en la ecuación de análisis,
Z ∞
X (s) = X (σ + j ω) = x (t) e−(σ+j ω) t dt. (11.9)
−∞
y separando factores, obtenemos
Z ∞  
X (s) = X (σ + j ω) = x (t) e−σ t e−j ω t dt. (11.10)
−∞

Por lo tanto, para que exista la transformada de Laplace X(s) debe existir la trans-
formada de Fourier de la función x(t) e−σ t . Recordando las condiciones de Dirichlet,
podemos afirmar que X(s) existe si existe un número real σ tal que
Lim
x(t) e−σ t = 0. (11.11)
t→∞
En general, X(s) existe para la zona definida como α < <(s) < β denominada región
de convergencia.
En otras palabras, la transformada de Laplace bilateral puede no existir si no converje
la integral de la ecuación de análisis. Puede asegurarse la convergencia de esta integral
si se verifica la condición (11.11).

213
11.4 Relación entre la transformada de Laplace y la
integral de convolución
1. Hemos visto que la integral de convolución es
Z ∞ Z ∞
y (t) = x (τ ) h (t − τ ) dτ = x (t − τ ) h (τ ) dτ = x (t) ∗ h (t) . (11.12)
−∞ −∞
Esta integral permite calcular para un sistema lineal invariante en el tiempo la
respuesta y (t) generada por una entrada arbitraria x (t) en función de la respuesta
al impulso h (t).
2. Supongamos ahora que la entrada arbitraria es una exponencial compleja
x (t) = es t . (11.13)
Entonces resulta Z ∞ Z ∞
y (t) = x (t − τ ) h (τ ) dτ = es (t−τ ) h (τ ) dτ, (11.14)
−∞ −∞
o sea Z ∞ 
y (t) = h (τ ) e−s τ dτ est , (11.15)
−∞
suponiendo que la integral exista (ver región de convergencia).
3. La función definida como Z ∞
H (s) = h (τ ) e−s τ dτ, (11.16)
−∞

es la transformada de Laplace bilateral de la respuesta al impulso h (t) del


sistema lineal invariante en el tiempo. Podemos escribir la respuesta del sistema
a una exponencial compleja es t como
y (t) = H (s) es t . (11.17)
Esto nos da la posibilidad de interpretar la transformada de Laplace de una función
f (t) como la magnitud F (s) de la respuesta a una exponencial compleja est de un
sistema LIT con respuesta al impulso f (t).
4. Observe que en el caso de usar la transformada de Laplace unilateral al definir la
función de transferencia deberı́an coincidir los lı́mites de integración de
Z ∞ 
−s τ
y (t) = h (τ ) u (τ ) e dτ es t , (11.18)
−∞
y Z ∞
H (s) = h (τ ) e−s τ dτ. (11.19)
0
En otras palabras, el empleo de la transformada de Laplace unilateral implica que
la respuesta al impulso h(t) comienza en t = 0, y por lo tanto el sistema LIT es
causal.

214
11.5 Región de convergencia
11.5.1 Ejemplo
1. Consideremos la función
xa (t) = e−at u (t) . (11.20)

2. Su transformada de Fourier es
Z ∞ Z ∞
−a t −j ω t 1
Xa (jω) = e u(t) e dt = e−a t e−j ω t dt = , a > 0. (11.21)
−∞ 0 jω + a

3. Calculemos su transformada de Laplace bilateral. Aplicando la ecuación de análisis


obtenemos Z ∞
Xa (s) = e−a t u (t) e−s t dt. (11.22)
−∞

4. Ajustando los lı́mites de integración para tener en cuenta el factor u(t) del inte-
grando, se transforma en
Z ∞
Xa (s) = e−(s+a) t dt. (11.23)
0

5. Con el reemplazo s = σ + jω, obtenemos


Z ∞ Z ∞
Xa (σ + j ω) = e−(σ+j ω+a) t dt = e−(σ+a) t e− j ω t dt. (11.24)
0 0

6. Comparando las ecuaciones (11.20) y (11.24) podemos deducir que esta última es
la transformada de Fourier de e−(σ+a) t u(t), y por lo tanto
1
Xa (σ + jω) = , (11.25)
σ+jω+a

donde debe cumplirse σ + a > 0 para que la integral (11.24) converja.

7. Dado que s = σ + j ω y <(s) = σ, se verifica


1
Xa (s) = , (11.26)
s+a
con una región de convergencia donde σ = <(s) > −a.

8. Para comparar, calculemos ahora la transformada de Laplace de la señal

xb (t) = −e−a t u(−t). (11.27)

215
9. Entonces
Z ∞ Z 0
−a t −s t 1
Xb (s) = − e e u(−t) dt = − e−(s+a)t dt = . (11.28)
−∞ −∞ s+a
La condición de convergencia en este caso es <(s + a) < 0, o sea <(s) < −a.

10. Tenemos por lo tanto

L
e−at u(t) 1
, <(s) > −a,
↔ s+a
(11.29)
−at L 1
−e u(−t) , <(s) < −a.
↔ s+a

Esto nos muestra que dos señales distintas pueden tener transformadas de Laplace
idénticas algebraicamente, pero las zonas donde estas convergen son diferentes.
En general, la zona del plano s donde converge una transformada de Laplace es la
región de convergencia (abreviada RC).

11.5.2 Reglas para determinar la región de convergencia de la


TL
1. La región de convergencia de X (s) consiste de tiras paralelas al eje imaginario del
plano s.

2. Para X (s) racional, la región de convergencia no contiene polos.

3. Si x (t) es de duración finita y es absolutamente integrable, entonces la región de


convergencia es el plano s completo.

4. Si x(t) es derecha, y si la lı́nea < (s) = σ0 está en la región de convergencia,


entonces todos los valores de s para los cuales < (s) > σ0 están en la región de
convergencia.

11.5.3 Ejemplos de determinación de región de convergencia


1. Sea la función
4 −t 1
e u(t) + e2 t u(t).
x(t) = δ(t) − (11.30)
3 3
Considerando la ecuación 11.20 podemos obtener la transformada de Laplace de
los términos exponenciales. La transformada de Laplace del impulso puede ser
evaluada mediante la siguiente integral
R∞
L[δ(t)] = −∞ δ(t) es t dt = 1, ∀s, (11.31)

216
válida para cualquier valor de s. Vemos que al impulso δ(t) se le puede aplicar la
regla 3. Entonces, la región de convergencia de la transformada de Laplace de la
función 11.30 es la intersección del plano complejo con las regiones de convergencia
correspondiente a los términos exponenciales. Como podemos ver a continuación,

L[e−t ] = 1
s+1
, <(s) > −1, (11.32)
1
L[e2 t ] = s+2
, <(s) < 2, (11.33)
los lı́mites de las regiones de convergencia son paralelas al eje imaginario del plano
s (regla 1).

11.6 Comparación entre ambas TL


11.6.1 Similitudes entre ambas TL
1. X (s) está definida para una región en el plano s, denominada la región de con-
vergencia, donde la integral de análisis está definida.

2. Dado que s es una cantidad compleja, X (s) es una función compleja de variable
compleja, y σ está en la región de convergencia.

3. Para resolver la ecuación de sı́ntesis necesitamos integrar en el plano s complejo.


Esta fórmula será usada para probar teoremas pero no para calcular transformadas
inversas.

4. La ecuación de sı́ntesis permite ver que x (t) se sintetiza mediante la superposición


de un número infinito e incontable de exponenciales eternas es t cada una de las
cuales tiene un valor diferente de s y cada una de magnitud infinitesimal X (s) ds.

5. Ambas transformadas de Laplace coinciden si la función x(t) es nula para t < 0.

11.6.2 La diferencia entre ambas TL


La diferencia obvia está en el lı́mite inferior de integración.
Z ∞ Z ∞
−s t
x(t) u(t) e dt = x(t) e−s t dt. (11.34)
−∞ 0

1. La transformada unilateral está restringida a funciones laterales derechas, y toma


en cuenta a las condiciones iniciales en forma automática y sistemática tanto en
la solución de ecuaciones diferenciales como en el análisis de sistemas.

217
2. La transformada bilateral puede representar funciones bilaterales y unilaterales.
Las condiciones iniciales se toman en cuenta incluyendo entradas adicionales en
los sistemas.

3. Ambas transformadas de Laplace son diferentes si la función x(t) es no nula para


t < 0.

11.7 La transformada de Laplace bilateral


11.7.1 Par función transformada
Representaremos al par formado por una función y su transformada de Laplace mediante
la expresión
L
x (t) X (s) , (11.35)

donde Z ∞
X (s) = L {x(t)} = e−s t x(t) dt. (11.36)
−∞

Con los pares función y transformada, podemos construir tablas que sumadas a
las propiedades de la transformada de Laplace que estudiaremos a continuación, nos
permitirán encontrar las transformadas de otras funciones compuestas.

11.7.2 Señales temporales y sus transformadas


Esta tabla nos da los pares de función transformada de Laplace bilateral.

218
x (t) X (s) = L {x(t)} RC

δ (t) 1 ∀s,

δ (t − t0 ) e−s t0 ∀s,

1
u (t) s
< (s) > 0,

1
−u (−t) s
< (s) < 0,

tn−1 u(t) 1
(n−1)! sn
< (s) > 0,

n−1 u(−t)
−t (n−1)!
1
sn
< (s) < 0,

e−at u (t) 1
s+a
< (s) > −a,

−e−at u (−t) 1
s+a
< (s) < −a,

tn−1 e−at u(t) 1


(n−1)! (s+a)n
< (s) > −a,

s
cos (ω0 t) u (t) s2 +ω02
< (s) > 0,

ω0
sin (ω0 t) u (t) s2 +ω02
< (s) > 0,

e−αt cos (ω0 t) u (t) s+α


(s+α)2 +ω02
< (s) > −α,

e−αt sin (ω0 t) u (t) ω0


(s+α)2 +ω02
< (s) > −α.

11.8 Demostraciones de las propiedades


Definamos los pares función transformada
Z ∞
L
x(t) X(s) = x(t) e−s t ds, (11.37)
→ −∞
Z ∞
L
y(t) Y (s) = y(t) e−s t ds, (11.38)
→ −∞

L ∞ Z
z(t)Z(s) = z(t) e−s t ds. (11.39)
→ −∞
que usaremos para explicar las propiedades de la transformada de Laplace

219
11.8.1 Linealidad de la transformada de Laplace bilateral
La transformada de Laplace de una combinación lineal de funciones es la combinación
lineal de las transformadas de las funciones respectivas.

1. Si z(t) = a x(t) + b y(t), podemos calcular la transformada de z(t) (11.39) calcu-


lando la integral
Z ∞ Z ∞
Z(s) = z(t) e−s t ds = (a x(t) + b y(t)) e−s t ds, (11.40)
−∞ −∞

2. Dada la igualdad Z ∞
Z(s) = (a x(t) + b y(t)) e−s t ds, (11.41)
−∞
y la linealidad de la operación integral podemos escribir
Z ∞ Z ∞ Z ∞
−s t −s t
Z(s) = (a x(t) + b y(t)) e ds = a x(t) e ds + b y(t) e−s t ds.
−∞ −∞ −∞
(11.42)
3. Dada las igualdades
Z ∞ Z ∞
Z(s) = a x(t) e−s t ds + b y(t) e−s t ds. (11.43)
−∞ −∞

y 11.37 y 11.38, podemos escribir


Z(s) = a X(s) + b Y (s). (11.44)

Por inducción, es posible probar esta propiedad para cualquier número de funciones.
Hacer como ejercicio.

11.8.2 Señal desplazada en el tiempo


1. Supongamos que tenemos una señal x(t) con transformada bilateral de Laplace
X(s).
2. La transformada bilateral de Laplace de y(t) = x(t − t0 ) es Y (s) = X(s) e−s t0 .
3. Para probarlo, podemos plantear la ecuación de análisis para y(t)
Z ∞ Z ∞
Y (s) = y(t) e−s t dt = x(t − t0 ) e−s t dt. (11.45)
−∞ −∞

4. Podemos plantear un cambio de variables v = t − t0 y obtener


Z ∞ Z ∞
Y (s) = x(t − t0 ) e−s t dt = x(v) e−s (v+t0 ) dv. (11.46)
−∞ −∞

220
5. Separamos la exponencial e−s (v+t0 ) en dos factores e−s v e−s t0
Z ∞
Y (s) = x(v) e−s v e−s t0 dv. (11.47)
−∞

6. Observemos que el factor e−s t0 no depende de la variable de integración y por lo


tanto puede ser extraı́do de la integral
Z ∞ 
Y (s) = x(v) e−s v dv e−s t0 . (11.48)
−∞

Como vemos en la ecuación (11.48), la integral es la transformada de Laplace


bilateral X(s), multiplicada por un factor e−s t0 donde aparece el desplazamiento
temporal t0 . Por lo tanto, hemos probado la propiedad enunciada.

Ejemplo
1. Por ejemplo, consideremos el pulso p(t) = u(t) − u(t − t0 ). La transformada
bilateral de Laplace del escalón u(t) es U (s) = 1s .

2. Dado que el pulso p(t) es una combinación lineal de dos escalones, el primero con
coeficiente 1 y el segundo con coeficiente −1, las transformadas de ambos escalones
también estarán combinadas linealmente con los mismos coeficientes.

3. Dado que el segundo escalón del pulso está desplazado en el tiempo, debe tener la
misma transformada del primer escalón multiplicada por un factor e−s t0 .
1−e−s t0
4. Finalmente, la transformada del pulso p(t) es P (s) = s
.

11.8.3 Señal modulada por una exponencial ea t


1. Supongamos que tenemos una señal x(t) con transformada bilateral de Laplace
X(s).

2. La transformada bilateral de Laplace de y(t) = x(t) e−a t es Y (s) = X(s + a).

3. Para probarlo, podemos plantear la ecuación de análisis para y(t)


Z ∞ Z ∞
Y (s) = y(t) e−s t dt = x(t) e−a t e−s t dt. (11.49)
−∞ −∞

4. Reacomodando factores e−a t e−s t = e−(s+a) t , podemos escribir


Z ∞ Z ∞
−a t −s t
Y (s) = x(t) e e dt = x(t) e−(s+a) t dt. (11.50)
−∞ −∞

221
5. RPlanteando el cambio de variable v = s + a, podemos observar que la integral
∞ −(s+a) t
−∞ x(t) e dt puede escribirse como
Z ∞ Z ∞
x(t) e−(s+a) t dt = x(t) e−v t dt = Y (v) = Y (s + a) (11.51)
−∞ −∞

Por lo tanto, hemos demostrado la propiedad enunciada.

Ejemplo
1. Calculemos la transformada bilateral de x(t) = e−a t u(t).

2. La transformada bilateral del escalón u(t) es U (s) = 1s .

3. Como el escalón u(t) aparece multiplicado por una exponencial e−a t , la transfo-
1
mada debe ser X(s) = U (s + a) = s+a , como ya se ha calculado.

11.8.4 Conjugación
1. Supongamos que tenemos una señal x(t) con transformada bilateral de Laplace
X(s), con región de convergencia R.

2. La transformada bilateral de Laplace de x(t) (conjugado de x(t)) es X(s), con


región de convergencia R.

11.8.5 Convolución
La propiedad de convolución es una de las más importantes ideas de esta asignatura.
Si tenemos dos señales x1 (t) y x2 (t) con transformadas X1 (s) y X2 (s), y regiones de
convergencia R1 y R2 entonces la convolución y(t) = x1 (t) ∗ x2 (t) tiene una transfor-
mada de Laplace Y (s) = X1 (s) X2 (s), y la región de convergencia correspondiente es la
intersección de las regiones R1 y R2 .

11.8.6 Derivación en el dominio del tiempo


1. Supongamos que tenemos una señal x(t) con transformada bilateral de Laplace
X(s), con región de convergencia R.
dx(t)
2. La transformada bilateral de Laplace de dt
(derivada de x(t)) es s × X(s), con
región de convergencia R.

222
11.8.7 Integración en el dominio del tiempo
1. Supongamos que tenemos una señal x(t) con transformada bilateral de Laplace
X(s), con región de convergencia R.
Rt X(s)
2. La transformada bilateral de Laplace de 0 x(v) dv (integrada de x(t)) es s
, con
región de convergencia R.

11.8.8 Derivación en el dominio s


1. Supongamos que tenemos una señal x(t) con transformada bilateral de Laplace
X(s), con región de convergencia R.
dX(s)
2. La función temporal correspondiente a ds
, la derivada de la transformada de
Laplace respecto a s, es −t x(t).

11.9 Tabla de propiedades


Esta tabla nos da los pares de función transformada de Laplace bilateral.

x (t) X (s) RC

a x1 (t) + b x2 (t) a X1 (s) + b X2 (s) ⊃ (R1 ∩ R2 )

x (t − t0 ) X (s) e−s t0 R

x(t) X(s) R

x (t) e−at X (s + a) desplaza R en −a

x1 (t) ∗ x2 (t) X1 (s)X2 (s) mı́nimo R1 ∩ R2

tx (t) − dX(s)
ds
R

dx(t)
dt
sX (s)
Rt X(s)
−∞ x (τ ) dτ s
⊃ (R ∩ (<(s) > 0)))
R∞
−∞ x1 (τ ) x2 (t − τ ) dτ X1 (s) X2 (s) ⊃ (R1 ∩ R2 )

223
11.10 La Transformada Laplace Unilateral
11.10.1 Motivación
La Transformada de Laplace unilateral se emplea para

1. Analizar sistemas LIT causales.

2. Resolver ecuaciones diferenciales con coeficientes constantes y condiciones iniciales


no nulas.

Insisto en este concepto porque en materias previas se trabajó directamente con la


Transformada Unilateral de Laplace presentándola como LA Transformada de Laplace,
descartando de plano la posibilidad de trabajar con sistemas no causales. Si bien eso
es válido con sistemas de tiempo continuo, es posible y deseable emplear sistemas de
tiempo discreto no causales. Entonces, para mantener un paralelismo entre la teorı́a
de sistemas de tiempo continuo y discreto, vemos las definiciones de las transformadas
bilateral y unilateral.

Ejemplo
1. Consideremos la señal
x(t) = e−a (t+1) u(t + 1). (11.52)

2. La Transformada Bilateral de Laplace es


Z ∞
X(s) = e−a (t+1) u(t + 1) es t dt. (11.53)
−∞

3. Dado que dt = d(t + 1),


Z ∞
X(s) = e−a (t+1) u(t + 1) es t d(t + 1). (11.54)
−∞

y por lo tanto podemos hacer el cambio de variables t + 1 = v. Resulta


Z ∞
X(s) = e−a v u(v) e−s (v−1) dv. (11.55)
−∞

4. Entonces, dado que u(v) = 0 para v < 0


Z ∞
X(s) = e−a v e−s (v−1) dv. (11.56)
0

224
5. Podemos extraer un factor es de la integral
Z ∞
X(s) = es e−a v e−s v dv (11.57)
0

y agrupar las exponenciales


Z ∞
X(s) = e s
e−(s+a) v dv. (11.58)
0

6. Por lo tanto, resulta


es
X(s) = , (11.59)
s+a
para una región de convergencia R donde <(s) > −a.

7. Planteamos la ecuación de análisis de la Transformada Unilateral de Laplace


Z ∞
X + (s) = e−a(t+1) u(t + 1) e−s t dt. (11.60)
0

8. Eliminamos el escalón teniendo en cuenta que u(t + 1) = 1 para t > −1


Z ∞
+
X (s) = e−a (t+1) e−s t dt. (11.61)
0

9. Extraemos el factor común e−a


Z ∞
X + (s) = e−a e−a t e−s t dt, (11.62)
0

y agrupamos las exponenciales dentro de la integral


Z ∞
X + (s) = e−a e−(s+a) t dt, (11.63)
0

10. Obtenemos finalmente


e−a
X + (s) = , (11.64)
s+a
para una región de convergencia R donde <(s) > −a.

11. Para este ejemplo, las transformadas unilateral y bilateral son diferentes.

225
11.10.2 Tabla de propiedades de la Transformada Laplace uni-
lateral
Recordamos la notación de la transformada de Laplace unilateral

F + (s) = L+ {f (t)} . (11.65)

Esta es una tabla de propiedades de la transformada de Laplace unilateral


Señal x(t) Transformada

a x1 (t) + b x2 (t) a X1+ (s) + b X2+ (s)

es0 t x(t) X + (s − s0 )

1
x(a t), a > 0, a
X + ( as )

x̄(t) X̄ + (s)

x1 (t) ∗ x2 (t) X1+ (s) X2+ (s)

dx(t)
dt
s X + (s) − x(0−)

dX + (s)
−t x(t) ds

11.10.3 La TL de la derivada de una función


La transformada de Laplace de la derivada de una función f (t) continua en t = 0, está
dada por ( )
+ d f (t)
L = s F + (s) − f (0), (11.66)
dt
donde F + (s) es la transformada de Laplace unilateral de f (t), y f (0) es el valor de f (t)
en el tiempo t = 0 o condición inicial.
En el caso que la función f (t) tuviera una discontinuidad en t = 0, habrı́a que tener
en cuenta los lı́mites a izquierda f (0−) y derecha f (0+). Si estos lı́mites son diferentes,
entonces la derivada contiene un impulso en t = 0, y deberı́amos escribir
( )
d f (t)
L− = s F (s) − f (0−), (11.67)
dt
( )
d f (t)
L+ = s F (s) − f (0+). (11.68)
dt

226
1. Para probar este teorema, podemos integrar por partes la transformada de Laplace
unilateral donde Z Z
v du = v u − u dv, (11.69)
df (t)
y du = dt
dt = df , y v = e−s t . Entonces u = f (t) y dv = −s e−s t dt.
2. Entonces, integrando por partes
Z ∞ Z ∞
d f (t) −s t h i−∞
e dt = f (t) e−s t +s f (t) e−s t dt. (11.70)
0 dt 0 0

3. Finalmente
Z ∞ !
d f (t) −s t Lim
e dt = f (x) e−s x − f (0) e−s 0 + s F (s). (11.71)
0 dt x→∞

4. De la ecuación anterior, podemos deducir


( )
+ d f (t)
L = s F + (s) − f (0), (11.72)
dt
y ( )
+ f (0) 1 + d f (t)
F (s) = + L . (11.73)
s s dt
Esta relación puede generalizarse. Por ejemplo, para la derivada segunda resulta
d2 f (t)
( ) !
+ 2 + df (t)
L = s F (s) − s f (0) − |t=0 , (11.74)
dt2 dt)
y en general
dn f (t) dn−1 f (t)
( ) ! !
n n−1 df (t)
L = s F (s) − s |t=0 − ... − |t=0 . (11.75)
dtn dt) dtn−1 )
La transformada de la integral de x(t) se obtiene considerando que si
Z t
y(t) = x(v) dv, (11.76)
0

dy(t)
entonces dt
= x(t), y por lo tanto podemos obtener la transformada de la derivada

s Y + (s) − y(0) = X + (s), (11.77)

y por lo tanto
1
Y + (s) = (X + (s) + y(0)). (11.78)
s
227
Ejemplos
Sea la función x(t) = t u(t).
1. Su transformada de Laplace es
#∞
e−s t Z ∞ −s t
Z ∞ "
−s t e 1 Z ∞ −s t 1
X(s) = te dt = t − dt = − e dt = 2 . (11.79)
0 −s 0 0 s s 0 s
1 Z ∞ −s t 1 Z ∞ −s t 1 h i∞ 1
X(s) = − e dt = 2 e d(−s)t = 2 e−s t = − 2 . (11.80)
s 0 s 0 s 0 s
2. Si la transformada de Laplace de y(t) = 1 u(t) es Y (s) entonces

1 d 1s dY (s)
t y(t) → − 2
= = . (11.81)
s ds ds
Por lo tanto
1
Y (s) = . (11.82)
s
t2
3. La transformada de Laplace de z(t) = 2
u(t) = 2t x(t) es Z(s) = − 12 dX(s)
ds

1 −2 s 1
Z(s) = − 4
= 3. (11.83)
2 s s

11.10.4 Teorema del valor final


Si x(t) no contiene impulsos o singularidades de orden superior en t = 0, entonces

lim lim
x(t) = s X + (s). (11.84)
t→∞ s→0

1. Para probar este teorema, consideremos la propiedad de la transformada de la


derivada ( )
d f (t)
L = s F (s) − f (0), (11.85)
dt
y calculemos el lı́mite para s que tiende a 0
Z ∞
Lim d f (t) −s t Lim
e dt = (s F (s) − f (0)) . (11.86)
s→0 0 dt s →0

2. Dado que lims→0 e−s t = 1, obtenemos


Z ∞
Lim d f (t) Lim
dt = [f (t)]∞
0 = s F (s) − f (0). (11.87)
s→0 0 dt s→0

228
3. Finalmente
! !
Lim Lim
f (t) − f (0) = s F (s) − f (0), (11.88)
t→∞ s→0
obteniendo ası́
Lim Lim
f (t) = s F (s). (11.89)
t→∞ s→0

Ejemplos
Considere x(t) = (1 − e−a t ) u(t). Calcule el valor final (el lı́mite de x(t) cuando t tiende
a ∞).
Dado X(s) = 1s − s+a1
podemos calcular
1 1
lims→0 s X(s) = lims→0 s −s = 1. (11.90)
s s+a

11.10.5 Teorema del valor inicial


Si x(t) no contiene impulsos o singularidades de orden superior en t = 0, entonces
lim
x(0) = s X + (s). (11.91)
s→∞
1. Sabemos que
Z
df (t) −s t
e dt = s F + (s) − f (0+ ). (11.92)
dt
2. Tomamos el lı́mite para s → ∞, y dado que lims→∞ e−s t = 0,
lim
Z
df (t) −s t lim
e dt = s F + (s) − f (0) = 0. (11.93)
s→∞ dt s→∞

3. Por lo tanto, podemos escribir


lim
s F + (s) = f (0). (11.94)
s→∞

11.10.6 La integral de convolución


Sea y(t) el resultado de la convolución de dos señales x1 (t) y x2 (t)
Z t
y(t) = x1 (v) x2 (t − v) dv, (11.95)
0

entonces la transformada de Laplace Y (s) es el producto de las transformadas X1 (s) y


X2 (s)
Y (s) = X1 (s) X2 (s). (11.96)

229
11.10.7 El producto de dos señales
Sea y(t) igual al producto de dos señales x1 (t) y x2 (t)

y(t) = x1 (t) x2 (t). (11.97)

Entonces la transformada de Laplace Y (s) es la convolución de las transformadas X1 (s)


y X2 (s), Z ∞
Y (s) = X1 (v) X2 (s − v) dv. (11.98)
−∞

11.10.8 Potencias de t
Señal Transformada

1
1 s

1
t s2

n!
tn sn+1
, n > 0.
q
t−1/2 π
s


π
t1/2 2s3/2

Γ(α+1)
tα sα+1
, α > −1

11.10.9 Funciones exponenciales y trigonométricas


Señal Transformada

ω
eat sin (ωt) (s−a)2 +ω 2

s−a
eat cos (ωt) (s−a)2 +ω 2

11.10.10 Funciones exponenciales e hiperbólicas


Señal Transformada

k
eat sinh (kt) (s−a)2 −k2

s−a
eat cosh (kt) (s−a)2 −k2

230
11.10.11 Funciones trigonométricas e hiperbólicas
Señal Transformada

2k2 s
sin (kt) sinh (kt) s2 +4k4

k(s2 +2k2 )
sin (kt) cosh (kt) s4 +4k4

k(s2 −2k2 )
cos (kt) sinh (kt) s4 +4k4

s3
cos (kt) cosh (kt) s4 +4k4

11.10.12 Impulso unitario o Delta de Dirac


Señal Transformada

δ (t) 1

δ (t − t0 ) e−st0

11.10.13 Función escalón unitario


Señal Transformada

eat f (t) F + (s − a)

f (t − a) u (t − a) e−as F + (s)

e−as
u (t − a) s

231
11.10.14 Funciones generales
Señal Transformada

ea t f (t) F + (s − a)

f (t − a) u (t − a) e−a s F + (s)

f (n) (t) sn F + (s) − s(n−1) f (0) − ... − f (n−1) (0)

dn
tn f (t) (−1)n dsn
F+ (s)
Rt
0 f (τ ) g (t − τ ) dτ F (s) G (s)

232
Capı́tulo 12

Transformada de Laplace y
ecuaciones diferenciales

En los sistemas lineales, invariantes en el tiempo, de tiempo continuo la entrada y la


salida están relacionadas por

1. una ecuación diferencial ordinaria


   
−1 Q
dP y (t) PX dp y (t)  X dq x (t) 
+ a p + a 0 y(t) =  b q + b0 x(t). (12.1)
dtP p=1 dtp q=1 dtq

donde P > Q.
2. la integral de convolución
Z ∞
y (t) = x (τ ) h (t − τ ) dτ. (12.2)
−∞

Ambas formas están relacionadas por la transformada de Laplace. Empezaremos es-


tudiando la equivalencia entre ambas formas de cálculo para entradas de la forma
x(t) = es t , y después generalizaremos para otro tipo de entradas.

12.1 Respuesta de sistemas lineales para entradas


exponenciales complejas
12.1.1 Cálculo mediante convolución
1. Sea el sistema definido por la integral de convolución,
Z ∞
y (t) = h (τ ) x (t − τ ) dτ, (12.3)
−∞

233
donde h (t) es la respuesta al impulso, x (t) es la entrada e y (t) es la salida corre-
spondiente.
2. Supongamos una entrada exponencial compleja eterna
x (t) = X(s) es t . (12.4)

3. Por lo tanto, la integral de convolución correspondiente es


Z ∞
y (t) = h (τ ) X(s) es (t−τ ) dτ, (12.5)
−∞

que puede expresarse como


Z ∞ 
−sτ
y (t) = h (τ ) e dτ X(s) es t = H (s) X(s) es t . (12.6)
−∞

donde Z ∞
H (s) = h (τ ) e−sτ dτ, (12.7)
−∞
es la transformada de Laplace bilateral de la respuesta al impulso del sistema.
4. Supongamos ahora una entrada exponencial compleja para t ≥ 0
x (t) = X(s) es t u(t). (12.8)

5. Por lo tanto, la integral de convolución correspondiente es


Z ∞
y (t) = h (t − τ ) X(s) es τ u(τ ) dτ, (12.9)
−∞

que puede expresarse como


Z ∞ 

y (t) = h (t − τ ) X(s) e dτ u(t). (12.10)
0

Por lo tanto, y(t) = 0 para t < 0. Además, si el sistema es causal, h(t) = 0 para
t < 0.
6. Finalmente
Z ∞ 
y(t) = h (τ ) e−s τ dτ u(t) X(s) es t = H + (s) X(s) es t u(t). (12.11)
0

7. La función H(s) es la función de transferencia del sistema, que determina la


relación entre la salida y(t) y la entrada x(t).
8. Si el sistema es no causal o la entrada es distinta de cero para t < 0 debemos
emplear la transformada bilateral. Si el sistema es causal y la entrada es nula para
t < 0 entonces usamos la transformada unilateral.

234
12.1.2 Calculo de y(t) con la ecuación diferencial
1. Supongamos que tenemos una ecuación diferencial de la forma
   
−1 Q
dP y (t) PX dp y (t)  X dq x (t) 
+ a p + a 0 y(t) =  b q + b0 x(t). (12.12)
dtP p=1 dtp q=1 dtq

donde P > Q.

2. Vamos a suponer que x(t) = X(s) es t y que y(t) = Y (s) es t .

3. Por lo tanto
dp y (t)
= Y (s) sp es t , (12.13)
dtp
y
dq x (t)
= X(s) sq es t . (12.14)
dtq
4. Reemplazando en la ecuación diferencial (12.12), tenemos
   
−1
PX Q
Y (s) sP es t +  ap Y (s) sp es t  +a0 Y (s) es t =  bq X(s) sq es t  +b0 X(s) es t .
X

p=1 q=1
(12.15)

5. Podemos agrupar
      
−1
PX Q
Y (s) sP +  ap sp  + a0  es t = X(s)  bq sq  + b0  es t .
X
(12.16)
p=1 q=1

6. Dado que es t 6= 0 para todo valor de s y t, entonces podemos simplificar


      
−1
PX Q
Y (s) sP +  ap sp  + a0  = X(s)  bq s q  + b0  .
X
(12.17)
p=1 q=1

7. Finalmente podemos despejar


P 
Q q
Y (s) q=1 bq s + b0
= P
P −1
 = H(s). (12.18)
X(s) sP + p=1 a p s p +a
0

Esta es la función de transferencia H(s) y es la transformada de Laplace de la


respuesta al impulso h(t). Los ceros del denominador de H(s) son los polos del
sistema lineal, y determinan su dinámica para cualquier entrada y condición inicial.

235
12.2 Causalidad
En el caso de un sistema lineal invariante en el tiempo, un sistema causal tiene una
respuesta al impulso h(t) = 0 para t < 0. La región de convergencia para la transformada
de Laplace de esta respuesta al impulso es el semiplano derecho: en otras palabras,
todos los polos de la función de transferencia H(s) tienen parte real negativa, y por
lo tanto H(s) existe a la derecha del polo que está más a la derecha. En este caso,
como la región de convergencia incluye a todas las s con parte real positiva, se dice
que causalidad equivale a que la región de convergencia incluye al semiplano positivo (o
semiplano derecho).

12.3 Estabilidad
Las funciones de transferencia cuyos polos no pertenecen al semiplano derecho (o sea,
los polos con parte real negativa) son transformadas de Laplace de funciones del tiempo
que tienden a 0 a medida que t tiende a ∞.
Por ejemplo, consideremos
1
H(s) = . (12.19)
s+a
El polo respectivo es s = −a. Si a es una constante positiva, el polo tiene parte real
negativa. La función del tiempo asociada es h(t) = e−a t u(t).

12.4 Ecuación diferencial lineal homogénea


Para encontrar la solución de la ecuación homogénea
 
−1
dP yh (t) PX dp yh (t) 
+ ap + a0 y(t) = 0, (12.20)
dtP p=1 dtp

supongamos que tiene la forma


yh (t) = Y eλt u(t), (12.21)
Sustituyendo en la ecuación diferencial homogénea obtenemos
   
−1
PX
λP + ap λp  + a0  Y eλt u(t) = 0. (12.22)
p=1

No estamos interesados en la solución trivial Y = 0. Por lo tanto tiene que ser


 
−1
PX
λP +  ap λp  + a0 = 0. (12.23)
p=1

236
Polinomio caracterı́stico
El polinomio (12.23) recibe el nombre de polinomio caracterı́stico y sus raı́ces son lla-
madas frecuencias, modos naturales, y polos del sistema lineal.

Ejemplo con un polo


1. Consideremos la ecuación diferencial
dy
+ a0 y = 0, (12.24)
dt
2. Podemos calcular el polinomio caracterı́stico suponiendo que la solución es de la
forma
dy
y (t) = Y eλ t , = λ Y eλ t , (12.25)
dt
para obtener
λ Y eλ t + a0 Y eλ t = 0. (12.26)
3. Finalmente, despejamos
(λ + a0 ) Y eλ t = 0. (12.27)
donde la solución λ = −a0 es un polo del sistema.

Ejemplo con dos polos


1. La ecuación diferencial de una red eléctrica RLC (ver Figura (4.1)) relacionando
v (t) e i (t) es
d2 v (t)
!
1 dv (t) v (t) di (t)
C 2
+ + = . (12.28)
dt RC dt LC dt
di(t)
2. La solución homogénea se obtiene suponiendo v(t) = V eλ t y dt
=0
!
λ 1
C λ2 + + V eλt = 0, (12.29)
RC L C

3. El polinomio caracterı́stico es
1 1
λ2 + λ+ = 0. (12.30)
RC LC
4. Sus raı́ces son s
2
1 1 1

λ1 = − + − , (12.31)
2RC 2RC LC
y s
2
1 1 1

λ2 = − − − . (12.32)
2RC 2RC LC

237
5. Si λ1 6= λ2 entonces la solución natural tiene la forma

yf (t) = c1 eλ1 t + c2 eλ2 t . (12.33)

6. Si λ = λ1 = λ2 entonces la solución natural tiene la forma

yf (t) = (c1 + c2 t) eλ t . (12.34)

7. Las constantes c1 y c2 se determinan mediante las condiciones iniciales o de borde.

Polos simples
Si las frecuencias, modos naturales o polos son distintos

i 6= j ←→ λi 6= λj , (12.35)

entonces la solución más general tiene la forma


P
ck eλk t ,
X
yh (t) = (12.36)
k=1

donde los valores ck se determinan con las condiciones iniciales.

Polos repetidos
1. Si hay 2 polos repetidos λ = λ1 = λ2 , una solución tiene la forma

y(t) = (c1 + c2 t) eλ t . (12.37)

2. Si hay 3 polos repetidos λ = λ1 = λ2 = λ3 , una solución tiene la forma

y(t) = (c1 + c2 t + c3 t2 ) eλ t . (12.38)

3. En general, si hay R polos repetidos λ, una solución homogénea tiene la forma


R−1
!
k
eλ t .
X
yh (t) = ck t (12.39)
k=0

238
Polos complejos conjugados
Si un polinomio caracterı́stico tiene polos complejos conjugados
(s + a)2 + b2 = s2 + 2 a s + a2 + b2 = (s + p) (s + p) = 0, (12.40)
estos polos son diferentes entre si, por lo tanto una solución particular es
y(t) = c1 e−p t + c2 e−p t . (12.41)
Podemos escribir
1. considerando que p = −a − b j
y(t) = c1 e−(a+b j) t + c2 e−(a−b j) t . (12.42)

2. Factorizando la función exponencial


y(t) = c1 e−a t e−b j t + c2 e−a t eb j t . (12.43)

3. Aplicando la relación de Euler ej b t = cos(b t) + j sin(b t)


y(t) = c1 e−a t (cos(b t) − j sin(b t)) + c2 e−a t (cos(b t) + j sin(b t)). (12.44)

4. Reagrupando factores y términos


y(t) = (c1 + c2 ) e−a t cos(b t) + j (c2 − c1 ) e−a t sin(b t). (12.45)

12.4.1 Ecuación homogénea de orden 2 o superior


Si tenemos una ecuación diferencial de orden 2 o superior, entonces tendremos también
un polinomio caracterı́stico con 2 o más polos (polos múltiples). Esto significa que
tenemos P posibles raı́ces del polinomio caracterı́stico, tal vez algunas repetidas. Por lo
tanto la solución completa de la ecuación diferencial homogénea será una suma de las
soluciones para cada una de las “diferentes” raı́ces.

12.5 Ecuación diferencial lineal forzada con condi-


ciones iniciales nulas
1. Estudiaremos la solución de una ecuación diferencial lineal con coeficientes cons-
tantes reales
   
−1 Q
dP y (t) PX dp y (t)  X dq x (t) 
+ a p + a 0 y(t) =  b q + b0 x(t), (12.46)
dtP p=1 dtp q=1 dtq

donde P > Q, con condiciones iniciales nulas.

239
2. Aplicando la transformada unilateral de Laplace, podemos resolver esta ecuación
diferencial. Recordemos que para la derivada de una señal x(t), la transformada
de Laplace unilateral es
dx U L
s X + (s) − x0 , (12.47)
dt ↔
y, en general,
n
dn x(t) U L n +
sn−k xk−1 ,
X
s X (s) − (12.48)
dtn ↔ k=1

donde xk son los valores en t = 0 de x(t) y sus derivadas.


3. Si las condiciones iniciales son nulas, entonces
dx U L
s X + (s), (12.49)
dt ↔
y, en general,
dn x U L n +
s X (s). (12.50)
dtn ↔
4. Por lo tanto, para condiciones iniciales nulas podemos escribir
     
−1
PX P
 sP ap sp  + a0  Y (s) =  bq sq  X(s).
X
+ (12.51)
p=0 q=0

5. Finalmente, podemos obtener la función de transferencia


PQ
Y (s) bq s q
H(s) = = P q=0
PP −1 . (12.52)
X(s) s + p=0 ap sp

6. Si conocemos cual es la entrada x(t), conocemos su transformada X(s), y por lo


tanto podemos calcular la transformada de la salida Y (s) = H(s) X(s), y aplicar
la antitransformada de Laplace.

12.6 Ecuación diferencial lineal forzada con condi-


ciones iniciales no nulas
1. Estudiaremos la solución de una ecuación diferencial lineal con coeficientes cons-
tantes reales
   
−1 Q
dP y (t) PX dp y (t)  X dq x (t) 
+ a p + a 0 y(t) =  b q + b0 x(t), (12.53)
dtP p=1 dtp q=1 dtq

240
donde P > Q, con condiciones iniciales no nulas

y(t0 ) = y0 , (12.54)

i
d y
= yi , (12.55)
dti t=t0

i ∈ [1, P − 1]. (12.56)

2. Aplicando la transformada unilateral de Laplace, podemos resolver esta ecuación


diferencial teniendo en cuenta las condiciones iniciales. Recordemos que para la
derivada de una señal f (t), la transformada de Laplace unilateral es

df U L
s F + (s) − f0 , (12.57)
dt ↔

y, en general,
n
dn f (t) U L n +
sn−k fk−1 ,
X
s F (s) − (12.58)
dtn ↔ k=1

donde fk son los valores en t = 0 de f (t) y sus derivadas.

3. Por lo tanto, podemos escribir


PP PP −1  Pp 
sP Y (s) − k=1 s
n−k
yk−1 + p=0 ap sp Y (s) − k=1 s
p−k
yk−1
 =  (12.59)
PQ
s X(s) − qk=1 sq−k xk−1 .
q P
q=0 bq

4. Entonces, reemplazando la transformada de Laplace X(s) y las respectivas condi-


ciones iniciales, nos queda una ecuación algebraica con una incógnita Y (s) que
puede ser despejada. Aplicando la antitransformada de Laplace, obtenemos y(t)
la respuesta temporal buscada.

12.6.1 Ejemplo
1. Consideremos los componentes de circuitos RLC descriptos mediante las siguientes
relaciones tensión corriente
v(t) = R i(t), (12.60)
dv(t)
C = i(t), (12.61)
dt
y
di(t)
v(t) = L . (12.62)
dt

241
Mediante la aplicación de la Transformada de Laplace unilateral, podemos escribir

V (s) = R I(s), (12.63)

C (s V (s) − v(0)) = I(s), (12.64)


y
V (s) = L (s I(s) − i(0)) . (12.65)

2. Supongamos un circuito RLC serie descripto por la siguiente ecuación de malla

di(t) 1 Zt
v(t) = R i(t) + L + i(v) dv. (12.66)
dt C 0
Aplicando las igualdades (12.63), (12.64) y (12.65), podemos escribir la transfor-
mada de la ecuación diferencial (12.66) y obtener
!
1 I(s)
V (s) = R I(s) + L (s I(s) − i(0)) + + vc (0) . (12.67)
s C

12.7 La función de transferencia


La función de transferencia del sistema lineal se define como
P 
Q q
q=0 bq s
H (s) = PP , (12.68)
p=0 ap s p

donde Q < P .
Debemos recordar que

1. H(s) es una función racional en s para ecuaciones diferenciales con coeficientes


constantes y sin retardos.

2. H(s) caracteriza al sistema lineal.

3. H(s) define la relación entre entrada y salida.

4. H(s) se calcula de dos formas

(a) considerando una entrada exponencial compleja x(t) = est o,


(b) aplicando la transformada de Laplace unilateral con condiciones iniciales nu-
las a la ecuación diferencial.

242
12.8 Polos y ceros de una función de transferencia
La función de transferencia puede expresarse como
P 
Q q
q=0 bq s ΠQ
q=1 (s − cq )
H (s) = PP  =K P
, (12.69)
p=0 ap s
p Πp=1 (s − dp )
b
donde K = aQP , y nos referiremos a cq como los ceros del sistema y a dp como los polos
del sistema.
1. La posición de los ceros y polos en el plano complejo determinan, excepto el factor
de ganancia K, la dinámica del sistema.
2. La función de transferencia H (s) está relacionada con la ecuación diferencial y
contiene la misma información que esta. Ambas están definidas por P + Q + 1
números: P polos, Q ceros y una constante o ganancia.

12.8.1 Ejemplo uno


1. Supongamos que tenemos la ecuación diferencial
d3 y (t) d2 y (t) dy (t) dx (t)
3
+ a 2 2
+ a1 + a0 y (t) = b1 + b0 x (t) . (12.70)
dt dt dt dt
2. Suponiendo una entrada exponencial compleja x(t) = Xest , la solución forzada
y(t) toma la forma y(t) = Y (s)est . Podemos entonces calcular
dx (t)
= sX(s)est , (12.71)
dt
dy (t)
= sY (s)est , (12.72)
dt
d2 y (t)
2
= s2 Y (s)est , (12.73)
dt
d3 y (t)
= s3 Y (s)est , (12.74)
dt3
y, reemplazando en la ecuación diferencial (12.70), obtener
s3 Y (s)est +a2 s2 Y (s)est +a1 sY (s)est +a0 Y (s)est = b1 sX(s)est +b0 X(s)est , (12.75)
Sacando factor común Y (s)est y X(s)est tenemos
 
s3 + a2 s2 + a1 s + a0 Y (s)est = (b1 s + b0 ) Xest , (12.76)
Finalmente, podemos despejar la función de transferencia
Y (s) (b1 s + b0 )
= H(s) = 3 . (12.77)
X(s) (s + a2 s2 + a1 s + a0 )

243
12.8.2 Ejemplo dos
1. Veremos la reconstrucción de una ecuación diferencial a partir de una función de
transferencia. Consideremos
Y (s) s
H (s) = = 2 . (12.78)
X(s) s + 2s + 1
¿Cuál es la ecuación diferencial correspondiente?
2. Hagamos  
Y (s) s2 + 2s + 1 = X(s) s, (12.79)
y multipliquemos ambos lados por es t u(t)
 
Y (s) es t u(t) s2 + 2s + 1 = X(s) s es t s, (12.80)

3. Suponiendo condiciones iniciales nulas tenemos que


df U L
s F (s), (12.81)
dt ↔
d2 f (t) U L 2
s F (s), (12.82)
dt2 ↔
y obtenemos la ecuación diferencial
d2 y (t) 2dy (t) d(es t )
+ + y (t) = X(s) u(t). (12.83)
dt2 dt dt
4. Al suponer condiciones iniciales nulas y aplicar la transformada de Laplace uni-
lateral estamos asumiendo que el sistema lineal es estable y causal.

12.9 Solución completa de la ecuación diferencial


con entrada exponencial compleja
1. Supongamos una entrada x(t) = X es t u(t).
2. La solución general, cuando los polos son diferentes, es
P
! !
λn t st
X
y (t) = An e + H (s) X e u(t), t ≥ 0, (12.84)
n=1
y (t) = 0, t < 0. (12.85)

3. Para determinar completamente la solución hay que especificar los P coeficientes


An mediante P condiciones iniciales.

244
12.9.1 Ejemplo
1. Supongamos que tenemos una ecuación diferencial de la forma

d2 y dy
+ (v 1 + v2 ) + (v1 v2 ) y(t) = x(t), (12.86)
dt2 dt
donde v1 6= v2 , y x(t) = X es t u(t).

2. Entonces

y(t) = Y (s) est u(t), (12.87)


dy
= Y (s) s est u(t) (12.88)
dt
d2 y
= Y (s) s2 est u(t), (12.89)
dt2

3. El polinómio caracterı́stico se calcula escribiendo

Y (s) s2 es t + (v1 + v2 ) Y (s) s es t + (u1 u2 ) Y (s) es t = 0, (12.90)

4. Sacando factor común Y (s) es t

(s2 + (v1 + v2 )s + (v1 u2 )) Y (s) es t = (s + u1 ) (s + u2 ) Y (s) es t = 0. (12.91)

5. Es sencillo ver que los modos del sistemas son −v1 y −v2 .

6. En este caso la función de transferencia es


1
H(s) = . (12.92)
(s + v1 ) (s + v2 )

7. La solución general es

y(t) = A1 e−v1 t + A2 e−v2 t + H(s) X es t u(t), (12.93)

donde v1 6= v2 .

8. Las condiciones iniciales

y(0) = r0 , (12.94)

dy
= r1 , (12.95)
dt t=0

245
sirven para definir un sistema de ecuaciones lineales cuyas incógnitas son A1 y A2
X
A1 e−v1 0 + A2 e−v2 0 + = r0 , (12.96)
(s + v1 )(s + v2 )
X
−v1 A1 e−v1 t − u2 A2 e−v2 t + = r2 . (12.97)
(s + v1 )(s + v2 )

Resolviendo este sistema hallamos los valores de A1 y A2 y definimos totalmente


la solución.

12.10 Polos múltiples


1. Supongamos que tenemos la ecuación diferencial

d2 y dy
2
+ b1 + b0 y = 0. (12.98)
dt dt

2. Sabemos que su solución es de la forma y = Y est , donde s se determina calculando


las raı́ces del polinómio caracterı́stico

(s2 + b1 s + b0 ) = 0. (12.99)

cuando las raı́ces son distintas.

3. Supongamos ahora la solución es de la forma y = Y test . Entonces tenemos

y = Y test , (12.100)
dy
= Y (1 + ts)est (12.101)
dt
d2 y
2
= Y (2s + ts2 )est . (12.102)
dt

4. Reemplazando en la ecuación diferencial obtenemos el polinómio caracterı́stico

((b1 + 2s) + (b0 + b1 s + s2 )t)est = 0. (12.103)

5. Para que este polinómio se anule, deben cumplirse simultáneamente

(b0 + b1 s + s2 ) = 0, (12.104)
(b1 + 2s) = 0. (12.105)

246
6. Entonces debe ser

(b0 − 2s2 + s2 ) = 0, (12.106)


b1 = −2s. (12.107)

o, finalmente,

b0 = s 2 , (12.108)
b1 = −2s. (12.109)

dp(s)
7. Si tenemos un polinomio p(s) = 0 con raı́ces dobles, su derivada ds
= 0 tiene la
misma raı́z.
p(s) = (s − r)2 q(s) = 0, (12.110)
Su derivada es
dp(s) dq(s)
= 2 (s − r) q(s) + (s − r)2 . (12.111)
ds ds
8. La solución de la ecuación diferencial es

y(t) = Y1 er t + Y2 t er t . (12.112)

12.11 Respuesta para entradas no periódicas


1. Los casos analizados hasta ahora nos dan una idea de la utilidad de la transformada
de Laplace para resolver ecuaciones diferenciales. A continuación vemos como
resolver el caso de una ecuación diferencial con entrada no periódica usando la
transformada de Laplace.

2. Consideramos la ecuación diferencial lineal con coeficientes constantes


P Q
X dp y (t) X dq x (t)
ap = b q , (12.113)
p=0 dtp q=0 dtq

donde P > Q.

3. Supongamos que tenemos una entrada y una respuesta al impulso nulas para t < 0.
Por lo tanto podemos aplicar la transformada de Laplace unilateral a ambos lados
de la ecuación diferencial. Obtenemos ası́ una ecuación de la forma

Y + (s) = G+ (s) + H + (s)X + (s), (12.114)

donde Gs es una transformada de Laplace cuyos coeficientes dependen de las condi-


ciones iniciales, y H + (s) es la transformada de Laplace de la respuesta al impulso

247
h(t). Si las condiciones iniciales son nulas entonces deberá ser G+ (s) = 0. En
cualquier caso P 
Q q
b
q=0 q s
H + (s) = PP . (12.115)
a s p
p=0 p

4. Calculando la transformada inversa de Laplace unilateral de la ec. (12.114), obten-


emos la señal y(t).

12.11.1 Ejemplo
Hallar la solución para la ecuación diferencial

d2 y(t) dy(t) dx(t)


2
+5 + 6 y(t) = + x(t), (12.116)
dt dt dt
dy(t)
donde x(t) = e−4 t u(t), con las condiciones iniciales y(0) = 2 e |
dt t=0
= 1.

1. Sea
y(t) ⇔ Y (s), (12.117)
dy(t)
⇔ s Y (s) − y(0) = s Y (s) − 2, (12.118)
dt
y
d2 y(t) dy(t)
2
⇔ s2 Y (s) − s y(0) − |t=0 = s2 Y (s) − s 2 − 1, (12.119)
dt dt
2. Además, si
x(t) = e−4 t u(t), (12.120)
entonces
1
X(s) = , (12.121)
s+4
y
dx(t) s
⇔ s X(s) − x(0− ) = . (12.122)
dt s+4
3. La ecuación diferencial transformada resulta
s 1
(s2 Y (s) − s 2 − 1) + 5 (s Y (s) − 2) + 6 Y (s) = + . (12.123)
s+4 s+4

4. Despejando Y (s), podemos obtener

2 s2 + 20 s + 45 2 s2 + 20 s + 45
Y (s) = = (12.124)
(s2 + 5 s + 6) (s + 4) (s + 2) (s + 3) (s + 4)

248
5. Para encontrar la respuesta temporal y(t), podemos despejar Y (s) en fracciones
parciales de la siguiente forma
A B C
Y (s) = + + , (12.125)
s+2 s+3 s+4
donde
Lim Lim 2 s2 + 20 s + 45
A= (s + 2) Y (s) = (s + 2) , (12.126)
s → −2 s → −2 (s + 2) (s + 3) (s + 4)

Lim Lim 2 s2 + 20 s + 45 13
A= (s + 2) Y (s) = = , (12.127)
s → −2 s → −2 (s + 3) (s + 4) 2
Lim Lim 2 s2 + 20 s + 45
B= (s + 3) Y (s) = = −3, (12.128)
s → −3 s → −3 (s + 2) (s + 4)
Lim Lim 2 s2 + 20 s + 45 3
C= (s + 4) Y (s) = =− , (12.129)
s → −4 s → −4 (s + 2) (s + 3) 2
6. Según la tabla de pares función transformada,
1
f (t) = e−r t u(t) ↔ F (s) = , (12.130)
s+r
y por lo tanto
13 −2 t 3
 
y(t) = e − 3 e−3 t − e−4 t u(t). (12.131)
2 2

12.12 Estabilidad de sistemas LIT


12.12.1 Sistemas con un polo
1. La función de transferencia correspondiente a la ecuación diferencial

ẏ (t) + ay (t) = bx (t) , (12.132)

puede calcularse suponiendo que

x (t) = Xest , (12.133)


y (t) = Y est ←→ ẏ (t) = sY est , (12.134)

2. Reemplazando en la ecuación diferencial obtenemos

sY est + aY est = Xest . (12.135)

249
3. Simplificando y agrupando
(s + a) Y = X. (12.136)
Y
4. Despejando X
, resulta
Y b
H (s) = = , (12.137)
X s+a
5. Recuerde que la solución de la ecuación homogénea es

y (t) = Ae−at . (12.138)

6. Si a > 0 entonces
Lim
y (t) = 0, (12.139)
t→∞
y por lo tanto el sistema es estable. Si a < 0, entonces

Lim
y (t) = ∞. (12.140)
t→∞

y el sistema es inestable.

7. Observe que el mismo resultado puede obtenerse aplicando la trasnformada de


Laplace unilateral a la ecuación diferencial con condiciones iniciales nulas.

12.12.2 Sistemas con dos polos distintos


La función de transferencia correspondiente a la ecuación diferencial

ÿ (t) + aẏ (t) + by (t) = cx (t) , (12.141)

puede calcularse suponiendo que

x (t) = Xest , (12.142)


y (t) = Y est ←→ ẏ (t) = sY est , (12.143)
ẏ (t) = sY est ←→ ÿ (t) = s2 Y est , (12.144)

y reemplazando en la ecuación diferencial

s2 Y est + asY est + bY est = cXest . (12.145)

Simplificando y agrupando  
s2 + as + b Y = cX. (12.146)

250
Y
Despejando X
resulta
Y c
= H (s) = 2 . (12.147)
X (s + as + b)
Observe que si d1 6= d2 (los polos de H (s)) son distintos entre sı́ entonces
r1 r2
H (s) = + . (12.148)
s + d1 s + d2
Las constantes r1 y r2 pueden calcularse de la siguiente forma
r1 r2
 

r1 = H (s) (s + d1 )|s=−d1 = + (s + d1 ) , (12.149)
s + d1 s + d2 s=−d1
r1 r2
 

r2 = H (s) (s + d2 )|s=−d2 = + (s + d2 ) . (12.150)
s + d1 s + d2 s=−d2

En este caso, la respuesta natural es


 
y (t) = k1 r1 e−d1 t + k2 r2 e−d2 t , (12.151)

donde k1 y k2 son constantes que quedan determinadas por las condiciones iniciales.
Podemos ver que este sistema es estable si y solo si d1 > 0 y d2 > 0.

12.12.3 Sistemas con dos polos iguales


Si d1 = d2 = d (los polos de H (s)) son iguales entre sı́ entonces
c
H (s) = , (12.152)
(s + d)2

y en tal caso puede probarse que

y (t) = p e−d t + q t e−d t , (12.153)

es la respuesta natural que tiende a 0 cuando t → ∞ si d > 0. Las constantes p e q


quedan determinada por las condiciones iniciales

y (0) = y0 . (12.154)

y
dy
|t=0 = y1 . (12.155)
dt
Recordando que
y (t) = p e−d t + q t e−d t , (12.156)

251
y
dy (t)
= −d p e−d t + q e−d t − d q t ed t , (12.157)
dt
podemos plantear un sistema de dos ecuaciones con incógnitas p y q

y (0) = y0 = p e−d 0 + q 0 e−d 0 = p, (12.158)

y
dy (t)
|t=0 = y1 − d p e−d 0 + q e−d 0 − d q 0 ed 0 = −d p + q. (12.159)
dt
Por lo tanto podemos deducir que

p = y0 , (12.160)

y
q = y1 + d y0 . (12.161)

252
Capı́tulo 13

Respuesta en frecuencia de sistemas


LIT TC

13.1 Respuesta en frecuencia


Si la entrada a un sistema de tiempo continuo es x (t) = est , entonces la salida es
y (t) = H (s) est donde Z ∞
H (s) = h (τ ) e−s τ dτ, (13.1)
−∞

en la cual h (t) es la respuesta al impulso del sistema LIT. En el caso general de s


complejo, H (s) es la función del sistema. En el caso < (s) = 0 → s = j ω y x (t) =
es t = ej ω t , la respuesta en frecuencia del sistema esta definida por
Z ∞
H (jω) = h (t) e−jωt dt. (13.2)
−∞

La salida y (t) para una entrada



ak ejkωt ,
X
x (t) = (13.3)
k=−∞

está dada entonces por



ak H (jωk) ejkωt .
X
y (t) = (13.4)
k=−∞

13.1.1 Ejemplo
1. Sea un sistema con respuesta al impulso dada por

h (t) = e−t u (t) , (13.5)

253
y una entrada dada por
3
ak ejk2πt ,
X
x (t) = (13.6)
k=−3

donde
a0 = 1,

1
a1 = a−1 = 4
,
(13.7)
1
a2 = a−2 = 2
,

1
a3 = a−3 = 3
.

2. Calculamos primero la respuesta en frecuencia planteando la integral


Z ∞
H (jω) = h (t) e−jωt dt. (13.8)
−∞

El sistema dado es causal porque la respuesta al impulso δ(t) es nula para t < 0.
Por lo tanto, los lı́mites de la integral cambı́an y resulta
Z ∞
H (jω) = e−τ e−jωτ dτ. (13.9)
0

Resolviendo la integral podemos escribir


1 h −(1+jω)τ i∞
H (jω) = − e . (13.10)
1 + jω 0

Aplicando la regla de Barrow, obtenemos finalmente


1
H (jω) = . (13.11)
1 + jω

3. Entonces la salida y (t) es


3
bk ejk2πt ,
X
y (t) = (13.12)
k=−3

donde, en general,
bk = ak H (jk2π) . (13.13)
Por lo tanto, calculando cada bk obtenemos

b0 = 1, (13.14)

254
y    
1 1 1 1
b1 = 4 1+j2π
, b−1 = 4 1−j2π
,
   
1 1 1 1
b2 = 2 1+j4π
, b−2 = 2 1−j4π
, (13.15)
   
1 1 1 1
b3 = 3 1+j6π
, b−3 = 3 1−j6π
.

13.2 Representación gráfica de la respuesta en fre-


cuencia de un sistema LIT
La respuesta en frecuencia es una función compleja y debe ser representada gráficamente
en

1. Forma polar: magnitud y fase.

2. Forma cartesiana: parte real y parte imaginaria.

Ambas representaciones permiten visualizar distintas propiedades de los sistemas


LIT. Por tal motivo las estudiaremos por separado.

13.2.1 Definiciones
Ganancia o atenuación
La ganancia y la atenuación de un filtro son conceptos complementarios, y sus valores
están determinados por la magnitud de la respuesta en frecuencia. Dado que la salida
de un filtro y para una entrada periódica x queda determinada por

y(t) = H(jω)x(t), (13.16)

para tiempo continuo. El módulo de la función compleja kHk determina la variación del
tamaño de la salida respecto a la entrada. Hablamos de ganancia cuando deseamos saber
cuanto queda ampliada la salida respecto a la entrada, y hablamos de atenuación cuando
deseamos saber cuanto queda disminuida la salida respecto a la entrada. Dado que por
lo general los filtros amplian determinadas frecuencias y disminuyen otras, hablar de
ganancia o atenuación es equivalente a elegir un punto de vista (G = 1 − A).

Fase
La fase de un filtro es la fase de la respuesta en frecuencia (función compleja) H(jω) en
tiempo continuo o H(ejω ) para tiempo discreto.

255
Fase lineal y no lineal
Cuando la fase del filtro es una función lineal de ω, hay una interpretación simple de
su efecto en el dominio del tiempo. Consideremos el sistema de tiempo continuo con
respuesta en frecuencia
H(jω) = ejωt0 , (13.17)
donde la ganancia es 1 para toda frecuencia y fase lineal

|H(jω)| = 1, 6 H(jw) = −ωt0 . (13.18)

La salida de este sistema es igual a su entrada desplazada en el tiempo

y(t) = x(t − t0 . (13.19)

Retraso de grupo
d6 H(jω)
τ (ω) = − . (13.20)

13.3 Gráficos de Bode


13.3.1 Sistemas de primer orden de tiempo continuo
Consideremos la siguiente ecuación diferencial

dy (t)
τ + y (t) = x (t) . (13.21)
dt
1. La función de transferencia es
1
H (s) = , (13.22)
sτ + 1
con un polo en
1
s=− . (13.23)
τ
2. La función de respuesta en frecuencia es
1
H (jω) = . (13.24)
jωτ + 1

3. La respuesta al impulso es
1 −t
h1 (t) = e τ u (t) . (13.25)
τ

256
4. La respuesta al escalón es
t
 
h2 (t) = h1 (t) u (t) = 1 − e− τ u (t) . (13.26)

5. El parametro τ es la constante de tiempo del sistema y controla la derivada de la


salida. Comparemos la respuesta al impulso con la respuesta en frecuencia
t
τ h (t) = e− τ u (t) , (13.27)
1
H (jω) = . (13.28)
jωτ + 1

La función magnitud de Bode para sistemas de primer orden Consideremos


la función magnitud de Bode
 
20 log10 kH (jω)k = −10 log10 (ωτ )2 + 1 . (13.29)

Simplificación de la función magnitud de Bode para sistemas de primer orden


La función (13.29) puede simplificarse según el valor que toma la variable ω

1. (forma normalizada)

ωτ < 1 → 20 log10 kH (jω)k ≈ −10 log10 (1) = 0, (13.30)

o (forma no normalizada)
1
ω< → 20 log10 kH (jω)k ≈ 0. (13.31)
τ

2. (forma normalizada)

ωτ > 1 → 20 log10 kH (jω)k ≈ −20 log10 (ωτ ) , (13.32)

o (forma no normalizada)
1 1
 
ω > → 20 log10 kH (jω)k ≈ −20 log10 (ω) + 20 log10 . (13.33)
τ τ

Esto significa que la función (13.29) tiene dos ası́ntotas. Dado que el gráfico se realiza
con escalas logaritmicas en ambos ejes, estas ası́ntotas son rectas.

257
Ası́ntotas de la función magnitud de Bode para sistemas de primer orden
La función (13.29) puede aproximarse por ası́ntotas según el valor que toma la variable
ω.

1. Ası́ntota de baja frecuencia, coincidente con la lı́nea de 0db,

2. Ası́ntota de alta frecuencia, con una pendiente de 20db por década.


1
3. Estas ası́ntotas se intersectan cuando ωτ = 1 (forma normalizada) o ω = τ
(forma
no normalizada).

4. El punto de intersección de las ası́ntotas se llama frecuencia de quiebre.

Estas ası́ntotas nos brindan la posibilidad de aproximar rápidamente la función


(13.29). En la frecuencia de quiebre, tenemos además que el verdadero valor de la
función (13.29) es
20 log10 kH (jω)k = −10 log10 (2) ≈ −3db. (13.34)
Consideremos ahora la función fase de Bode

6 H (jω) = arctan (ωτ ) . (13.35)

Esta función tambien puede aproximarse por distintas rectas para distintos rangos de
frecuencia. Recordemos el uso de escala logaritmica en el eje de la frecuencia.
1
ωτ ≤ 10 →  arctan (ωτ ) = 0,
1 π
10
≤ ωτ ≤ 10 → arctan (ωτ ) = − 4 (log10 (ωτ ) + 1) , (13.36)
arctan (ωτ ) = − π2 .

En la frecuencia de quiebre, tenemos además que el verdadero valor de la función (13.35)


es
π
6 H (jω) = arctan (1) = . (13.37)
4

13.3.2 Sistemas de segundo orden de tiempo continuo


Consideremos la ecuación diferencial
d2 y (t) dy (t)
2
+ 2ζωn + ωn2 y (t) = ωn2 x (t) . (13.38)
dt dt
1. La función de transferencia correspondiente es

ωn2
H (s) = . (13.39)
s2 + 2ζωn s + ωn2

258
2. La respuesta en frecuencia es

ωn2
H (jω) = , (13.40)
(ωn2 − ω 2 ) + j2ζωn ω

que se puede factorear como

ωn2
H (jω) = , (13.41)
(jω − c1 ) (jω − c2 )

donde  q 
c1 = ωn −ξ + ξ2 − 1 , (13.42)
y  q 
c1 = ωn −ξ − ξ2 −1 . (13.43)

3. La respuesta al impulso la calculamos aplicando expansión en fracciones parciales


y la antitransformada de Laplace.

(a) Observemos que


ξ 6= 1 → c1 6= c2 , (13.44)
y podemos hacer una expansión en fracciones parciales de la forma
M M
H (jω) = − , (13.45)
jω − c1 jω − c2
donde
ωn
M= √ 2 . (13.46)
2 ξ −1
Por lo tanto, la respuesta al impulso para este caso es
 
h1 (t) = M ec1 t − ec2 t u (t) . (13.47)

(b) En cambio, si
ξ = 1 → c1 = c2 = −ωn , (13.48)
y
ωn2
H (jω) = , (13.49)
(jω − ωn )2
y la respuesta al impulso correspondiente es

h1 (t) = ωn2 te−ωn t u (t) . (13.50)

259
4. La respuesta al escalón h2 (t) puede calcularse mediante la convolución

h2 (t) = h1 (t) ∗ u (t) . (13.51)

(a) En el caso
ξ 6= 1 → c1 6= c2 , (13.52)
tenemos que la respuesta al impulso es
 
h1 (t) = M ec1 t − ec2 t u (t) , (13.53)

y por lo tanto la respuesta al escalón es

ec1 t ec2 t
!!
h2 (t) = 1 + M − u (t) . (13.54)
c1 c2

(b) En el caso
ξ = 1 → c1 = c2 = −ωn , (13.55)
tenemos que la respuesta al impulso correspondiente es

h1 (t) = ωn2 te−ωn t u (t) , (13.56)

y por lo tanto la respuesta al escalón es


 
h2 (t) = 1 − e−ωn t − ωn te−ωn t u (t) . (13.57)

5. Es posible obtener una expresión normalizada para la respuesta en frecuencia.

(a) Observe que podemos escribir, dividiendo el numerador y el denominador por


ωn2 ,
1
H (jω) =  2   , (13.58)
jω jω
ωn
+ 2ξ ωn
+ 1
obteniendo la forma normalizada de un sistema de segundo orden.
ω
(b) En este caso, la respuesta en frecuencia es función de ωn
. El cambio de ωn
equivale a cambiar una escala en tiempo y frecuencia.

6. El parámetro ξ es el coeficiente de amortiguamiento, y ωn es la frecuencia nat-


ural de oscilación. La razón de estos nombres se puede entender observando las
respuestas al impulso y al escalón.

260
(a) En el caso 0 < ξ < 1, los coeficientes c1 y c2 son complejos, y la respuesta al
impulso puede escribirse en la forma
ωn e−ξωn t
 √ √ 
jωn 1−ξ 2 t jωn 1−ξ 2 t
h1 (t) = √ e −e u (t) . (13.59)
2j 1 − ξ 2
Reacomodando la expresión, obtenemos
 √ √ 
jωn 1−ξ 2 t jωn 1−ξ 2 t
ωn e −ξωn t e − e
h1 (t) = √ u (t) , (13.60)
1 − ξ2 2j
equivalente a
ωn
 q 
−ξωn t
h1 (t) = √ e 2
sin ωn 1 − ξ t u (t) . (13.61)
1 − ξ2
Esto significa que el movimiento es oscilatorio amortiguado, y se dice en este
caso que el sistema es subamortiguado.
(b) En el caso ξ > 1, los coeficientes c1 y c2 son negativos y la respuesta al
impulso es la diferencia entre dos exponenciales decrecientes
 
h1 (t) = M e−|c1 |t − e−|c1 |t u (t) . (13.62)
En este caso el sistema es sobreamortiguado.
(c) En el caso ξ = 1, cuando c1 = c2 = −ωn , decimos que el sistema es critica-
mente amortiguado
h1 (t) = ωn2 te−ωn t u (t) . (13.63)
7. La función magnitud de Bode para un sistema con respuesta en frecuencia nor-
malizada
1
H (jω) =   2   , (13.64)
1 − ωωn + j2ζ ωωn
está dada por
v 
u 2 !2 2
ω ω
u  
20 log10 kH (jω)k = −20 log10 
t
1− + 4ζ 2 ,

(13.65)
ωn ωn

que se simplifica
 
2 !2 2
ω ω
 
20 log10 kH (jω)k = −10 log10  1 − + 4ζ 2 . (13.66)
ωn ωn
Note que las ası́ntotas para esta función son
ω  ωn → 20 log10 kH (jω)k ≈ 0, (13.67)
y
ω  ωn → 20 log10 kH (jω)k ≈ −40 log10 ω + 40 log10 ωn . (13.68)

261
13.4 Diagramas de Bode para respuestas en frecuen-
cias racionales
Supongamos que deseamos realizar el diagrama de Bode para un sistema cuya función
de transferencia es PN i
P (s) i=0 ai s
H (s) = = PM j
, (13.69)
Q (s) j=0 bj s

donde M > N. Para poder hacer el gráfico de la magnitud y de la fase de la respuesta


en frecuencia nos conviene llevar a cabo los siguientes pasos:

1. Encontrar los ceros de los polinómios P (s) y Q (s). Recordemos que un polinómio
con coeficientes reales tiene ceros reales o complejos conjugados. Lo que nos in-
teresa es escribir los polinómios como producto de factores con las formas:

(a) m, donde m es un número real.


(b) s, cuando la raı́z del polinómio es nula.
(c) (s + c) donde c es un número real no nulo.
(d) (s + d)2 + e2 donde −d + je y −d − je son raı́ces complejas conjugadas.

2. Supongamos que tenemos los polinómios P (s) y Q (s) tienen la forma general
G (s)
R
! S !
 
s2 + 2dk s + d2k + e2k sT ,
Y Y
G (s) = m s + ci (13.70)
i=1 k=1

3. Podemos escribir por lo tanto la función de transferencia como una productoria


de funciones parciales normalizadas
U
Y
H (s) = Hk (s) , (13.71)
k=1

donde las funciones Hk (s) tiene la forma

(a) B1 (s) = K, donde K es un número real,


1
(b) B2 (s) = s
+1
,
ci

1
(c) B3 (s) = s2 2dk ,
+ s+1
(d2 +e2
k k ) ( d2 +e2
k k )
1
(d) B4 (s) = sT
, donde T es un número entero,
s
(e) B5 (s) = ci
+ 1,

262
−10.0

−26.7

−43.3

−60.0
−1 0 1 2 3
10 10 10 10 10

0
−9
−18
−27
−36
−45
−54
−63
−72
−81
−90
−1 0 1 2 3
10 10 10 10 10

Figura 13.1: Diagrama de bode para un sistema con un polo

s2 2dk
(f) B6 (s) = + s + 1,
( d2k +e2k ) (d2k +e2k )
(g) B7 (s) = sT , donde T es un número entero.

4. Grafiquemos por separado las magnitudes y fases de cada una de las funciones
Hk (jω) . Observe que aunque no hemos estudiado en particular los casos B5 , B6
y B7 , estamos en condiciones de obtener las funciones magnitud y fase de Bode
correspodientes dado que se verifican las siguientes igualdades
1
kB2 (jω)k = , (13.72)
kB1 (jω)k
y
6 B2 (jω) = −6 B1 (jω) . (13.73)

5. Dada la especial definición de la función magnitud de Bode y las propiedades de


los números complejos, podemos obtener las funciones magnitud y fase del sistema
completo sumando las funciones correspondientes de los factores Hk (jω) .

13.4.1 Ejemplos

263
−50.0

−73.3

−96.7

−120.0
0 1 2 3
10 10 10 10

−45

−90

−135

−180
0 1 2 3
10 10 10 10

Figura 13.2: Diagrama de bode para un sistema con dos polos

264
Capı́tulo 14

Muestreo en tiempo

14.1 Introducción
14.1.1 Definiciones básicas
1. Recordemos la definición de la sucesión de funciones cuyo lı́mite es el impulso
unitario 



0 t < t0 ,




1
r∆ (t − t0 ) = ∆
t0 ≤ t ≤ t0 + ∆, (14.1)





 0

t0 + ∆ < t
donde ∆ es una constante real no negativa.
2. Supongamos que tenemos una señal x (t). Podemos definir una nueva señal
z (t) = x (t) δ (t − t0 ) . (14.2)

3. Para obtener los valores de la función z(t), construyamos una sucesión de funciones

0

 t < t0 ,
z∆ (t) =  z (t) ∆1 t0 ≤ t ≤ t0 + ∆, (14.3)

0 t0 + ∆ < t.
La función z (t) es el lı́mite de la sucesión cuando ∆ → 0, con la siguiente definición
(
0 t 6= t0 ,
z (t) = (14.4)
x (t0 ) t = t0 .

4. Podemos resumir la operación realizada en la ec. (14.4) como


z (t) = x (t) δ (t − t0 ) = x (t0 ) δ (t − t0 ) . (14.5)

265
14.2 Muestreo por modulación con un tren de im-
pulsos, tiempo continuo
1. Veamos la Fig. (14.1), y recordemos la definición de un tren de impulsos de tiempo
continuo ∞ X
p (t) = δ (t − nT ) . (14.6)
n=−∞

Sabemos además que la transformada de Fourier de p(t) es



2π X 2π
 
P (jω) = δ ω−k . (14.7)
T k=−∞ T

2. Calculemos ahora el producto de p (t) con una señal x (t)



X
xp (t) = x (t) p (t) = x(t)δ (t − nT ) . (14.8)
n=−∞

Por la propiedad del producto de una señal con un impulso sabemos que

x (t) δ (t − t0 ) = x (t0 ) δ (t − t0 ) . (14.9)

Por lo tanto resulta ∞


X
xp (t) = x (nT ) δ (t − nT ) . (14.10)
n=−∞

3. Por la propiedad de la multiplicación de la Transformada de Fourier sabemos que


la transformada de Fourier de la señal xp (t) debe ser

1 Z∞
Xp (jω) = X (jθ) P (j (ω − θ)) dθ. (14.11)
2π −∞
Teniendo en cuenta la ecuación (14.7) escribimos

1 Z ∞ 2π X 2π
 
Xp (jω) = X (jθ) δ ω − k − θ dθ, (14.12)
2π −∞ T k=−∞ T

donde, intercambiando las posiciones de la integral y la sumatoria y simplificando,


finalmente permite deducir
∞ Z ∞
1 X 2π
 
Xp (jω) = X (jθ) δ ω − k − θ dθ. (14.13)
T k=−∞ −∞ T

266
1.5

1
T
0.5

0
p(t)
−0.5
−10 −8 −6 −4 −2 0 2 4 6 8 10

1.5

0.5

−0.5
−10 −8 −6 −4 −2 0 2 4 6 8 10

1.5

x(0) x(2 T)
1 x(−3 T) x(T) x(t)p(t)
x(−2 T) x(3 T)
0.5

0
x(−T)
−0.5
−10 −8 −6 −4 −2 0 2 4 6 8 10

Figura 14.1: Muestreo en el dominio del tiempo: La señal original se modula con tren
de impulsos.

4. Dada la propiedad de la convolución de una señal con un impulso


2π 2π
   
X (jω) ∗ δ ω − k = X jω − k , (14.14)
T T
resulta ∞
1 X 2π
  
Xp (jω) = X j ω−k . (14.15)
T k=−∞ T

5. Para explicar en palabras la ec. (14.15), recordemos que se le da el nombre de


espectro de la señal x(t) a su transformada de Fourier X(jω). La ec. (14.15) es la
transformada de Fourier de la señal muestreada y es una sumatoria o superposición
de copias del espectro original desplazadas en frecuencia a intervalos regulares 2π
T
.

14.3 Teorema del muestreo


1. Sea x (t) una señal cuyo espectro tiene un ancho de banda limitado con X (jω) = 0
para |ω| > ωa , donde ωa es el ancho de banda. Entonces x (t) queda correctamente

267
especificada por sus muestras x (nT ), n = 0, 1, 2, ...., si

ωs = > 2ωa . (14.16)
T

2. En otras palabras, si generamos una señal xT (t) modulando un tren de impulsos


periódicos de frecuencia ωs con una señal x (t) , podemos recuperar la señal x(t)
haciendo pasar la señal xT (t) por un filtro pasabajos ideal con ganancia T y
frecuencia de corte superior a ωa e inferior a ωs − ωa .

3. Las dos ecuaciones que debemos observar para entender la clave del muestreo son
(14.6) y (14.15), repetidas a continuación

X
p (t) = δ (t − nT ) , (14.17)
n=−∞


1 X 2π
  
Xp (jω) = X j ω−k . (14.18)
T k=−∞ T
La separación en el tren de impulsos temporal es T , y en el tren de impulsos en
frecuencia es 2π
T
. Cuando mayor es el tiempo de muestreo, menor es la separación
de los centros de las copias del espectro original en frecuencia.

4. Si los centros de los espectros se acercan demasiado, entonces los extremos de las
copias del espectro original se superponen y confunden, provocando el fenómeno
de aliasing.

14.4 Reconstrucción ideal de señales muestreadas


1. Recordemos la propiedad de la multiplicación de la Transformada de Fourier

TF
X(jω) H(jω)) x(t) ∗ h(t). (14.19)
←→

2. Supongamos un filtro pasabajo ideal cuya respuesta en frecuencia es


"
1 |ω| ≤ ωc ,
H(jω) = (14.20)
0 |ω| > ωc .

Por lo tanto su respuesta al impulso es


sin(ωc t)
h(t) = ωc T . (14.21)
π ωc t

268
Muestreo por modulacion con un tren de impulsos
2
X(j ω)
1 1

0
−ω a ωa ω
−1
−15 −10 −5 0 5 10 15

2
P(j ω)
1 ωs

0
−3ω s −2ω s −ω s 0 ωs 2ω s ω 3ω s

−1
−15 −10 −5 0 5 10 15

Xp(j ω)
1

0
−3ω −2ω −ω −ω a 0 ω ωs 2ω s ω 3ω
s s s a s

−1
−15 −10 −5 0 5 10 15

Figura 14.2: Muestreo en el dominio de la frecuencia. La multiplicación en el dominio del


tiempo corresponde a una convolución en el dominio de la frecuencia. La convolución de
un impulso ubicado en k2ΠT
con la señal original genera una copia de esta cuya frecuencia
k2Π
central es T . Obtenemos ası́ infinitas copias del espectro de la señal original ubicadas
en las frecuencias kωs .

269
Aliasing o enmascaramiento de frecuencias
2

0
−ω 0 ω
a a

−1
−15 −10 −5 0 5 10 15

0
−3ω −2ω −ω 0 ω s 2ω s
3ω s
s s s

−1
−15 −10 −5 0 5 10 15

0
−3ω s −2ω −ω s 0 ω 2ω 3ω s
s s s

−1
−15 −10 −5 0 5 10 15

Figura 14.3: Aliasing o enmascaramiento de frecuencias por muestreo demasiado lento.

270
Señal de tiempo continuo
1

0.5

-10 -5 5 10

-0.5

-1
Figura 14.4: Una señal continua que será muestreada

3. La señal reconstruida es entonces



X ωc T sin(ωc (t − nT ))
xr (t) = x(nT ) . (14.22)
∞ π ωc (t − nT )

4. Esta es una reconstrucción ideal porque estamos usando un filtro pasabajos ideal,
cuya respuesta es no causal.

14.5 Reconstrucción real de señales muestreadas


Una señal continua muestreada se puede reconstruir mediante pulsos (vea la Figura
14.7)

271
Señal muestreada
1

0.5

-4 -2 2 4

-0.5

-1
Figura 14.5: La señal muestreada

Señal reconstruida con 10 muestras


1

0.5

-10 -5 5 10

-0.5

-1
Figura 14.6: Reconstrucción ideal de la señal muestreada

272
Figura 14.7: Reconstrucción real de la señal muestreada, mediante sumatoria de pulsos

273
Capı́tulo 15

Series de Fourier (Tiempo discreto)

15.1 Definiciones
15.1.1 Señales periódicas
Recordemos que una función x[n] es periódica si y solo si existe un número entero N > 0
que cumple la condición
x [n] = x [n + N ] , (15.1)
para todo n.
Por ejemplo,
2π 2π 2π
x[n] = cos( n) = cos( (n + N )) = cos( n + 2 π), (15.2)
N N N
2π 2π 2π
x [n] = sin( n) = sin( (n + N )) = sin( n + 2 π), (15.3)
N N N
j 2Nπ n j 2Nπ (n+N ) j 2Nπ +j 2 π j 2Nπ j 2 π
x [n] = e =e =e =e e . (15.4)

Recordemos que ej 2 π = cos(2 π) + j sin(2 π) = 1.

15.1.2 Señales periódicas armónicamente relacionadas


Las señales peródicas armónicamente relacionadas cumplen con la condición

φk [n] = ej k ω n = ej k N
n
, ∀k = 0, ±1, ±2, ... (15.5)

o la condición

 
αk [n] = cos (k ω n) = cos k n , ∀k = 0, 1, 2, ..., N − 1, (15.6)
N

274
o la condición

 
βk [n] = sin (k ω n) = sin k n , ∀k = 0, 1, 2, ..., N − 1. (15.7)
N
En otras palabras, son funciones periódicas cuyas frecuencias son múltiplos enteros de
una frecuencia fundamental.

1. Cada una de estas señales tiene una frecuencia fundamental ω y perı́odo funda-
mental N .
N
2. La armónica k−ésima, para k 6= 0, es periódica con perı́odo k
.

3. Solamente existen N señales distintas en el conjunto descripto por (15.5) o sea

φk [n] = φk+rN [n] . (15.8)

Para el caso de las exponenciales complejas podemos demostrar


2π 2π
+r N 2Nπ 2π 2π 2π
ej (k+r N ) N = ej k N = ej k N
+r 2 π
= ej k N er 2 π = ej k N . (15.9)

Por ejemplo, para N = 4 tenemos las armónicas


2π 2π 2π
x0 [n] = 1, x1 [n] = ej 1 4
n
, x2 [n] = ej 2 4
n
, x3 [n] = ej 3 4
n
. (15.10)

Observemos las igualdades


2π 2π 2π 2π 2π
xk [n] = ej k 4
n
= xk [n + 4] = ej k 4
(n+4)
= ej k 4
n jk
e 4
4
= ej k 4
n
, (15.11)

y

x4 [n] = ej 4 4
n
= ej 2 π n = 1 = x0 [n]. (15.12)

15.2 Serie de Fourier de tiempo discreto


15.2.1 Sı́ntesis
La serie de Fourier de tiempo discreto es una sumatoria de N armónicas complejas de
perı́odo N , y la podemos escribir ası́
N −1 N −1 N −1

ak ej k ω n = ak ej k ( N ) n .
X X X
x [n] = ak φk [n] = (15.13)
k=0 k=0 k=0

1. La sumatoria debe incluir solamente N armónicas.

2. El valor inicial de k puede ser cualquiera.

275
15.2.2 Análisis, o el cálculo de coeficientes de la serie de Fou-
rier
1. Comenzamos escribiendo la serie de Fourier de una señal periódica de tiempo
discreto
N −1

ak e j k n
X
x [n] = N . (15.14)
k=0

Multiplicando la serie por e−j r N
n
obtenemos
N −1
2π 2π 2π
x [n] e−j r n
ak ej k n −j r n
X
N = N e N , (15.15)
k=0

2. Sumamos ambos lados de la igualdad desde n = 0 hasta N − 1


N −1 N −1 N −1
2π 2π
−j r n
ak ej (k−r) n
X X X
x [n] e N = N , (15.16)
n=0 n=0 k=0

3. Invertimos la posición de los signos de sumatoria a la derecha del signo = y dado


que ak no depende de n se obtiene
N −1 N −1 N −1
!
2π 2π
x [n] e−j r n
ej (k−r) n
X X X
N = ak N . (15.17)
n=0 k=0 n=0

4. Puede probarse que


N −1
(
X
jk 2π
n N, k = 0, ±N, ±2N, ...
e N = , (15.18)
n=0
6 0, ±N, ±2N, ...
0, k =

mediante el siguiente razonamiento


2π 2π
(a) Verificamos la igualdad ej 0 = ej N N
n
= ej 2 N N
n
= ... = 1.
(b) Recordamos la propiedad de las series geométricas convergentes
N −1
X 1 − aN
n
a = , a < 1, (15.19)
n=0 1−a

para obtener
 2π
N
N −1 

n 1 − ej k N
1 − ej k 2 π
ej k
X
N =  2π
 =  2π
 = 0. (15.20)
n=0 1 − ej k N 1 − ej k N

276
5. Entonces obtenemos
N −1

x [n] e−j r n
X
N = ar N, (15.21)
n=0
o sea
−1
1 NX 2π
ar = x [n] e−j r N n . (15.22)
N n=0

15.2.3 Ejemplo de cálculo de los coeficientes de una serie de


Fourier
1. Consideremos una señal periódica con N = 2. Supongamos que
x[0] = 1, (15.23)
y
x[1] = 0. (15.24)
Por lo tanto x[2] = 1, x[3] = 0, y ası́ sucesivamente. ¿Cuales son los coeficientes
correspondientes?
2. Dado que N = 2 los coeficientes a calcular son a0 y a1 . Si recordamos la ecuación
(15.22)
−1
1 NX 2π
ar = x [n] e−j r N n , (15.25)
N n=0
podemos escribir, para N = 2,
1  2 pi 2 pi 
ar = x[0] ej r 2 0 + x[1] ej r 2 1 . (15.26)
2
3. En nuestro caso, para r = 0 resulta
1  2π 2π

a0 = x[0] ej 0 2 0 + x[1] ej 0 2 1 , (15.27)
2
y para r = 1 resulta
1  2π 2π

a1 = x[0] ej 1 2 0 + x[1] ej 1 2 1 . (15.28)
2
4. Sustituyendo los valores de x[0] = 1 y x[1] = 0, obtenemos
1 1
a0 = (1 × 1 + 0 × 1) = , (15.29)
2 2
y
1   1
a1 = 1 × 1 + 0 × ej π = . (15.30)
2 2
277
Ejercicio
1. Calcular los coeficientes de Fourier de una señal periódica N = 2, donde x[0] = 0,
y x[1] = 1.

2. Calcular los coeficientes de Fourier de una señal periódica N = 3, donde x[0] = 0,


x[1] = 1 y x[2] = −1.

15.3 Propiedades de las series de Fourier


Ası́ indicaremos la relación entre una función y su serie de Fourier

FS
x [n] a . (15.31)
←→ k

15.3.1 Linealidad
Sean dos funciones con igual perı́odo N

x [n] = x [n + N ] , (15.32)
y [n] = y [n + N ] , (15.33)

con coeficientes de Fourier


FS
x [n] a , (15.34)
←→ k
FS
y [n] b . (15.35)
←→ k

Es posible probar

FS
z [n] = A x [n] + B y [n] c = A ak + B bk . (15.36)
←→ k

Queda como ejercicio para el lector.

15.3.2 Desplazamiento en el tiempo


1. Dadas las funciones periódicas

x [n] = x [n + N ] , (15.37)
y [n] = x [n − n0 ] , (15.38)

278
sus series de Fourier cumplen con la relación
FS
x [n] a , (15.39)
←→ k
FS 2π
y [n] b = e−j k N n0 ak . (15.40)
←→ k

2. En efecto, escribiendo la ecuación de análisis


−1
1 NX 2π
bk = x [n − n0 ] e−j k N n , (15.41)
N n=0

donde podemos reemplazar x[n] por su serie de Fourier


−1 N −1
1 NX
!
2π 2π
ar ej r N (n−n0 ) e−j k n
X
bk = N . (15.42)
N n=0 r=0

3. Agrupando términos obtenemos


−1 N −1
1 NX
!
2π 2π
ar e−j r N n0 ej (r−k) N n .
X
bk = (15.43)
N n=0 r=0

4. Es posible agrupar términos y aplicar la propiedad de suma de una serie geométrica


para obtener
N −1 2π
1 − ej (r−k) N
!
2π 2π 2π N
−j r n0 j (r−k) n −j r n0
X
ar e N e N = ar e N
2π , (15.44)
r=0 1 − ej (r−k) N

5. Cuando r 6= k, entonces

1 − ej(r−k) N N
1 − ej (r−k) 2 π
2π = 2π , (15.45)
1 − ej (r−k) N 1 − ej (r−k) N

1 − ej (r−k) 2 π 1−1
2π = 2π = 0. (15.46)
1 − ej (r−k) N 1 − ej (r−k) N

6. Cuando r = k, entonces
−1  2π
1 NX −j k 2Nπ n0 j (k−k) 2Nπ n
 ar e−j r N n0 N
ak e e = , (15.47)
N n=0 N

y por lo tanto

bk = ak e−j k N
n0
. (15.48)

279
15.3.3 Desplazamiento en frecuencia
Consideremos una señal perı́odica N , x [n] = x [n + N ], con coeficientes de Fourier
ak . Es posible probar que al multiplicar x[n] por una armónica M , los coeficientes se
desplazan en frecuencia, lo que se expresa como
2π FS
ej M ( N ) n x [n] a . (15.49)
←→ k−M

15.3.4 Conjugación
Consideremos una señal perı́odica N , x [n] = x [n + N ], con coeficientes de Fourier
ak . Es posible probar que al conjugar x[n], los coeficientes se conjugan y invierten en
frecuencia, lo que se expresa como
FS ∗
x∗ [n] a , (15.50)
←→ −k

15.3.5 Inversión temporal


Consideremos una señal perı́odica N , x [n] = x [n + N ], con coeficientes de Fourier ak .
Sea
y [n] = x [−n] , (15.51)
Puede probarse que los coeficientes ak y bk se relacionan
FS
y [n] b = a−k , (15.52)
←→ k

como se puede comprobar


N −1 0
2π 2π
ak e−j k n
a−l ej l n
X X
x [−n] = N = N . (15.53)
k=0 l=1−N

15.3.6 Escalado temporal


Consideremos una señal perı́odica N , x [n] = x [n + N ], con coeficientes de Fourier ak .
Consideremos la señal xm = x[n + m N ],
(
x [m] , n = p m,
xm [n] = (15.54)
0 n = p m + q, 0 < q < m.

Puede probarse la relación


F S ak
xm [n] . (15.55)
←→ m

280
15.3.7 Convolución periódica
Consideremos dos señales perı́dicas x[n] = x[n + N ] e y[n] = y[n + N ], con coeficientes
de Fourier ak y bk . Puede definirse la operación convolución circular y calcularse los
coeficientes de Fourier correspondientes
N −1
X FS
x [r] y [n − r] c = N a k bk . (15.56)
r=0
←→ k

15.3.8 Multiplicación
Consideremos dos señales perı́odicas x[n] = x[n + N ] e y[n] = y[n + N ], con coeficientes
de Fourier ak y bk . Puede definirse la operación producto y calcularse los coeficientes de
Fourier correspondientes
N −1
FS X
x [n] y [n] c = ar bk−r . (15.57)
←→ k r=0

15.3.9 Primera diferencia


Consideremos una señal perı́odica N , x [n] = x [n + N ], con coeficientes de Fourier ak .
Puede definirse la operación primera diferencia y calcularse los coeficientes de Fourier
correspondientes
FS  2π

x [n] − x [n − 1] 1 − e−j k N ak , (15.58)
←→

15.3.10 Suma corrida


Consideremos una señal perı́odica N , x [n] = x [n + N ], con coeficientes de Fourier
ak . Puede definirse la operación suma corrida y calcularse los coeficientes de Fourier
correspondientes
n
X FS ak
y [n] = x [k] . (15.59)
←→
 2π
k=−∞ 1 − e−j k N

15.3.11 Conjugación y simetrı́a de la conjugación


Consideremos una señal perı́odica N , x [n] = x [n + N ], con coeficientes de Fourier ak .
Entonces pueden verificarse la simetrı́a de la conjugación

a−k = ak . (15.60)

281
15.3.12 Señales reales pares
Consideremos una señal perı́odica N , x [n] = x [n + N ], con coeficientes de Fourier ak .
La señal x[n] es par si y solo si la parte imaginaria de sus coeficientes es nula para todo
k, o en otras palabras,
a−k = ak . (15.61)

15.3.13 Señales reales impares


Consideremos una señal perı́odica N , x [n] = x [n + N ], con coeficientes de Fourier ak .
La señal x[n] es impar si y solo si la parte real de sus coeficientes es nula para todo k,
o en otras palabras,
a−k = −ak . (15.62)

15.3.14 Parte par e impar de señales reales


La partes pares e impares de una señal real de tiempo discreto x[n] = x[n + N ] con
coeficientes de Fourier ak pueden calcularse a partir de sus coeficientes de Fourier
x [n] = xp [n] + xi [n] , (15.63)
xp [n] = xp [−n] , (15.64)
xi [n] = −xi [−n] , (15.65)
FS
xp [n] < (ak ) , (15.66)
←→
FS
xi [n] = (ak ) . (15.67)
←→

15.3.15 Relación de Parseval


1. La potencia media de una señal periódica N es
−1 −1
1 NX 1 NX
|x [n]|2 = x [n] x [n] (15.68)
N n=0 N n=0

2. Sustituyendo la función conjugada por su serie de Fourier obtenemos


−1 −1 −1
1 NX 1 NX 1 NX
!

|x [n]|2 = x [n] ak e−j N k n . (15.69)
N n=0 N n=0 N k=0

3. Intercambiando sumatorias obtenemos


−1 −1 −1
1 NX 1 NX 1 NX
!

|x [n]|2 = ak x [n] e−j N k n . (15.70)
N n=0 N k=0 N k=0

282
4. Finalmente, observemos que la expresión entre paréntesis puede sustituirse por ak
−1
1 NX N
|x [n]|2 =
X
ak ak . (15.71)
N n=0 k=0

5. La secuencia |ak |2 , k = 0, 1, ...N −1 se denomina Espectro de Densidad de Potencia.

15.4 Cálculo de los coeficientes, otra vez


15.4.1 FFT, Teorı́a
A continuación vamos a ver el desarrollo de ideas de la transformada rápida de Fourier,
o Fast Fourier Transform.
1. Si observamos la fórmula para calcular los coeficientes de las series de Fourier de
tiempo discreto,
−1
1 NX 2π
ar = x [n] e−j r N n , (15.72)
N n=0
notaremos que es posible expresarla como
−1
1 NX
ar = x [n] W n r , (15.73)
N n=0
definiendo

W = e−j N . (15.74)
2. Con esta transformación es inmediato ver que el coeficiente ar puede expresarse
como el producto de dos vectores
 
x[0]
...
 
h i  
W r 0 ... W r n ... W r (N −1) · 
 
N ar =  x[n] .
 (15.75)

 ... 

x[N − 1]

3. Por lo tanto, todos los coeficientes de la serie de Fourier pueden calcularse como
un producto de matriz por vector
W00 W0n W 0 (N −1)
     
a[0] ... ... x[0]
... ... .... ... ... ... ...
     
     
Wr0 Wrn W r (N −1)
     
N 
 a[r] 
 = 
 ... ... 
 = 
 x[n]  .

 ... 


 ... .... ... ... ... 


 ... 

(N −1) 0 (N −1) n (N −1) (N −1)
a[N − 1] W ... W ... W x[N − 1]
(15.76)

283
4. Esta última ecuación transforma la representación x[n] del dominio del tiempo en
la representación a[k] del dominio de la frecuencia.

5. Podemos definir entonces la matriz


W00 W0n W 0 (N −1)
 
... ...
... .... ... ... ...
 
 
Wr0 Wrn W r (N −1)
 
MN = 
 ... ... .
 (15.77)

 ... .... ... ... ... 

(N −1) 0 (N −1) n (N −1) (N −1)
W ... W ... W

6. La matriz MN tiene propiedades interesantes:

(a) La matriz MN es simétrica.


(b) El producto de MN por su transpuesta es igual a N veces la matriz identidad
I
MtN · MN = MN · MtN = N I. (15.78)
(c) El vector de coeficientes de Fourier a puede obtenerse con la fórmula

N a = MN · x, (15.79)

y el vector x muestras en el dominio del tiempo puede recuperarse a partir


de los coeficientes a
N MtN · a = x. (15.80)

15.4.2 FFT, práctica


Como generar la matriz M
Generamos la matriz M y verificamos sus propiedades.
# demo matriz .m
# Como g e n e r a r l a m a t r i z M de l a t r a n s f o r m a d a r a p i d a de F o u r i e r

# Elegimos e l p e r i o d o
N = 4;

# v e c t o r de tiempo d i s c r e t o
n = ( 0 : ( N− 1 ) ) ’ ;

# Constante W
W = exp(− j ∗ 2 ∗ p i / N ) ;

284
# Matriz M

M = W. ˆ ( n∗n ’ ) ;

d i s p ( ’ $Matriz M {4} $ ’ )
M

d i s p ( ’ $M {4}ˆ{ t } \ cdot M {4} / N$ ’ )


M’ ∗M/N

d i s p ( ’ $M {4} \ cdot M {4}ˆ{ t } / N$ ’ )


M∗M’ /N

15.4.3 Como usar la función fft de Matlab/Octave


f u n c t i o n [Xw, w] = m y f f t ( xn , Dt ) ;
# xn muestras en e l dominio d e l tiempo
# Dt tiempo de muestreo
# Xw t r a n s f o r m a d a r a p i d a de F o u r i e r
# w vector frecuencia
N = l e n g t h ( xn ) ;
Xw = f f t s h i f t ( f f t ( xn ) ) / N;
w = 2 ∗ p i ∗ ( ( 1 :N) − c e i l (N/ 2 ) ) / N / Dt ;

end

Dt = 1 / 2 0 0 ;
n = 0:1023;
xn = 1/2 + 1/4 ∗ c o s ( 2 ∗ p i ∗ 50 ∗ n ∗ Dt ) ;
[Xw, w] = m y f f t ( xn , Dt ) ;
f i g u r e ( 1 ) ; p l o t ( n∗Dt , xn , ’ − ’ ) ; t i t l e ( ’ xn = 1/2 + 1/4 ∗ c o s ( 2 ∗ p i ∗ 50 ∗
f i g u r e ( 2 ) ; p l o t (w, abs (Xw) , ’ : ∗ ’ ) ; t i t l e ( ’ f r e c u e n ci a angular ( radianes p
f i g u r e ( 3 ) ; p l o t (w / ( 2 ∗ p i ) , abs (Xw) , ’ : ∗ ’ ) ; t i t l e ( ’ f r e c u e n c i a en c i c l o

x1 = [ ones ( 6 4 , 1 ) ; z e r o s ( 6 4 , 1 ) ] ;
x2 = [ z e r o s ( 3 2 , 1 ) ; ones ( 6 4 , 1 ) ; z e r o s ( 3 2 , 1 ) ] ;
Dt = 1 ;
[ X1w, w1 ] = m y f f t ( x1 , Dt ) ;
[ X2w, w2 ] = m y f f t ( x2 , Dt ) ;

285
f i g u r e ( 1 ) ; p l o t (w1 , abs (X1w ) , ’ . ’ ) ;
f i g u r e ( 2 ) ; p l o t (w2 , abs (X2w ) , ’ . ’ ) ;
c1 = atan ( imag (X1w ) . / r e a l (X1w ) ) ;
c2 = atan ( imag (X2w ) . / r e a l (X2w ) ) ;
f i g u r e ( 3 ) ; p l o t (w1 , c1 , ’ . ’ ) ; a x i s ([ − pi , pi , − 1 , 1 ] )
f i g u r e ( 4 ) ; p l o t (w2 , c2 , ’ . ’ ) ; a x i s ([ − pi , pi , − 1 , 1 ] )

d e s f a s e A = exp(− I ∗ ( 1 : 1 2 8 ) ’ ∗ 2 ∗ p i ∗ 32/ 1 2 8 ) ;
d e s f a s e B = X1w . / X2w ;
15.4.4 Las diferencias entre notas musicales de diferentes in-
strumentos
# Data

[ sound 1 , f s 1 ] = a u d i o r e a d ( ’ 4 4 0 H z 4 4 1 0 0 H z 1 6 b i t 0 5 s e c . wav ’ ) ;
[ sound 2 , f s 2 ] = a u d i o r e a d ( ’ 4 4 0 Hz piano . wav ’ ) ;
[ sound 3 , f s 3 ] = a u d i o r e a d ( ’ 4 4 0 H z v i o l i n A 4 . wav ’ ) ;

#
disp ( ’ frequency , s i z e : ’ )
d i s p ( ’ pure tone ( f r e q u e n c y , s i z e ) : ’ ) ; d i s p ( f s 1 ) ; d i s p ( s i z e ( sound 1 ) )
d i s p ( ’ piano ( frequency , s i z e ) : ’); d i s p ( f s 2 ) ; d i s p ( s i z e ( sound
disp ( ’ v i o l i n ( frequency , s i z e ) : ’); d i s p ( f s 3 ) ; d i s p ( s i z e ( sound 3

# s l i d i n g window
start = 1.2;
stop = 1 . 2 1 1 ;
channel = 0 ;

# sound f r a g m e n t s
dt 1 = 1 / f s 1 ;
t 1 = ( s t a r t : dt 1 : stop ) ’ ;
samples = l e n g t h ( t 1 ) − 1 ;
f r a g m e n t 1 = sound 1 ( f l o o r ( s t a r t / d t 1 ) : f l o o r ( s t a r t / d t 1 ) + samples ) ;

dt 2 = 1 / f s 2 ;
t 2 = ( s t a r t : dt 2 : stop ) ’ ;
samples = l e n g t h ( t 2 ) − 1 ;
f r a g m e n t 2 = sound 2 ( f l o o r ( s t a r t / d t 2 ) : f l o o r ( s t a r t / d t 2 ) + samples ) ;

286
dt 3 = 1 / f s 3 ;
t 3 = ( s t a r t : dt 3 : stop ) ’ ;
samples = l e n g t h ( t 3 ) − 1 ;
f r a g m e n t 3 = sound 3 ( f l o o r ( s t a r t / d t 3 ) : f l o o r ( s t a r t / d t 3 ) + samples ) ;

figure (1)
subplot (311)
plot ( t 1 , fragment 1 )
y l a b e l ( ’ pure tone ’ )
subplot (312)
plot ( t 2 , fragment 2 )
y l a b e l ( ’ piano ’ )
subplot (313)
plot ( t 3 , fragment 3 )
ylabel ( ’ violin ’)
xlabel ( ’ t secs . ’)

[ Xw 1 , w 1 ] = m y f f t ( fragment 1 , d t 1 ) ;
[ Xw 2 , w 2 ] = m y f f t ( fragment 2 , d t 2 ) ;
[ Xw 3 , w 3 ] = m y f f t ( fragment 3 , d t 3 ) ;

figure (2)
subplot (311)
p l o t ( w 1 , abs ( Xw 1 ) )
y l a b e l ( ’ pure tone ’ )
subplot (312)
p l o t ( w 2 , abs ( Xw 2 ) )
y l a b e l ( ’ piano ’ )
subplot (313)
p l o t ( w 3 , abs ( Xw 3 ) )
ylabel ( ’ violin ’)
x l a b e l ( ’ \ omega r a d i a n s / s e c s ’ )

287
Capı́tulo 16

Transformada de Fourier de tiempo


discreto

16.1 Introducción
1. Vamos a ver como podemos modificar el concepto de serie de Fourier que rela-
cionamos normalmente con las funciones periódicas de tiempo discreto para es-
tudiar funciones no periódicas de tiempo discreto. Esto nos permite definir el
concepto de contenido de frecuencias de una señal, aún cuando sea aperiódica.
2. Pensemos en una señal x̂ [n] periódica de tiempo discreto con un perı́odo funda-
mental 2N + 1 definida por
−N ≤ n < −N1 → x̂[n] = 0,
−N1 ≤ n ≤ N1 → x̂[n] = 1, (16.1)
N1 < n ≤ N → x̂[n] = 0.
x̂ [n] = x̂ [n + 2 N + 1] . (16.2)

3. Recordemos la ecuación de análisis de la serie de Fourier de tiempo discreto: para


este caso podemos escribir ası́
N1
1
x̂ [n] e−j k ωN n ,
X
ak = (16.3)
2N + 1 n=−N1


donde ωN = 2 N +1
.
4. Para el caso k = 0 obtenemos el coeficiente a0 (comúnmente llamado en electrónica
nivel de continua)
N1
1 X 2 N1 + 1
a0 = 1= . (16.4)
2 N + 1 n=−N1 2N + 1

288
El valor 22NN1+1
+1
es denominado ciclo de trabajo del tren de pulsos, e indica el
porcentaje del perı́odo en que la señal es igual a 1.

5. Para el caso k 6= 0 obtenemos los demás coeficientes ak


N1
1
e−j k ωN n .
X
ak = (16.5)
2 N + 1 n=−N1

6. Multiplicando ambos lados de la ecuación por 2 N + 1 y desdoblando la sumatoria


resulta
−1 N1
e−j k ωN n + e−j k ωN n + 1,
X X
(2 N + 1) ak = (16.6)
n=−N1 n=1

que podemos escribir como


0 N1
e−j k ωN n + e−j k ωN n − 1,
X X
(2 N + 1) ak = (16.7)
n=−N1 n=0

teniendo en cuenta que al poner un lı́mite igual a 0 en ambas sumatorias estamos


sumando dos veces un término e0 = 1 y necesitamos 2 para no alterar la igualdad.

7. Invertimos los lı́mites en la primer sumatoria e invertimos el signo del exponente


correspondiente para no alterar el resultado
N1 N1
ej k ωN n + e−j k ωN n − 1.
X X
(2 N + 1) ak = (16.8)
n=0 n=0

8. Tenemos entonces dos sumatorias de sucesiones geométricas. Por lo tanto podemos


escribir
1 − ej k ωN (N1 +1) 1 − e−j k ωN (N1 +1)
(2 N + 1) ak = + − 1. (16.9)
1 − ej k ω N 1 − e−j k ωN
9. La utilidad de la ecuación (16.9) se ve si la escribimos ası́

1 − ej ω (N1 +1) 1 − e−j ω (N1 +1)





(2 N + 1) ak = X(e ) = + − 1 ,

1−e j ω 1−e −j ω

ω=k ωN
ω=k ωN
(16.10)
y entonces es evidente que la podemos interpretar como una secuencia formada
por muestras de una función envolvente. La variable ω es continua y la función
continua X(ej ω ) muestreada en (16.10) es la envolvente de la secuencia N ak ,
formada por valores igualmente espaciados en frecuencia.

289
10. Observe que la separación de las muestras de la envolvente de N ak está dada por

ωN = . (16.11)
2N + 1
Entonces, cuando mayor sea N menor será ωN y la cantidad de muestras en un
intervalo dado de frecuencia será mayor.
11. Si fijamos el valor N1 (recordando que debe ser N1 < N, por hipótesis) la envol-
vente de N ak es independiente de N .

16.2 Las ecuaciones de análisis y sı́ntesis


16.2.1 Análisis
1. Definamos una señal x [n] no periódica
(0 ≤ n ≤ N1 ) → x [n] 6= 0, (16.12)
(n < 0) ∨ (N1 < n) → x [n] = 0. (16.13)

2. Definamos una señal periódica x̃ [n] = x̃ [n + N ] (donde N > N1 ) de forma tal que
(n mod N ) > N1 → x̃ [n] = 0, (16.14)
(n mod N ) ≤ N1 → x̃ [n] = x [n mod N ] . (16.15)

3. La señal periódica x̃ [n] se puede escribir como una serie de Fourier


N −1

ak e j k ( N ) n ,
X
x̃ [n] = (16.16)
k=0

donde
N −1

x̃ [n] e−j k ( N ) n .
X
N ak = (16.17)
n=0

4. Entonces como x̃ [n] = x [n] en el intervalo [0, N − 1] se puede reemplazar x̃ [n] por
x [n]
N −1 N −1
2π 2π
x̃ [n] e−j k ( N ) n = x [n] e−j k ( N ) n .
X X
N ak = (16.18)
n=0 n=0

5. Además como x [n] = 0 fuera del intervalo [0, N1 ] podemos cambiar los lı́mites de
la sumatoria
N −1 ∞
2π 2π
x [n] e−j k ( N ) n = x [n] e−j k ( N ) n .
X X
N ak = (16.19)
n=0 n=−∞

290
6. Definimos la ecuación de análisis de la transformada de Fourier de tiempo discreto
  ∞  −n
X ej ω = x [n] ej ω
X
. (16.20)
n=−∞

16.2.2 Sı́ntesis
1. Entonces tenemos que los coeficientes de Fourier se pueden calcular
 
N ak = X ej k ωN , (16.21)

donde

ωN = . (16.22)
N
2. Por lo tanto podemos reescribir la serie de Fourier como
N −1
1  
X ej k ωN ej k ωN n .
X
x̃ [n] = (16.23)
k=0 N
2π ωN 1
Dado que ωN = N
tenemos que 2π
= N
y por lo tanto
−1
1 NX  
x̃ [n] = X ej k ωN ej k ωN n ωN . (16.24)
2 π k=0

A medida que la cantidad de puntos N → ∞, la frecuencia tiende a un diferencial


ωN → dω, la función periódica se parece cada vez más a la no periódica x̃ [n] →
x [n] , y se obtiene la ecuación de sı́ntesis
1 Z 2 π  j ω j ω n
x [n] = X e e dω. (16.25)
2π 0

16.3 Convergencia de la Transformada de Fourier


La transformada de Fourier
  ∞
X ej ω = x [n] e−j ω n ,
X
(16.26)
n=−∞

de una secuencia x [n] existe si se cumple



!
X
|x [n]| < M1 , (16.27)
n=−∞

291
o si se cumple

!
2
X
(x [n]) < M2 , (16.28)
n=−∞

donde M1 y M2 son dos números reales positivos finitos.


Observe que la ecuación de sı́ntesis no presenta problemas de convergencia pues sus
lı́mites de integración están restringidos a un perı́odo
1 Z 2 π  jkω  jkω n
x [n] = X e e dω. (16.29)
2π 0

16.4 Transformada de Fourier para señales periódicas


1. Consideremos la señal
x [n] = ej ω0 n . (16.30)

2. Podemos probar que su transformada de Fourier es


 
  ∞
X ej ω = 2 π 
X
δ (ω − ω0 − 2 π k) . (16.31)
k=−∞

3. Para hacerlo, usemos la ecuación de sı́ntesis


 

1 Z π  j ω j ω n 2π Z π  X
X e e dω = δ (ω − ω0 − 2 π k) ej ω n dω. (16.32)
2 π −π 2 π −π k=−∞

4. Observemos que el intervalo [−π, π] contiene exactamente un impulso en ω =


ω0 + 2 π k, por lo tanto
1 Z π  j ω j ω n Z π
X e e dω = δ (ω − ω0 − 2 π k) ej ω n dω = ej (ω0 +2 π k) n . (16.33)
2 π −π −π

5. En general, a la señal periódica


N −1

ak ej k( N ) n ,
X
x [n] = (16.34)
k=0

le corresponde la transformada
 !

  2πk 
X ej ω
X
= 2π  ak δ ω − . (16.35)
k=−∞ N

292
6. Para probarlo, usemos la ecuación de sı́ntesis
 

!
1 Z 2 π  j ω j ω n 1 Z 2π  X 2π k  jωn
X e e dω = 2 π ak δ ω − e dω.
2π 0 2π 0 k=−∞ N
(16.36)
Asi obtenemos
1 R 2 π P∞ 
2πk

2π 0 k=−∞ 2 π ak δ ω − N
ej ω n dω =
P    (16.37)
∞ R 2π 2πk jωn
k=−∞ ak 0 δ ω− N
e dω .

7. Aplicando la propiedad del muestreo


! !
2π k jωn 2 π k j2πkn
δ ω− e =δ ω− e N , (16.38)
N N
intercambiando la posición de las sumatorias y las integrales, y simplificando coe-
ficientes se obtiene
P∞ R 2π  
2πk
k=−∞ ak 0 δ ω− N
ej ω n dω =
R    (16.39)
P∞ 2πk 2π 2πk
j n
k=−∞ ak e N
0 δ ω− N
dω .

8. Evaluemos la integral de acuerdo al valor de k. Sabemos que se debe cumplir


ω = 2 Nπ k en el intervalo de integración para que la integral no sea nula
Z 2π ! (
2πk 1 0 ≤ k < N,
δ ω− dω = (16.40)
0 N 0 (k < 0) ∨ (N ≤ k) .

9. Evaluamos la sumatoria de integrales para obtener


∞ N −1
Z 2π ! !
j 2N
πk
n 2πk 2πk
ak ej n
X X
ak e δ ω− dω = N . (16.41)
k=−∞ 0 N k=0

10. Obtenemos finalmente la sı́ntesis


N −1
1 Z 2 π  j ω j ω n 2πk
ak ej N n .
X
x [n] = X e e dω = (16.42)
2π 0 k=0

16.5 Propiedades de la Transformada de Fourier de


tiempo discreto
16.5.1 Ecuación de sı́ntesis
1 Z 2 π  jkω  jkω n
x [n] = X e e dω. (16.43)
2π 0

293
16.5.2 Ecuación de análisis

x [n] e−j ω n .
X
X (j ω) = (16.44)
n=−∞

16.5.3 Notación
TF  
x [n] X ej ω . (16.45)

16.5.4 Periodicidad
   
X ej(ω+2 π) = X ej ω . (16.46)

16.5.5 Linealidad
TF  
x [n] X ej ω , (16.47)

F  
y [n] Y ej ω , (16.48)

TF    
a x [n] + b y [n] a X ej ω + b Y ej ω . (16.49)

16.5.6 Desplazamiento en el tiempo


TF  
x [n] X ej ω , (16.50)

T F −j ω n0  j ω 
x [n − n0 ] e X e , (16.51)

16.5.7 Desplazamiento en frecuencia


TF  
x [n] X ej ω . (16.52)

TF  
e−j ω0 n x [n] X ej(ω−ω0 ) . (16.53)

294
16.5.8 Conjugación y simetrı́a del conjugado
TF  
x [n] X ej ω , (16.54)

TF    
x [n] = x̄ [n] X e−j ω = X̄ e−j ω , (16.55)

Si x [n] es real

T F h  j ω i
Even (x [n]) < X e , (16.56)

T F h  j ω i
Odd (x [n]) = X e . (16.57)

16.5.9 Diferencia
TF  
x [n] X ej ω , (16.58)

TF    
x [n] − x [n − 1] 1 − ej ω X ej ω . (16.59)

16.5.10 Suma
TF  
x [n] X ej ω , (16.60)

n ∞
X F X (ej ω )   X
j0
x [k] = + πX e δ (ω − 2 πk) . (16.61)
k=−∞
↔ (1 − ej ω ) k=−∞

16.5.11 Diferenciación en frecuencia


TF  
x [n] X ej ω , (16.62)

T F dX (ej ω )
nx [n] j . (16.63)
↔ dω

16.5.12 Relación de Parseval



X 1 Z 2 π  j ω  2
2
|x [n]| = X e dω. (16.64)
n=−∞ 2π 0

295
16.5.13 Convolución
TF  
x [n] X ej ω , (16.65)

TF  
y [n] Y ej ω , (16.66)

TF  
h [n] H ej ω , (16.67)

TF      
y [n] = h [n] x [n] Y ej ω = H ej ω X ej ω . (16.68)

16.5.14 Multiplicación
F  
x [n] X ej ω , (16.69)

F  
y [n] Y ej ω , (16.70)

F  
r [n] R ej ω , (16.71)

T F  j ω 1 Z ∞  jθ   j(ω−θ) 
r [n] = x [n] y [n] R e = X e Y e dθ. (16.72)
↔ 2 π −∞

296
Capı́tulo 17

La transformada Zeta

17.1 Introducción
17.1.1 Origen de la transformada Zeta
1. Calculemos la salida de un sistema LIT de tiempo discreto y respuesta al impulso
h[n] cuando la entrada es x[n] = z n (z es una variable compleja) mediante la suma
de convolución ∞ ∞
h[k] z n−k .
X X
y[n] = h[k] x[n − k] = (17.1)
k=−∞ k=−∞

2. Observemos que z n−k = z n z −k . Por lo tanto podemos escribir


 

h[k] z −k  z n = Z{h[n]} z n ,
X
y[n] =  (17.2)
k=−∞

dado que el factor z n es una constante para la sumatoria. En este caso, Z{h[n]}
representa a la transformada Z bilateral de h[n].

3. En el caso especial en que el sistema sea causal, la respuesta al impulso es nula


para n < 0. Entonces la ecuación (17.2) se modifica

!
−k
z n = Z + {h[n]} z n .
X
y[n] = h[k] z (17.3)
k=0

En este caso, Z + {h[n]} representa la transformada Z unilateral de h[n].

297
17.1.2 Ecuación de análisis (bilateral)
La transformada Z bilateral de una secuencia x [n] se define mediante la ecuación de
análisis ∞
x [n] z −n .
X
X (z) = (17.4)
n=−∞

17.1.3 Ecuación de análisis (unilateral)


La transformada Z unilateral de una secuencia x [n] se define mediante la ecuación de
análisis ∞
X + (z) = x [n] z −n .
X
(17.5)
n=0

Observe que la diferencia con la transformada bilateral es que el lı́mite inferior de la


sumatoria es 0, en vez de ser −∞. Esto significa que si la señal x[n] es nula para n < 0
ambas transformadas coinciden.

17.1.4 Ecuación de sı́ntesis


La transformada Z inversa (ya sea bilateral o unilateral) está definida por la ecuación
de sı́ntesis
1 I
x [n] = X (z) z n−1 dz. (17.6)
2πj C

17.1.5 Aclaraciones respecto a ambas transformadas


1. La función X (z), tanto para el caso bilateral como el unilateral, está definida para
una región en el plano complejo z, denominada región de convergencia, para
la cuál la sumatoria de la ecuación de análisis existe.

2. Como z es una cantidad compleja, X (z) es una función compleja de una variable
compleja. Entonces, la ecuación de sı́ntesis implica integración en el dominio
complejo z. Solamente usaremos esta fórmula para probar teoremas y en algunos
ejemplos puntuales.

17.1.6 Ejemplo
1. Calculemos la transformada Z bilateral de un impulso unitario x[n] = δ[n]. En-
tonces escribimos
∞ ∞
−k
δ[k] z −k .
X X
X(z) = x[k] z = (17.7)
k=−∞ k=−∞

298
Dado que δ[k] = 1 si y solo si k = 0, entonces resulta

δ[k] z −k = δ[0] z 0 = 1.
X
X(z) = (17.8)
k=−∞

2. Calculemos la transformada Z bilateral de un impulso unitario desplazado en el


tiempo x[n] = δ[n − m]. Entonces escribimos
∞ ∞
x[k] z −k = δ[k − m] z −k .
X X
X(z) = (17.9)
k=−∞ k=−∞

Dado que δ[k − m] = 1 si y solo si k − m = 0, entonces resulta k = m y



δ[k − m] z −k = δ[0] z −m = z −m .
X
X(z) = (17.10)
k=−∞

3. Calculemos la transformada Z bilateral de un escalón unitario x[n] = u[n]. En-


tonces escribimos
∞ ∞
−k
u[k] z −k .
X X
X(z) = x[k] z = (17.11)
k=−∞ k=−∞

Dado que u[k] = 1 si y solo si k ≥ 0, entonces resulta


∞ ∞
u[k] z −k = z −k .
X X
X(z) = (17.12)
k=−∞ k=0

Observemos que ∞ −k
es una serie geométrica de razón z −1 . Para que esta
P
k=0 z
serie sea convergente debe ser ||z −1 || ≤ 1.
4. Calculemos la transformada Z bilateral de una exponencial causal de duración
infinita
x [n] = an u [n] . (17.13)
5. La ecuación de análisis correspondiente es

x [k] z −k .
X
X (z) = (17.14)
k=−∞

6. Por lo tanto, escribimos


∞ ∞
1
ak u[k] z −k = ak z −k =
X X
X (z) = , (17.15)
k=−∞ k=0 1 − a z −1
donde |a z −1 | < 1 ⇔ |z| > |a|.
7. La región de convergencia es el exterior de un cı́rculo de radio |a| centrado en el
orı́gen.

299
17.2 La transformada Z, la transformada de Fourier,
y la región de convergencia
17.2.1 Desarrollo teórico
1. Consideremos la ecuación de sı́ntesis de la transformada bilateral

x[k] z −k .
X
X(z) = (17.16)
k=−∞

2. Expresemos la variable compleja z en forma polar

z = r ejω , (17.17)

donde r = kzk, y ω = 6 (z), obteniendo


  ∞  −k
X r ej ω = x [k] r ej ω
X
. (17.18)
k=−∞

Reagrupando factores, resulta finalmente


  ∞  
X r ej ω = x [k] r−k e−jkω .
X
(17.19)
k=−∞

3. La función X (r ej ω ) es la Transformada de Fourier del producto x [k] r−k , y la


Transformada Zeta evaluada sobre el cı́rculo unitario ej ω coincide con la Trans-
formada de Fourier.

4. Para que exista la transformada Z de x[k] debe existir la transformada discreta


de Fourier de x[k] r−k para algún valor de r.

5. Los valores de r para los cuales existe la transformada discreta de Fourier de


x[k] r−k definen la región de convergencia de la transformada Z de x[n].

6. Cuando hablamos de la existencia de X(z), lo que estamos afirmando es que la


magnitud de X(z) está acotada por un número M finito

kX(z)k < M < ∞. (17.20)

Por lo tanto, para determinar la región de convergencia debemos encontrar una


cota superior para kX(z)k. Para esto planteamos


X
−k −j ωn

kX(z)k =
x[k] r e . (17.21)
k=−∞

300
Aplicando la desigualdad triangular

x[k] r −k e−j ω n ,
X
kX(z)k ≤
(17.22)
k=−∞

y dado que e−j ω k = 1, finalmente obtenemos


x[k] r −k
X
kX(z)k ≤ ≤ M. (17.23)

k=−∞

7. Podemos sacar como conclusión que determinar la región de convergencia equivale


a hallar los valores de r para los cuales la secuencia x[n] r−n es absolutamente
sumable. Esto coincide con las condiciones de Dirichlet para la existencia de la
transformada de Fourier.

8. Veremos en lo sucesivo que el cı́rculo unitario en el plano z equivale al eje imagi-


nario en el plano s.

17.2.2 Reglas prácticas para determinar la región de conver-


gencia
1. La región de convergencia de X (z) consiste en un anillo en el plano z centrado en
el origen.

2. La región de convergencia no contiene polos.

3. Si la secuencia x [n] es de duración finita, entonces la región de convergencia es el


plano z entero, excepto posiblemente en el origen z = 0 y en el infinito kzk = ∞.

4. Si x [n] es una secuencia derecha, y si el cı́rculo kzk = r0 está en la región de


convergencia, entonces todos los valores finitos de z para los cuales kzk > r0 están
también en la región de convergencia.

5. Si x [n] es una secuencia izquierda, y si el cı́rculo kzk = r0 está en la región de


convergencia, entonces todos los valores finitos de z para los cuales kzk < r0 están
también en la región de convergencia.

6. Si x [n] es una secuencia bilateral, y si el cı́rculo kzk = r0 está en la región de


convergencia, entonces la región de convergencia consiste en un anillo que contiene
a kzk = r0 .

7. Si X (z) correspondiente a x [n] es racional, entonces la región de convergencia


está limitada por polos o se extiende hasta el infinito.

301
8. Si X (z) correspondiente a x [n] es racional, y si x [n] es derecha, entonces la
región de convergencia está ubicada fuera del cı́rculo que contiene al polo de mayor
magnitud. Además, si x [n] es causal (o sea, si es derecha y nula para n < 0),
entonces la región de convergencia también incluye z = ∞.

9. Si X (z) correspondiente a x [n] es racional, y si x [n] es izquierda, entonces la


región de convergencia está ubicada dentro del cı́rculo que contiene al polo de
menor magnitud. Además, si x [n] es nocausal (o sea, si es izquierda y nula para
n > 0), entonces la región de convergencia también incluye z = 0.

17.3 La transformada Zeta bilateral


17.3.1 El par función temporal transformada
Indicaremos el par formado por una función temporal y su transformada como

Z
x [n] X (z) . (17.24)

17.3.2 Propiedades
La siguiente tabla resume algunas propiedades de la transformada Z bilateral.

Señal Transformada Región de convergencia

a x [n] + b y [n] a X (z) + b Y (z) ⊃ (Rx ∩ Ry )

x [n − n0 ] z −n0 X (z) Rx

dX(z)
nx [n] −z dz
Rx

x [n] y [n] X (z) ∗ Y (z) ⊃ (Rx ∩ Ry )

x [n] ∗ y [n] X (z) Y (z) ⊃ (Rx ∩ Ry )

17.3.3 Linealidad
Z
a x [n] + b y [n] a X (z) + b Y (z) . (17.25)

302
17.3.4 Demora n0
Z −n0
x [n − n0 ] z X (z) . (17.26)

17.3.5 Multiplicación por n


Z dX (z)
n x [n] −z . (17.27)
⇔ dz

17.3.6 Convolución en z
Z
x [n] y [n] X (z) ∗ Y (z) . (17.28)

17.3.7 Convolución en n
Z
x [n] ∗ y [n] X (z) Y (z) . (17.29)

17.4 Transformada Zeta de algunas secuencias


17.4.1 Secuencia impulso unitario
x [n] = δ [n] , (17.30)


δ [n] z −n ,
X
X (z) = (17.31)
n=−∞

X (z) = 1 z 0 = 1. (17.32)
Región de convergencia: todo el plano z.

17.4.2 Secuencia escalón unitario


x [n] = u [n] , (17.33)


u [n] z −n ,
X
X (z) = (17.34)
n=−∞

1
z −n =
X −1
X (z) = , z < 1. (17.35)
1 − z −1

n=0
Región de convergencia: exterior del cı́rculo unitario centrado en el orı́gen, |z −1 | <
1 ⇔ |z| > 1.

303
17.5 Relación entre secuencias causales y diagramas
de ceros y polos
17.5.1 Secuencia exponencial causal
Recordemos que la transformada Z de una exponencial causal

x [n] = an u [n] . (17.36)

es
1
X (z) = , (17.37)
1 − a z −1
donde
−1
a z < 1 ⇔ |z| > |a| . (17.38)
y por lo tanto la región de convergencia es el exterior de un cı́rculo de radio |a| centrado
en el orı́gen.

17.5.2 Secuencia exponencial no causal


1. Calculemos la transformada Z de una exponencial no causal

x [n] = −an u [−n − 1] . (17.39)

2. La ecuación de análisis correspondiente es



x [n] z −n ,
X
X (z) = (17.40)
n=−∞

3. En este caso especial, podemos escribir



(−an u [−n − 1]) z −n .
X
X (z) = (17.41)
n=−∞

4. Por lo tanto, resulta


−1  n ∞  −n
a z −1 a−1 z
X X
X (z) = − =− . (17.42)
n=−∞ n=1

5. Finalmente,
∞  −n (a−1 z)
a−1 z
X
X (z) = − = . (17.43)
n=1 1 − (a−1 z)

304
6. Observe que reacomodando el resultado anterior, obtenemos

(a−1 z) 1
X (z) = −1
= , (17.44)
1 − (a z) 1 − a z −1

donde
−1
a z < 1 ⇔ |z| < |a| . (17.45)

7. La región de convergencia es el interior del cı́rculo de radio |a|.

17.5.3 Comparación entre secuencias causales y no causales


1. Las secuencias causales y anticausales pueden tener la misma transformada Z pero
distintas regiones de convergencia.

2. Las secuencias causales tienen regiones de convergencia en el exterior de un cı́rculo


que intersecta al polo de la transformada Z.

3. Las secuencias anticausales tienen regiones de convergencia en el interior de un


cı́rculo que intersecta al polo de la transformada Z.

4. Las secuencias estables, (causales y anticausales), tienen regiones de convergencia


que incluyen el cı́rculo unitario.

17.5.4 Secuencias bilaterales


1. Consideremos la secuencia bilateral

x [n] = a−n u [−n − 1] + an u [n] , (17.46)

donde 0 < a < 1.

2. Su transformada Z es
1 1 z (a − a−1 )
−1 z −1
X (z) = |1 − a{z 1 − {z
} + |
a z −1} = (z − a−1 ) (z − a) (17.47)
| {z }
|z| < a1 |z| > a a < |z| < a1

17.6 La transformada Zeta Inversa


Veremos como determinar la secuencia a partir de su transformada Zeta.

305
17.6.1 Primer método
1. Recordemos que la transformada Zeta de una secuencia puede ser interpretada
como la transformada de Fourier de una secuencia con coeficientes exponenciales

TF  
x[n] r−n X r ejω , (17.48)

para todo valor de r tal que z = r ejω pertenezca a la región de convergencia.

2. Aplicando la transformada inversa de Fourier a ambos lados de la ecuación obten-


emos
1 Z 2π
x[n] r−n = X(r ejω ) ejωn dω, (17.49)
2π 0
3. Multiplicando ambos lados de la ecuación por rn obtenemos finalmente
1 Z 2π
x[n] = X(r ejω ) (r ejω )n dω, (17.50)
2π 0
Esto significa que podemos recuperar x[n] partiendo de su transformada Z evalu-
ada a lo largo de una trayectoria z = r ejω incluı́da en su región de convergencia,
con r fija y ω variable en un intervalo de longitud 2 π.

4. Apliquemos un cambio de variable de integración definido por z = r ejω . Por lo


tanto
dz = j r ejω dω = j z dω, (17.51)
y
1 −1
z dz = dω. (17.52)
j
Entonces, la integral (17.50) se puede reescribir como
1 I
x[n] = X(z) z n−1 dz. (17.53)
2πj C
donde C simboliza el contorno de integración de la integral curvilı́nea.

5. Existen dos teoremas, debidos a Cauchy, que nos permiten evaluar integrales
curvilı́neas en el plano complejo.

(a) El primer teorema de los residuos de Cauchy afirma que

1 I f (z)
dz = f (z0 ), (17.54)
2 π j C z − z0

306
si z0 es interior al contorno C, y
1 I f (z)
dz = 0 (17.55)
2 π j C z − z0
si z0 es exterior al contorno C, donde f (z) es derivable sobre y en el interior
del contorno C y sin polos en z0 .
(b) El segundo teorema de Cauchy afirma que
n
1 I f (z) X
dz = Ai (zi ) (17.56)
2 π j C g(z) i=1

donde
f (z)
Ai (z) = (z − zi ) . (17.57)
g(z)
f (z)
son los residuos de g(z)
evaluados en los polos zi , si se cumplen las siguientes
condiciones
i. f (z) se mantiene acotada en el interior del contorno C.
ii. g(z) es un polinomio con N raı́ces simples (o sea, distintas) zi , i ∈ [1, N ]
en el interior del contorno C.

6. Para poder aplicar estos teoremas, supongamos que es posible factorizar


N (z)
X(z) z −n = , (17.58)
D(z)
donde D(z) tiene M ceros zi simples (distintos) en el interior del contorno C.
Entonces podemos afirmar que
M
X
x[n] = Ai (zi ), (17.59)
i=1

donde (ver ec. 17.57)


Ai (z) = (z − zi ) X(z) z −n . (17.60)

17.6.2 Segundo método


Podemos expandir X(z) en una serie de potencias de z −n

cn z −n ,
X
X(z) = (17.61)
n=−∞

que converge en la región de convergencia correspondiente. En este caso,


x[n] = cn . (17.62)

307
17.6.3 Tercer método
Podemos expresar X(z) como una combinación lineal
M
X
X(z) = ai Xi (z), (17.63)
i=1

donde conozcamos las secuencias xi [n] correspondientes a cada Xi (z). En este caso
M
X
x[n] = ai xi [n]. (17.64)
i=1

17.6.4 Ejemplos
1. Consideremos la transformada Z
3 − 56 z −1
X(z) =   , (17.65)
1 − 14 z −1 1 − 13 z −1

donde |z| > 31 .

2. Tenemos dos polos, uno en z = 41 y otro en z = 13 . La región de convergencia está


fuera del cı́rculo definido por el polo más alejado del origen, y por lo tanto (ver las
reglas para determinar la región de convergencia en 17.2) la secuencia es lateral
derecha.

3. Expandiendo X(z) en fracciones parciales tenemos

A B
X(z) = 1 + , (17.66)
1− 4
z −1 1 − 31 z −1

donde
1

A = X(z) (1 − z −1 )

= 1, (17.67)
4 z= 41
y
1

B = X(z) (1 − z −1 )

= 2. (17.68)
3 z= 13

4. Recordando el ejemplo desarrollado en (17.1.6) podemos deducir los siguientes


pares de señales y transformadas

1 Z 1
x1 [n] = u[n] X (z) = 1− 14 z −1
, |z| > 14 , (17.69)
4n ⇔ 1

308
1 Z 1
x2 [n] = u[n] X (z) = 1− 13 z −1
, |z| > 13 , (17.70)
3n ⇔ 2
y en consecuencia, la secuencia buscada es
1 2
 
x[n] = n + n u[n]. (17.71)
4 3

17.7 Transformada Zeta Unilateral


17.7.1 Algunos comentarios
1. Hasta aquı́ hemos estado trabajando con la Transformada Zeta Bilateral. Sin em-
bargo, como en el caso de la Transformada de Laplace, existe una forma alternativa
denominada Transformada Zeta Unilateral, útil para analizar sistemas
causales que no están en reposo para un tiempo inicial dado.

2. Recordemos que la transformada Z unilateral de una secuencia x [n] se define


mediante la ecuación de análisis

+ +
x [n] z −n .
X
X (z) = Z {x[n]} = (17.72)
n=0

3. La transformada unilateral X + (z) no contiene información de x[n] para n < 0.

4. La transformada unilateral X + (z) es única sólo para señales causales.

5. La relación entre las transformadas unilateral y bilateral es

Z + {x[n]} = Z {x[n]u[n]} . (17.73)

6. Las propiedades de la transformada Z unilateral son similares a las de la transfor-


mada Z bilateral, excepto aquellas que impliquen un desplazamiento temporal.

17.7.2 Propiedades de la transformada Z unilateral


Supondremos que para una secuencia x[n] su transformada Z unilateral existe

Z+ +
x[n] X (z). (17.74)

309
Retardo de tiempo
1. Si x[n] no es causal, entonces
k
" #
Z + −k
X + (z) + x[−n] z n ,
X
x[n − k] z (17.75)
↔ n=1

para k > 0.

2. En cambio, si x[n] es causal, tenemos que

Z + −k +
x[n − k] z X (z), (17.76)

para k > 0.

Avance de tiempo
k−1
" #
Z+ k +
x[n] z −n ,
X
x[n + k] z X (z) − (17.77)
↔ n=0

para k > 0.

Teorema del valor final


Si la región de convergencia de (z − 1) X + (z) incluye el cı́rculo unitario, entonces

Lim Lim
x[n] = (z − 1) X + (z). (17.78)
n→∞ z→1

310
Capı́tulo 18

Ecuaciones de diferencias finitas

18.1 Introducción
En los sistemas lineales de tiempo discreto invariantes en el tiempo la entrada y la salida
están relacionadas por

1. una ecuación de diferencias


N
X M
X
ap y [n − p] = bq x [n − q] . (18.1)
p=0 q=0

2. la suma de convolución ∞
X
y[n] = x[k] h[n − k]. (18.2)
k=−∞

Ambas formas deben ser equivalentes. Justamente esta equivalencia da pie a que po-
damos usar la transformada Z para resolver ecuaciones de diferencias. Empezaremos
estudiando la equivalencia entre ambas formas de cálculo para entradas de la forma
x[n] = z n , y después generalizaremos considerando entradas para las que existan las
transformadas Z correspondientes.

18.2 Ecuación de diferencias con entrada exponen-


cial compleja
Consideremos una ecuación de diferencias de la forma
N
X M
X
ap y [n − p] = bq x [n − q] . (18.3)
p=0 q=0

311
Buscaremos la solución para entradas de la forma

x[n] = z n , (18.4)

donde z es una variable compleja.

18.2.1 Solución de una ecuación de diferencias homogénea


1. Denominaremos yh [n] a la solución de la ecuación homogénea
N
X
ap yh [n − p] = 0. (18.5)
p=0

2. Supongamos que la solución tiene la forma

yh [n] = Y λn , (18.6)

donde Y es una variable real. Observemos que

yh [n − p] = Y λn−p , (18.7)

para todos los valores de p en el intervalo [0, N ].

3. Sustituyendo en la ecuación diferencial homogénea obtenemos


 
N N
ap Y λn−p =  ap λ−p  Y λn = 0.
X X
(18.8)
p=0 p=0

No estamos interesados en la solución trivial Y = 0. Como la señal λn no se anula


para ningún valor de n, tiene que ser
   
N N
ap λ−p  = λ−N  ap λN −p  = 0.
X X
 (18.9)
p=0 p=0

4. Definimos entonces al polinomio caracterı́stico p(λ)


 
N N
ap λN −p  = a0
X Y
p(λ) =  (λ − λq ) = 0. (18.10)
p=0 q=1

Las raı́ces λq del polinomio caracterı́stico son llamadas frecuencias, modos natu-
rales o polos.

312
5. Si las frecuencias o modos naturales son distintos

(i 6= j ←→ λi 6= λj ) , (18.11)

entonces la solución más general tiene la forma


N
Yk λnk .
X
yh [n] = (18.12)
k=1

6. Si hay R < N frecuencias o modos naturales distintos la solución homogénea tiene


la forma  
R Sp −1
Yp,k nk  λnp ,
X X
yh [n] =  (18.13)
p=1 k=0
PR
donde Sp indica la multiplicidad de λp y p=1 Sp = N .

Ejemplo
1. Consideremos la ecuación de diferencias

−vo [n + 1] + (2 + c) vo [n] − vo [n − 1] = c vi [n] . (18.14)

2. La ecuación homogénea asociada es

−vo [n + 1] + (2 + c) vo [n] − vo [n − 1] = 0. (18.15)

3. Suponiendo que

vo [n + 1] = V λn+1 , vo [n] = V λn , vo [n − 1] = V λn−1 , (18.16)

reemplazamos en la ecuación homogénea

−V λn+1 + (2 + c) V λn − V λn−1 = 0. (18.17)

4. Extrayendo el factor común V λn−1 obtenemos el polinomio caracterı́stico

V λn−1 (−λ2 + (2 + c) λ1 − 1) = 0. (18.18)

5. Las frecuencias naturales son


s
2
c c
  
λ1,2 = 1+ ± 1+ − 1. (18.19)
2 2

313
6. Observemos que
 s  s 
2 2
c c c c
     
 1+ + 1+ − 1  1 + − 1+ − 1 = 1. (18.20)
2 2 2 2

y por lo tanto
1
λ1 = . (18.21)
λ2
7. Entonces la solución homogénea es

v0 [n] = V1 λn1 + V2 λ−n


1 . (18.22)

8. Observe las ecs. (18.17) y (18.18). ¿Porqué el factor es V λn−1 en lugar de V λn−2 ,
dado que N = 2?

18.2.2 Solución particular de una ecuación de diferencias para


una entrada z n
Donde la entrada z n no es una frecuencia natural
1. Consideremos la ecuación de diferencias
N
X M
X
ap y [n − p] = bq x [n − q] . (18.23)
p=0 q=0

2. Supongamos ahora que la entrada es una exponencial

x [n] = z n , (18.24)

y que la salida tiene la misma forma

y [n] = Y z n , (18.25)

donde z no es igual a ninguna frecuencia natural. Reemplazando en la ecuación


de diferencias resulta
N M
ap Y z n−p = bq z n−q .
X X
(18.26)
p=0 q=0

3. Extrayendo factores comunes obtenemos


   
N M
ap z −p  Y z n =  bq z −q  z n .
X X
 (18.27)
p=0 q=0

314
Luego de dividir por z n , podemos despejar Y
P 
M
q=0 bq z −q
Y = PN . (18.28)
p=0 ap z −p

4. Por lo tanto, una solución particular de la ecuación (18.23) para una entrada
exponencial z n es P 
M −q
b
q=0 q z
yp [n] = PN  zn. (18.29)
−p
p=0 ap z

Donde la entrada z n es una frecuencia natural


1. Consideremos la ecuación de diferencias
N
X M
X
ap y [n − p] = bq x [n − q] . (18.30)
p=0 q=0

2. Supongamos ahora que la entrada es una frecuencia natural

x [n] = λn . (18.31)

Por lo tanto debe cumplirse (ver ec. 18.27)


 
N
−p 
X
 ap λ = 0, (18.32)
p=0

anulándose ası́ el denominador de la ec. (18.29).

3. Este es un fenómeno denominado resonancia. Se produce cuando las entradas


coinciden con las frecuencias naturales del sistema, y provocan una amplificación
de la salida. Esta ha sido la causa de la destrucción de puentes y aviones. Busque
referencias en Internet sobre el puente sobre el rı́o Tacoma, o Tacoma River, o
Tacoma Bridge.

4. En este caso, la respuesta forzada del sistema es


M −1
!
M k
λn ,
X
y[n] = n + ck n (18.33)
k=0

donde M es la multiplicidad de la frecuencia natural λ, y los coeficientes ck se


determinan mediante condiciones iniciales.

315
5. Por ejemplo, consideremos la ecuación de diferencias
y[n] − λy[n − 1] = λn . (18.34)
Podemos comprobar que sustituyendo
y[n] = (n + c) λn , (18.35)
y[n − 1] = ((n − 1) + c) λn−1 , (18.36)
en la ec. (18.33), obtenemos
(n + c) λn − λ ((n − 1) + c) λn−1 = λn . (18.37)
Reagrupando y simplificando, resulta
n λn − n λn + c λn − c λn + λn = λn . (18.38)
Por lo tanto la respuesta forzada es de la forma (18.33).

18.2.3 Solución general de la ecuación de diferencias para una


entrada z n
Donde z n no es una frecuencia natural
La solución general buscada de la ecuación de diferencias
N
X M
X
ap y [n − p] = bq x [n − q] . (18.39)
p=0 q=0

es de la forma
P 
M −q
q=0 bq z
N
!
Yk λnk + PN  zn.
X
y[n] = yh + yp [n] = (18.40)
k=1 p=0 ap z −p

Donde la entrada z n es una frecuencia natural

18.3 Definición de la función de transferencia para


sistemas de tiempo discreto
Definamos entonces P 
M −q
q=0 bq z
H (z) = PN , (18.41)
p=0 ap z −p
como la función de transferencia asociado a la ecuación de diferencias
N
X M
X
ap y [n − p] = bq x [n − q] . (18.42)
p=0 q=0

316
18.3.1 Ejemplo uno
1. La ecuación de diferencias

y[n] − y[n − 1] = τ x[n], (18.43)

tiene una función de transferencia asociada


τ
H(z) = . (18.44)
1 − z −1

2. La ecuación de diferencias

y[n] − y[n − 2] = 2τ x[n − 1], (18.45)

tiene una función de transferencia asociada


2τ z −1
H(z) = . (18.46)
1 − z −2

18.3.2 Ejemplo dos


Veremos la reconstrucción de una ecuación de diferencias a partir de una función de
transferencia. Consideremos
z
H (z) = . (18.47)
z+1
¿Cuál es la ecuación de diferencias correspondiente? Hagamos

H(z) (z + 1) = z, (18.48)

y multipliquemos ambos lados por z n

H(z)z n (z + 1) = z n z, (18.49)

de donde se puede obtener la ecuación diferencia

y [n + 1] + y [n] = z n+1 . (18.50)

18.3.3 Pregunta
Compare las funciones de transferencia con sus respectivas ecuaciones de diferencias.
¿Encuentra la relación existente entre los exponentes de z en las funciones de transfe-
rencia, los ı́ndices de los coeficientes y los desplazamientos en el tiempo de la entrada y
la salida?

317
18.4 Polos y ceros de la función de transferencia
1. La función de transferencia puede expresarse como
P   
M q
q=0 bq z ΠM
q=1 z − cq
H (z) = PN  = K , (18.51)
p=0 ap z p ΠN
p=1 z − dp

donde K = baMN . Nos referiremos a cq como los ceros, a dp como los polos, y a K
como la ganancia.
2. La posición de los ceros y polos en el plano complejo determinan el tipo de dinámica
del sistema. El factor de ganancia K sólo determina la amplitud de la respuesta.
3. La función de transferencia H (z) relacionada con una ecuación de diferencia con-
tiene la misma información que esta. Ambas están definidas por N + M + 1
números: N polos, M ceros y una constante o ganancia.

18.4.1 Solución general de la ecuación de diferencias con en-


trada exponencial compleja
1. La solución general de la ecuación de diferencias
N
X M
X
ap y [n − p] = bq x [n − q] , (18.52)
p=0 q=0

con entrada exponencial compleja x[n] = z n es

y[n] = H(z)z n + yh [n], (18.53)

donde P 
M −q
q=0 bq z
H(z) = PN , (18.54)
p=0 ap z −p
y yh [n] satisface la ecuación homogénea
N
X
ap yh [n − p] = 0. (18.55)
p=0

2. Para determinar por completo la solución total necesitamos determinar los N co-
eficientes A1 , ..., AN . que forman parte de la solución homogénea yh [n]. Estos
pueden ser determinados a partir de N condiciones iniciales que deben ser especi-
ficadas. Se obtiene ası́ un conjunto de N ecuaciones algebraicas cuyas incógnitas
son los N coeficientes A1 , ..., AN .

318
18.5 Respuesta a exponenciales complejas
1. Sea el sistema definido por la suma de convolución,

X ∞
X
y [n] = x [k] h [n − k] = h [k] x [n − k] , (18.56)
k=−∞ k=−∞

donde h [n] es la respuesta al impulso, x [n] es la entrada e y [n] es la salida corre-


spondiente.

2. Supóngamos una entrada exponencial compleja

x [n] = z n . (18.57)

Por lo tanto, la suma de convolución correspondiente es


∞ ∞
h [k] z n−k ,
X X
y [n] = h [k] x [n − k] = (18.58)
k=−∞ k=−∞

que puede expresarse como


 

h [k] z −k  z n .
X
y [n] =  (18.59)
k=−∞

3. Vemos que la función definida por


 

−k 
X
H (z) =  h [k] z , (18.60)
k=−∞

es la transformada Z bilateral de la respuesta al impulso del sistema.

4. Muy importante: La transformada Z de la respuesta al impulso del


sistema es la función de transferencia del sistema.

18.6 Solución general de la ecuación de diferencias


18.6.1 Introducción
1. Hemos visto que podemos obtener la función de transferencia de un sistema (la
transformada Z de la respuesta al impulso) suponiendo que la entrada es x[n] = z n .
En este caso la salida es y[n] = H(z)z n .

319
2. Además, una solución particular de la ecuación de diferencias está dada por la
convolución de la respuesta al impulso h[n] con la entrada x[n].

3. Disponiendo de H(z) es posible evitar el cálculo de la convolución, porque una


propiedad de la transformada Z es que la transformada de una convolución de dos
señales h[n] y x[n] es el producto de las transformadas H(z) y X(z). Por lo tanto
podemos:

(a) Calcular X(z).


(b) Obtener yp [n] tal que Z(yp [n]) = H(z)X(z) mediante la transformada Z
bilateral, realizando la suposición correspondiente sobre la región de conver-
gencia y por lo tanto sobre la causalidad o no del sistema lineal descripto por
la ecuación de diferencias.

4. Sumando la solución particular yp [n] encontrada en el paso anterior a la solución


de la ecuación homogénea yh [n], obtenemos finalmente la solución general y[n].

18.6.2 Sistemas causales


1. Supondremos que el sistema definido por la ecuación de diferencias
N
X M
X
ap y [n − p] = bq x [n − q] . (18.61)
p=0 q=0

es causal, o sea que su respuesta al impulso es nula para n < 0.

2. Comprobaremos que la solución causal de la ecuación de diferencias (18.61) es


N n
! !
ck λnk u[n]
X X
y[n] = + h[n − k]x[k] . (18.62)
k=1 k=0

donde λk , k ∈ [1, N ] son las N raı́ces simples del polinomio caracterı́stico


 
N N
ap λN −p  = aN
X Y
p(λ) =  (λ − λk ) . (18.63)
p=0 k=1

3. Supondremos que la respuesta al impulso es una combinación lineal de funciones


λnk u[n]
N
dk λnk u[n].
X
h[n] = (18.64)
k=1

donde λk , k ∈ [1, N ], son raı́ces del polinomio caracterı́stico (18.63).

320
4. Recordemos que hemos llegado a la conclusión de que la transformada Z de la
respuesta causal al impulso es la función de transferencia H(z) definida como
P 
M −q ∞
q=0 bq z
h [k] z −k .
X
H (z) = PN  = (18.65)
−p
p=0 ap z k=0

Tomando la transformada Z de h[n] encontramos


∞ N
!
ds λks u[k] z −k .
X X
Z(h[n]) = (18.66)
k=−∞ s=1

Intercambiando la posición de las sumatorias resulta


 
N ∞
λks u[k]z −k  .
X X
Z(h[n]) = ds  (18.67)
s=1 k=−∞

Es posible cambiar el valor inicial de k debido al factor u[k],


N ∞
!
λks z −k
X X
Z(h[n]) = ds . (18.68)
s=1 k=0

Por lo tanto debe ser


P 
M −q
q=0 bq z
N
X 1
H (z) = Z(h[n]) = P  = ds , (18.69)
N
p=0 ap z −p s=1 1 − (λs z −1 )

donde k(λs z −1 )k < 1, s ∈ [1, N ], en la región de convergencia.

5. Observemos la diferencia entre las ecuaciones (18.67) y (18.68). Hemos supuesto


que el sistema es causal, y por lo tanto en su respuesta al impulso aparece el
factor u[n] en estas ecuaciones. Se justifica ası́ el empleo de la transformada Z +
(unilateral).

6. Si la entrada es un impulso, y las condiciones iniciales son nulas (o sea, ck = 0)


obtenemos ∞ X
h[n] = h[k]δ[n − k]. (18.70)
k=0

7. Podemos comprobar que la solución y[n] tiene la forma indicada en la ec. (18.62)
por dos caminos distintos: en el dominio del tiempo y en el dominio z.

321
8. En el dominio del tiempo, podemos escribir
N
! n−p !
ck λkn−p u[n
X X
y[n − p] = − p] + h[n − k − p]x[k] , (18.71)
k=1 k=0

Reemplazando en la ecuación de diferencias, resulta


P 
n−p
 P 
N N
N p=0 ap k=1 ck λk u[n − p] +
X  
ap y [n − p] = 
 P  .
 (18.72)
p=0 PN n−p
p=0 ap k=0 h[n − k − p]x[k]

Observemos que podemos escribir


N N N N
!
ck λn−p ck λnk ap λ−p
X X X X
ap k u[n − p] = k u[n − p]. (18.73)
p=0 k=1 k=1 p=0

18.6.3 Resumen: La función de transferencia


Debemos recordar que
1. H(z) es una función racional en z para ecuaciones de diferencias con coeficientes
constantes y sin retardos.

2. H(z) caracteriza al sistema lineal.

3. H(z) define la relación entre entrada y salida.

4. H(z) se calcula de dos formas:

(a) Considerando una entrada exponencial compleja x[n] = z n .


(b) Aplicando la transformada Z unilateral con condiciones iniciales nulas a la
ecuación diferencial.

18.6.4 Ejemplo
1. Hemos considerado anteriormente una versión discretizada del sistema de tiempo
continuo cuya ecuación diferencial es
dvo (t) 1 1
+ vo (t) = vi (t) , (18.74)
dt RC RC
y su respuesta al escalón, comenzando de vo (0) = 0, es
t
 
vo (t) = 1 − e− RC u (t) . (18.75)

322
Hemos mostrado que una aproximación discreta de este sistema permite obtener
la ecuación de diferencias

vo [n + 1] = (1 − α) vo [n] + αvi [n] , (18.76)

donde
T
α= . (18.77)
RC
2. Podemos obtener la función de transferencia del sistema sustituyendo

vi [n] = z n , (18.78)

y
vo [n] = Vo z n , (18.79)
en la ecuación de diferencias para obtener

Vo z n+1 = (1 − α) Vo z n + αz n , (18.80)

que puede simplificarse


Vo z = (1 − α) Vo + α. (18.81)
Por lo tanto
α
H (z) = Vo (z) = . (18.82)
z − (1 − α)
3. La frecuencia natural del sistema es

λ = (1 − α) , (18.83)

y por lo tanto la solución tiene la forma

vo [n] = (A (1 − α)n + H (1) 1n ) u [n] . (18.84)

4. Como H (1) = 1, resulta

vo [n] = (A (1 − α)n + 1) u [n] . (18.85)

Finalmente, la condición inicial vo [0] = 0 implica que A = −1 y por lo tanto la


solución es
vo [n] = (1 − (1 − α)n ) u [n] . (18.86)

323
18.7 Estabilidad de sistemas LIT
18.7.1 Sistemas con un polo
La función de transferencia correspondiente a la ecuación diferencial

y [n + 1] + ay [n] = bx [n] , (18.87)

puede calcularse suponiendo que

x [n] = Xz n , (18.88)
y [n] = Y z n ←→ y [n + 1] = Y z n+1 . (18.89)

Reemplazando en la ecuación diferencial

Y z n+1 + aY z n = bXz n (18.90)

Simplificando y agrupando
(z + a) Y = bX. (18.91)
Y
Despejando X
, resulta
Y b
H (z) == , (18.92)
X z+a
Recuerde que la solución de la ecuación homogénea es

y [n] = Y (−a)n . (18.93)

1. Si |a| < 1 entonces


Lim
y [n] = 0, (18.94)
t→∞
y por lo tanto el sistema es estable.

2. Si |a| > 1, entonces


Lim
y [n] = ∞. (18.95)
n→∞
y el sistema es inestable.

3. Si |a| = 1, entonces
Lim
y [n] = 1, (18.96)
n→∞
y el sistema es estable en el sentido de que una entrada acotada genera una salida
limitada.

324
18.7.2 Sistemas con dos polos
La función de transferencia correspondiente a la ecuación de diferencias
y [n + 2] + ay [n + 1] + by [n] = cx [n] , (18.97)
puede calcularse suponiendo que
x [n] = Xz n , (18.98)
y [n] = Y zn, (18.99)
y [n + 1] = Y z n+1 , (18.100)
y [n + 2] = Y z n+2 . (18.101)
Reemplazamos en la ecuación de diferencias
z 2 Y z n + azY z n + bY z n = cXz n . (18.102)
Simplificamos y agrupamos  
z 2 + az + b Y = cX. (18.103)
Y
Despejando X
resulta
Y c
= H (z) = 2 . (18.104)
X (z + az + b)
Observe que si d1 6= d2 (los polos de H (z)) son distintos entre sı́ entonces
r1 r2
H (s) = + . (18.105)
z + d1 z + d2
Las constantes r1 y r2 pueden calcularse
r1 r2
 

H (z) (z + d1 )|z=−d1 = + (z + d1 ) , (18.106)
z + d1 z + d2 z=−d1
r1 r2
 

H (z) (z + d2 )|z=−d2 = + (z + d2 ) . (18.107)
z + d1 z + d2 z=−d2

Entonces podemos calcular la secuencia y [n] = h [n] respuesta a una entrada


(
n=0→1
x [n] = δ [n] = (18.108)
n 6= 0 → 0
como
h [n] = (r1 (−d1 )n + r2 (−d2 )n ) u [n] . (18.109)
1. Si |d1 | < 1 y |d2 | < 1 simultáneamente, entonces el sistema es estable porque
Lim
h [n] = 0. (18.110)
n→∞
2. En cambio, si |d1 | > 1 o |d2 | > 1, entonces el sistema es inestable porque
Lim
h [n] = ∞. (18.111)
n→∞

325
Y[n−1] Y[n] Y[n+1]

R G R G R G
+ + +
X[n−1] X[n]
− − −

Figura 18.1: Circuito escalera

18.8 Aplicación
18.8.1 Red eléctrica en escalera
En la figura 18.1, r es la resistencia serie y g es la conductancia shunt. Aplicando la ley
de Kirchoff de las corrientes en el nodo central tenemos
v0 [n − 1] − v0 [n] v0 [n + 1] − v0 [n]
+ + g (vi [n] − vo [n]) = 0, (18.112)
r r
de donde se obtiene la ecuación de diferencias

−v0 [n + 1] + (2 + rg) v0 [n] − v0 [n − 1] = rgvi [n] . (18.113)

Falta completar

326
Capı́tulo 19

Respuesta en frecuencia de sistemas


LIT TD

19.1 Respuesta en frecuencia (tiempo discreto)


19.1.1 Respuesta de un sistema LIT a una entrada periódica
1. Si la entrada a un sistema de tiempo discreto es x [n] = z n , entonces la salida es
y [n] = H (z) z n donde

h [k] z −k ,
X
H (z) = (19.1)
k=−∞

en la cual h [n] es la respuesta al impulso del sistema LIT.

2. En el caso general de z complejo, H (z) es la función de transferencia del sistema.

3. En el caso |z| = 1 → z = ej ω y x [n] = z n = ej ω n , la respuesta en frecuencia del


sistema esta definida por
  ∞
H ej ω = h [n] e−j ω n .
X
(19.2)
n=−∞

4. La salida y [n] para una entrada


N −1

ak ejk( N )n ,
X
x [n] = (19.3)
k=0

está dada entonces por


N −1
j2πk 2π
ejk( N )n .
X  
y [n] = ak H e N (19.4)
k=0

327
Ejemplo
1. Sea un sistema con respuesta al impulso

h [n] = αn u [n] , −1 < α < 1, (19.5)

y una entrada
2πn 1  j2πn
 
2πn

x [n] = cos = e N + e−j N . (19.6)
N 2
2. Calculamos la respuesta en frecuencia planteando la suma
  ∞
H ej ω = h [n] e−j ω n .
X
(19.7)
n=−∞

El sistema dado es causal porque la respuesta al impulso δ[n] es nula para n < 0.
Por lo tanto los lı́mites de la sumatoria cambian y resulta
  ∞ ∞
H ej ω = αn u [n] e−j ω n = αn e−j ω n .
X X
(19.8)
n=−∞ n=0

Resolviendo la suma podemos escribir


∞ ∞ 
  n 1
H ej ω = αn e−j ω = αe−j ω
X X
= . (19.9)
n=0 n=0 1 − αe−j ω

3. La salida y [n] resulta ser


1   j 2πn  j 2πn  2πn
 2πn

y [n] = H e N e N + H e−j N e−j N , (19.10)
2
o sea !
1 1 j 2N
πn 1 −j 2 N
πn
y [n] = 2πn e + 2πn e . (19.11)
2 1 − α e−j N 1 − α ej N

19.1.2 Respuesta de un sistema LIT estable a entradas con


transformada Z
1. Supongamos un sistema LIT estable. Recordemos que en este caso, existe la
transformada Z de la respuesta al impulso

Z
h[n] H(z) (19.12)

y su región de convergencia incluye el cı́rculo unitario. Esto garantiza además la


existencia de la transformada de Fourier H(ejω ).

328
2. Sabemos que las transformadas Z de la entrada
Z
x[n] X(z) (19.13)

la salida
Z
y[n] Y (z) (19.14)

y la respuesta al impulso de un sistema LIT están relacionadas por la expresión
Y (z) = H(z) X(z). (19.15)
Calculando la antitransformada y[n] obtenemos la solución de la ecuación de dife-
rencias.

19.2 Representación gráfica de la respuesta en fre-


cuencia de un sistema LIT
La respuesta en frecuencia es una función compleja y debe ser representada gráficamente
en
1. Forma polar: magnitud y fase.
2. Forma cartesiana: parte real y parte imaginaria.
Ambas representaciones permiten visualizar distintas propiedades de los sistemas
LIT. Por tal motivo las estudiaremos por separado.

19.2.1 Definiciones
Ganancia o atenuación
La ganancia y la atenuación de un filtro son conceptos complementarios, y sus valores
están determinados por la magnitud de la respuesta en frecuencia. Dado que la salida
de un filtro y para una entrada periódica x queda determinada por
y[n] = H(ejω )x[n], (19.16)
para tiempo discreto, el módulo de la función compleja k H k determina la variación del
tamaño de la salida respecto a la entrada. Hablamos de ganancia cuando deseamos saber
cuanto queda ampliada la salida respecto a la entrada, y hablamos de atenuación cuando
deseamos saber cuanto queda disminuida la salida respecto a la entrada. Dado que por
lo general los filtros amplian determinadas frecuencias y disminuyen otras, hablar de
ganancia o atenuación es equivalente a elegir un punto de vista (G = 1 − A).

329
Fase
La fase de un filtro es la fase de la respuesta en frecuencia (función compleja) H(jω) en
tiempo continuo o H(ejω ) para tiempo discreto.

Fase lineal y no lineal


Cuando la fase del filtro es una función lineal de ω, hay una interpretación simple de
su efecto en el dominio del tiempo. En el caso de tiempo discreto, tenemos sistemas con
fase lineal cuando la pendiente de la fase con la frecuencia es un número entero. El
sistema de tiempo discreto con respuesta en frecuencia

H(ejω ) = ejω n0 , (19.17)

tiene una fase lineal


6 H(ejω ) = −ω n0 , (19.18)
La salida de este sistema es igual a su entrada desplazada en el tiempo una cantidad
entera de muestras n0
y[n] = x[n − n0 ]. (19.19)
Cuando n0 no es un entero el comportamiento es más complejo y se explica más adelante.
Cuando la fase del filtro es una función no lineal de ω, cada componente expo-
nencial compleja de la entrada (con diferentes frecuencias) son afectadas de forma tal
que las fases relativas cambian y ası́ obtenemos una salida que puede diferir en forma
significativa respecto a la entrada.

Retraso de grupo

19.3 Gráficos de Bode


19.3.1 Sistema de tiempo discreto con un polo
Consideremos el sistema de tiempo discreto lineal, invariante en el tiempo y causal cuya
ecuación de diferencias es
y [n] − ay [n − 1] = x [n] , (19.20)
donde |a| < 1.

1. La función de transferencia de este sistema es


1
H (z) = . (19.21)
1 − az −1

330
2. La respuesta en frecuencia de este sistema es
  1
H ej ω = . (19.22)
1 − ae−j ω
3. La respuesta al impulso es
h1 [n] = an u [n] . (19.23)
4. La respuesta al escalón es
1 − an+1
h2 [n] = h1 [n] u [n] = u [n] . (19.24)
1−a
5. La magnitud de |a| < 1 determina la velocidad a la que responde el sistema.

(a) El sistema decae más rápido para valores de |a| cercanos a 0.


(b) El sistema decae más lentamente para valores de |a| cercanos a 1.

6. Para valores de −1 < a < 0,

(a) la respuesta al impulso toma valores positivos y negativos alternados y de-


crecientes (oscilaciones amortiguadas).
(b) la respuesta al escalón tiene sobrepaso de su valor final y oscilaciones amor-
tiguadas.

7. El cuadrado de la magnitud de la respuesta en frecuencia es


    1 1
H e−j ω H ej ω = , (19.25)
1 − ae 1 − ae−j ω
j ω

que puede escribirse, usando la identidad de Euler, como


    1 1
H e−j ω H ej ω = .
1 − a (cos (ω) + j sin (ω)) 1 − a (cos (ω) − j sin (ω))
(19.26)
Esta expresion puede simplificarse escribiendo
    1
H e−j ω H ej ω = , (19.27)
(1 − a cos (ω))2 + (a sin (ω))2
y finalmente
    1
H e−j ω H ej ω = . (19.28)
1+ a2 − 2a cos (ω)
8. La fase de la respuesta en frecuencia es
!
jω a sin ω
6 (H(e )) = − arctan . (19.29)
1 − a cos (ω)

331
19.3.2 Sistema de tiempo discreto con dos polos
Consideremos el sistema de tiempo discreto lineal, invariante en el tiempo y causal cuya
ecuación de diferencias es

y [n] − 2r cos (θ) y [n − 1] + r2 y [n − 2] = x [n] , (19.30)

donde 0 < r < 1, y 0 ≤ θ ≤ π.

1. La función de transferencia es
1 1
H (z) = −1 −2
= . (19.31)
2
1 − 2r cos (θ) z + r z (1 − re z ) (1 − re−jθ z −1 )
jθ −1

2. La respuesta en frecuencia es
  1 1
H ej ω = −j −2j
= .
1 − 2r cos (θ) e ω 2
+r e ω (1 − re e ) (1 − re−jθ e−j ω )
jθ −j ω

(19.32)

332
Capı́tulo 20

Filtros

20.1 Introducción
20.1.1 ¿Qué es un filtro?
1. Un filtro es un sistema dinámico con una respuesta en frecuencia especial que nos
permite procesar la entrada para obtener una salida con un contenido armónico
conveniente.
2. Todos los sistemas fı́sicos actúan como filtros de sus entradas.
3. El filtrado es un importantı́simo método de procesamiento de señales.
4. Vamos a estudiar filtros lineales de tiempo continuo:
(a) estudio teórico, en base a las Transformadas de Laplace y Fourier,
(b) estudio práctico, con implementación de filtros, es parte de Teorı́a de Circui-
tos II.
5. Vamos a estudiar filtros lineales de tiempo discreto:
(a) estudio teórico, en base a las Transformadas Zeta y Fourier,
(b) estudio práctico, con implementación de filtros en computadora.
6. Los filtros que estudiamos se usan para
(a) Separar componentes de la entrada pertenecientes a distintas bandas de fre-
cuencia, permitiendo el paso a la salidad de los componentes dentro de ciertas
bandas y rechazando el paso de los otros (ecualizadores músicales).
(b) Generar cierto desfasaje entre entrada y salida (útil para compensar retardos
en sistemas de comunicación.)

333
(c) Generar estimaciones de la derivada de la entrada.
(d) Eliminación de ruido.
(e) Otras aplicaciones.

7. Los filtros lineales se basan en el concepto de respuesta en frecuencia de un sistema:

(a) Recordemos que la respuesta en frecuencia en tiempo continuo es la transfor-


mada de Laplace de la respuesta al impulso evaluada sobre el eje imaginario
s = jω. Dado que la relación entre entrada y salida de tiempo continuo es

Y (s) = H(s)X(s), (20.1)

tenemos que el factor H(jω) determina la amplitud de la salida para una


amplitud de entrada fija

Y (jω) = H(jω)X(jω). (20.2)

(b) Recordemos que la respuesta en frecuencia en tiempo discreto es la trans-


formada Zeta de la respuesta al impulso evaluada sobre el cı́rculo unitario
z = ejω . Dado que la relación entre entrada y salida de tiempo discreto es

Y (z) = H(z)X(z), (20.3)

tenemos que el factor H(ejω ) determina la amplitud de la salida para una


amplitud de entrada fija

Y (ejω ) = H(ejω )X(ejω ). (20.4)

20.2 Definiciones básicas


1. La banda de paso es el rango de frecuencia de entrada dentro de la cual la magnitud
de la respuesta debe aproximarse a 1 con una tolerancia ±δ1 .

2. La banda de rechazo es el rango de frecuencia de entrada dentro de la cual la


magnitud de la respuesta debe aproximarse a 0 con una tolerancia ±δ2 .

3. La región de transición está ubicada entre la banda de paso y la banda de rechazo.

334
1

0.8

0.6

0.4

0.2

0.5 1 1.5 2 2.5 3


Figura 20.1: Forma de la respuesta en frecuencia para un pasabajo ideal

20.2.1 Especificaciones para filtros


Los filtros se especifican definiendo

1. Los lı́mites de la banda de paso,

2. Los lı́mites de la banda de transición,

3. Los lı́mites de la banda de rechazo,

4. la tolerancia de paso δ1 y

5. la tolerancia de rechazo δ2 .

20.3 Ejemplos
20.3.1 Un filtro pasabajos de tiempo continuo
dvc (t)
RC + vc (t) = vs (t) . (20.5)
dt
Si vs (t) = ejωt , entonces vc (t) = H (jω) ejωt y además

dH (jω) ejωt
RC + H (jω) ejωt = ejωt . (20.6)
dt

335
1.2

0.8

0.6

0.4

0.2

0.5 1 1.5 2 2.5 3


Figura 20.2: Respuesta en frecuencia para un pasabajo real

0.8

0.6

0.4

0.2

-3 -2 -1 1 2 3
Figura 20.3: Lı́mites de la respuesta en frecuencia para un pasabajo real

336
Derivando
RCjωH (jω) ejωt + H (jω) ejωt = ejωt . (20.7)
Simplificando y agrupando
(RCjω + 1) H (jω) = 1. (20.8)
Ası́ obtenemos finalmente la respuesta en frecuencia
1
H (jω) = . (20.9)
(RCjω + 1)

cuya magnitud es s
1
|H (jω) | = . (20.10)
(R2 C 2 ω 2 + 1)
y su fase es
6 H (jω) = −atan(ω R C). (20.11)
La respuesta al impulso correspondiente es
1 − t
h (t) = e RC u (t) , (20.12)
RC
t
 
s (t) = 1 − e− RC u (t) . (20.13)

Programa matlab
El siguiente programa matlab genera los gráficos de magnitud y fase de H (jω) en función
de la frecuencia para RC = 1.
% constante RC = 1
rc = 1;
% numerador de la función de transferencia
num = [1];
% denominador de la función de transferencia
den = [1,rc];
% generacion de cien valores de frecuencia entre -4 y 4 en escala lineal
w = linspace(-4,4);
% calculo de magnitud y fase de la respuesta en frecuencia para los puntos de fre-
cuencia generados
[mag,fase] = bode(num,den,w);
% gráfico de magnitud
plot(w,mag); grid; pause;
% gráfico de fase
plot(w,fase*2*pi/360); grid; pause;

337
20.3.2 Un filtro pasaaltos de tiempo continuo
dvr (t) dvs (t)
RC + vr (t) = RC . (20.14)
dt dt
Si vs (t) = ejωt , entonces vr (t) = G (jω) ejωt y además
dG (jω) ejωt
RC + G (jω) ejωt = RCjωejωt . (20.15)
dt
Simplificando y reagrupando
(RCjω + 1) G (jω) = RCjω. (20.16)
Ası́ obtenemos finalmente la respuesta en frecuencia
RCjω
G (jω) = . (20.17)
(RCjω + 1)
cuya magnitud es v
u 1
|G (jω) | = . (20.18)
u
t
1
R2 C 2 omega2
+1
y su fase es
1
6 H (jω) = −atan( ). (20.19)
ωRC

Programa matlab
El siguiente programa matlab genera los gráficos de magnitud y fase de G (jω) en función
de la frecuencia para RC = 1.
% constante RC = 1
rc = 1;
% numerador de la función de transferencia
num = [1,0];
% denominador de la función de transferencia
den = [1,rc];
% generacion de cien valores de frecuencia entre -4 y 4 en escala lineal
w = linspace(-4,4);
% calculo de magnitud y fase de la respuesta en frecuencia para los puntos de fre-
cuencia generados
[mag,fase] = bode(num,den,w);
% gráfico de magnitud
plot(w,mag); grid; pause;
% gráfico de fase
plot(w,fase*2*pi/360); grid; pause;

338
20.4 Filtros especiales de tiempo continuo
1. Los filtros vistos en los ejemplos anteriores carecen de algunas de las caracterı́sticas
deseables mencionadas. Sin embargo, se ha probado que existen sistemas lineales
con funciones de transferencia adecuadas para satisfacer nuestros requerimientos
y que pueden ser fácilmente construidos. A continuación veremos tres tipos de
funciones de transferencia y las reglas que nos permiten elegir convenientemente
los parámetros de diseño.

2. Primero veremos como son las funciones de transferencia de filtros pasabajos. A


continuación mostraremos como, mediante un cambio de variables, pueden obten-
erse las funciones de transferencia de otros tipos de filtro (pasabandas, pasaaltos,
suprimebandas, etc).

3. El diseño de este tipo de filtros está automatizado mediante funciones de Matlab,


programas de Mathematica, etc, que aprenderemos a usar ahora. En la práctica
profesional, usarán dichas herramientas para ahorrar tiempo, pero en ese momento
deben recordar que, allá entre los apuntes de una materia vista muco tiempo antes,
están las fórmulas que la computadora aplica para obtener los resultados deseados
y las explicaciones de por que funcionan dichas fórmulas.

20.4.1 Filtros Butterworth


1. Son aquellos filtros definidos por la propiedad de tener una respuesta en frecuencia
cuya magnitud es máximamente plana en la banda de paso.

2. El cuadrado de la magnitud de la respuesta en frecuencia es


1
H (jω) H (−jω) =  2N . (20.20)
ω
1+ ωc

Para un filtro pasabajo de estas caracterı́sticas suceden dos cosas:

(a) Las primeras 2N − 1 derivadas del cuadrado de la magnitud de la respuesta


en frecuencia se anulan para ω = 0.
(b) Cuando ω = ωc , H (jω) H (−jω) = 21 , y por lo tanto el ancho de la banda
pasante se define como ωc .

3. A medida que N crece, las caracterı́sticas del filtro se acentúan:

(a) la magnitud de la respuesta en frecuencia se acerca más a 1 en una mayor


parte de la banda de paso,

339
(b) la magnitud de la respuesta en frecuencia se acerca más a cero en una mayor
parte de la banda de rechazo,
(c) la banda de transición se reduce.

4. Un filtro Butterworth pasabajo de tiempo continuo de orden n y frecuencia de


corte ωc tiene determinados sus polos por la igualdad
1 2k−1
sk = ωc ejπ( 2 + 2n
)
, k ∈ [1, n], (20.21)

y su función de transferencia es
ωcn
H(s) = n . (20.22)
Πk=1 (s − sk )

ωτ 1
5. Si la atenuación a una frecuencia normalizada ωc
debe ser A
, entonces el orden
del filtro Butterworth puede obtenerse

log10 (A2 − 1)
n= (20.23)
2log10 ( ωωτc )

6. Un programa en matlab que permite calcular este tipo de filtro es

function [pols,gain]=zpbutt(n,omegac)
% [pols,gain]=zpbutt(n,omegac)
% Computes the poles of a Butterworth analog
% filter of order n and cutoff frequency omegac
% n :Filter order
% omegac :Cut-off frequency in Hertz
% pols :Resulting poles of filter
% gain :Resulting gain of filter

angles=ones(1,n)*(pi/2+pi/(2*n))+(0:n-1)*pi/n;
pols=omegac*exp(i*angles);
gain=abs((-omegac)^n);

20.4.2 Filtros Chebyshev


1. Vn (x) es el polinómio de Chebyshev de orden n, definido por

Vn (x) = cos(n(cos(x))−1 ) |x| ≤ 1


(20.24)
Vn (x) = cosh(n(cosh(x))−1 ) |x| > 1

340
0.5 1 1.5 2 2.5 3
-20
-40
-60
-80
-100
-120

Figura 20.4: Respuesta en frecuencia para un pasabajo Butterworth

o por la relación de recurrencia


V0 (x) = 1, (20.25)
V1 (x) = x, (20.26)
Vn (x) = 2xVn−1 (x) − Vn−2 (x). (20.27)

2. Puede probarse que Vn2 (x) varı́a entre 0 y 1 mientras 0 ≤ x ≤ 1, y que se incrementa
monotónicamente para x > 1.
3. Existen dos tipos de filtro Chebyshev:
(a) Tipo I: con un lı́mite superior en el ripple de la banda de paso.
(b) Tipo II: con un lı́mite superior en el ripple de la banda de rechazo.
4. Filtros Chebyshev tipo I (lı́mite superior en el ripple de la banda de paso): Su
función de transferencia cumple con
ω 1
k H(j , ) k2 = , (20.28)
ωc 1 + 2 Vn2 ( ωωc )

5. Si especificamos que para la frecuencia de rechazo ωr > ωc debemos tener una


atenuación A1 entonces debe cumplirse que
ωr
A2 = 1 + 2 Vn2 ( ), (20.29)
ωc

341
y puede deducirse que

ωr −1 A2 − 1 −1
n(cosh( )) = (cosh( )) . (20.30)
ωc 
Esta fórmula nos permite deducir el valor de n en función de la tolerancia deseada
para el ripple en la banda de paso.

6. Los polos de un filtro Chebyshev tipo I están sobre una elipse centrada en el
origen del plano s tal que el radio horizontal es aωc y el radio vertical es bωc con
las siguientes definiciones

α − α1
a = , (20.31)
2
α + α1
b = , (20.32)
2 √
(1 + 1 + 2 )
α = . (20.33)


7. Filtros Chebyshev tipo II (lı́mite superior en el ripple de la banda de rechazo): Su


función de transferencia cumple con
ω 1
k H(j , A) k2 = 2 , (20.34)
ωr 1 + VA2 (−1
ω
)
n ωc

donde ωr es el extremo de la banda de paso y A es la atenuación en ωr .

8. Si especificamos que para la frecuencia de rechazo ωr > ωc debemos tener una


atenuación A1 entonces debe cumplirse que
ωr
A2 = 1 + 2 Vn2 ( ), (20.35)
ωc
y puede deducirse que
!!−1
A2 − 1
−1
ωr
 
n cosh = cosh . (20.36)
ωc 

Esta fórmula nos permite deducir el valor de n en función de la tolerancia deseada


para el ripple en la banda de paso.

9. Los polos de un filtro Chebyshev tipo II están sobre una elipse centrada en el
origen del plano s tal que el radio horizontal es aωc y el radio vertical es bωc con

342
0.5 1 1.5 2 2.5 3

-20

-40

-60

-80

Figura 20.5: Respuesta en frecuencia para un pasabajo Chebyshev I

las siguientes definiciones

α − α1
a = , (20.37)
2
α + α1
b = , (20.38)
2
√ !1
(1 + 1 + 2 ) n
α = . (20.39)


20.4.3 Filtros elı́pticos


1. Los filtros elı́pticos pasabajos son aquellos cuya función de transferencia es de la
forma
1
|Ha (jω)|2 = (20.40)
1 +  Un2 (jω)
2

donde Un es una función Jacobiana elı́ptica.

2. Estos filtros permiten obtener un error de la aproximación al filtro ideal igualmente


distribuido en toda la banda de paso y la banda de rechazo. La banda de transición
es la más pequeña posible para un N dado.

343
20.5 Pasabajo, frecuencia no normalizado
En la función de transferencia de un pasabajo, banda de paso de 3 dB, frecuencia
normalizada ωC , cambiar s por ωsLP
ωc
para obtener pasabajo, banda de paso de 3 dB,
frecuencia no normalizada ωLP .

20.6 Transformación de pasabajo a pasaalto


En la función de transferencia de un pasabajo, banda de paso de 3 dB, frecuencia no
normalizada ωLP , cambiar s por ωLPs ω2 para obtener pasaalto, banda de paso de 3 dB
desde ω = ω2 hasta ω = ∞.

20.7 Pasaje de pasabajo a pasabanda


En la función de transferencia de un pasabajo, banda de paso de 3 dB, frecuencia
2
normalizada ωc , cambiar s por ωc ss(ω+ω LP ω2
2 −ωLP )
para obtener un pasabanda, banda de paso
de 3 dB, desde ω = ωLP hasta ω = ω2 .

20.8 Pasaje de pasabajo a suprimebanda


En la función de transferencia de un pasabajo, banda de paso de 3 dB, frecuencia
2 −ωLP )
normalizada ωc , cambiar s por ωc ss2(ω+ω LP ω2
para obtener un suprimebanda, banda de
apso desde ω = 0 hasta ω = ωLP y desde ω = ω2 hasta ω = ∞.

20.9 Filtros de tiempo discreto


Un filtro digital es un algoritmo que, ejecutado en una computadora, convierte una
secuencia de números x[n] de entrada, en otra secuencia y[n] de salida. Un filtro digital,
además de filtrar ciertas bandas de frecuencia, puede emplearse para otras funciones
tales como integración, diferenciación, y estimación.
La ecuación de diferencias que relaciona entrada y salida puede ser expresado en el
dominio del tiempo discreto como una suma de la forma
k
X k
X
y[n] = ai x[n − i] − bi y[n − i], (20.41)
i=0 i=0

o en el dominio z como Pk −i
i=0 ai z
G(z) = Pk −i
. (20.42)
1+ i=0 bi z

344
Por lo tanto, el diseño de un filtro digital implica la determinación de los coeficientes
ai y b i .

20.9.1 Filtro recursivo o de respuesta al impulso infinita IIR


Sea el sistema de tiempo discreto con la ec. de diferencias

y [n] − ay [n − 1] = x [n] , (20.43)


|a| < 1. (20.44)

Como y [n] = H (ejω ) ejωn se obtiene


   
H ejω ejωn − aH ejω ejωn−1 = ejωn . (20.45)

Agrupando y simplificando
   
1 − ae−jω H ejω = 1. (20.46)

Por lo tanto   1
H ejω = . (20.47)
1 − ae−jω
La respuesta al impulso es
h[n] = an u [n] . (20.48)
La respuesta al escalón es
1 − an+1
s [n] = u [n] . (20.49)
1−a

20.9.2 Filtros de respuesta al impulso finita FIR


La forma general de una ecuación de diferencias no recursiva es
M
X
y [n] = bk x [n − k] . (20.50)
k=−N

Por ejemplo, un filtro promediador


M
1 X
y [n] = x [n − k] . (20.51)
M + N + 1 k=−N

1

 N +M +1
 −N ≤ n ≤ M,
h [n] =

0 n < −N, (20.52)

0 M < n.

345
Recordando que
  ∞
H ejω = h [k] e−jωk ,
X
(20.53)
k=−∞

resulta

  1

e−jωk ,
X
H e = (20.54)
M + N + 1 k=−∞
 
ω(M +N +1)
  1 (N −M ) sin 2
H ejω = e jω 2   . (20.55)
M +N +1 sin 2ω

Otro filtro, pasaaltos


x [n] − x [n − 1]
y [n] = , (20.56)
2
1 ω
 
   jω
jω −jω
H e = 1−e = je sin
2 . (20.57)
2 2
En general, supongamos una función de transferencia del tipo
M
h [k] z −k ,
X
H (z) = (20.58)
k=0

correspondiente a la ecuación de diferencias


M
X
y [n] = h [k] x [n − k] . (20.59)
k=0

Este tipo de filtro es conocido como F IR, o de Respuesta alImpulsoFinita.


Observemos que :
1. Los coeficientes de H (z) son los valores de la respuesta al impulso del filtro.

2. La respuesta al impulso tiene una duración de M + 1 muestras.

20.9.3 Diseño de filtros de tiempo discreto con respuesta al


impulso infinita (IIR)
1. Para diseñar un filtro debemos definir las especificaciones

(a) Ancho y ubicación de la banda de paso;


(b) Ancho y ubicación de la banda de transición;
(c) Ubicación de la banda de rechazo;

346
(d) Atenuación en la banda de rechazo.
(e) Orden del filtro n.

2. Es necesario además, que los filtros de tiempo discreto que diseñemos sean seme-
jantes a los filtros de tiempo continuo que hemos visto en el capı́tulo anterior. Es
posible lograr este objetivo mediante una transformación de variables que nos per-
mite obtener versiones discretizadas de filtros análogicos. Dichas transformaciones
se obtienen mediante aproximaciones de la derivada y de la integral.

3. En Matlab disponemos de las siguientes funciones para diseñar filtros IIR

(a) butter - filtros Butterworth;


(b) cheby1 - filtros Chebyshev tipo I (ripple u ondulacion en la banda de paso);
(c) cheby2 - filtros Chebyshev tipo II (ripple u ondulacion en la banda de rec-
hazo);
(d) ellip - filtros elı́pticos (fase maximamente plana);

Debemos tener cuidado pues con la misma función se diseñan filtros análogicos y
discretos.

4. Un parámetro necesario para todos los filtros es n, que determina la cantidad de


polos del filtro. Cuando más alto sea, el filtro tendrá mayor atenuación en la banda
de rechazo, mayor pendiente en la zona de transición, y sera más complicado. Por
lo tanto es necesario que N sea lo más bajo posible. Para poder calcularlo según
nuestras necesidades podemos usar las funciones

(a) buttord - estimación orden Butterworth;


(b) cheb1ord - estimación orden Chebyshev tipo I;
(c) cheb2ord - estimación orden Chebyshev tipo II;
(d) ellipord - estimación orden filtro elı́ptico.

5. Para especificar las frecuencias de paso y de corte de los distintos filtros, debemos
fijar primero la frecuencia de muestreo ωm que no se mide en Hertz sino en muestras
por segundo. Por lo tanto, el perı́odo de muestreo es Tm = ω1m .

6. Las frecuencias de paso y de corte de los distintos filtros se especifican como una
fracción de la mitad de la frecuencia de muestreo. Por lo tanto, debemos usar
números 0 < ω < 1, donde 1 representa una frecuencia igual a la mitad de la
frecuencia de muestreo.

347
7. Las funciones de transferencia que obtenemos usando estas funciones de Matlab
tienen la forma
b(z) b0 z N + b1 z N −1 + ... + bN
H(z) = = . (20.60)
a(z) a0 z N + a1 z N −1 + ... + an
donde b(z) y a(z) son polinomios en z. Las funciones devuelven dos vectores b y
a de longitud N + 1 ordenados de la siguiente forma

b = [b0 , b1 , b2 , ..., bN ], (20.61)


a = [a0 , a1 , a2 , ..., aN ]. (20.62)

20.10 Funciones Matlab usadas para el diseño de


filtros
1. Para diseñar filtros Butterworth usaremos la función butter. La ayuda traducida
y explicada que corresponde a esta función es la siguiente

(a) butter diseño de filtros digitales y analógicos Butterworth


butter Butterworth digital and analogic filter design.
(b) Filtros Butterworth digitales pasabajos de orden N y frecuencia de corte Wn,
[B,A] = butter(N,Wn)
Obtenemos un filtro de orden N y función de transferencia B(z)
A(z)
. Los coefi-
cientes están almacenados en los vectores B (numerador) y A (denominador),
ordenados en potencias descendentes de z. Las frecuencias de corte W n debe
estar normalizada
0.0 < Wn < 1.0
donde 1.0 representa la mitad de la frecuencia de muestreo
(c) Filtros Butterworth digitales pasabanda de orden N y banda de paso W 1 <
ω < W 2. Tenemos que escribir
[B,A] = butter(N,[W1 W2])
para diseñar un filtro pasabanda, donde W1 y W2 son las frecuencias inferior
y superior de la banda de paso normalizadas.
(d) Filtros Butterworth digitales pasaalto de orden N y frecuencia de corte Wn
[B,A] = butter(N,Wn,’high’)

348
(e) Filtros Butterworth digitales suprimebanda de orden N y frecuencia de corte
Wn Tenemos que escribir
[B,A] = butter(N,[W1 W2],’stop’)
para diseñar un filtro suprimebanda, donde W1 y W2 son las frecuencias
inferior y superior de la banda de rechazo.
(f) Ceros y polos de los filtros Butterworth Si queremos obtener los ceros y polos
de los filtros Butterworth, debemos usar tres variables a la izquierda del signo
=. Por ejemplo
[Z,P,K] = butter(N,Wn,’stop’)
son los ceros, polos y ganancia de un filtro suprimebanda de orden N y banda
rechazada entre W1 y W2.
(g) Filtros analógicos
butter(N,Wn,’s’)
butter(N,Wn,’high’,’s’)
butter(N,Wn,’stop’,’s’)
son las órdenes que generan filtros de tiempo continuo.

2. Para diseńar filtros Chebyshev tipo I usaremos la función cheby1. La ayuda


traducida y explicada que corresponde a esta función es la siguiente

(a) cheby1 Diseño de filtros digitales y analógicos de tipo I


cheby1
Chebyshev type I digital and analog filter design.
(b) Filtros Chebyshev Tipo I digitales pasabajo de orden N, con tolerancia R (en
decibeles) en la banda de paso y frecuencia de corte Wn. Usar R = 0.5 como
valor inicial.
[B,A] = cheby1(N,R,Wn)
(c) Filtros Chebyshev Tipo I digitales pasabanda de orden N, con tolerancia R
(en decibeles) en la banda de paso y frecuencias de corte W1 (inferior) y W2
(superior). Empezar con R = 0.5 si se duda que valor elegir.
[B,A] = cheby1(N,R,[W1 W2],’pass’)
(d) Filtros Chebyshev Tipo I digitales pasaalto de orden N, con tolerancia R (en
decibeles) en la banda de paso y frecuencia de corte Wn
[B,A] = cheby1(N,R,Wn,’high’)

349
(e) Filtros Chebyshev Tipo I digitales suprimebanda de orden N, con tolerancia
R (en decibeles) en la banda de paso y frecuencias de corte W1 (mı́nima)y
W2 (máxima) de la banda de rechazo
[B,A] = cheby1(N,R,[W1 W2],’stop’)
(f) Ceros y polos de los filtros Chebyshev tipo I
[Z,P,K] = Cheby1(...)
Es decir, si queremos obtener los ceros y polos de los filtros Chebyshev tipo
I, debemos usar tres variables a la izquierda del signo =. Por ejemplo
[Z,P,K] = cheby1(N,Wn,’stop’)
son los ceros, polos y ganancia de un filtro suprimebanda de orden N y banda
rechazada entre W1 y W2.
(g) Filtros analógicos
cheby1(N,Wn,’s’),
cheby1(N,Wn,’high’,’s’)
cheby1(N,Wn,’stop’,’s’)

3. Para diseńar filtros Chebyshev tipo II usaremos la función cheby2. La ayuda


traducida y explicada que corresponde a esta función es la siguiente

(a) cheby2 Diseño de filtros digitales y analógicos de tipo II


cheby2
Chebyshev type II digital and analog filter design.
(b) Filtros Chebyshev Tipo II digitales pasabajo de orden N, con atenuación
mı́nima R (en decibeles) en la banda de rechazo y frecuencia de corte Wn.
Empezar con R = 20 si se duda que valor elegir.
[B,A] = cheby2(N,R,Wn)
(c) Filtros Chebyshev Tipo II digitales pasabanda de orden N, con atenuación
mı́nima R (en decibeles) en la banda de rechazo y frecuencias de corte W1
(inferior) y W2 (superior).
[B,A] = cheby2(N,R,[W1 W2],’stop’)
(d) Filtros Chebyshev Tipo II digitales pasaalto de orden N, con atenuación
mı́nima R (en decibeles) en la banda de rechazo y frecuencia de corte Wn
[B,A] = cheby2(N,R,Wn,’high’)

350
(e) Filtros Chebyshev Tipo II digitales suprimebanda de orden N, con atenuación
mı́nima R (en decibeles) en la banda de rechazo y frecuencias de corte W1
(mı́nima)y W2 (máxima) de la banda de rechazo
[B,A] = cheby2(N,R,[W1 W2],’stop’)
(f) Ceros y polos de los filtros Chebyshev tipo II
[Z,P,K] = Cheby2(...)
Es decir, si queremos obtener los ceros y polos de los filtros Chebyshev tipo
II, debemos usar tres variables a la izquierda del signo =. Por ejemplo
[Z,P,K] = cheby2(N,Wn,’stop’)
son los ceros, polos y ganancia de un filtro suprimebanda de orden N y banda
rechazada entre W1 y W2.
(g) Filtros analógicos
cheby2(N,Wn,’s’),
cheby2(N,Wn,’high’,’s’)
cheby2(N,Wn,’stop’,’s’)

4. Para diseńar filtros Chebyshev tipo II usaremos la función cheby2. La ayuda


traducida y explicada que corresponde a esta función es la siguiente

(a) Diseño de filtros elı́pticos digitales y analógicos


(b) Filtros elı́pticos digitales pasabajo de orden N, con tolerancia Rp en la banda
de paso y atenuación mı́mina Rs en la banda de rechazo, con frecuencia de
corte Wn. Comenzar con Rp = 0.5 y Rs = 20 si no se sabe que elegir.
[B,A] = ellip(N,Rp,Rs,Wn)
(c) Filtros elı́pticos digitales pasabanda de orden N, con tolerancia Rp en la banda
de paso y atenuación mı́mina Rs en la banda de rechazo, con frecuencias de
corte W1 (mı́nima) y W2 (máxima) de la banda de paso. Comenzar con
Rp = 0.5 y Rs = 20 si no se sabe que elegir. Debemos usar el siguiente
comando
[B,A] = ellip(N,Rp,Rs,[W1 W2])
(d) Filtros elı́pticos digitales pasaalto de orden N, con tolerancia Rp en la banda
de paso y atenuación mı́mina Rs en la banda de rechazo, con frecuencia de
corte Wn.
[B,A] = ellip(N,Rp,Rs,Wn,’high’)

351
(e) Ceros y polos de los filtros elı́pticos
[Z,P,K] = ellip(...)
Es decir, si queremos obtener los ceros y polos de los filtros elı́pticos, debemos
usar tres variables a la izquierda del signo =. Por ejemplo
[Z,P,K] = ellip(N,Rp,Rs,Wn,’stop’)
son los ceros, polos y ganancia de un filtro suprimebanda de orden N y banda
rechazada entre W1 y W2.
(f) Filtros analógicos
ellip(N,Rp,Rs,Wn,’s’),
ellip(N,Rp,Rs,Wn,’high’,’s’)
ellip(N,Rp,Rs,Wn,’stop’,’s’)

352
Capı́tulo 21

Ejemplos

21.1 FFT con eje de frecuencia


function [X,w] = contfft(x,T);
% CONTFFT [X,w] = contfft(x,T)
%
% Computes the Fourier transform of a continuous time signal
% using the FFT. The input is the sampled continuous
% time signal x and the sampling time T. The output is
% the Fourier transform X(w) and the frequency vector w.
%
[n,m] = size(x);
if n<m,
x = x’;
end
Xn = fft(x);
N = length(x);
n = 0:N-1;
n(1) = eps;
X = (1-exp(-j*2*pi*n/N))./(j*2*pi*n/N/T).*Xn.’;
w = 2*pi*n/N/T;

21.2 Filtro y FTT


% Frecuencia de muestreo en muestras por segundo
Fm = 20000;
% La mitad de la frecuencia de muestreo
Fmm = Fm/2;

353
% Frecuencia en Hz a la que tiene que haber rp decibeles de atenuacion
wp = 5000;
% Atenuacion en dB a la frecuencia de corte
rp = 3;
% Frecuencia en Hz a la cual tiene que haber rs decibeles de atenuacion
ws = 6000;
% Atenuacion minima en la banda de rechazo
rs = 40;

% buscamos el orden necesario


[n1,wn1] = buttord(wp/Fmm, ws/Fmm, rp, rs);

% calculamos el filtro
[b1,a1] = butter(n1,wn1);

% graficamos la respuesta en frecuencia del filtro


figure(1);
clf;
[h1,w1] = freqz(b1,a1,512);
figure(1);
clf;
subplot(2,1,1); plot(w1*Fmm/pi,abs(h1));
subplot(2,1,2); plot(w1*Fmm/pi,unwrap(angle(h1)));

% graficamos la respuesta temporal


t = (1:30000)/Fm;
s1 = sin(2*pi*t*1000);
s2 = sin(2*pi*t*5000);
s3 = sin(2*pi*t*6000);
s = s1 + 2*s2 + 1/4*s3;
sf1 = filter(b1,a1,s);
ns = 20;
S1 = fft(s,ns)/(ns/2);
s2 = s1(20:1:(1024-1));
S2 = fft(S2,ns);
SF1 = fft(sf1,ns)/(ns/2);
w1 = [0:(ns/2-1)]/(ns/2)*Fmm;
figure(2);
clf;
plot(w1,abs([S1(1:ns/2)’ SF1(1:ns/2)’]));

354
21.3 Diseño de filtros de tiempo discreto
21.3.1 Filtro Butterworth pasabajo
% filtro Butterworth pasabajo de tiempo discreto

Wm = 8500; % frecuencia de muestreo


Wmm = Wm/2; % mitad de la frecuencia de muestreo
W1=1500; % frecuencia superior banda de paso
Wp=W1/Wmm; % frecuencia superior banda de paso normalizada
rp=3; % ripple banda de paso en dB
W2=1.1*W1; % frecuencia inferior banda de rechazo
Ws=W2/Wmm; % frecuencia inferior banda de rechazo normalizada
rs=20; % atenuacion banda de rechazo en dB

% usamos buttord para dimensionar el filtro


[N,Wn]=buttord(Wp,Ws,rp,rs);

% calculamos el filtro
[b,a]=butter(N,Wn);

% graficamos respuesta en frecuencia


dbode(b,a,1/Wm);

21.3.2 Filtro Butterworth pasabanda


% FILTRO Butterworth pasabanda
Wm = 11000; % frecuencia de muestreo
Wmm = Wm/2; % mitad de la frecuencia de muestreo
W1 = 2800; % frecuencia minima banda de paso
W2 = 4000; % frecuencia maxima banda de paso
W0 = 0.9*W1; % frecuencia maxima banda de rechazo inferior
W3 = 1.1*W2; % frecuencia minima banda de rechazo superior
rp = 3; % ripple banda de paso
rs = 20; % atenuacion banda de rechazo

% usamos buttord para dimensionar el filtro


[N,Wn]=buttord([W1/Fmm W2/Fmm],[W0/Fmm W3/Fmm],rp,rs)

% calculamos el filtro
[b,a]=butter(N,Wn);

355
% graficamos respuesta en frecuencia
dbode(b,a,1/Wm);

21.3.3 Filtro eliptico pasabanda


Wm = 100; % frecuencia de muestreo
t = (1:100)/Wm; % vector tiempo
s1 = sin(2*pi*t*5); % componente de la se~nal a filtrar
s2 = sin(2*pi*t*15); % componente de la se~nal a filtrar
s3 = sin(2*pi*t*30); % componente de la se~nal a filtrar
s = s1 + s2 + s3; % se~nal a filtrar
plot(t,s); % grafico de la se~nal a filtrar

% Para dise~nar un filtro para mantener la sinusoide de


% 15 Hz y eliminar las sinusoides de 5 y 30 Hz, vamos a
% usar un filtro eliptico con una pasabanda de 10 a 20 Hz
[b,a]=ellip(4,0.1,40,[10 20]*2/Wm);
%^ dise~no de filtro de tiempo discreto
[H,w]=freqz(b,a,512);
%^ calculo de la respuesta en frecuencia
plot(w*Wm/(2*pi),abs(H));
%^ grafico de la respuesta en frecuencia
sf = filter(b,a,s);
%^ filtrado
plot(t,sf);
%^ grafico de la se~
nal filtrada
xlabel(’Tiempo (segundos)’);
%^ rotulo x
ylabel(’Se~
nal filtrada’);
%^ rotulo y
axis([0,1,-1,1]);
%^ marco del grafico

S=fft(s,512);
%^ transformada rapida de Fourier
SF=fft(sf,512);
%^ transformada rapida de Fourier
w=(0:255)/256*(Wm/2);
%^ vector de frecuencias para graficar el espectro

356
% Observe que los picos de 5 y 30 Hz han sido eliminados
plot(w,abs[S(1:256)’ SF(1:256)’]));
xlabel(’Frecuencia (Hz)’);
ylabel(’Magnitud de la transformada de Fourier’);

21.3.4 Filtro eliptico suprimebanda


Wm=11000;
Wmm=Wm/2;
W1=2800;
W2=4000;
W0=1.1*W1;
W3=0.9*W2;
rp=3;
rs=40;

[N,Wn]=ellipord([W1/Wmm W2/Wmm],[W0/Wmm W3/Wmm],rp,rs)

[b,a]=ellip(N,rp,rs,Wn,’stop’);

dbode(b,a,1/Wm);

Wm = 8000;
t = (1:500)/Wm;
s1 = sin(2*pi*t*500);
s2 = sin(2*pi*t*1500);
s3 = sin(2*pi*t*2500);
s = s1 + s2 + s3;
subplot(5,1,1); plot(t(400:500),s(400:500));
subplot(5,1,2); plot(t(400:500),s1(400:500));
subplot(5,1,3); plot(t(400:500),s2(400:500));
subplot(5,1,4); plot(t(400:500),s3(400:500));

dp = 0.1;
rs = 40;
n = 4;
[b,a]=ellip(4,dp,rs,[1000,2000]*2/Wm);
sf = filter(b,a,s);
subplot(5,1,5); plot(t(400:500),sf(400:500));

357
Capı́tulo 22

Puntos sin terminar

22.1 Conclusiones sobre filtros de tiempo discreto


Ubicación singularidad Filtro
Polos reales entre z = 0 y z = 1 pasabajo
Ceros reales entre z = −1 y z = 0 pasabajo
Polos reales entre z = −1 y z = 0 pasaalto
Ceros reales entre z = 0 y z = 1 pasaalto
Polos complejos conjugados dentro del cı́rculo unitario pasabanda
Ceros complejos conjugados dentro del cı́rculo unitario suprimebanda
1. Los filtros con polos complejos conjugados |α| ejΩ tienen frecuencias centrales que
se incrementan cuando Ω se incrementa.
2. Los filtros con ceros y polos complejos conjugados más cercanos al cı́rculo unidad
tienen menor ancho de banda.

22.2 Transformación de filtros de tiempo continuo a


tiempo discreto
Con las siguientes transformaciones de funciones de transferencias de tiempo continuo
a tiempo discreto podemos convertir un filtro de tiempo continuo a tiempo discreto y
viceversa.
Aproximación de la integral
Transformación fórmula
−1
rectangular hacia adelante s ⇔ 1−zT z −1
−1
rectangular hacia atras s ⇔ 1−zT
−1
trapezoidal s ⇔ T2 1−z
1+z −1

358
Aproximación de la diferenciación
Transformacion fórmula
−1
diferencia hacia atras s ⇔ 1−zT

22.2.1 Transformación bilineal


Supongamos la ecuación diferencial de primer orden
dy (t)
c1 + c0 y (t) = d0 x (t) , (22.1)
dt
con la función de transferencia
d0
H (s) = . (22.2)
c1 s + c0
Puede plantearse la siguiente relación
Z t
dy (τ )
y (t) − y (t0 ) = dτ, (22.3)
t0 dτ
y en particular
Z nT
dy (τ )
y (nT ) − y ((n − 1) T ) = dτ. (22.4)
(n−1)T dτ
Aproximando la integral por una regla trapezoidal, podemos escribir
" # " # 
T dy (τ ) dy (τ )
y (nT ) − y ((n − 1) T ) =  − , (22.5)
2 dτ τ =nT
dτ τ =(n−1)T

y teniendo en cuenta que


" #
dy (τ )
c1 + c0 y (nT ) = d0 x (nT ) , (22.6)
dτ τ =nT

podemos finalmente obtener una ecuación de diferencias asociada a la función de trans-


ferencia
d0
H (z) = 2 1−z−1 . (22.7)
c1 T 1+z−1 + c0
Vemos entonces que podemos directamente usar la transformación bilineal
2 1 − z −1
s= , (22.8)
T 1 + z −1
y
1 + T2 s
z= . (22.9)
1 − T2 s

359
Aplicando la transformación bilineal obtenemos

1 2 1 − zp−1
sp = (−1) 2N jωc = , (22.10)
T 1 + zp−1
o 1
T
1+ 2
(−1) 2N jωc
zp = 1 . (22.11)
T
1− 2
(−1) 2N jωc
Por ejemplo, para un controlador PID de tiempo continuo tenemos una función de
transferencia
Ki
H(s) = Kp + + Kd s (22.12)
s
Aplicando la transformación rectangular hacia adelante (22.2) obtenemos

(Kd − Kp T + Ki T 2 ) + (Kp T − 2Kd )z + Kd z 2


H(z) = . (22.13)
T (z − 1)

Aplicando la transformación rectangular hacia atrás (22.2) obtenemos

Kd − (Kp T + 2Kd )z + (Kd + Kp T + Ki T 2 )z 2


H(z) = . (22.14)
T (z − 1)z

22.3 Sumario de representaciones de señales en los


dominios del tiempo y la frecuencia
Categoria DominioR del tiempo DominioR de la frecuencia
∞ ∞
CTFT x (t) = −∞ χ (f ) ej2πf t df χ (f ) = −∞ x (t) e−j2πf t dt
P∞ j2πmt T j2πmt
1
x (t) e−
R
CTFS x (t) = m=−∞ χ [m] e T χ [m] = T − T2
2 T dt
1 P∞ −j2πφn
χ̄ (φ) ej2πφn dφ
R
DTFT x [n] = −1
2
χ̄ (φ) = m=−∞ x [n] e
PN2 −1 j2π mn 1 P N −1 −j2π mn
DTFS x [n] = m=0 χ̄ [m] e N χ̄ [m] = N n=0 x [n] e
N

360

También podría gustarte