Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Daniel W. Berns
14 de marzo de 2022
Contenidos
2 Señales (y sistemas) 35
2.1 Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.1.1 Señales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.1.2 Sistemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.2 Operaciones básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1
2.3 Modelo de una señal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.3.1 Variable independiente . . . . . . . . . . . . . . . . . . . . . . . . 37
2.3.2 La variable dependiente . . . . . . . . . . . . . . . . . . . . . . . 38
2.4 Ejemplos de señales de tiempo continuo y discreto . . . . . . . . . . . . . 40
2.5 Los modelos de señales y sistemas no son únicas . . . . . . . . . . . . . . 40
2.6 Propiedades de las señales . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.6.1 Señales acotadas y no acotadas de tiempo continuo . . . . . . . . 41
2.6.2 Señales acotadas y no acotadas de tiempo discreto . . . . . . . . . 42
2.6.3 Señales infinitas y finitas, lateral derecha o lateral izquierda, causales
y anticausales (tiempo continuo) . . . . . . . . . . . . . . . . . . . 42
2.6.4 Señales infinitas y finitas, lateral derecha o lateral izquierda, causales
y anticausales (tiempo discreto) . . . . . . . . . . . . . . . . . . . 43
2.6.5 Señales pares de tiempo continuo . . . . . . . . . . . . . . . . . . 43
2.6.6 Señales pares de tiempo discreto . . . . . . . . . . . . . . . . . . . 44
2.6.7 Señales impares de tiempo continuo . . . . . . . . . . . . . . . . . 44
2.6.8 Señales impares de tiempo discreto . . . . . . . . . . . . . . . . . 46
2.6.9 Componentes par e impar de una señal de tiempo continuo . . . . 46
2.6.10 Componentes par e impar de una señal de tiempo discreto . . . . 47
2.7 Señales periódicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.7.1 Definición de perı́odo (tiempo continuo) . . . . . . . . . . . . . . 48
2.7.2 Definición de perı́odo (tiempo discreto) . . . . . . . . . . . . . . . 48
2.7.3 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.7.4 Como encontrar los perı́odos de señales periódicas de tiempo con-
tinuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.8 Señales exponenciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.8.1 Repaso de números complejos . . . . . . . . . . . . . . . . . . . . 51
2.8.2 Señales exponenciales de tiempo continuo . . . . . . . . . . . . . . 53
2.8.3 Propiedades de la señal exponencial imaginaria de tiempo continuo 55
2.8.4 Señales exponenciales de tiempo discreto . . . . . . . . . . . . . . 55
2.8.5 Propiedades de la señal exponencial imaginaria de tiempo discreto 56
2.8.6 La señal exponencial imaginaria es el bloque constructivo de otras
señales periódicas . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.8.7 Comparación de las señales periódicas de tiempo continuo y discreto 59
2.9 Señales singulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.9.1 El impulso unitario (tiempo discreto) . . . . . . . . . . . . . . . . 59
2.9.2 El escalón unitario (tiempo discreto) . . . . . . . . . . . . . . . . 61
2.9.3 Relación entre impulso y escalón (tiempo discreto) . . . . . . . . . 63
2.9.4 El escalón unitario (tiempo continuo) . . . . . . . . . . . . . . . . 64
2.9.5 El impulso unitario (tiempo continuo) . . . . . . . . . . . . . . . 64
2.9.6 Construcción del impulso y el escalón unitario . . . . . . . . . . . 64
2.10 Señales muestreadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
2
2.10.1 Tiempo discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
2.10.2 Tiempo continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
2.11 Energı́a y potencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
2.11.1 Energı́a de una señal de tiempo continuo . . . . . . . . . . . . . . 70
2.11.2 Energı́a de una señal de tiempo discreto . . . . . . . . . . . . . . 70
2.11.3 Potencia de una señal de tiempo continuo . . . . . . . . . . . . . 70
2.11.4 Potencia de una señal de tiempo discreto . . . . . . . . . . . . . . 70
2.11.5 Señal de energı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
2.11.6 Señal de potencia . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
2.11.7 Decibeles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
2.11.8 Ejemplo: Energı́a promedio para la exponencial imaginaria de
tiempo continuo en un perı́odo T0 . . . . . . . . . . . . . . . . . . 74
2.11.9 Ejemplo: Potencia promedio para la exponencial imaginaria de
tiempo continuo en un perı́odo T0 . . . . . . . . . . . . . . . . . . 75
2.11.10 Ejemplo: Potencia promedio para la exponencial imaginaria de
tiempo continuo en lapso de tiempo infinito . . . . . . . . . . . . 75
2.11.11 Ejemplo: Energı́a y potencia para señales de tiempo discreto . . . 75
2.12 Transformaciones de la variable independiente . . . . . . . . . . . . . . . 78
2.12.1 Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
2.12.2 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
2.13 Respuestas a algunas preguntas . . . . . . . . . . . . . . . . . . . . . . . 83
3 Composición de señales 84
3.1 Composición de señales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.1.1 Ventanas rectangulares . . . . . . . . . . . . . . . . . . . . . . . . 84
3.1.2 Sumatoria de señales desplazadas en el tiempo . . . . . . . . . . . 85
3.1.3 Sumatoria de impulsos desplazadas en el tiempo . . . . . . . . . . 85
3.2 Señales de tiempo discreto . . . . . . . . . . . . . . . . . . . . . . . . . . 85
3.2.1 El impulso unitario . . . . . . . . . . . . . . . . . . . . . . . . . . 85
3.2.2 El impulso unitario desplazado . . . . . . . . . . . . . . . . . . . 85
3.2.3 El impulso multiplicado por un coeficiente . . . . . . . . . . . . . 89
3.2.4 La suma de dos impulsos desplazados en el tiempo y multiplicados
por coeficientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
3.2.5 La suma de N impulsos desplazados en el tiempos y multiplicados
por coeficientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
3.2.6 La señal como combinación lineal de impulsos . . . . . . . . . . . 90
3.2.7 La señal multiplicada con un impulso . . . . . . . . . . . . . . . . 92
3.2.8 Escalado temporal . . . . . . . . . . . . . . . . . . . . . . . . . . 92
3.2.9 Tiempo inverso . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
3.2.10 Desplazamiento en el tiempo . . . . . . . . . . . . . . . . . . . . . 94
3.2.11 Tren de impulsos . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3
3.3 Señales de tiempo continuo . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3.3.1 El pulso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3.3.2 El pulso desplazado . . . . . . . . . . . . . . . . . . . . . . . . . . 95
3.3.3 El impulso como lı́mite del pulso . . . . . . . . . . . . . . . . . . 95
3.3.4 La señal aproximada por una combinación lineal de pulsos . . . . 97
3.3.5 La señal como combinación lineal de impulsos . . . . . . . . . . . 98
3.3.6 Desplazamiento en el tiempo . . . . . . . . . . . . . . . . . . . . . 99
3.3.7 Escalado temporal . . . . . . . . . . . . . . . . . . . . . . . . . . 99
3.3.8 Tiempo inverso . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
3.3.9 Tren de impulsos . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
3.3.10 Muestreo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
3.4 Operaciones útiles, para tiempo discreto . . . . . . . . . . . . . . . . . . 100
3.4.1 Decimación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
3.4.2 Interpolación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
4
4.5 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
4.5.1 Planteo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
4.5.2 Solución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
4.6 Para practicar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
5
7.2 Cálculo de la suma de convolución en forma gráfica . . . . . . . . . . . . 151
7.3 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
7.3.1 Convolución de una señal con un impulso desplazado . . . . . . . 152
7.3.2 Dos señales infinitas . . . . . . . . . . . . . . . . . . . . . . . . . 152
7.3.3 Una señal finita y otra infinita . . . . . . . . . . . . . . . . . . . . 153
7.3.4 Dos señales limitadas en tiempo . . . . . . . . . . . . . . . . . . . 154
6
9.6.8 Funciones impares . . . . . . . . . . . . . . . . . . . . . . . . . . 171
9.6.9 Relación de Parseval . . . . . . . . . . . . . . . . . . . . . . . . . 171
9.6.10 Diferenciación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
9.6.11 Integración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
9.7 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
9.7.1 Tren de pulsos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
9.7.2 Tren de pulsos desfasados . . . . . . . . . . . . . . . . . . . . . . 175
9.7.3 Tren de pulsos alternados . . . . . . . . . . . . . . . . . . . . . . 180
9.7.4 Suma de señales periódicas . . . . . . . . . . . . . . . . . . . . . 182
9.7.5 Una función periódica par . . . . . . . . . . . . . . . . . . . . . . 185
9.7.6 Una función periódica impar . . . . . . . . . . . . . . . . . . . . 189
9.8 Sistema lineal excitado con una serie de Fourier . . . . . . . . . . . . . . 192
9.9 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
7
10.5.8 Convolución en el dominio de la frecuencia . . . . . . . . . . . . . 208
10.5.9 Traslación en frecuencia . . . . . . . . . . . . . . . . . . . . . . . 208
10.5.10 Relación de Parseval . . . . . . . . . . . . . . . . . . . . . . . . . 209
10.5.11 Dualidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
10.5.12 Integración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
8
11.10.7 El producto de dos señales . . . . . . . . . . . . . . . . . . . . . . 230
11.10.8 Potencias de t . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
11.10.9 Funciones exponenciales y trigonométricas . . . . . . . . . . . . . 230
11.10.10Funciones exponenciales e hiperbólicas . . . . . . . . . . . . . . . 230
11.10.11Funciones trigonométricas e hiperbólicas . . . . . . . . . . . . . . 231
11.10.12Impulso unitario o Delta de Dirac . . . . . . . . . . . . . . . . . . 231
11.10.13Función escalón unitario . . . . . . . . . . . . . . . . . . . . . . . 231
11.10.14Funciones generales . . . . . . . . . . . . . . . . . . . . . . . . . . 232
9
13.3.1 Sistemas de primer orden de tiempo continuo . . . . . . . . . . . 256
13.3.2 Sistemas de segundo orden de tiempo continuo . . . . . . . . . . . 258
13.4 Diagramas de Bode para respuestas en frecuencias racionales . . . . . . . 262
13.4.1 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263
10
15.4.4 Las diferencias entre notas musicales de diferentes instrumentos . 286
11
17.3.5 Multiplicación por n . . . . . . . . . . . . . . . . . . . . . . . . . 303
17.3.6 Convolución en z . . . . . . . . . . . . . . . . . . . . . . . . . . . 303
17.3.7 Convolución en n . . . . . . . . . . . . . . . . . . . . . . . . . . . 303
17.4 Transformada Zeta de algunas secuencias . . . . . . . . . . . . . . . . . . 303
17.4.1 Secuencia impulso unitario . . . . . . . . . . . . . . . . . . . . . . 303
17.4.2 Secuencia escalón unitario . . . . . . . . . . . . . . . . . . . . . . 303
17.5 Relación entre secuencias causales y diagramas de ceros y polos . . . . . 304
17.5.1 Secuencia exponencial causal . . . . . . . . . . . . . . . . . . . . . 304
17.5.2 Secuencia exponencial no causal . . . . . . . . . . . . . . . . . . . 304
17.5.3 Comparación entre secuencias causales y no causales . . . . . . . 305
17.5.4 Secuencias bilaterales . . . . . . . . . . . . . . . . . . . . . . . . . 305
17.6 La transformada Zeta Inversa . . . . . . . . . . . . . . . . . . . . . . . . 305
17.6.1 Primer método . . . . . . . . . . . . . . . . . . . . . . . . . . . . 306
17.6.2 Segundo método . . . . . . . . . . . . . . . . . . . . . . . . . . . 307
17.6.3 Tercer método . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308
17.6.4 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308
17.7 Transformada Zeta Unilateral . . . . . . . . . . . . . . . . . . . . . . . . 309
17.7.1 Algunos comentarios . . . . . . . . . . . . . . . . . . . . . . . . . 309
17.7.2 Propiedades de la transformada Z unilateral . . . . . . . . . . . . 309
12
18.7.1 Sistemas con un polo . . . . . . . . . . . . . . . . . . . . . . . . . 324
18.7.2 Sistemas con dos polos . . . . . . . . . . . . . . . . . . . . . . . . 325
18.8 Aplicación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 326
18.8.1 Red eléctrica en escalera . . . . . . . . . . . . . . . . . . . . . . . 326
20 Filtros 333
20.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333
20.1.1 ¿Qué es un filtro? . . . . . . . . . . . . . . . . . . . . . . . . . . . 333
20.2 Definiciones básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 334
20.2.1 Especificaciones para filtros . . . . . . . . . . . . . . . . . . . . . 335
20.3 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335
20.3.1 Un filtro pasabajos de tiempo continuo . . . . . . . . . . . . . . . 335
20.3.2 Un filtro pasaaltos de tiempo continuo . . . . . . . . . . . . . . . 338
20.4 Filtros especiales de tiempo continuo . . . . . . . . . . . . . . . . . . . . 339
20.4.1 Filtros Butterworth . . . . . . . . . . . . . . . . . . . . . . . . . . 339
20.4.2 Filtros Chebyshev . . . . . . . . . . . . . . . . . . . . . . . . . . . 340
20.4.3 Filtros elı́pticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 343
20.5 Pasabajo, frecuencia no normalizado . . . . . . . . . . . . . . . . . . . . 344
20.6 Transformación de pasabajo a pasaalto . . . . . . . . . . . . . . . . . . . 344
20.7 Pasaje de pasabajo a pasabanda . . . . . . . . . . . . . . . . . . . . . . . 344
20.8 Pasaje de pasabajo a suprimebanda . . . . . . . . . . . . . . . . . . . . . 344
20.9 Filtros de tiempo discreto . . . . . . . . . . . . . . . . . . . . . . . . . . 344
20.9.1 Filtro recursivo o de respuesta al impulso infinita IIR . . . . . . . 345
20.9.2 Filtros de respuesta al impulso finita FIR . . . . . . . . . . . . . 345
20.9.3 Diseño de filtros de tiempo discreto con respuesta al impulso in-
finita (IIR) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 346
20.10Funciones Matlab usadas para el diseño de filtros . . . . . . . . . . . . . 348
13
21 Ejemplos 353
21.1 FFT con eje de frecuencia . . . . . . . . . . . . . . . . . . . . . . . . . . 353
21.2 Filtro y FTT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353
21.3 Diseño de filtros de tiempo discreto . . . . . . . . . . . . . . . . . . . . . 355
21.3.1 Filtro Butterworth pasabajo . . . . . . . . . . . . . . . . . . . . . 355
21.3.2 Filtro Butterworth pasabanda . . . . . . . . . . . . . . . . . . . . 355
21.3.3 Filtro eliptico pasabanda . . . . . . . . . . . . . . . . . . . . . . . 356
21.3.4 Filtro eliptico suprimebanda . . . . . . . . . . . . . . . . . . . . . 357
14
Capı́tulo 1
2 + 2
3 - 5
3 / 1.4
2 * pi / 4
(1 + 2 * i) / (1 - 2 * i)
15
4. El comando diary nos permite grabar en un archivo de texto todas las ordenes,
datos y resultados de una sesión. Para usar el comando diary escribamos en la
lı́nea de comando
2. La orden help comando nos da una descripción del comando y posiblemente una
lista de comandos relacionados.
(1 + 2 * j) * (1 - 2 * i)
45 * (56 + i) - 34 * (16 - 32 * j)
[ 1 + 2 * i 1 - 3 * i]
[ 1 + 2 * i, 1 - 3 * i]
16
3. Podemos crear un vector columna escribiendo
[ 1 + 2 * i; 1 - 3 * i]
[ 1 + 2 * i
1 - 3 * i]
1.1.6 Variables
1. A diferencia de una calculadora, Matlab/Octave permite asignar nombres a los
diferentes valores. Esta combinación de nombre y valor recibe el nombre de vari-
able.
17
Los comandos who y what
1. El comando who da una lista de las variables presentes en el espacio de trabajo
(workspace)
2. Pruebe ingresar
4. Pruebe ingresar
5. Pruebe ingresar
>> who
>> what
>> x = 3 + 4 * i
>> real(x) % 3
>> imag(x) % 4
>> conj(x) % 3 - 4 * i
>> abs(x) % 5
>> angle(x) % 0.9273
Para hallar las raı́ces del polinómio podemos colocar los coeficientes del polinomio
en un vector y usar la función roots
18
p = [bn, ..., b0];
roots(p)
x2 + 2x + 3 = 0. (1.2)
Escribamos entonces
p = [1,2,3];
roots(p)
3. Supongamos ahora que tenemos las raı́ces y necesitamos hallar los coeficientes del
polinomio. Podemos escribir entonces
>> r = [1,-1+2*i,-1-2*i];
>> poly(r)
5. Pruebe con
poly(roots(p))
19
1.1.10 Generación de vectores y matrices
1. Matlab permite la generación de valores y su asignación a vectores y matrices
mediante un mecanismo sumamente eficiente.
2. Por ejemplo, supongamos que deseamos obtener un vector con una lista de números
que comienza en 1, termina en 2 con incrementos de 0.1. Escribiendo
>> t = 1:0.1:2
se obtiene el vector deseado. Observe que t es un vector fila, es decir, está formado
por una fila de once columnas (1 × 11).
>> t = (1:0.1:2)’
>> t = 1:0.1:2;
>> size(t)
>> size(t’)
3. Las operaciones de suma, resta y multiplicación por escalares son muy simples.
Pruebe los siguientes comandos
>> t + 2
>> t - 2
>> t * 2
20
4. Estas operaciones se realizan sumando 2, restando 2 y multiplicando por 2 cada el-
emento del vector. De la misma forma se pueden aplicar funciones trigonométricas
>> cos(t)
>> sin(2 * t - 1)
>> t .* t
>> t .^2
>> t’ * t
>> t * t’
1. Definamos
x = [-1 2]
y = [3 4]
x .* y
y obtendrá
[-3 8]
21
5. Lo mismo se puede hacer con la división
x ./ y
y la exponenciación
x .^ y
x .^ 2
v = [1, 2, 3, 4, 5, 6, 7]
v(1)
3. También podemos manipular una parte del vector v escribiendo v(i:j), donde i
es un número entero mayor que 0, y i <= j. Pruebe
v(2:7)
v(1:6)
v(2:7) - v(1:6)
v(2:end) - v(1:end-1)
Comando Resultado
det determinante de una matriz
eig autovalores y autovectores
inv inversa matricial
svd valores singulares de una matriz
cond numero de condicion de una matriz
22
6. Supongamos un sistema de 2 ecuaciones con dos incógnitas
Ax = b (1.4)
donde
A = [ 1, 2; 2, 1];
b = [ 1; 2];
(a) Como se puede resolver este sistema de ecuaciones con alguna de las funciones
indicadas arriba?
x = inv(A) * b;
(b) Como puede asegurar que el resultado es correcto?
x = inv(A) * b;
e = A * x - b;
e’ * e % e’ es el vector transpuesto
(c) Resuelva los sistemas de ecuaciones con los siguientes coeficientes y calcule
los errores correspondientes
" # " #
1 1 0
A1 = , b1 = , (1.5)
−1 1 1
" # " #
100.0 100.0 0
A2 = , b2 = . (1.6)
100.0 100.0 + 5 ∗ eps 1
23
3. Como ve, f igure sirve para generar distintas ventanas de graficación, plot recon-
struye una función continua a partir de una secuencia de valores discretos uniendo
los puntos con rectas, y stem grafica una secuencia de valores discretos.
5. Como puede ver, estos comandos tienen muchas opciones y están relacionadas con
muchos otros comandos. Por ejemplo, si desea generar distintos distintos tipos de
lı́neas y colores para los gráficos puede escribir plot (t, y, s) donde s es un
string o cadena de carácteres del tipo abc donde a es cualquiera de los siguientes
códigos
y (yellow) amarillo,
m (magenta o violeta),
c (cyan o celeste),
r (red o rojo),
g (green) verde, b (blue)
azul, w (white), k (black) negro
. punto,
o circulo,
x equis,
* asterisco,
s (square) cuadrado,
d diamante o rombo,
v la letra v (abajo),
< menor (izquierda),
> mayor (derecha),
^ carat (arriba),
p pentagrama,
h hexagrama
24
- solida,
: punteada,
-. barra y punto,
-- barra.
6. Por ejemplo,
>> plot(t,y,’c+:’)
dibuja una lı́nea color celeste con la interpolación punteada uniendo las cruces en
cada dato.
7. Observe que con grid puede superponer una grilla al dibujo, con xlabel coloca un
tı́tulo al eje de coordenadas, ylabel coloca un tı́tulo al eje de absisas, title coloca
un tı́tulo al gráfico y clf borra el gráfico anterior si lo hubiera. Pruebe
>> t = 0:0.1:2*pi;
>> clf; plot(t,cos(t),’m:o’);
>> grid;
>> xlabel(’t’);
>> ylabel(’cos(t)’);
>> title(’funci\’{o}n peri\’{o}dica’); % Latex para acentos, solo en Matlab
8. Un comando que nos resultará útil es subplot. Nos permite componer distintos
subgráficos en una misma ventana. Pruebe
>> clf;
>> subplot(3,2,1); plot(t,cos(t));
>> subplot(3,2,2); stem(t,cos(t));
>> subplot(3,2,3); plot(t,sin(t));
>> subplot(3,2,4); stem(t,sin(t));
>> subplot(3,2,5); plot(t,tan(t));
>> subplot(3,2,6); stem(t,tan(t));
>> help subplot
2. Pruebe
25
>> t = 0:0.1:2*pi;
>> clf; plot(t,cos(t));
>> print -deps cos.eps
3. Vea cuales son las opciones del comando print con el sistema de ayuda.
>> t = 0:0.1:2*pi;
>> clf; plot(t,cos(t));
>> print(’my_plot.tex’, ’-dtex’);
3. Compare el resultado de
>> fprintf(’hola’)
con
>> fprintf(’hola\n’)
26
4. Es posible escribir datos de una forma similar a la de un programa en C
for x = 1:8
fprintf(’x = %d; y = %d\n’, x, 2 * x - 1);
end
x = 1;
while (x <= 8)
fprintf(’x = %d; y = %d\n’, x, 2 * x - 1);
x = x + 1;
end
for x = 1:15
if (mod(x, 2) == 0)
fprintf(’%d es par\n’, x);
elseif (mod(x, 3) == 0)
fprintf(’%d es impar y divisible por 3\n’, x);
else
fprintf(’%d es impar\n’, x);
end
end
27
1.2 Ejemplo 1
En esta sección vemos
2. Imprimir en pantalla.
La idea es hacer una práctica de la escritura de un programa (aún cuando este no tenga
otra utilidad).
Hay varias de formas de generar números.
for x = 1:51
fprintf(’%d\n’, x);
end;
for x = 1:51
fprintf(’%d\n’, x);
endfor;
x = 1;
while (x < 51)
fprintf(’%d\n’, x);
x = x + 1;
endwhile
x = 1;
while (x < 51)
fprintf(’%d\n’, x);
x = x + 1;
endwhile
28
5. Generando un vector
x = 1:1:51
1.3 Ejemplo 2
En esta sección veremos como escribir y leer archivos de texto.
1. Para leer y escribir archivos de texto, necesitamos primero abrir el archivo. Para
esto usamos una función denominada “fopen”.
3. “fopen” devuelve un valor que tenemos que guardar en una variable. Por lo tanto,
el comando se escribe
fid = fopen(’nombre.txt’);
La variable fid guarda un número que funciona como identificador del archivo
(“File IDentifier”). Si fopen falla, fid será igual a −1.
fid = fopen(’archivo’,’r’);
29
6. Cuando un archivo se abre para escribir, el comando es
fid = fopen(’archivo’,’w’);
fid = fopen(’archivo’,’a’);
8. Existen otras opciones que puede ver escribiendo “help fopen”. Por el momento,
no las usaremos.
x = 2;
y = 3;
fprintf(fid, ‘‘x = %d; y = %f’’, x, y);
A = fscanf(fid, ‘‘%d’’);
11. Una ventaja de Matlab es que muchas funciones están vectorizadas. Por lo tanto,
escribiendo
12. Finalmente, tanto para lectura como para escritura, debemos cerrar los archivos
con el comando “fclose(fid)”.
30
for x = 1:3
for y = 1:10
% escribo en archivo
% identificado con la
% variable esc
fprintf(esc, ’%d ’, x + y);
end
% escribo en archivo
% identificado con la
% variable esc
fprintf(esc,’\n’);
end
2 3 4 5 6 7 8 9 10 11
3 4 5 6 7 8 9 10 11 12
4 5 6 7 8 9 10 11 12 13
31
1.4 Ejemplo 3
En esta sección vemos como
1. Leer una tabla de datos con tres columnas a las que llamaremos a, b, y c.
3. Imprimir u y v.
x = 0:1:1000;
2. Para el cálculo del promedio debo sumar todos los elementos de x. Explique
porqué funciona el siguiente truco:
u = ones(size(x));
suma = u’ * x
4. Usamos la constante eps de Matlab para protegernos contra la división por cero.
8. Al escribir : en A(:, n), Matlab se encarga de usar un ciclo for para recu- perar
todas las filas de la columna n de la matriz A.
10. Al escribir : en A(n, :), Matlab se encarga de usar un ciclo for para recu- perar
todas las columnas de la fila n de la matriz A.
32
11. Puedo verificar una condición sobre todo un vector sin escribir un ciclo. Supong-
amos que x = [1, 2, −3, −4, −6, 7, 8, 9]. Entonces y = x > 0 me permite obtener
y = [1, 1, 0, 0, 0, 1, 1, 1] donde los 1 en las posiciones 1, 2, 6, 7y8 de y me indican
que x(1) es mayor que 0, x(2) es mayor que 0, x(6) es mayor que 0, x(7) es mayor
que 0 y x(8) es mayor que 0, y los 0 en las posiciones 3, 4 y 5 de y me indican que
x(3) <= 0, x(4) <= 0 y x(5) <= 0.
12. Supongamos que queremos dividir todos los elementos del vector x = [1, 2, 3, 4],
por los del vector y = [2, 3, 4, 6] (ambos del mismo tamaño). Podemos dividir
elemento a elemento a los vectores x e y escribiendo x./y.
13. Ejemplo
for x = 1:10
for y = 1:3
% escribo en archivo
% identificado con la
% variable esc
fprintf(esc, ’%d ’, x + y);
end
% escribo en archivo
% identificado con la
% variable esc
fprintf(esc,’\n’);
end
33
% leo archivo identificado con
% la variable lec
[A,s] = fscanf(lec,’%d’,[10,3]);
34
Capı́tulo 2
Señales (y sistemas)
2.1 Definiciones
En este capı́tulo vemos las definiciones de señales y sistemas, sus representaciones y
propiedades. Por el momento ponemos más énfasis en el concepto de señales.
2.1.1 Señales
1. Una señal es un fenómeno natural que se propaga de un punto (emisor) a otro
(receptor) del espacio y el tiempo.
3. En electrónica, las señales son cargas, corrientes y tensiones electrı́cas, ondas elec-
tromagnéticas, campos eléctricos y magnéticos.
5. Por ejemplo en una radio AM, el sonido provoca en un micrófono una tensión
eléctrica variable, que se usa para modular (modificar) otra tensión eléctrica de
alta frecuencia, que aplicada a un circuito conectado a una antena de las dimen-
siones adecuadas, provoca la emisión de un campo electromagnético que transmite
información hasta el receptor, donde se producen procesos similares para obtener
un sonido similar al que excitó al micrófono en el emisor.
35
(a) Determinı́stica, si conocemos el valor de su función para todo valor de sus
variables independientes. Por ejemplo x(t) = cos(2 π 50 t).
(b) Estocástica, aleatoria o probabilı́stica si sólo conocemos medidas estadı́sticas
del valor de la señal, como el promedio, la desviación estándar, etc, o fun-
ciones como la distribución de la probabilidad que la variable verifique cierta
condición. Por ejemplo, la temperatura media del verano en Rio de Janeiro.
2.1.2 Sistemas
1. Los sistemas son conjuntos de partes que interactúan entre sı́, recibiendo señales
(entradas) y generando señales (salidas).
2. Por ejemplo, un automóvil es un sistema: tiene diferentes partes, recibe entradas
por el acelerador, el freno, el embrague y el volante, y genera salidas como la
velocidad de las ruedas, y la dirección de movimiento.
3. Podemos representar a los sistemas mediante modelos. Un modelo es una de-
scripción del conjunto de señales de entrada, el conjunto de señales de salida, y la
relación entre las señales de entradas y salidas
4. El conjunto de señales de entrada de un sistema se denomina interfaz de entrada.
5. El conjunto de señales de salida se denomina interfaz de salida.
6. Un sistema puede tener múltiples modelos, de distinto tipo y exactitud. Un modelo
representa al sistema en forma parcial y aproximada.
(a) la ley de Newton F = m a es un modelo que solo describe como se acelera un
sistema de masa m con una fuerza aplicada F siempre y cuando la velocidad
sea baja, y la masa sea “normal” (dentro de los lı́mites de la experiencia
cotidiana). Si queremos saber que pasa a velocidades cercanas a la de la
luz, necesitamos emplear la teorı́a de la relatividad general para estudiar la
dinámica del sistema.
(b) Si vamos a construir una casa, podemos suponer que el terreno es plano.
Si vamos a viajar a China, tenemos que tener en cuenta que la Tierra no
es plana. Podemos suponer que es esférica, aunque en realidad tiene forma
de pera. En cambio, si deseamos lanzar un satélite y controlar su órbita,
tenemos que tener en cuenta la forma de pera
7. Generalmente se intenta construir el modelo más simple que explique las observa-
ciones realizadas sobre un sistema dado. Esta regla, llamada la navaja de Ockham,
se debe a William of Ockham, un fraile franciscano y sabio inglés del siglo catorce,
que la enunció por primera vez.
36
8. Estamos interesados en obtener modelos para construir programas de simulación
que aceptando mediciones de las entradas de un sistema natural dado, generen
resultados iguales (o aproximados con un error máximo conocido) a las salidas
que observamos en la realidad. Por ejemplo, LT Spice nos permite simular el
funcionamiento de circuitos eléctricos y electrónicos.
9. En esta materia, vamos a emplear como modelos las ecuaciones diferenciales lin-
eales y las ecuaciones de diferencias lineales.
37
Figura 2.1: Señal de tiempo continuo
38
Figura 2.2: Señal de tiempo discreto
39
2.4 Ejemplos de señales de tiempo continuo y dis-
creto
1. Nuestros cinco sentidos detectan o responden a señales de tiempo continuo.
5. Un reloj análogico (de agujas) es un sistema de tiempo ... discreto. Este tipo
de reloj es, básicamente, un contador de tic tacs (o intervalos de tiempo). En
efecto, en el año 1678, Mateo Campani de Alimenis da la siguiente descripción de
un reloj: “Horologium, solo naturae motu, atque ingenio, dimetiens, et numerans
momenta temporis, constantissime aequalia.” (un reloj que, solo por movimientos
naturales, indica regularmente iguales divisiones de tiempo).
6. ¿Cúal podrı́a ser un ejemplo de reloj analógico de “verdad”? ¿Este reloj analógico
de verdad serı́a exacto ?
40
Representacion logica
0.5
0 2 4 6 8 10 12 14
Representacion continua
0.5
0 2 4 6 8 10 12 14
41
Figura 2.4: Es posible notar la discretización de esta función “continua”.
1. Una señal x(t) es finita si su valor es nulo antes de un tiempo de inicio t1 y después
de un tiempo de finalización t2 . En caso contrario, la señal es infinita.
42
2. Note que estas definiciones implican que para que una señal sea infinita uno solo
de ambos tiempos t1 y t2 necesita ser infinito mientras que el otro puede ser finito.
7. Note que una señal puede ser infinita y acotada a la vez. Por ejemplo, x(t) = cos(t).
• Note que estas definiciones implican que para que una señal sea infinita uno solo
de ambos tiempos n1 y n2 necesita ser infinito mientras que el otro puede ser finito.
• Note que una señal puede ser infinita y acotada a la vez. Por ejemplo, x[n] = cos[n].
Ejemplo
Considere la siguiente ecuación
43
Figura 2.5: Función par (tiempo continuo)
Ejemplo
Considere la siguiente función
(−n)2 n2
x[−n] = = = x[n]. (2.11)
10 10
Vea la Fig. (2.6). La gráfica es invariante para una rotación de π radianes.
Ejemplo
Considere la siguiente función
sin(−t) = − sin(t). (2.13)
Vea la Fig. (2.7)
44
n^2/10 funcion par
10
0
-10 -5 0 5 10
Figura 2.6: Función par (tiempo discreto). La gráfica es invariante para una rotación
de π radianes.
45
n^3/100 funcion impar
10
-5
-10
-10 -5 0 5 10
Ejemplo
Considere la siguiente función
x[−n] = (−n)3 = −n3 = −x[n]. (2.15)
Vea la Fig. (2.8).
2
1
0
-1
-2
-3 -2 -1 0 1 2 3
parte par
1
0.5
0
-0.5
-1
-3 -2 -1 0 1 2 3
parte impar
1
0.5
0
-0.5
-1
-3 -2 -1 0 1 2 3
Figura 2.9: Primer gráfico: una función con componentes pares e impares (tiempo
continuo). Segundo gráfico: componente par. Tercer gráfico: componente impar.
Ejemplo
Vea la Fig. (2.9).
definiendo
1
par (x [n]) = (x [n] + x [−n]) , (2.20)
2
1
impar (x [n]) = (x [n] − x [−n]) . (2.21)
2
Ejemplo
Vea la Fig. (2.10).
47
n^3/100+n^2/10
20
10
0
-10
-20
-10 -5 0 5 10
parte par
10
5
0
-5
-10
-10 -5 0 5 10
parte impar
10
5
0
-5
-10
-10 -5 0 5 10
Figura 2.10: Primer gráfico: una función con componentes pares e impares (tiempo
discreto). Segundo gráfico: componente par. Tercer gráfico: componente impar.
2.7.3 Ejemplos
1. Vea la Fig. (2.11). El perı́odo es T = 10.
48
3. Vea la Fig. (2.13). No existe un número N tal que
x[n] = x[n + N ]. (2.24)
Esta señal nos parece periódica porque puede dibujarse sobre una señal periódica
de tiempo continuo, denominada envolvente.
Ejemplos
1. x (t) = 4 cos (5 π t) , donde ω0 = 5 π. Podemos calcular el perı́odo
2 2
5 π T = 2 π, T = , cos 5 π = cos (2 π) = cos (0) . (2.26)
5 5
π
2. x (t) = 4 cos 4 π t − 4
. Podemos calcular el perı́odo
1 1 π π π
4 π T = 2 π, T = , cos 4π − = cos 2 π − = cos − .
2 2 4 4 4
(2.27)
3. x (t) = u (t) + 4 cos (5 π t) , no es periódica, porque
−2 2 2 2
u − 4 cos −5 π 6= u − 4 cos 5 π . (2.28)
5 5 5 5
49
Funcion periodica x(t) = cos(2 * pi * t / 10)
0.5
cos(2 * pi * t / 10)
-0.5
-1
0 10 20 30 40 50
t
0.5
cos(2 * pi * n / 10)
-0.5
-1
0 10 20 30 40 50
n
50
Funcion discreta no periodica con envolvente continua periodica
0.5
cos(7 * n / 10)
-0.5
-1
0 10 20 30 40 50
n
Figura 2.13: Señal de tiempo discreto que NO es periódica y que tiene una envolvente
continua que si es periódica
Unidad imaginaria
Definimos la unidad imaginaria como
√
j= −1. (2.30)
j 2 = −1. (2.31)
Números complejos
El conjunto de los números complejos se simboliza C y sus elementos se representan en
forma cartesiana como a + b j, donde a ∈ R, b ∈ R, y j es la unidad imaginaria.
51
Números complejos conjugados
Llamamos números complejos conjugados a un par de números que simbolizamos z y z
z = a + jb,
(2.32)
z = a + jb = a − jb,
Relación de Euler
La relación de Euler es la igualdad
ejb + e−jb
cos (b) = , (2.41)
2
y
ejb − e−jb
sin (b) = . (2.42)
2j
x(t) = R ea t . (2.44)
53
Señales exponenciales complejas de tiempo continuo
La exponencial es compleja si R es un número real y a es un número complejo
R ∈ <, (2.46)
y
a = γ + j ω0 ∈ C. (2.47)
La exponencial compleja puede evaluarse con la relación de Euler
donde
√
• j= −1 es la unidad imaginaria
• R eγ t es la envolvente,
• Perı́odo T y frecuencia ω0 = 2π
T
.
R = α ej θ , (2.49)
a = γ + j ω0 . (2.50)
• αeγt es la envolvente,
• θ es la fase,
• ω0 la frecuencia.
54
2.8.3 Propiedades de la señal exponencial imaginaria de tiempo
continuo
Perı́odo y frecuencia
Consideremos una señal periódica de tiempo continuo con perı́odo T0
x (t) = x (t + T0 ) . (2.54)
Para verificar que una señal exponencial imaginaria de tiempo continuo sea periódica
podemos factorear
R ej ω0 t = R ej ω0 (t+T0 ) = R ej ω0 t ej ω0 T0 , (2.55)
Aplicando la relación de Euler, verificamos
ej ω0 T0 = cos (ω0 T0 ) + j sin (ω0 T0 ) = cos(2 π) + j sin(2 π) = 1, (2.56)
y
2π
T0 = . (2.57)
|ω0 |
La conclusión es que la señal exponencial imaginaria de tiempo continuo siempre es
periódica porque siempre podemos encontrar T0 dado ω0 .
55
Señales exponenciales imaginarias de tiempo discreto
Si β es un número imaginario puro entonces α = ej ω0 → |α| = 1, y por la relación de
Euler
x [n] = ej ω0 n = cos (ω0 n) + j sin (ω0 n) . (2.61)
x [n] = R αn , (2.62)
donde
R = |R | ejθ , (2.63)
α = |α| ej ω0 . (2.64)
y
x [n] = R αn = |R | |α|n (cos (ω0 n + θ) + j sin (ω0 n + θ)) . (2.66)
56
Entonces si ω0 = P 2 π, donde P es un número racional,
2π M
N= M= , (2.71)
P 2π P
y
M
. P = (2.72)
N
Para que una exponencial imaginaria de tiempo discreto sea periódica, su
frecuencia debe ser una fracción propia de π.
ej(ω0 +2 π) n = ej ω0 n ej 2 πn = ej ω0 n , (2.73)
porque
Esto significa que dos funciones exponenciales complejas de tiempo discreto de frecuen-
cias que difieran en 2 π son iguales.
57
2.8.6 La señal exponencial imaginaria es el bloque constructivo
de otras señales periódicas
1. Para construir otras señales periódicas usaremos conjuntos de exponenciales imag-
inarias (o sea, varias señales exponenciales imaginarias) a las que simbolizaremos
φk (t) . (2.78)
Ejemplo
Consideremos la señal
x(t) = ej2t + e−j2t + jej3t − je−j3t , (2.83)
equivalente a
ej 2 t + e−j 2 t (ej 3 t − e−j 3 t )
x(t) = 2 + (2 j) j , (2.84)
2 2j
y finalmente a
x(t) = 2 cos (2 t) − 2 sin (3 t) . (2.85)
Observe que como los sumandos de (2.83) son complejos conjugados, x(t) resulta ser
una función real, como vemos en (2.85).
58
2.8.7 Comparación de las señales periódicas de tiempo conti-
nuo y discreto
Señal de tiempo continuo ej ω0 t
1. Distintas señales para distintos valores de ω0 ;
3. Frecuencia fundamental ω0 ;
2π
4. Perı́odo fundamental T = ω0
.
3. Frecuencia fundamental ω0 ;
N 2π
4. Perı́odo fundamental N tal que M
= ω0
.
59
Impulso unitario
0.8
0.6
0.4
0.2
-0.2
-10 -5 0 5 10
0.8
0.6
0.4
0.2
-0.2
-10 -5 0 5 10
60
Impulso unitario desplazado y multiplicado por una constante
0.5
-0.5
-1
-10 -5 0 5 10
También podemos multiplicar al impulso unitario por un valor real v. En este caso
la definición es (
0, n 6= n0 ,
vδ [n − n0 ] = (2.88)
v, n = n0 .
Vea la Fig. (2.16).
61
Escalon unitario
0.8
0.6
0.4
0.2
-0.2
-10 -5 0 5 10
0.8
0.6
0.4
0.2
-0.2
-10 -5 0 5 10
62
Escalon unitario desplazado y multiplicado por una constante
0.5
-0.5
-1
-10 -5 0 5 10
Cambiando k = n − m
0
X
u [n] = δ [n − k] , (2.94)
k=∞
o ∞
X
u [n] = δ [n − k] . (2.95)
k=0
Esta es la definición implı́cita del impulso, como la señal que sumada en el tiempo
“genera” un escalón. Vea la Fig. (2.20).
Escribiendo
∞
X ∞
X
u [n] = δ [n − k] + δ (0) + δ [n − k] , (2.96)
k<n n<k
63
impulso unitario escalon unitario
1 1
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
-2 2 4 6 8 10 12 -2 2 4 6 8 10 12
Esta es la definición implı́cita del impulso, como la señal que integrada en el tiempo
“genera” un escalón.
64
4
-3 -2 -1 0 1 2 3
donde ∆ es una constante real no negativa. Vea la Fig. (2.21). Esta no es la única
forma de hacerlo, vea las Figs. (2.22) y (2.23).
Lim
δ (t − t0 ) = r (t − t0 ) . (2.100)
∆→0 ∆
Lim
u (t − t0 ) = s (t − t0 ) . (2.102)
∆→0 ∆
65
Aproximacion del impulso unitario
17.5
15
12.5
10
7.5
5
2.5
-1 -0.5 0.5 1
Figura 2.22: Aproximación del impulso unitario de tiempo continuo.
20
10
-1 -0.5 0.5 1
66
1.5
0.5
-0.5
-3 -2 -1 0 1 2 3
1.5
0.5
-0.5
-3 -2 -1 0 1 2 3
1.5
0.5
-0.5
-3 -2 -1 0 1 2 3
Figura 2.24: Sucesión de funciones que convergen a un escalón unitario de tiempo con-
tinuo.
Escalon unitario
1.4
1.2
1
0.8
0.6
0.4
0.2
-2 -1 1 2 3 4 5
Figura 2.25: Escalón unitario de tiempo continuo
67
Impulso en el tiempo
1. Un impulso de corriente en tiempo entrega una unidad de carga instan-táneamente
a un circuito.
Impulso en el espacio
1. Un impulso de masa en el espacio es una masa puntual.
2. Supongamos que tenemos una señal x[n]. Podemos obtener una nueva señal
de la siguiente forma (
0 n 6= n0 ,
z[n] = (2.105)
x[n0 ] n = n0 .
4. La ec. (2.106) es una de las claves de esta materia. Por favor recuerdela.
68
2.10.2 Tiempo continuo
1. Recordemos la definición de la sucesión de funciones cuyo lı́mite es el impulso
unitario
0
t < t0 ,
1
r∆ (t − t0 ) = t0 ≤ t ≤ t0 + ∆, (2.107)
∆
0 t0 + ∆ < t,
donde ∆ es una constante real no negativa.
2. Supongamos que tenemos una señal x (t). Podemos obtener una nueva señal
z (t) = x (t) δ (t − t0 ) , (2.108)
de la siguiente forma
(a) Construyamos una sucesión de funciones
0 t < t0 ,
z∆ (t) = x (t0 ) ∆1 t0 ≤ t ≤ t0 + ∆, (2.109)
0 t0 + ∆ < t,
69
2.11.1 Energı́a de una señal de tiempo continuo
La energı́a en un lapso determinado de tiempo se define como
Z t2
Et2 ,t1 = |x (t)|2 dt. (2.114)
t1
70
2.11.5 Señal de energı́a
La señal x es de energı́a finita (o señal x de energı́a) si y sólo si 0 < E < ∞, lo que
implica P = 0.
2.11.7 Decibeles
Definición
El decibel o dB es la décima parte de un bel, una unidad de medida relativa. Supongamos
que deseamos expresar en Bels la potencia medida Pm , con respecto a la potencia de
referencia. Tenemos entonces la relación
Pm
AB = log10 ( ). (2.122)
Pr
En otras palabras, AB , la potencia medida Pm expresada en Bels, es igual al logaritmo
en base 10 de la potencia Pm relativa a una potencia de referencia Pr . La elección de la
potencia de referencia define la escala usada.
Dado que la potencia está calculada en base a la norma cuadrática de la señal,
podemos escribir
|Am |
AB = 2 log10 ( ), (2.123)
|Ar |
donde Am y Ar son las amplitudes de las señales medida y de referencia. Además como
hay 10 decibeles en un bel, tenemos
|Am |
AdB = 20 log10 ( ), (2.124)
|Ar |
Décadas y octavas
Veamos la figura 2.26 para entender como definir décadas y octavas en escalas logarı́tmicas
de medida. Tanto décadas como octavas son unidades de medida para escalas logarı́tmicas.
Observemos que necesitamos una referencia X para después poder marcar la década
10 X y la octava 2 X.
71
Figura 2.26: Décadas y octavas
72
Propiedades de las escalas en dB
En todas las clases de dB, un factor de 10 en la amplitud de la señal medida corresponde
a un incremento de 20 decibeles
10|Am | |Am |
20 log10 ( ) = 20 log10 (10) + 20 log10 ( ). (2.125)
|Ar | |Ar |
Una función f (x) que es proporcional a x1 se dice que “cae” o disminuye a una razón
de 20dB por década. Esto es, por cada factor de 10 en x (cada década), la amplitud
cae 20dB.
En forma similar, un factor de 2 en la amplitud corresponde a una variación de
(aproximadamente) 6dB:
2|Am | |Am |
20 log10 ( ) = 20 log10 (2) + 20 log10 ( ). (2.126)
|Ar | |Ar |
Una función que es proporcional a x1 se dice que cae 6dB por octava, o sea que por
cada factor de 2 en x (por cada octava) la amplitud disminuye aproximadamente 6dB.
Entonces 6dB por octava equivale a 20dB por década.
Finalmente, observemos que la elección de la referencia determina el desplazamiento
vertical en la escala de dB:
|Am |
20 log10 ( ) = 20 log10 (|Am |) − 20 log10 (|Ar |), (2.127)
|Ar |
Escalas en dB
Dado que frecuentemente cambiamos las escalas de nuestras señales para acomodarlas
a nuestras necesidades parece ser inútil en preocuparse por cuál es la referencia de la
escala en dB. Sin embargo, hay algunas escalas que debemos conocer.
Escala dBV La referencia de amplitud es 1 volt. Entonces una señal de 100 volts
equivale a
100
20log10 ( ) = 40dBV. (2.128)
1
73
Escala dB SPL La referencia es la amplitud de una sinusoide de 1000 hz de frecuencia
que ejerce una presión de 20 mBar = 20 µP a. En unidades de intensidad sonora la
referencia es igual a
W
I0 = 10−16 2 . (2.129)
cm
Dado que el sonido se crea mediante una presión variante en el tiempo, calculamos
niveles de sonido en dB SP L usando la intensidad promedio (calculada a lo largo de por
lo menos un perı́odo de la menor frecuencia contenida en el sonido).
Sonido dB SPL
Motor jet a tres metros 140
Umbral de dolor 130
Concierto de Rock 120
Moto acelerando a cinco metros 110
Martillo neumático a dos metros 100
Fábrica 90
Aspiradora 80
Tráfico pesado 70
Restaurante quieto 50
Area residencial a la noche 40
Cine vacio 30
Murmullo de hojas secas 20
Respiración de una persona a tres metros 10
Umbral de audición 0
74
2.11.9 Ejemplo: Potencia promedio para la exponencial imag-
inaria de tiempo continuo en un perı́odo T0
Calculemos su potencia promedio en un perı́odo T0
1 1
PT0 = ET0 = T0 = 1. (2.131)
T0 T0
Lim 1 Z T0 j ω0 t 2
P∞ = e dt. (2.132)
T0 → ∞ 2T0 −T0
Lim 2T0
P∞ = = 1. (2.133)
T0 → ∞ 2T0
(u [n])2
PN
Lim n=−N
P∞ (x1 [n]) = , (2.136)
N →∞ 2N + 1
y con las mismas consideraciones que para el cálculo de la energı́a resolvemos
N P
Lim n=0 1 1
P∞ (x1 [n]) = = . (2.137)
N → ∞ 2N + 1 2
75
2. Calculemos los valores de E∞ y P∞ para x2 [n] = 2−n u [n] . Planteamos la fórmula
de energı́a
N
Lim 2
2−n u [n] .
X
E∞ (x2 [n]) = (2.138)
N → ∞ n=−N
Considerando que el escalón es nulo (u[n] = 0) para n negativo (n < 0), cambiamos
el lı́mite inferior a n = 0. Dado que el escalón es igual a 1 (u[n] = 1) para n no
negativo (n ≥ 0), reemplazamos u[n] por 1. Resolvemos
N
Lim X 1 4
E∞ (x2 [n]) = 4−n = 1 = , (2.139)
N → ∞ n=0 1− 4
3
y su lı́mite
Lim 1 − q n+1 1
= , (2.141)
n→∞ 1−q 1−q
para k q k2 < 1. Planteamos la fórmula de potencia
PN 2
Lim n=−N (2−n u [n])
P∞ (x2 [n]) = , (2.142)
N →∞ 2N + 1
76
Planteamos la fórmula de potencia
(u [n] − u [n − 2])2
PN
Lim n=−N
P∞ (x3 [n]) = , (2.146)
N →∞ 2N + 1
y resolvemos
Lim 2
P∞ (x3 [n]) = = 0. (2.147)
N → ∞ 2N + 1
π
4. Calculamos los valores de E∞ y P∞ para x4 [n] = cos 4
n (u [n] − u [n − 4]).
Planteamos la fórmula de energı́a
N 2
Lim π
X
E∞ (x4 [n]) = cos n (u [n] − u [n − 4]) , (2.148)
N →∞ n=−N 4
y resolvemos
Lim
E∞ (x4 [n]) = 2 = 2, (2.149)
N →∞
Planteamos la fórmula de potencia
PN 2
π
Lim n=−N cos 4
n (u [n] − u [n − 4])
P∞ (x4 [n]) = . (2.150)
N →∞ 2N + 1
y resolvemos
Lim 2
P∞ (x4 [n]) = = 0. (2.151)
N → ∞ 2N + 1
(cos (t))2 dt
RT
Lim −T Lim T + 12 sin (2T )
P∞ (x5 (t)) = = , (2.153)
T →∞ 2T T →∞ 2T
y resolvemos
Lim T + 21 sin (2T ) 1
P∞ (x5 (t)) = = . (2.154)
T →∞ 2T 2
77
π
6. Calculamos los valores de E∞ y P∞ para x6 (t) = ej (2t+ 4 ) . Planteamos la fórmula
de energı́a
Z T
Lim π π
E∞ (x6 (t)) = e−j (2t+ 4 ) ej (2t+ 4 ) dt. (2.155)
T → ∞ −T
Lim
E∞ (x6 (t)) = 2T = ∞, (2.156)
T →∞
Planteamos la fórmula de potencia y resolvemos
Lim 2T
P∞ (x6 (t)) = = 1. (2.157)
T → ∞ 2T
Tiempo continuo
f (t) → f (at + b) . (2.158)
Tiempo discreto
f [n] → f [an + b] . (2.159)
2.12.2 Ejemplos
Transformaciones de la variable independiente, tiempo continuo
1. Vea la Fig. (2.27). Aquı́ se muestran variaciones de rapidez y fase en una señal de
tiempo continuo mediante las transformaciones de la variable tiempo t indicadas
sobre cada uno de los gráficos.
2. Vea la Fig. (2.29). Aquı́ se muestran variaciones de fase en una señal de tiempo
continuo. Verifique el cambio de fase observando el valor de la señal en cercanı́as
de t = 0.
78
Figura 2.27: Transformación de la variable independiente (tiempo continuo)
79
Figura 2.29: Distintas fases (tiempo continuo)
80
Figura 2.31: Distintas “velocidades” (tiempo continuo)
81
Figura 2.33: Distintas “velocidades” (tiempo discreto)
2. Vea la Fig. (2.32). Aquı́ se muestran variaciones de fase en una señal de tiempo
discreto. Verifique el cambio de fase observando el valor de la señal en cercanı́as
de n = 0.
82
2.13 Respuestas a algunas preguntas
• ¿Cuál es el valor de p(1) que maximiza H([0, 1]) = p(1) log2 p(1)+(1−p(1)) log2 (1−
p(1))? Dada q(x) = x log2 x + (1 − x) log2 (1 − x), tenemos que obtener la raı́z de
dq(x)
dx
= 0 o graficar q(x) para x ∈ [0, 1]. El resultado buscado es p(1) = x = 12 .
• ¿Cúal podrı́a ser un ejemplo de reloj analógico de “verdad”? ¿Este reloj analógico
de verdad serı́a exacto ? Los relojes de sol, los relojes de agua y arena, y las
velas ardientes son relojes de tiempo continuo. El problema intrı́nseco que tiene
el manejo de la información “continua” es que no es reproducible con facilidad y
se deteriora con rapidez ante la presencia inevitable de ruido.
83
Capı́tulo 3
Composición de señales
Vea las figuras (3.1) y (3.3). Este tipo de señales, al multiplicar a otra señal, nos
permite extraer determinados intervalos en el dominio del tiempo. Esta operación
se denomina “windowing” o aventanamiento.
84
3.1.2 Sumatoria de señales desplazadas en el tiempo
Desplazando en el tiempo ventanas rectangulares y multiplicandolas por coeficientes
adecuados, se pueden obtener por sumatoria señales periódicas como la x3 (t)
∞
(−1)k xc (t − T k),
X
x3 (t) = (3.9)
k=−∞
y la x6 (t)
∞
(−1)k δ[n − N k].
X
x6 (t) = (3.12)
k=−∞
85
u(t) - u(t-2)
1.5
0.5
-0.5
-2 -1 0 1 2 3 4
Figura 3.1: Composición de dos escalones para formar una señal tipo pulso (tiempo
continuo)
2.5
1.5
0.5
-0.5
-2 0 2 4 6 8
86
u[n] - u[n-2]
1.5
0.5
-0.5
-2 -1 0 1 2 3 4
Figura 3.3: Composición de dos escalones para formar un par de impulsos (tiempo
discreto)
1.5
0.5
-0.5
-1
-1.5
-2 0 2 4 6 8
87
1.5 2.5
1 2
0.5 1.5
0 1
-0.5 0.5
-1 0
-1.5 -0.5
-2 0 2 4 6 8 10 -2 0 2 4 6 8 10
1.5 2.5
1 2
0.5 1.5
0 1
-0.5 0.5
-1 0
-1.5 -0.5
-2 0 2 4 6 8 10 -2 0 2 4 6 8 10
88
Impulso unitario
0.8
0.6
0.4
0.2
-0.2
-10 -5 0 5 10
donde para m ∈ N
N
X
x[m] = ak δ[m − k] = am , (3.18)
k=1
89
porque solo donde m = k se cumple δ[m − k] = δ[0] = 1 y por lo tanto hay un solo
impulso igual a 1 que multiplica al coeficiente am . Todos los otros coeficientes están
multiplicados por 0.
y en general, (
x[k], n = k,
x[k]δ [n − k] = (3.24)
0, n=6 k.
90
2
x[0] d[n]
0
−2
−1 0 1 2 3
0
x[1] d[n−1]
−2
−1 0 1 2 3
2
x[2] d[n−2]
0
−2
−1 0 1 2 3
2
x[n]
0
−2
−1 0 1 2 3
Figura 3.8: Una señal como suma de impulsos desplazados en el tiempo multiplicados
por coeficientes adecuados. Los impulsos desplazados δ[n − k] se representan d[n − k].
Sólo se muestran tres impulsos por razones de espacio.
El impulso “vale” 1 cuando el ı́ndice n (lo que aparece entre corchetes) vale 0.
Note que en la ec. (3.26) sólo uno de los infinitos impulsos tiene un ı́ndice nulo,
especı́ficamente
n0 − k = 0. (3.28)
Entonces, de todos los infinitos términos sólo uno es no nulo (k = n0 ). Ası́ obten-
emos la igualdad
x [n0 ] = x [n0 ] . (3.29)
91
3.2.7 La señal multiplicada con un impulso
1. Consideremos una señal x [n] a la que multiplicamos por un impulso δ [n − n0 ].
Hemos probado que
1 x[1] x[3]
2 x[2] x[6]
3 x[3] x[9]
4 x[4] x[12]
5 x[5] x[15]
6 x[6] x[18]
... ... ...
2. Supongamos que tenemos una señal x[n] y la usamos para generar otra señal
1
y[n] = x[ n]. (3.33)
3
¿Qué significa la Ec. (3.33)? Analizemos la siguiente tabla
92
n x[n] x[ n3 ]
0 x[0] x[ 03 ]
1 x[1] x[ 13 ] ?
2 x[2] x[ 23 ] ?
3 x[3] x[ 33 ]
4 x[4] x[ 43 ] ?
5 x[5] x[ 53 ] ?
6 x[6] x[ 63 ]
7 x[7] x[ 73 ] ?
... ... ...
Como podemos ver, el problema es que el ı́ndice de una señal de tiempo discreto
debe ser un número entero. Por lo tanto, deberı́amos emplear la siguiente definición
x[ n3 ],
n = 3m
y[n] = 0, n = 3 m + 1 (3.34)
0, n = 3 m + 2
∀m ∈ N .
93
subplot(2,1,1); stem(n, x);
subplot(2,1,2); stem(-n, x);
94
u(t) - u(t-2)
1.5
0.5
-0.5
-2 -1 0 1 2 3 4
-3 -2 -1 0 1 2 3
95
Aproximacion del impulso unitario
17.5
15
12.5
10
7.5
5
2.5
-1 -0.5 0.5 1
20
10
-1 -0.5 0.5 1
96
Figura 3.13: Señal aproximada por combinación lineal de pulsos
( ...
1
∆
, −∆ ≤ t < 0,
δ∆ (t + ∆) =
(
0, (t < −∆) ∨ (0 ≤ t) ,
1
, 0 ≤ t < ∆,
δ∆ (t) = ∆
0, (t < 0) ∨ (∆ ≤ t) ,
(
1 (3.41)
, ∆ ≤ t < 2∆,
δ∆ (t − ∆) = ∆
0, (t < ∆) ∨ (2∆ ≤ t) ,
( ...
1
, k∆ ≤ t < (k + 1) ∆,
δ∆ (t − k∆) = ∆
0, (t < k∆) ∨ ((k + 1) ∆ ≤ t) .
97
2. Multiplicando por x (k∆) ∆ al k − ésimo pulso se obtiene
( ...
x(−∆)
∆, −∆ ≤ t < 0,
x (−∆) δ∆ (t + ∆) ∆ = ∆
( 0,
(t < −∆) ∨ (0 ≤ t) ,
x(0)
∆, 0 ≤ t < ∆,
x (0) δ∆ (t) ∆ = ∆
0, (t < 0) ∨ (∆ ≤ t) ,
(
x(∆) (3.42)
∆, ∆ ≤ t < 2∆,
x (∆) δ∆ (t − ∆) ∆ = ∆
0, (t < ∆) ∨ (2∆ ≤ t) ,
( ...
x(k∆)
∆, k∆ ≤ t < (k + 1) ∆,
x (k∆) δ∆ (t − k∆) ∆ = ∆
0, (t < k∆) ∨ ((k + 1) ∆ ≤ t) .
x (τ ) δ (t − τ ) = x (t) δ (t − τ ) , (3.46)
y en ese caso Z ∞
x (t) = x (t) δ (t − τ ) dτ , (3.47)
−∞
con lo que hemos probado que una función x(t) puede escribirse como una combinación
lineal de impulsos.
98
3.3.6 Desplazamiento en el tiempo
1. Supongamos una señal x(t). Podemos desplazarla en el tiempo haciendo y(t) =
x(t − t0 ).
2
2. Por ejemplo, si x1 (t) = cos(2 π 10 t), podemos obtener su versión desplazada cuatro
2
unidades de tiempo como y1 (t) = x1 (t − 4) = cos(2 π 10 (t − 4)).
3.3.10 Muestreo
El muestreo digital de una señal analógica (de tiempo continuo) nos permite obtener
una señal de tiempo discreto. Si cumplimos ciertas condiciones, que vamos a estudiar
durante este curso, es posible realizar un proceso inverso que nos permite recuperar la
señal de tiempo continuo original.
99
El muestreo ideal es una función que toma los valores de x(t) en los instantes t = k T ,
y 0 para todo t 6= k T , donde T es el perı́odo de muestreo y k es una variable entera.
Matemáticamente, podemos representar la operación de muestreo como la multiplicación
de una señal x(t) con un tren de impulsos de perı́odo T
∞
X
y(t) = x(t) × ΠT (t) = x(t) × δ(t − k T ) . (3.49)
k=−∞
Entonces
∞
X ∞
X
y(t) = x(t) × δ(t − k T ) = x(k T ) × δ(t − k T ). (3.50)
k=−∞ k=−∞
Si escribimos
∞
X ∞
X
y[n] = x[n] × δ[n − k N ] = x[k N ] × δ[n − k N ]. (3.52)
k=−∞ k=−∞
3.4.2 Interpolación
Supongamos una señal x[n]. La interpolación de una señal x[n] es la generación de una
nueva señal y[n] mediante la introducción de nuevas muestras calculadas, por ejemplo,
como promedios de dos muestras consecutivas de x[n]. Por ejemplo,
y[0] = x[0], (3.53)
y[1] = (x[0] + x[1])/2, (3.54)
y[2] = x[1], (3.55)
y[3] = (x[1] + x[2])/2, (3.56)
y ası́ sucesivamente.
Esta no es la única forma de interpolar. Es sólo un ejemplo de un tema que vamos
a ver con más detenimiento cuando veamos transformada de Fourier.
100
Capı́tulo 4
Sistemas (y señales)
4.1 Introducción
4.1.1 Definiciones
1. Las señales son magnitudes naturales variables portadoras de información entre
sistemas, representadas por funciones de variables independientes.
2. Los sistemas son conjuntos de partes que interactúan entre si, con un propósito
común.
5. Sistema de tiempo discreto es aquel que recibe, procesa y entrega solamente señales
de tiempo discreto.
6. Sistema hı́brido es aquel que recibe, procesa y entrega señales de tiempo continuo
y discreto.
7. Los sistemas pueden representarse mediante relaciones entre las señales de entrada
y salida.
S
x(t) y(t), (4.1)
→
101
(a) Ecuaciones algebraicas
F (t, x(t), y(t)) = 0, (4.2)
donde x(t) es la entrada e y(t) es la salida del sistema. Por ejemplo,
(b) Ecuaciones diferenciales donde x(t) es la entrada e y(t) es la salida del sistema.
Por ejemplo,
dy(t)
+ 2 y(t) − x(t) = 0. (4.4)
dt
9. En el caso de sistemas de tiempo discreto, simbolizados
S
x [n] y [n] , (4.5)
→
(a) Ecuaciones algebraicas donde x[n] es la entrada e y[n] es la salida del sistema.
Por ejemplo,
y[n] − x[n] 2−n = 0. (4.6)
(b) Ecuaciones de diferencias finitas donde x[n] es la entrada e y[n] es la salida
del sistema. Por ejemplo
x[n − 1]
y[n] − x[n] + x[n − 1] − − y[n − 1] − 2 y[n − 2] + 4 y[n − 3] = 0. (4.7)
2
10. Las descripciones de sistemas, ya sean ecuaciones algebraicas, ecuaciones diferen-
ciales, o de diferencias son modelos matemáticos del sistema, y los podemos usar
para análisis y diseño.
4.1.2 Ejemplos
Divisor resistivo de tensión
Supongamos que tenemos un divisor resistivo de tensión donde la relación entre la
tensión de entrada ve (t) y salida vs (t) es la ecuación
R2
Vs (t) = Ve (t) . (4.8)
R1 + R2
Esta es una ecuación algebraica de tiempo continuo. Ver Figura (4.1)
102
Circuito RC Serie
Supongamos que tenemos un circuito RC serie descripto por la ecuación diferencial
dvc (t) 1 1
+ vc (t) = vs (t) . (4.9)
dt RC RC
donde
1. vc (t) tensión en el capacitor,
2. vs (t) tensión en la fuente,
3. R valor de la resistencia,
4. C valor del capacitor.
Ver Figura (4.1).
Un negocio
Supongamos que el dueño de un negocio repone todos los dı́as la mercaderı́a. La ecuación
que describe la relación entre la cantidad de mercaderı́a que entra en el depósito y el
dinero necesario para comprarla es
donde
1. x[n] es la cantidad de mercaderı́a en el depósito,
2. m la cantidad máxima de mercaderı́a que puede tener guardada,
3. p el precio unitario,
4. t[n] el pago por la compra del dı́a n.
Esta es una ecuación algebraica de tiempo discreto.
Cuenta bancaria
Supongamos que tenemos una cuenta bancaria en la que obtenemos cierto interés men-
sual por mantener cierto depósito de dinero. La ecuación de diferencias que nos dice
cuanto dinero tendremos el próximo mes es
donde
103
1. y[n + 1] dinero en la cuenta el próximo mes,
4. c interés.
Q(x) = 0. (4.12)
2 + x2k
xk+1 = , x0 = 2, (4.15)
2xk
para obtener los primeros cinco valores de la secuencia
4.2 Modelos
Necesitamos describir los sistemas con los que trabajamos para poder analizarlos, veri-
ficar sus propiedades, o para diseñar nuevos sistemas. Como ya vimos, podemos usar
ecuaciones diferenciales y ecuaciones de diferencias.
104
4.2.1 Ecuaciones diferenciales
Consideremos una ecuación diferencial
−1
dN y(t) NX di y(t) X M
dj x(t)
+ a i = b i , (4.17)
dtN i=0 dti j=0 dtj
donde x(t) es la entrada, y(t) es la salida, y los coeficientes ai y bj son constantes reales,
N ≥ 1, M ≥ 0, N > M . Por ejemplo,
dy 3 (t) dy 2 (t) dy(t)
+3 + 2 + y(t) = x(t). (4.18)
dt dt2 dt
Las ecuaciones diferenciales pueden escribirse como un sistema de ecuaciones diferen-
ciales de primer orden denominadas ecuaciones de estado empleando variables de estado.
Una posible definición de las variables de estado es la siguiente
v1 = y(t), (4.19)
dvk dk y
vk+1 = = k , 0 < k < N. (4.20)
dt dt
Con esta definición podemos escribir las ecuaciones de estado
dvk
= vk+1 , 1 ≤ k < N, (4.21)
dt
dvN
= G(t, x(t), v1 , v2 , ..., vN ). (4.22)
dt
Por ejemplo, para
dy 3 (t) dy 2 (t) dy(t)
+3 + 2 + y(t) = x(t), (4.23)
dt dt2 dt
definimos
v1 = y(t), (4.24)
dv1 dy(t)
= v2 = , (4.25)
dt dt
dv2 dy 2 (t)
= v3 = , (4.26)
dt dt2
dv3 dy 3 (t)
= = −v1 − 2 v2 − 3 v3 + x(t). (4.27)
dt dt3
En forma matricial
dv
1
dt
0 1 0 v1 0
dv2
dt = 0
0 1 · v2 + 0
x(t). (4.28)
dv3
dt
−1 −2 −3 v3 1
Las principales razones para emplear ecuaciones de estado son las siguientes:
105
1. La teorı́a de ecuaciones diferenciales en esta notación permite trabajar con sistemas
de varias entradas y varias salidas.
2. Es muy sencillo programar computadoras para trabajar con esta notación.
3. Esta notación permite realizar simulaciones por computadora de grandes sistemas
con muchas entradas y muchas salidas.
106
4.2.3 De ecuación diferencial a ecuación de diferencias
Aproximando la derivada, hacia adelante
Sabemos que por definición de derivada
dy Lim y(t + ∆) − y(t)
= . (4.41)
dt ∆→0 ∆
Entonces, si cambiamos el lı́mite por un ∆ pequeño, podemos escribir
dy y[n + 1] − y[n]
≈ . (4.42)
dt ∆
Entonces, si tenemos la ecuación diferencial
dy(t)
+ 2 y(t) = x(t), (4.43)
dt
resulta la ecuación de diferencias
y[n + 1] − y[n]
+ 2 y[n] = x[n], (4.44)
∆
o
(y[n + 1] − y[n]) + 2 ∆ y[n] = ∆ x[n], (4.45)
y finalmente
y[n + 1] + (2 × ∆ − 1) y[n] = ∆ x[n]. (4.46)
107
Otra aproximación de derivada
Otra forma de definir derivada es
dy Lim y(t + ∆) − y(t − ∆)
= . (4.53)
dt ∆→0 2∆
dy y(t + ∆) − y(t − ∆)
≈ . (4.54)
dt 2∆
Entonces, si tenemos la ecuación diferencial
dy(t)
+ 2 y(t) = x(t), (4.55)
dt
resulta la ecuación de diferencias
y[n + 1] − y[n − 1]
+ 2 y[n] = x[n], (4.56)
2∆
o
(y[n + 1] − y[n − 1]) + 4 ∆ y[n] = 2 ∆ x[n], (4.57)
y finalmente
y[n + 1] + 4 ∆ y[n] − y[n − 1] = 2 ∆ x[n]. (4.58)
108
4.3.2 Sistemas con memoria o dinámicos
Los sistemas con memoria o dinámicos son aquellos en los que la salida actual depende
de entradas de un momento distinto al actual. Por ejemplo,
dy(t)
+ a y(t) = x(t), (4.61)
dt
Z T
x(t) dt = y(t), (4.62)
t=0
109
Calculemos la salidad para y[2]. Expandiendo la sumatoria obtenemos
1
y[2] = (x[2 − (−2)] + x[2 − (−1)] + x[2 − (0)] + x[2 − (1)] + x[2 − (2)]) . (4.71)
5
Simplificando, resulta
1
y[2] = (x[4] + x[3] + x[2] + x[1] + x[0]) . (4.72)
5
Como podemos ver, para calcular y[2] necesitamos conocer las entradas futuras x[4] y
x[3]. Por lo tanto, el sistema es no causal.
dy dM y
F (y(t), , ..., M ) = 0, (4.73)
dt dt
donde y(t) es la salida del sistema.
dx dN x dy dM y
F (t, x(t), , ..., N , y(t), , ..., M ) = 0, (4.75)
dt dt dt dt
donde x(t) es la entrada e y(t) es la salida del sistema.
110
4.3.8 Linealidad homogénea
Una función es lineal homogénea sı́ y solo sı́
Por ejemplo,
y = f (x) = m x, (4.78)
es una función lineal, porque se cumple
y1 = m x1 ,
y2 = m x2 , (4.79)
a y1 + b y2 = a m x1 + b m x2 = m (a x1 + b x2 ) .
En cambio,
y = f (x) = m x + 1, (4.80)
no es una función lineal como podemos verificar
y1 = m x1 + 1,
y2 = m x2 + 1, (4.81)
a y1 + b y2 = m (a x1 + b x2 ) + (a + b) 6= m (a x1 + b x2 ) + 1.
y por lo tanto, NO cumple con el principio de superposición. Por ejemplo, esta ecuación
diferencial no es lineal
dy
= y(t) (M − y(t)) + x(t). (4.84)
dt
111
4.3.11 Puntos de equilibrio
1. Un sistema dinámico de tiempo continuo con ecuación de estado
ẋ = f (x), (4.85)
tiene un punto de equilibrio xe si se satisface la siguiente ecuación
0 = f (xe ). (4.86)
112
4.3.16 Ejemplos
Clasificación
Supongamos un sistema definido por
y(t) = g(t) x (t) . (4.89)
¿Es lineal? Si, como podemos ver en las siguientes ecuaciones
y(t) = g(t) (a x1 (t) + b x2 (t)) = a g(t) x1 (t) + b g(t) x2 (t), (4.90)
y(t) = a g(t) x1 (t) + b g(t) x2 (t) = a y1 (t) + b y2 (t). (4.91)
¿Es invariante en el tiempo? No, como podemos ver en las siguientes ecuaciones
y1 (t) = g (t) x1 (t) ←→ y1 (t − τ ) = g (t − τ ) x1 (t − τ ) , (4.92)
y2 (t) = g (t) x1 (t − τ ) . (4.93)
¿Tiene memoria? No, porque no necesitamos conocer otro valor que el de la entrada
actual para calcular la salida, ni tampoco sus derivadas.
Un circuito eléctrico
Supongamos un circuito eléctrico con las siguientes magnitudes: corriente i(t), tensión
v(t), resistencia R, capacidad C, inductancia L.
dv (t) v (t) 1 Z t
i (t) = C + + v (τ ) dτ. (4.94)
dt R L 0
Ver Figura (4.1).
¿Es lineal? Si, porque las operaciones derivada e integral son lineales
d(ax(t) + by(t) dx dy
= a +b , (4.95)
Z dt dt
Z dt Z
ax(t) + by(t)dt = a x(t)dt + b y(t)dt. (4.96)
D D
VCC VCC
C C
R1 R1
Ve Ve
R2 Vs
C1
Vs
B B
i(t)
v(t) R C L
A A
Title
Señales y sistemas
Figura 4.1: Distintos circuitos usados para plantear las ecua-ciones (4.8), (4.9) y (4.94)
es un sistema con memoria o dinámico de tiempo discreto que tiene un sistema inverso
∞ ∞
! !
X X
x [n] = y [n] − y [n − 1] = x[n − k] − x[n − 1 − k] . (4.100)
k=0 k=0
∞ ∞
! !
X X
x [n] = x[n] + x[n − k] − x[n − 1 − k] . (4.101)
k=1 k=0
∞ ∞
!
X X
x [n] = x[n] + x[n − 1 − p] − x[n − 1 − k] . (4.102)
p=0 k=0
114
Sistema mecánico
Supongamos un sistema mecánico con las siguientes magnitudes: masa M, constante de
fricción B, constante del resorte K, fuerza externa f (t), velocidad de la masa v(t).
Z t
dv (t)
f (t) = M + Bv (t) + K v (τ ) dτ. (4.104)
dt −∞
1. ¿Es lineal?
3. ¿Tiene memoria?
dv (t) v (t) 1 Z t
i (t) = C + + v (τ ) dτ, (4.105)
dt R L −∞
Z t
dv (t)
f (t) = M + Bv (t) + K v (τ ) dτ. (4.106)
dt −∞
2. Se pueden hacer diagramas de bloques del mismo sistema con énfasis en distintos
aspectos:
(a) Caja negra, con énfasis en los conjuntos de entradas y salidas (o interfases de
entrada y salida). Vea la Fig. (4.2).
(b) Caja blanca, con énfasis en las relaciones entre los distintos componentes del
sistema (o subsistemas). Vea la Fig. (4.3).
115
Out1
1 In1 Uno
Constante Out2
Dos
Out3
In2 Tres
Seno Out4
Cuatro
Sistema
Figura 4.2: Sistema visto como caja negra, con énfasis en las interfaces de entrada y
salida
Product
1
In1
1 1 1
s s
2 Product1 Out1
Integrator Integrator1
In2
1
Gain
Out3 3 1
Gain1
4
Out4
2
Out2
Figura 4.3: Sistema visto como caja blanca, con énfasis en los subsistemas
116
(a) Conexión serie
(b) Conexión paralelo
(c) Retroalimentación
4.5 Ejemplos
4.5.1 Planteo
Indique si los sistemas definidos por las siguientes relaciones entrada salida son lineales
o no lineales
1. y [n + 1] = 12 y [n] + x [n],
2. y [n + 1] = − 41 y [n] + x [n],
(
1
2
y [n] + x [n] , y [n] > 12 ,
3. y [n + 1] =
− 14 y [n] + x [n] , y [n] ≤ 12 .
4.5.2 Solución
1. y [n + 1] = 21 y [n] + x [n], Sistema lineal, ecuación de diferencias donde aparecen
las señales multiplicadas por coeficientes constantes y sumadas.
117
Distintas formas de interconectar sistemas
In1 Out1
Salida paralelo
Sistema 3
In1 Out1
Sistema 4
Sistemas en paralelo
In1 Out1
Salida realimentación
Sistema 5
Out1 In1
Sistema 6
Sistemas realimentados
Figura 4.4: Interconección de sistemas. El bloque circular con dos signos + en su interior
es un sumador.
118
Entonces podemos escribir la ecuación de diferencias
x[n]3 − 10
x[n + 1] = x[n] − , (4.109)
3 x[n]2
Supongamos x[0] = 1.
119
Capı́tulo 5
La suma de convolución
y en general, (
x[k], n = k,
x[k]δ [n − k] = (5.6)
0, n=6 k.
120
2
x[0] d[n]
0
−2
−1 0 1 2 3
0
x[1] d[n−1]
−2
−1 0 1 2 3
2
x[2] d[n−2]
0
−2
−1 0 1 2 3
2
x[n]
0
−2
−1 0 1 2 3
Figura 5.1: Una señal como suma de impulsos desplazados en el tiempo multiplicados
por coeficientes adecuados. Los impulsos desplazados δ[n − k] se representan d[n − k].
Sólo se muestran tres impulsos por razones de espacio.
121
El impulso “vale” 1 cuando el ı́ndice n (lo que aparece entre corchetes) vale 0.
Note que en la ec. (5.8) sólo uno de los infinitos impulsos tiene un ı́ndice nulo,
especı́ficamente
n0 − k = 0. (5.10)
Entonces, de todos los infinitos términos sólo uno es no nulo (k = n0 ). Ası́ obten-
emos la igualdad
x [n0 ] = x [n0 ] . (5.11)
122
2 2
0 0
−2 −2
−1 0 1 2 3 4 5 −1 0 1 2 3 4 5
2 2
0 0
−2 −2
−1 0 1 2 3 4 5 −1 0 1 2 3 4 5
2 2
0 0
−2 −2
−1 0 1 2 3 4 5 −1 0 1 2 3 4 5
2 2
0 0
−2 −2
−1 0 1 2 3 4 5 −1 0 1 2 3 4 5
2 2
0 0
−2 −2
−1 0 1 2 3 4 5 −1 0 1 2 3 4 5
Como el sistema es lineal, podemos “sumar” las infinitas entradas y las infinitas
salidas para obtener
∞ ∞
X S X
x [n] = x [k] δ [n − k] x [k] hk [n] = y [n] . (5.15)
k=−∞
→ k=−∞
Vea la Fig.(5.3).
Por el principio de superposición, y [n] es la respuesta a la entrada x [n]
∞
X
y [n] = x [k] hk [n] (5.16)
−∞
123
2 2
0 0
−2 −2
−1 0 1 2 3 4 5 −1 0 1 2 3 4 5
2 2
0 0
−2 −2
−1 0 1 2 3 4 5 −1 0 1 2 3 4 5
2 2
0 0
−2 −2
−1 0 1 2 3 4 5 −1 0 1 2 3 4 5
2 2
0 0
−2 −2
−1 0 1 2 3 4 5 −1 0 1 2 3 4 5
2 2
0 0
−2 −2
−1 0 1 2 3 4 5 −1 0 1 2 3 4 5
2 2
0
0
−2
−2 −4
−1 0 1 2 3 4 5 −1 0 1 2 3 4 5
5.2 Ejemplos
5.2.1 Convolución con un impulso desplazado
Supongamos un sistema con una respuesta al impulso h[n] = δ[n−n0 ]. Vamos a calcular
su salida para una entrada x[n].
1. Comenzamos escribiendo la suma de convolución
∞
X
y [n] = x [k] h [n − k] . (5.22)
−∞
Observemos que tenemos una señal x[k] multiplicada por un impulso δ [n − n0 − k].
124
4. ¿Donde “vale” 1 el impulso δ [n − n0 − k]? Justo cuando n − n0 − k = 0.
5. ¿Para cual valor de k la señal x[k] va a estar multiplicada por 1, y para cuales
valores de k va a estar multiplicada por 0?
8. Por lo tanto
∞
X
y [n] = x [k] h [n − k] = ...+x[n−n0 +1] 0+x[n−n0 ] 1+x[n−n0 −1] 0+... (5.25)
−∞
9. El resultado es ∞
X
y [n] = x [k] h [n − k] = x[n − n0 ]. (5.26)
−∞
125
1. reemplazar la variable independiente k por −k para obtener h[−k], la versión
reflejada respecto a k = 0.
1. Consideremos la fórmula
∞
X
y [n] = x [k] h [n − k] . (5.28)
−∞
126
5.5 Ejemplos
5.5.1 Convolución de señales de duración finita
Calculemos la convolución de las señales
n ≤ 0,
0
2 n = 1,
x [n] = (5.29)
−2 n = 2,
0 n > 2,
n ≤ 0,
0
−1 n = 1,
h [n] = (5.30)
−1 n = 2,
0 n > 2.
Dado que podemos considerar la señal x[n] como dos impulsos desplazados y multipli-
cados por coeficientes, podemos calcular la respuestas del sistema a los impulsos por
separado y sumarlas despues de multiplicarlas por los coeficientes adecuados. Tenemos
entonces
n h[n − 1] h[n − 2] y[n] = h[n − 1]x[1] + h[n − 2]x[2],
0 0 0 0,
1 0 0 0,
2 −1 0 −2,
(5.31)
3 −1 −1 0,
4 0 −1 2,
5 0 0 0,
6 0 0 0.
Resumiendo,
0 n ≤ 1,
−2 n = 2,
y [n] = 0 n = 3, (5.32)
2 n = 4,
0 n > 4.
Forma gráfica
1. Dibujemos las señales x[n], h[n] y h[−n]. Ver Fig. (5.4) a (5.9).
2. Dibujemos h[n − k] para distintos valores de n, junto con x[k].
3. Dibujemos el producto z[n, k] = x[k] h[n − k].
P
4. Calculemos k z[n, k] para obtener y[n].
127
Figura 5.4: Señales x[k], h[k] y h[−k].
128
Figura 5.5: Señales x[k], h[k] y h[1 − k].
129
Figura 5.6: Señales x[k], h[k] y h[2 − k].
130
Figura 5.7: Señales x[k], h[k] y h[3 − k].
131
Figura 5.8: Señales x[k], h[k] y h[4 − k].
132
Figura 5.9: Señales x[k], h[k] y h[5 − k].
133
5.5.2 Convolución con un impulso
Calculemos ahora la convolución de las señales
99 n
x [n] = u [n] , (5.33)
100
h [n] = δ [n − 1] . (5.34)
Forma gráfica
1. Dibujemos las señales x[k], h[k] y h[−k].
2. Dibujemos h[n − k] para distintos valores de n, junto con x[k]. Ver (5.10).
Forma analı́tica
1. Según la Ec. (5.15), tenemos
∞ k
X 99
y [n] = u [k] δ [n − 1 − k] . (5.35)
k=−∞ 100
3. Observe que el ı́ndice del impulso es n − 1 − k, y que por lo tanto está ubicado en
k = n − 1. Entonces
k n−1
99 99
δ [n − 1 − k] = δ [n − 1 − k] . (5.37)
100 100
134
Figura 5.10: Señales x[k], h[k] y h[2 − k].
135
5. Por lo tanto, la salida es
n−1
99
y [n] = u[n − 1]. (5.39)
100
h [n] = δ [n − n0 ] . (5.40)
8. Observe que el ı́ndice del impulso es n − n0 − k, y que por lo tanto está ubicado
en k = n − n0 . Entonces
la salida y[n] es
y [n] = x[n − n0 ] u[n − n0 ]. (5.45)
136
Forma gráfica
1. Dibujemos las señales x[k], h[k] y h[−k].
2. Dibujemos h[n − k] para distintos valores de n, junto con x[k].
3. Dibujemos el producto z[n, k] = x[k]h[n − k].
P
4. Calculemos k z[n, k] para obtener y[n].
Forma analı́tica
1. Según la Ec. (5.15), tenemos
∞ k
X 1
y [n] = u [k] h [n − k] . (5.48)
k=−∞ 2
137
Forma gráfica
1. Dibujemos las señales x[k], h[k] y h[−k].
2. Dibujemos h[n − k] para distintos valores de n, junto con x[k].
3. Dibujemos el producto z[n, k] = x[k] h[n − k].
P
4. Calculemos k z[n, k] para obtener una aproximación de y[n]
Forma analı́tica
1. Según la Ec. (5.15), tenemos
(
k αk , 0 ≤ k ≤ n,
α u[k]u[n − k] = (5.57)
0, (k < 0) ∨ (k > n)
2. Para poder realizar esta sumatoria, debemos recordar sucesiones geométricas. De-
finamos la suma parcial
n
αk ,
X
Sn = (5.58)
k=0
y multipliquemos por a para obtener
n
αk+1 .
X
α Sn = (5.59)
k=0
y simplificando
Sn − α Sn = α0 − αn+1 . (5.61)
Podemos despejar entonces
α0 − αn+1 1 − αn+1
Sn = = . (5.62)
1−α 1−α
3. Aplicamos la Ec. (5.62) a la Ec. (5.57)
n
1 − αn+1
αk =
X
. (5.63)
k=0 1−α
Por lo tanto, la respuesta es
1 − αn+1
!
y [n] = u (n) . (5.64)
1−α
138
5.5.5 Convolución de una señal consigo misma
Vamos a calcular la convolución de una señal consigo misma, definiendo
8 n
x [n] = u [n] , (5.65)
10
n
8
h [n] = u [n] . (5.66)
10
Forma gráfica
1. Dibujemos las señales x[k], h[k] y h[−k].
Forma analı́tica
1. Según la Ec. (5.15), tenemos
∞ k n−k
8 8
X
y [n] = u [k] u [n − k] , (5.67)
k=−∞ 10 10
2. Podemos modificar los lı́mites de la sumatoria, pues u[k] = para k < 0, y u[n−k] =
0 para n − k < 0
n
8 k+n−k
X
y [n] = , (5.68)
k=0 10
8 n
3. Extraemos de la sumatoria el factor común de todos los sumandos ( 10 ) , que es
independiente de k, y obtenemos
n
n X
8
y [n] = 1, (5.69)
10 k=0
4. Finalmente resulta
8 n
y [n] = (n + 1) u[n]. (5.70)
10
El factor u[n] aparece porque la sumatoria cuyo resultado es n + 1 tiene un lı́mite
inferior k = 0, y por lo tanto la sumatoria es no nula sı́ y solo sı́ n ≥ 0.
139
Capı́tulo 6
6.1 Introducción
Hemos visto que la suma de convolución
∞
X
y [n] = x [k] h [n − k] = x [n] ∗ h [n] , (6.1)
k=−∞
140
6.2.2 La propiedad distributiva
La salida de un sistema LIT cuya respuesta al impulso es ha + hb para una entrada x es
similar a la suma de las salidas de dos sistemas de respuestas al impulso ha y hb frente
a una entrada x.
Probaremos la distributividad de la convolución discreta
planteando
∞
X
y [n] = x [k] (ha [n − k] + hb [n − k]) . (6.6)
k=−∞
Reagrupando términos
∞
X
y [n] = ((x [k] ha [n − k]) + (x [k] hb [n − k])) , (6.8)
k=−∞
y separando sumatorias
∞
X ∞
X
y [n] = (x [k] ha [n − k]) + (x [k] hb [n − k]) , (6.9)
k=−∞ k=−∞
obtenemos
y [n] = x [n] ∗ ha [n] + x [n] ∗ hb [n] . (6.10)
Para probar la propiedad asociativa, planteamos las dos formas de hacer el cálculo.
Primero consideremos ∞ X
y1 [n] = x[p] ha [n − p], (6.14)
p=−∞
141
∞
X
y[n] = y1 [q] hb [n − q]. (6.15)
q=−∞
∞
X ∞
X
y[n] = x[p] ha [q − p] hb [n − q]. (6.16)
q=−∞ p=−∞
y
∞
X ∞
X
y[n] = x[p] ha [q − p] hb [n − q]. (6.17)
q=−∞ p=−∞
∞
X
y[n] = x[s] h[n − s], (6.19)
s=−∞
∞ ∞
!
X X
y[n] = x[s] ha [r] hb [n − r − s] , (6.20)
s=−∞ r=−∞
y
∞
X ∞
X
y[n] = x[s] ha [r] hb [n − r − s]. (6.21)
s=−∞ r=−∞
∞
X ∞
X
y[n] = x[s] ha [r] hb [n − r − s]. (6.23)
s=−∞ r=−∞
142
6.2.4 Preguntas
1. ¿Qué significado tiene la propiedad conmutativa de los sistemas lineales?
6.2.6 Preguntas
1. ¿Conoce algún sistema fı́sico que no tenga memoria?
Esta fórmula significa que podemos calcular la salida de un sistema LIT de tiempo
discreto con una cantidad limitada de multiplicaciones y sumas.
143
6.2.8 Preguntas
Indicar si las siguientes afirmaciones son verdaderas o falsas, en el caso de un sistema
lineal invariante en el tiempo:
1. Si la entrada es nula para todo tiempo, entonces la salida es nula para todo tiempo.
2. Si la relación entre entrada y salida es y[n] = x[n] cos (n) , entonces el sistema es
LIT.
Pn
3. Si la relación entre entrada y salida es y[n] = k=0 x[k], entonces el sistema es
LIT.
144
Dado que resulta
n
!
X
|y [n]| ≤ Mx |h [n − k]| ≤ My . (6.37)
k=0
7. Entonces resulta
y[n] = H(ej ω ) ej ω n . (6.43)
Se dice que las funciones de la forma ej ω n son autofunciones de los sistemas lineales
invariantes en el tiempo.
145
6.2.11 Respuestas
Estas son las respuestas a las preguntas planteadas arriba
5. ¿Conoce algún sistema fı́sico que tenga memoria? Un tanque de agua (acumula o
”recuerda” el agua que entra).
6. ¿La siguiente afirmación es verdadera o falsa? ”Si la entrada es nula para todo
tiempo, entonces la salida es nula para todo tiempo.” Verdadero, pues si la
entrada es nula, la suma de convolución es nula.
7. ¿La siguiente afirmación es verdadera o falsa? ”Si la relación entre entrada y salida
es y[n] = x[n] cos (n) , entonces el sistema es LIT.” Falso, porque la respuesta
al impulso depende del tiempo en que el impulso ocurre.
146
Capı́tulo 7
La integral de convolución
( ...
1
∆
, −∆ ≤ t < 0,
δ∆ (t + ∆) =
(
0, (t < −∆) ∨ (0 ≤ t) ,
1
, 0 ≤ t < ∆,
δ∆ (t) = ∆
0, (t < 0) ∨ (∆ ≤ t) ,
(
1 (7.1)
, ∆ ≤ t < 2 ∆,
δ∆ (t − ∆) = ∆
0, (t < ∆) ∨ (2 ∆ ≤ t) ,
( ...
1
, k ∆ ≤ t < (k + 1) ∆,
δ∆ (t − k ∆) = ∆
0, (t < k ∆) ∨ ((k + 1) ∆ ≤ t) .
147
Figura 7.1: Pulsos desplazados en el tiempo
148
Figura 7.3: Aproximación grosera
149
Multiplicando por x (k ∆) ∆ al k − ésimo pulso (ver figura 7.2) se obtiene
( ...
x(−∆)
∆, −∆ ≤ t < 0,
x (−∆) δ∆ (t + ∆) ∆ = ∆
( 0,
(t < −∆) ∨ (0 ≤ t) ,
x(0)
∆, 0 ≤ t < ∆,
x (0) δ∆ (t) ∆ = ∆
0, (t < 0) ∨ (∆ ≤ t) ,
(
x(∆) (7.2)
∆, ∆ ≤ t < 2 ∆,
x (∆) δ∆ (t − ∆) ∆ = ∆
0, (t < ∆) ∨ (2 ∆ ≤ t) ,
( ...
x(k ∆)
∆, k ∆ ≤ t < (k + 1) ∆,
x (k∆) δ∆ (t − k∆) ∆ = ∆
0, (t < k ∆) ∨ ((k + 1) ∆ ≤ t) .
Observe que un valor dado de t (por ejemplo t0 ) sólo puede pertenecer a un intervalo
k∆ ≤ t < (k + 1) ∆, por lo tanto para t0 solo uno de los productos puede ser distinto
de 0. Sumando los infinitos productos (ver figura 7.3) obtenemos
∞
X
x∆ (t) = x (k∆) δ∆ (t − k ∆) ∆. (7.3)
k=−∞
x (t) δ (t − τ ) = x (τ ) δ (t − τ ) , (7.6)
y en ese caso Z ∞
x (t) = x (t) δ (t − τ ) dτ . (7.7)
−∞
150
Además, recordemos la ecuación (7.5)
∞
X
x∆ (t) = x (k ∆) δ∆ (t − k ∆) ∆, (7.8)
k=−∞
La salida y∆ (t) para una entrada x∆ (t) puede definirse, por el principio de super-
posición, como
∞
X
y∆ (t) = x (k∆) hk∆ (t) ∆ (7.9)
k=−∞
hτ (t) = h0 (t − τ ) , (7.11)
(es decir, no importa para que τ calculamos la respuesta, y por lo tanto elegimos τ = 0),
y por lo tanto obtenemos la integral de convolución
Z ∞
y (t) = x (τ ) h (t − τ ) dτ. (7.12)
−∞
1. Consideremos la fórmula
Z ∞
y (t) = x (v) h (t − v) dv. (7.13)
−∞
151
(a) Dibuje la señal x(v).
(b) Invierta en el tiempo la señal h(v) para obtener h(−v).
(c) Repita los siguientes pasos para calcular distintos valores de y(t)
i. Desplace en el tiempo la señal h(−v) para obtener h(t − v).
ii. Obtenga el producto z(v, t) = x(v) h(t − v).
R
iii. El valor de y(t) es z(v, t) dv
7.3 Ejemplos
7.3.1 Convolución de una señal con un impulso desplazado
Supongamos la entrada x(t) = δ(t − a) a un sistema linear invariante en el tiempo con
respuesta al impulso h(t). En este caso la salida es
Z ∞
y(t) = δ(v − a) h(t − v) dv (7.14)
−∞
Notemos el producto δ(v − a) h(t − v) = h(t − a) δ(v − a), donde v = a. Por lo tanto
Z ∞
y(t) = h(t − a) δ(v − a) dv, (7.15)
−∞
Z ∞
y(t) = h(t − a) δ(v − a) dv . (7.16)
−∞
Por lo tanto
y(t) = h(t − a), (7.18)
y ası́ comprobamos la invariancia en el tiempo de los sistemas cuya salida y(t) para una
entrada x(t) puede calcularse con la integral de convolución.
152
2. Calculando la suma de convolución tenemos
Z ∞
x (t) ∗ h (t) = e2 τ u (−τ ) u (t − 3 − τ ) dτ, (7.21)
−∞
153
7.3.4 Dos señales limitadas en tiempo
1. Sean dos señales definidas por
(
1 0 < t < T,
x (t) = (7.33)
0 (t ≤ 0) ∨ (T ≤ t) ,
(
t 0 < t < T,
h (t) = (7.34)
0 (t ≤ 0) ∨ (T ≤ t) .
y
h (t) = t (u (t) − u (t − T )) . (7.36)
h (t − τ ) = (t − τ ) (u (t − τ ) − u (t − τ − T )) . (7.37)
154
Capı́tulo 8
8.1 Introducción
Hemos visto que la integral de convolución
Z ∞
y (t) = x (τ ) h (t − τ ) dτ = x (t) ∗ h (t) , (8.1)
−∞
define la respuesta y(t) de un sistema LIT para una entrada x(t) si conocemos la res-
puesta al impulso h(t). Por lo tanto, en este capı́tulo usaremos la convolución como
herramienta para estudiar distintas propiedades de los sistemas LIT.
155
8.2.2 La propiedad distributiva
La salida de un sistema LIT cuya respuesta al impulso es ha + hb para una entrada x es
similar a la suma de las salidas de dos sistemas de respuestas al impulso ha y hb frente a
una entrada x. Se puede probar la distributividad de la convolución respecto a la suma
de señales
8.2.4 Preguntas
1. ¿Qué significado tiene la propiedad conmutativa de los sistemas lineales?
156
8.2.6 Preguntas
1. ¿Conoce algún sistema fı́sico que no tenga memoria?
2. ¿Conoce algún sistema fı́sico que tenga memoria?
Z t
|y (t)| < Mx h (t − τ ) dτ = My (8.16)
−∞
157
8.2.9 Preguntas
1. ¿Conoce algún sistema fı́sico inestable?
(a) Si la entrada es nula para todo tiempo, entonces la salida es nula para todo
tiempo.
(b) Si la relación entre entrada y salida es y (t) = x (t) cos (t) , entonces el sistema
es LTI.
Rt
(c) Si la relación entre entrada y salida es y (t) = −∞ x (τ ) dτ, entonces el sistema
es LTI.
158
Capı́tulo 9
9.1 Motivación
¿Para que estudiamos series de Fourier? Veremos que es posible representar una señal de
dos formas diferentes, una en el dominio del tiempo y otra en el dominio de la frecuencia.
En otras palabras, podemos visualizar la señal de dos formas: una cuyo eje horizontal
corresponde al tiempo, y otra cuyo eje horizontal corresponde a la frecuencia. En las
dos representaciones tenemos la misma información.
La forma más sencilla de comenzar a trabajar en el dominio de la frecuencia es
graficar los coeficientes de series de Fourier en función de las frecuencias de las armónicas
de funciones periódicas. En las aplicaciones de procesamiento de señales y electrónica,
nos interesa conocer la distribución de energı́a en función de la frecuencia.
9.2 Definiciones
Recordemos que una señal x(t) es periódica si y sólo si existe el perı́odo, un número
T > 0 que cumple con la condición
x (t) = x (t + T ) , (9.1)
159
2.0
1.6
1.2
0.8
0.4
0.0
−0.4
−0.8
−1.2
−1.6
−2.0
0.000 0.628 1.257 1.885 2.513 3.142 3.770 4.398 5.027 5.655 6.283
a1
a2
a3
2π
αk (t) = cos (k ω t) = cos k t , k = 0, ±1, ±2, ... (9.6)
T
2π
βk (t) = sin (k ω t) = sin k t , k = 0, ±1, ±2, ... (9.7)
T
Como ejemplo, veamos la figura (9.1)
1. Cada una de estas familias de señales tiene una frecuencia fundamental ω y perı́odo
fundamental T.
T
2. Cada una de estas funciones armónicas es periódica con perı́odo k
, donde |k| > 0.
160
9.3 Definición de serie de Fourier
9.3.1 Serie de Fourier (exponenciales imaginarias)
• Según la definición de serie de Fourier podemos escribir
∞ ∞
2π
ak e j k ω t = ak e j k ( T ) t ,
X X
x (t) = (9.8)
k=−∞ k=−∞
y se reescribe
∞ ∞
!
jkωt jkωt −jk ω t
X X
x (t) = ak e = a0 + ak e + a−k e . (9.11)
k=−∞ k=1
Reemplazando n = −k tenemos
∞ ∞
ā−n ej n ω t = ak e j k ω t ,
X X
x (t) = (9.13)
n=−∞ k=−∞
161
9.3.2 Serie de Fourier (senos “y” cosenos)
• La serie de Fourier definida mediante exponenciales imaginarias es
∞ ∞
!
jkωt jkωt −jk ω t
X X
x (t) = ak e = a0 + ak e + a−k e . (9.15)
k=−∞ k=1
ak = Bk + jCk , (9.16)
a−k = a¯k = Bk − j Ck . (9.17)
162
• Considerando la ecuación (2.42) podemos reemplazar
ej (k ω t+θk ) − e−j (k ω t+θk )
sin (k ω t + θk ) = , (9.23)
2j
y obtener "∞
ej (k ω t+θk ) − e−j (k ω t+θk )
#
X
x (t) = D0 + Dk . (9.24)
k=1 2j
• Finalmente resulta
"∞
ej θk j k ω t e−j θk −j k ω t
#
X
x (t) = D0 + Dk e − Dk e , (9.26)
k=1 2j 2j
y por lo tanto
ej θk
Ak = Dk . (9.27)
2j
a "∞
ejθk jk ω t e−jθk −jk ω t
#
X
x (t) = E0 + Ek e + Ek e . (9.29)
k=1 2 2
163
• Integremos ambos miembros
Z T ∞
Z T X
−j n ω t
x (t) e dt = ak ej (k−n) ω t dt. (9.32)
0 0 k=−∞
En efecto, cuando k = n
Z T Z T
j (0) ωt
e dt = dt = T. (9.35)
0 0
• Obtenemos ası́ Z T
x (t) e−j n ω t dt = T an . (9.40)
0
164
9.5 Condiciones para la convergencia de las series
de Fourier
Supongamos que usamos una aproximación xN (t) con una cantidad finita de armónicas
a una función x(t) periódica T ,
N
ak ej k ω t ,
X
xN (t) = (9.42)
k=−N
2π
donde ω = T
. Sea
N
ak ej k ω t ,
X
eN (t) = x(t) − (9.43)
k=−N
1. Una señal x (t) tiene una serie de Fourier con coeficientes ak finitos si la energı́a
de la señal en un perı́odo T es acotada
Z T
x(t) x(t)dt < ∞. (9.45)
0
165
3. Su valor absoluto es integrable sobre un perı́odo
Z T
|x (t)| dt < ∞. (9.47)
0
Bajo estas condiciones, la serie de Fourier converge a x(t) para todo t si x(t) es
continua. En caso de que x(t) sea discontinua, la serie de Fourier converge al valor
medio de la discontinuidad para los correspondientes valores de t.
FS
x (t) = x (t + T ) a , (9.48)
←→ k
FS
y (t) = y (t + T ) b , (9.49)
←→ k
FS
z (t) = z (t + T ) c . (9.50)
←→ k
9.6.1 Linealidad
Las ecuaciones de análisis y sı́ntesis son operaciones lineales. Podemos expresar esta
propiedad de la siguiente forma: si la señal z(t) es una combinación lineal de las señales
x(t) e y(t), con coeficientes u y v, entonces los coeficientes de z(t) son una combinación
lineal de los coeficientes correspondientes a x(t) e y(t), con coeficientes u y v
FS
z (t) = u x (t) + v y (t) c = u ak + v bk . (9.51)
←→ k
1ZT 2π
ck = (u x(t) + v y(t)) e−j T t dt. (9.53)
T 0
166
2. Distribuyendo la exponencial y extrayendo las constantes u y v de la integral
obtenemos
Z T ! Z T !
1 −j 2π
t 1 −j 2π
t
ck = u x(t) e T dt + v y(t) e T dt . (9.54)
T 0 T 0
ck = u ak + v bk , (9.55)
ck = u ak + v bk . (9.56)
2π
5. Multiplicando por ejk T t obtenemos
2π 2π 2π
ck e j T
t
= u ak ej T
t
+ v bk ej T
t
. (9.57)
167
9.6.2 Desplazamiento en el tiempo
1. Queremos calcular la serie de Fourier de y(t) definida como
y (t) = x (t − t0 ) , (9.62)
conociendo la serie de Fourier de x(t). Por lo tanto, probaremos que se cumple la
siguiente relación
FS
y (t) = x(t − t0 ) = b = e−jk ω t0 ak . (9.63)
←→ k
de donde se puede deducir que los coeficientes de y(t) deben ser bk = a−k .
168
9.6.4 Escalado temporal
1. Con el cambio de variables t = α τ , obtenemos una serie de Fourier con los mis-
mos coeficientes pero de distinta frecuencia fundamental, como podemos ver a
continuación ∞
ak ej k ω α τ .
X
x (α τ ) = (9.72)
k=−∞
2. La nueva frecuencia es ω0 = ω α.
3. El nuevo perı́odo es T0 = Tα .
9.6.5 Multiplicación
1. Probaremos que el producto de dos funciones x(t) e y(t) periódicas T es periódico T
y sus coeficientes de Fourier se obtienen mediante una convolución de las secuencias
ak y bk (los coeficientes de x(t) e y(t))
∞
FS X
z (t) = x (t) y (t) ck = al bk−l . (9.73)
←→ l=−∞
2. Sea
∞ ∞ ∞
2π 2π 2π
ck ej k t
ap e j p t
bq e j q t
X X X
z(t) = T = x(t) y(t) = T T . (9.74)
k=−∞ p=−∞ q=−∞
3. Podemos escribir
∞ ∞ ∞
2π 2π
ck e j k t
ap bq ej (p+q) t
X X X
z(t) = T = T . (9.75)
k=−∞ p=−∞ q=−∞
169
9.6.6 Conjugación y simetrı́a de la conjugación
1. Dada una función periódica real
FS
x (t) a , (9.78)
←→ k
170
3. Podemos reagrupar todo en una sumatoria
∞
(ak − a−k ) ej k ω t = 0.
X
(9.85)
k=−∞
2. Empezemos con
∞ ∞ Z
1Z 1 X 2π
ap aq ej (q−p) T t dt.
X
x(t) x(t)dt = (9.89)
T T T p=−∞ q=−∞ T
171
3. Observe que si q 6= p, entonces
Z
2π
ap aq ej (q−p) T t dt = 0, (9.90)
T
y que si q = p = k, entonces
1Z
ak ak dt = ak ak . (9.91)
T T
9.6.10 Diferenciación
Dada la señal ∞
ak e j k ω t ,
X
x(t) = (9.93)
k=−∞
es inmediato demostrar ∞
dx (t)
j k ω ak ej k ω t .
X
= (9.94)
dt k=−∞
9.6.11 Integración
Dada la señal ∞
ak e j k ω t ,
X
x(t) = (9.95)
k=−∞
9.7 Ejemplos
9.7.1 Tren de pulsos
1. Calculemos la serie de Fourier de la señal definida por
(
1, 0 < t ≤ T1 ,
x1 (t) = x1 (t + T ) (9.97)
0, T1 < t ≤ T.
172
2. Consideremos la ec. (9.41), que en este caso se escribe
Z T1
2π
T ak = e−j k T
t
dt. (9.98)
0
(a) Para k = 0
Z T1
2π
T a0 = e−j 0 T
t
dt = [t]T0 1 = T1 . (9.99)
0
y aplicando la regla de Barrow, obtenemos finalmente
Z T1
T a0 = 1 dt = [t]T0 1 = T1 . (9.100)
0
(b) Para k 6= 0
Z T1 Z T1
2π 1 2π 2π
T ak = e−j k T
t
dt = 2π e−j k T
t
d(−j k t), (9.101)
0 −j k T 0 T
Z T1
2π 1 h 2π
t T1
i
T ak = e−j k T
t
dt = 2π e−j k T . (9.102)
0 −j k T
0
% numero de armonicas a c a l c u l a r
N = 32;
% Periodo
173
T = 2.0;
% Parte d e l p e r i o d o que l a s i g n a l e s 1
T1 = 0 . 7 ;
a0 = T1 / T;
k = ( 1 :N) ’ ;
ak = T1/ T ∗ . . .
( 1 − exp(− j ∗ k ∗ 2 ∗ pi ∗ T1 / T) ) . / . . .
( j ∗ k ∗ 2 ∗ pi ∗ T1/ T ) ;
% Dominio de l a f r e c u e n c i a
% preparando l a g r a f i c a
K = (−N : 1 : N) ’ ;
akn = conj ( ak ( end : − 1 : 1 ) ) ;
AK = [ akn ; a0 ; ak ] ;
magAK = sqrt ( conj (AK) . ∗AK) ;
h1 = f i g u r e ( 1 ) ; c l f
subplot ( 3 , 1 , 1 ) ;
stem (K, r e a l (AK) ) ;
xlabel ( ’ k ’ ) ;
ylabel ( ’ r e a l ak ’ )
subplot ( 3 , 1 , 2 ) ;
stem (K, imag (AK) ) ;
xlabel ( ’ k ’ ) ;
ylabel ( ’ imag ak ’ )
subplot ( 3 , 1 , 3 ) ;
stem (K, magAK ) ;
xlabel ( ’ k ’ ) ;
ylabel ( ’ norm ak ’ )
print ( ’ d o m i n i o f r e c u e n c i a a l p h a . png ’ )
% Dominio d e l tiempo
% Preparando l a g r a f i c a
puntos =500;
t = linspace ( 0 , 4∗T, puntos ) ;
xt = zeros ( s i z e ( t ) ) ;
for n=1: puntos ,
expo = exp ( j ∗ K’ ∗ 2 ∗ pi ∗ t ( n ) / T ) ;
174
Figura 9.2: Dominio de la frecuencia ejemplo 9.7.1
xt ( n ) = expo ∗ AK;
end ;
h2 = f i g u r e ( 2 ) ; c l f
plot ( t , xt )
xlabel ( ’ t ’ )
ylabel ( ’ x ( t ) ’ )
print ( ’ d o m i n i o t i e m p o a l p h a . png ’ )
Observemos que
x2 (t) = x1 (t − Td ), (9.106)
por lo que decimos que x2 (t) es un tren de pulsos desfasados (desplazados en el
tiempo).
175
Figura 9.3: Dominio del tiempo ejemplo 9.7.1
o, resolviendo la integral
Z Td +T1
T ak = 1 dt = [t]TTdd +T1 = T1 . (9.109)
Td
176
Observe que podemos extraer un factor común de la integral
2π
e−j k T Td h −j k 2 π t iT1
T ak = e T , (9.113)
−j k 2Tπ 0
% s e r i e s de F o u r i e r tiempo c o n t i n u o
% numero de armonicas a c a l c u l a r
N = 32;
% Periodo
T = 2.0;
% Parte d e l p e r i o d o donde x ( t ) == 1
T1 = 0 . 7 ∗ T;
% Demora
Td = 0 . 4 ∗ T;
a0 = T1 / T;
k = ( 1 :N) ’ ;
ak = T1/ T ∗ exp(− j ∗ k ∗ 2 ∗ pi ∗ Td/T) . ∗ . . .
( 1 − exp(− j ∗ k ∗ 2 ∗ pi ∗ T1 / T) ) . / . . .
( j ∗ k ∗ 2 ∗ pi ∗ T1/ T ) ;
177
% Dominio de l a f r e c u e n c i a
% preparando l a g r a f i c a
K = (−N : 1 : N) ’ ;
akn = ak ( end : − 1 : 1 ) ;
AK = [ conj ( akn ) ; a0 ; ak ] ;
magAK = sqrt ( conj (AK) . ∗AK) ;
h1 = f i g u r e ( 1 ) ; c l f
subplot ( 3 , 1 , 1 ) ;
stem (K, r e a l (AK) ) ;
xlabel ( ’ k ’ ) ;
ylabel ( ’ r e a l ak ’ )
subplot ( 3 , 1 , 2 ) ;
stem (K, imag (AK) ) ;
xlabel ( ’ k ’ ) ;
ylabel ( ’ imag ak ’ )
subplot ( 3 , 1 , 3 ) ;
stem (K, magAK ) ;
xlabel ( ’ k ’ ) ;
ylabel ( ’ norm ak ’ )
print ( ’ d o m i n i o f r e c u e n c i a b r a v o . png ’ )
% Dominio d e l tiempo
% Preparando l a g r a f i c a
puntos =500;
t = linspace ( 0 , 4∗T, puntos ) ;
xt = zeros ( s i z e ( t ) ) ;
for n=1: puntos ,
expo = exp ( j ∗ K’ ∗ 2 ∗ pi ∗ t ( n ) / T ) ;
xt ( n ) = expo ∗ AK;
end ;
h2 = f i g u r e ( 2 ) ; c l f
plot ( t , xt )
xlabel ( ’ t ’ )
ylabel ( ’ x ( t ) ’ )
print ( ’ d o m i n i o t i e m p o b r a v o . png ’ )
178
Figura 9.4: Dominio de la frecuencia ejemplo 9.7.2
179
9.7.3 Tren de pulsos alternados
1. Calculemos la serie de Fourier de la señal definida por
(
−1, −T < t ≤ 0,
x3 (t) = x3 (t + 2 T ) = (9.116)
1, 0<t≤T
3. Para k 6= 0 tenemos
Z 0 Z T
2π 2π
2 T a0 = − e−j k 2 T t dt + e−j k 2 T t dt, (9.118)
−T 0
donde
Z 0
2π 2π h π
i0 π
e−j k 2 T t d(−j k ) t = e−j k T t = 1 − ej k T T = 1 − ej k π , (9.119)
−T 2T −T
y
Z T
2π 2π h 2π
iT π
e−j k 2 T t d(−j k ) t = e−j k 2 T t = e−j k T T − 1 = e−j k π − 1. (9.120)
0 2T 0
5. Simplificando
ej k π +e−j k π
2
−1
ak = . (9.122)
−j k π
podemos escribir
cos(k π) − 1
ak = j . (9.123)
kπ
6. Observemos que cuando k = 2 p, cos(k π) = cos(p 2 π) = 1 y por lo tanto
a2 p = 0. (9.124)
% numero de armonicas a c a l c u l a r
N = 32;
% Periodo
T = 2.0;
a0 = 0 ;
k = ( 1 :N) ’ ;
ak = j ∗ ( cos ( k ∗ pi ) − 1 ) . / ( k ∗ pi ) ;
% Dominio de l a f r e c u e n c i a
% preparando l a g r a f i c a
K = (−N : 1 : N) ’ ;
akn = ak ( end : − 1 : 1 ) ;
AK = [ conj ( akn ) ; a0 ; ak ] ;
magAK = sqrt ( conj (AK) . ∗AK) ;
h1 = f i g u r e ( 1 ) ; c l f
subplot ( 3 , 1 , 1 ) ;
stem (K, r e a l (AK) ) ;
xlabel ( ’ k ’ ) ;
ylabel ( ’ r e a l ak ’ )
subplot ( 3 , 1 , 2 ) ;
stem (K, imag (AK) ) ;
xlabel ( ’ k ’ ) ;
ylabel ( ’ imag ak ’ )
subplot ( 3 , 1 , 3 ) ;
stem (K, magAK ) ;
xlabel ( ’ k ’ ) ;
ylabel ( ’ norm ak ’ )
print ( ’ d o m i n i o f r e c u e n c i a c h a r l i e . png ’ )
% Dominio d e l tiempo
% Preparando l a g r a f i c a
puntos =500;
t = linspace (−2∗T, 2∗T, puntos ) ;
xt = zeros ( s i z e ( t ) ) ;
for n=1: puntos ,
181
Figura 9.6: Dominio de la frecuencia ejemplo 9.7.3
expo = exp ( j ∗ K’ ∗ 2 ∗ pi ∗ t ( n ) / T ) ;
xt ( n ) = expo ∗ AK;
end ;
h2 = f i g u r e ( 2 ) ; c l f
plot ( t , xt )
xlabel ( ’ t ’ )
ylabel ( ’ x ( t ) ’ )
print ( ’ d o m i n i o t i e m p o c h a r l i e . png ’ )
0 < t ≤ 1,
1,
0, 1 < t ≤ 2,
x4 (t) = x4 (t + 4) (9.126)
−1,
2 < t ≤ 3,
0, 3 < t ≤ 4.
182
Figura 9.7: Dominio del tiempo ejemplo 9.7.3
deberı́a ser 2 π Td 2 π Td
bk = ak − ak e−j k T = ak (1 − e−j k T ). (9.128)
% s e r i e s de F o u r i e r tiempo c o n t i n u o
% numero de armonicas a c a l c u l a r
N = 32;
% Periodo
T = 4.0;
% Parte d e l p e r i o d o que l a s i g n a l e s 1
T1 = 1 . 0 ;
% Desplazamiento
Td = 2 . 0 ;
a0 = T1 / T;
k = ( 1 :N) ’ ;
ak = T1/ T ∗ . . .
( 1 − exp(− j ∗ k ∗ 2 ∗ pi ∗ T1 / T) ) . / . . .
( j ∗ k ∗ 2 ∗ pi ∗ T1/ T ) ;
bk = ak . ∗ ( 1 − exp(− j ∗ k ∗ 2 ∗ pi ∗ Td/T ) ) ;
% Dominio de l a f r e c u e n c i a
% preparando l a g r a f i c a
K = (−N : 1 : N) ’ ;
akn = conj ( ak ( end : − 1 : 1 ) ) ;
AK = [ akn ; a0 ; ak ] ;
magAK = sqrt ( conj (AK) . ∗AK) ;
h1 = f i g u r e ( 1 ) ; c l f
subplot ( 3 , 1 , 1 ) ;
stem (K, r e a l (BK) ) ;
xlabel ( ’ k ’ ) ;
184
ylabel ( ’ r e a l bk ’ )
subplot ( 3 , 1 , 2 ) ;
stem (K, imag (BK) ) ;
xlabel ( ’ k ’ ) ;
ylabel ( ’ imag bk ’ )
subplot ( 3 , 1 , 3 ) ;
stem (K, magBK ) ;
xlabel ( ’ k ’ ) ;
ylabel ( ’ norm bk ’ )
print ( ’ d o m i n i o f r e c u e n c i a d e l t a . png ’ )
% Dominio d e l tiempo
% Preparando l a g r a f i c a
puntos =1000;
t = linspace ( 0 , 4∗T, puntos ) ;
xt = zeros ( s i z e ( t ) ) ;
for n=1: puntos ,
expo = exp ( j ∗ K’ ∗ 2 ∗ pi ∗ t ( n ) / T ) ;
xt ( n ) = expo ∗ BK;
end ;
h2 = f i g u r e ( 2 ) ; c l f
plot ( t , xt )
xlabel ( ’ t ’ )
ylabel ( ’ x ( t ) ’ )
print ( ’ d o m i n i o t i e m p o d e l t a . png ’ )
3. Para k = 0, Z T1
2π
2 T a0 = e−j 0 2 T t dt = 2 T1 . (9.136)
−T1
185
Figura 9.8: Dominio de la frecuencia ejemplo 9.7.4
186
2 T1 T1
a0 = = . (9.137)
2T T
4. Para k 6= 0, R T1 π
−T1 e−j k T t d(−j k Tπ )t
2 T ak = . (9.138)
−j k Tπ
5. Evaluamos la integral
h −j k π t
iT1
−j k π T1 j k π T1
e T
e T −e T
−T1
2 T ak = jkπ = −j k π . (9.139)
T T
6. Simplificamos expresiones
−j k π T1 j k π T1 j k π T1 −j k π T1
e T −e T e T −e T sin( k πTT1 )
ak = = = . (9.140)
−2 j k π 2j kπ kπ
7. Multiplicando y dividiendo
T1 sin( k πTT1 )
ak = . (9.141)
T k π TT1
8. Resumiendo
T1
a0 = , (9.142)
T2
y
T1 sin( k πTT1 )
ak = . (9.143)
T k π TT1
% s e r i e s de F o u r i e r tiempo c o n t i n u o
% ejemplo 9. 7 .5
% numero de armonicas a c a l c u l a r
N = 32;
T = 8;
T1 = 4 ;
a0 = T1/T;
k = ( 1 :N) ’ ;
187
ak = (T1/T) ∗ . . .
sin ( k ∗ pi ∗ T1/T ) . / ( k ∗ pi ∗ T1/T ) ;
% Dominio de l a f r e c u e n c i a
% preparando l a g r a f i c a
K = (−N : 1 : N) ’ ;
akn = conj ( ak ( end : − 1 : 1 ) ) ;
AK = [ akn ; a0 ; ak ] ;
magAK = sqrt ( conj (AK) . ∗AK) ;
h1 = f i g u r e ( 1 ) ; c l f
subplot ( 3 , 1 , 1 ) ;
stem (K, r e a l (AK) ) ;
xlabel ( ’ k ’ ) ;
ylabel ( ’ r e a l ak ’ )
subplot ( 3 , 1 , 2 ) ;
stem (K, imag (AK) ) ;
xlabel ( ’ k ’ ) ;
ylabel ( ’ imag ak ’ )
subplot ( 3 , 1 , 3 ) ;
stem (K, magAK ) ;
xlabel ( ’ k ’ ) ;
ylabel ( ’ norm ak ’ )
print ( ’ d o m i n i o f r e c u e n c i a e c h o . png ’ )
% Dominio d e l tiempo
% Preparando l a g r a f i c a
puntos =1000;
t = linspace (−2∗T, 2∗T, puntos ) ;
xt = zeros ( s i z e ( t ) ) ;
for n=1: puntos ,
expo = exp ( j ∗ K’ ∗ 2 ∗ pi ∗ t ( n ) / T ) ;
xt ( n ) = expo ∗ AK;
end ;
h2 = f i g u r e ( 2 ) ; c l f
plot ( t , xt )
xlabel ( ’ t ’ )
ylabel ( ’ x ( t ) ’ )
print ( ’ d o m i n i o t i e m p o e c h o . png ’ )
188
Figura 9.10: Dominio de la frecuencia ejemplo 9.7.5
π
4. Para resolver (9.146) multiplicamos y dividimos por −j k T
h π
i0 h iT1
π
e−j k T t e−j k T t
−T1 0
2 T ak = − π + π . (9.147)
−j k T
−j k T
189
Figura 9.11: Dominio del tiempo ejemplo 9.7.5
5. Escribamos
π h π
i0 h π
iT1
−j 2 T k ak = − e−j k T t + e−j k T t . (9.148)
T −T1 0
6.
π π
−j 2 k π ak = − 1 − ej k T T1 + e−j k T T1 − 1 . (9.149)
7.
π π
−j 2 k π ak = ej k T T1 + e−j k T T1 − 2. (9.150)
8.
π π
−j 2 k π ak = ej k T T1 + e−j k T T1 − 2. (9.151)
9. π π
2 − ej k T T1 − e−j k T T1
ak = . (9.152)
j 2kπ
10.
T1 1 − cos(k Tπ T1 )
ak = . (9.153)
T j k π TT1
190
% s e r i e s de F o u r i e r tiempo c o n t i n u o
% ejemplo 9. 7 .3
% numero de armonicas a c a l c u l a r
N = 32;
% Periodo
T = 8.0;
T1 = 0 . 5 ;
a0 = 0 ;
k = ( 1 :N) ’ ;
ak = . . .
(1− cos ( k ∗ pi ∗ T1/T) ) . / . . .
( j ∗k ∗ pi ) ;
% Dominio de l a f r e c u e n c i a
% preparando l a g r a f i c a
K = (−N : 1 : N) ’ ;
akn = ak ( end : − 1 : 1 ) ;
AK = [ conj ( akn ) ; a0 ; ak ] ;
magAK = sqrt ( conj (AK) . ∗AK) ;
h1 = f i g u r e ( 1 ) ; c l f
subplot ( 3 , 1 , 1 ) ;
stem (K, r e a l (AK) ) ;
xlabel ( ’ k ’ ) ;
ylabel ( ’ r e a l ak ’ )
subplot ( 3 , 1 , 2 ) ;
stem (K, imag (AK) ) ;
xlabel ( ’ k ’ ) ;
ylabel ( ’ imag ak ’ )
subplot ( 3 , 1 , 3 ) ;
stem (K, magAK ) ;
xlabel ( ’ k ’ ) ;
ylabel ( ’ norm ak ’ )
print ( ’ d o m i n i o f r e c u e n c i a f o x t r o t . png ’ )
% Dominio d e l tiempo
% Preparando l a g r a f i c a
191
Figura 9.12: Dominio de la frecuencia ejemplo 9.7.6
puntos =5000;
t = linspace (−2∗T, 2∗T, puntos ) ;
xt = zeros ( s i z e ( t ) ) ;
for n=1: puntos ,
expo = exp ( j ∗ K’ ∗ 2 ∗ pi ∗ t ( n ) / T ) ;
xt ( n ) = expo ∗ AK;
end ;
h2 = f i g u r e ( 2 ) ; c l f
plot ( t , xt )
xlabel ( ’ t ’ )
ylabel ( ’ x ( t ) ’ )
print ( ’ d o m i n i o t i e m p o f o x t r o t . png ’ )
192
Figura 9.13: Dominio del tiempo ejemplo 9.7.6
2π
5. Podemos extraer el factor ak ej k T
t
fuera de las integrales en (9.157)
∞ Z ∞
2π 2π
−j k v
dv ak ej k t
X
y(t) = h(v) e T T . (9.158)
k=−∞ −∞
193
6. En la ecuación (9.158) podemos definir
Z ∞
2π 2π
H(k )= h(v) e−j k T v dv, (9.159)
T −∞
y escribir
∞
2π 2π
) ak ej k T t .
X
y(t) = H(j k (9.160)
k=−∞ T
7. Los factores H(j k 2Tπ ) son evaluaciones de la transformada de Fourier H(j ω) para
los valores de frecuencia j k 2Tπ . Si elegimos los valores de H(j k 2Tπ ) en forma ade-
cuada, podemos procesar la señal de entrada para obtener una salida conveniente
o adecuada. Esto es el principio matemático de los filtros de señal.
9.9 Ejercicios
1. Obtenga coeficientes de Fourier (para una serie expresada como suma ponderada
de exponenciales imaginarias) para una señal triangular obtenida integrando la
señal x5 (t) definida arriba en la ecuación (9.126). Grafique el espectro correspon-
diente.
2. Obtenga coeficientes de Fourier (para una serie expresada como suma ponderada
de exponenciales imaginarias) para una señal triangular obtenida integrando la
señal x6 (t) definida arriba en la ecuación (9.134). Grafique el espectro correspon-
diente.
3. Obtenga coeficientes de Fourier (para una serie expresada como suma ponderada
de exponenciales imaginarias) para la señal peródica T , tal que 0 < T1 ≤ T ,
definida como
T1
1 |t − k T | ≤ 2 ,
x7 (t) = (9.161)
T1
0 |t − k T | > 2 ,
4. Desplaze la señal x5 en el tiempo hasta que coincida con la señal x7 . ¿Que factor
es el necesario para modificar los coeficientes de x5 para que coincidan con los de
x7 ?
194
Capı́tulo 10
10.1 Introducción
1. Vamos a ver como podemos modificar el concepto de serie de Fourier para
estudiar funciones no periódicas de tiempo continuo. Esto nos permite definir
el concepto de contenido de frecuencias de una señal, aún cuando sea no
periódica.
2. Pensemos en el ejemplo (9.7.5), donde
T1
a0 = , (10.1)
T2
y
T1 sin( k πTT1 )
ak = k π T1 . (10.2)
T T
196
4. Usando la ecuación de sı́ntesis de la serie de Fourier podemos escribir
∞
1 X
x̂ (t) = X (j k ω0 ) ej k ω0 t . (10.11)
T k=−∞
2π 2π
Dado que ω0 = T
←→ T = ω0
vemos que la serie de Fourier puede escribirse
como ∞
1 X
x̂ (t) = X (j k ω0 ) ej k ω0 t ω0 . (10.12)
2 π k=−∞
A medida que T → ∞, ω0 → 0 (o sea un diferencial de frecuencia dω), x̂ (t) → x (t)
y obtenemos la ecuación de sı́ntesis
1 Z∞
x (t) = X (j ω) ej ω t dω. (10.13)
2 π −∞
A medida que T → ∞, se agranda el rango de valores de t en la que las
dos funciones x̂ (t) e x (t) son iguales.
y la ecuación de sı́ntesis
1 Z∞
x (t) = X (j ω) ej ω t dω. (10.15)
2 π −∞
Esto significa que estamos usando la variable ω (radianes por segundo), y no la variable
f (ciclos por segundo). Recordemos que ambas están relacionadas por
ω = 2 πf. (10.16)
y Z ∞
x (t) = X (f ) ej2 πf t df. (10.18)
−∞
Usamos las fórmulas dadas por las ecs. (10.14) y (10.15) porque son las que aparecen
en los libros disponibles en biblioteca. La diferencia de notación no afecta la teorı́a.
197
10.2.3 Concepto de la Transformada de Fourier
1. La Transformada de Fourier es una generalización de la serie de Fourier, y permite
estudiar funciones no periódicas en el dominio de la frecuencia.
y
1 Z∞
xF (t) = X (j ω) ej ω t dω. (10.20)
2 π −∞
La pregunta es: ¿cuándo xF (t) es una representación válida de x (t)?
Esto implica que xF (t) y x (t) son similares excepto en, a lo sumo, una cantidad limitada
de valores de t donde las funciones tengan discontinuidades.
198
2. x (t) tiene un número finito de máximos y mı́nimos dentro de cualquier intervalo
finito.
10.3.3 Pregunta
Las señales que llegan a las antenas de un televisor o un equipo de radio, por mencionar
dos ejemplos, ¿tienen transformada de Fourier? Justifique.
10.4 Ejemplos
10.4.1 Impulso temporal
Calculemos la transformada de Fourier de un impulso δ (t)
Z ∞
X (j ω) = δ (t) e−j ω t dt. (10.24)
−∞
y por lo tanto Z ∞ Z ∞
−j ω t
X (j ω) = δ (t) e dt = δ (t) dt = 1. (10.26)
−∞ −∞
199
y por lo tanto podemos escribir
Z ∞ Z ∞
X (j ω) = δ (t − t0 ) e−j ω t dt = δ (t) dt e−j ω t0 = e−j ω t0 , (10.29)
−∞ −∞
X (j ω) = 2 π δ (ω − ω0 ) . (10.30)
y la serie de Fourier
∞
ak ej k ω0 t ,
X
x (t) = (10.33)
k=−∞
podemos escribir
∞ ∞
X
j k ω0 t TF X
ak e 2 π ak δ (ω − kω0 ) . (10.34)
k=−∞
⇔ k=−∞
200
Calculemos los coeficientes de la serie de Fourier, y observemos que dentro de los lı́mites
de integración x (t) = δ (t) lo que permite escribir
T
1Z 2 1
ak = δ (t) e−j k ω t dt = . (10.36)
T −2
T T
201
Según la ecuación de sı́ntesis
1 Z W1 j ω t sin (W1 t)
x (t) = e dω = , (10.44)
2 π −W1 πt
Evaluando la integral
W
1 [e−j ω t ]−W1
1
1 e−j W1 t − ej W1 t
x (t) = = . (10.45)
2π −j t 2π −j t
Finalmente, multiplicando y diviendo por 2 W1 y simplificando signos llegamos a la
expresión
o sea que
1
X (j ω) = , a > 0. (10.50)
a+jω
Observe además que la siguiente integral está acotada
Z ∞
−a t
1
e u (t) dt = . (10.51)
0 a
y además la función x(t) tiene una única discontinuidad acotada en t = 0. Por lo tanto
esta función verifica las condiciones de Dirichlet.
202
10.5 Propiedades de la Transformada de Fourier de
tiempo continuo
10.5.1 Linealidad
Sea una función
r (t) = a x (t) + b y (t) . (10.52)
Podemos probar que su transformada es
Z ∞
R (j ω) = (ax (t) + by (t)) e−j ω t dt. (10.53)
−∞
203
reescribimos la ecuación anterior como
Z ∞
−j ω t0
R (j ω) = e x (τ ) e−j ωτ dτ. (10.62)
−∞
lo que demuestra
X (−j ω) = X (j ω). (10.70)
204
4. Si x (t) es real, entonces
kX (j ω)k = X (j ω) X (j ω) = X (j ω) X (−j ω) , (10.73)
kX (−j ω)k = X (−j ω) X (−j ω) = X (−j ω) X (j ω) , (10.74)
debido a la ec. (10.70), y por lo tanto kX (j ω)k es una función par, y de forma
similar puede demostrarse que 6 X (j ω) = arctan =(X(j ω))
<(X(j ω))
es una función impar.
205
10.5.5 Diferenciación en frecuencia
1. Escribamos la ecuación de análisis
Z ∞
X (j ω) = x (t) e−j ω t dt. (10.84)
−∞
3. Obtenemos
dX (j ω) Z ∞
= −j t x (t) e−j ω t dω dt. (10.86)
dω −∞
4. Finalmente
dX (j ω) Z ∞
j = t x (t) e−j ω t dω dt. (10.87)
dω −∞
Conclusión
F dX (j ω)
t x (t) j . (10.88)
↔ dω
donde a 6= 0.
3. Hagamos la sustitución τ = a t para obtener
jω
1 R∞
a −∞
x (τ ) e− a
τ
dτ, a > 0,
F (x (at)) = (10.90)
− jaω τ
R∞
− a1 −∞ x (τ ) e dτ, a < 0.
206
10.5.7 Convolución en el dominio del tiempo
1. Empezamos con la integral de convolución
Z ∞
y (t) = x (τ ) h (t − τ ) dτ. (10.92)
−∞
Y (j ω) = X (j ω) H (j ω) . (10.98)
6. Conclusión
F
y (t) = x (t) ∗ h (t) Y (j ω) = X (j ω) R (j ω) . (10.99)
↔
207
10.5.8 Convolución en el dominio de la frecuencia
1. Empezamos con la expresión
1 Z∞
R (j ω) = X (j ω) Y (j (ω − θ)) dθ. (10.100)
2 π −∞
Conclusión
F 1 Z∞
r (t) = x (t) y (t) R (j ω) = X (j ω) Y (j (ω − θ)) dθ. (10.106)
↔ 2 π −∞
Convolución de transformadas implica multiplicación de señales en el do-
minio del tiempo
208
ej ω0 t Z ∞
X (j ω1 ) ej ω1 t dω1 = ej ω0 t x (t) . (10.108)
2 π −∞
Conclusión
F
ej ω0 t x (t) X (j (ω − ω0 )) . (10.109)
↔
Recordemos la propiedad de desplazamiento temporal para comparar
F −j ω t0
x (t − t0 ) e X (j ω) . (10.110)
↔
10.5.11 Dualidad
La demostración de la propiedad de dualidad es más sencilla si consideramos las ecua-
ciones de análisis y sı́ntesis en la variable f
Z ∞
X1 (f ) = x1 (t) e−j2 πf t dt, (10.116)
−∞
209
y Z ∞
x1 (t) = X1 (f ) ej2 πf t df. (10.117)
−∞
Observemos que las dos ecuaciones son muy similares. Reemplazemos ahora t = −τ
para obtener Z ∞
X2 (f ) = x2 (−τ ) ej2 πf τ d(−τ ), (10.118)
−∞
y Z ∞
x2 (−τ ) = X2 (f ) e−j2 πf τ df. (10.119)
−∞
F
x(t) X(f )
↔
(10.120)
F
X(−t) x(f )
↔
10.5.12 Integración
t R
Dada una señal x(t), la integral de x(t) es la función −∞ x(v)dv. Supongamos que x(t)
tiene una transformada de Fourier X(ω). No podemos asegurar que la integral de x(t)
tenga una transformada de Fourier en el sentido ordinario, pero tiene una transformada
generalizada. Se puede demostrar que
Z t
F 1
x (t) dt X (j ω) + πX (0) δ (ω) , (10.121)
−∞ ↔ jω
Impulso δ(t)
1. Por la propiedad del muestreo
2. Por lo tanto,
Z ∞
F
δ(t) δ(t)dt = 1. (10.123)
↔ −∞
210
Escalón u(t)
1. Primero encontremos la transformada de
1
x(t) = − + u(t). (10.124)
2
2. Dado que la señal x(t) es constante excepto por un salto de valor 1 desde t = 0−
a t = 0+ , la derivada (generalizada) de x(t) es igual al impulso unitario δ(t).
Entonces por la propiedad de la derivada, la transformada de Fourier de x(t) debe
ser
1 F 1
x(t) = + u(t) . (10.125)
2 ↔ jω
F 1
u(t) πδ(ω) + . (10.126)
↔ jω
Integral
1. La integral de x(t) puede ser expresada como
Z t
x(v)dv = u(t) ∗ x(t). (10.127)
−∞
2. Por lo tanto
Z t
F 1 X(ω)
x (t) dt ( + πδ(ω))X (ω) = + πX(0)δ(ω). (10.128)
−∞ ↔ jω jω
211
Capı́tulo 11
La transformada de Laplace
1. la ecuación de análisis Z ∞
X (s) = x (t) e−s t dt. (11.1)
−∞
L
x (t) X (s) . (11.3)
↔
212
1. la ecuación de análisis Z ∞
X + (s) = x (t) e−s t dt, (11.4)
0
2. la ecuación de sı́ntesis
1 Z σ+j ∞ +
x (t) = X (s) es t ds (11.5)
2 π j σ−j ∞
3. y el par función transformada de la Transformada de Laplace unilateral
L+ +
x (t) X (s) . (11.6)
↔
11.3 Existencia de la TL
Reemplazando s = σ + j ω en la ecuación de análisis,
Z ∞
X (s) = X (σ + j ω) = x (t) e−(σ+j ω) t dt. (11.9)
−∞
y separando factores, obtenemos
Z ∞
X (s) = X (σ + j ω) = x (t) e−σ t e−j ω t dt. (11.10)
−∞
Por lo tanto, para que exista la transformada de Laplace X(s) debe existir la trans-
formada de Fourier de la función x(t) e−σ t . Recordando las condiciones de Dirichlet,
podemos afirmar que X(s) existe si existe un número real σ tal que
Lim
x(t) e−σ t = 0. (11.11)
t→∞
En general, X(s) existe para la zona definida como α < <(s) < β denominada región
de convergencia.
En otras palabras, la transformada de Laplace bilateral puede no existir si no converje
la integral de la ecuación de análisis. Puede asegurarse la convergencia de esta integral
si se verifica la condición (11.11).
213
11.4 Relación entre la transformada de Laplace y la
integral de convolución
1. Hemos visto que la integral de convolución es
Z ∞ Z ∞
y (t) = x (τ ) h (t − τ ) dτ = x (t − τ ) h (τ ) dτ = x (t) ∗ h (t) . (11.12)
−∞ −∞
Esta integral permite calcular para un sistema lineal invariante en el tiempo la
respuesta y (t) generada por una entrada arbitraria x (t) en función de la respuesta
al impulso h (t).
2. Supongamos ahora que la entrada arbitraria es una exponencial compleja
x (t) = es t . (11.13)
Entonces resulta Z ∞ Z ∞
y (t) = x (t − τ ) h (τ ) dτ = es (t−τ ) h (τ ) dτ, (11.14)
−∞ −∞
o sea Z ∞
y (t) = h (τ ) e−s τ dτ est , (11.15)
−∞
suponiendo que la integral exista (ver región de convergencia).
3. La función definida como Z ∞
H (s) = h (τ ) e−s τ dτ, (11.16)
−∞
214
11.5 Región de convergencia
11.5.1 Ejemplo
1. Consideremos la función
xa (t) = e−at u (t) . (11.20)
2. Su transformada de Fourier es
Z ∞ Z ∞
−a t −j ω t 1
Xa (jω) = e u(t) e dt = e−a t e−j ω t dt = , a > 0. (11.21)
−∞ 0 jω + a
4. Ajustando los lı́mites de integración para tener en cuenta el factor u(t) del inte-
grando, se transforma en
Z ∞
Xa (s) = e−(s+a) t dt. (11.23)
0
6. Comparando las ecuaciones (11.20) y (11.24) podemos deducir que esta última es
la transformada de Fourier de e−(σ+a) t u(t), y por lo tanto
1
Xa (σ + jω) = , (11.25)
σ+jω+a
215
9. Entonces
Z ∞ Z 0
−a t −s t 1
Xb (s) = − e e u(−t) dt = − e−(s+a)t dt = . (11.28)
−∞ −∞ s+a
La condición de convergencia en este caso es <(s + a) < 0, o sea <(s) < −a.
L
e−at u(t) 1
, <(s) > −a,
↔ s+a
(11.29)
−at L 1
−e u(−t) , <(s) < −a.
↔ s+a
Esto nos muestra que dos señales distintas pueden tener transformadas de Laplace
idénticas algebraicamente, pero las zonas donde estas convergen son diferentes.
En general, la zona del plano s donde converge una transformada de Laplace es la
región de convergencia (abreviada RC).
216
válida para cualquier valor de s. Vemos que al impulso δ(t) se le puede aplicar la
regla 3. Entonces, la región de convergencia de la transformada de Laplace de la
función 11.30 es la intersección del plano complejo con las regiones de convergencia
correspondiente a los términos exponenciales. Como podemos ver a continuación,
L[e−t ] = 1
s+1
, <(s) > −1, (11.32)
1
L[e2 t ] = s+2
, <(s) < 2, (11.33)
los lı́mites de las regiones de convergencia son paralelas al eje imaginario del plano
s (regla 1).
2. Dado que s es una cantidad compleja, X (s) es una función compleja de variable
compleja, y σ está en la región de convergencia.
217
2. La transformada bilateral puede representar funciones bilaterales y unilaterales.
Las condiciones iniciales se toman en cuenta incluyendo entradas adicionales en
los sistemas.
Con los pares función y transformada, podemos construir tablas que sumadas a
las propiedades de la transformada de Laplace que estudiaremos a continuación, nos
permitirán encontrar las transformadas de otras funciones compuestas.
218
x (t) X (s) = L {x(t)} RC
δ (t) 1 ∀s,
δ (t − t0 ) e−s t0 ∀s,
1
u (t) s
< (s) > 0,
1
−u (−t) s
< (s) < 0,
tn−1 u(t) 1
(n−1)! sn
< (s) > 0,
n−1 u(−t)
−t (n−1)!
1
sn
< (s) < 0,
e−at u (t) 1
s+a
< (s) > −a,
−e−at u (−t) 1
s+a
< (s) < −a,
s
cos (ω0 t) u (t) s2 +ω02
< (s) > 0,
ω0
sin (ω0 t) u (t) s2 +ω02
< (s) > 0,
L ∞ Z
z(t)Z(s) = z(t) e−s t ds. (11.39)
→ −∞
que usaremos para explicar las propiedades de la transformada de Laplace
219
11.8.1 Linealidad de la transformada de Laplace bilateral
La transformada de Laplace de una combinación lineal de funciones es la combinación
lineal de las transformadas de las funciones respectivas.
2. Dada la igualdad Z ∞
Z(s) = (a x(t) + b y(t)) e−s t ds, (11.41)
−∞
y la linealidad de la operación integral podemos escribir
Z ∞ Z ∞ Z ∞
−s t −s t
Z(s) = (a x(t) + b y(t)) e ds = a x(t) e ds + b y(t) e−s t ds.
−∞ −∞ −∞
(11.42)
3. Dada las igualdades
Z ∞ Z ∞
Z(s) = a x(t) e−s t ds + b y(t) e−s t ds. (11.43)
−∞ −∞
Por inducción, es posible probar esta propiedad para cualquier número de funciones.
Hacer como ejercicio.
220
5. Separamos la exponencial e−s (v+t0 ) en dos factores e−s v e−s t0
Z ∞
Y (s) = x(v) e−s v e−s t0 dv. (11.47)
−∞
Ejemplo
1. Por ejemplo, consideremos el pulso p(t) = u(t) − u(t − t0 ). La transformada
bilateral de Laplace del escalón u(t) es U (s) = 1s .
2. Dado que el pulso p(t) es una combinación lineal de dos escalones, el primero con
coeficiente 1 y el segundo con coeficiente −1, las transformadas de ambos escalones
también estarán combinadas linealmente con los mismos coeficientes.
3. Dado que el segundo escalón del pulso está desplazado en el tiempo, debe tener la
misma transformada del primer escalón multiplicada por un factor e−s t0 .
1−e−s t0
4. Finalmente, la transformada del pulso p(t) es P (s) = s
.
221
5. RPlanteando el cambio de variable v = s + a, podemos observar que la integral
∞ −(s+a) t
−∞ x(t) e dt puede escribirse como
Z ∞ Z ∞
x(t) e−(s+a) t dt = x(t) e−v t dt = Y (v) = Y (s + a) (11.51)
−∞ −∞
Ejemplo
1. Calculemos la transformada bilateral de x(t) = e−a t u(t).
3. Como el escalón u(t) aparece multiplicado por una exponencial e−a t , la transfo-
1
mada debe ser X(s) = U (s + a) = s+a , como ya se ha calculado.
11.8.4 Conjugación
1. Supongamos que tenemos una señal x(t) con transformada bilateral de Laplace
X(s), con región de convergencia R.
11.8.5 Convolución
La propiedad de convolución es una de las más importantes ideas de esta asignatura.
Si tenemos dos señales x1 (t) y x2 (t) con transformadas X1 (s) y X2 (s), y regiones de
convergencia R1 y R2 entonces la convolución y(t) = x1 (t) ∗ x2 (t) tiene una transfor-
mada de Laplace Y (s) = X1 (s) X2 (s), y la región de convergencia correspondiente es la
intersección de las regiones R1 y R2 .
222
11.8.7 Integración en el dominio del tiempo
1. Supongamos que tenemos una señal x(t) con transformada bilateral de Laplace
X(s), con región de convergencia R.
Rt X(s)
2. La transformada bilateral de Laplace de 0 x(v) dv (integrada de x(t)) es s
, con
región de convergencia R.
x (t) X (s) RC
x (t − t0 ) X (s) e−s t0 R
x(t) X(s) R
tx (t) − dX(s)
ds
R
dx(t)
dt
sX (s)
Rt X(s)
−∞ x (τ ) dτ s
⊃ (R ∩ (<(s) > 0)))
R∞
−∞ x1 (τ ) x2 (t − τ ) dτ X1 (s) X2 (s) ⊃ (R1 ∩ R2 )
223
11.10 La Transformada Laplace Unilateral
11.10.1 Motivación
La Transformada de Laplace unilateral se emplea para
Ejemplo
1. Consideremos la señal
x(t) = e−a (t+1) u(t + 1). (11.52)
224
5. Podemos extraer un factor es de la integral
Z ∞
X(s) = es e−a v e−s v dv (11.57)
0
11. Para este ejemplo, las transformadas unilateral y bilateral son diferentes.
225
11.10.2 Tabla de propiedades de la Transformada Laplace uni-
lateral
Recordamos la notación de la transformada de Laplace unilateral
es0 t x(t) X + (s − s0 )
1
x(a t), a > 0, a
X + ( as )
x̄(t) X̄ + (s)
dx(t)
dt
s X + (s) − x(0−)
dX + (s)
−t x(t) ds
226
1. Para probar este teorema, podemos integrar por partes la transformada de Laplace
unilateral donde Z Z
v du = v u − u dv, (11.69)
df (t)
y du = dt
dt = df , y v = e−s t . Entonces u = f (t) y dv = −s e−s t dt.
2. Entonces, integrando por partes
Z ∞ Z ∞
d f (t) −s t h i−∞
e dt = f (t) e−s t +s f (t) e−s t dt. (11.70)
0 dt 0 0
3. Finalmente
Z ∞ !
d f (t) −s t Lim
e dt = f (x) e−s x − f (0) e−s 0 + s F (s). (11.71)
0 dt x→∞
dy(t)
entonces dt
= x(t), y por lo tanto podemos obtener la transformada de la derivada
y por lo tanto
1
Y + (s) = (X + (s) + y(0)). (11.78)
s
227
Ejemplos
Sea la función x(t) = t u(t).
1. Su transformada de Laplace es
#∞
e−s t Z ∞ −s t
Z ∞ "
−s t e 1 Z ∞ −s t 1
X(s) = te dt = t − dt = − e dt = 2 . (11.79)
0 −s 0 0 s s 0 s
1 Z ∞ −s t 1 Z ∞ −s t 1 h i∞ 1
X(s) = − e dt = 2 e d(−s)t = 2 e−s t = − 2 . (11.80)
s 0 s 0 s 0 s
2. Si la transformada de Laplace de y(t) = 1 u(t) es Y (s) entonces
1 d 1s dY (s)
t y(t) → − 2
= = . (11.81)
s ds ds
Por lo tanto
1
Y (s) = . (11.82)
s
t2
3. La transformada de Laplace de z(t) = 2
u(t) = 2t x(t) es Z(s) = − 12 dX(s)
ds
1 −2 s 1
Z(s) = − 4
= 3. (11.83)
2 s s
lim lim
x(t) = s X + (s). (11.84)
t→∞ s→0
228
3. Finalmente
! !
Lim Lim
f (t) − f (0) = s F (s) − f (0), (11.88)
t→∞ s→0
obteniendo ası́
Lim Lim
f (t) = s F (s). (11.89)
t→∞ s→0
Ejemplos
Considere x(t) = (1 − e−a t ) u(t). Calcule el valor final (el lı́mite de x(t) cuando t tiende
a ∞).
Dado X(s) = 1s − s+a1
podemos calcular
1 1
lims→0 s X(s) = lims→0 s −s = 1. (11.90)
s s+a
229
11.10.7 El producto de dos señales
Sea y(t) igual al producto de dos señales x1 (t) y x2 (t)
11.10.8 Potencias de t
Señal Transformada
1
1 s
1
t s2
n!
tn sn+1
, n > 0.
q
t−1/2 π
s
√
π
t1/2 2s3/2
Γ(α+1)
tα sα+1
, α > −1
ω
eat sin (ωt) (s−a)2 +ω 2
s−a
eat cos (ωt) (s−a)2 +ω 2
k
eat sinh (kt) (s−a)2 −k2
s−a
eat cosh (kt) (s−a)2 −k2
230
11.10.11 Funciones trigonométricas e hiperbólicas
Señal Transformada
2k2 s
sin (kt) sinh (kt) s2 +4k4
k(s2 +2k2 )
sin (kt) cosh (kt) s4 +4k4
k(s2 −2k2 )
cos (kt) sinh (kt) s4 +4k4
s3
cos (kt) cosh (kt) s4 +4k4
δ (t) 1
δ (t − t0 ) e−st0
eat f (t) F + (s − a)
f (t − a) u (t − a) e−as F + (s)
e−as
u (t − a) s
231
11.10.14 Funciones generales
Señal Transformada
ea t f (t) F + (s − a)
f (t − a) u (t − a) e−a s F + (s)
dn
tn f (t) (−1)n dsn
F+ (s)
Rt
0 f (τ ) g (t − τ ) dτ F (s) G (s)
232
Capı́tulo 12
Transformada de Laplace y
ecuaciones diferenciales
donde P > Q.
2. la integral de convolución
Z ∞
y (t) = x (τ ) h (t − τ ) dτ. (12.2)
−∞
233
donde h (t) es la respuesta al impulso, x (t) es la entrada e y (t) es la salida corre-
spondiente.
2. Supongamos una entrada exponencial compleja eterna
x (t) = X(s) es t . (12.4)
donde Z ∞
H (s) = h (τ ) e−sτ dτ, (12.7)
−∞
es la transformada de Laplace bilateral de la respuesta al impulso del sistema.
4. Supongamos ahora una entrada exponencial compleja para t ≥ 0
x (t) = X(s) es t u(t). (12.8)
Por lo tanto, y(t) = 0 para t < 0. Además, si el sistema es causal, h(t) = 0 para
t < 0.
6. Finalmente
Z ∞
y(t) = h (τ ) e−s τ dτ u(t) X(s) es t = H + (s) X(s) es t u(t). (12.11)
0
234
12.1.2 Calculo de y(t) con la ecuación diferencial
1. Supongamos que tenemos una ecuación diferencial de la forma
−1 Q
dP y (t) PX dp y (t) X dq x (t)
+ a p + a 0 y(t) = b q + b0 x(t). (12.12)
dtP p=1 dtp q=1 dtq
donde P > Q.
3. Por lo tanto
dp y (t)
= Y (s) sp es t , (12.13)
dtp
y
dq x (t)
= X(s) sq es t . (12.14)
dtq
4. Reemplazando en la ecuación diferencial (12.12), tenemos
−1
PX Q
Y (s) sP es t + ap Y (s) sp es t +a0 Y (s) es t = bq X(s) sq es t +b0 X(s) es t .
X
p=1 q=1
(12.15)
5. Podemos agrupar
−1
PX Q
Y (s) sP + ap sp + a0 es t = X(s) bq sq + b0 es t .
X
(12.16)
p=1 q=1
235
12.2 Causalidad
En el caso de un sistema lineal invariante en el tiempo, un sistema causal tiene una
respuesta al impulso h(t) = 0 para t < 0. La región de convergencia para la transformada
de Laplace de esta respuesta al impulso es el semiplano derecho: en otras palabras,
todos los polos de la función de transferencia H(s) tienen parte real negativa, y por
lo tanto H(s) existe a la derecha del polo que está más a la derecha. En este caso,
como la región de convergencia incluye a todas las s con parte real positiva, se dice
que causalidad equivale a que la región de convergencia incluye al semiplano positivo (o
semiplano derecho).
12.3 Estabilidad
Las funciones de transferencia cuyos polos no pertenecen al semiplano derecho (o sea,
los polos con parte real negativa) son transformadas de Laplace de funciones del tiempo
que tienden a 0 a medida que t tiende a ∞.
Por ejemplo, consideremos
1
H(s) = . (12.19)
s+a
El polo respectivo es s = −a. Si a es una constante positiva, el polo tiene parte real
negativa. La función del tiempo asociada es h(t) = e−a t u(t).
236
Polinomio caracterı́stico
El polinomio (12.23) recibe el nombre de polinomio caracterı́stico y sus raı́ces son lla-
madas frecuencias, modos naturales, y polos del sistema lineal.
3. El polinomio caracterı́stico es
1 1
λ2 + λ+ = 0. (12.30)
RC LC
4. Sus raı́ces son s
2
1 1 1
λ1 = − + − , (12.31)
2RC 2RC LC
y s
2
1 1 1
λ2 = − − − . (12.32)
2RC 2RC LC
237
5. Si λ1 6= λ2 entonces la solución natural tiene la forma
Polos simples
Si las frecuencias, modos naturales o polos son distintos
i 6= j ←→ λi 6= λj , (12.35)
Polos repetidos
1. Si hay 2 polos repetidos λ = λ1 = λ2 , una solución tiene la forma
238
Polos complejos conjugados
Si un polinomio caracterı́stico tiene polos complejos conjugados
(s + a)2 + b2 = s2 + 2 a s + a2 + b2 = (s + p) (s + p) = 0, (12.40)
estos polos son diferentes entre si, por lo tanto una solución particular es
y(t) = c1 e−p t + c2 e−p t . (12.41)
Podemos escribir
1. considerando que p = −a − b j
y(t) = c1 e−(a+b j) t + c2 e−(a−b j) t . (12.42)
239
2. Aplicando la transformada unilateral de Laplace, podemos resolver esta ecuación
diferencial. Recordemos que para la derivada de una señal x(t), la transformada
de Laplace unilateral es
dx U L
s X + (s) − x0 , (12.47)
dt ↔
y, en general,
n
dn x(t) U L n +
sn−k xk−1 ,
X
s X (s) − (12.48)
dtn ↔ k=1
240
donde P > Q, con condiciones iniciales no nulas
y(t0 ) = y0 , (12.54)
i
d y
= yi , (12.55)
dti t=t0
df U L
s F + (s) − f0 , (12.57)
dt ↔
y, en general,
n
dn f (t) U L n +
sn−k fk−1 ,
X
s F (s) − (12.58)
dtn ↔ k=1
12.6.1 Ejemplo
1. Consideremos los componentes de circuitos RLC descriptos mediante las siguientes
relaciones tensión corriente
v(t) = R i(t), (12.60)
dv(t)
C = i(t), (12.61)
dt
y
di(t)
v(t) = L . (12.62)
dt
241
Mediante la aplicación de la Transformada de Laplace unilateral, podemos escribir
di(t) 1 Zt
v(t) = R i(t) + L + i(v) dv. (12.66)
dt C 0
Aplicando las igualdades (12.63), (12.64) y (12.65), podemos escribir la transfor-
mada de la ecuación diferencial (12.66) y obtener
!
1 I(s)
V (s) = R I(s) + L (s I(s) − i(0)) + + vc (0) . (12.67)
s C
donde Q < P .
Debemos recordar que
242
12.8 Polos y ceros de una función de transferencia
La función de transferencia puede expresarse como
P
Q q
q=0 bq s ΠQ
q=1 (s − cq )
H (s) = PP =K P
, (12.69)
p=0 ap s
p Πp=1 (s − dp )
b
donde K = aQP , y nos referiremos a cq como los ceros del sistema y a dp como los polos
del sistema.
1. La posición de los ceros y polos en el plano complejo determinan, excepto el factor
de ganancia K, la dinámica del sistema.
2. La función de transferencia H (s) está relacionada con la ecuación diferencial y
contiene la misma información que esta. Ambas están definidas por P + Q + 1
números: P polos, Q ceros y una constante o ganancia.
243
12.8.2 Ejemplo dos
1. Veremos la reconstrucción de una ecuación diferencial a partir de una función de
transferencia. Consideremos
Y (s) s
H (s) = = 2 . (12.78)
X(s) s + 2s + 1
¿Cuál es la ecuación diferencial correspondiente?
2. Hagamos
Y (s) s2 + 2s + 1 = X(s) s, (12.79)
y multipliquemos ambos lados por es t u(t)
Y (s) es t u(t) s2 + 2s + 1 = X(s) s es t s, (12.80)
244
12.9.1 Ejemplo
1. Supongamos que tenemos una ecuación diferencial de la forma
d2 y dy
+ (v 1 + v2 ) + (v1 v2 ) y(t) = x(t), (12.86)
dt2 dt
donde v1 6= v2 , y x(t) = X es t u(t).
2. Entonces
5. Es sencillo ver que los modos del sistemas son −v1 y −v2 .
7. La solución general es
donde v1 6= v2 .
y(0) = r0 , (12.94)
dy
= r1 , (12.95)
dt t=0
245
sirven para definir un sistema de ecuaciones lineales cuyas incógnitas son A1 y A2
X
A1 e−v1 0 + A2 e−v2 0 + = r0 , (12.96)
(s + v1 )(s + v2 )
X
−v1 A1 e−v1 t − u2 A2 e−v2 t + = r2 . (12.97)
(s + v1 )(s + v2 )
d2 y dy
2
+ b1 + b0 y = 0. (12.98)
dt dt
(s2 + b1 s + b0 ) = 0. (12.99)
y = Y test , (12.100)
dy
= Y (1 + ts)est (12.101)
dt
d2 y
2
= Y (2s + ts2 )est . (12.102)
dt
(b0 + b1 s + s2 ) = 0, (12.104)
(b1 + 2s) = 0. (12.105)
246
6. Entonces debe ser
o, finalmente,
b0 = s 2 , (12.108)
b1 = −2s. (12.109)
dp(s)
7. Si tenemos un polinomio p(s) = 0 con raı́ces dobles, su derivada ds
= 0 tiene la
misma raı́z.
p(s) = (s − r)2 q(s) = 0, (12.110)
Su derivada es
dp(s) dq(s)
= 2 (s − r) q(s) + (s − r)2 . (12.111)
ds ds
8. La solución de la ecuación diferencial es
y(t) = Y1 er t + Y2 t er t . (12.112)
donde P > Q.
3. Supongamos que tenemos una entrada y una respuesta al impulso nulas para t < 0.
Por lo tanto podemos aplicar la transformada de Laplace unilateral a ambos lados
de la ecuación diferencial. Obtenemos ası́ una ecuación de la forma
247
h(t). Si las condiciones iniciales son nulas entonces deberá ser G+ (s) = 0. En
cualquier caso P
Q q
b
q=0 q s
H + (s) = PP . (12.115)
a s p
p=0 p
12.11.1 Ejemplo
Hallar la solución para la ecuación diferencial
1. Sea
y(t) ⇔ Y (s), (12.117)
dy(t)
⇔ s Y (s) − y(0) = s Y (s) − 2, (12.118)
dt
y
d2 y(t) dy(t)
2
⇔ s2 Y (s) − s y(0) − |t=0 = s2 Y (s) − s 2 − 1, (12.119)
dt dt
2. Además, si
x(t) = e−4 t u(t), (12.120)
entonces
1
X(s) = , (12.121)
s+4
y
dx(t) s
⇔ s X(s) − x(0− ) = . (12.122)
dt s+4
3. La ecuación diferencial transformada resulta
s 1
(s2 Y (s) − s 2 − 1) + 5 (s Y (s) − 2) + 6 Y (s) = + . (12.123)
s+4 s+4
2 s2 + 20 s + 45 2 s2 + 20 s + 45
Y (s) = = (12.124)
(s2 + 5 s + 6) (s + 4) (s + 2) (s + 3) (s + 4)
248
5. Para encontrar la respuesta temporal y(t), podemos despejar Y (s) en fracciones
parciales de la siguiente forma
A B C
Y (s) = + + , (12.125)
s+2 s+3 s+4
donde
Lim Lim 2 s2 + 20 s + 45
A= (s + 2) Y (s) = (s + 2) , (12.126)
s → −2 s → −2 (s + 2) (s + 3) (s + 4)
Lim Lim 2 s2 + 20 s + 45 13
A= (s + 2) Y (s) = = , (12.127)
s → −2 s → −2 (s + 3) (s + 4) 2
Lim Lim 2 s2 + 20 s + 45
B= (s + 3) Y (s) = = −3, (12.128)
s → −3 s → −3 (s + 2) (s + 4)
Lim Lim 2 s2 + 20 s + 45 3
C= (s + 4) Y (s) = =− , (12.129)
s → −4 s → −4 (s + 2) (s + 3) 2
6. Según la tabla de pares función transformada,
1
f (t) = e−r t u(t) ↔ F (s) = , (12.130)
s+r
y por lo tanto
13 −2 t 3
y(t) = e − 3 e−3 t − e−4 t u(t). (12.131)
2 2
249
3. Simplificando y agrupando
(s + a) Y = X. (12.136)
Y
4. Despejando X
, resulta
Y b
H (s) = = , (12.137)
X s+a
5. Recuerde que la solución de la ecuación homogénea es
6. Si a > 0 entonces
Lim
y (t) = 0, (12.139)
t→∞
y por lo tanto el sistema es estable. Si a < 0, entonces
Lim
y (t) = ∞. (12.140)
t→∞
y el sistema es inestable.
Simplificando y agrupando
s2 + as + b Y = cX. (12.146)
250
Y
Despejando X
resulta
Y c
= H (s) = 2 . (12.147)
X (s + as + b)
Observe que si d1 6= d2 (los polos de H (s)) son distintos entre sı́ entonces
r1 r2
H (s) = + . (12.148)
s + d1 s + d2
Las constantes r1 y r2 pueden calcularse de la siguiente forma
r1 r2
r1 = H (s) (s + d1 )|s=−d1 = + (s + d1 ) , (12.149)
s + d1 s + d2 s=−d1
r1 r2
r2 = H (s) (s + d2 )|s=−d2 = + (s + d2 ) . (12.150)
s + d1 s + d2 s=−d2
donde k1 y k2 son constantes que quedan determinadas por las condiciones iniciales.
Podemos ver que este sistema es estable si y solo si d1 > 0 y d2 > 0.
y (0) = y0 . (12.154)
y
dy
|t=0 = y1 . (12.155)
dt
Recordando que
y (t) = p e−d t + q t e−d t , (12.156)
251
y
dy (t)
= −d p e−d t + q e−d t − d q t ed t , (12.157)
dt
podemos plantear un sistema de dos ecuaciones con incógnitas p y q
y
dy (t)
|t=0 = y1 − d p e−d 0 + q e−d 0 − d q 0 ed 0 = −d p + q. (12.159)
dt
Por lo tanto podemos deducir que
p = y0 , (12.160)
y
q = y1 + d y0 . (12.161)
252
Capı́tulo 13
13.1.1 Ejemplo
1. Sea un sistema con respuesta al impulso dada por
253
y una entrada dada por
3
ak ejk2πt ,
X
x (t) = (13.6)
k=−3
donde
a0 = 1,
1
a1 = a−1 = 4
,
(13.7)
1
a2 = a−2 = 2
,
1
a3 = a−3 = 3
.
El sistema dado es causal porque la respuesta al impulso δ(t) es nula para t < 0.
Por lo tanto, los lı́mites de la integral cambı́an y resulta
Z ∞
H (jω) = e−τ e−jωτ dτ. (13.9)
0
donde, en general,
bk = ak H (jk2π) . (13.13)
Por lo tanto, calculando cada bk obtenemos
b0 = 1, (13.14)
254
y
1 1 1 1
b1 = 4 1+j2π
, b−1 = 4 1−j2π
,
1 1 1 1
b2 = 2 1+j4π
, b−2 = 2 1−j4π
, (13.15)
1 1 1 1
b3 = 3 1+j6π
, b−3 = 3 1−j6π
.
13.2.1 Definiciones
Ganancia o atenuación
La ganancia y la atenuación de un filtro son conceptos complementarios, y sus valores
están determinados por la magnitud de la respuesta en frecuencia. Dado que la salida
de un filtro y para una entrada periódica x queda determinada por
para tiempo continuo. El módulo de la función compleja kHk determina la variación del
tamaño de la salida respecto a la entrada. Hablamos de ganancia cuando deseamos saber
cuanto queda ampliada la salida respecto a la entrada, y hablamos de atenuación cuando
deseamos saber cuanto queda disminuida la salida respecto a la entrada. Dado que por
lo general los filtros amplian determinadas frecuencias y disminuyen otras, hablar de
ganancia o atenuación es equivalente a elegir un punto de vista (G = 1 − A).
Fase
La fase de un filtro es la fase de la respuesta en frecuencia (función compleja) H(jω) en
tiempo continuo o H(ejω ) para tiempo discreto.
255
Fase lineal y no lineal
Cuando la fase del filtro es una función lineal de ω, hay una interpretación simple de
su efecto en el dominio del tiempo. Consideremos el sistema de tiempo continuo con
respuesta en frecuencia
H(jω) = ejωt0 , (13.17)
donde la ganancia es 1 para toda frecuencia y fase lineal
Retraso de grupo
d6 H(jω)
τ (ω) = − . (13.20)
dω
dy (t)
τ + y (t) = x (t) . (13.21)
dt
1. La función de transferencia es
1
H (s) = , (13.22)
sτ + 1
con un polo en
1
s=− . (13.23)
τ
2. La función de respuesta en frecuencia es
1
H (jω) = . (13.24)
jωτ + 1
3. La respuesta al impulso es
1 −t
h1 (t) = e τ u (t) . (13.25)
τ
256
4. La respuesta al escalón es
t
h2 (t) = h1 (t) u (t) = 1 − e− τ u (t) . (13.26)
1. (forma normalizada)
o (forma no normalizada)
1
ω< → 20 log10 kH (jω)k ≈ 0. (13.31)
τ
2. (forma normalizada)
o (forma no normalizada)
1 1
ω > → 20 log10 kH (jω)k ≈ −20 log10 (ω) + 20 log10 . (13.33)
τ τ
Esto significa que la función (13.29) tiene dos ası́ntotas. Dado que el gráfico se realiza
con escalas logaritmicas en ambos ejes, estas ası́ntotas son rectas.
257
Ası́ntotas de la función magnitud de Bode para sistemas de primer orden
La función (13.29) puede aproximarse por ası́ntotas según el valor que toma la variable
ω.
Esta función tambien puede aproximarse por distintas rectas para distintos rangos de
frecuencia. Recordemos el uso de escala logaritmica en el eje de la frecuencia.
1
ωτ ≤ 10 → arctan (ωτ ) = 0,
1 π
10
≤ ωτ ≤ 10 → arctan (ωτ ) = − 4 (log10 (ωτ ) + 1) , (13.36)
arctan (ωτ ) = − π2 .
ωn2
H (s) = . (13.39)
s2 + 2ζωn s + ωn2
258
2. La respuesta en frecuencia es
ωn2
H (jω) = , (13.40)
(ωn2 − ω 2 ) + j2ζωn ω
ωn2
H (jω) = , (13.41)
(jω − c1 ) (jω − c2 )
donde q
c1 = ωn −ξ + ξ2 − 1 , (13.42)
y q
c1 = ωn −ξ − ξ2 −1 . (13.43)
(b) En cambio, si
ξ = 1 → c1 = c2 = −ωn , (13.48)
y
ωn2
H (jω) = , (13.49)
(jω − ωn )2
y la respuesta al impulso correspondiente es
259
4. La respuesta al escalón h2 (t) puede calcularse mediante la convolución
(a) En el caso
ξ 6= 1 → c1 6= c2 , (13.52)
tenemos que la respuesta al impulso es
h1 (t) = M ec1 t − ec2 t u (t) , (13.53)
ec1 t ec2 t
!!
h2 (t) = 1 + M − u (t) . (13.54)
c1 c2
(b) En el caso
ξ = 1 → c1 = c2 = −ωn , (13.55)
tenemos que la respuesta al impulso correspondiente es
260
(a) En el caso 0 < ξ < 1, los coeficientes c1 y c2 son complejos, y la respuesta al
impulso puede escribirse en la forma
ωn e−ξωn t
√ √
jωn 1−ξ 2 t jωn 1−ξ 2 t
h1 (t) = √ e −e u (t) . (13.59)
2j 1 − ξ 2
Reacomodando la expresión, obtenemos
√ √
jωn 1−ξ 2 t jωn 1−ξ 2 t
ωn e −ξωn t e − e
h1 (t) = √ u (t) , (13.60)
1 − ξ2 2j
equivalente a
ωn
q
−ξωn t
h1 (t) = √ e 2
sin ωn 1 − ξ t u (t) . (13.61)
1 − ξ2
Esto significa que el movimiento es oscilatorio amortiguado, y se dice en este
caso que el sistema es subamortiguado.
(b) En el caso ξ > 1, los coeficientes c1 y c2 son negativos y la respuesta al
impulso es la diferencia entre dos exponenciales decrecientes
h1 (t) = M e−|c1 |t − e−|c1 |t u (t) . (13.62)
En este caso el sistema es sobreamortiguado.
(c) En el caso ξ = 1, cuando c1 = c2 = −ωn , decimos que el sistema es critica-
mente amortiguado
h1 (t) = ωn2 te−ωn t u (t) . (13.63)
7. La función magnitud de Bode para un sistema con respuesta en frecuencia nor-
malizada
1
H (jω) = 2 , (13.64)
1 − ωωn + j2ζ ωωn
está dada por
v
u 2 !2 2
ω ω
u
20 log10 kH (jω)k = −20 log10
t
1− + 4ζ 2 ,
(13.65)
ωn ωn
que se simplifica
2 !2 2
ω ω
20 log10 kH (jω)k = −10 log10 1 − + 4ζ 2 . (13.66)
ωn ωn
Note que las ası́ntotas para esta función son
ω ωn → 20 log10 kH (jω)k ≈ 0, (13.67)
y
ω ωn → 20 log10 kH (jω)k ≈ −40 log10 ω + 40 log10 ωn . (13.68)
261
13.4 Diagramas de Bode para respuestas en frecuen-
cias racionales
Supongamos que deseamos realizar el diagrama de Bode para un sistema cuya función
de transferencia es PN i
P (s) i=0 ai s
H (s) = = PM j
, (13.69)
Q (s) j=0 bj s
1. Encontrar los ceros de los polinómios P (s) y Q (s). Recordemos que un polinómio
con coeficientes reales tiene ceros reales o complejos conjugados. Lo que nos in-
teresa es escribir los polinómios como producto de factores con las formas:
2. Supongamos que tenemos los polinómios P (s) y Q (s) tienen la forma general
G (s)
R
! S !
s2 + 2dk s + d2k + e2k sT ,
Y Y
G (s) = m s + ci (13.70)
i=1 k=1
1
(c) B3 (s) = s2 2dk ,
+ s+1
(d2 +e2
k k ) ( d2 +e2
k k )
1
(d) B4 (s) = sT
, donde T es un número entero,
s
(e) B5 (s) = ci
+ 1,
262
−10.0
−26.7
−43.3
−60.0
−1 0 1 2 3
10 10 10 10 10
0
−9
−18
−27
−36
−45
−54
−63
−72
−81
−90
−1 0 1 2 3
10 10 10 10 10
s2 2dk
(f) B6 (s) = + s + 1,
( d2k +e2k ) (d2k +e2k )
(g) B7 (s) = sT , donde T es un número entero.
4. Grafiquemos por separado las magnitudes y fases de cada una de las funciones
Hk (jω) . Observe que aunque no hemos estudiado en particular los casos B5 , B6
y B7 , estamos en condiciones de obtener las funciones magnitud y fase de Bode
correspodientes dado que se verifican las siguientes igualdades
1
kB2 (jω)k = , (13.72)
kB1 (jω)k
y
6 B2 (jω) = −6 B1 (jω) . (13.73)
13.4.1 Ejemplos
263
−50.0
−73.3
−96.7
−120.0
0 1 2 3
10 10 10 10
−45
−90
−135
−180
0 1 2 3
10 10 10 10
264
Capı́tulo 14
Muestreo en tiempo
14.1 Introducción
14.1.1 Definiciones básicas
1. Recordemos la definición de la sucesión de funciones cuyo lı́mite es el impulso
unitario
0 t < t0 ,
1
r∆ (t − t0 ) = ∆
t0 ≤ t ≤ t0 + ∆, (14.1)
0
t0 + ∆ < t
donde ∆ es una constante real no negativa.
2. Supongamos que tenemos una señal x (t). Podemos definir una nueva señal
z (t) = x (t) δ (t − t0 ) . (14.2)
3. Para obtener los valores de la función z(t), construyamos una sucesión de funciones
0
t < t0 ,
z∆ (t) = z (t) ∆1 t0 ≤ t ≤ t0 + ∆, (14.3)
0 t0 + ∆ < t.
La función z (t) es el lı́mite de la sucesión cuando ∆ → 0, con la siguiente definición
(
0 t 6= t0 ,
z (t) = (14.4)
x (t0 ) t = t0 .
265
14.2 Muestreo por modulación con un tren de im-
pulsos, tiempo continuo
1. Veamos la Fig. (14.1), y recordemos la definición de un tren de impulsos de tiempo
continuo ∞ X
p (t) = δ (t − nT ) . (14.6)
n=−∞
Por la propiedad del producto de una señal con un impulso sabemos que
1 Z∞
Xp (jω) = X (jθ) P (j (ω − θ)) dθ. (14.11)
2π −∞
Teniendo en cuenta la ecuación (14.7) escribimos
∞
1 Z ∞ 2π X 2π
Xp (jω) = X (jθ) δ ω − k − θ dθ, (14.12)
2π −∞ T k=−∞ T
266
1.5
1
T
0.5
0
p(t)
−0.5
−10 −8 −6 −4 −2 0 2 4 6 8 10
1.5
0.5
−0.5
−10 −8 −6 −4 −2 0 2 4 6 8 10
1.5
x(0) x(2 T)
1 x(−3 T) x(T) x(t)p(t)
x(−2 T) x(3 T)
0.5
0
x(−T)
−0.5
−10 −8 −6 −4 −2 0 2 4 6 8 10
Figura 14.1: Muestreo en el dominio del tiempo: La señal original se modula con tren
de impulsos.
267
especificada por sus muestras x (nT ), n = 0, 1, 2, ...., si
2π
ωs = > 2ωa . (14.16)
T
3. Las dos ecuaciones que debemos observar para entender la clave del muestreo son
(14.6) y (14.15), repetidas a continuación
∞
X
p (t) = δ (t − nT ) , (14.17)
n=−∞
∞
1 X 2π
Xp (jω) = X j ω−k . (14.18)
T k=−∞ T
La separación en el tren de impulsos temporal es T , y en el tren de impulsos en
frecuencia es 2π
T
. Cuando mayor es el tiempo de muestreo, menor es la separación
de los centros de las copias del espectro original en frecuencia.
4. Si los centros de los espectros se acercan demasiado, entonces los extremos de las
copias del espectro original se superponen y confunden, provocando el fenómeno
de aliasing.
TF
X(jω) H(jω)) x(t) ∗ h(t). (14.19)
←→
268
Muestreo por modulacion con un tren de impulsos
2
X(j ω)
1 1
0
−ω a ωa ω
−1
−15 −10 −5 0 5 10 15
2
P(j ω)
1 ωs
0
−3ω s −2ω s −ω s 0 ωs 2ω s ω 3ω s
−1
−15 −10 −5 0 5 10 15
Xp(j ω)
1
0
−3ω −2ω −ω −ω a 0 ω ωs 2ω s ω 3ω
s s s a s
−1
−15 −10 −5 0 5 10 15
269
Aliasing o enmascaramiento de frecuencias
2
0
−ω 0 ω
a a
−1
−15 −10 −5 0 5 10 15
0
−3ω −2ω −ω 0 ω s 2ω s
3ω s
s s s
−1
−15 −10 −5 0 5 10 15
0
−3ω s −2ω −ω s 0 ω 2ω 3ω s
s s s
−1
−15 −10 −5 0 5 10 15
270
Señal de tiempo continuo
1
0.5
-10 -5 5 10
-0.5
-1
Figura 14.4: Una señal continua que será muestreada
4. Esta es una reconstrucción ideal porque estamos usando un filtro pasabajos ideal,
cuya respuesta es no causal.
271
Señal muestreada
1
0.5
-4 -2 2 4
-0.5
-1
Figura 14.5: La señal muestreada
0.5
-10 -5 5 10
-0.5
-1
Figura 14.6: Reconstrucción ideal de la señal muestreada
272
Figura 14.7: Reconstrucción real de la señal muestreada, mediante sumatoria de pulsos
273
Capı́tulo 15
15.1 Definiciones
15.1.1 Señales periódicas
Recordemos que una función x[n] es periódica si y solo si existe un número entero N > 0
que cumple la condición
x [n] = x [n + N ] , (15.1)
para todo n.
Por ejemplo,
2π 2π 2π
x[n] = cos( n) = cos( (n + N )) = cos( n + 2 π), (15.2)
N N N
2π 2π 2π
x [n] = sin( n) = sin( (n + N )) = sin( n + 2 π), (15.3)
N N N
j 2Nπ n j 2Nπ (n+N ) j 2Nπ +j 2 π j 2Nπ j 2 π
x [n] = e =e =e =e e . (15.4)
o la condición
2π
αk [n] = cos (k ω n) = cos k n , ∀k = 0, 1, 2, ..., N − 1, (15.6)
N
274
o la condición
2π
βk [n] = sin (k ω n) = sin k n , ∀k = 0, 1, 2, ..., N − 1. (15.7)
N
En otras palabras, son funciones periódicas cuyas frecuencias son múltiplos enteros de
una frecuencia fundamental.
1. Cada una de estas señales tiene una frecuencia fundamental ω y perı́odo funda-
mental N .
N
2. La armónica k−ésima, para k 6= 0, es periódica con perı́odo k
.
y
2π
x4 [n] = ej 4 4
n
= ej 2 π n = 1 = x0 [n]. (15.12)
275
15.2.2 Análisis, o el cálculo de coeficientes de la serie de Fou-
rier
1. Comenzamos escribiendo la serie de Fourier de una señal periódica de tiempo
discreto
N −1
2π
ak e j k n
X
x [n] = N . (15.14)
k=0
2π
Multiplicando la serie por e−j r N
n
obtenemos
N −1
2π 2π 2π
x [n] e−j r n
ak ej k n −j r n
X
N = N e N , (15.15)
k=0
para obtener
2π
N
N −1
2π
n 1 − ej k N
1 − ej k 2 π
ej k
X
N = 2π
= 2π
= 0. (15.20)
n=0 1 − ej k N 1 − ej k N
276
5. Entonces obtenemos
N −1
2π
x [n] e−j r n
X
N = ar N, (15.21)
n=0
o sea
−1
1 NX 2π
ar = x [n] e−j r N n . (15.22)
N n=0
FS
x [n] a . (15.31)
←→ k
15.3.1 Linealidad
Sean dos funciones con igual perı́odo N
x [n] = x [n + N ] , (15.32)
y [n] = y [n + N ] , (15.33)
Es posible probar
FS
z [n] = A x [n] + B y [n] c = A ak + B bk . (15.36)
←→ k
x [n] = x [n + N ] , (15.37)
y [n] = x [n − n0 ] , (15.38)
278
sus series de Fourier cumplen con la relación
FS
x [n] a , (15.39)
←→ k
FS 2π
y [n] b = e−j k N n0 ak . (15.40)
←→ k
5. Cuando r 6= k, entonces
2π
1 − ej(r−k) N N
1 − ej (r−k) 2 π
2π = 2π , (15.45)
1 − ej (r−k) N 1 − ej (r−k) N
1 − ej (r−k) 2 π 1−1
2π = 2π = 0. (15.46)
1 − ej (r−k) N 1 − ej (r−k) N
6. Cuando r = k, entonces
−1 2π
1 NX −j k 2Nπ n0 j (k−k) 2Nπ n
ar e−j r N n0 N
ak e e = , (15.47)
N n=0 N
y por lo tanto
2π
bk = ak e−j k N
n0
. (15.48)
279
15.3.3 Desplazamiento en frecuencia
Consideremos una señal perı́odica N , x [n] = x [n + N ], con coeficientes de Fourier
ak . Es posible probar que al multiplicar x[n] por una armónica M , los coeficientes se
desplazan en frecuencia, lo que se expresa como
2π FS
ej M ( N ) n x [n] a . (15.49)
←→ k−M
15.3.4 Conjugación
Consideremos una señal perı́odica N , x [n] = x [n + N ], con coeficientes de Fourier
ak . Es posible probar que al conjugar x[n], los coeficientes se conjugan y invierten en
frecuencia, lo que se expresa como
FS ∗
x∗ [n] a , (15.50)
←→ −k
280
15.3.7 Convolución periódica
Consideremos dos señales perı́dicas x[n] = x[n + N ] e y[n] = y[n + N ], con coeficientes
de Fourier ak y bk . Puede definirse la operación convolución circular y calcularse los
coeficientes de Fourier correspondientes
N −1
X FS
x [r] y [n − r] c = N a k bk . (15.56)
r=0
←→ k
15.3.8 Multiplicación
Consideremos dos señales perı́odicas x[n] = x[n + N ] e y[n] = y[n + N ], con coeficientes
de Fourier ak y bk . Puede definirse la operación producto y calcularse los coeficientes de
Fourier correspondientes
N −1
FS X
x [n] y [n] c = ar bk−r . (15.57)
←→ k r=0
a−k = ak . (15.60)
281
15.3.12 Señales reales pares
Consideremos una señal perı́odica N , x [n] = x [n + N ], con coeficientes de Fourier ak .
La señal x[n] es par si y solo si la parte imaginaria de sus coeficientes es nula para todo
k, o en otras palabras,
a−k = ak . (15.61)
282
4. Finalmente, observemos que la expresión entre paréntesis puede sustituirse por ak
−1
1 NX N
|x [n]|2 =
X
ak ak . (15.71)
N n=0 k=0
3. Por lo tanto, todos los coeficientes de la serie de Fourier pueden calcularse como
un producto de matriz por vector
W00 W0n W 0 (N −1)
a[0] ... ... x[0]
... ... .... ... ... ... ...
Wr0 Wrn W r (N −1)
N
a[r]
=
... ...
=
x[n] .
...
... .... ... ... ...
...
(N −1) 0 (N −1) n (N −1) (N −1)
a[N − 1] W ... W ... W x[N − 1]
(15.76)
283
4. Esta última ecuación transforma la representación x[n] del dominio del tiempo en
la representación a[k] del dominio de la frecuencia.
N a = MN · x, (15.79)
# Elegimos e l p e r i o d o
N = 4;
# v e c t o r de tiempo d i s c r e t o
n = ( 0 : ( N− 1 ) ) ’ ;
# Constante W
W = exp(− j ∗ 2 ∗ p i / N ) ;
284
# Matriz M
M = W. ˆ ( n∗n ’ ) ;
d i s p ( ’ $Matriz M {4} $ ’ )
M
end
Dt = 1 / 2 0 0 ;
n = 0:1023;
xn = 1/2 + 1/4 ∗ c o s ( 2 ∗ p i ∗ 50 ∗ n ∗ Dt ) ;
[Xw, w] = m y f f t ( xn , Dt ) ;
f i g u r e ( 1 ) ; p l o t ( n∗Dt , xn , ’ − ’ ) ; t i t l e ( ’ xn = 1/2 + 1/4 ∗ c o s ( 2 ∗ p i ∗ 50 ∗
f i g u r e ( 2 ) ; p l o t (w, abs (Xw) , ’ : ∗ ’ ) ; t i t l e ( ’ f r e c u e n ci a angular ( radianes p
f i g u r e ( 3 ) ; p l o t (w / ( 2 ∗ p i ) , abs (Xw) , ’ : ∗ ’ ) ; t i t l e ( ’ f r e c u e n c i a en c i c l o
x1 = [ ones ( 6 4 , 1 ) ; z e r o s ( 6 4 , 1 ) ] ;
x2 = [ z e r o s ( 3 2 , 1 ) ; ones ( 6 4 , 1 ) ; z e r o s ( 3 2 , 1 ) ] ;
Dt = 1 ;
[ X1w, w1 ] = m y f f t ( x1 , Dt ) ;
[ X2w, w2 ] = m y f f t ( x2 , Dt ) ;
285
f i g u r e ( 1 ) ; p l o t (w1 , abs (X1w ) , ’ . ’ ) ;
f i g u r e ( 2 ) ; p l o t (w2 , abs (X2w ) , ’ . ’ ) ;
c1 = atan ( imag (X1w ) . / r e a l (X1w ) ) ;
c2 = atan ( imag (X2w ) . / r e a l (X2w ) ) ;
f i g u r e ( 3 ) ; p l o t (w1 , c1 , ’ . ’ ) ; a x i s ([ − pi , pi , − 1 , 1 ] )
f i g u r e ( 4 ) ; p l o t (w2 , c2 , ’ . ’ ) ; a x i s ([ − pi , pi , − 1 , 1 ] )
d e s f a s e A = exp(− I ∗ ( 1 : 1 2 8 ) ’ ∗ 2 ∗ p i ∗ 32/ 1 2 8 ) ;
d e s f a s e B = X1w . / X2w ;
15.4.4 Las diferencias entre notas musicales de diferentes in-
strumentos
# Data
[ sound 1 , f s 1 ] = a u d i o r e a d ( ’ 4 4 0 H z 4 4 1 0 0 H z 1 6 b i t 0 5 s e c . wav ’ ) ;
[ sound 2 , f s 2 ] = a u d i o r e a d ( ’ 4 4 0 Hz piano . wav ’ ) ;
[ sound 3 , f s 3 ] = a u d i o r e a d ( ’ 4 4 0 H z v i o l i n A 4 . wav ’ ) ;
#
disp ( ’ frequency , s i z e : ’ )
d i s p ( ’ pure tone ( f r e q u e n c y , s i z e ) : ’ ) ; d i s p ( f s 1 ) ; d i s p ( s i z e ( sound 1 ) )
d i s p ( ’ piano ( frequency , s i z e ) : ’); d i s p ( f s 2 ) ; d i s p ( s i z e ( sound
disp ( ’ v i o l i n ( frequency , s i z e ) : ’); d i s p ( f s 3 ) ; d i s p ( s i z e ( sound 3
# s l i d i n g window
start = 1.2;
stop = 1 . 2 1 1 ;
channel = 0 ;
# sound f r a g m e n t s
dt 1 = 1 / f s 1 ;
t 1 = ( s t a r t : dt 1 : stop ) ’ ;
samples = l e n g t h ( t 1 ) − 1 ;
f r a g m e n t 1 = sound 1 ( f l o o r ( s t a r t / d t 1 ) : f l o o r ( s t a r t / d t 1 ) + samples ) ;
dt 2 = 1 / f s 2 ;
t 2 = ( s t a r t : dt 2 : stop ) ’ ;
samples = l e n g t h ( t 2 ) − 1 ;
f r a g m e n t 2 = sound 2 ( f l o o r ( s t a r t / d t 2 ) : f l o o r ( s t a r t / d t 2 ) + samples ) ;
286
dt 3 = 1 / f s 3 ;
t 3 = ( s t a r t : dt 3 : stop ) ’ ;
samples = l e n g t h ( t 3 ) − 1 ;
f r a g m e n t 3 = sound 3 ( f l o o r ( s t a r t / d t 3 ) : f l o o r ( s t a r t / d t 3 ) + samples ) ;
figure (1)
subplot (311)
plot ( t 1 , fragment 1 )
y l a b e l ( ’ pure tone ’ )
subplot (312)
plot ( t 2 , fragment 2 )
y l a b e l ( ’ piano ’ )
subplot (313)
plot ( t 3 , fragment 3 )
ylabel ( ’ violin ’)
xlabel ( ’ t secs . ’)
[ Xw 1 , w 1 ] = m y f f t ( fragment 1 , d t 1 ) ;
[ Xw 2 , w 2 ] = m y f f t ( fragment 2 , d t 2 ) ;
[ Xw 3 , w 3 ] = m y f f t ( fragment 3 , d t 3 ) ;
figure (2)
subplot (311)
p l o t ( w 1 , abs ( Xw 1 ) )
y l a b e l ( ’ pure tone ’ )
subplot (312)
p l o t ( w 2 , abs ( Xw 2 ) )
y l a b e l ( ’ piano ’ )
subplot (313)
p l o t ( w 3 , abs ( Xw 3 ) )
ylabel ( ’ violin ’)
x l a b e l ( ’ \ omega r a d i a n s / s e c s ’ )
287
Capı́tulo 16
16.1 Introducción
1. Vamos a ver como podemos modificar el concepto de serie de Fourier que rela-
cionamos normalmente con las funciones periódicas de tiempo discreto para es-
tudiar funciones no periódicas de tiempo discreto. Esto nos permite definir el
concepto de contenido de frecuencias de una señal, aún cuando sea aperiódica.
2. Pensemos en una señal x̂ [n] periódica de tiempo discreto con un perı́odo funda-
mental 2N + 1 definida por
−N ≤ n < −N1 → x̂[n] = 0,
−N1 ≤ n ≤ N1 → x̂[n] = 1, (16.1)
N1 < n ≤ N → x̂[n] = 0.
x̂ [n] = x̂ [n + 2 N + 1] . (16.2)
2π
donde ωN = 2 N +1
.
4. Para el caso k = 0 obtenemos el coeficiente a0 (comúnmente llamado en electrónica
nivel de continua)
N1
1 X 2 N1 + 1
a0 = 1= . (16.4)
2 N + 1 n=−N1 2N + 1
288
El valor 22NN1+1
+1
es denominado ciclo de trabajo del tren de pulsos, e indica el
porcentaje del perı́odo en que la señal es igual a 1.
289
10. Observe que la separación de las muestras de la envolvente de N ak está dada por
2π
ωN = . (16.11)
2N + 1
Entonces, cuando mayor sea N menor será ωN y la cantidad de muestras en un
intervalo dado de frecuencia será mayor.
11. Si fijamos el valor N1 (recordando que debe ser N1 < N, por hipótesis) la envol-
vente de N ak es independiente de N .
2. Definamos una señal periódica x̃ [n] = x̃ [n + N ] (donde N > N1 ) de forma tal que
(n mod N ) > N1 → x̃ [n] = 0, (16.14)
(n mod N ) ≤ N1 → x̃ [n] = x [n mod N ] . (16.15)
donde
N −1
2π
x̃ [n] e−j k ( N ) n .
X
N ak = (16.17)
n=0
4. Entonces como x̃ [n] = x [n] en el intervalo [0, N − 1] se puede reemplazar x̃ [n] por
x [n]
N −1 N −1
2π 2π
x̃ [n] e−j k ( N ) n = x [n] e−j k ( N ) n .
X X
N ak = (16.18)
n=0 n=0
5. Además como x [n] = 0 fuera del intervalo [0, N1 ] podemos cambiar los lı́mites de
la sumatoria
N −1 ∞
2π 2π
x [n] e−j k ( N ) n = x [n] e−j k ( N ) n .
X X
N ak = (16.19)
n=0 n=−∞
290
6. Definimos la ecuación de análisis de la transformada de Fourier de tiempo discreto
∞ −n
X ej ω = x [n] ej ω
X
. (16.20)
n=−∞
16.2.2 Sı́ntesis
1. Entonces tenemos que los coeficientes de Fourier se pueden calcular
N ak = X ej k ωN , (16.21)
donde
2π
ωN = . (16.22)
N
2. Por lo tanto podemos reescribir la serie de Fourier como
N −1
1
X ej k ωN ej k ωN n .
X
x̃ [n] = (16.23)
k=0 N
2π ωN 1
Dado que ωN = N
tenemos que 2π
= N
y por lo tanto
−1
1 NX
x̃ [n] = X ej k ωN ej k ωN n ωN . (16.24)
2 π k=0
291
o si se cumple
∞
!
2
X
(x [n]) < M2 , (16.28)
n=−∞
le corresponde la transformada
!
∞
2πk
X ej ω
X
= 2π ak δ ω − . (16.35)
k=−∞ N
292
6. Para probarlo, usemos la ecuación de sı́ntesis
∞
!
1 Z 2 π j ω j ω n 1 Z 2π X 2π k jωn
X e e dω = 2 π ak δ ω − e dω.
2π 0 2π 0 k=−∞ N
(16.36)
Asi obtenemos
1 R 2 π P∞
2πk
2π 0 k=−∞ 2 π ak δ ω − N
ej ω n dω =
P (16.37)
∞ R 2π 2πk jωn
k=−∞ ak 0 δ ω− N
e dω .
293
16.5.2 Ecuación de análisis
∞
x [n] e−j ω n .
X
X (j ω) = (16.44)
n=−∞
16.5.3 Notación
TF
x [n] X ej ω . (16.45)
↔
16.5.4 Periodicidad
X ej(ω+2 π) = X ej ω . (16.46)
16.5.5 Linealidad
TF
x [n] X ej ω , (16.47)
↔
F
y [n] Y ej ω , (16.48)
↔
TF
a x [n] + b y [n] a X ej ω + b Y ej ω . (16.49)
↔
T F −j ω n0 j ω
x [n − n0 ] e X e , (16.51)
↔
TF
e−j ω0 n x [n] X ej(ω−ω0 ) . (16.53)
↔
294
16.5.8 Conjugación y simetrı́a del conjugado
TF
x [n] X ej ω , (16.54)
↔
TF
x [n] = x̄ [n] X e−j ω = X̄ e−j ω , (16.55)
↔
Si x [n] es real
T F h j ω i
Even (x [n]) < X e , (16.56)
↔
T F h j ω i
Odd (x [n]) = X e . (16.57)
↔
16.5.9 Diferencia
TF
x [n] X ej ω , (16.58)
↔
TF
x [n] − x [n − 1] 1 − ej ω X ej ω . (16.59)
↔
16.5.10 Suma
TF
x [n] X ej ω , (16.60)
↔
n ∞
X F X (ej ω ) X
j0
x [k] = + πX e δ (ω − 2 πk) . (16.61)
k=−∞
↔ (1 − ej ω ) k=−∞
T F dX (ej ω )
nx [n] j . (16.63)
↔ dω
295
16.5.13 Convolución
TF
x [n] X ej ω , (16.65)
↔
TF
y [n] Y ej ω , (16.66)
↔
TF
h [n] H ej ω , (16.67)
↔
TF
y [n] = h [n] x [n] Y ej ω = H ej ω X ej ω . (16.68)
↔
16.5.14 Multiplicación
F
x [n] X ej ω , (16.69)
↔
F
y [n] Y ej ω , (16.70)
↔
F
r [n] R ej ω , (16.71)
↔
T F j ω 1 Z ∞ jθ j(ω−θ)
r [n] = x [n] y [n] R e = X e Y e dθ. (16.72)
↔ 2 π −∞
296
Capı́tulo 17
La transformada Zeta
17.1 Introducción
17.1.1 Origen de la transformada Zeta
1. Calculemos la salida de un sistema LIT de tiempo discreto y respuesta al impulso
h[n] cuando la entrada es x[n] = z n (z es una variable compleja) mediante la suma
de convolución ∞ ∞
h[k] z n−k .
X X
y[n] = h[k] x[n − k] = (17.1)
k=−∞ k=−∞
dado que el factor z n es una constante para la sumatoria. En este caso, Z{h[n]}
representa a la transformada Z bilateral de h[n].
297
17.1.2 Ecuación de análisis (bilateral)
La transformada Z bilateral de una secuencia x [n] se define mediante la ecuación de
análisis ∞
x [n] z −n .
X
X (z) = (17.4)
n=−∞
2. Como z es una cantidad compleja, X (z) es una función compleja de una variable
compleja. Entonces, la ecuación de sı́ntesis implica integración en el dominio
complejo z. Solamente usaremos esta fórmula para probar teoremas y en algunos
ejemplos puntuales.
17.1.6 Ejemplo
1. Calculemos la transformada Z bilateral de un impulso unitario x[n] = δ[n]. En-
tonces escribimos
∞ ∞
−k
δ[k] z −k .
X X
X(z) = x[k] z = (17.7)
k=−∞ k=−∞
298
Dado que δ[k] = 1 si y solo si k = 0, entonces resulta
∞
δ[k] z −k = δ[0] z 0 = 1.
X
X(z) = (17.8)
k=−∞
Observemos que ∞ −k
es una serie geométrica de razón z −1 . Para que esta
P
k=0 z
serie sea convergente debe ser ||z −1 || ≤ 1.
4. Calculemos la transformada Z bilateral de una exponencial causal de duración
infinita
x [n] = an u [n] . (17.13)
5. La ecuación de análisis correspondiente es
∞
x [k] z −k .
X
X (z) = (17.14)
k=−∞
299
17.2 La transformada Z, la transformada de Fourier,
y la región de convergencia
17.2.1 Desarrollo teórico
1. Consideremos la ecuación de sı́ntesis de la transformada bilateral
∞
x[k] z −k .
X
X(z) = (17.16)
k=−∞
z = r ejω , (17.17)
300
Aplicando la desigualdad triangular
∞
x[k] r −k e−j ω n
,
X
kX(z)k ≤
(17.22)
k=−∞
y dado que
e−j ω k
= 1, finalmente obtenemos
∞
x[k] r −k
X
kX(z)k ≤ ≤ M. (17.23)
k=−∞
301
8. Si X (z) correspondiente a x [n] es racional, y si x [n] es derecha, entonces la
región de convergencia está ubicada fuera del cı́rculo que contiene al polo de mayor
magnitud. Además, si x [n] es causal (o sea, si es derecha y nula para n < 0),
entonces la región de convergencia también incluye z = ∞.
Z
x [n] X (z) . (17.24)
⇔
17.3.2 Propiedades
La siguiente tabla resume algunas propiedades de la transformada Z bilateral.
x [n − n0 ] z −n0 X (z) Rx
dX(z)
nx [n] −z dz
Rx
17.3.3 Linealidad
Z
a x [n] + b y [n] a X (z) + b Y (z) . (17.25)
⇔
302
17.3.4 Demora n0
Z −n0
x [n − n0 ] z X (z) . (17.26)
⇔
17.3.6 Convolución en z
Z
x [n] y [n] X (z) ∗ Y (z) . (17.28)
⇔
17.3.7 Convolución en n
Z
x [n] ∗ y [n] X (z) Y (z) . (17.29)
⇔
∞
δ [n] z −n ,
X
X (z) = (17.31)
n=−∞
X (z) = 1 z 0 = 1. (17.32)
Región de convergencia: todo el plano z.
∞
u [n] z −n ,
X
X (z) = (17.34)
n=−∞
∞
1
z −n =
X −1
X (z) = , z < 1. (17.35)
1 − z −1
n=0
Región de convergencia: exterior del cı́rculo unitario centrado en el orı́gen, |z −1 | <
1 ⇔ |z| > 1.
303
17.5 Relación entre secuencias causales y diagramas
de ceros y polos
17.5.1 Secuencia exponencial causal
Recordemos que la transformada Z de una exponencial causal
es
1
X (z) = , (17.37)
1 − a z −1
donde
−1
a z < 1 ⇔ |z| > |a| . (17.38)
y por lo tanto la región de convergencia es el exterior de un cı́rculo de radio |a| centrado
en el orı́gen.
5. Finalmente,
∞ −n (a−1 z)
a−1 z
X
X (z) = − = . (17.43)
n=1 1 − (a−1 z)
304
6. Observe que reacomodando el resultado anterior, obtenemos
(a−1 z) 1
X (z) = −1
= , (17.44)
1 − (a z) 1 − a z −1
donde
−1
a z < 1 ⇔ |z| < |a| . (17.45)
2. Su transformada Z es
1 1 z (a − a−1 )
−1 z −1
X (z) = |1 − a{z 1 − {z
} + |
a z −1} = (z − a−1 ) (z − a) (17.47)
| {z }
|z| < a1 |z| > a a < |z| < a1
305
17.6.1 Primer método
1. Recordemos que la transformada Zeta de una secuencia puede ser interpretada
como la transformada de Fourier de una secuencia con coeficientes exponenciales
TF
x[n] r−n X r ejω , (17.48)
→
5. Existen dos teoremas, debidos a Cauchy, que nos permiten evaluar integrales
curvilı́neas en el plano complejo.
1 I f (z)
dz = f (z0 ), (17.54)
2 π j C z − z0
306
si z0 es interior al contorno C, y
1 I f (z)
dz = 0 (17.55)
2 π j C z − z0
si z0 es exterior al contorno C, donde f (z) es derivable sobre y en el interior
del contorno C y sin polos en z0 .
(b) El segundo teorema de Cauchy afirma que
n
1 I f (z) X
dz = Ai (zi ) (17.56)
2 π j C g(z) i=1
donde
f (z)
Ai (z) = (z − zi ) . (17.57)
g(z)
f (z)
son los residuos de g(z)
evaluados en los polos zi , si se cumplen las siguientes
condiciones
i. f (z) se mantiene acotada en el interior del contorno C.
ii. g(z) es un polinomio con N raı́ces simples (o sea, distintas) zi , i ∈ [1, N ]
en el interior del contorno C.
307
17.6.3 Tercer método
Podemos expresar X(z) como una combinación lineal
M
X
X(z) = ai Xi (z), (17.63)
i=1
donde conozcamos las secuencias xi [n] correspondientes a cada Xi (z). En este caso
M
X
x[n] = ai xi [n]. (17.64)
i=1
17.6.4 Ejemplos
1. Consideremos la transformada Z
3 − 56 z −1
X(z) = , (17.65)
1 − 14 z −1 1 − 13 z −1
A B
X(z) = 1 + , (17.66)
1− 4
z −1 1 − 31 z −1
donde
1
A = X(z) (1 − z −1 )
= 1, (17.67)
4 z= 41
y
1
B = X(z) (1 − z −1 )
= 2. (17.68)
3 z= 13
1 Z 1
x1 [n] = u[n] X (z) = 1− 14 z −1
, |z| > 14 , (17.69)
4n ⇔ 1
308
1 Z 1
x2 [n] = u[n] X (z) = 1− 13 z −1
, |z| > 13 , (17.70)
3n ⇔ 2
y en consecuencia, la secuencia buscada es
1 2
x[n] = n + n u[n]. (17.71)
4 3
Z+ +
x[n] X (z). (17.74)
↔
309
Retardo de tiempo
1. Si x[n] no es causal, entonces
k
" #
Z + −k
X + (z) + x[−n] z n ,
X
x[n − k] z (17.75)
↔ n=1
para k > 0.
Z + −k +
x[n − k] z X (z), (17.76)
↔
para k > 0.
Avance de tiempo
k−1
" #
Z+ k +
x[n] z −n ,
X
x[n + k] z X (z) − (17.77)
↔ n=0
para k > 0.
Lim Lim
x[n] = (z − 1) X + (z). (17.78)
n→∞ z→1
310
Capı́tulo 18
18.1 Introducción
En los sistemas lineales de tiempo discreto invariantes en el tiempo la entrada y la salida
están relacionadas por
2. la suma de convolución ∞
X
y[n] = x[k] h[n − k]. (18.2)
k=−∞
Ambas formas deben ser equivalentes. Justamente esta equivalencia da pie a que po-
damos usar la transformada Z para resolver ecuaciones de diferencias. Empezaremos
estudiando la equivalencia entre ambas formas de cálculo para entradas de la forma
x[n] = z n , y después generalizaremos considerando entradas para las que existan las
transformadas Z correspondientes.
311
Buscaremos la solución para entradas de la forma
x[n] = z n , (18.4)
yh [n] = Y λn , (18.6)
yh [n − p] = Y λn−p , (18.7)
Las raı́ces λq del polinomio caracterı́stico son llamadas frecuencias, modos natu-
rales o polos.
312
5. Si las frecuencias o modos naturales son distintos
(i 6= j ←→ λi 6= λj ) , (18.11)
Ejemplo
1. Consideremos la ecuación de diferencias
3. Suponiendo que
313
6. Observemos que
s s
2 2
c c c c
1+ + 1+ − 1 1 + − 1+ − 1 = 1. (18.20)
2 2 2 2
y por lo tanto
1
λ1 = . (18.21)
λ2
7. Entonces la solución homogénea es
8. Observe las ecs. (18.17) y (18.18). ¿Porqué el factor es V λn−1 en lugar de V λn−2 ,
dado que N = 2?
x [n] = z n , (18.24)
y [n] = Y z n , (18.25)
314
Luego de dividir por z n , podemos despejar Y
P
M
q=0 bq z −q
Y = PN . (18.28)
p=0 ap z −p
4. Por lo tanto, una solución particular de la ecuación (18.23) para una entrada
exponencial z n es P
M −q
b
q=0 q z
yp [n] = PN zn. (18.29)
−p
p=0 ap z
x [n] = λn . (18.31)
315
5. Por ejemplo, consideremos la ecuación de diferencias
y[n] − λy[n − 1] = λn . (18.34)
Podemos comprobar que sustituyendo
y[n] = (n + c) λn , (18.35)
y[n − 1] = ((n − 1) + c) λn−1 , (18.36)
en la ec. (18.33), obtenemos
(n + c) λn − λ ((n − 1) + c) λn−1 = λn . (18.37)
Reagrupando y simplificando, resulta
n λn − n λn + c λn − c λn + λn = λn . (18.38)
Por lo tanto la respuesta forzada es de la forma (18.33).
es de la forma
P
M −q
q=0 bq z
N
!
Yk λnk + PN zn.
X
y[n] = yh + yp [n] = (18.40)
k=1 p=0 ap z −p
316
18.3.1 Ejemplo uno
1. La ecuación de diferencias
2. La ecuación de diferencias
H(z) (z + 1) = z, (18.48)
H(z)z n (z + 1) = z n z, (18.49)
18.3.3 Pregunta
Compare las funciones de transferencia con sus respectivas ecuaciones de diferencias.
¿Encuentra la relación existente entre los exponentes de z en las funciones de transfe-
rencia, los ı́ndices de los coeficientes y los desplazamientos en el tiempo de la entrada y
la salida?
317
18.4 Polos y ceros de la función de transferencia
1. La función de transferencia puede expresarse como
P
M q
q=0 bq z ΠM
q=1 z − cq
H (z) = PN = K , (18.51)
p=0 ap z p ΠN
p=1 z − dp
donde K = baMN . Nos referiremos a cq como los ceros, a dp como los polos, y a K
como la ganancia.
2. La posición de los ceros y polos en el plano complejo determinan el tipo de dinámica
del sistema. El factor de ganancia K sólo determina la amplitud de la respuesta.
3. La función de transferencia H (z) relacionada con una ecuación de diferencia con-
tiene la misma información que esta. Ambas están definidas por N + M + 1
números: N polos, M ceros y una constante o ganancia.
donde P
M −q
q=0 bq z
H(z) = PN , (18.54)
p=0 ap z −p
y yh [n] satisface la ecuación homogénea
N
X
ap yh [n − p] = 0. (18.55)
p=0
2. Para determinar por completo la solución total necesitamos determinar los N co-
eficientes A1 , ..., AN . que forman parte de la solución homogénea yh [n]. Estos
pueden ser determinados a partir de N condiciones iniciales que deben ser especi-
ficadas. Se obtiene ası́ un conjunto de N ecuaciones algebraicas cuyas incógnitas
son los N coeficientes A1 , ..., AN .
318
18.5 Respuesta a exponenciales complejas
1. Sea el sistema definido por la suma de convolución,
∞
X ∞
X
y [n] = x [k] h [n − k] = h [k] x [n − k] , (18.56)
k=−∞ k=−∞
x [n] = z n . (18.57)
319
2. Además, una solución particular de la ecuación de diferencias está dada por la
convolución de la respuesta al impulso h[n] con la entrada x[n].
320
4. Recordemos que hemos llegado a la conclusión de que la transformada Z de la
respuesta causal al impulso es la función de transferencia H(z) definida como
P
M −q ∞
q=0 bq z
h [k] z −k .
X
H (z) = PN = (18.65)
−p
p=0 ap z k=0
7. Podemos comprobar que la solución y[n] tiene la forma indicada en la ec. (18.62)
por dos caminos distintos: en el dominio del tiempo y en el dominio z.
321
8. En el dominio del tiempo, podemos escribir
N
! n−p !
ck λkn−p u[n
X X
y[n − p] = − p] + h[n − k − p]x[k] , (18.71)
k=1 k=0
18.6.4 Ejemplo
1. Hemos considerado anteriormente una versión discretizada del sistema de tiempo
continuo cuya ecuación diferencial es
dvo (t) 1 1
+ vo (t) = vi (t) , (18.74)
dt RC RC
y su respuesta al escalón, comenzando de vo (0) = 0, es
t
vo (t) = 1 − e− RC u (t) . (18.75)
322
Hemos mostrado que una aproximación discreta de este sistema permite obtener
la ecuación de diferencias
donde
T
α= . (18.77)
RC
2. Podemos obtener la función de transferencia del sistema sustituyendo
vi [n] = z n , (18.78)
y
vo [n] = Vo z n , (18.79)
en la ecuación de diferencias para obtener
Vo z n+1 = (1 − α) Vo z n + αz n , (18.80)
λ = (1 − α) , (18.83)
323
18.7 Estabilidad de sistemas LIT
18.7.1 Sistemas con un polo
La función de transferencia correspondiente a la ecuación diferencial
x [n] = Xz n , (18.88)
y [n] = Y z n ←→ y [n + 1] = Y z n+1 . (18.89)
Simplificando y agrupando
(z + a) Y = bX. (18.91)
Y
Despejando X
, resulta
Y b
H (z) == , (18.92)
X z+a
Recuerde que la solución de la ecuación homogénea es
3. Si |a| = 1, entonces
Lim
y [n] = 1, (18.96)
n→∞
y el sistema es estable en el sentido de que una entrada acotada genera una salida
limitada.
324
18.7.2 Sistemas con dos polos
La función de transferencia correspondiente a la ecuación de diferencias
y [n + 2] + ay [n + 1] + by [n] = cx [n] , (18.97)
puede calcularse suponiendo que
x [n] = Xz n , (18.98)
y [n] = Y zn, (18.99)
y [n + 1] = Y z n+1 , (18.100)
y [n + 2] = Y z n+2 . (18.101)
Reemplazamos en la ecuación de diferencias
z 2 Y z n + azY z n + bY z n = cXz n . (18.102)
Simplificamos y agrupamos
z 2 + az + b Y = cX. (18.103)
Y
Despejando X
resulta
Y c
= H (z) = 2 . (18.104)
X (z + az + b)
Observe que si d1 6= d2 (los polos de H (z)) son distintos entre sı́ entonces
r1 r2
H (s) = + . (18.105)
z + d1 z + d2
Las constantes r1 y r2 pueden calcularse
r1 r2
H (z) (z + d1 )|z=−d1 = + (z + d1 ) , (18.106)
z + d1 z + d2 z=−d1
r1 r2
H (z) (z + d2 )|z=−d2 = + (z + d2 ) . (18.107)
z + d1 z + d2 z=−d2
325
Y[n−1] Y[n] Y[n+1]
R G R G R G
+ + +
X[n−1] X[n]
− − −
18.8 Aplicación
18.8.1 Red eléctrica en escalera
En la figura 18.1, r es la resistencia serie y g es la conductancia shunt. Aplicando la ley
de Kirchoff de las corrientes en el nodo central tenemos
v0 [n − 1] − v0 [n] v0 [n + 1] − v0 [n]
+ + g (vi [n] − vo [n]) = 0, (18.112)
r r
de donde se obtiene la ecuación de diferencias
Falta completar
326
Capı́tulo 19
327
Ejemplo
1. Sea un sistema con respuesta al impulso
y una entrada
2πn 1 j2πn
2πn
x [n] = cos = e N + e−j N . (19.6)
N 2
2. Calculamos la respuesta en frecuencia planteando la suma
∞
H ej ω = h [n] e−j ω n .
X
(19.7)
n=−∞
El sistema dado es causal porque la respuesta al impulso δ[n] es nula para n < 0.
Por lo tanto los lı́mites de la sumatoria cambian y resulta
∞ ∞
H ej ω = αn u [n] e−j ω n = αn e−j ω n .
X X
(19.8)
n=−∞ n=0
Z
h[n] H(z) (19.12)
↔
328
2. Sabemos que las transformadas Z de la entrada
Z
x[n] X(z) (19.13)
↔
la salida
Z
y[n] Y (z) (19.14)
↔
y la respuesta al impulso de un sistema LIT están relacionadas por la expresión
Y (z) = H(z) X(z). (19.15)
Calculando la antitransformada y[n] obtenemos la solución de la ecuación de dife-
rencias.
19.2.1 Definiciones
Ganancia o atenuación
La ganancia y la atenuación de un filtro son conceptos complementarios, y sus valores
están determinados por la magnitud de la respuesta en frecuencia. Dado que la salida
de un filtro y para una entrada periódica x queda determinada por
y[n] = H(ejω )x[n], (19.16)
para tiempo discreto, el módulo de la función compleja k H k determina la variación del
tamaño de la salida respecto a la entrada. Hablamos de ganancia cuando deseamos saber
cuanto queda ampliada la salida respecto a la entrada, y hablamos de atenuación cuando
deseamos saber cuanto queda disminuida la salida respecto a la entrada. Dado que por
lo general los filtros amplian determinadas frecuencias y disminuyen otras, hablar de
ganancia o atenuación es equivalente a elegir un punto de vista (G = 1 − A).
329
Fase
La fase de un filtro es la fase de la respuesta en frecuencia (función compleja) H(jω) en
tiempo continuo o H(ejω ) para tiempo discreto.
Retraso de grupo
330
2. La respuesta en frecuencia de este sistema es
1
H ej ω = . (19.22)
1 − ae−j ω
3. La respuesta al impulso es
h1 [n] = an u [n] . (19.23)
4. La respuesta al escalón es
1 − an+1
h2 [n] = h1 [n] u [n] = u [n] . (19.24)
1−a
5. La magnitud de |a| < 1 determina la velocidad a la que responde el sistema.
331
19.3.2 Sistema de tiempo discreto con dos polos
Consideremos el sistema de tiempo discreto lineal, invariante en el tiempo y causal cuya
ecuación de diferencias es
1. La función de transferencia es
1 1
H (z) = −1 −2
= . (19.31)
2
1 − 2r cos (θ) z + r z (1 − re z ) (1 − re−jθ z −1 )
jθ −1
2. La respuesta en frecuencia es
1 1
H ej ω = −j −2j
= .
1 − 2r cos (θ) e ω 2
+r e ω (1 − re e ) (1 − re−jθ e−j ω )
jθ −j ω
(19.32)
332
Capı́tulo 20
Filtros
20.1 Introducción
20.1.1 ¿Qué es un filtro?
1. Un filtro es un sistema dinámico con una respuesta en frecuencia especial que nos
permite procesar la entrada para obtener una salida con un contenido armónico
conveniente.
2. Todos los sistemas fı́sicos actúan como filtros de sus entradas.
3. El filtrado es un importantı́simo método de procesamiento de señales.
4. Vamos a estudiar filtros lineales de tiempo continuo:
(a) estudio teórico, en base a las Transformadas de Laplace y Fourier,
(b) estudio práctico, con implementación de filtros, es parte de Teorı́a de Circui-
tos II.
5. Vamos a estudiar filtros lineales de tiempo discreto:
(a) estudio teórico, en base a las Transformadas Zeta y Fourier,
(b) estudio práctico, con implementación de filtros en computadora.
6. Los filtros que estudiamos se usan para
(a) Separar componentes de la entrada pertenecientes a distintas bandas de fre-
cuencia, permitiendo el paso a la salidad de los componentes dentro de ciertas
bandas y rechazando el paso de los otros (ecualizadores músicales).
(b) Generar cierto desfasaje entre entrada y salida (útil para compensar retardos
en sistemas de comunicación.)
333
(c) Generar estimaciones de la derivada de la entrada.
(d) Eliminación de ruido.
(e) Otras aplicaciones.
334
1
0.8
0.6
0.4
0.2
4. la tolerancia de paso δ1 y
5. la tolerancia de rechazo δ2 .
20.3 Ejemplos
20.3.1 Un filtro pasabajos de tiempo continuo
dvc (t)
RC + vc (t) = vs (t) . (20.5)
dt
Si vs (t) = ejωt , entonces vc (t) = H (jω) ejωt y además
dH (jω) ejωt
RC + H (jω) ejωt = ejωt . (20.6)
dt
335
1.2
0.8
0.6
0.4
0.2
0.8
0.6
0.4
0.2
-3 -2 -1 1 2 3
Figura 20.3: Lı́mites de la respuesta en frecuencia para un pasabajo real
336
Derivando
RCjωH (jω) ejωt + H (jω) ejωt = ejωt . (20.7)
Simplificando y agrupando
(RCjω + 1) H (jω) = 1. (20.8)
Ası́ obtenemos finalmente la respuesta en frecuencia
1
H (jω) = . (20.9)
(RCjω + 1)
cuya magnitud es s
1
|H (jω) | = . (20.10)
(R2 C 2 ω 2 + 1)
y su fase es
6 H (jω) = −atan(ω R C). (20.11)
La respuesta al impulso correspondiente es
1 − t
h (t) = e RC u (t) , (20.12)
RC
t
s (t) = 1 − e− RC u (t) . (20.13)
Programa matlab
El siguiente programa matlab genera los gráficos de magnitud y fase de H (jω) en función
de la frecuencia para RC = 1.
% constante RC = 1
rc = 1;
% numerador de la función de transferencia
num = [1];
% denominador de la función de transferencia
den = [1,rc];
% generacion de cien valores de frecuencia entre -4 y 4 en escala lineal
w = linspace(-4,4);
% calculo de magnitud y fase de la respuesta en frecuencia para los puntos de fre-
cuencia generados
[mag,fase] = bode(num,den,w);
% gráfico de magnitud
plot(w,mag); grid; pause;
% gráfico de fase
plot(w,fase*2*pi/360); grid; pause;
337
20.3.2 Un filtro pasaaltos de tiempo continuo
dvr (t) dvs (t)
RC + vr (t) = RC . (20.14)
dt dt
Si vs (t) = ejωt , entonces vr (t) = G (jω) ejωt y además
dG (jω) ejωt
RC + G (jω) ejωt = RCjωejωt . (20.15)
dt
Simplificando y reagrupando
(RCjω + 1) G (jω) = RCjω. (20.16)
Ası́ obtenemos finalmente la respuesta en frecuencia
RCjω
G (jω) = . (20.17)
(RCjω + 1)
cuya magnitud es v
u 1
|G (jω) | = . (20.18)
u
t
1
R2 C 2 omega2
+1
y su fase es
1
6 H (jω) = −atan( ). (20.19)
ωRC
Programa matlab
El siguiente programa matlab genera los gráficos de magnitud y fase de G (jω) en función
de la frecuencia para RC = 1.
% constante RC = 1
rc = 1;
% numerador de la función de transferencia
num = [1,0];
% denominador de la función de transferencia
den = [1,rc];
% generacion de cien valores de frecuencia entre -4 y 4 en escala lineal
w = linspace(-4,4);
% calculo de magnitud y fase de la respuesta en frecuencia para los puntos de fre-
cuencia generados
[mag,fase] = bode(num,den,w);
% gráfico de magnitud
plot(w,mag); grid; pause;
% gráfico de fase
plot(w,fase*2*pi/360); grid; pause;
338
20.4 Filtros especiales de tiempo continuo
1. Los filtros vistos en los ejemplos anteriores carecen de algunas de las caracterı́sticas
deseables mencionadas. Sin embargo, se ha probado que existen sistemas lineales
con funciones de transferencia adecuadas para satisfacer nuestros requerimientos
y que pueden ser fácilmente construidos. A continuación veremos tres tipos de
funciones de transferencia y las reglas que nos permiten elegir convenientemente
los parámetros de diseño.
339
(b) la magnitud de la respuesta en frecuencia se acerca más a cero en una mayor
parte de la banda de rechazo,
(c) la banda de transición se reduce.
y su función de transferencia es
ωcn
H(s) = n . (20.22)
Πk=1 (s − sk )
ωτ 1
5. Si la atenuación a una frecuencia normalizada ωc
debe ser A
, entonces el orden
del filtro Butterworth puede obtenerse
log10 (A2 − 1)
n= (20.23)
2log10 ( ωωτc )
function [pols,gain]=zpbutt(n,omegac)
% [pols,gain]=zpbutt(n,omegac)
% Computes the poles of a Butterworth analog
% filter of order n and cutoff frequency omegac
% n :Filter order
% omegac :Cut-off frequency in Hertz
% pols :Resulting poles of filter
% gain :Resulting gain of filter
angles=ones(1,n)*(pi/2+pi/(2*n))+(0:n-1)*pi/n;
pols=omegac*exp(i*angles);
gain=abs((-omegac)^n);
340
0.5 1 1.5 2 2.5 3
-20
-40
-60
-80
-100
-120
2. Puede probarse que Vn2 (x) varı́a entre 0 y 1 mientras 0 ≤ x ≤ 1, y que se incrementa
monotónicamente para x > 1.
3. Existen dos tipos de filtro Chebyshev:
(a) Tipo I: con un lı́mite superior en el ripple de la banda de paso.
(b) Tipo II: con un lı́mite superior en el ripple de la banda de rechazo.
4. Filtros Chebyshev tipo I (lı́mite superior en el ripple de la banda de paso): Su
función de transferencia cumple con
ω 1
k H(j , ) k2 = , (20.28)
ωc 1 + 2 Vn2 ( ωωc )
341
y puede deducirse que
ωr −1 A2 − 1 −1
n(cosh( )) = (cosh( )) . (20.30)
ωc
Esta fórmula nos permite deducir el valor de n en función de la tolerancia deseada
para el ripple en la banda de paso.
6. Los polos de un filtro Chebyshev tipo I están sobre una elipse centrada en el
origen del plano s tal que el radio horizontal es aωc y el radio vertical es bωc con
las siguientes definiciones
α − α1
a = , (20.31)
2
α + α1
b = , (20.32)
2 √
(1 + 1 + 2 )
α = . (20.33)
9. Los polos de un filtro Chebyshev tipo II están sobre una elipse centrada en el
origen del plano s tal que el radio horizontal es aωc y el radio vertical es bωc con
342
0.5 1 1.5 2 2.5 3
-20
-40
-60
-80
α − α1
a = , (20.37)
2
α + α1
b = , (20.38)
2
√ !1
(1 + 1 + 2 ) n
α = . (20.39)
343
20.5 Pasabajo, frecuencia no normalizado
En la función de transferencia de un pasabajo, banda de paso de 3 dB, frecuencia
normalizada ωC , cambiar s por ωsLP
ωc
para obtener pasabajo, banda de paso de 3 dB,
frecuencia no normalizada ωLP .
o en el dominio z como Pk −i
i=0 ai z
G(z) = Pk −i
. (20.42)
1+ i=0 bi z
344
Por lo tanto, el diseño de un filtro digital implica la determinación de los coeficientes
ai y b i .
Agrupando y simplificando
1 − ae−jω H ejω = 1. (20.46)
Por lo tanto 1
H ejω = . (20.47)
1 − ae−jω
La respuesta al impulso es
h[n] = an u [n] . (20.48)
La respuesta al escalón es
1 − an+1
s [n] = u [n] . (20.49)
1−a
1
N +M +1
−N ≤ n ≤ M,
h [n] =
0 n < −N, (20.52)
0 M < n.
345
Recordando que
∞
H ejω = h [k] e−jωk ,
X
(20.53)
k=−∞
resulta
∞
1
jω
e−jωk ,
X
H e = (20.54)
M + N + 1 k=−∞
ω(M +N +1)
1 (N −M ) sin 2
H ejω = e jω 2 . (20.55)
M +N +1 sin 2ω
346
(d) Atenuación en la banda de rechazo.
(e) Orden del filtro n.
2. Es necesario además, que los filtros de tiempo discreto que diseñemos sean seme-
jantes a los filtros de tiempo continuo que hemos visto en el capı́tulo anterior. Es
posible lograr este objetivo mediante una transformación de variables que nos per-
mite obtener versiones discretizadas de filtros análogicos. Dichas transformaciones
se obtienen mediante aproximaciones de la derivada y de la integral.
Debemos tener cuidado pues con la misma función se diseñan filtros análogicos y
discretos.
5. Para especificar las frecuencias de paso y de corte de los distintos filtros, debemos
fijar primero la frecuencia de muestreo ωm que no se mide en Hertz sino en muestras
por segundo. Por lo tanto, el perı́odo de muestreo es Tm = ω1m .
6. Las frecuencias de paso y de corte de los distintos filtros se especifican como una
fracción de la mitad de la frecuencia de muestreo. Por lo tanto, debemos usar
números 0 < ω < 1, donde 1 representa una frecuencia igual a la mitad de la
frecuencia de muestreo.
347
7. Las funciones de transferencia que obtenemos usando estas funciones de Matlab
tienen la forma
b(z) b0 z N + b1 z N −1 + ... + bN
H(z) = = . (20.60)
a(z) a0 z N + a1 z N −1 + ... + an
donde b(z) y a(z) son polinomios en z. Las funciones devuelven dos vectores b y
a de longitud N + 1 ordenados de la siguiente forma
348
(e) Filtros Butterworth digitales suprimebanda de orden N y frecuencia de corte
Wn Tenemos que escribir
[B,A] = butter(N,[W1 W2],’stop’)
para diseñar un filtro suprimebanda, donde W1 y W2 son las frecuencias
inferior y superior de la banda de rechazo.
(f) Ceros y polos de los filtros Butterworth Si queremos obtener los ceros y polos
de los filtros Butterworth, debemos usar tres variables a la izquierda del signo
=. Por ejemplo
[Z,P,K] = butter(N,Wn,’stop’)
son los ceros, polos y ganancia de un filtro suprimebanda de orden N y banda
rechazada entre W1 y W2.
(g) Filtros analógicos
butter(N,Wn,’s’)
butter(N,Wn,’high’,’s’)
butter(N,Wn,’stop’,’s’)
son las órdenes que generan filtros de tiempo continuo.
349
(e) Filtros Chebyshev Tipo I digitales suprimebanda de orden N, con tolerancia
R (en decibeles) en la banda de paso y frecuencias de corte W1 (mı́nima)y
W2 (máxima) de la banda de rechazo
[B,A] = cheby1(N,R,[W1 W2],’stop’)
(f) Ceros y polos de los filtros Chebyshev tipo I
[Z,P,K] = Cheby1(...)
Es decir, si queremos obtener los ceros y polos de los filtros Chebyshev tipo
I, debemos usar tres variables a la izquierda del signo =. Por ejemplo
[Z,P,K] = cheby1(N,Wn,’stop’)
son los ceros, polos y ganancia de un filtro suprimebanda de orden N y banda
rechazada entre W1 y W2.
(g) Filtros analógicos
cheby1(N,Wn,’s’),
cheby1(N,Wn,’high’,’s’)
cheby1(N,Wn,’stop’,’s’)
350
(e) Filtros Chebyshev Tipo II digitales suprimebanda de orden N, con atenuación
mı́nima R (en decibeles) en la banda de rechazo y frecuencias de corte W1
(mı́nima)y W2 (máxima) de la banda de rechazo
[B,A] = cheby2(N,R,[W1 W2],’stop’)
(f) Ceros y polos de los filtros Chebyshev tipo II
[Z,P,K] = Cheby2(...)
Es decir, si queremos obtener los ceros y polos de los filtros Chebyshev tipo
II, debemos usar tres variables a la izquierda del signo =. Por ejemplo
[Z,P,K] = cheby2(N,Wn,’stop’)
son los ceros, polos y ganancia de un filtro suprimebanda de orden N y banda
rechazada entre W1 y W2.
(g) Filtros analógicos
cheby2(N,Wn,’s’),
cheby2(N,Wn,’high’,’s’)
cheby2(N,Wn,’stop’,’s’)
351
(e) Ceros y polos de los filtros elı́pticos
[Z,P,K] = ellip(...)
Es decir, si queremos obtener los ceros y polos de los filtros elı́pticos, debemos
usar tres variables a la izquierda del signo =. Por ejemplo
[Z,P,K] = ellip(N,Rp,Rs,Wn,’stop’)
son los ceros, polos y ganancia de un filtro suprimebanda de orden N y banda
rechazada entre W1 y W2.
(f) Filtros analógicos
ellip(N,Rp,Rs,Wn,’s’),
ellip(N,Rp,Rs,Wn,’high’,’s’)
ellip(N,Rp,Rs,Wn,’stop’,’s’)
352
Capı́tulo 21
Ejemplos
353
% Frecuencia en Hz a la que tiene que haber rp decibeles de atenuacion
wp = 5000;
% Atenuacion en dB a la frecuencia de corte
rp = 3;
% Frecuencia en Hz a la cual tiene que haber rs decibeles de atenuacion
ws = 6000;
% Atenuacion minima en la banda de rechazo
rs = 40;
% calculamos el filtro
[b1,a1] = butter(n1,wn1);
354
21.3 Diseño de filtros de tiempo discreto
21.3.1 Filtro Butterworth pasabajo
% filtro Butterworth pasabajo de tiempo discreto
% calculamos el filtro
[b,a]=butter(N,Wn);
% calculamos el filtro
[b,a]=butter(N,Wn);
355
% graficamos respuesta en frecuencia
dbode(b,a,1/Wm);
S=fft(s,512);
%^ transformada rapida de Fourier
SF=fft(sf,512);
%^ transformada rapida de Fourier
w=(0:255)/256*(Wm/2);
%^ vector de frecuencias para graficar el espectro
356
% Observe que los picos de 5 y 30 Hz han sido eliminados
plot(w,abs[S(1:256)’ SF(1:256)’]));
xlabel(’Frecuencia (Hz)’);
ylabel(’Magnitud de la transformada de Fourier’);
[b,a]=ellip(N,rp,rs,Wn,’stop’);
dbode(b,a,1/Wm);
Wm = 8000;
t = (1:500)/Wm;
s1 = sin(2*pi*t*500);
s2 = sin(2*pi*t*1500);
s3 = sin(2*pi*t*2500);
s = s1 + s2 + s3;
subplot(5,1,1); plot(t(400:500),s(400:500));
subplot(5,1,2); plot(t(400:500),s1(400:500));
subplot(5,1,3); plot(t(400:500),s2(400:500));
subplot(5,1,4); plot(t(400:500),s3(400:500));
dp = 0.1;
rs = 40;
n = 4;
[b,a]=ellip(4,dp,rs,[1000,2000]*2/Wm);
sf = filter(b,a,s);
subplot(5,1,5); plot(t(400:500),sf(400:500));
357
Capı́tulo 22
358
Aproximación de la diferenciación
Transformacion fórmula
−1
diferencia hacia atras s ⇔ 1−zT
359
Aplicando la transformación bilineal obtenemos
1 2 1 − zp−1
sp = (−1) 2N jωc = , (22.10)
T 1 + zp−1
o 1
T
1+ 2
(−1) 2N jωc
zp = 1 . (22.11)
T
1− 2
(−1) 2N jωc
Por ejemplo, para un controlador PID de tiempo continuo tenemos una función de
transferencia
Ki
H(s) = Kp + + Kd s (22.12)
s
Aplicando la transformación rectangular hacia adelante (22.2) obtenemos
360