Está en la página 1de 495

AN

ALISIS DE SISTEMAS
LINEALES
Ricardo A. Rojas
Mario E. Salgado
Juan I. Yuz
1
ESTE ES UN BORRADOR SUJETO A NEGOCIACI

ON EDITORIAL. SU RE-
PRODUCCI

ON S

OLO PUEDE SER AUTORIZADA POR LOS TRES AU-


TORES.
Versi on 11 de septiembre de 2003.
Valparaso, Marzo 2002
1
Departamento de Electr onica
Universidad Tecnica Federico Santa Mara
Valparaso, CHILE
ii
sistema|textbf
Kalman
Routh
Bode
Nyquist
Prefacio
La noci on de sistema resulta sumamente poderosa para la descripci on, anal-
isis y dise no tanto en ingeniera como en otras areas, principalmente porque
permite describir en forma abstracta un fen omeno en base al objetivo que el
observador/ingeniero en requiera en cada caso particular.
En este texto abordamos el an alisis de un tipo particular de sistemas, aque-
llos llamados lineales. Esta propiedad, si bien no es com un en sistemas fsicos
reales, permite hacer uso de una gran gama de herramientas de an alisis matem atico,
que han demostrado ser de gran utilidad, a pesar de las simplicaciones inher-
entes involucradas en la representacion lineal de los sistemas.
La teora de los sistemas lineales tuvo un r apido crecimiento y sostenida con-
solidaci on desde mediados del siglo veinte. Este desarrollo fue sustentado por
el trabajo pionero de Bode, Routh, Nyquist, Kalman y muchos otros investi-
gadores. Ellos construyeron, a su vez, sobre la teora matem atica existente de
los siglos pasados en areas tan diversas como, por ejemplo, el c alculo diferencial
e integral de Newton, las ecuaciones diferenciales y la teora de funciones de
variables complejas.
M as adelante, el desarrollo y expansi on de la tecnologa digital ampliaron el
campo de los sistemas lineales hacia los sistemas que operan en tiempo discreto.
Nuevas herramientas matem aticas debieron entonces incorporarse al estudio de
los sistemas lineales.
Un aspecto de especial relevancia es no perder de vista que el interes de
la Ingeniera en los sistemas lineales est a ligado a la posibilidad de emplearlos
como modelos sucientemente precisos para describir sistemas reales. El estu-
diante debe ser advertido al inicio del curso sobre el problema subyacente de
delidad de la representaci on nal, y el tema debe ser reiterado a lo largo del
mismo. Tambien es necesario enfatizar que los sistemas reales no son lineales y
que la perdida de precisi on al modelarlos como sistemas lineales es usualmente
compensada por el traslado del problema a un campo dotado de herramien-
tas matem aticas. Por otro lado, es conveniente enfatizar que existen sistemas
reales, incluso muy b asicos como aquellos con dispositivos de conmutaci on, que
simplemente no pueden ser modelados como sistemas lineales.
Si bien la teora de los sistemas lineales tiene un interes en si misma como
objeto de estudio matem atico, en este libro el enfoque es distinto, m as orientado
al estudiante de ingenier a: se trata de estudiar esta teora como un sosten para
el an alisis, la sntesis y el dise no de sistemas de procesamiento de se nales, de
iii
iv
sistemas de control autom atico, sistemas econ omicos, entre otros. El prop osito
es que el lector, sin abandonar ni menospreciar el rigor requerido por esta teora,
la conciba como una herramienta para entender, analizar y resolver problemas
asociados a fen omenos y sistemas en ingenier. Esto nos parece necesario con el
n de evitar la frecuente confusi on entre los estudiantes de ingeniera, que lleva
a subvertir los roles del problema y la herramienta, y centrar su atenci on en el
rigor matem atico m as que en los conceptos y la interpretaci on de los resultados
de la teora de los sistemas lineales.
Pensamos tambien que este enfasis en los conceptos m as que en la utilera
matem atica debe reejarse en el esfuerzo que se pide a los estudiantes que estu-
dien el tema. Con este objeto, nos parece fundamental el uso extensivo de paque-
tes de software para simulaci on, tales como Simulink de Matlab y Simnon
. Tambien encontramos de especial utilidad el uso de software de matem atica
simb olica, como Maple y Mathematica . El libro supone que los estudiantes
tienen acceso a este tipo de herramientas. Tambien suponemos que nuestros
lectores tiene una formaci on matem atica b asica previa que incluye conceptos
de C alculo Diferencial, Integral, Ecuaciones Diferenciales Ordinarias y

Algebra
Lineal.
La dicultad en ense nar una visi on conceptual de los sistemas lineales se
reeja en la diversidad de formas y estructuras de los programas de las asig-
naturas relacionadas, en distintas instituciones en Chile y en el extranjero. En
la mayora de los casos se separa completamente el estudio de sistemas lineales
en tiempo continuo y en tiempo discreto. Aunque esto tiene ciertas ventajas,
se desprovecha la oportunidad de dar una visi on unicada de conceptos tales
como estabilidad, velocidad, transientes, y estado, entre otros. Con este n, el
texto ha sido organizado de manera que el lector pueda optar entre un enfoque
simult aneo o separado de ambos tipos de sistema, sin perjuicio de lo cual se
ha incluido un breve capitulo referido a sistemas hibridos en que se establece
claramente una relacion entre ambos.
Las consideraciones anteriores han sido los elementos orientadores para este
libro. La calidad del resultado de este esfuerzo ser a juzgada por los lectores.
Ricardo A. Rojas
Mario E. Salgado
Juan I. Yuz
Valparaso, Agosto de 2000

Indice general
Prefacio III
1. Aspectos fundamentales 1
1.1. Sistemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Modelos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3. Sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4. Invarianza en el tiempo . . . . . . . . . . . . . . . . . . . . . . . 8
1.5. Linealizaci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.5.1. Sistema no lineal de tiempo continuo . . . . . . . . . . . . 9
1.5.2. Sistema no lineal de tiempo discreto . . . . . . . . . . . . 12
1.6. Problemas para el lector . . . . . . . . . . . . . . . . . . . . . . . 18
2. Se nales 21
2.1. Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2. Se nales de tiempo continuo . . . . . . . . . . . . . . . . . . . . . 21
2.2.1. Escal on unitario (funci on de Heaviside) . . . . . . . . . . 21
2.2.2. Impulso unitario o delta de Dirac . . . . . . . . . . . . . . 21
2.2.3. Rampa unitaria . . . . . . . . . . . . . . . . . . . . . . . . 23
2.2.4. Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2.5. Se nales sinusoidales . . . . . . . . . . . . . . . . . . . . . 25
2.2.6. Sinusoidales con amplitud exponencial . . . . . . . . . . . 26
2.3. Se nales de tiempo discreto . . . . . . . . . . . . . . . . . . . . . . 27
2.3.1. Escal on unitario de tiempo discreto . . . . . . . . . . . . 27
2.3.2. Impulso unitario discreto o delta de Kronecker . . . . . . 27
2.3.3. Rampa unitaria de tiempo discreto . . . . . . . . . . . . . 28
2.3.4. Exponencial de tiempo discreto . . . . . . . . . . . . . . . 29
2.3.5. Se nales sinusoidales de tiempo discreto . . . . . . . . . . . 30
2.3.6. Sinusoidales con amplitud exponencial . . . . . . . . . . . 31
2.4. Problemas para el lector . . . . . . . . . . . . . . . . . . . . . . . 32
3. Analisis en tiempo continuo 35
3.1. Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2. Ecuaci on diferencial del sistema (EDS) . . . . . . . . . . . . . . . 35
3.3. La respuesta del sistema . . . . . . . . . . . . . . . . . . . . . . . 38
v
vi

INDICE GENERAL
3.3.1. Componente homogenea y componente particular . . . . . 38
3.3.2. Frecuencias y modos naturales . . . . . . . . . . . . . . . 40
3.3.3. Modos forzantes y modos forzados . . . . . . . . . . . . . 40
3.3.4. Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.3.5. Velocidad . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3.6. Respuesta a estado inicial y respuesta a entrada . . . . . 45
3.4. Respuesta a se nales de prueba . . . . . . . . . . . . . . . . . . . . 50
3.4.1. Respuesta a escal on unitario . . . . . . . . . . . . . . . . 50
3.4.2. Respuesta a impulso unitario . . . . . . . . . . . . . . . . 52
3.5. C alculo de la respuesta va convoluci on . . . . . . . . . . . . . . . 53
3.6. Problemas para el lector . . . . . . . . . . . . . . . . . . . . . . . 57
4. Analisis en tiempo discreto 61
4.1. Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.2. Ecuaci on de recursi on del sistema (ERS) . . . . . . . . . . . . . . 61
4.3. La respuesta del sistema . . . . . . . . . . . . . . . . . . . . . . . 64
4.3.1. Componente homogenea y componente particular . . . . . 65
4.3.2. Frecuencias y modos naturales . . . . . . . . . . . . . . . 66
4.3.3. Modos forzantes y modos forzados . . . . . . . . . . . . . 68
4.3.4. Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.3.5. Velocidad . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4.3.6. Respuesta a estado inicial y respuesta a entrada . . . . . 73
4.4. Respuesta a se nales de prueba . . . . . . . . . . . . . . . . . . . . 76
4.4.1. Respuesta a escal on unitario . . . . . . . . . . . . . . . . 76
4.4.2. Respuesta a impulso unitario . . . . . . . . . . . . . . . . 78
4.5. C alculo de la respuesta via convoluci on . . . . . . . . . . . . . . . 79
4.6. Problemas para el lector . . . . . . . . . . . . . . . . . . . . . . . 84
5. Analisis bajo excitaciones peri odicas 87
5.1. Se nales Peri odicas . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.2. Respuesta a entrada sinusoidal. El caso de tiempo continuo . . . 88
5.3. Series de Fourier para se nales de tiempo continuo . . . . . . . . . 92
5.3.1. Serie de Fourier trigonometrica . . . . . . . . . . . . . . . 92
5.3.2. Serie de Fourier exponencial . . . . . . . . . . . . . . . . . 100
5.3.3. Parseval y la energa de las se nales peri odicas . . . . . . . 102
5.4. Respuesta a entradas sinusoidales. El caso de tiempo discreto . . 103
5.5. Serie de Fourier de tiempo discreto . . . . . . . . . . . . . . . . . 106
5.6. Aplicaci on de las series de Fourier al an alisis de sistemas lineales 110
5.7. Problemas para el lector . . . . . . . . . . . . . . . . . . . . . . . 111
6. Analisis bajo excitaciones arbitrarias. La transformada de Fouri-
er 117
6.1. La limitaci on de las series de Fourier . . . . . . . . . . . . . . . . 117
6.2. La Transformaci on de Fourier. El caso del tiempo continuo . . . 117
6.2.1. Parseval y la energa de las se nales aperi odicas en tiempo
continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123

INDICE GENERAL vii


6.2.2. Aplicaci on a sistemas lineales . . . . . . . . . . . . . . . . 124
6.2.3. La funci on de transferencia y la respuesta en frecuencia . 129
6.2.4. Filtraje . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
6.2.5. Caso singular en la funci on de transferencia. . . . . . . . . 137
6.3. La Transformaci on de Fourier. El caso de tiempo discreto . . . . 139
6.3.1. Parseval y las se nales aperi odicas de tiempo discreto . . . 143
6.3.2. Aplicaci on a sistemas lineales . . . . . . . . . . . . . . . . 144
6.3.3. La funci on de transferencia y la respuesta en frecuencia . 148
6.3.4. Filtraje . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
6.3.5. Caso singular en la funci on de transferencia. El caso de
los sistemas discretos . . . . . . . . . . . . . . . . . . . . . 150
6.4. Problemas para el lector . . . . . . . . . . . . . . . . . . . . . . . 152
7. Analisis bajo excitaciones arbitrarias. La transformada de Laplace
155
7.1. Denici on de la transformada . . . . . . . . . . . . . . . . . . . . 155
7.2. Aplicaci on a sistemas lineales: la funci on de transferencia . . . . 156
7.2.1. Funci on de transferencia en dominios de Laplace y Fourier 160
7.3. Respuesta a impulso y respuesta a escal on. . . . . . . . . . . . . 161
7.4. Respuesta a condiciones iniciales y se nales arbitrarias. . . . . . . 166
7.5. Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
7.5.1. An alisis de polinomios . . . . . . . . . . . . . . . . . . . . 173
7.6. Polos, ceros y la respuesta temporal . . . . . . . . . . . . . . . . 177
7.6.1. Polos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
7.6.2. Ceros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
7.6.3. Respuesta inversa o contrarespuesta (undershoot) . . . . . 182
7.6.4. Sistema can onico de segundo orden . . . . . . . . . . . . . 183
7.7. Problemas para el lector . . . . . . . . . . . . . . . . . . . . . . . 186
8. Analisis bajo excitaciones arbitrarias. La transformada Zeta 191
8.1. Denici on de la transformada . . . . . . . . . . . . . . . . . . . . 191
8.2. Aplicaci on a sistemas lineales: la funci on de transferencia . . . . 192
8.2.1. Funci on de transferencia en dominios de Fourier y Zeta . 198
8.3. Respuesta a impulso y respuesta a escal on. . . . . . . . . . . . . 200
8.4. Respuesta a condiciones iniciales y excitaciones arbitrarias. . . . 203
8.5. Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
8.5.1. An alisis de polinomios . . . . . . . . . . . . . . . . . . . . 206
8.6. Polos, ceros y la respuesta temporal . . . . . . . . . . . . . . . . 210
8.6.1. Polos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
8.6.2. Ceros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
8.6.3. Respuesta inversa o contrarespuesta (undershoot) . . . . . 215
8.7. Problemas para el lector . . . . . . . . . . . . . . . . . . . . . . . 217
viii

INDICE GENERAL
9. Representaci on de sistemas lineales 219
9.1. Ideas generales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
9.2. Diagramas de Bode . . . . . . . . . . . . . . . . . . . . . . . . . . 220
9.2.1. Tiempo continuo . . . . . . . . . . . . . . . . . . . . . . . 220
9.2.2. Tiempo discreto . . . . . . . . . . . . . . . . . . . . . . . 231
9.3. Diagramas polares . . . . . . . . . . . . . . . . . . . . . . . . . . 233
9.3.1. Tiempo continuo . . . . . . . . . . . . . . . . . . . . . . . 233
9.3.2. Tiempo discreto . . . . . . . . . . . . . . . . . . . . . . . 244
9.4. Diagramas de bloques . . . . . . . . . . . . . . . . . . . . . . . . 246
9.5. Problemas para el lector . . . . . . . . . . . . . . . . . . . . . . . 250
10.Representaci on en variables de estado. 253
10.1. Conceptos fundamentales sobre modelos de sistemas. . . . . . . . 253
10.2. Conceptos fundamentales . . . . . . . . . . . . . . . . . . . . . . 254
10.2.1. Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . 254
10.2.2. Modelos b asicos en variables de estado . . . . . . . . . . . 255
10.2.3. Se nales descritas en espacio de estado . . . . . . . . . . . 256
10.3. Modelos de estado para sistemas continuos . . . . . . . . . . . . 257
10.3.1. Linealizaci on . . . . . . . . . . . . . . . . . . . . . . . . . 258
10.3.2. Modelos lineales en el espacio de estado . . . . . . . . . . 261
10.3.3. Transformaciones de similaridad . . . . . . . . . . . . . . 267
10.3.4. Espacio de estado y funciones de transferencia . . . . . . 270
10.4. Modelos de estado para sistemas discretos y muestreados . . . . 273
10.4.1. Linealizaci on de sistemas discretos . . . . . . . . . . . . . 274
10.4.2. Sistemas muestreados . . . . . . . . . . . . . . . . . . . . 274
10.4.3. Modelos de estado lineales . . . . . . . . . . . . . . . . . . 277
10.4.4. Transformaciones de similaridad . . . . . . . . . . . . . . 286
10.4.5. Espacio de estado y funciones de transferencia . . . . . . 286
10.5. Modelos de estado para sistemas interconectados . . . . . . . . . 287
10.6. Propiedades de los sistemas . . . . . . . . . . . . . . . . . . . . . 290
10.6.1. Controlabilidad, Alcanzabilidad y Estabilizabilidad . . . . 290
10.6.2. Observabilidad, Reconstructibilidad y Detectabilidad . . . 299
10.6.3. Descomposici on Can onica . . . . . . . . . . . . . . . . . . 307
10.7. Observadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 309
10.7.1. Din amica del observador . . . . . . . . . . . . . . . . . . . 310
10.7.2. Observadores y ruido de medici on. . . . . . . . . . . . . . 314
11.Sistemas hbridos 317
11.1. Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317
11.2. Muestreo de se nales. . . . . . . . . . . . . . . . . . . . . . . . . . 318
11.3. An alisis en frecuencia de se nales muestreadas . . . . . . . . . . . 320

INDICE GENERAL ix
12.Modelos 323
12.1. Ideas generales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323
12.2. Modelado de sistemas de tiempo continuo. Teora b asica. . . . . . 324
12.3. Modelado de sistemas de tiempo continuo. Modelos lineales. . . . 329
12.4. Modelado de sistemas de tiempo discreto. Teora b asica. . . . . . 332
12.5. Modelado de sistemas de tiempo discreto. Modelos lineales. . . . 336
A. Series de Taylor 339
A.1. Serie de Taylor en una variable . . . . . . . . . . . . . . . . . . . 339
A.2. Serie de Taylor en dos variables . . . . . . . . . . . . . . . . . . . 340
A.3. El caso general . . . . . . . . . . . . . . . . . . . . . . . . . . . . 341
A.4. Algunas reglas pr acticas para la expansi on en serie . . . . . . . . 341
B. Bases matematicas para las Series de Fourier 343
B.1. Espacios vectoriales y bases ortogonales . . . . . . . . . . . . . . 343
B.2. Convergencia de las Series de Fourier . . . . . . . . . . . . . . . . 347
B.2.1. Convergencia de sucesiones y series . . . . . . . . . . . . . 347
B.2.2. Convergencia de las Series de Fourier . . . . . . . . . . . . 349
Demostraci on . . . . . . . . . . . . . . . . . . . . . . . . . 357
C. La transformaci on de Fourier 359
C.1. Transformaci on de Fourier en tiempo continuo . . . . . . . . . . 359
C.1.1. Denici on de la Transformada . . . . . . . . . . . . . . . . 359
C.1.2. Propiedades de la Transformada de Fourier . . . . . . . . 361
C.2. Transformada de Fourier en tiempo discreto . . . . . . . . . . . . 374
C.2.1. Denici on de la transformada . . . . . . . . . . . . . . . . 374
C.2.2. Propiedades de la transformada de Fourier discreta . . . . 376
Demostraci on . . . . . . . . . . . . . . . . . . . . . . . . . 380
Demostraci on . . . . . . . . . . . . . . . . . . . . . . . . . 383
C.2.3. Aspecto pr actico: la transformada r apida de Fourier . . . 392
D. La transformada de Laplace 399
D.1. Transformada de Laplace . . . . . . . . . . . . . . . . . . . . . . 399
D.1.1. Denici on de la Transformada . . . . . . . . . . . . . . . . 399
D.1.2. Propiedades de la Transformada de Laplace . . . . . . . . 401
Demostraci on . . . . . . . . . . . . . . . . . . . . . . . . . 407
Demostraci on . . . . . . . . . . . . . . . . . . . . . . . . . 408
Demostraci on . . . . . . . . . . . . . . . . . . . . . . . . . 408
D.1.3. Descomposici on en fracciones parciales . . . . . . . . . . . 416
E. La Transformaci on Zeta 423
E.1. Denici on de la Transformaci on . . . . . . . . . . . . . . . . . . . 423
E.2. Propiedades de la Transformada Zeta . . . . . . . . . . . . . . . 425
Demostraci on . . . . . . . . . . . . . . . . . . . . . . . . . 429
Demostraci on . . . . . . . . . . . . . . . . . . . . . . . . . 430
x

INDICE GENERAL
F. Matrices. Deniciones y Propiedades 435
F.1. Conceptos B asicos . . . . . . . . . . . . . . . . . . . . . . . . . . 435
F.2. Determinante de una matriz . . . . . . . . . . . . . . . . . . . . . 438
F.3. Operaciones con matrices . . . . . . . . . . . . . . . . . . . . . . 441
F.4. Inversa de una matriz . . . . . . . . . . . . . . . . . . . . . . . . 443
F.5. Autovalores y autovectores . . . . . . . . . . . . . . . . . . . . . 448
F.6. Normas de vectores y matrices . . . . . . . . . . . . . . . . . . . 457
F.7. Tipos especiales de matrices . . . . . . . . . . . . . . . . . . . . . 460
F.8. Valores singulares . . . . . . . . . . . . . . . . . . . . . . . . . . . 466

Indice alfabetico 471

Indice de guras
1.1. Sistema electrico . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2. Representaci on compacta de un sistema . . . . . . . . . . . . . . 3
1.3. Propiedad de invarianza en el tiempo . . . . . . . . . . . . . . . . 8
1.4. Diagrama Simulink para simulaci on de un sistema no lineal. . . 16
1.5. Salida del sistema no lineal (linea s olida) y salida del sistema lin-
ealizado (lnea segmentada) para una onda cuadrada de amplitud
creciente en la entrada (lnea punteada) . . . . . . . . . . . . . . 16
1.6. Ganancia no lineal para el Problema 1.8 . . . . . . . . . . . . . . 19
2.1. Escal on unitario o funci on de Heaviside. . . . . . . . . . . . . . . 22
2.2. Impulso unitario o delta de Dirac. . . . . . . . . . . . . . . . . . 22
2.3. Aproximaciones al delta de Dirac . . . . . . . . . . . . . . . . . . 22
2.4. Rampa unitaria. . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.5. Exponenciales creciente (izquierda) y decreciente (derecha) . . . 25
2.6. Exponenciales de diferentes velocidades de decaimiento . . . . . . 25
2.7. Propiedad de la constante de tiempo . . . . . . . . . . . . . . . . 26
2.8. Se nales sinusoidales con amplitud disminuyendo exponencialmente
(izq.) y creciendo exponencialmente (der.) . . . . . . . . . . . . . 27
2.9. Escal on unitario de tiempo discreto . . . . . . . . . . . . . . . . . 27
2.10. Impulso unitario discreto o delta de Kronecker . . . . . . . . . . 28
2.11. Rampa unitaria de tiempo discreto . . . . . . . . . . . . . . . . . 29
2.12. Exponenciales de tiempo discreto, decreciente (izquierda) y cre-
ciente (derecha), R
+
. . . . . . . . . . . . . . . . . . . . . . . 29
2.13. Exponenciales de tiempo discreto, decreciente (izquierda) y cre-
ciente (derecha), R

. . . . . . . . . . . . . . . . . . . . . . . 30
2.14. Se nales sinusoidales de tiempo discreto con amplitud variando
exponencialmente . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.15. Se nales compuestas . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.1. Red RLC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2. Relaci on entre la ubicaci on de las frecuencias naturales (de mul-
tiplicidad uno) y los modos naturales . . . . . . . . . . . . . . . . 41
3.3. Red lineal con condiciones iniciales . . . . . . . . . . . . . . . . . 47
3.4. Efectos de la invarianza en el tiempo . . . . . . . . . . . . . . . . 52
xi
xii

INDICE DE FIGURAS
3.5. Ejemplo de descripci on gr aca de la convoluci on . . . . . . . . . 55
3.6. Respuesta a escal on unitario . . . . . . . . . . . . . . . . . . . . . 58
3.7. Conguraci on de frecuencias naturales de dos sistemas . . . . . . 58
3.8. Red electrica con amplicador operacional . . . . . . . . . . . . . 59
4.1. Relaci on entre la ubicaci on de las frecuencias naturales (de mul-
tiplicidad uno) y los modos naturales (caso decreciente). . . . . . 69
4.2. Relaci on entre la ubicaci on de las frecuencias naturales (de mul-
tiplicidad uno) y los modos naturales (caso no decreciente). . . . 70
4.3. Respuesta a escal on unitario . . . . . . . . . . . . . . . . . . . . . 85
4.4. Red resistiva. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
5.1. Se nales de entrada y salida en el Ejemplo 5.1 . . . . . . . . . . . 91
5.2. Respuesta en frecuencia de un sistema de segundo orden de tiem-
po continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.3. Se nal cuadrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
5.4. Espectro de lnea de una se nal cuadrada. . . . . . . . . . . . . . . 95
5.5. Se nal a la salida de recticador controlado por tristores . . . . . 96
5.6. Aproximaci on de la se nal triangular con la primera y tercera
arm onica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
5.7. Espectro de lnea de una se nal triangular . . . . . . . . . . . . . 98
5.8. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.9. Respuesta en frecuencia de un sistema de segundo orden de tiem-
po discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.10. Respuesta en frecuencia de un sistema de tercer orden de tiempo
continuo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
5.11. Comportamiento de un sistema con una excitaci on peri odica. . . 112
5.12. Tren de pulsos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
6.1. Se nales arbitrarias . . . . . . . . . . . . . . . . . . . . . . . . . . 118
6.2. La funci on restringida a [a, b] y su reconstrucci on usando la serie
de Fourier. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
6.3. Viga cargada con arena . . . . . . . . . . . . . . . . . . . . . . . 123
6.4. Circuito RC como sistema de primer orden. . . . . . . . . . . . . 126
6.5. Magnitud y angulo de H( ) en el ejemplo ( = 100). . . . . . . 132
6.6. Sistemas pasa bajos (izquierda) y pasa altos (derecha) . . . . . . 134
6.7. Respuesta a escalones de un sistema pasa bajos y un sistema pasa
altos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
6.8. Sistemas pasa banda y elimina banda. . . . . . . . . . . . . . . . 135
6.9. Respuesta a escalones de un sistema pasa banda y un sistema
elimina banda. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
6.10. Delta de Kronecker y su transformada de Fourier . . . . . . . . . 141
6.11. Se nal y[t] = (0,8)
t
[t] y la magnitud de Y (e
j
). . . . . . . . . . . 142
6.12. Se nal y[t] y su transformada discreta Y (e
j
). . . . . . . . . . . . 143
6.13. Respuesta a impulso y a escal on del ejemplo 6.14 . . . . . . . . . 147

INDICE DE FIGURAS xiii


6.14. Respuesta en frecuencia (magnitud) de un sistema de tiempo dis-
creto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
7.1. Respuestas a impulso y a escal on en Ejemplo 7.3 . . . . . . . . . 164
7.2.

Indices denidos en la respuesta a escalon . . . . . . . . . . . . . 165
7.3. Respuesta a condiciones iniciales para el ejemplo 7.4 . . . . . . . 167
7.4. Circuito RC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
7.5. Pulso de entrada y respuesta del sistema del ejemplo 7.6. . . . . 170
7.6. Magnitud y fase de la respuesta en frecuencia del sistema en
Ejemplo 7.7. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
7.7. Respuesta a impulso de diferentes sistemas de acuerdo a la ubi-
caci on de sus polos en el plano complejo . . . . . . . . . . . . . . 179
7.8. Sistema con interacci on aditiva entre dos estados . . . . . . . . . 180
7.9. Efecto de la ubicaci on de los ceros sobre la respuesta a escal on . 182
7.10. Distintas formas de respuesta inversa . . . . . . . . . . . . . . . . 183
7.11. Localizaci on de los polos y respuesta a escal on unitario de un
sistema can onico de segundo orden. . . . . . . . . . . . . . . . . . 184
7.12. Circuito RLC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
8.1. Salida y[t] para el Ejemplo 8.1. . . . . . . . . . . . . . . . . . . . 195
8.2. Relaciones entre ERS, funci on de transferencia y respuestas a
delta y a escal on. . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
8.3. Respuesta a delta Kronecker y a escal on unitario para el Ejemplo
8.6. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
8.4. Relaci on entre la ubicaci on de los polos (de multiplicidad uno) y
los modos naturales (caso decreciente). . . . . . . . . . . . . . . . 212
8.5. Relaci on entre la ubicaci on de los polos (de multiplicidad uno) y
los modos naturales (caso no decreciente). . . . . . . . . . . . . . 213
8.6. Sistema discreto con interacci on aditiva entre dos estados. . . . . 214
8.7. Ejemplos de distintas formas de respuesta inversa en sistemas
discretos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
9.1. Diagrama de Bode de magnitud para una funci on tipo [B2], con
q = 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
9.2. Diagrama de Bode de fase para una funci on tipo [B2], con q = 1 223
9.3. Diagrama de Bode de magnitud para una funci on tipo [B4], con
q = 1 y dos valores de . . . . . . . . . . . . . . . . . . . . . . . 224
9.4. Diagrama de Bode de fase para una funci on tipo [B4], con q = 1 226
9.5. Diagrama de Bode de fase para una funci on tipo [B5] . . . . . . . 227
9.6. Diagramas de Bode de magnitud y fase para la respuesta en fre-
cuencia del Ejemplo 9.2 . . . . . . . . . . . . . . . . . . . . . . . 231
9.7. Diagrama de Bode en tiempo discreto (Ejemplo 9.3). . . . . . . . 233
9.8. Diagrama polar. Coordenadas cartesianas (Ejemplo 9.4). . . . . . 235
9.9. Diagrama polar. Coordenadas polar (Ejemplo 9.4). . . . . . . . . 236
9.10. Diagramas polares para el caso [P1]. . . . . . . . . . . . . . . . . 237
9.11. Diagrama polar de una funci on tipo [P4] para distintos valores de 238
xiv

INDICE DE FIGURAS
9.12. Diagrama polar de una funci on tipo [P6] con T = 1 . . . . . . . . 240
9.13. a) Diagrama polar de una funci on tipo [P7] (T = 1 y = 2), y
b) detalle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
9.14. Diagrama polar de H( ) para el Ejemplo 9.5. . . . . . . . . . . 242
9.15. a) Diagrama polar de H( ) para el Ejemplo 9.6, y b) detalle. . 243
9.16. Interpretaci on gr aca de la respuesta en frecuencia (e
j
p
o
)
1
. 244
9.17. Interpretaci on gr aca de la respuesta en frecuencia de 1 z
o
e
jt
. 245
9.18. Diagrama polar para el Ejemplo 9.7. . . . . . . . . . . . . . . . . 246
9.19. Sistemas a interconectar. Caracterizaci on independiente . . . . . 247
9.20. Sistemas interconectados . . . . . . . . . . . . . . . . . . . . . . . 247
9.21. Diagramas de Bode de H(s) . . . . . . . . . . . . . . . . . . . . . 251
9.22. Diagramas de Bode de G(s) . . . . . . . . . . . . . . . . . . . . . 251
9.23. Diagramas de Bode de G(s) . . . . . . . . . . . . . . . . . . . . . 252
10.1. Sistema masa-resorte. . . . . . . . . . . . . . . . . . . . . . . . . 256
10.2. Levitador electromagnetico. . . . . . . . . . . . . . . . . . . . . . 259
10.3. Respuesta homogenea del sistema masa-resorte-roce. . . . . . . . 264
10.4. Trayectorias en el espacio de estado del sistema masa-resorte-roce. 265
10.5. Resonancia en el sistema masa-resorte. . . . . . . . . . . . . . . . 268
10.6. Red electrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269
10.7. Esquema de un sistema muestreado . . . . . . . . . . . . . . . . . 275
10.8. Respuesta a escal on del sistema para diferentes autovalores. . . . 282
10.9. Resonancia en la salida del sistema. . . . . . . . . . . . . . . . . 283
10.10.Efecto del muestreo en los modos naturales . . . . . . . . . . . . 284
10.11.Sistema termico con retardo. . . . . . . . . . . . . . . . . . . . . 285
10.12.Conexi on de sistemas en serie . . . . . . . . . . . . . . . . . . . . 288
10.13.Conexi on de sistemas en paralelo . . . . . . . . . . . . . . . . . . 289
10.14.Conexi on de sistemas en realimentaci on (feedback) . . . . . . . . 289
10.15.Circuito electr onico para el Ejemplo 10.19. . . . . . . . . . . . . . 293
10.16.Circuito electr onico. . . . . . . . . . . . . . . . . . . . . . . . . . 302
10.17.Estructura de un sistema de acuerdo a su controlabilidad y ob-
servabilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308
10.18.Observador del estado cl asico . . . . . . . . . . . . . . . . . . . . 310
10.19.Error de estimaci on del estado . . . . . . . . . . . . . . . . . . . 312
10.20.Sistema rotacional . . . . . . . . . . . . . . . . . . . . . . . . . . 312
10.21.Caracterstica de ltraje de los observadores . . . . . . . . . . . . 315
11.1. Proceso de muestreo y cuantizaci on . . . . . . . . . . . . . . . . . 318
11.2. Muestreo a diferentes frecuencias . . . . . . . . . . . . . . . . . . 319
11.3. Error de reconstrucci on usando interpolaci on c ubica. . . . . . . . 320
12.1. Estimaci on por mnimos cuadr aticos . . . . . . . . . . . . . . . . 326
12.2. Estimaci on por mnimos cuadr aticos . . . . . . . . . . . . . . . . 333
A.1. Aproximaci on de primer orden para funci on no lineal de una va-
riable. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340

INDICE DE FIGURAS xv
C.1. Pulso y su transformada para = 1,
1
4
,
1
16
. . . . . . . . . . . . . 360
C.2. Espectro de una se nal de frecuencias audible y espectro de la
se nal modulada. . . . . . . . . . . . . . . . . . . . . . . . . . . . 364
C.3. Tren de pulsos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 365
C.4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366
C.5. Se nal cosenoidal y[k] y su transformada discreta. . . . . . . . . . 379
C.6. Secuencia y[k] = k(0,8)
k
[k] y la magnitud de su TFD. . . . . . . 384
C.7. Comparaci on N
2
(x) y N log
2
N (*) . . . . . . . . . . . . . . . 395
C.8. Primera etapa de la FFT para N = 8 . . . . . . . . . . . . . . . . 396
C.9. Primera y segunda etapa de la FFT para N = 8 . . . . . . . . . 397
C.10.Las tres etapas de la FFT para N = 8 . . . . . . . . . . . . . . . 398
D.1. Circuito RC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 412
xvi

INDICE DE FIGURAS

Indice de cuadros
3.1. Presencia de modos en descomposiciones de la respuesta . . . . . 45
3.2. Presencia de modos en descomposiciones de la respuesta del Ejem-
plo 3.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.1. Presencia de modos en descomposiciones de la respuesta . . . . . 73
4.2. Presencia de modos en descomposiciones de la respuesta del ejemplo 75
5.1. Amplitud y fase de las arm onicas en el Ejemplo 5.8. . . . . . . . 111
7.1.

Indices de la respuesta a escal on . . . . . . . . . . . . . . . . . . 166
7.2. Arreglo de Routh . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
8.1. Arreglo de Jury . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
8.2. Arreglo de Jury. Ejemplo 8.10 . . . . . . . . . . . . . . . . . . . . 210
8.3. Arreglo de Jury. Ejemplo 8.11 . . . . . . . . . . . . . . . . . . . . 210
9.1. Aproximaciones asint oticas de magnitud de factores b asicos . . . 228
9.2. Aproximaciones asint oticas de fase de factores b asicos . . . . . . 229
9.3. Contribuci on de pendientes entre puntos de quiebre. Diagrama
de magnitud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
9.4. Contribuci on de pendientes entre puntos de quiebre. Diagrama
de fase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
9.5. Diagramas de bloques y transferencias equivalentes . . . . . . . . 249
C.1. Propiedades de la transformada de Fourier. . . . . . . . . . . . . 388
C.2. Tabla de tranformadas de Fourier . . . . . . . . . . . . . . . . . 389
C.3. Propiedades de la transformada de Fourier discreta. . . . . . . . 390
C.4. Tabla de tranformadas de Fourier discretas . . . . . . . . . . . . 391
D.1. Propiedades de la transformada de Laplace . . . . . . . . . . . . 414
D.2. Transformadas de Laplace de algunas funciones simples . . . . . 415
D.3. Transformadas inversas de Laplace utiles . . . . . . . . . . . . . . 421
E.1. Propiedades de la transformada Zeta . . . . . . . . . . . . . . . . 433
E.2. Transformada Zeta de algunas funciones simples . . . . . . . . . 434
xvii
xviii

INDICE DE CUADROS
sistema
entrada
condicionesiniciales
Captulo 1
Aspectos fundamentales
1.1. Sistemas
La entidad b asica considerada a lo largo del texto es el sistema. Como una
forma de uniformar el lenguaje a utilizar, usaremos la siguiente denici on:
Denici on 1.1. Un sistema es un ente organizado, resultante de la inter-
conexi on de elementos b asicos, que seg un el juicio de un observador tiene una
nalidad y car acter determinado.
222
Esta denici on es vaga a prop osito, de modo que ella permita describir situa-
ciones tan dismiles como sea posible. Es as como la denici on de arriba incluye
casos como los de una red electrica, un motor hidr aulico, un organismo vivo, la
economa de un pas, etc. Tambien es relevante destacar que un mismo sistema
fsico puede tener interes diferente para distintos observadores; por ejemplo, un
amplicador electr onico puede ser estudiado como un sistema electrico o co-
mo un sistema termico. De esta forma la nocion de sistema resulta un tanto
abstracta, pero por lo mismo sumamente poderosa.
Nuestra tarea guarda relaci on con el comportamiento de los sistemas en el
tiempo, el cual depende de:
y este comportamiento no s olo depende , sino que tambien de:
los elementos que lo forman y su interconexi on, descritos mediante un
modelo matematico;
los estmulos, entradas o excitaciones aplicados al sistema;
la historia del sistema, condensada en un conjunto de condiciones ini-
ciales;
la variable independiente tiempo (cuando los elementos del sistema y/o
la interconexi on de ellos cambian a medida que el tiempo transcurre).
1
2 CAP

ITULO 1. ASPECTOS FUNDAMENTALES


se~ nales
respuestas
sistema!din amico
Las entradas al sistema son se nales o funciones temporales a traves de las
cuales el sistema recibe informaci on y/o energa. Estos estmulos contribuyen a
generar cambios en algunas o en todas las variables del proceso; estas ultimas
tambien son se nales puesto que pueden ser descritas como funciones del tiempo.
Las se nales del proceso elegidas para observar el comportamiento del sistema se
conocen como respuestas.
Las respuestas de un sistema pueden depender tambien de la informaci on
y/o energa existentes (almacenadas) en el sistema en el instante en que el com-
portamiento del sistema empieza a ser observado. Los sistemas con esta carac-
terstica inercial se denominan genericamente sistemas dinamicos. Ejemplos
de mecanismos inerciales en sistemas son:
la velocidad inicial de un motor
el valor inicial de una variable en un computador
la temperatura inicial de una masa
la tensi on inicial en un condensador.
Supongamos que deseamos conocer las respuestas en un sistema dado, a
partir de un instante inicial t
o
. Entonces ser a suciente conocer ciertas variables
(estado) del sistema en t = t
0
, y las excitaciones t t
o
.
Para ilustrar estas ideas analizaremos el siguiente ejemplo.
Ejemplo 1.1. Consideremos la red electrica de la Figura 1.1.
R
v
f
(t)
+
i(t)
C v
c
(t)
Figura 1.1: Sistema electrico
Esta red es un sistema electrico formado por la interconexi on de un resistor
y un condensador (los elementos). Hay una entrada al sistema determinada por
la tensi on aplicada a traves de la fuente independiente de tensi on. Como salida
se puede elegir cualquier se nal electrica, como por ejemplo, la potencia disipada
en el resistor, la corriente en el circuito, la tensi on en el condensador, etc.
En la Figura 1.1 se han indicado dos se nales, i(t) y v
c
(t), que han sido
elegidas como respuestas del sistema. Para determinar el valor de estas se nales
t 0, necesitamos conocer v
f
(t) t t
o
y v
c
(0).
222
Para representar un sistema en forma compacta usaremos el diagrama de la
Figura 1.2. En esa gura se ha usado la siguiente notaci on:
1.1. SISTEMAS 3
operador
estadoinicial
u(t) R
m
: vector que re une todas las excitaciones del sistema,
x(t
o
) R
n
: vector que describe el estado del sistema al tiempo t
o
,
y(t) R
p
: vector que re une las se nales escogidas como salidas.
y(t) u(t)
S
x(t
o
)
Figura 1.2: Representaci on compacta de un sistema
Para representar genericamente al sistema usaremos la notaci on:
y(t) = Tx(t
o
), u(t)))) t t
o
(1.1)
En (1.1), T, ))) es un operador que describe formalmente la dependencia
que la salida y(t) tiene del estado inicial, x(t
o
), y de la entrada u(t). Este
operador puede ser variante en el tiempo.
Ejemplo 1.2. En el Ejemplo 1.1 se tiene que:
v
f
(t) = RC
dv
c
(t)
dt
+v
c
(t) (1.2)
cuya soluci on es
1
:
v
c
(t) = v
c
(t
o
)e

tto
RC
+
_
t
to
e

t
RC
RC
v
f
()d (1.3)
Entonces, si hacemos la asociaci on y(t) = v
c
(t), u(t) = v
f
(t) y x(t
o
) =
v
c
(t
o
), la ecuaci on (1.3) puede ser identicada con (1.1), es decir,
v
c
(t) = Tv
c
(t
o
), v
f
(t)))) t t
o
(1.4)
222
Las deniciones precedentes se aplican tambien a los sistemas de tiempo
discreto, es decir, cuando el tiempo toma valores en un conjunto enumerable
(t
0
, t
1
, t
2
, . . .). En este tipo de sistemas, la variable independiente temporal se
suele denominar t, y para enfatizar la naturaleza distinta de las se nales de tiem-
po discreto, usaremos parentesis cuadrados, es decir, f[t] describir a una se nal
funci on de la variable temporal discreta.
Para ilustrar este tipo de sistemas consideremos el siguiente ejemplo.
1
Tal como se demostrar a en el Captulo 3.
4 CAP

ITULO 1. ASPECTOS FUNDAMENTALES


sistema!algebraico
modelo
modelo
Ejemplo 1.3. Una cuenta de ahorro tiene un saldo inicial s[t
0
] = s
o
, y recibe
un interes igual a % mensual. Si en el mes t-esimo (t = t
0
, t
0
+1, . . .) se hace
un dep osito igual a d[t], entonces el saldo s[t] puede ser descrito por:
s[t] = s[t 1]
_
1 +

100
_
+d[t] t t
0
(1.5)
y sujeto a s[t
0
] = s
o
. En este sistema, la entrada es d[t], la salida es s[t], y el
estado inicial es s[t
0
]. La ecuaci on (1.5) tiene como soluci on:
s[t] = s
o

tt0
+
t

=t0+1

t
d[] t > t
0
(1.6)
La ecuaci on (1.6) puede ser asociada con una estructura an aloga a la de
(1.1), es decir:
y[t] = Tx[t
0
], u[t]))) t t
0
(1.7)
222
Existe una clase de sistemas en los cuales no hay elementos almacenadores de
energa. Estos sistemas se conocen como sistemas algebraicos o instant aneos. Ejem-
plos cl asicos de estos sistemas son las redes electricas resistivas. Para ellos la
representaci on (1.1) se reduce a:
y(t) = Tu(t)))) o y[t] = Tu[t]))) (1.8)
En estricto rigor, todos los sistemas reales son sistemas din amicos. Sin em-
bargo, puede ocurrir que para un observador, la escala de tiempo es tal que,
desde el punto de vista pr actico, los fen omenos ocurren en forma instant anea.
En esos casos, para efectos pr acticos, el sistema se representa a traves de un
modelo algebraico.
1.2. Modelos
Cuando se enfrenta el problema de analizar un sistema, naturalmente no tra-
bajamos con el sistema real, sino que con una representaci on de ese sistema. Esa
representaci on o modelo, captura aspectos esenciales del sistema. Por deni-
ci on, un modelo es una representaci on aproximada de la realidad, y su grado
de delidad depende de muchos factores, siendo uno de ellos el prop osito del
modelo.
La construcci on de modelos a partir de sistemas reales es un proceso complejo
que involucra la fenomenologa del sistema, mediciones, procesos de ajuste, etc.
La obtencion de modelos es, por si sola, una disciplina rica en conceptos y
tecnicas, sobre las cuales se entregan mas antecedentes en el Captulo 12.
A lo largo del texto, supondremos que ya se cuenta con un modelo que
describe el sistema y, en consecuencia, la teora que aqu se desarrolla se aplica
al modelo del sistema bajo estudio. El que las conclusiones que as se deriven
1.3. SISTEMAS LINEALES 5
sistemaslineales
superposici\on
homogeneidad
sean v alidas para el sistema mismo depender a de la delidad con que el modelo
representa a ese sistema. En muchos casos hablaremos del modelo y del sistema
como sin onimos, en otros ser a necesario hacer la diferencia.
1.3. Sistemas lineales
Los sistemas lineales son un subconjunto del universo de los sistemas. Su
importancia radica en la conjunci on de dos elementos:
muchos sistemas pueden representarse por modelos lineales de razonable
delidad; y
existen poderosas herramientas para analizar y sintetizar este tipo de sis-
temas.
La naturaleza de esta conjunci on se ir a apreciando a medida que progresemos
en el tema. No obstante ello, una visi on temprana de estas razones se puede
apreciar de inmediato en las deniciones que siguen.
Denici on 1.2. Consideremos un sistema o, como se describe en la Figura 1.2
y la ecuaci on (1.1). Supongamos adem as que el sistema cumple con:
y
1x
(t) = Tx
1
(t
o
), 0))) t t
o
(1.9)
y
1u
(t) = T0, u
1
(t)))) t t
o
(1.10)
y
2x
(t) = Tx
2
(t
o
), 0))) t t
o
(1.11)
y
2u
(t) = T0, u
2
(t)))) t t
o
(1.12)
donde x
1
(t
o
) y x
2
(t
o
), son dos vectores de estado inicial arbitrarios,y u
1
(t) y
u
2
(t) son dos vectores de entrada arbitrarios.
Entonces el sistema es lineal si y s olo si:
y(t) = T
1
x
1
(t
o
) +
2
x
2
(t
o
),
1
u
1
(t) +
2
u
2
(t)))) t t
o
(1.13)
=
1
Tx
1
(t
o
), 0))) +
2
Tx
2
(t
o
), 0))) +
1
T0, u
1
(t)))) +
2
T0, u
2
(t)))) (1.14)
=
1
y
1x
(t) +
2
y
2x
(t) +
1
y
1u
(t) +
2
y
2u
(t) (1.15)
para cualquier conjunto de constantes
1
,
2
,
1
y
2
.
222
En la denici on precedente se han combinado las dos propiedades claves que
denen los sistemas lineales: superposici on y homogeneidad.
La propiedad de superposici on encierra la idea que la salida del sistema se
puede calcular separando los efectos de componentes del estado y/o componentes
de la salida, y luego sumando (superponiendo) las respuestas a cada uno de
esos componentes. Note que existen tres formas en que se puede presentar la
superposici on:
6 CAP

ITULO 1. ASPECTOS FUNDAMENTALES


sistema!algebraico
superposici on de la entrada y el estado inicial, es decir
Tx(t
o
), u(t)))) = Tx(t
o
), 0))) +T0, u(t)))) (1.16)
superposici on de componentes del estado inicial, es decir
Tx
1
(t
o
) +x
2
(t
o
), 0))) = Tx
1
(t
o
), 0))) +Tx
2
(t
o
), 0))) (1.17)
superposici on de componentes de la entrada, es decir
T0, u
1
(t) +u
2
(t)))) = T0, u
1
(t)))) +T0, u
2
(t)))) (1.18)
Por su parte, la idea de homogeneidad se expresa en que, en los sistemas
lineales, la proporcionalidad en la entrada y/o el estado se propaga a la salida
sin alteraci on, es decir
Tx
o
, 0))) = Tx
o
, 0))) (1.19)
T0, u(t)))) = T0, u(t)))) (1.20)
La ecuaci on (1.19) describe la homogeneidad respecto del estado inicial,
mientras que la ecuaci on (1.20) describe la homogeneidad respecto de la en-
trada.
Para los sistemas algebraicos las propiedades de homogeneidad y superposi-
ci on se aplican s olo a la entrada del sistema, es decir
y(t) = T
1
u
1
(t) +
2
u
2
(t)))) =
1
Tu
1
(t)))) +
2
Tu
2
(t)))) (1.21)
En resumen, podemos armar que la propiedad de linealidad nos permite
descomponer el efecto de una combinacion lineal de entradas y condiciones
iniciales como la combinacion lineal de sus efectos individuales.
Para ilustrar las deniciones anteriores consideramos a continuacion algunos
ejemplos.
Ejemplo 1.4. Considere un sistema algebraico cuya relaci on entrada-salida
est a dada por:
y(t) = Tu(t)))) = 2[u(t)[ (1.22)
El sistema es lineal si y s olo si la condici on (1.21) se cumple para toda
elecci on de las constantes
1
y
2
. Es f acil observar que si, por ejemplo, elegimos

1
= 1 y
2
= 0, tal condici on no se cumple, ya que:
y(t) = Tu
1
(t)))) = 2[u
1
(t)[ ,= 2[u
1
(t)[ = Tu
1
(t)))) (1.23)
En consecuencia, el sistema (1.22) no es lineal.
222
1.3. SISTEMAS LINEALES 7
integrador
Ejemplo 1.5. Sea un sistema cuya relaci on entrada-salida est a descrita por:
dy(t)
dt
= (u(t))
n
sujeto a y(t
o
) = x
o
(1.24)
Entonces, el estado inicial x(t
o
) es x
o
y la respuesta resulta:
y(t) = Tx
o
, u(t)))) = x
o
+
_
t
to
(u())
n
d t t
o
(1.25)
Note que, de la ecuaci on (1.25), se ve que el efecto de la entrada y el efecto
de la condici on inicial se pueden superponer, ya que:
y(t) = y
x
(t) +y
u
(t)
_
y
x
(t) = T0, u(t)))) =
_
t
to
(u())
n
d
y
u
(t) = Tx
o
, 0))) = x
o
(1.26)
Consideremos ahora el caso del estado inicial x(t
o
) = x
o
=
1
x
1
(t
o
) +

2
x
2
(t
o
), con u(t) = 0; entonces la respuesta y(t) = y
x
(t) est a dada por:
y(t) =
1
x
1
(t
o
) +
2
x
2
(t
o
) =
1
Tx
1
(t
o
), 0))) +
2
Tx
2
(t
o
), 0))) (1.27)
De la ecuaci on (1.27) se comprueba que el sistema tiene la propiedad de
superposici on de las componentes del estado. Naturalmente que tiene adem as la
propiedad de homogeneidad del estado.
Finalmente analizamos el caso donde x
1
(t
o
) = x
2
(t
o
) = y(t
o
) = 0, y u(t) =

1
u
1
(t) +
2
u
2
(t), la respuesta y(t) = y
u
(t) est a entonces dada por:
y(t) =
_
t
to
(
1
u
1
() +
2
u
2
())
n
d t t
o
(1.28)
De esta ecuaci on se puede ver que la propiedad de superposici on de las com-
ponentes de la entrada se cumple si y s olo si n = 1. Igual condici on, necesaria
y suciente, se aplica para la homogeneidad de la entrada.
Resumiendo, el sistema del ejemplo tiene las siguientes caractersticas:
tiene la propiedad de superposici on del estado y de la entrada;
tiene la propiedad de superposici on y homogeneidad del estado;
tiene la propiedad de superposici on y homogeneidad de la entrada si y
s olo si n = 1.
En consecuencia, el sistema del ejemplo es lineal si y s olo si n = 1.
222
El lector debe tener claro que la propiedad de linealidad (o no linealidad) de
un sistema dado no es necesariamente una propiedad intrnseca de ese sistema,
sino que puede depender de la elecci on de la variable de salida, y/o de la variable
8 CAP

ITULO 1. ASPECTOS FUNDAMENTALES


de entrada. Para visualizar esto, supongamos que en la ecuaci on (1.24) denimos
como entrada la se nal u(t)
Z
= (u(t))
n
. Entonces es f acil demostrar que el sistema
con entrada u(t) y salida y(t) es lineal.
Se puede construir un segundo ejemplo a partir de la red electrica de la
Figura 1.1 en la p agina 2. Supongamos que escogemos como salida la potencia
p(t) disipada en el resistor. Entonces, el modelo de entrada-salida resulta dado
por:
v
f
(t) =
_
p(t)R +
1
C
_
t

_
p()
R
d (1.29)
donde hemos usado la ley de Joule p(t) = R(i(t))
2
.
La discusi on precedente nos motiva a introducir una nota de cautela en esta
materia
La linealidad o no linealidad de un sistema debe entenderse como la lineali-
dad o no linealidad del modelo especco que relaciona la entrada y la salida
particulares elegidas en el sistema.
1.4. Invarianza en el tiempo
Otra propiedad de interes es la de invarianza en el tiempo. Un sistema es
invariante en el tiempo cuando las propiedades del sistema no cambian en el
tiempo, es decir, cuando se cumple la situaci on de la Figura 1.3, para cualquier
valor del desplazamiento .
u(t) u(t ) y(t )
invarianza
en tiempo
y(t)
x(0) = xo x() = xo
S S
Figura 1.3: Propiedad de invarianza en el tiempo
En palabras, la Figura 1.3 dice que si retardamos la entrada (y las condiciones
iniciales) la respuesta es la misma que antes, retardada en la misma cantidad.
En rigor, no existen los sistemas invariantes en el tiempo, excepto en su
expresi on matem atica pura. Sin embargo, es frecuente que la variaci on que ex-
perimenta un sistema dado con el transcurso del tiempo sea tan lenta, que se
considera despreciable para todo efecto pr actico.
Otro aspecto a observar es que la invarianza en el tiempo (al igual que
la linealidad) no es necesariamente una propiedad intrnseca de un sistema.
Consideremos el caso de un sistema con entrada u(t) R y salida y(t) R,
1.5. LINEALIZACI

ON 9
linealizaci on|textbf
puntodeoperaci on
modelo!linealizado
donde y(t) = 4u(t) f(t), donde f(t) es una funci on (no constante) del tiempo.
Entonces este sistema es variante en t. Sin embargo, si redenimos el mismo
sistema de modo que la entrada es ahora el vector u(t) R
2
, dado por u(t) =
[u(t) f(t)]
T
y mantenemos la salida y(t) R, entonces y(t) =

u(t), donde es
un vector la constante dado por = [4 1]. El sistema as denido es ahora
invariante en t.
La propiedad de invarianza en el tiempo, en conjunto con la propiedad de
linealidad, son las que permiten aplicar una serie de potentes herramientas
de an alisis, sntesis y dise no de sistemas.
1.5. Linealizaci on
Como hemos mencionado ya, casi todos los sistemas reales incluyen carac-
tersticas no lineales. Sin embargo, muchos de ellos pueden ser descritos con
razonable precisi on por modelos lineales, al menos dentro de ciertos rangos en
que el sistema funciona, lo cual permite aplicar una amplia gama de herramien-
tas matem aticas.
Del punto de vista pr actico, para obtener estos modelos lineales es com un
comenzar con un modelo no lineal y, a partir de este construir una aproxima-
cion lineal en la vecindad de un punto de operaci on elegido. Este enfoque
constituye una herramienta clave para el modelado lineal en diversos campos,
por ejemplo, en la Electr onica anal ogica y en el Control Autom atico.
La estrategia de linealizaci on puede ser aplicada de igual forma a modelos
de tiempo continuo y a modelos de tiempo discreto, a modelos en variables
de estado (Captulo 10) y a modelos de entrada-salida (ecuaciones recursivas y
ecuaciones diferenciales de orden superior).
Antes de intentar la formulaci on de un procedimiento general de lineal-
izaci on, motivaremos el tema con el estudio de dos casos. Ambos casos se
frasear an de identica forma, con las obvias adaptaciones, para que el lector
pueda apreciar que el tema de linealizaci on trasciende la naturaleza de la de-
scripci on temporal.
1.5.1. Sistema no lineal de tiempo continuo
Considere un sistema con entrada u(t) y salida y(t), donde el modelo de
entrada-salida est a dado por:
d
2
y(t)
dt
2
+ (0, 2 +y(t))
d y(t)
dt
+ (y(t))
3
=
_
2
d u(t)
dt
+u(t)
_
3
(1.30)
La idea es construir un modelo (ecuaci on diferencial) lineal en que las se nales
involucradas sean:
10 CAP

ITULO 1. ASPECTOS FUNDAMENTALES


u(t)
Z
= u(t) u
Q
(1.31)
y(t)
Z
= y(t) y
Q
(1.32)
en que la entrada incremental u(t) y la salida incremental y(t) representan
las variaciones de las se nales u(t) e y(t) en torno al punto de operacion (u
Q
, y
Q
).
La ecuaci on (1.30) puede re-escribirse, miembro a miembro, como:
g
a
(x
1
(t), x
2
(t), x
3
(t)) = g
b
(x
4
(t), x
5
(t)) (1.33)
donde x
1
(t) = y(t), x
2
(t) = y(t), x
3
(t) = y(t), x
4
(t) = u(t) y x
5
(t) = u(t). De
esta forma:
g
a
(x
1
(t), x
2
(t), x
3
(t)) = x
3
(t) + (0, 2 +x
1
(t))x
2
(t) + (x
1
(t))
3
(1.34)
g
b
(x
4
(t), x
5
(t)) = (2x
5
(t) +x
4
(t))
3
(1.35)
Luego hacemos la expansi on en serie de Taylor (ver Apendice A) de g
a
y g
b
para, nalmente, igualar las aproximaciones de primer orden de ambas
funciones. Esto lleva a:
g
a
(x
1Q
, x
2Q
, x
3Q
) + (3 (x
1Q
)
2
+x
2Q
)(x
1
(t) x
1Q
)
+ (0, 2 +x
1Q
)(x
2
(t) x
2Q
) + (x
3
(t) x
3Q
)
= g
b
(x
4Q
, x
5Q
) + 3 (2x
5Q
+x
4Q
)
2
(x
4
(t) x
4Q
)
+ 6 (2x
5Q
+x
4Q
)
2
(x
5
(t) x
5Q
) (1.36)
Usando las deniciones anteriores tenemos que:
x
1
(t) x
1Q
= y(t) (1.37)
x
2
(t) x
2Q
= y(t) =
d y(t)
dt
x
2Q
(1.38)
x
3
(t) x
3Q
= y(t) =
d
2
y(t)
dt
2
x
3Q
(1.39)
x
4
(t) x
4Q
= u(t) (1.40)
x
5
(t) x
5Q
= u(t) =
d u(t)
dt
x
5Q
(1.41)
Para lograr el objetivo deseado, es decir, una ecuaci on diferencial en u(t)
y x
i
(t), es necesario que el conjunto de valores (x
1Q
, x
2Q
, . . . , x
5Q
) que dene
el punto de operaci on satisfaga:
g
a
(x
1Q
, x
2Q
, x
3Q
) = g
b
(x
4Q
, x
5Q
) (1.42)
1.5. LINEALIZACI

ON 11
puntodeequilibrio
con lo cual, g
a
(x
1Q
, x
2Q
, x
3Q
) y g
b
(x
4Q
, x
5Q
) se compensan en la ecuaci on (1.36).
En esta etapa de nuestro an alisis es oportuno hacer las siguientes observa-
ciones:
(i) Cada derivada debe ser asociada a una variable x
i
.
(ii) El punto de operaci on es arbitrario; pero para llegar a un modelo lineal-
izado, debe satisfacer la ecuaci on no lineal original. Para este caso, un
ejemplo de punto de operaci on es x
1Q
= 2, x
2Q
= 1, x
3Q
= 9, 2, x
4Q
= 3
y x
5Q
= 1.
(iii) Es necesario elegir un punto de operaci on para el que las derivadas de y(t)
y de u(t), respecto del tiempo, sean iguales a cero. Este punto de operaci on
se conoce como punto de operaci on en equilibrio o, m as brevemente, punto
de equilibrio. La idea es que si un sistema est a en un punto de equilibrio,
el sistema se mantiene operando en ese punto ya que las derivadas de y(t) y
de u(t) son cero. La elecci on del punto de equilibrio se hace considerando
el punto en que el sistema a analizar estar a operando. Para este caso,
existen innitos puntos de equilibrio y todos ellos satisfacen x
1Q
= x
4Q
,
x
2Q
= 0,x
3Q
= 0 y x
5Q
= 0. Con esto, las ecuaciones (1.37)-(1.41) se
transforman en:
x
1
(t) x
1Q
= y(t) (1.43)
x
2
(t) x
2Q
= y(t) =
d y(t)
dt
(1.44)
x
3
(t) x
3Q
= y(t) =
d
2
y(t)
dt
2
(1.45)
x
4
(t) x
4Q
= u(t) (1.46)
x
5
(t) x
5Q
= u(t) =
d u(t)
dt
(1.47)
El modelo lineal para el caso estudiado tiene entonces la forma:
d
2
y(t)
dt
2
+a
1
d y(t)
dt
+a
0
y(t) = b
1
d u(t)
dt
+b
0
u(t) (1.48)
(iv) Cuando el modelo no lineal est a descrito por dos o m as ecuaciones, las
coordenadas del punto de operaci on deben satisfacer al conjunto de ecua-
ciones simult aneas.
(v) Un punto de operaci on en equilibrio se calcula a partir del modelo alge-
braico (tal vez no lineal) que resulta de hacer cero todas las derivadas en
el modelo din amico no lineal.
(vi) La linealizaci on puede hacerse sobre la funci on compuesta g
Z
= g
a
g
b
= 0.
222
12 CAP

ITULO 1. ASPECTOS FUNDAMENTALES


1.5.2. Sistema no lineal de tiempo discreto
Considere un sistema de tiempo discreto con entrada u[t] y salida y[t], donde
el modelo de entrada-salida es la ecuaci on recursiva:
y[t] + 0, 5y[t 1]y[t 2] + 0, 1u[t](y[t 2])
2
= (u[t 1])
3
(1.49)
La idea es construir un modelo (ecuaci on recursiva) lineal en que las se nales
involucradas sean:
u[t]
Z
= u[t] u
Q
(1.50)
y[t]
Z
= y[t] y
Q
(1.51)
en que la entrada incremental u[t] y la salida incremental y[t] representan las
variaciones de las variables u[t] e y[t] en torno al punto de operaci on (u
Q
, y
Q
).
La ecuaci on (1.30) puede re-escribirse, miembro a miembro, como:
g
c
(x
1
[t], x
2
[t], x
3
[t], x
4
[t]) = g
d
(x
5
[t]) (1.52)
donde x
1
[t] = y[t], x
2
[t] = y[t 1], x
3
[t] = y[t 2], x
4
[t] = u[t] y x
5
[t] = u[t 1].
As:
g
c
(x
1
[t], x
2
[t], x
3
[t], x
4
[t]) = x
1
[t] + 0, 5x
2
[t]x
3
[t] + 0, 1x
4
[t] (x
3
[t])
2
(1.53)
g
d
(x
5
[t]) = (x
5
[t])
3
(1.54)
Luego hacemos la expansi on en serie de Taylor (ver Apendice A) de g
c
y
g
d
para, nalmente, igualar las aproximaciones de primer orden de ambas fun-
ciones. Esto lleva a:
g
c
(x
1Q
, x
2Q
, x
3Q
, x
4Q
) + (x
1
[t] x
1Q
)
+ 0, 5x
2Q
(x
3
[t] x
3Q
) + 0, 5x
3Q
(x
2
[t] x
2Q
)
+ 0, 2x
4Q
x
3Q
(x
3
[t] x
3Q
) + 0, 1 (x
3Q
)
2
(x
4
[t] x
4Q
)
= g
d
(x
5Q
) + 3 (x
5Q
)
2
(x
5
[t] x
5Q
) (1.55)
Usando las deniciones anteriores y la notaci on y[t ] = y[t ] x
1Q
y
u[t j] = u[t j] x
4Q
, tenemos que:
x
1
[t] x
1Q
= y[t] (1.56)
x
2
[t] x
2Q
= y[t 1] +x
1Q
x
2Q
(1.57)
x
3
[t] x
3Q
= y[t 2] +x
1Q
x
3Q
(1.58)
x
4
[t] x
4Q
= u[t] (1.59)
x
5
[t] x
5Q
= u[t 1] +x
4Q
x
5Q
(1.60)
1.5. LINEALIZACI

ON 13
puntodeequilibrio
Para lograr el objetivo deseado, es decir, una ecuaci on recursiva en u[t] y
y[t], es necesario que el punto de operaci on (x
1Q
, x
2Q
, . . . , x
5Q
) satisfaga:
g
c
(x
1Q
, x
2Q
, x
3Q
, x
4Q
) = g
d
(x
5Q
) (1.61)
con lo cual, g
c
(x
1Q
, x
2Q
, x
3Q
, x
4Q
) y g
d
(x
5Q
) se compensan en (1.55).
En esta etapa de nuestro an alisis es oportuno hacer las siguientes observa-
ciones:
(i) Cada se nal retardada debe ser asociada a una variable x
i
.
(ii) El punto de operaci on es arbitrario; pero para llegar a un modelo lineal-
izado, debe satisfacer la ecuaci on no lineal original. Para este caso, un
ejemplo de punto de operaci on es x
1Q
= 2, x
2Q
= 1, x
3Q
= 2, x
4Q
= 5
y x
5Q
= 1.
(iii) Es necesario elegir un punto de operaci on en que las se nales son constantes,
es decir, u[t] = u
Q
e y[t] = y
Q
, para todo instante t, lo cual implica tambien
que todas las diferencias son cero. Este punto de operaci on se conoce como
punto de operaci on en equilibrio o, m as brevemente, punto de equilibrio.
La idea es que si un sistema est a en un punto de equilibrio, el sistema se
mantiene operando en ese punto ya que las diferencias de y[t] y de u[t] son
cero. La elecci on del punto de equilibrio se hace considerando el punto en
que el sistema a analizar estar a operando. Para este caso, existen innitos
puntos de equilibrio y todos ellos satisfacen x
1Q
= x
2Q
= x
3Q
= y
Q
,
x
4Q
= x
5Q
= u
Q
, e
y
Q
+ 0, 5y
2
Q
+ 0, 1u
Q
y
2
Q
= u
3
Q
(1.62)
El modelo lineal tiene entonces la forma
y[t] +c
1
y[t 1] +c
0
y[t 2] = d
1
u[t] +d
0
u[t 1] (1.63)
(iv) Cuando el modelo no lineal est a descrito por dos o m as ecuaciones, las
coordenadas del punto de operaci on deben satisfacer al conjunto de ecua-
ciones simult aneas.
(v) Un punto de operaci on en equilibrio se calcula a partir del modelo alge-
braico que resulta de hacer cero todas las diferencias en el modelo din amico
no lineal, es decir, cada una de las se nales involucradas es reemplazada por
una constante a calcular, con independencia del retardo que ella exhiba.
(vi) La linealizaci on puede hacerse sobre la funci on compuesta g
Z
= g
c
g
d
= 0.
222
El an alisis de los casos precedentes muestra que, con independencia de la
naturaleza temporal de los sistemas (continuo o discreto), la linealizaci on de
14 CAP

ITULO 1. ASPECTOS FUNDAMENTALES


puntode operaci on
se~ nalincremental
modelo!peque~ na se~ nal
sus modelos no lineales tiene ciertos pasos b asicos. En primer lugar, restringire-
mos la linealizaci on a la construcci on de modelos lineales en torno a puntos
de equilibrio. Observamos que cuando trabajamos en un punto de equilibrio,
todos los valores de ese punto x
1Q
, x
2Q
, . . . , se pueden expresar en funci on del
par (u
Q
, y
Q
); por ello diremos que el punto de operaci on en equilibrio queda
denido por ese par.
Supongamos que el sistema con entrada u() y salida y() es descrito por:
fu(), y()) = 0 (1.64)
donde f ) es un operador no lineal y, posiblemente, din amico.
Tambien suponemos que:
(i) existe, al menos un par de valores constantes reales (u
Q
, y
Q
) tales que,
fu
Q
, y
Q
) = 0 (1.65)
Cada uno de estos pares dene un punto de operaci on en equilibrio.
(ii) fu(), y()) es innitamente diferenciable, con respecto a u, con respecto
a y, y con respecto a las derivadas (o valores retardados) de ambos, en el
punto de operaci on de interes.
Si expresamos u() y y() como
u() = u
Q
+ u() (1.66)
y() = y
Q
+ y() (1.67)
entonces podemos expandir el lado izquierdo de la ecuaci on (1.64) en una serie
de Taylor, en torno al punto de operaci on (u
Q
, y
Q
). Si en esa expansi on tomamos
s olo los terminos de primer orden, entonces el resultado es un modelo lineal, una
ecuaci on diferencial o una ecuaci on recursiva, en las variables u() y y().
Nota 1.1. El procedimiento de linealizaci on en el caso de un sistema discreto se
desarrolla sin dicultad porque las derivadas parciales de la expansi on en serie
de Taylor se realizan con respecto a las variables de entrada y de salida y no
con respecto de la variable tiempo (discreto).
Nota 1.2. El procedimiento de linealizaci on presentado anteriormente genera
un modelo que es lineal en las componentes incrementales de las entradas y
las salidas en torno a un punto de operaci on elegido (i.e. se trata de un modelo
a peque na se nal).
Ilustramos esto a traves de algunos ejemplos.
Ejemplo 1.6. Considere un sistema de tiempo continuo descrito por el modelo
fu(t), y(t)) =
dy(t)
dt
+
_
y(t)
(u(t))
2
3
= 0 (1.68)
1.5. LINEALIZACI

ON 15
Suponga que la entrada u(t) vara alrededor de u = 2. Encuentre un punto
de operaci on con u
Q
= 2 y un modelo linealizado en torno a el.
Soluci on
(i) El punto de operaci on es calculado de (1.68) con u
Q
= 2 y tomando
dy(t)
dt
=
0. Esto lleva a

y
Q

(u
Q
)
2
3
= 0 =y
Q
=
16
9
(1.69)
(ii) El modelo linealizado es entonces obtenido a traves de la expansi on de
(1.68) en serie de Taylor para obtener:
dy(t)
dt
+
1
2

y
Q
y(t)
2u
Q
3
u(t) = 0 (1.70)
Cuando se usan valores numericos para el punto de operaci on, se obtiene
el siguiente modelo linealizado:
dy(t)
dt
+
3
8
y(t)
4
3
u(t) = 0 (1.71)
222
La idea fundamental que se deduce del proceso de linealizaci on es que: las
propiedades del modelo lineal para valores peque nos de sus variables incremen-
tales, permiten inferir el comportamiento del sistema original en las cercanas
del punto de operaci on.
Para comparar efectivamente la calidad de la aproximaci on que provee un
modelo linealizado, es necesario poder simular ambos modelos, el original (no-
lineal) y el obtenido (lineal). Para ello, herramientas como Simulink o Simnon
son extraordinariamente poderosas. A modo de ejemplo, se incluye en la Figura
1.4 un esquema Simulink para simular el modelo no lineal del Ejemplo 1.6,
dado por:
d y
dt
+
_
y(t) =
(u(t))
2
3
(1.72)
o, en forma m as conveniente para armar el esquema Simulink :
d y
dt
=
_
y(t) +
(u(t))
2
3
(1.73)
Para apreciar la calidad de la aproximaci on consideramos el sistema original
y su modelo linealizado y corremos una simulaci on donde la entrada a ambos
sistemas es una constante igual a 2 m as una secuencia de pulsos de amplitud
creciente. Los resultados se muestran en la Figura 1.5. Podemos ver ah que el
error de linealizaci on crece a medida que el sistema es llevado lejos del punto de
operaci on, en torno al cual se calcul o el modelo linealizado.
16 CAP

ITULO 1. ASPECTOS FUNDAMENTALES


sqrt
Raiz
Cuadrada
|u|
2
Math
Function
In1 Out1
Integrador
1/3
Gain
y(t) u(t)
Figura 1.4: Diagrama Simulink para simulaci on de un sistema no lineal.
0 1 2 3 4 5 6 7 8 9 10
1.4
1.6
1.8
2
2.2
2.4
2.6
2.8
Tiempo [s]
Figura 1.5: Salida del sistema no lineal (linea s olida) y salida del sistema lin-
ealizado (lnea segmentada) para una onda cuadrada de amplitud
creciente en la entrada (lnea punteada)
Ejemplo 1.7. Las caractersticas de un sistema no lineal de tiempo discreto,
con entrada u[t] y salida y[t], son descritas exactamente por
fu[t], y[t]) = y[t] 0,7y[t 1] +0,12(1 +0,1u[t])y[t 2] 2 +sen(u[t 1]) = 0
(1.74)
Construya un modelo linealizado en torno al punto de operaci on denido por
u
Q
= 0.
Soluci on
(i) Para calcular y
Q
aplicamos (1.65), de donde se obtiene
y
Q
0,7y
Q
+ 0,12y
Q
= 2 =y
Q
= 4,762 (1.75)
(ii) El modelo linealizado es ahora construido de (1.74), llevando a
1.5. LINEALIZACI

ON 17
y[t] 0,7y[t 1] + 0,12(1 + 0,1u
Q
)y[t 2]+
0,12y
Q
(u[t])) + cos (u
Q
) u[t 1] = 0 (1.76)
Entonces, usando los valores numericos para el punto de operaci on, se
obtiene el siguiente modelo linealizado:
y[t] 0,7y[t 1] + 0,12y[t 2] = 0,571u[t] + u[t 1] (1.77)
222
Nota 1.3. Los paquetes computacionales modernos incluyen comandos espe-
ciales para calcular modelos linealizados en torno a puntos de operaci on denidos
por el usuario (pre-calculados). En el caso de Simulink , los comandos apropi-
ados son linmod (para sistemas de tiempo continuo) y dlinmod (para sistemas
de tiempo discreto e hbridos).
Nota 1.4. Como hemos mencionado, los modelos linealizados son s olo modelos
aproximados y, por tanto, deben ser considerados con la precauci on apropia-
da (como deberan serlo en realidad todos los modelos). Cuando se realiza la
linealizacion de un modelo, el siguiente termino de la expansi on en serie de
Taylor puede ser utilizado frecuentemente como una medida del error asociado
al modelado.
Los modelos lineales pueden ser obtenidos linealizando un modelo no lineal
en torno a un punto de operaci on. En muchas aplicaciones, los modelos
lineales proveen suciente informaci on para estudiar la operaci on del sistema
(no lineal) original y para sintetizar sistemas con suciente precisi on. Sin
embargo, se requiere desarrollar una metodologa para tratar los inevitables
errores de modelado que resultan de la linealizaci on.
Una observaci on m as general sobre el tema de la linealizaci on se relaciona
con el hecho que este concepto se puede extender, de modo que la linealizaci on
se hace, no en torno a un punto de operaci on, sino que a una trayectoria de
operaci on, es decir, en torno a una soluci on de interes (u
Q
(t), y
Q
(t)) del modelo
no lineal.
18 CAP

ITULO 1. ASPECTOS FUNDAMENTALES


1.6. Problemas para el lector
Problema 1.1. Considere un sistema cuyo modelo de comportamiento est a da-
do por
y(t) = mu(t) +b (1.78)
Determine las condiciones que deben satisfacer las contantes m y b de modo
que el sistema sea lineal
Problema 1.2. El area de un rect angulo es A = xy, donde x e y representan
las longitudes de sus lados.
1.2.1 Obtenga una expresi on linealizada para A en torno al punto de operaci on
x
Q
= 2, y
Q
= 5.
1.2.2 Obtenga y describa geometricamente el error cometido al usar el modelo
lineal para calcular el area de un rect angulo con lados x = 3 e y = 6.
Problema 1.3. Sea un sistema lineal algebraico de dimensi on 22, es decir,
con dos entradas y dos salidas. Se realizan algunos experimentos y se llega a:
y(t) = [2 1]
T
= T[1 1]
T
))) (1.79)
y(t) = [3 4]
T
= T[1 2]
T
))) (1.80)
Determine la respuesta del sistema cuando la entrada es u(t) = [1 1]
T
Problema 1.4. Considere un sistema con entrada u(t) y salida y(t), rela-
cionados por la ecuaci on diferencial
dy(t)
dt
+
_
2 + 0,1 (y(t))
2
_
y(t) = 2u(t) (1.81)
1.4.1 Determine los modelos linealizados para un punto de operaci on denido
por y
Q
= 0,1.
1.4.2 Repita el punto anterior para y
Q
= 3. Compare con el resultado anterior.
Problema 1.5. En un sistema con entrada u(t) y salida y(t), la relaci on
entrada-salida est a dada por
y(t)
d y(t)
dt
+ 3 (y(t))
2
= 2 (u(t))
1
3
(1.82)
Redena, si es posible, la entrada y/o la salida de modo que el modelo en las
salidas redenidas sea lineal.
1.6. PROBLEMAS PARA EL LECTOR 19
Problema 1.6. Considere la funci on no lineal dada por
y(t) =
_
u(t) [u(t)[ 1
signou(t) [u(t)[ > 1
(1.83)
Discuta la linealizaci on de esta funci on en distintos punto de operaci on.
Problema 1.7. En los sistemas tributarios modernos existe un tasa progresiva,
es as como a mayor ingreso, m as alto es el porcentaje de impuesto a pagar.
Analice el sistema desde el punto de vista de la linealidad
Problema 1.8. Un sistema no lineal tiene un modelo dado por
d y(t)
dt
+f(y)y(t) = 2u(t) (1.84)
Donde la funci on f(y) aparece en la Figura 1.6.
4 3 2 1 0 1 2 3 4
1.5
1
0.5
0
0.5
1
1.5
y
f
(
y
)
Figura 1.6: Ganancia no lineal para el Problema 1.8
Construya modelos linealizados para los puntos de operaci on determinados
por y
Q
= 3, y
Q
= 0 e y
Q
= 1.
Problema 1.9. Determine si el siguiente sistema es o no lineal
d y(t)
dt
+ 2ty(t) = 2u(t) (1.85)
Problema 1.10. Construya, si es posible, modelos lineales para los sistemas no
lineales cuyos modelos se indican, con las condiciones de operaci on especicadas
(en todos los puntos de operaci on resultantes)
y[t] 0,5(y[t 1])
3
= u[t 5] y
Q
= 2 (1.86)
y[t] 0,2y[t 1]y[t 2] + 0,4y[t 3] =
u[t 1]
1 + 0,2(u[t 2])
2
u
Q
= 1 (1.87)
20 CAP

ITULO 1. ASPECTOS FUNDAMENTALES


Problema 1.11. Considere el siguiente modelo no lineal
x
1
(t) = 2x
1
(t) + 0,1x
1
(t)x
2
(t) +u(t) (1.88)
x
2
(t) = x
1
(t) 2x
2
(t) (x
1
(t))
2
(1.89)
y(t) = x
1
(t) + (1 +x
2
(t))
2
(1.90)
Construya un modelo lineal en torno al punto de operaci on denido por
u
Q
= 1.
Problema 1.12. . Sistema predador-presa (Lotka-Volterra).
Considere el sistema de ecuaciones diferenciales no-lineales, que describe la
dinamica de una poblacion de conejos (c(t) > 0) y de zorros (z(t) > 0):
d c
dt
= c(t) +c(t)z(t) (1.91)
d z
dt
= z(t) +c(t)z(t) (1.92)
en que los par ametros , , , son positivos.
1.12.1 Determine todos los puntos de equilibrio del sistema de ecuaciones.
1.12.2 Obtenga el sistema linealizado en torno a cada uno de los puntos de
equilibrio anteriores.
1.12.3 Estudie y compare el tipo de soluciones del sistema linealizado en cada
uno de los puntos de equilibrio.
1.12.4 Elija algun valor para los par ametros, y simule el sistema original y el
linealizado en torno a cada punto de equilibrio, representando la solucion
en el plano (c(t), z(t)).
se~ nales|textbf
se~ nales!deprueba
escal onunitario
Heaviside
impulsounitario
deltade Dirac|textbf
Dirac
Captulo 2
Se nales
2.1. Introducci on
El comportamiento de los sistemas puede evaluarse observando las se nales
correspondientes a las variables de entrada del sistema, variables de salida e
incluso a variables intermedias del mismo. M as a un, el comportamiento de los
sistemas puede estudiarse, y as suele hacerse, observando su respuesta cuando
se inyectan al sistema determinadas se nales de prueba.
El an alisis de se nales es un aspecto esencial de la teora de sistemas lineales,
no s olo por su valor experimental, sino que por la propiedad de linealidad, la
cual permite construir modelos en base a la respuesta del sistema ante ciertas
se nales de prueba.
2.2. Se nales de tiempo continuo
En el caso de los sistemas de tiempo continuo, existen varias se nales que
juegan un rol fundamental en la teora de los sistemas lineales. Ellas y sus
propiedades de mayor interes se presentan a continuaci on.
2.2.1. Escal on unitario (funci on de Heaviside)
El escal on unitario en el instante t
o
se dene como
(t t
o
)
Z
=
_
1 t t
o
0 t < t
o
(2.1)
y se representa en la Figura 2.1.
2.2.2. Impulso unitario o delta de Dirac
21
22 CAP

ITULO 2. SE

NALES
0
1
(t t
o
)
t
o
t
Figura 2.1: Escal on unitario o funci on de Heaviside.
(t t
o
)
0
1
t
o
t
Figura 2.2: Impulso unitario o delta de Dirac.
El impulso unitario o delta de Dirac es una se nal peculiar. En estricto rigor
no es una funci on temporal, sino que es lo que se conoce en Matem atica como
distribuci on o funci on generalizada. Se dene como la funci on () que satisface:
(t t
o
) = 0 t ,= t
o
con
_

(t t
o
)dt = 1 (2.2)
y se representa gr acamente como muestra la Figura 2.2.
Como se puede observar, esta se nal no es fsicamente realizable, y se debe
entender como una idealizaci on de determinadas situaciones. Algunas de ellas
se pueden apreciar en la Figura 2.3.
to
1

1
2
to
f
1
(t) f
2
(t)
t t to
to
to + to +
Figura 2.3: Aproximaciones al delta de Dirac
2.2. SE

NALES DE TIEMPO CONTINUO 23


funci\onmuestreo
rampaunitaria
La funciones f
1
(t) y f
2
(t) de la Figura 2.3 cumplen con:
_

f
1
(t)dt =
_

f
2
(t)dt = 1 (2.3)
Adem as,
lm
0
f
1
(t) = lm
0
f
2
(t) = 0 t ,= t
o
(2.4)
Otra funci on de importancia que tiene la misma propiedad que f
1
(t) y f
2
(t)
es:
f
3
(t) =
1

sen
_
tto

t t
o
(2.5)
Esta funci on, conocida como la funci on muestreo, juega un papel muy im-
portante en la relaci on entre se nales de tiempo continuo y de tiempo discreto
(ver Captulo 11). Se puede demostrar que:
lm
0
f
3
(t) = (t t
o
) (2.6)
Una propiedad clave del delta de Dirac est a descrita en el siguiente lema.
Lema 2.1. Considere una funci on cualquiera f(t), entonces
f(t) =
_

f()(t )d (2.7)
222
El Lema 2.1 establece que toda se nal puede ser expresada como una op-
eraci on lineal sobre el impulso (t ) para < < . Veremos m as
adelante que esta propiedad ser a la base para calcular la respuesta de un sis-
tema lineal ante cualquier se nal, a partir de la respuesta de ese sistema a un
impulso unitario.
2.2.3. Rampa unitaria
La rampa unitaria se dene como:
r(t t
o
) =
_
t t
o
t t
o
0 t < t
o
(2.8)
y se muestra en la Figura 2.4.
El delta de Dirac, el escal on unitario y la rampa unitaria pertenecen a una
secuencia de funciones, donde cada una se puede obtener como la derivada de
la siguiente, es decir:
(t t
o
) =
d(t t
o
)
dt
=
d
2
r(t t
o
)
dt
2
(2.9)
24 CAP

ITULO 2. SE

NALES
exponencial
exponencial!creciente
constantedetiempo
r(t t
o
)
t
o
+ 1 t t
o
1
0
Figura 2.4: Rampa unitaria.
o, equivalentemente, a traves de la integral de la anterior, es decir:
r(t t
o
) =
_
t

( t
o
) d =
_
t

( t
o
) d d (2.10)
Observe que hemos interpretado el impulso como la derivada del escal on, lo
cual implica dar un signicado a la derivada de una funci on en un punto de
discontinuidad. Esto tiene sentido s olo si esa discontinuidad es nita. En todo
caso estas operaciones deben manejarse con precauci on si se desea mantener el
rigor matem atico.
2.2.4. Exponencial
La funci on exponencial es denida genericamente como
f(t) = e
t
(2.11)
donde = + j, , R. Sin embargo, cuando ,= 0, la exponencial no
es una se nal real, y s olo tiene sentido fsico cuando se combina con su se nal
compleja conjugada, f(t)

= e

t
, en cuyo caso se obtiene una sinusoide de
amplitud modulada exponencialmente, situaci on que se analiza por separado
m as adelante.
Para el caso R distinguimos dos casos, como se ilustra en la Figura 2.5.
Cuando > 0 tenemos una exponencial creciente. Esta se nal est a asociada a
los sistemas inestables, como es explicar a m as adelante. Cuando < 0, esta-
mos en presencia de una exponencial decreciente. Esta forma exponencial es de
enorme importancia en la teora de sistemas, ya que aparece con frecuencia en la
descripci on de una amplia gama de fen omenos, por ejemplo, la descarga de un
condensador a traves de un resistor y el decaimiento de sustancias radiactivas,
entre otros.
Naturalmente que el caso especial = 0 corresponde a la funci on constante.
Para las exponenciales decrecientes se suele denir un par ametro adicional:
la constante de tiempo, denida como:
2.2. SE

NALES DE TIEMPO CONTINUO 25


sinusoide
0 1 2 3 4
0
0.2
0.4
0.6
0.8
1
<0
Tiempo [s]
0 1 2 3 4
1
2
3
4
5
6
7
8
>0
Tiempo [s]
Figura 2.5: Exponenciales creciente (izquierda) y decreciente (derecha)
=
1
[[
(2.12)
La constante de tiempo es una medida de la velocidad de decaimiento
de la exponencial, tal como se ilustra en la Figura 2.6.
0 0.5 1 1.5 2 2.5 3 3.5 4
0
0.2
0.4
0.6
0.8
1
Tiempo [s]

1
>
2
>
3
=
3
=
2
=
1
Figura 2.6: Exponenciales de diferentes velocidades de decaimiento
Una propiedad interesante de la exponencial se muestra en la Figura 2.7,
donde se observa que la tangente a la curva, trazada en t = 0 intersecta la
asntota de la exponencial (el eje temporal) exactamente en t = , lo cual puede
ser vericado analticamente por el lector.
2.2.5. Se nales sinusoidales
La se nal fundamental en todo tipo de oscilaciones peri odicas es la funci on
sinusoidal, que se describe en forma generica por:
f(t) = Asen(t +) (2.13)
26 CAP

ITULO 2. SE

NALES
sinusoide!amplitud
sinusoide!frecuenciaangular
sinusoide!desfase
sinusoide!per odo
sinusoide!frecuencia
Euler
sinusoide!f ormuladeEuler
exponencialimaginaria
sinusoide!amortiguada
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
0
0.2
0.4
0.6
0.8
1
Tiempo normalizado t/
Figura 2.7: Propiedad de la constante de tiempo
donde A es la amplitud, es la frecuencia angular (en [rad/s]) y es el angulo
de fase, o desfase.
El perodo, T [s], y la frecuencia, f [Hz], de la sinusoide est an dados por:
T =
1
f
=
2

(2.14)
Un representaci on equivalente para las se nales sinusoidales se puede obtener
a partir de la f ormula de Euler
Asen(t +) = A
e
j(t+)
e
j(t+)
2j
(2.15)
De esta ecuaci on se puede apreciar la interpretaci on que usualmente se da a
la exponencial imaginaria e
jt
, ya que
1
sen(t) = e
jt
(2.16)
2.2.6. Sinusoidales con amplitud exponencial
Otra de las se nales que aparece frecuentemente en la descripci on del com-
portamiento natural de los sistemas son las sinusoides cuya amplitud varan
exponencialmente en el tiempo, es decir, de la forma:
f(t) = Ae
t
sen(t +) (2.17)
Naturalmente, cuando = 0, la se nal se reduce a una sinusoide pura. Los
casos < 0 (sinusoide amortiguada exponencialmente) y > 0 (sinusoide
creciente exponencialmente) se muestran en la Figura 2.8.
Para estas funciones, la relaci on de Euler lleva a:
Ae
t
sen(t +) = A
e
(+j)t+j
e
(j)tj
2j
(2.18)
1
La notaci on { } siginica parte imaginaria de ...
2.3. SE

NALES DE TIEMPO DISCRETO 27


se~ nales!detiempodiscreto
escal onunitario
impulsounitario
deltadeKronecker|textbf
0 1 2 3
1
0.5
0
0.5
1
tiempo normalizado t/T
0 1 2 3
500
0
500
tiempo normalizado t/T
Figura 2.8: Se nales sinusoidales con amplitud disminuyendo exponencialmente
(izq.) y creciendo exponencialmente (der.)
0
1
t
[t t
o
]
t
o
Figura 2.9: Escal on unitario de tiempo discreto
2.3. Se nales de tiempo discreto
En el caso de las se nales de tiempo discreto, existen contrapartes directas de
las se nales para tiempo continuo, con algunas sutiles, pero signicativas diferen-
cias. La primera diferencia obvia es que la variable independiente est a denida
sobre el conjunto de los n umeros enteros, Z. Otras aparecer an en cada oportu-
nidad.
2.3.1. Escal on unitario de tiempo discreto
El escal on unitario en el instante t
o
se dene como:
[t t
o
]
Z
=
_
1 t t
o
0 t < t
o
(2.19)
y se representa en la Figura 2.9.
2.3.2. Impulso unitario discreto o delta de Kronecker
28 CAP

ITULO 2. SE

NALES
rampaunitaria
0
1
t t
o
[t t
o
]
Figura 2.10: Impulso unitario discreto o delta de Kronecker
El impulso unitario discreto o delta de Kronecker se dene como:
[t t
o
]
Z
=
_
0 t ,= t
o
1 t = t
o
(2.20)
y se representa en la Figura 2.10.
Una propiedad clave del delta de Kronecker, an aloga a la del delta de Dirac
(lema 2.1) est a descrita en el siguiente lema.
Lema 2.2. Considere una funci on cualquiera f[t], entonces
f[t] =

i=
f[i][t i] (2.21)
222
El lema 2.2 establece que toda se nal puede ser expresada como una operaci on
lineal sobre un tren de deltas de Kronecker. Veremos m as adelante que esta
propiedad ser a la base para calcular la respuesta de un sistema lineal de tiempo
discreto a partir de su respuesta a un impulso unitario.
2.3.3. Rampa unitaria de tiempo discreto
La rampa unitaria se dene como:
r[t t
0
]
Z
=
_
t t
o
t t
o
0 t < t
o
(2.22)
y se representa en la Figura 2.11.
De manera similar a las se nales de tiempo continuo, el delta de Kronecker,
el escal on unitario y la rampa unitaria pertenecen a una secuencia de funciones,
donde cada una se puede obtener como la primera diferencia del miembro que
le sigue, es decir:
[t t
o
] = [t t
o
] [t t
o
1]; [t t
o
] = r[t t
o
+1] r[t t
o
] (2.23)
2.3. SE

NALES DE TIEMPO DISCRETO 29


exponencial
0 t t
o
r[t t
o
]
Figura 2.11: Rampa unitaria de tiempo discreto
o a traves de la acumulaci on de la que precede, es decir
r[t t
o
] =

i=to+1
[t i]; [t t
o
] =

i=to
[t i] (2.24)
2.3.4. Exponencial de tiempo discreto
La funci on exponencial es denida genericamente como
f[t] =
t
(2.25)
donde es, en general, un n umero complejo. Sin embargo, cuando ,=
0, la exponencial no es una se nal real, y s olo tiene sentido fsico cuando se
combina con (

)
t
, en cuyo caso se llega a una sinusoide de amplitud modulada
exponencialmente, situaci on que se analiza por separado m as adelante.
Si R distinguimos cuatro casos, como se ilustra en la Figuras 2.12 y 2.13.
0 2 4 6 8
0
0.2
0.4
0.6
0.8
1
1.2
0<< 1

0 2 4 6 8
0
1
2
3
4
5
1<

Figura 2.12: Exponenciales de tiempo discreto, decreciente (izquierda) y cre-
ciente (derecha), R
+
En la Figura 2.12, se observa el caso cuando es positivo, a la izquierda
aparece un ejemplo para 0 < < 1 y a la derecha, aparece un ejemplo para >
30 CAP

ITULO 2. SE

NALES
exponencial!creciente
sinusoide!discreta
sinuosoide!aperi odica
1. Cuando > 1 tenemos una exponencial creciente. Esta se nal aparece asociada
a los sistemas inestables de tiempo discreto, como es explicar a m as adelante.
Por su parte, cuando 0 < < 1, estamos en presencia de una exponencial
decreciente. Esta forma exponencial es de enorme importancia en la teora de
sistemas, ya que interviene con frecuencia en la descripci on del comportamiento
natural de una amplia gama de sistemas.
En la Figura 2.13, se observa el caso cuando es negativo, a la izquierda
aparece el sub-caso 0 > > 1 y a la derecha, aparece el sub-caso < 1.
0 2 4 6 8
1
0.5
0
0.5
1

0>> 1
0 2 4 6 8
4
2
0
2
4
6

< 1
Figura 2.13: Exponenciales de tiempo discreto, decreciente (izquierda) y cre-
ciente (derecha), R

Naturalmente que el caso especial = 1 corresponde a la funci on constante,


y el caso = 1 puede identicarse como una se nal sinusoidal, las cuales se
revisan a continuaci on.
2.3.5. Se nales sinusoidales de tiempo discreto
Al igual que en el caso de tiempo continuo, en sistemas discretos la se nal fun-
damental en oscilaciones peri odicas es la funci on sinusoidal, cuya forma generica
es:
f[t] = Asen(t +) (2.26)
donde A es la amplitud, es la frecuencia angular normalizada (en [rad]) y
es el angulo de fase, o desfase. Note que la unidad de la frecuencia es [rad], y en
el Captulo 11 veremos la relaci on entre esta y la frecuencia angular en tiempo
continuo, con unidades [rad/s].
Una importante diferencia con las sinusoides de tiempo continuo, es que una
sinusoide de tiempo discreto puede ser aperi odica en t.
Lema 2.3. Una sinusoide de tiempo discreto es peri odica si s olo si existen
n umeros naturales p y N, tales que:
= 2
p
N
(2.27)
2.3. SE

NALES DE TIEMPO DISCRETO 31


Euler
sinusoide!discreta!amortiguada
Demostraci on
Una sinusoide discreta sen(t) es peri odica si y s olo si existe un n umero
natural N tal que, para todo t N,
sen(t) = sen((t +N)) = sen(t) cos(N) + cos(t) sen(N) (2.28)
Para que esta igualdad se cumpla para todo t N, es necesario y suciente
que cos(N) = 1 ( sen(N) = 0). Esto se cumple si y s olo si existe p N
tal que se cumple (2.27).
222
De acuerdo a este lema, las sinusoidales de tiempo discreto: sen(t/7), cos(2t),
sen(e t) son todas se nales aperi odicas.
Un representaci on equivalente para las se nales sinusoidales se puede obtener
a partir de la f ormula de Euler:
Asen(t +) = A
e
j(t+)
e
j(t+)
2j
(2.29)
2.3.6. Sinusoidales con amplitud exponencial
La sinusoide con amplitud modulada exponencialmente interviene frecuente-
mente describiendo el comportamiento natural de los sistemas de tiempo dis-
creto. Esta se nal aparece cuando C, lo cual signica que podemos expresar
en la forma polar:
= e
j
= [[ e
j
(2.30)
y, de esta forma, tenemos que:

t
=
t
e
j t
=
t
cos(t ) +j
t
sen(t ) (2.31)
Consideremos entonces la se nal:
f[t] = A
t
sen(t +) (2.32)
Naturalmente, cuando = 1, la se nal se reduce a una sinusoide pura. Los
casos 0 < < 1 (sinusoide amortiguada exponencialmente) y > 1 (sinusoide
creciente exponencialmente) se muestran en la Figura 2.14.
32 CAP

ITULO 2. SE

NALES
0 5 10 15 20
0.4
0.2
0
0.2
0.4
0.6
0.8
0< <1
0 5 10 15 20
3
2
1
0
1
2
3
>1
Figura 2.14: Se nales sinusoidales de tiempo discreto con amplitud variando ex-
ponencialmente
2.4. Problemas para el lector
Problema 2.1. Dibuje los gr acos de las siguientes se nales:
f
1
(t) = [ sen(2t)[; f
2
(t) = (3t + 2) (2.33)
f
3
(t) =
sen(2t)
t
; f
4
(t) = r(4t 2) (2.34)
Problema 2.2 (Se nal de amplitud modulada). Suponga que la se nal
f(t) = cos(10t) es multiplicada por otra se nal g(t). Dibuje el gr aco del produc-
to f(t)g(t), para dos casos distintos: g(t) = 0,2 sen(t) y g(t) = signo(sen(t))
Problema 2.3 (Pulsos de ancho modulado). Supongamos se tiene la se-
cuencia de pulsos:
f(t) =

i=0
((t 3i) (t 1 g(t) 3i)) (2.35)
Construya un gr aco de la se nal f(t) para g(t) = 0, 5 sen(0, 1t).
Problema 2.4. Considere la funci on:
f(t) =
1

sen((t 2))
t 2
(2.36)
Dibuje f(t) (use Matlab ) para diferentes valores de . Comente sus resul-
tados
Problema 2.5. Determine una expresi on analtica para la derivada de las
siguientes funciones y grafquelas:
2.4. PROBLEMAS PARA EL LECTOR 33
f
1
(t) = 2(t 2) (t 4); f
2
(t) = sen
_
3t

3
_
(t

2
) (2.37)
f
3
(t) = r
_
2t 4
3
_
; f
4
(t) = (r(t) 2r(t 2)) (t + 4) (2.38)
Problema 2.6. Considere los gr acos de la Figura 2.15.
f
2
(t) f
1
(t)
t
1 2 3 1 2 3 4
t
Figura 2.15: Se nales compuestas
Para cada se nal:
2.6.1 Encuentre la expresi on analtica para cada una de las se nales.
2.6.2 Determine una expresi on analtica para la integral en el intervalo [0, t].
Problema 2.7. Graque las siguientes se nales de tiempo discreto:
f
1
[t] = [t 2] 3[t 5] (2.39)
f
2
[t] = (0,8)
t
cos(0,25t) (2.40)
f
3
[t] = 1 sen(t/8) (2.41)
Problema 2.8. Suponga que la se nal de tiempo continuo f(t) = 4 cos(t) es
muestreada cada [s]. Dibuje la se nal de tiempo discreto

f[t] = f(t) para tres
valores diferentes de : 0, 1; 1 y 2.
Problema 2.9. Considere la secuencia de n umeros 2; 1; 2; 1; 2; 1; 2; 1; 2; 1, . . ..
Si asocia esa secuencia al tiempo discreto, encuentre una expresi on analtica que
describa la secuencia.
34 CAP

ITULO 2. SE

NALES
ecuaci ondiferencialdelsistema|textbf
Captulo 3
Analisis en tiempo continuo
3.1. Introducci on
La herramienta fundamental para describir los cambios de una variable en
el dominio del tiempo continuo es la derivada, por tanto, el modelo matem atico
central para los sistemas en tiempo continuo es la ecuaci on diferencial del sis-
tema, EDS, la cual relaciona la entrada del sistema, u(t), con la salida, y(t). En
el caso de modelos linealizados (Captulo 1), debe entenderse que nos referimos
a la entrada incremental u(t) y salida incremental y(t).
Como ya hemos destacado, cuando se dispone de un buen modelo lineal para
un sistema, se puede utilizar numerosas y poderosas herramientas de an alisis,
sntesis y dise no. Por ejemplo, para resolver una EDS respecto de una entrada
particular y condiciones iniciales especcas, los metodos operacionalmente m as
ecientes pertenecen probablemente al dominio del tiempo. Aprovechando tales
metodos de resoluci on en el tiempo presentaremos en este captulo las soluciones
generales para tiempo continuo, suponiendo que el lector tiene la preparaci on
previa necesaria para utilizar esos metodos de resoluci on sin necesidad de de-
mostraci on.
El estudio de las propiedades de las soluciones de una EDS nos permitir a in-
troducir indicadores de propiedades fundamentales para los sistemas din amicos
lineales tales como su comportamiento natural, estabilidad, velocidad relativa,
ganancia y otras. Estos indicadores permitir an establecer relaciones estrechas
entre sus propiedades cuantitativas y cualitativas. La aplicaci on de los indi-
cadores descritos en este captulo y en el siguiente, para el caso de sistemas de
tiempo discreto, es m as eciente en el dominio de la frecuencia, sin embargo, este
t opico se aborda en los captulos posteriores a traves de las transformaciones de
Fourier, de Laplace y Zeta.
3.2. Ecuaci on diferencial del sistema (EDS)
La forma general de la EDS es:
35
36 CAP

ITULO 3. AN

ALISIS EN TIEMPO CONTINUO


Heaviside!operador
Heaviside
d
n
y(t)
dt
n
+a
n1
d
n1
y(t)
dt
n1
+. . . +a
0
y(t)
= b
n1
d
n1
dt
n1
u(t) +b
n2
d
n2
dt
n2
u(t) +. . . +b
0
u(t) (3.1)
La soluci on a esta ecuaci on debe cumplir adem as con las restricciones que
imponen las condiciones o estado inicial.
En algunos casos, conviene usar una notaci on compacta, tipo operador, para
denotar la operaci on derivada. Por esa raz on, introducimos el operador de Heav-
iside, ) denido por
f(t)) = f(t)
d f(t)
dt
(3.2)

n
f(t)) =
n
f(t) =

n1
f(t))
_
=
d
n
f(t)
dt
n
(3.3)
El operador de Heaviside representa la derivada de una funci on y, natural-
mente, tiene un inverso asociado denido por la integral:

1
f(t)) =
_
t

f()d (3.4)
Usando este operador, el modelo (3.1) puede ser escrito como

n
y(t) +a
n1

n1
y(t) +. . . +a
0
y(t) = b
n

n
u(t) +b
n1

n1
u(t) +. . . +b
0
u(t)
(3.5)
Para ilustrar la forma en que se llega a la EDS desarrollamos el siguiente
ejemplo.
Ejemplo 3.1. Considere la red electrica de la Figura 3.1, donde todos los com-
ponentes son lineales.
+
i(t)
v
f
(t)
C L
R
1
R
2
i
L
(t)
v(t)
Figura 3.1: Red RLC
3.2. ECUACI

ON DIFERENCIAL DEL SISTEMA (EDS) 37


Aplicando las leyes de Kircho y las relaciones terminales de las compo-
nentes electricas se llega a:
v
f
(t) = R
1
i(t) +v(t) (3.6)
i(t) =
1
L
_
t

v()d +C
dv(t)
dt
+
v(t)
R
2
(3.7)
Derivando ambos miembros de las ecuaciones (3.6) y (3.7) se obtiene:
dv
f
(t)
dt
= R
1
di(t)
dt
+
dv(t)
dt
(3.8)
di(t)
dt
=
1
L
v(t) +C
d
2
v(t)
dt
2
+
1
R
2
dv(t)
dt
(3.9)
Combinando las ecuaciones (3.8) y (3.9) se llega nalmente a:
d
2
v(t)
dt
2
+
R
1
+R
2
R
1
R
2
C
dv(t)
dt
+
1
LC
v(t) =
1
R
1
C
dv
f
(t)
dt
(3.10)
Este modelo tiene la estructura de la ecuaci on (3.1), en que u(t) = v
f
(t),
y(t) = v(t), n = 2, y los valores de los par ametros son:
a
1
=
R
1
+R
2
R
1
R
2
C
; a
0
=
1
LC
; b
2
= 0; b
1
=
1
R
1
C
; b
0
= 0 (3.11)
Es importante adem as hacer notar que la soluci on v(t) debe ser tal que sat-
isfaga las condiciones iniciales impuestas por la tensi on inicial en el conden-
sador, y la corriente inicial en el inductor.
222
En resumen, podemos armar que:
La EDS es un modelo din amico que establece una restricci on fundamental
sobre ciertas combinaciones de la entrada, la salida y algunas derivadas de
ambas se nales.
Para ser m as especco, consideremos una ecuaci on diferencial de primer
orden
d y
dt
+y(t) = u(t) (3.12)
Observamos en (3.12) que la salida y(t) no puede variar arbitrariamente, sino
que existe una restricci on. Esa restricci on dice que en un instante arbitrario,
t = t
1
, la suma de la salida y su primera derivada debe ser igual al valor que
38 CAP

ITULO 3. AN

ALISIS EN TIEMPO CONTINUO


equilibrioestable
sistema!inestable
tiene la entrada u(t
1
). Por ejemplo si u(t) = 2, t 0, e y(0) = 1, entonces
necesariamente y(0) = 3, es decir, y(0) > 0, por lo cual en t = 0 la salida
y, est a aumentando. Por otro lado, a medida que y(t) aumenta y se acerca a
2, entonces y(t) sigue siendo positiva, pero disminuye consistentemente. En el
lmite, cuando y(t) = 2, su derivada de y es cero, lo cual indica que en ese
instante y(t) ya no cambia, es decir, se alcanza un punto de equilibrio estable.
Introduzcamos ahora una variante en (3.12):
d y
dt
y(t) = u(t) (3.13)
Si nuevamente u(t) = 2, t 0, e y(0) = 1, entonces y(0) = 1, lo cual
implica que en t = 0 la salida y est a aumentando. Sin embargo, a diferencia del
caso anterior, a medida que y aumenta, acerc andose a 2, su derivada crece, es
decir, y(t) aumenta. Cuando y(t) = 2, se tiene que y(t) = 4, y subiendo. En
consecuencia, y(t) sigue creciendo monot onicamente, pero siempre la velocidad
de cambio, y(t), debe cumplir con y(t) = u(t) + y(t). Es decir, no se alcanza
un punto de equilibrio y, m as adelante, denimos este tipo de sistemas como
inestable.
Ambos casos pueden ser representados por la forma general de una EDS de
primer orden:
d y
dt
+ay(t) bu(t) = 0 (3.14)
La forma (3.14) deja en evidencia el signicado de restricci on que tiene la
EDS.
El an alisis precedente se puede aplicar a EDS m as complejas, pero en esos
casos se pierde la visi on intuitiva, por ello nos conviene trasladarnos a un ambito
m as general, que es lo que hacemos a continuaci on.
3.3. La respuesta del sistema
La soluci on de la EDS condensa aspectos fundamentales su comportamiento
en el tiempo. Una aproximaci on intuitiva a esta conexi on indica que es esperable
que la excitaci on no s olo fuerce determinada conducta en la respuesta, sino
que en ese proceso revele aspectos claves de la naturaleza del sistema. Esta
percepci on justica el observar con detenci on la soluci on de la EDS y algunas
formas en que ella puede ser descompuesta para su mejor comprensi on.
3.3.1. Componente homogenea y componente particular
Una primera forma de estudiar la respuesta del sistema es descomponerla de
modo de identicar aquella parte que captura la naturaleza del sistema, com-
ponente natural u homogenea, y la otra, que reeja la naturaleza especca
de la excitaci on, componente particular o forzada.
3.3. LA RESPUESTA DEL SISTEMA 39
respuestahomog enea
soluci onhomog enea
respuesta particular
soluci onparticular
La componente homogenea, y
h
(t), satisface la ecuaci on diferencial homogenea
asociada a (3.1), es decir:

n
y
h
(t) +a
n1

n1
y
h
(t) +. . . +a
0
y
h
(t) = 0 (3.15)
Note que esta ecuaci on tiene innitas soluciones, las que pueden describirse
genericamente como una familia. Los miembros de esta familia se diferencian
por los valores numericos especcos que se pueden escoger para un conjunto de
n constantes indeterminadas.
Por su parte, la componente o soluci on particular, y
p
(t), es una funci on
especca del tiempo, independiente de las condiciones iniciales, que satisface la
ecuaci on (3.1).
La soluci on completa y(t) = y
h
(t) + y
p
(t) queda totalmente determinada al
usar las condiciones iniciales, aplicadas a la respuesta completa, y(t), para
calcular las constantes indeterminadas presentes en y
h
(t).
Antes de proseguir con el an alisis consideraremos un ejemplo.
Ejemplo 3.2. Suponga que la EDS de un sistema est a dada por:
dy(t)
dt
+ 2y(t) = 4u(t) (3.16)
y que la respuesta y(t) debe satisfacer la condici on inicial y(0) = 0, 5. Se desea
calcular la respuesta del sistema para t 0 cuando u(t) = 1.
y
h
(t)
La componente homogenea debe cumplir con:
dy
h
(t)
dt
+ 2y
h
(t) = 0 (3.17)
Esta ecuaci on es satisfecha por y
h
(t) = Ce
2t
, para cualquier valor de la
constante C.
y
p
(t)
La componente particular y
p
(t) es una funci on, independiente de las condi-
ciones iniciales, que debe satisfacer (3.16) con u(t) = 1. Una soluci on simple es
y
p
(t) = 2, t 0.
De esta forma, la soluci on completa es:
y(t) = y
h
(t) +y
p
(t) = Ce
2t
+ 2 (3.18)
y la constante C se calcula de modo que y(0) satisfaga la condici on inicial y(0) =
0, 5. Por lo tanto, se obtiene C = 2,5 e y(t) = 2,5e
2t
+ 2
222
40 CAP

ITULO 3. AN

ALISIS EN TIEMPO CONTINUO


ecuaci oncaracter stica
constantesindeterminadas
autovalores
valores propios
valorescaracter sticos
frecuenciasnaturales
modosnaturales
modoforzante
3.3.2. Frecuencias y modos naturales
La componente natural u homogenea, y
h
(t) depende s olo de la ecuaci on
caracterstica asociada a (3.1), dada por:

n
+a
n1

n1
+. . . +a
1
+a
0
= 0 (3.19)
Si las soluciones de (3.19) son
1
,
2
, . . .
p
con multiplicidad n
1
, n
2
, . . . , n
p
respectivamente, tal que n
1
+ n
2
+ . . . + n
p
= n, entonces la forma general de
y
h
(t) es:
y
h
(t) =
p

k=1
n
k

i=1
C
ki
t
i1
e

k
t
(3.20)
donde los C
ki
son constantes arbitrarias (constantes indeterminadas) que gener-
an los grados de libertad necesarios para que la respuesta completa satisfaga
las condiciones iniciales.
Los valores de que satisfacen (3.19) son conocidos como autovalores, valores
propios
1
, valores caractersticos o frecuencias naturales del sistema. Dado que
los coecientes de la ecuaci on caracterstica asociada a la EDS son reales, todas
sus races son reales, o bien aparecen en pares complejos conjugados.
A su vez, cada una de las funciones temporales, asociadas a
k
, de la forma:
t
i1
e

k
t
(3.21)
que aparecen en (3.20) se denomina modo natural del sistema.
Los modos naturales se asocian unvocamente a las frecuencias naturales, y
la forma temporal de los primeros depende de la multiplicidad y la ubicaci on de
los segundos en el plano complejo. Un mapa general, asumiendo multiplicidad
uno para cada frecuencia natural, se aprecia en la Figura 3.2. En esa gura se
asocia una se nal (modo natural) a cada frecuencia natural, excepto en el caso
de frecuencias complejas, en que se considera el par de complejos conjugados.
3.3.3. Modos forzantes y modos forzados
La componente particular de la respuesta, y
p
(t), es una funci on estrechamente
ligada a la entrada, u(t). Un caso simple, en que podemos apreciar esta relaci on,
es cuando u(t) puede describirse como una combinaci on lineal de funciones de
la forma e
it
, es decir:
u(t) =

i=1
B
i
e
it
(3.22)
donde los
t
i
s son distintos y ninguno de ellos coincide con alguna frecuencia
natural. Cada una de las funciones e
it
recibe el nombre de modo forzante.
1
Esta denominaci on resultar a natural para modelos en variables de estado (Captulo 10)
3.3. LA RESPUESTA DEL SISTEMA 41

Eje
Imaginario
Eje
Real

2

0

3

1

4
Figura 3.2: Relaci on entre la ubicaci on de las frecuencias naturales (de multi-
plicidad uno) y los modos naturales
42 CAP

ITULO 3. AN

ALISIS EN TIEMPO CONTINUO


modo forzante!gananciaa
ganancia!amodoforzante
modo forzado
ganancia
ganancia!acontinua
Se puede vericar, usando la linealidad del sistema, que la soluci on particu-
lar, y
p
(t), est a dada por:
y
p
(t) =

i=1
y
pi
(t) , en que y
pi
(t) = K
i
B
i
e
it
(3.23)
y donde cada uno de los coecientes es:
K
i
=

n1
k=0
b
k
(
i
)
k

n
l=0
a
l
(
i
)
l
(3.24)
La respuesta y
p
(t) contiene modos forzados. Bajo la suposici on anterior,
relativa a que ning un
t
i
s coincide con las frecuencias naturales, cada uno de los
modos forzados coincide con uno de los modos forzantes.
Observe que podemos identicar a K
i
con una ganancia asociada al modo
forzante i-esimo. Cuando el modo forzante es una constante, es decir, e
t
= 1,
se habla de la ganancia a continua.
Para facilitar la comprensi on del concepto de ganancia a modos, considere-
mos un ejemplo.
Ejemplo 3.3. La EDS de un sistema lineal es:
d y
dt
+ 3y(t) = 2u(t); entonces a
1
= 1; a
0
= 3; b
0
= 2 (3.25)
Supongamos que la entrada es u(t) = 5 +4 cos(t +/4), entonces podemos
expresarla como:
u(t) =
3

i=1
B
i
e
it
= 5e
1t
+
_
2e
j

4
_
e
2t
+
_
2e
j

4
_
e
3t
(3.26)
donde
1
= 0,
2
= j y
3
= j, es decir, hay tres modos forzantes presentes.
Las ganancias est an dadas por (3.24), y para este caso particular:
K
1
=
b
0

1
+a
0
=
2
3
(3.27)
K
2
=
b
0

2
+a
0
=
2
j + 3
= 0,3180 j0,3330 = 0,4604e
j0,8084
(3.28)
K
3
=
b
0

3
+a
0
=
2
j + 3
= 0,3180 +j0,3330 = 0,4604e
j0,8084
(3.29)
222
El tratamiento general de la soluci on particular ser a pospuesto para captulos
futuros; pero en el intertanto podemos establecer un hecho trascendente
3.3. LA RESPUESTA DEL SISTEMA 43
estabilidad
Los sistemas lineales exhiben ganancias distintas para modos forzantes dis-
tintos, y esta capacidad de discriminaci on es la base para el an alisis y dise no
de sistemas de procesamiento de se nales y para otras aplicaciones.
3.3.4. Estabilidad
Como ya hemos mencionado, los modos naturales describen aspectos es-
enciales de un sistema lineal. En primer lugar, los modos naturales guardan
estrecha relaci on con la idea de estabilidad. Intuitivamente podemos denir
un sistema lineal (o, mejor dicho, un modelo lineal) como estable si todas las
variables (se nales) del sistema permanecen acotadas ante cualquier excitaci on
acotada o estado inicial acotado. Si consideramos s olo el efecto de condiciones
iniciales, resulta que la estabilidad requiere que los modos naturales sean todos
acotados. Sin embargo, veremos que la estabilidad de un sistema requiere que
todos los modos naturales decaigan en el tiempo.
Como cada modo natural depende de una frecuencia natural, son estas, es
decir, las races de la ecuaci on caracterstica del sistema, las que determinan la
estabilidad del sistema. Consideremos el caso de un modo natural de la forma
generica:
y
h1
(t) = Ce
t
; C (3.30)
Sea = +j
o
, entonces
y
h1
(t) = Ce
t
= Ce
t
e
jot
= Ce
t
(cos(
o
t) +j sen(
o
t)) (3.31)
De la expresi on anterior se observa que y
h1
(t) decae a medida que el tiempo
transcurre si y s olo si e
t
decae, y esto ocurre si y s olo si < 0. Dicho de otra
forma, si y s olo si est a en el semi plano izquierdo abierto del plano complejo.
Esto se ve reejado claramente en la Figura 3.2.
En resumen, tenemos la siguiente denici on de estabilidad, conocida como
estabilidad asint otica:
Diremos que un modelo lineal e invariante en el tiempo es estable si y s olo
si todos sus modos naturales decaen asint oticamente a cero, es decir, si y
s olo si todas sus frecuencias naturales tienen parte real estrictamente menor
que cero. Si una o m as de las frecuencias naturales del modelo tienen parte
real mayor o igual que cero, diremos que el modelo es inestable.
Denimos, en consecuencia, la regi on de estabilidad en el plano comple-
jo, para sistemas continuos en el tiempo, como el semiplano izquierdo (SPI)
abierto, es decir excluyendo el eje imaginario. La necesidad de esta exclusi on
se demostrar a m as adelante. Sin embargo, el ejemplo siguiente permite apre-
ciar el origen de las dicultades cuando una frecuencia natural est a en el eje
imaginario.
44 CAP

ITULO 3. AN

ALISIS EN TIEMPO CONTINUO


velocidad
frecuencia natural!dominante
modonatural!dominante
Ejemplo 3.4. Sea un sistema cuya EDS est a dada por:
d y
dt
= 2u(t) (3.32)
Entonces el sistema tiene s olo una frecuencia natural, y ella est a ubicada
en = 0, esto signica que el modo natural que aparecer a en la respuesta del
sistema es e
t
= 1. As, la respuesta homogenea es y
h
(t) = C
1
. Supongamos que
la entrada es una constante t 0, digamos u(t) = U
o
, entonces la componente
particular de la respuesta es y
p
(t) = U
o
t. De esa forma la respuesta completa es
y(t) = C
1
+U
o
t donde C
1
debe calcularse para satisfacer la condici on inicial.
Debemos notar que este ejemplo pone en evidencia que, aunque la entrada
es una simple constante, la salida del sistema crece en forma ilimitada a medida
que transcurre el tiempo. El sistema es, por tanto, inestable.
222
3.3.5. Velocidad
Un segundo aspecto de interes en relaci on con las frecuencias y modos nat-
urales guarda relaci on con la velocidad con que evolucionan las variables de los
sistemas.
Dentro de la clase de sistemas estables, podemos distinguir diferencias no-
tables, no s olo por la distinta naturaleza de los valores propios, sino por las
velocidades relativas con que decaen sus modos naturales. Por ejemplo, con-
sideremos dos sistemas con las componentes homogenas que se indican:
Sistema 1 y
h1
(t) = C
11
e
2t
+C
12
e
5t
(3.33)
Sistema 2 y
h2
(t) = C
21
e
3t
+C
22
e
7t
(3.34)
Vemos que y
h1
(t) est a dominada por el modo natural e
2t
porque esta se nal
decae m as lentamente que el otro modo natural e
5t
. Por su parte, y
h2
(t)
est a dominada por el modo natural e
3t
, el que decae m as lentamente que
el modo e
7t
. As diremos que el Sistema 1 tiene una frecuencia natural
dominante igual a 2, con un modo natural dominante e
2t
. A su vez,
el Sistema 2 tiene una frecuencia natural dominante igual a 3, con un mo-
do natural dominante e
3t
. Al comparar ambos sistemas podemos concluir, en
primera aproximaci on, que el Sistema 1 es m as lento que el Sistema 2, porque
su modo dominante decae m as lentamente.
En general, si = [[ +j
o
, el modo natural tiene la forma:
e
t
= e
]]t
(cos(
o
t) +j sen(
o
t)) (3.35)
De esta ecuaci on se observa que este modo decae m as r apidamente cuanto
m as grande es [[. As, los sistemas son m as r apidos cuanto m as alejados del eje
imaginario est an sus frecuencias naturales dominantes.
3.3. LA RESPUESTA DEL SISTEMA 45
3.3.6. Respuesta a estado inicial y respuesta a entrada
Una forma alternativa de descomponer la respuesta de un sistema es con-
siderar por separado la componente de la respuesta debida a las condiciones
iniciales o estado inicial, y
x
(t), y la componente de la respuesta debida a la
entrada, y
u
(t), es decir:
y(t) = Tx
o
, u(t)))) = Tx
o
, 0)))
. .
yx(t)
+T0, u(t))))
. .
yu(t)
(3.36)
En consecuencia, y
x
(t) satisface:

n
y
x
(t) +a
n1

n1
y
x
(t) +. . . +a
0
y
x
(t) = 0 (3.37)
sujeta a las condiciones iniciales denidas en el vector x
o
. Esto sig-
nica que y
x
(t) es una combinaci on lineal de modos naturales, en donde las
constantes dependen de las condiciones iniciales (las que deben ser satisfechas
por la soluci on completa de la EDS).
A su vez, la respuesta a entrada, y
u
(t), es una soluci on de la EDS con condi-
ciones iniciales iguales a cero, es decir, satisface:
d
n
y
u
(t)
dt
n
+a
n1
d
n1
y
u
(t)
dt
n1
+. . . +a
0
y
u
(t)
= b
n1
d
n1
dt
n1
u(t) +b
n2
d
n2
dt
n2
u(t) +. . . +b
0
u(t) (3.38)
sujeta a condiciones iniciales cero. Para poder cumplir con esta restricci on,
y
u
(t) debe contener, adem as de los modos forzados, una combinaci on lineal de
modos naturales cuyas constantes son calculadas de modo que se cumpla aquella
restricci on.
En resumen, una comparaci on de los diferentes modos presentes en cada
una de las componentes de la respuesta de un sistema hasta ahora denidas
(homogenea-particular y estado inicial-entrada) se muestra en la Tabla 3.1.
y
h
(t) y
p
(t) y
x
(t) y
u
(t)
modos naturales

modos forzados

Cuadro 3.1: Presencia de modos en descomposiciones de la respuesta
Es adem as importante el notar que:
y(t) = y
h
(t) +y
p
(t) = y
x
(t) +y
u
(t) (3.39)
Sin embargo, por lo general, y
h
(t) ,= y
x
(t) e y
p
(t) ,= y
u
(t).
46 CAP

ITULO 3. AN

ALISIS EN TIEMPO CONTINUO


Aanzamos estas ideas retomando el Ejemplo 3.2, en el que ilustramos la
descomposici on de la respuesta del sistema en sus componente homogenea y
particular.
Ejemplo 3.5. Suponga que la EDS est a dada por:
dy(t)
dt
+ 2y(t) = 4u(t) (3.40)
y que la respuesta y(t) debe satisfacer la condici on inicial y(0) = 0, 5.
Se desea calcular la respuesta del sistema para u(t) = 1 para t 0.
y
x
(t)
La respuesta a estado inicial debe cumplir con:
dy
x
(t)
dt
+ 2y
x
(t) = 0 (3.41)
y con y
x
(0) = 0, 5 Esta ecuaci on es satisfecha por y
x
(t) = Ce
2t
, con C =
0,5
y
u
(t)
La respuesta a entrada, y
u
(t), es una soluci on para (3.40) con u(t) = 1, y
sujeta a y
u
(0) = 0.
De esta forma, la soluci on completa es:
y
u
(t) = y
uh
(t) +y
up
(t) (3.42)
donde y
uh
(t) es una soluci on de la ecuaci on homogenea, es decir y
uh
(t) =
C
u
e
2t
, e y
up
(t) es la soluci on particular y
up
(t) = 2. C
u
se calcula de modo
de obtener y
u
(0) = 0, lo cual conduce a C
u
= 2.
Finalmente
y
x
(t) = 0, 5e
2t
(3.43)
y
u
(t) = 2e
2t
+ 2 (3.44)
y(t) = y
x
(t) +y
u
(t) = 2,5e
2t
+ 2 (3.45)
De esta forma, podemos ahora completar la Tabla 3.1 para el caso de las
soluciones obtenidas para este ejemplo. Esto se muestra en la Tabla 3.2.
y
h
(t) y
p
(t) y
x
(t) y
u
(t)
modos naturales 2, 5e
2t
0, 5e
2t
2e
2t
modos forzados 2 2
Cuadro 3.2: Presencia de modos en descomposiciones de la respuesta del Ejemplo
3.5
3.3. LA RESPUESTA DEL SISTEMA 47
222
Las dos descomposiciones de la respuesta del sistema obtenidas permiten
observar dicha respuesta desde dos perspectivas diferentes:
En la descomposici on componente homogenea componente particular se
observa la estructura de la respuesta. En efecto, en esa partici on queda en
evidencia la presencia de dos tipos de modos: modos naturales (incluidos en
la componente homogenea) y modos forzados (incluidos en la componente
particular).
En la descomposici on respuesta a estado inicial respuesta a entrada
se separan los efectos de las dos causantes de que el sistema tenga una
respuesta: las condiciones iniciales y las excitaciones o entradas aplicadas.
Note que aunque las condiciones iniciales sean iguales a cero, a un as, los
modos naturales se encuentran presente en la respuesta (en este caso s olo aparece
la componente debida a la entrada, y
u
(t)).
Para cerrar esta secci on consideraremos un ejemplo donde estos conceptos
adquieren un signicado m as concreto.
Ejemplo 3.6. En el circuito de la Figura 3.3 las componentes (escaladas, por
simplicidad) tienen los siguientes valores:
R
1
= 2[]; R
2
= 1[]; L = 1[H]; C = 0, 5[F] (3.46)
+
C
i
L
(t)
v
c
(t)
R
2
L R
1
v
f
(t)
i

(t)
A
i

(t)
Figura 3.3: Red lineal con condiciones iniciales
En esta red, la entrada es v
f
(t), la salida ha sido elegida como v
c
(t) y el
estado inicial es descrito por x
o
= [i
L
(0) v
c
(0)]
T
. Entonces usando el operador
de Heaviside (y su inverso) tenemos que las ecuaciones de mallas llevan a:
Z I = E (3.47)
donde:
Z
Z
=
_

_
R
1
+L +
1
C

1
C

1
C

1
1
C

1
+R
2
_

_
; I
Z
=
_

_
i

(t)
i

(t)
_

_
; E
Z
=
_

_
v
f
(t)
0
_

_
(3.48)
Esto se puede resolver usando el siguiente c odigo:
48 CAP

ITULO 3. AN

ALISIS EN TIEMPO CONTINUO


Maple
>with(linalg);
>Z:=array(1..2,1..2,[[2+rho+2/rho,-2/rho],[-2/rho,2/rho+1]]);
>Zi:=inverse(Z);
De donde resulta:
Z
1
=
1

2
+ 4 + 6
_
2 + 2
2
2
+ 2 + 2
_
(3.49)
Resolviendo para i

(t) se obtiene:
(
2
+ 4 + 6)i

(t) = ( + 2)v
f
(t) (3.50)
Dado que v
c
(t) = 1 i

(t), la EDS es:


d
2
v
c
(t)
dt
2
+ 4
d v
c
(t)
dt
+ 6v
c
(t) =
d v
f
(t)
dt
+ 2v
f
(t) (3.51)
Supongamos que las condiciones iniciales son v
c
(0) = 5 [V ], i
L
(0) = 3 [A]
y que v
f
(t) = 10 [V ]. Primero notamos que, al aplicar LCK en el nodo A, se
tiene que:
v
c
(0) =
1
C
_
i
L
(0)
v
c
(0)
R
2
_
= 4 [V ] (3.52)
La soluci on total se puede calcular usando el siguiente c odigo:
Maple
>v_f(t):=10:
>eds:=diff(v_c(t),t,t)+4*diff(v_c(t),t)+6*v_c(t)-diff(v_f(t),t)
-2*v_f(t)=0;
>dsolve({eds,v_c(0)=5,D(v_c)(0)=-4},v_c(t));
que entrega como resultado:
v
c
(t) =
10
3
+
5
3
e
2t
cos(

2t)
1
3

2e
2t
sen(

2t) (3.53)
Entonces las distintas componentes de la respuesta v
c
(t) tiene los siguientes
valores e interpretaciones:
(a) La componente particular, v
cp
(t) es aquella componente de v
f
(t) que con-
tiene s olo los modos forzados por la excitaci on constante, es decir, es la
componente continua de v
c
(t), en este caso v
cp
(t) = 10/3[V ]. Note que
esta componente se puede calcular usando un divisor de tensiones, y que
la ganancia a modo constante de la red es igual a 1/3.
3.3. LA RESPUESTA DEL SISTEMA 49
respuestatransitoria
respuestaestacionaria
(b) La componente homogenea, v
ch
(t), es la parte de la respuesta que contiene
todos los modos naturales, en este caso:
v
ch
(t) =
5
3
e
2t
cos(

2t)
1
3

2e
2t
sen(

2t) (3.54)
(c) La componente a estado inicial, v
ch
(t), corresponde al valor que tendra
v
c
(t) debido s olo a la corriente inicial en el inductor y a la tensi on inicial
en el condensador, es decir con la fuente de tensi on cortocircuitada. Esta
componente se puede calcular con el siguiente c odigo:
Maple
>v_f(t):=0:
>eds:=diff(v_c(t),t,t)+4*diff(v_c(t),t)+6*v_c(t)-diff(v_f(t),t)
-2*v_f(t)=0;
>dsolve({eds,v_c(0)=5,D(v_c)(0)=-4},v_c(t));
que entrega como resultado:
v
cx
= 5e
2t
cos(

2t) + 3

2e
2t
sen(

2t) (3.55)
(d) La componente a entrada, v
cu
(t), corresponde a la tensi on en el conden-
sador cuando se aplica la fuente de tensi on a la red inicialmente rela-
jada. Esta componente se puede calcular con el siguiente c odigo:
Maple
>v_f(t):=10:
>eds:=diff(v_c(t),t,t)+4*diff(v_c(t),t)+6*v_c(t)-diff(v_f(t),t)
-2*v_f(t)=0;
>dsolve({eds,v_c(0)=0,D(v_c)(0)=0},v_c(t));
de donde se obtiene:
v
cu
(t) =
10
3

10
3
e
2t
cos(

2t)
10
3

2e
2t
sen(

2t) (3.56)
222
Un comentario nal sobre la respuesta del sistema es que es usual hablar de
respuesta transitoria (o transiente) y respuesta estacionaria (o en estado
estacionario). La respuesta estacionaria corresponde a la respuesta del sistema
cuando ha transcurrido mucho tiempo desde el instante inicial. Por su parte
50 CAP

ITULO 3. AN

ALISIS EN TIEMPO CONTINUO


respuesta!a$\mu(t)$
respuesta!aescal on
la respuesta transiente es aquella parte de la respuesta que se extingue con el
tiempo.
En el Ejemplo 3.6 en la p agina 47, la respuesta estacionaria est a dada por
el modo forzado constante, mientras que la respuesta transitoria est a formada
por los modos naturales (sinusoidales amortiguadas).
La separaci on en componentes estacionaria y transitoria es transversal a la
idea de modos naturales y modos forzados, es decir, no ocurrir a siempre que la
respuesta estacionaria incluya s olo modos forzados, e incluso es posible que la
respuesta estacionaria este formada exclusivamente por modos naturales. Por
ejemplo, el lector puede vericar que si un sistema tiene modos naturales si-
nusoidales y la entrada es una exponencial decreciente, entonces la respuesta
estacionaria contendr a los modos naturales sinusoidales y la respuesta transito-
ria incluir a el modo forzado por la exponencial.
3.4. Respuesta a se nales de prueba
Una forma de estudiar, y comparar en forma estandarizada el comportamien-
to de un sistema es determinar su respuesta para excitaciones de prueba. Entre
esas se nales de prueba se consideran usualmente: el escal on unitario, el impulso
unitario y la se nal sinusoidal. En esta secci on nos concentraremos en las dos
primeras, pues la respuesta ante se nales sinuosidales ser a materia de estudio en
el Captulo 5).
3.4.1. Respuesta a escal on unitario
Considere la ecuaci on (3.1) en la p agina 36. Entonces la respuesta, g(t), a
un escal on unitario y condiciones iniciales iguales a cero, se puede obtener
de la siguiente forma:
Paso 1 Determine la soluci on general de la ecuaci on:
d
n
g
o
(t)
dt
n
+a
n1
d
n1
g
o
(t)
dt
n1
+. . . +a
0
g
o
(t) = 1 (3.57)
Note que g
o
(t) contiene una parte natural u homogenea (combinaci on
lineal de modos naturales de la forma (3.20)) y una componente particular
o forzada. Para el caso a
0
,= 0, g
o
(t) tiene la forma:
g
o
(t) =
1
a
0
+
p

k=1
n
k

i=1
C
ki
t
i1
e

k
t
t 0 (3.58)
En el caso m as general, si a
0
= a
1
= . . . = a
p1
= 0, a
p
,= 0 entonces g
o
(t)
tiene la forma:
g
o
(t) =
1
p!a
p
t
p
+
p

k=1
n
k

i=1
C
ki
t
i1
e

k
t
t 0 (3.59)
3.4. RESPUESTA A SE

NALES DE PRUEBA 51
Paso 2 Calcule las constantes C
ki
usando la restricci on de las condiciones ini-
ciales iguales a cero, es decir, usando el hecho que:

g
o
(t))

t=0
= 0 = 0, 1, . . . , n 1 (3.60)
Paso 3 Calcule las primeras n1 derivadas de g
o
(t). Note que, como las condi-
ciones iniciales son cero, esas derivadas son continuas en t = 0.
Paso 4 Usando las propiedades de linealidad obtenga g(t) de acuerdo a:
g(t) =
n1

i=0
b
i

i
g
o
(t))(t) (3.61)
El procedimiento anterior es ilustrado con el siguiente ejemplo.
Ejemplo 3.7. Consideremos un sistema con la EDS:

2
y(t) + 5 y(t) + 4y(t) = u(t) + 2u(t) (3.62)
Entonces las frecuencias naturales son soluciones de
2
+ 5 + 4 = 0, es
decir
1
= 4 y
2
= 1. Luego seguimos los pasos bosquejados previamente:
Paso 1 Calculamos la soluci on general de:

2
g
o
(t) + 5 g
o
(t) + 4g
o
(t) = 1 (3.63)
que resulta ser g
o
(t) =
1
4
+C
1
e
4t
+C
2
e
t
. Este resultado se puede obtener
con el siguiente c odigo:
Maple
>eds:=Diff(Diff(go(t),t),t)+ 5*Diff(go(t),t)+4*go(t)-1;
>dsolve(eds);
Paso 2 Para este ejemplo, ya que n = 1, se necesita calcular s olo la primera
derivada de g
o
(t), la que est a dada por:
g
o
(t)) = 4C
1
e
4t
C
2
e
t
(3.64)
Paso 3 Las constantes C
1
y C
2
se calculan a partir de las condiciones iniciales
(iguales a cero), es decir:
g
o
(0) = 0 =
1
4
+C
1
+C
2
(3.65)
g
o
(t))[
t=0
= 0 = 4C
1
C
2
(3.66)
52 CAP

ITULO 3. AN

ALISIS EN TIEMPO CONTINUO


respuestaa$\delta(t)$
respuesta!aimpulso
de donde C
1
=
1
12
y C
2
=
1
3
. Nuevamente, este resultado se puede obten-
er a traves del siguiente c odigo:
Maple
>eds:=Diff(Diff(go(t),t),t)+ 5*Diff(go(t),t)+4*go(t)-1;
>dsolve({eds, go(0)=0,D(go)(0)=0},go(t));
Paso 4 La respuesta a escal on unitario est a entonces dada por:
g(t) = 2g
o
(t) g
o
(t)) =
1
2
+
1
2
e
4t
e
t
(3.67)
222
3.4.2. Respuesta a impulso unitario
Considere la ecuaci on (3.1) en la p agina (3.1). Entonces la respuesta a un
impulso unitario, (t), y condiciones iniciales iguales a cero, se puede obtener
a partir de la respuesta a escal on unitario. Esta estrategia se basa en que el
sistema representado por la EDS (3.1) es lineal e invariante en el tiempo, pues
sus coecientes son constantes y el argumento de las funciones es t. De esta
forma se tiene la situaci on descrita en la gura 3.4.
S S
g(t)
x(0) = 0 x() = 0
(t) (t ) g(t )
invarianza en
tiempo
Figura 3.4: Efectos de la invarianza en el tiempo
Por lo tanto, usando linealidad:
dg(t)
dt
= lm
0
g(t) g(t )

= lm
0
T0, (t)))) T0, (t ))))

= lm
0
T0,
(t) (t )

))) = T0,
D
(t)))) = h(t) (3.68)
Entonces, h(t) =
dg(t)
dt
es la respuesta del sistema a un impulso unitario con
condiciones iniciales iguales a cero.
Aunque en algunos textos se propone calcular h(t) usando una estrategia
similar a la seguida para el c alculo de la respuesta a escal on unitario, en general
3.5. C

ALCULO DE LA RESPUESTA V

IA CONVOLUCI

ON 53
convoluci on
se~ nalcausal
ello no es aconsejable dada la especial naturaleza del delta Dirac. En efecto, esta
no es, en rigor, una funci on y no es diferenciable, por lo cual ocurren situaciones
parad ojicas. Por ultimo, desde el punto de vista meramente instrumental es
mucho m as simple calcular la respuesta a impulso usando la transformaci on de
Laplace, como se ver a en el Capitulo 7.
Ejemplo 3.8. Consideremos el mismo sistema descrito por (3.62), entonces
podemos calcular h(t) derivando la respuesta a escal on unitario en (3.67). As se
obtiene
h(t) =
dg(t)
dt
= 2e
4t
+e
t
t 0 (3.69)
222
Es importante anotar que las condiciones iniciales de un sistema son valores
conocidos para t = t

o
, pero las se nales pueden ser discontinuas en t = t
o
. Esto
es lo que ocurre en el Ejemplo 3.8, donde:
lm
t0

h(t) = 0 ,= lm
t0
+
h(t) = 1 (3.70)
En una perspectiva m as general, podemos observar que dada la relaci on entre
la respuesta a impulso y la respuesta a escal on, y considerando que esta ultima
contiene una combinaci on lineal de los modos naturales del sistema y una con-
stante, entonces h(t) contiene s olo modos naturales. Conceptualmente, es
esta la caracterstica que conere especial importancia a las respuestas a escal on
e impulso. En rigor, la respuesta a excitaciones m as complejas tambien contiene
una combinaci on de modos naturales (a traves de la componente homogenea de
la respuesta), sin embargo, la presencia de estos modos se ve oscurecida por la
componente particular o forzada de la respuesta.
Veremos, en la siguiente secci on una utilidad inmediata de estas considera-
ciones.
3.5. Calculo de la respuesta va convoluci on
Supongamos que se conoce la respuesta a impulso, h(t), de un sistema lineal
e invariante en el tiempo, con condiciones iniciales iguales a cero, entonces el
siguiente lema nos proporciona un resultado crucial en la teora de los sistemas
lineales.
Lema 3.1. Considere un sistema lineal e invariante en el tiempo. Sea adem as
h(t) la respuesta de ese sistema a un impulso unitario en la entrada, con condi-
ciones iniciales iguales a cero. Entonces, la respuesta y(t) del mismo sistema a
una excitaci on causal
2
arbitaria, f(t), con condiciones iniciales iguales a cero,
est a dada por:
2
Una se nal f(t) es causal si f(t) = 0 t < 0
54 CAP

ITULO 3. AN

ALISIS EN TIEMPO CONTINUO


y(t) =
_
t
0
f()h(t ) d t 0 (3.71)
Demostraci on
Sea i N y sea un incremento temporal, entonces, usando la propiedad
de invarianza en el tiempo, tenemos que:
h(t i) = T0, (t i)))) (3.72)
Luego, usando homogeneidad,
f(i)h(t i) = T0, f(i)(t i)))) (3.73)
Aplicando ahora superposici on (i = 0, 1, . . .) y haciendo 0, i se con-
vierte en una variable continua , as se llega a:
_

0
f()h(t )d = T0,
_

0
f()(t )d))) (3.74)
Finalmente, usando el Lema 2.1 y el hecho que h(t ) = 0 > t (por
causalidad), se obtiene:
y(t) = T0, f(t)))) =
_
t
0
f()h(t )d (3.75)
222
Observando la ecuaci on (3.75), y(t) se puede interpretar como una suma
ponderada (por f()) de respuestas a impulso h(t ). Note adem as que dado
que f(t) y h(t) son causales, entonces, la ecuaci on (3.71) tambien se puede
escribir como:
y(t) =
_

f()h(t ) d =
_

f(t )h() d t 0 (3.76)


Las integrales que aparecen en la ecuaci on (3.76) son una expresi on de la
convoluci on de dos funciones temporales. La denici on generica es:
f
1
(t) f
2
(t) =
_

f
1
()f
2
(t ) d =
_

f
1
(t )f
2
() d (3.77)
Adem as de la propiedad de conmutatividad en (3.77), la convoluci on tiene
la propiedad de distributividad, es decir:
f
1
(f
2
(t) +f
3
(t)) = f
1
(t) f
2
(t) +f
1
(t) f
3
(t) (3.78)
El uso de convoluci on para la determinaci on de la respuesta de un sistema
lineal tiene importancia conceptual y numerica, sin embargo, no es, en general,
un procedimiento analticamente simple. Para apreciar esto ultimo, veremos un
ejemplo.
3.5. C

ALCULO DE LA RESPUESTA V

IA CONVOLUCI

ON 55
transformadadeFourier
transformadadeLaplace
Ejemplo 3.9. Un sistema lineal tiene una respuesta a impulso unitario, con
condiciones iguales a cero, dada por h(t) = e
2t
(t). Determine, usando con-
voluci on la respuesta a la se nal u(t) = (t) (t 1).
Soluci on
La respuesta est a dada por:
y(t) = u(t) h(t) =
_
t

h()u(t )d
=
_
t

e
2
()((t ) (t 1 )d (3.79)
La integraci on se puede separar en tres intervalos, que a su vez se muestran
en la Figura 3.5:
u(t) h(t) =
_

_
_
0

u()h(t )d = 0 t < 0
_
t
0
u()h(t )d =
1
2
(1 e
2t
) 0 t < 1
_
1
0
u()h(t )d =
1
2
(e
2(t1)
e
2t
) 1 t
(3.80)
u()
h(t)

t
u()
h(t)
t

u()
h(t)

t
Figura 3.5: Ejemplo de descripci on gr aca de la convoluci on
222
Como se puede apreciar, el c alculo mismo de la convoluci on es complejo. En
realidad la importancia de ella se debe a que, por un lado, condensa la esencia
de la linealidad de los sistemas lineales (e invariantes en el tiempo), y por otro,
establece un nexo fundamental con el an alisis mediante las transformadas de
Fourier y de Laplace (Captulos 6 y 7, respectivamente).
De igual forma, la respuesta de un sistema lineal e invariante en el tiempo
se puede calcular a partir de la respuesta a escal on, como se demuestra en el
siguiente lema.
56 CAP

ITULO 3. AN

ALISIS EN TIEMPO CONTINUO


Lema 3.2. Sea una sistema lineal e invariante en el tiempo. Suponga que la
respuesta de ese sistema a un escal on unitario de entrada, con condiciones ini-
ciales iguales a cero, es g(t). Entonces la respuesta del sistema, bajo condiciones
iniciales iguales a cero, a una excitaci on u(t) est a dada por:
y(t) = g(t)
du(t)
dt
(3.81)
Demostraci on
La demostraci on sigue la misma lnea que el lema anterior. En primer lugar,
tenemos que la se nal de entrada u(t) puede ser expresada aproximadamente
como la suma de escalones de altura diferencial, es decir
3
:
u(t) =

i=
u((i + 1)) u(i)

(t i) (3.82)
donde u(t) tiende a u(t) cuando tiende a cero. Por otro lado:
g(t i) = T0, (t i)))) (3.83)
As, si el sistema es excitado con u(t) entonces, por linealidad e invarianza,
se obtiene que la respuesta, y(t), est a dada por:
y(t)

i=
u((i + 1)) u(i)

g(t i) (3.84)
Si nalmente hacemos tender a cero, el producto i se convierte en una
variable continua y tenemos que:
y(t) = lm
0
y(t) =
_

du()
d
g(t )d (3.85)
Esta ecuaci on corresponde al resultado deseado. Note que el lmite superior
puede ser reducido a = t, ya que suponemos que el sistema es causal, por lo
cual g(t ) es cero > t. Tambien, si u(t) es causal, el lmite inferior puede
ser reemplazado por cero.
222
3
Note que el lmite superior de la suma es aunque los sumandos para i > t/ son cero,
debido a la presencia del escal on (t i).
3.6. PROBLEMAS PARA EL LECTOR 57
3.6. Problemas para el lector
Problema 3.1. Resuelva las siguientes ecuaciones diferenciales con las condi-
ciones iniciales que se indican
d y
dt
+ 2y(t) = 0 y(0) = 1 (3.86)
d
2
y
dt
2
+ 7
d y
dt
+ 10y(t) = 0 y(0) = 1; y(0) = 2 (3.87)
d
2
y
dt
2
+ 4y(t) = 0 y(0) = 0; y(0) = 1 (3.88)
Problema 3.2. La respuesta de un sistema lineal e invariante en el tiempo a
un escal on unitario (con condiciones iguales a cero) est a dada por
g(t) = 1 e
t
+te
t
t 0 (3.89)
3.2.1 Determine la EDS.
3.2.2 Calcule la respuesta del mismo sistema a un impulso unitario.
Problema 3.3. Determine los modos asociados a las siguientes conjuntos de
frecuencias naturales
Sistema 1
1
= 2
2
= 2
3
= 2
Sistema 2
1
= 3
2
= 0
3
= 0
Sistema 3
1
= 1
2
= 1 +j2
3
= 1 j2
Problema 3.4. La respuesta de un sistema lineal e invariante en el tiempo a
un impulso unitario es h(t) = e
2t
(t). Usando convoluci on calcule la respuesta
del sistema a una entrada u(t) = e
3t
(t)
Problema 3.5. La ecuaci on caracterstica de un sistema est a dada por

2
+a + 4 = 0 (3.90)
3.5.1 Determine el rango de valores de a que hacen estable al sistema.
3.5.2 Dentro de ese rango determine el valor de a de modo que el sistema sea
lo m as r apido posible.
Problema 3.6. Suponga que la respuesta de un sistema lineal a un escal on
unitario con condiciones iniciales iguales a cero es una se nal g(t), que se muestra
en la Figura 3.6.
3.6.1 Es el sistema estable ?
3.6.2 Estime los modos naturales del sistema
58 CAP

ITULO 3. AN

ALISIS EN TIEMPO CONTINUO


0 5 10 15
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
Tiempo [s]
g
(
t
)
Figura 3.6: Respuesta a escal on unitario
3 2 1 0 1
4
3
2
1
0
1
2
3
4
Sistema 2
Eje real
E
j
e

i
m
a
g
i
n
a
r
i
o
2 1.5 1 0.5 0 0.5 1
2
1.5
1
0.5
0
0.5
1
1.5
2
Sistema 1
Eje real
E
j
e

i
m
a
g
i
n
a
r
i
o
Figura 3.7: Conguraci on de frecuencias naturales de dos sistemas
3.6.3 Estime la ganancia al modo forzante constante
Problema 3.7. Se calculan los valores caractersticos de dos sistemas y se
dibujan en el plano complejo, como se muestra en la Figura 3.7.
3.7.1 Determine los modos naturales de cada sistema.
3.7.2 Cu ales son las frecuencias dominantes en cada caso?
3.7.3 Cu al de los dos sistemas es m as r apido?
Problema 3.8. Considere la red electrica de la Figura 3.8, en donde se ha
agregado el modelo de red para el amplicador operacional.
3.8.1 Determine la ecuaci on diferencial que relaciona la entrada v
f
(t) con la
salida v
o
(t).
3.8.2 Si A 1, es el sistema estable?
3.6. PROBLEMAS PARA EL LECTOR 59
1
2
+
v
f
(t)
C
3
R
1
1 3
2
v
c
(t)
+
Av
c
(t)
4
v
o
(t)
1
2
3
4
4
R
2
Figura 3.8: Red electrica con amplicador operacional
3.8.3 Repita si A 1 (o, lo que es lo mismo, si se intercambian los terminales
1 y 2).
Problema 3.9. La ecuaci on diferencial de un sistema es:
d
2
y(t)
dt
2
+ 7
d y(t)
dt
+ 12y(t) =
d u(t)
dt
+ 2u(t) (3.91)
Calcule la ganancia del sistema para los siguientes modos: u
1
(t) = e
2t
,
u
2
(t) = 1 y u
3
(t) = cos(3t).
Problema 3.10. En un sistema lineal e invariante en el tiempo se sabe que
la ganancia al modo e
j2t
es 0, 3 + j0, 4, y que las frecuencias naturales est an
ubicadas en = 1 y = 0.
Calcule, si es posible, la respuesta y(t) del sistema cuando la entrada es
u(t) =

2 sen(2t +/4) y las condiciones iniciales son y(0) = 0 e y(0) = 2.


60 CAP

ITULO 3. AN

ALISIS EN TIEMPO CONTINUO


ecuaci onderecursi on|textbf
Captulo 4
Analisis en tiempo discreto
4.1. Introducci on
Para variables denidas solo en instantes discretos de tiempo, no es posible
denir la derivada, por tanto, la herramienta para describir sus variaciones en
el tiempo es la diferencia entre instantes sucesivos. De esta forma. Para los
sistemas de tiempo discreto el modelo matem atico central es la ecuaci on de
recursi on del sistema, ERS, la cual relaciona la entrada del sistema, u[t], con la
salida, y[t]. Para el caso de modelos linealizados, la entrada y salida son u[t]
y y[t], respectivamente.
La ERS es una descripci on cuantitativa del sistema especialmente util para
el an alisis numerico del mismo. Esto guarda relaci on con la naturaleza de los
algoritmos computacionales, en los que una iteraci on se basa en los resultados
de la iteraci on anterior. Por otro lado, una ERS surge tambien cuando se dis-
cretiza el modelo para un sistema lineal de tiempo continuo. El estudio de las
propiedades de la soluci on que realizaremos en este captulo ser a complementa-
do cuando, en captulos posteriores, se usen la transformada de Fourier discreta,
y la transformada Zeta.
En este captulo, an alogamente a lo que se hizo en el captulo precedente,
se desarrollan herramientas de an alisis que establecen relaciones estrechas entre
propiedades cuantitativas y cualitativas de los sistemas lineales (de tiempo dis-
creto). En particular, interesa cuanticar y construir indicadores de propiedades
relevantes tales como comportamiento natural, estabilidad, velocidad relativa y
ganancia.
4.2. Ecuaci on de recursi on del sistema (ERS)
La forma general de la ERS es
y[t] +a
n1
y[t 1] +. . . +a
1
y[t n + 1] +a
0
y[t n] =
b
m
u[t] +b
m1
u[t 1] +. . . +b
1
u[t m+ 1] +b
0
u[t m] (4.1)
61
62 CAP

ITULO 4. AN

ALISIS EN TIEMPO DISCRETO


causalidad
condicionesiniciales
operadoradelanto
promediom ovil
Esta forma de la ERS es una forma en la que la causalidad se cumple sin
condiciones para cualquier par de enteros positivos n y m. Esto se aprecia por
el hecho que la salida y[t] no depende de valores futuros de la entrada, aunque
s podra depender de valores presentes de la entrada.
Cuando la salida depende s olo de valores pasados de la entrada (b
m
= 0), se
habla de sistemas estrictamente causales.
La soluci on a esta ecuaci on debe cumplir adem as con las restricciones que
imponen las condiciones o estado inicial. Estas condiciones iniciales se reeren
usualmente a un conjunto de n valores y[i ], y[i 1], . . ., y[i n + 1], donde
i = 1 o, alternativamente
1
i = n 1. Note que estas alternativas no encierran
aspectos conceptuales, sino que reejan el hecho que la elecci on del instante
inicial es arbitraria. Una generalizaci on m as amplia dice que la ecuaci on (4.1)
puede ser resuelta si conocemos, aparte de la entrada u[t], un conjunto de valores
de la salida y[t] en cualquier conjunto de n instantes.
As como ocurre con los sistemas de tiempo continuo, conviene usar una
notaci on compacta, tipo operador, para denotar la operaci on corrimiento tem-
poral. Por esa raz on, introducimos el operador adelanto temporal, q denido
por
qf[t]) = qf[t]
Z
= f[t + 1] (4.2)
q
n
f[t]) = q
n
f[t] = f[t +n] (4.3)
q

f[t]) = q

f[t] = f[t ] (4.4)


Usando este operador, el modelo (4.1) puede ser escrito como
y[t] +a
n1
q
1
y[t] +. . . +a
1
q
n+1
y[t] +a
0
q
n
y[t] =
b
m
u[t] +b
m1
q
1
u[t 1] +. . . +b
1
q
m+1
u[t] +b
0
q
m
u[t] (4.5)
La ERS puede aparecer como modelo de situaciones muy diferentes. Consi-
deraremos varios casos a modo de ilustraci on.
Ejemplo 4.1 (Promedio m ovil). En estadsticas econ omicas se suele calcu-
lar indicadores que resultan de promediar el valor de ciertas variables durante
un n umero de perodos consecutivos
2
. Suponga que nos interesa la variable de-
sempleo, y que denimos el ndice de desempleo trimestral calculado como el
promedio de los porcentajes de desempleos de los tres ultimos meses. Entonces
la ecuaci on de recursi on es
y[t] =
1
3
(u[t] +u[t 1] +u[t 2]) (4.6)
222
1
El comando rsolve de Maple puede usar ambas opciones.
2
Esto se hace para disminuir el efecto de fen omenos ocasionales, propios de s olo parte del
perodo bajo an alisis (fen omenos estacionales)
4.2. ECUACI

ON DE RECURSI

ON DEL SISTEMA (ERS) 63


discretizaci on
Ejemplo 4.2 (Discretizaci on de ecuaciones diferenciales). Considere la
ecuaci on diferencial de primer orden
y(t) +y(t) = u(t) (4.7)
Entonces, si usamos la discretizaci on de Euler
3
para la primera derivada y
consideramos el tiempo discreto t = 0, , . . . se llega a
y(( + 1)) y()

+y() = u() (4.8)


Lo cual lleva a
y[t] + ( 1)y[t 1] = u[t 1] (4.9)
donde y[t] = y(( + 1)), y[t 1] = y(), u[t 1] = u().
222
Ejemplo 4.3 (Algoritmo computacional). Considere el siguiente c odigo de
programa
input N u1=0 y1=0 y2=0 For t=1,N
input u
y=0,7*y1-0,12*y2+0,2*u1
output y
u1=u
y2=y1
y1=y
end
Entonces podemos hacer la siguiente asociaci on de variables: u[t] = u, u[t
1] = u1, y[t] = y, y[t 1] = y1 e y[t 2] = y2. Por lo tanto en la iteraci on
t-esima tenemos que
y[t] = 0, 7y[t 1] 0, 12y[t 2] + 0, 2u[t 1] (4.10)
222
La ERS es un modelo din amico que establece una restricci on fundamen-
tal sobre ciertas combinaciones de la entrada, la salida y algunas versiones
retrasadas de ambas se nales.
Para ser m as especcos, consideremos una ecuaci on de recursi on de primer
orden
y[t] 0, 5y[t 1] = u[t 1] (4.11)
3
Aproximaci on de la derivada como una diferencia hacia adelante.
64 CAP

ITULO 4. AN

ALISIS EN TIEMPO DISCRETO


equilibrioestable
sistema!inestable
Observamos en (4.11) que la salida y[t] no puede variar arbitrariamente, sino
que existe una restricci on. Esa restricci on dice que en un instante arbitrario,
t = t
1
, la salida menos la mitad de la salida en un instante anterior debe ser
igual al valor que tena la entrada un instante anterior, u[t
1
1]. Para estudiar la
evoluci on de la salida del sistema conviene re-escribir (4.11) en la forma siguiente
y[t] y[t 1] = 0, 5y[t 1] +u[t 1] (4.12)
Supongamos ahora que u[1] = 0, u[t] = 2, t 0, e y[1] = 2, entonces
necesariamente y[1] y[0] = 2, 5, es decir, y[1] y[0] > 0 por lo cual, en t = 0, la
salida y, est a aumentando. Por otro lado, a medida que y[t] aumenta y se acerca
a 4, entonces y[t]y[t1] sigue siendo positiva, pero disminuye consistentemente
ya que 0, 5y[t 1] + u[t 1] se acerca a 0. En el lmite, cuando y[t] = 4, la
diferencia y[t] y[t1] es cero, lo cual dice que en ese instante y[t] ya no cambia,
es decir, se alcanza un punto de equilibrio estable.
Introduzcamos ahora una variante en (4.11) :
y[t] 1, 5y[t 1] = u[t 1] =y[t] y[t 1] = 0, 5y[t 1] +u[t 1] (4.13)
Si nuevamente u[t] = 2, t 0, e y[1] = 2, entonces y[1]y[0] = 1, lo cual
implica que en t = 0 la salida y est a aumentando. Sin embargo, a diferencia del
caso anterior, a medida que y aumenta, acerc andose a 2, su primera diferencia
crece, es decir, y[t] aumenta. Cuando y[t] = 2, se tiene que y[t] y[t 1] = 4, y
subiendo. En consecuencia, y sigue creciendo monot onicamente, pero siempre la
diferencia, y[t] y[t 1], debe cumplir con y[t] y[t 1] = 0, 5y[t 1] +u[t 1].
Es decir, no se alcanza un punto de equilibrio y, m as adelante, denimos este
tipo de sistemas como inestable.
Ambos casos pueden ser representados por la forma general de una ERS de
primer orden
y[t] +ay[t 1] bu[t] = 0 (4.14)
La forma (4.14) deja en evidencia el signicado de restricci on que tiene la
ERS.
El an alisis precedente se puede aplicar a ERS m as complejas, pero en esos
casos se pierde la visi on intuitiva, por ello nos conviene trasladarnos a un ambito
m as general, que es lo que hacemos a continuaci on.
4.3. La respuesta del sistema
La soluci on de la ERS condensa aspectos fundamentales del comportamiento
del sistema. Una aproximaci on intuitiva a esta conexi on indica que es esperable
que la excitaci on no s olo fuerce determinada conducta en la respuesta, sino
que en ese proceso revele aspectos claves de la naturaleza del sistema. Esta
percepci on justica el observar con detenci on la soluci on de la ERS y algunas
formas en que ella puede ser descompuesta para su mejor comprensi on. Note
que no analizaremos el problema de existencia y unicidad de la soluci on de (4.1).
4.3. LA RESPUESTA DEL SISTEMA 65
respuesta homog enea
soluci onhomog enea
4.3.1. Componente homogenea y componente particular
Una primera forma de escudri nar la respuesta del sistema es descomponerla
de modo de identicar aquella parte que captura la naturaleza del sistema, com-
ponente natural u homogenea, y la otra, que reeja la naturaleza especca
de la excitaci on, componente particular o forzada.
La componente homogenea, y
h
[t], satisface la ecuaci on homogenea asociada
a (4.1), es decir:
y
h
[t] +a
n1
q
1
y
h
[t] +. . . +a
0
q
n
y
h
[t] = 0 (4.15)
Antes de proseguir con el an alisis consideraremos un ejemplo.
Ejemplo 4.4. Suponga que la ERS est a dada por:
y[t] 0, 5y[t 1] = u[t 1] (4.16)
y que la respuesta y[t] debe satisfacer la condici on inicial y[0] = 1. Se desea
calcular la respuesta del sistema cuando u[t] = 1 para t 0.
y
h
[t]
La componente homogenea debe cumplir con:
y[t] 0, 5y[t 1] = 0 (4.17)
Esta ecuaci on es satisfecha por y
h
[t] = C(0, 5)
t
, para cualquier valor de la
constante C. Esto se verica reemplazando y
h
[t] en: (4.17)
C(0, 5)
t
0, 5C(0, 5)
t1
= C
_
(0, 5)
t
(0, 5)
t
_
= 0 (4.18)
y
p
[t]
La componente particular y
p
[t] es una funci on, independiente de las condi-
ciones iniciales, que debe satisfacer (3.16) con u[t] = 1. Como la entrada es una
constante, una soluci on tentativa es suponer que la soluci on particular tambien
es constante, digamos y
p
[t] = C
o
. Si esta suposici on es correcta, entonces existe
C
o
constante que satisface (4.16) y puede ser calculada reemplazando y
p
[t] = C
o
y u[t] = 1 en (4.16):
C
o
0, 5C
o
= 1 =C
o
= 2 (4.19)
Entonces la soluci on completa es y[t] = y
h
[t] + y
p
[t] = 2 + C(0, 5)
t
. La
constante C se calcula de modo que y[1] = 1:
y[1] = 1 = 2 +C(0, 5)
1
=C =
3
2
(4.20)
Por lo tanto la soluci on completa est a dada por:
y[t] = 2
3
2
(0, 5)
t
(4.21)
222
66 CAP

ITULO 4. AN

ALISIS EN TIEMPO DISCRETO


ecuaci on caracter stica
polinomiocaracter stico
4.3.2. Frecuencias y modos naturales
Volvamos ahora al problema general de calcular la componente homogenea
de la respuesta del sistema. Para ello repetimos la ecuaci on homogenea (4.15):
y
h
[t] +a
n1
q
1
y
h
[t] +. . . +a
0
q
n
y
h
[t] = 0 (4.22)
La soluci on para (4.22) puede ser construida en torno al siguiente lema.
Lema 4.1. La funci on f[t] = C
t
o
(
o
,= 0) satisface (4.22) para cualquier
constante C C si y s olo si
o
C satisface la ecuaci on caracterstica
asociada a la ecuaci on homogenea:
p
q
()
Z
=
n
+a
n1

n1
+. . . +a
1
+a
0
= 0 (4.23)
donde:
p
q
() =

=0
a

con a
n
= 1 (4.24)
es conocido como el polinomio caracterstico asociado a la ERS.
Demostraci on
Reemplazando f[t] en (4.22) se obtiene:
C
tn
o
_

n
o
+a
n1

n1
o
+. . . +a
1

o
+a
0
_
= 0 (4.25)
Por un lado (suciencia) se ve que si
o
satisface (4.23), entonces f[t] sat-
isface la ecuaci on homogenea.
Por otro lado (necesidad), si f[t] satisface la ecuaci on homogenea, entonces
(4.25) debe cumplirse t y dado que
o
,= 0, entonces p
q
(
o
) = 0.
222
Supongamos que las n races de p
q
() son distintas, entonces la soluci on
homogenea tiene la forma:
y
h
[t] =
n

i=1
C
i

t
i
(4.26)
Un caso m as complejo ocurre cuando algunas races de p
q
() son repetidas.
El lema que sigue se reere al caso de races dobles.
Lema 4.2. Si el polinomio caracterstico p
q
() tiene una raz doble, digamos
en =
1
, entonces la funci on f
2
[t] = Ct
t
1
satisface la ecuaci on homogenea
(4.22).
Demostraci on
Primero notamos que si p
q
() tiene una raz doble en =
1
, entonces:
d p
q
()
d

=1
=
n

=0
a

1
= 0; con a
n
= 1 (4.27)
4.3. LA RESPUESTA DEL SISTEMA 67
respuestaparticular
soluci onparticular
constantesindeterminadas
Luego, reemplazamos y
h
[t] por f
2
[t] en el lado izquierdo de (4.22), para de-
mostrar que es igual a cero.
n

=0
a

y
h
[t n +] =
n

=0
a

(t n +)
tn+
1
(4.28)
= (t n)
tn
1
n

=0
a

1
+
tn+1
1
n

=0
a

1
1
(4.29)
= (t n)
tn
1
p
q
(
1
)
. .
0
+
tn+1
1
d p
q
()
d

=1
. .
0
(4.30)
Con lo cual el lema queda demostrado.
222
El lector es invitado a demostrar el siguiente lema.
Lema 4.3. Si el polinomio caracterstico p
q
() tiene una raz de multiplicidad
n
1
en =
1
, entonces la funci on f
n
[t] = Ct
i

t
1
satisface la ecuaci on homogenea
(4.22) para i = 0, 1, . . . , n
1
1
222
De los resultados precedentes se puede ver que la ecuaci on homogenea tiene
innitas soluciones, las que pueden describirse genericamente como una familia.
Los miembros de esta familia se diferencian por los valores numericos especcos
que se pueden escoger para un conjunto de n constantes indeterminadas. De
la ecuaci on (4.22) se observa que podemos escoger libremente un conjunto de
valores arbitrarios para y[1], y[2], . . ., y[n]. Por cada conjunto elegido hay
una soluci on distinta.
Por su parte, la componente o soluci on particular es una funci on del tiempo
completamente determinada, es decir, independiente de las condiciones iniciales,
y que satisface la ecuaci on (3.1). La soluci on completa y[t] = y
h
[t] +y
p
[t] queda
totalmente determinada al usar las condiciones iniciales, aplicadas a la res-
puesta completa, y[t], para calcular las constantes indeterminadas presentes
en y
h
[t].
Si las soluciones de (4.23) son
1
,
2
, . . .
p
con multiplicidad n
1
, n
2
, . . . ,
n
p
respectivamente, tal que n
1
+ n
2
+ . . . + n
p
= n, entonces la forma general
de y
h
[t] es:
y
h
[t] =
p

=1
nt

i=1
C
i
t
i1

(4.31)
donde los C
i
son constantes arbitrarias (constantes indeterminadas) que gener-
an los grados de libertad necesarios para que la respuesta completa satisfaga
las condiciones iniciales.
68 CAP

ITULO 4. AN

ALISIS EN TIEMPO DISCRETO


frecuenciasnaturales
modosnaturales
modoforzante
modo forzante!gananciaa
ganancia!amodoforzante
modoforzado
Los valores de que satisfacen (4.23) son conocidos como autovalores, valores
propios o frecuencias naturales del sistema. Como la ecuaci on caracterstica
de la ERS tiene coecientes reales, cuando las soluciones son complejas, siempre
ocurren en pares conjugados.
A su vez, la funciones temporales de la forma:
t
i1

(4.32)
que aparecen en (4.31) se denominan modos naturales del sistema.
Los modos naturales se asocian unvocamente a las frecuencias naturales, y
la forma temporal de los primeros depende de la ubicaci on de los segundos en
el plano complejo. Un mapa general se aprecia combinando las Figuras 4.1 y
4.2 . En ambos gr acos se ha dibujado la circunferencia de radio unitario con
centro en el origen. La separaci on se ha hecho s olo para una mayor claridad.
En esas guras se asocia una se nal (modo natural) a cada frecuencia natural
de multiplicidad uno, excepto en el caso de frecuencias complejas, en que se
considera el par complejo conjugado.
4.3.3. Modos forzantes y modos forzados
La componente particular de la respuesta, y
p
[t], es una funci on estrechamente
ligada a la entrada, u[t]. Un caso simple, en que podemos apreciar esta relaci on,
es cuando u[t] puede describirse como una combinaci on lineal de funciones de
la forma
t
i
, es decir:
u[t] =

i=1
B
i

t
i
(4.33)
donde los
t
i
s son distintos enter s y ninguno de ellos coincide con alguna
frecuencia natural. Cada una de las funciones
t
i
recibe el nombre de modo
forzante.
Se puede vericar, usando la linealidad del sistema, que la soluci on particu-
lar, y
p
[t], est a dada por:
y
p
[t] =

i=1
y
pi
[t]; con y
pi
[t] = K
i
B
i

t
i
(4.34)
y donde cada uno de los coecentes es:
K
i
=

m
=0
b
m
(
i
)

n
l=0
a
nl
(
i
)
l
; con a
n
= 1 (4.35)
La respuesta y
p
[t] contiene modos forzados. Bajo la suposici on anterior,
relativos a que los
t
i
s son distintos de las frecuencias naturales, todos los modos
forzados coinciden con modos forzantes.
4.3. LA RESPUESTA DEL SISTEMA 69
ganancia
ganancia!acontinua
1
z
Figura 4.1: Relaci on entre la ubicaci on de las frecuencias naturales (de multi-
plicidad uno) y los modos naturales (caso decreciente).
Observe que podemos identicar a K
i
con una ganancia asociada al modo
forzante i-esimo. Cuando el modo forzante es una constante, es decir,
t
= 1
t
,
se habla de la ganancia a continua o ganancia a frecuencia cero.
Para facilitar la comprensi on del concepto de ganancia a modos, considere-
mos un ejemplo.
Ejemplo 4.5. Considere la ERS lineal
y[t]0, 5y[t1] = 2u[t1]; entonces n = m = 1; a
1
= 1; a
0
= 0, 5; b
0
= 2
(4.36)
Supongamos que la entrada es u[t] = 5+4 cos(t/4+/7), entonces podemos
expresarla como:
u[t] =
3

i=1
B
i
e
it
= 5
t
1
+
_
2e
j

7
_

t
2
+
_
2e
j

7
_

t
3
(4.37)
70 CAP

ITULO 4. AN

ALISIS EN TIEMPO DISCRETO


z
1
Figura 4.2: Relaci on entre la ubicaci on de las frecuencias naturales (de multi-
plicidad uno) y los modos naturales (caso no decreciente).
donde
1
= 1,
2
= e
j

4
y
3
= e
j

4
, es decir, hay tres modos forzantes
presentes. Las ganancias est an dadas por (4.35), y para este caso particular:
K
1
=
b
0

1
+a
0
=
2
0, 5
= 4 (4.38)
K
2
=
b
0

1
2
1 +a
0

1
2
= 0, 7630 j2, 605 = 2, 7144e
j1,286
(4.39)
K
3
=
b
0

1
2
1 +a
0

1
2
= 0, 7630 +j2, 605 = 2, 7144e
j1,286
(4.40)
222
El tratamiento general de la soluci on particular ser a pospuesto para captulos
futuros; pero en el intertanto podemos establecer un hecho trascendente
4.3. LA RESPUESTA DEL SISTEMA 71
estabilidad
c rculounitario
discounitario
Los sistemas lineales exhiben ganancias distintas para modos forzantes dis-
tintos, y esta capacidad de discriminaci on es la base para el an alisis y dise no
de sistemas de procesamiento de se nales y para otras aplicaciones.
4.3.4. Estabilidad
Como ya hemos mencionado, los modos naturales describen aspectos es-
enciales de un sistema lineal. En primer lugar, los modos naturales guardan
estrecha relaci on con la idea de estabilidad. Intuitivamente podemos denir
un sistema lineal (o, mejor dicho, un modelo lineal) como estable si todas las
variables (se nales) del sistema permanecen acotadas ante cualquier excitaci on
acotada o estado inicial acotado. Si consideramos s olo el efecto de condiciones
iniciales, resulta que la estabilidad requiere que los modos naturales sean todos
acotados. Sin embargo, veremos que la estabilidad de un sistema requiere que
todos los modos naturales decaigan en el tiempo.
Como cada modo natural depende de una frecuencia natural, son estas, es
decir, las races de la ecuaci on caracterstica, las que determinan la estabilidad
del sistema. Consideremos el caso de un modo de la forma generica:
y
h1
[t] = C
t
; C (4.41)
Sea = e
j
, entonces:
y
h1
[t] = C
t
= C
t
e
jt
= C
t
(cos(t) +j sen(t)) (4.42)
De la expresi on anterior se observa que y
h1
[t] decae a medida que el tiempo
transcurre si y s olo si
t
decae, y esto ocurre si y s olo si [[ = < 1. Dicho de
otra forma, si y s olo si est a al interior del crculo o disco unitario (excluyen-
do su borde). Esto se reeja los modos que aparecen en la Figura 4.1 y, por
contradicci on, en la Figura 4.2.
En resumen, tenemos la siguiente denici on de estabilidad, conocida como
estabilidad asint otica:
Diremos que un modelo lineal e invariante en el tiempo (discreto) es estable
si y s olo si todos sus modos naturales decaen asint oticamente a cero, es decir,
si y s olo si todas sus frecuencias naturales tienen magnitud estrictamente
menor que uno. Si una o m as de las frecuencias naturales del modelo tienen
magnitud mayor o igual que uno, diremos que el modelo es inestable.
Denimos, en consecuencia, la regi on de estabilidad en el plano com-
plejo, para sistemas de tiempo discreto, como el crculo unitario abierto, es
decir excluyendo la circunferencia unitaria. La necesidad de esta exclusi on se
demostrar a m as adelante. Sin embargo, el ejemplo siguiente permite apreciar el
origen de las dicultades cuando una frecuencia natural est a en la circunferencia
unitaria.
72 CAP

ITULO 4. AN

ALISIS EN TIEMPO DISCRETO


velocidad
frecuencianatural!dominante
modo natural!dominante
Ejemplo 4.6. Sea un sistema cuya ERS est a dada por:
y[t] y[t 1] = 2u[t 1] (4.43)
Entonces el sistema tiene s olo una frecuencia natural, y ella est a ubicada
en = 1, esto signica que el modo natural que aparecer a en la respuesta del
sistema es
t
= 1. As, la respuesta homogenea es y
h
[t] = C
1
. Supongamos que
la entrada es una constante t 0, digamos u[t] = U
o
, entonces la componente
particular de la respuesta es y
p
[t] = 2U
o
t. De esa forma la respuesta completa es
y[t] = C
1
+ 2U
o
t donde C
1
debe calcularse para satisfacer la condici on inicial.
En todo caso, lo relevante de este ejemplo es que aunque la entrada es una
simple constante, la salida crece en forma no acotada a medida que el tiempo
evoluciona. El sistema es, entonces, inestable.
Podemos apreciar mejor la naturaleza de este sistema, si (4.43) es escrita
como:
y[t] = y[t 1] + 2u[t 1] (4.44)
Esta ecuaci on puede ser asociada con el c aculo de una integral por aproxi-
maci on rectangular cuando el ancho de los rect angulos es 2. Al nal, el resultado
del ejemplo muestra que la integral de un escal on es una rampa.
222
4.3.5. Velocidad
Un segundo aspecto de interes en relaci on con las frecuencias y modos nat-
urales guarda relaci on con la velocidad con que evolucionan las variables de un
sistema.
Dentro de la clase de sistemas estables, podemos distinguir diferencias no-
tables, no s olo por la distinta naturaleza de los valores propios, sino por las
velocidades comparativas a las que decaen las componente homogeneas de la
respuesta de los distintos sistemas. Por ejemplo, consideremos dos sistemas con
las componentes homogenas que se indican:
Sistema 1 y
h1
[t] = C
11
0, 9
t
+C
12
0, 5
t
(4.45)
Sistema 2 y
h2
[t] = C
21
0, 2
t
+C
22
0, 7
t
(4.46)
Vemos que y
h1
[t] est a dominada por el modo natural 0, 9
t
, pues esta se nal de-
cae m as lentamente que el otro modo natural 0, 5
t
. Por su parte, y
h2
[t] est a dom-
inada por el modo natural 0, 7
t
, el que decae m as lentamente que el modo 0, 2
t
.
As diremos que el Sistema 1 tiene una frecuencia natural dominante igual
a 0, 9, con un modo natural dominante 0, 9
t
. A su vez, el Sistema 2 tiene una
frecuencia natural dominante igual a 0, 7, con un modo natural dominante 0, 7
t
.
Al comparar ambos sistemas podemos concluir, en primera aproximaci on, que
el Sistema 1 es m as lento que el Sistema 2, porque su modo dominante decae
m as lentamente.
4.3. LA RESPUESTA DEL SISTEMA 73
En general, si = e
j
, con 0 < 1, el modo natural tiene la forma:

t
=
t
(cos(t) +j sen(t)) (4.47)
De esta ecuaci on se observa que este modo decae m as r apidamente cuanto
m as peque no es . As, los sistemas estables son m as r apidos cuanto m as cercanos
al origen del plano complejo est an sus frecuencias naturales dominantes.
4.3.6. Respuesta a estado inicial y respuesta a entrada
Una forma alternativa de descomponer la respuesta de un sistema es consid-
erar por separado la componente de la respuesta debida al estado inicial, y
x
[t],
y la componente de la respuesta debida a la entrada, y
u
[t], es decir:
y[t] = Tx
o
, u[t]))) = Tx
o
, 0)))
. .
yx[t]
+T0, u[t])))
. .
yu[t]
(4.48)
En consecuencia, y
x
[t] satisface:
y
x
[t] +a
n1
q
1
y
x
[t] +. . . +a
0
q
n
y
x
[t] = 0 (4.49)
sujeta a las condiciones iniciales denidas en un vector x
o
. Esto sig-
nica que y
x
[t] es una combinaci on lineal de modos naturales, en donde las
constantes dependen de las condiciones iniciales (las que deben ser satisfechas
por la soluci on completa de la ERS).
A su vez, la respuesta a entrada, y
u
[t], es una soluci on de la ERS con condi-
ciones iniciales iguales a cero, es decir, satisface:
y
u
[t] +a
n1
q
1
y
u
[t] +. . . +a
0
q
n
y
u
[t]
= b
m
u[t] +b
m1
q
1
u[t] +. . . +b
0
q
m
u[t] (4.50)
sujeta a condiciones iniciales cero. Para poder cumplir la restricci on que
imponen estas condiciones, y
u
[t] debe contener, adem as de los modos forzados,
una combinaci on lineal de modos naturales cuyas constantes son calculadas de
modo que se cumpla aquella restricci on.
La Tabla 4.1 muestra una comparaci on de los modos presentes en las de-
scomposiciones descritas de la respuesta de un sistema.
y
h
[t] y
p
[t] y
x
[t] y
u
[t]
modos naturales

modos forzados

Cuadro 4.1: Presencia de modos en descomposiciones de la respuesta
Es adem as importante el notar que:
74 CAP

ITULO 4. AN

ALISIS EN TIEMPO DISCRETO


y[t] = y
h
[t] +y
p
[t] = y
x
[t] +y
u
[t] (4.51)
No obstante, en general, y
h
[t] ,= y
x
[t] e y
p
[t] ,= y
u
[t].
Aanzaremos estas ideas a traves del ejemplo 4.4 en que se muestra la de-
scomposici on en componente homogenea y particular, para un caso particular.
Ejemplo 4.7. Suponga que la ERS est a dada por:
y[t] 0, 5y[t 1] = u[t 1] (4.52)
y que la respuesta y[t] debe satisfacer la condici on inicial y[1] = 1. Se desea
calcular la respuesta del sistema si u[t] = 1 para t 1.
y
x
[t]
La respuesta a estado inicial debe cumplir con:
y
x
[t] 0, 5y
x
[t 1] = 0 (4.53)
y con y
x
[1] = 1. Esta ecuaci on es satisfecha por y
x
[t] = C(0, 5)
t
, con C =
0, 5, es decir:
y
x
[t] = 0, 5(0, 5)
t
(4.54)
y
u
[t]
La respuesta a entrada, y
u
[t], es una soluci on para (4.52) con u[t] = 1, y
sujeta a y
u
[1] = 0.
De esta forma, la soluci on completa es
y
u
[t] = y
uh
[t] +y
up
[t] (4.55)
donde y
uh
[t] es una soluci on de la ecuaci on homogenea, es decir y
uh
[t] = C
u
(0, 5)
t
,
e y
up
[t] es la soluci on particular
4
y
up
[t] = 2. C
u
se calcula de modo de obtener
y
u
[1] = 0, lo cual conduce a C
u
= 1.
Finalmente:
y
x
[t] = 0, 5(0, 5)
t
(4.56)
y
u
[t] = (0, 5)
t
+ 2 (4.57)
y[t] = y
x
[t] +y
u
[t] = 1, 5(0, 5)
t
+ 2 (4.58)
Este resultado tambien puede ser obtenido directamente con el c odigo:
Maple
>rsolve({y(n)=0.5*y(n-1)+1, y(-1)=-1},y(t));
4
Esta soluci on particular se puede calcular usando la ganancia al modo 1
t
.
4.3. LA RESPUESTA DEL SISTEMA 75
respuesta transitoria
respuesta estacionaria
De esta forma, podemos ahora completar la Tabla 4.1 para el caso de las
soluciones obtenidas para este ejemplo. Esto se muestra en la Tabla 4.2.
y
h
[t] y
p
[t] y
x
[t] y
u
[t]
modos naturales 1, 5(0, 5)
t
0, 5(0, 5)
t
(0, 5)
t
modos forzados 2 2
Cuadro 4.2: Presencia de modos en descomposiciones de la respuesta del ejemplo
222
Las dos descomposiciones de la respuesta del sistema que se han desarrollado
permiten observar esa respuesta desde dos perspectivas diferentes
En la descomposici on componente homogenea componente particular se
observa la estructura de la respuesta. En efecto, en esa partici on queda en
evidencia la presencia de dos tipos de modos: modos naturales (incluidos en
la componente homogenea) y modos forzados (incluidos en la componente
particular).
En la descomposici on respuesta a estado inicial respuesta a entrada se
separan los efectos de las dos causas de que el sistema tenga una respuesta:
las condiciones iniciales y las excitaciones o entradas aplicadas.
Note que aunque las condiciones iniciales sean cero, los modos naturales
igual se encuentran presentes en la respuesta del sistema a traves de la respuesta
debida a la entrada, y
u
[t].
Un comentario nal sobre la respuesta del sistema es que es usual hablar de
respuesta transitoria y respuesta estacionaria. La respuesta estacionaria
corresponde a la respuesta del sistema cuando ha transcurrido mucho tiempo
desde el instante inicial. Por su parte la respuesta transiente es aquella parte de
la respuesta que se extingue con el tiempo.
En el ejemplo 3.6 en la p agina 47, la respuesta estacionaria est a dada por el
modo forzado constante, mientras que la respuesta transitoria est a formada por
los modos naturales (sinusoidales amortiguadas).
La separaci on en componentes estacionaria y transitoria es transversal a
la idea de modos naturales y modos forzados. La respuesta estacionaria puede
existir incluso si la entrada es cero. En ese caso est a formada exclusivamente por
modos naturales. Por ejemplo, si un sistema tiene modos naturales sinusoidales
y la entrada es una exponencial decreciente, entonces la respuesta estacionaria
contendr a los modos naturales sinusoidales y la respuesta transitoria incluir a el
modo forzado por la exponencial.
Por otro lado, si el sistema tiene ganancia cero a un modo forzante, el cor-
respondiente modo forzado no aparecer a en la respuesta estacionaria.
76 CAP

ITULO 4. AN

ALISIS EN TIEMPO DISCRETO


respuesta!a$\mu[t]$
respuesta!aescal on
4.4. Respuesta a se nales de prueba
Una forma de estudiar, y comparar en forma estandarizada el comportamien-
to de un sistema es determinar su respuesta para excitaciones de prueba. Entre
esas se nales de prueba se consideran usualmente: el escal on unitario, el impulso
unitario y la se nal sinusoidal. En esta secci on nos concentraremos en las dos
primeras, pues la respuesta ante se nales sinuosidales ser a materia de estudio en
el Captulo 5).
4.4.1. Respuesta a escal on unitario
Considere la ecuaci on (4.1) en la p agina 61. Entonces la respuesta, g[t], a un
escal on unitario y condiciones iniciales iguales a cero
5
, se puede obtener
de la siguiente forma:
Paso 1 Determine la soluci on general de la ecuaci on:
g
o
[t] +a
n1
q
1
g
o
[t] +. . . +a
0
q
n
g
o
[t] = 1 (4.59)
Note que g
o
[t] contiene una parte natural u homogenea (combinaci on lineal
de modos naturales de la forma (4.31)) y una componente particular o
forzada. Cuando el sistema no tiene frequencias naturales en = 1, g
o
[t]
tiene la forma:
g
o
[t] = K
o
+
p

=1
n

i=1
C
i
t
i1

t n (4.60)
donde K
o
es la ganancia del sistema con ERS (4.59) al modo constante
1
t
, es decir:
K
o
=
1

n
i=0
a
i
; con a
n
= 1 (4.61)
En el caso general en que el sistema tiene una frequencia natural en = 1,
con multiplicidad p, g
o
[t] tiene la forma:
g
o
[t] = K
p
t
p1
+
p

=1
n

i=1
C
i
t
i1

t n (4.62)
Hemos anotado que esta expresi on para g
o
[t] es v alida t n ya que
satisface las condiciones iniciales.
Paso 2 Calcule la se nales retardadas q

g
o
[t], para = 1, 2, . . ., n.
5
Elegimos, por simplicidad, g[1] = g[2] = . . . = g[n] = 0
4.4. RESPUESTA A SE

NALES DE PRUEBA 77
Paso 3 Calcule las constantes C
i
usando la restricci on de las condiciones ini-
ciales iguales a cero, es decir, usando el hecho que:
q

g
o
[t][
t=0
= 0 = 0, 1, . . . , n 1 (4.63)
Paso 4 Usando las propiedades de linealidad e invarianza, obtenga g[t] de
acuerdo a:
g[t] = b
m
g
o
[t] +
m

i=1
b
mi
q
i
g
o
[t][t i ] (4.64)
El procedimiento anterior es ilustrado con el siguiente ejemplo.
Ejemplo 4.8. Consideremos la ERS:
y[t] 0, 9q
1
y[t] + 0, 2q
2
y[t] = 2u[t] +q
1
u[t] (4.65)
Entonces las frecuencias naturales son soluciones de
2
0, 9+0, 2 = 0, es
decir
1
= 0, 5 y
2
= 0, 4.
Luego, seguimos los pasos bosquejados previamente:
Paso 1 Calculamos la soluci on general de:
g
o
[t] 0, 9q
1
g
o
[t] + 0, 2q
2
g
o
[t] = 1 (4.66)
que resulta ser g
o
[t] =
10
3
+ C
1
(0, 5)
t
+ C
2
(0, 4)
t
. Note que el termino
10
3
corresponde a la ganancia a continua, es decir, al modo forzante 1
t
.
Paso 2 Para este ejemplo, ya que n = 2, se necesita calcular g
o
[t1] y g
o
[t2]:
g
o
[t 1] =
10
3
+C
1
(0, 5)
t1
+C
2
(0, 4)
t1
=
10
3
+ 2C
1
(0, 5)
t
+ 2, 5C
2
(0, 4)
t
(4.67)
g
o
[t 2] =
10
3
+C
1
(0, 5)
t2
+C
2
(0, 4)
t2
=
10
3
+ 4C
1
(0, 5)
t
+ 6, 25C
2
(0, 4)
t
(4.68)
Paso 3 Las constantes C
1
y C
2
se calculan a partir de las condiciones iniciales
(iguales a cero), es decir:
g
o
[1] = 0 =
10
3
+ 2C
1
+ 2, 5C
2
(4.69)
g
o
[2] = 0 =
10
3
+ 4C
1
+ 6, 25C
2
(4.70)
78 CAP

ITULO 4. AN

ALISIS EN TIEMPO DISCRETO


respuesta!a$\delta[t]$
respuesta!aimpulso
de donde C
1
= 5 y C
2
=
8
3
. Lo cual conduce a:
g
o
[t] =
10
3
5(0, 5)
t
+
8
3
(0, 4)
t
t 2 (4.71)
Este resultado se puede obtener a traves del siguiente c odigo:
Maple
>ers:=go(n)-0.9*go(n-1)+0.2*go(n-2)-1;
>rsolve({ers,go(-1)=0,go(-2)=0},go(t));
Paso 4 La respuesta a escal on unitario est a entonces dada por:
g[t] = 2g
o
[t] g
o
[t 1][t 1] (4.72)
=
20
3
10(0, 5)
t
+
16
3
(0, 4)
t
+
_
10
3
5(0, 5)
t1
+
8
3
(0, 4)
t1
_
[t 1] t 2
(4.73)
=
20
3
10(0, 5)
t
+
16
3
(0, 4)
t
+
_
10
3
10(0, 5)
t
+
20
3
(0, 4)
t
_
[t 1] t 2
(4.74)
Note que g
o
[t 1][t 1] = g
o
[t 1][t], ya que g
o
[t 1][t][
t=0
= 0.
As tenemos que
6
g[t] = 10 20(0, 5)
t
+ 12(0, 4)
t
t 0 (4.75)
222
4.4.2. Respuesta a impulso unitario
Considere la ecuaci on (4.1) en la p agina 61. Entonces la respuesta a un
impulso unitario, [t], y condiciones iniciales iguales a cero, se puede obtener a
partir de la respuesta a escal on unitario.Esta estrategia se basa en que el sistema
representado por la ERS (4.1) es lineal e invariante en el tiempo.
Recordemos que:
[t] = [t] [t 1] (4.76)
Entonces, la respuesta h[t], a un impulso unitario est a dada por:
6
Note que esta expresi on no es v alida para t = 1 y t = 2
4.5. C

ALCULO DE LA RESPUESTA VIA CONVOLUCI

ON 79
convoluci on
h[t] = g[t] g[t 1][t 1] t n (4.77)
Como las condiciones iniciales son cero, g[t 1][t 1] = g[t 1][t], ya
que g[t 1][t][
t=0
= 0. As la respuesta a un impulso unitario con condiciones
iniciales iguales a cero est a dada por:
h[t] = g[t] g[t 1] t 0 (4.78)
Aunque en algunos textos se propone calcular h[t] usando una estrategia
similar a la seguida para el c alculo de la respuesta a escal on unitario, en general
desde el punto de vista meramente instrumental es mucho m as simple calcular
la respuesta a impulso usando la transformada Zeta, como se ver a en el Captulo
8.
Ejemplo 4.9. Consideremos el mismo sistema descrito por (4.65), entonces
podemos calcular h[t] construyendo la primera diferencia de la respuesta a es-
cal on unitario en (4.72). As se obtiene:
h[t] = 10 20(0, 5)
t
+ 12(0, 4)
t
10 + 20(0, 5)
t1
12(0, 4)
t1
(4.79)
= 20(0, 5)
t
18(0, 4)
t
t 0 (4.80)
222
En una perspectiva general, podemos observar que dada la relaci on entre la
respuesta a impulso y la respuesta a escal on, y considerando que esta ultima
contiene una combinaci on lineal de los modos naturales del sistema y una con-
stante, entonces h[t] contiene s olo modos naturales. Conceptualmente, es
esta la caracterstica que conere especial importancia a las respuestas a escal on
e impulso. En rigor, la respuesta a excitaciones m as complejas tambien contiene
una combinaci on de modos naturales (a traves de la componente homogenea de
la respuesta), sin embargo, la presencia de estos modos se ve oscurecida por la
componente particular o forzada de la respuesta.
Veremos, en la siguiente secci on una utilidad inmediata de estas considera-
ciones.
4.5. Calculo de la respuesta via convoluci on
Supongamos que se conoce la respuesta a impulso, h[t], de un sistema lineal
e invariante en el tiempo, con condiciones iniciales iguales a cero, entonces, el
siguiente lema nos proporciona un resultado crucial en la teora de los sistemas
lineales de tiempo discreto.
Lema 4.4. Considere un sistema lineal e invariante en el tiempo. Sea adem as
h[t] la respuesta de ese sistema a un impulso unitario en la entrada, con condi-
ciones iniciales iguales a cero. Entonces, la respuesta y[t] del mismo sistema a
80 CAP

ITULO 4. AN

ALISIS EN TIEMPO DISCRETO


se~ nalcausal
una excitaci on causal
7
arbitaria, u[t], con condiciones iniciales iguales a cero,
est a dada por:
y[t] =
t

=0
u[]h(t ) t 0 (4.81)
Demostraci on
Recordemos que toda se nal u[t] puede expresarse por:
u[t] =

=0
u[][t ] (4.82)
Por otro lado, dada la invarianza del sistema tenemos que:
h[t ] = T0, [t ]))) (4.83)
Luego, usando homogeneidad:
u[]h[t ] = T0, u[][t ]))) (4.84)
Aplicando ahora superposici on se llega a:

=0
u[]h[t ] = T0,

=0
u[][t ]))) (4.85)
Finalmente, usando (4.82) y el hecho que h[t] = 0 > t (por causalidad),
se obtiene:
y[t] = T0, u[t]))) =
t

=0
u[]h[t ] t 0 (4.86)
222
En la ecuaci on (4.86) y[t] se puede interpretar como una suma ponderada
(por u[]) de respuestas a impulso h[t ].
Note que dado que u[t] y h[t] son causales, entonces, la ecuaci on (4.81)
tambien se puede escribir como:
y[t] =

=
u[]h[t ] =

=
u[t ]h[] t 0 (4.87)
Las sumas que aparecen en la ecuaci on (4.87) son una expresi on de la con-
voluci on de dos funciones temporales. La denici on generica es:
f
1
[t] f
2
[t] =

=
f
1
[]f
2
[t ] =

=
f
1
[t ]f
2
[] (4.88)
7
Una se nal u[t] es causal si u[t] = 0 t < 0
4.5. C

ALCULO DE LA RESPUESTA VIA CONVOLUCI

ON 81
Aparte de la propiedad de commutatividad que aparece en (4.88), la con-
voluci on tiene la propiedad de distributividad, esto es:
f
1
(f
2
[t] +f
3
[t]) = f
1
[t] f
2
[t] +f
1
[t] f
3
[t] (4.89)
Otra propiedad fundamental de la convoluci on est a dada por el siguiente
lema.
Lema 4.5. La convoluci on de un se nal con un impulso de Kronecker en el
origen, [t], es la se nal misma, es decir:
u[t] [t t
o
] = u[t t
o
] (4.90)
Demostraci on
u[t][tt
o
] =

=
u[][tt
o
] =

=
u[tt
o
][tt
o
] = u[tt
o
] (4.91)
Note que el ultimo paso de la demostraci on se basa en que una funci on de
tiempo discreto es un tren de impulsos de Kronecker cuya amplitud es el valor
instant aneo de la se nal.
222
El uso de convoluci on para la determinaci on de la respuesta de un sistema
lineal tiene importancia conceptual y numerica, sin embargo, no es, en general,
un procedimiento analticamente simple. Es interesante observar que el c alculo
de la convoluci on entre dos se nales discretas se puede ilustrar de manera muy
simple: si consideramos dos tiras de papel, en una de las cuales se anotan los
valores de la primera se nal y, en la otra los de la segunda, entonces la convoluci on
se realiza invirtiendo una de las tiras y retrocediendola sobre la otra. Para cada
retroceso, la convoluci on corresponde a multiplicar los valores coincidentes y
sumar los productos resultantes. Esto se muestra en el siguiente ejemplo.
Ejemplo 4.10. Un sistema lineal tiene una respuesta a impulso unitario, con
condiciones iguales a cero, dada por h[t] = (0, 5)
t
[t]. Determine, usando con-
voluci on la respuesta a la se nal u[t] = [t] [t 3].
Soluci on
La respuesta est a dada por
y[t] = u[t] h[t] =
t

u[]h[t ]
=
t

(0, 5)
t
[t ]([] [ 3]) (4.92)
La suma o acumulaci on se puede segmentar en tres intervalos:
82 CAP

ITULO 4. AN

ALISIS EN TIEMPO DISCRETO


transformadadeFourier
transformadaZeta
u[t] h[t] =
_

_
1

=
u[]h[t ]d = 0 t < 0
t

=0
u[]h[t ]d = 2 (0, 5)
t
0 t < 3
2

=0
u[]h[t ]d = 7(0, 5)
t
t 3
(4.93)
Una resoluci on compacta se puede desarrollar usando el hecho que la entrada
se puede expresar como la suma de tres impulsos unitarios, es decir:
u[t] = [t] [t 3] = [t] +[t 1] +[t 2] (4.94)
De esta forma podemos calcular la respuesta usando la propiedad de distribu-
tividad de la convoluci on, seguida por la aplicaci on del Lema 4.5:
y[t] = h[t] u[t] = h(t) ([t] +[t 1] +[t 2])
= (0, 5)
t
[t] + (0, 5)
t1
[t 1] + (0, 5)
t2
[t 2] (4.95)
222
Como se puede apreciar, el c alculo mismo de la convoluci on es complejo. En
realidad la importancia de ella se debe a que, por un lado, condensa la esencia
de la linealidad de los sistemas lineales (e invariantes en el tiempo), y por otro,
es un nexo de conexi on con el an alisis en el dominio de las transformadas de
Fourier discreta y Zeta (Captulos 6 y 8, respectivamente).
La convoluci on en tiempo discreto es ampliamente usada para construir la
respuesta de sistemas lineales, invariantes en el tiempo y causales, cuando se
conoce la respuesta a un impulso unitario. Esto se debe a la simplicidad de las
expresiones del Lema 4.4.
La respuesta de un sistema lineal e invariante en el tiempo se puede calcular
a partir de la respuesta a escal on, como se muestra en el el siguiente lema.
Lema 4.6. Sea un sistema lineal e invariante en el tiempo. Suponga que la
respuesta de ese sistema a un escal on unitario de entrada, con condiciones ini-
ciales iguales a cero, es g[t]. Entonces la respuesta del sistema, bajo condiciones
iniciales iguales a cero, a una excitaci on u[t] est a dada por:
y[t] = u[t] (g[t] g[t 1]) = g[t] (u[t] u[t 1]) (4.96)
Demostraci on
Dado que [t] = [t] [t 1], entonces, por linealidad e invarianza, la
respuesta h[t], a un impulso unitario puede expresarse como:
h[t] = g[t] g[t 1] (4.97)
Esto lleva inmediatamente al primer resultado, dado que:
4.5. C

ALCULO DE LA RESPUESTA VIA CONVOLUCI

ON 83
y[t] = u[t] h[t] = u[t] (g[t] g[t 1]) (4.98)
Para demostrar la segunda parte del resultado, notamos que la se nal de en-
trada, u[t] puede expresarse como la suma de escalones incrementales, es decir:
u[t] =

=
(u[] u[ 1])[t ] (4.99)
Luego, usando la linealidad y la invarianza vemos que:
y[t] = T0, u[t]))) =

=
(u[] u[ 1])g[t ] (4.100)
Y, nalmente, reconocemos en la sumatoria la forma de la convoluci on, es
decir:

=
(u[] u[ 1])g[t ] = g[t] (u[t] u[t 1]) (4.101)
222
84 CAP

ITULO 4. AN

ALISIS EN TIEMPO DISCRETO


4.6. Problemas para el lector
Problema 4.1. Resuelva las siguientes ecuaciones de recursi on con las condi-
ciones iniciales que se indican:
y[t] 0, 2y[t 2] = 0 y[1] = 1; y[2] = 1 (4.102)
y[t] 0, 6y[t 1] + 0, 09y[t 2] = 0 y[1] = 2; y[1] = 1 (4.103)
y[t + 1] 1, 3y[t] + 0, 4y[t 1] = 0 y[0] = 0; y[5] = 0 (4.104)
y[t] 4y[t 1] + 9y[t 2] = 0 y[1] = 0; y[2] = 1 (4.105)
y[t] y[t 10] = 0 y[1] = 1; y[i] = 0 i > 1
(4.106)
Verique con Maple .
Problema 4.2. Calcule la respuesta a escal on unitario, con condiciones iguales
a cero para cada una de las ERS:
y[t] 0, 2y[t 2] = u[t] (4.107)
y[t] 0, 6y[t 1] + 0, 09y[t 2] = u[t 1] u[t 2] (4.108)
y[t] 1, 3y[t 1] + 0, 4y[t 2] = 0, 2u[t 10] (4.109)
y[t] 2y[t 1] +y[t 2] = u[t] (4.110)
Verique con Maple .
Problema 4.3. Considere la se nal:
f[t] = 2(0, 6)
t
2(0, 2)
t
(4.111)
4.3.1 Proponga una ERS de modo que f[t] corresponda (t 0) a la respuesta
del sistema a impulso con condiciones iniciales iguales a cero.
4.3.2 Proponga una ecuaci on de recursi on homogenea, de modo que f[t]
corresponda a la respuesta a estado inicial. Especique ese estado inicial.
Problema 4.4. La respuesta de un sistema lineal e invariante en el tiempo a
un escal on unitario y condiciones inciales iguales a cero est a dada por:
g[t] = (1 (0, 5)
t
+t(0, 5)
t
)[t] (4.112)
4.4.1 Determine la ERS.
4.4.2 Calcule la respuesta del mismo sistema a un impulso unitario.
4.6. PROBLEMAS PARA EL LECTOR 85
Problema 4.5. Determine los modos asociados a las siguientes conjuntos de
frecuencias naturales:
Sistema 1
1
= 0, 2
2
= 0, 2
3
= 0, 2
Sistema 2
1
= 0, 3
2
= 0, 3
3
= 2
Sistema 3
1
= 1
2
= 0, 1 +j0, 2
3
= 0, 1 j0, 2
Problema 4.6. La respuesta de un sistema lineal e invariante en el tiempo
a un delta de Kronecker es h[t] = (0, 7)
t
[t]. Usando convoluci on calcule la
respuesta del sistema a una entrada u[t] = (0, 3)
t
[t].
Problema 4.7. La ecuaci on caracterstica de un sistema est a dada por:

2
+a +b = 0 (4.113)
4.7.1 Suponga que b = 0, 8; determine el rango de valores de a que hacen estable
al sistema.
4.7.2 Dentro de ese rango determine el valor de a de modo que el sistema sea
lo m as r apido posible.
4.7.3 Suponga ahora que b = 1, 2, repita 4.7.1.
Problema 4.8. Suponga que la respuesta de un sistema lineal a un escal on
unitario con condiciones iniciales iguales a cero es una se nal g[t], que se muestra
en la Figura 4.3.
4.8.1 Es el sistema estable ?
4.8.2 Estime los modos naturales del sistema
4.8.3 Estime la ganancia al modo forzante constante
1 0 1 2 3 4 5 6 7 8 9 10
0
0.5
1
1.5
Tiempo [s]
g
[
k
]
Figura 4.3: Respuesta a escal on unitario
86 CAP

ITULO 4. AN

ALISIS EN TIEMPO DISCRETO


Problema 4.9. Se contrae una deuda hipotecaria de 1000 [UF] a un interes
mensual de 0, 7 %. Si el plazo de la deuda es de 120 meses Cu al debiera ser el
dividendo mensual, constante, en UF?
Problema 4.10 (Problema-desafo). En la red de la Figura 4.4 todas las
resistencias son iguales a R. Considere como variable independiente, no al tiem-
po discreto sino que al n umero de orden de la malla. Construya una ecuaci on
de recursi on en las corrientes de mallas y especique las condiciones (inicial y
nal).
+
i
1
i
0
i
n2 i
n1
i
n
E
Figura 4.4: Red resistiva.
Fourier
seriedeFourier|textbf
sistema!nolineal
Captulo 5
Analisis bajo excitaciones
peri odicas
5.1. Se nales Peri odicas
En este captulo se analiza el caso de sistemas lineales sujetos a excitaciones
peri odicas en el tiempo. Las se nales peri odicas aparecen en muchas areas de la
Ingeniera y en fen omenos naturales. Sin embargo, estas se nales, en general, no
se presentan como oscilaciones puras de una frecuencia especca que se puedan
describir exactamente por una sinusoide del tipo sen(t), sino que como se nales
m as arbitrarias, tales como se nales triangulares, se nales tipo dientes de sier-
ra, trenes de pulsos o sinusoidales recticadas, entre otras, cuya caracterstica
fundamental es su periodicidad en el tiempo.
Es m as, en algunas oportunidades se nales peri odicas no sinusoidales resultan
de efectos par asitos indeseables, de naturaleza no lineal, en sistemas reales. Por
ejemplo, considere el caso de un sistema amplicador con entrada u(t) y salida
y(t), cuya relaci on entrada-salida es:
y(t) = Au(t) + (u(t))
2
(5.1)
donde es mucho menor que la amplicaci on A. Entonces, si la entrada es
una se nal de una frecuencia especca u(t) = U cos(t), entonces la salida y(t)
est a dada por:
y(t) = AU cos(t) + U
2
(0, 5 + 0, 5 cos(2t)) (5.2)
De esta forma, podemos apreciar que la salida del sistema contiene tres
sinusoides de distinta frecuencia (0, y 2 [rad/s]), que deben ser consideradas
cuando esta se nal act ua como entrada de otro sistema.
Otros casos en que aparecen se nales peri odicas no sinusoidales incluyen el
corte de se nales sinusoidales (cuando la amplitud de una sinusoide excede cierto
87
88 CAP

ITULO 5. AN

ALISIS BAJO EXCITACIONES PERI

ODICAS
seriedeFourier
ganancia!amodoforzante
sinusoidal
amplitud
\angulo!dedesfase
fase
per odo
frecuencia!angular
frecuencia
nivel prescrito), la recticaci on de se nales sinusoidales, la intrevenci on de zonas
muertas, histeresis, etc.
La idea fundamental en este captulo ser a representar una funci on peri odica
como combinaci on lineal de sinusoides de ciertas frecuencias, como es el caso de
la serie de Fourier, el an alisis de los sistemas lineales se hace m as f acil, dado que
podemos usar las propiedades de superposici on y homogeneidad. El concepto
clave subyacente a utilizar es el de ganancia a modo forzante, desarrollado
en el Captulo 3, para sistemas de tiempo continuo, y en el Captulo 4, para
sistemas de tiempo discreto.
5.2. Respuesta a entrada sinusoidal. El caso de
tiempo continuo
Hasta el momento hemos visto la respuesta de sistemas lineales a diferentes
tipos de entradas (modos forzantes), incluyendo el caso de exponenciales de ex-
ponente imaginario (las que combinadas dan origen a sinuosoides reales). En esta
secci on nos detendremos en la caracterstica de ganancia que exhibe un sistema
lineal cuando la excitaci on es una sinuoside. Con ese prop osito consideremos un
sistema lineal estable modelado por su EDS:
d
n
y(t)
dt
n
+a
n1
d
n1
y(t)
dt
n1
+. . . +a
0
y(t) = b
n1
d
n1
u(t)
dt
n1
+. . . +b
0
u(t) (5.3)
donde la entrada del sistema es una se nal sinusoidal que puede escribirse de la
forma general:
u(t) = Acos(t +) (5.4)
en que (vea Captulo 2):
A es la amplitud, cuyas unidades dependen del sistema en cuesti on,
es el angulo de desfase (o simplemente fase), medido en [rad], y
es la frecuencia angular, medida en [rad/seg]. Esta, a su vez, determina la
frecuencia f =

2
[Hz] y el perodo T =
1
f
=
2

[seg] de la sinusoide.
Aplicando la f ormula de Euler se tiene que:
Acos(t +) = A
e
j(t+)
+e
j(t+)
2
= e
jt
+

e
jt
(5.5)
donde C,

es el complejo conjugado de y
=
A
2
e
j
(5.6)
Por otra parte sabemos que si K() C es la ganancia al modo forzante
e
jt
, entonces, por linealidad:
5.2. RESPUESTAAENTRADASINUSOIDAL. EL CASODE TIEMPOCONTINUO89
sistema!estable
modosnaturales
Tx
o
, Acos(t +)))) = K()e
jt
+ (K())

e
jt
+modos naturales
(5.7)
Donde K() es la ganancia a modo forzante y dada por (3.24), con
i
= j.
Si expresamos K() en su forma polar se llega a:
K() = [K()[e
ja()
(5.8)
As, se obtiene:
Tx
o
, Acos(t +)))) = [K()[Acos(t++
a
())+modos naturales (5.9)
Como el sistema es estable, los modos naturales decaen a cero cuando t ,
as, la respuesta estacionaria contiene s olo la componente particular, es decir,
contiene s olo los modos forzados y tiene la forma:
y(t) = A
s
() cos(t +
s
()) (5.10)
Esta forma puede ser directamente calculada reemplazando (5.10) en la EDS.
Cuando el modo forzante es una exponencial de la forma e
jt
, o una si-
nusoidal cos(t), la ganancia a modo forzante, K(), caracteriza lo que se
denomina respuesta en frecuencia del sistema.
El desarrollo precedente es ilustrado a traves de un ejemplo.
Ejemplo 5.1. Consideremos el sistema denido por su ecuaci on diferencial:
d
2
y(t)
dt
2
+ 4
d y(t)
dt
+ 13y(t) = 26u(t)
Supongamos que la entrada es u(t) = sen(t) y que todas las condiciones
iniciales son cero.
El sistema en primer lugar es estable, ya que sus frecuencias naturales se
encuentran ubicadas en
1,2
= 2 j3. Con esto sabemos entonces que la
soluci on homogenea tiene la forma:
y
h
(t) = e
2t
[B
1
cos(3t) +B
2
sen(3t)] (5.11)
Para obtener la soluci on particular reemplazamos la soluci on propuesta:
y
p
(t) = A
s
() sen(t +
s
()) (5.12)
que es equivalente a una expresi on de la forma
y
p
(t) = C
1
() cos(t) +C
2
() sen(t) (5.13)
90 CAP

ITULO 5. AN

ALISIS BAJO EXCITACIONES PERI

ODICAS
respuestaenfrecuencia
Los coecientes C
1
() y C
2
() se obtienen reemplazando la soluci on par-
ticular propuesta y la funci on de entrada en la ecuaci on diferencial original y
derivando:
C
1
()
2
cos(t) C
2
()
2
sen(t) + 4C
2
() cos(t) 4C
1
() sen(t)
+ 13C
1
() cos(t) + 13C
2
() sen(t) = 26 sen(t) (5.14)
De aqu, igualando los coecientes de cos(t) y de sen(t) a ambos lados,
pueden obtenerse los coecientes C
1
y C
2
:
C
1
() =
104
(13
2
)
2
+ (4)
2
(5.15)
C
2
() =
26(13
2
)
(13
2
)
2
+ (4)
2
(5.16)
Si se supone = 10[rad/s] y se combinan la soluci on homogenea y la partic-
ular, pueden obtenerse los coecientes por determinar de la soluci on homogenea
B
1
y B
2
. La soluci on nal es:
y(t) = y
h
(t) +y
p
(t) = e
2t
[0,113 cos(3t) + 0,899 sen(3t)]
0,113 cos(10t) 0,247 sen(10t) (5.17)

Esta se muestra en la Figura 5.1, donde se aprecia claramente la presen-


cia de una parte de la respuesta que es transiente, m as lenta, que desaparece
manteniendose s olo una oscilaci on sostenida de 10[rad/seg], pero de diferente
amplitud y fase que las de la se nal original. Estos valores de A
s
y
s
, que de-
penden de la frecuencia , son en este caso:
A
s
(10) =
_
C
1
(10)
2
+C
2
(10)
2
= 0,272 (5.18)

s
(10) = (C
2
(10) +jC
1
(10)) = 2, 7106 [rad] 155, 31
o
(5.19)
Una manera m as directa para obtener una descripci on generica de los resul-
tados anteriores sera calcular la respuesta en frecuencia K(), la que, en este
caso particular, est a dada por:
K() = [K()[e
ja()
=
26
(j)
2
+ 4j + 13
(5.20)
La magnitud y fase de esta respuesta en frecuencia aparecen en la Figura
5.2. En esta gura los valores de magnitud y fase de K(10) se pueden calcular
usando el comando de Matlab ginput, el resultado es [K(10)[ = 0, 2734 y

a
(10) = 2, 7188 [rad] (note que, en este ejemplo, A = 1).
222
5.2. RESPUESTAAENTRADASINUSOIDAL. EL CASODE TIEMPOCONTINUO91
0 1 2 3 4 5 6
1
0.5
0
0.5
1
Figura 5.1: Se nales de entrada y salida en el Ejemplo 5.1
0 5 10 15 20
0
0.5
1
1.5
2
2.5
Frecuencia [rad/s]
|
K
(

)
|
0 5 10 15 20
3
2.5
2
1.5
1
0.5
0
Frecuencia [rad/s]

a
(

)
Figura 5.2: Respuesta en frecuencia de un sistema de segundo orden de tiempo
continuo
Es necesario tener presente que en ciertos sistemas, a pesar de tener todas
sus frecuencias naturales en el interior de la zona de estabilidad, la respues-
ta a sinusoides de baja amplitud, incluye componentes sinuosidales de altsima
amplitud. Esto sucede en situaciones en que el sistema es excitado con una sinu-
soide de frecuencia muy cercana a una frecuencia natural pr oxima al lmite de
estabilidad (el eje imaginario). En este caso, dependiendo del amortiguamien-
to del sistema, la salida puede alcanzar el estado estacionario s olo despues de
mucho tiempo, y aunque analticamente la oscilaci on en la salida permanece
acotada, puede alcanzar magnitudes insostenibles para el sistema real
1
. Para
esto recomendamos al lector analizar en detalle el Problema 5.4.
Ejemplo 5.2. El fen omeno de respuestas inusualmente altas se origina en sis-
temas que exhiben altas ganancias a un modo forzante de la forma e
jt
. Con-
sidere, por ejemplo, el sistema con EDS:
d
2
y(t)
dt
2
+ 0, 01
d y(t)
dt
+ 4y(t) = 4y(t) (5.21)
1
Un caso tradicionalmente analizado en la fsica de las oscilaciones es el colapso del Puente
Tacoma en EE.UU.
92 CAP

ITULO 5. AN

ALISIS BAJO EXCITACIONES PERI

ODICAS
resonancia
En este ejemplo, que corresponde a un sistema estable, la ganancia a con-
tinua es igual a 1, sin embargo la ganancia a modo forzante e
j2t
est a dada por:
K() =
4
(j2)
2
+ 0, 01 (j2) + 4
= j200 (5.22)
Esto signica que una excitaci on sinuosidal de amplitud unitaria y frecuencia
2 [rad/s] genera una respuesta forzada de amplitud igual a 200. En casos
como este, se dice que, para esta excitaci on, el sistema entra en resonancia.
La idea de resonancia en un sistema se reere a la facilidad con que ese
sistema responde a determinadas frecuencias. Por ejemplo, todos conocemos la
facilidad con que se amplica la oscilaci on de un columpio cuando se lo empuja
con la frecuencia adecuada.
En terminos de la respuesta en frecuencia, el fen omeno descrito se reeja
en que la funci on [K()[ tiene uno o m as picos muy pronunciados.
222
Finalmente, cuando las frecuencias naturales del sistema se encuentran fuera
de la zona de estabilidad, la componente natural de la respuesta es no acotada.
Sin embargo, la componente forzada sigue siendo una oscilaci on de la misma
frecuencia que la sinusoide en la entrada. Para apreciar esto se recomienda al
lector analizar el Problema 5.5.
5.3. Series de Fourier para se nales de tiempo
continuo
La idea central tras las series de Fourier, sean ellas de tiempo continuo o de
tiempo discreto, es la representaci on de una funci on peri odica usando una base
ortogonal de funciones.
La idea de ortogonalidad adquiere su sentido m as b asico considerando con el
sistema cartesiano de coordenadas en R
2
o R
2
. Sin embargo, la diferencia basica
en el caso de las series de Fourier es que la dimensi on de la base es innita,
hecho usual en espacios de funciones [12].
Antes de analizar de lleno la representacion de funciones peri odicas en for-
ma de una serie de Fourier, sugerimos al lector revisar el Apendice B para
familiarizarse con la notaci on y el vocabulario empleado de aqu en adelante.
5.3.1. Serie de Fourier trigonometrica
Consideremos el espacio vectorial de todas las funciones seccionalmente con-
tinuas en un intervalo
2
[
T
2
,
T
2
], y en el, el conjunto de vectores (funciones):
B = 1 , cos(n
0
t) , sen(n
0
t)
n=1,2,...
;
0
=
2
T
(5.23)
2
En terminos generales el intervalo a considerar es [to, to + T]. Por simplicidad hemos
escogido to = T/2
5.3. SERIES DE FOURIER PARA SE

NALES DE TIEMPO CONTINUO 93


independencia lineal
ortogonalidad
SeriedeFourier
frecuenciafundamental
El conjunto denido en (5.23) resulta ser an alogo al conjunto de funciones
considerados en el Lema B.1 en la p agina 346, dado que son linealmente in-
dependientes , pues ninguna de las sinusoides (o la constante) del conjunto
puede describirse como una combinaci on lineal de las dem as. Adem as denimos
el producto interno en este espacio de funciones como la integral:
f(t), g(t)) =
_ T
2

T
2
f(t)

g(t)dt f(t), g(t) B (5.24)


Entonces el conjunto (5.23) resulta ser ortogonal , es decir, si tomamos dos
elementos y
m
(t) e y
n
(t) pertenecientes al conjunto B denido en (5.23):
y
n
(t), y
m
(t)) =
_ T
2

T
2
y
n
(t)y
m
(t)dt =
_
0 ; n ,= m
> 0 ; n = m
(5.25)
En este caso la conjugaci on involucrada en el producto interno no afecta a
las funciones del conjunto B, pues estas son todas reales.
Con esto podemos armar que una funci on y(t) seccionalmente continua
denida en el intervalo [
T
2
,
T
2
], puede representarse como una combinaci on
lineal de elementos de la base B, denida en (5.23), que en este caso tiene
dimensi on innita. Es decir, para y(t) tenemos una representaci on en serie de
Fourier de la forma:
y(t) = A
0
+

n=1
[A
n
cos(n
0
t) +B
n
sen(n
0
t)] ;
0
=
2
T
(5.26)
En que cada uno de los coecientes A
0
, A
n
, B
n
se puede obtener como indica
el Lema B.1. Por esto invitamos al lector en este punto a resolver el Problema
5.6, con lo que adem as podr a comprobar que las expresiones para los coecientes
de Fourier son:
A
0
=
1
T
_ T
2

T
2
y(t)dt
A
n
=
2
T
_ T
2

T
2
y(t) cos(n
0
t)dt
B
n
=
2
T
_ T
2

T
2
y(t) sen(n
0
t)dt
(5.27)
Nos interesa la representaci on en serie de Fourier conceptualmente y como
una herramienta para describir las funciones peri odicas como una combinaci on
lineal de constantes, cosenos y senos, cuyas frecuencias son m ultiplos enteros
de la frecuencia fundamental
0
determinada por su perodo T. La repre-
sentaci on (5.26) puede reescribirse alternativamente en la forma:
94 CAP

ITULO 5. AN

ALISIS BAJO EXCITACIONES PERI

ODICAS
espectro!enfrecuencia
arm onicas
desfase
angulo!de desfase
espectro!del nea
y(t) = A
0
+

n=1

C
n
cos(n
0
t
n
) (5.28)
en que:

C
n
=
_
A
2
n
+B
2
n
(5.29)

n
= arctg
_
B
n
A
n
_
(5.30)
En esta forma es m as directo apreciar el contenido o espectro en fre-
cuencia de la se nal y(t) a traves de la amplitud de cada una de las sinusoides
de frecuencia
n
= n
0
, que llamaremos n-esima arm onica. Adem as, esta
representaci on permite apreciar el angulo de desfase
n
entre las diferentes
arm onicas.
Si dibujamos en un gr aco las magnitudes de

C
n
en funci on de n, obtenemos
lo que se conoce como un espectro de lnea. Este gr aco permite observar las
participaciones relativas de la arm onicas en la composici on de la se nal.
Note que el c alculo directo de los coecientes

C
n
es m as complicado que el
de los coecientes A
n
y B
n
, ya que las sinusoides de la forma cos(n
0
t
n
) no
son ortogonales entre s.
Para ilustrar el c alculo de los coecientes de Fourier se presentan a contin-
uaci on algunos ejemplos. En primer lugar, desarrollamos un ejemplo calculando
analticamente los coecientes de la serie, para luego ilustrar el uso del soporte
computacional.
Ejemplo 5.3. Considere una onda cuadrada de amplitud 2 y perodo igual a 4
[s], tal como se ilustra en la Figura 5.3.
6 4 2 0 2 4 6
2
1
0
1
2
Tiempo [s]
S
e

a
l

y
(
t
)
Figura 5.3: Se nal cuadrada
La frecuencia fundamental es
o
= 2/T = /2 y los coecientes de la serie
se pueden calcular como se indica
5.3. SERIES DE FOURIER PARA SE

NALES DE TIEMPO CONTINUO 95


seriedeFourier!senoidal
A
0
=
1
T
_ T
2

T
2
y(t) dt = 0 (5.31)
Este resultado era previsible dada la simetra de areas sobre y bajo el eje de
abscisas.
A
n
=
2
T
_ T
2

T
2
y(t) cos(n
o
t) dt
=
1
2
_
0
2
2 cos(0, 5nt) dt +
1
2
_
2
0
2 cos(0, 5nt) dt = 0 (5.32)
La ausencia de componentes cosenoidales es tambien previsible, dado que la
se nal y(t) es una funci on impar del tiempo. La funci on quedara representada
entonces como una serie senoidal de Fourier, en que:
B
n
=
2
T
_ T
2

T
2
y(t) sen(n
o
t) dt =
1
2
_
0
2
2 sen(0, 5nt) dt+
1
2
_
2
0
2 sen(0, 5nt) dt
= 2
_
2
0
sen(0, 5nt) dt =
4
n
cos(0, 5nt)

t
0
=
4
n
(1 cos(n)) (5.33)
De esta manera resulta:
B
n
=
_
8
n
n impar
0 n par
(5.34)
La participaci on de las arm onicas puede ser visualmente apreciada en la
Figura 5.4.
0 2 4 6 8 10 12
0
0.5
1
1.5
2
2.5
3
Frecuencia angular, en mltiplos de
o
A
m
p
l
i
t
u
d

d
e

l
a
s

a
r
m

n
i
c
a
s
Figura 5.4: Espectro de lnea de una se nal cuadrada.
96 CAP

ITULO 5. AN

ALISIS BAJO EXCITACIONES PERI

ODICAS
angulo!dedisparo
222
El ejemplo precedente sugiere que el c alculo manual de los coecientes se
puede complicar notablemente para se nales de mayor complejidad. Este proceso
puede ser enormemente facilitado usando, por ejemplo, Maple .
Ejemplo 5.4. Uno de los procesos en que se generan se nales peri odicas no
sinusoidales es en la recticaci on. En realidad, para circuitos de potencia en
el control de motores, por ejemplo, en vez de diodos se utilizan tiristores, que
no son m as que diodos en que el instante de conducci on es controlado.

Estos
permiten recortar la se nal recticada, como se aprecia en la Figura 5.5 en que
los tiristores se disparan pasado un tercio del perodo de la se nal recticada. En
este caso se dice que el angulo de disparo es =

3
.
0 0.005 0.01 0.015 0.02 0.025 0.03
0
0.2
0.4
0.6
0.8
1
Time [s]
Figura 5.5: Se nal a la salida de recticador controlado por tristores
Claramente el recticador de onda completa es un caso particular de este
recticador controlado, cuando el angulo de disparo es = 0.
Con ayuda de Maple los coecientes se pueden obtener f acilmente, ahorr andonos
buena parte del trabajo algebraico. En las lneas siguientes se muestran los co-
mandos necesarios, entre los cuales se debe indicar explcitamente que 0 < <
y que n es un n umero entero. Se ha considerado, por simplicidad, que la fre-
cuencia original es 1[Hz] y la amplitud original es 1[V].
Maple
> assume(0<alpha,alpha<1):
> y(t):=(Heaviside(t-alpha)-Heaviside(t-Pi))*sin(t):
> A_0:=1/Pi*int(y(t),t=0..Pi);
> assume(n,integer):
> A(n):=2/Pi*int(y(t)*cos(2*n*t),t=0..Pi);
> B(n):=2/Pi*int(y(t)*sin(2*n*t),t=0..Pi);
5.3. SERIES DE FOURIER PARA SE

NALES DE TIEMPO CONTINUO 97


seriedeFourier!cosenoidal
A
0
=
1 + cos()

A
n
= 2
1 + 2 cos() (cos(n))
2
cos() + 4 n sen() sen(n) cos(n)
(1 + 2 n) (1 + 2 n)
B
n
= 4
cos() sen(n) cos(n) + 2 n sen() (cos(n))
2
n sen()
(1 + 2 n) (1 + 2 n)
222
Ejemplo 5.5. Consideremos la funci on peri odica y(t), denida por tramos:
y(t) =
_

_
1 +t ; 2 < t 0
1 t ; 0 < t 2
y(t + 4) ; en todo otro caso
(5.35)
En Maple se puede denir y convertir de inmediato para que quede escrita
en terminos de escalones (funci on de Heaviside):
Maple
> y(t):=convert(piecewise(t<-2,-t-3,t<0,t+1,t<2,-t+1,t-3),Heaviside);
y(t) = 3 t 4 Heaviside(t 2) + 2 tHeaviside(t 2) + 4 Heaviside(t + 2)
+ 2 tHeaviside(t + 2) 2 tHeaviside(t)
Si se calculan los coecientes seg un las expresiones (5.27), tenemos que el
valor medio A
0
es cero y, como es par, los coecientes B
n
son todos iguales a
cero. Los coecientes de los terminos cosenos se calculan mediante:
Maple
> A(n):=1/2*int(y(t)*cos(n*Pi/2*t),t=-2..2);
Por tanto y(t) queda expresada en una serie cosenoidal de Fourier, de la
forma:
y
s
(t) =

n=1
(1 (1)
n
)
_
2
n
_
2
cos
_
n
2
t
_
(5.36)
98 CAP

ITULO 5. AN

ALISIS BAJO EXCITACIONES PERI

ODICAS
error
En la Figura 5.6, podemos apreciar la aproximaci on de la funci on y(t) por
las primeras dos arm onicas no nulas (n = 1, 3). En esta, se observa que las
dos primeras arm onicas (con presencia no nula en la serie) describen bastante
bien la se nal original. Ello puede ser entendido al calcular las amplitudes de las
primeras diez componentes de la serie. Ellas aparecen en el espectro de lneas
de la Figura 5.7, donde se aprecia claramente que la amplitud de las arm onicas
superiores a la tercera es despreciable.
6 4 2 0 2 4 6
1
0.5
0
0.5
1
Tiempo [s]
S
e

a
l

y

a
p
r
o
x
i
m
a
c
i

n
Figura 5.6: Aproximaci on de la se nal triangular con la primera y tercera
arm onica
0 1 2 3 4 5 6 7 8 9
0
0.2
0.4
0.6
0.8
1
Frecuencia angular, en mltiplos de
o
A
m
p
l
i
t
u
d

d
e

l
a
s

a
r
m

n
i
c
a
s
Figura 5.7: Espectro de lnea de una se nal triangular
Finalment, en el gr aco de la Figura 5.8 (a) muestra el error que se comete
al representar la funci on por su serie truncada, en este caso hasta n = 3.
Podemos estudiar la delidad de la representaci on en serie de Fourier de una
se nal analizando lo que pasa con el error e
N
(t) = y(t) y
N
(t) que se comete
al representar una funci on y(t) por una combinaci on lineal nita o suma parcial
de las funciones de la base (5.23), hasta el termino N-esimo y
N
(t). Respecto a
este error e
N
(t) tenemos el siguiente lema.
Lema 5.1. La representaci on y
N
(t) es ortogonal al error e
N
(t), para todo N,
es decir:
5.3. SERIES DE FOURIER PARA SE

NALES DE TIEMPO CONTINUO 99


0.1
0.05
0.05
0.1
4 3 2 1 1 2 3 4
t
(a) Error e
3
(t) = y(t) y
3
(t) .
y
N
(t)
y(t)
e
N
(t)
(b) Interpretaci on geometrica del error
Figura 5.8:
e
N
(t), y
N
(t)) = 0 ; N (5.37)
Demostraci on
Si escribimos la suma parcial como:
y
N
(t) =
N

k=1

k
f
k
(t) (5.38)
en que los f
k
(t) son vectores de la base B, el producto (5.37) puede escribirse y
desarrollarse como:
e
N
(t), y
N
(t)) = y(t) y
N
(t), y
N
(t)) = y(t), y
N
(t)) y
N
(t), y
N
(t)) (5.39)
=
_
y(t),
N

k=1

k
f
k
(t)
_

_
N

k=1

k
f
k
(t),
N

j=1

j
f
j
(t)
_
(5.40)
=
N

k=1

k
y(t), f
k
(t))
N

k=1

k
_
f
k
(t),
N

j=1

j
f
j
(t)
_
(5.41)
Los vectores f
k
(t) son ortogonales, por tanto:
e
N
(t), y
N
(t)) =
N

k=1

k
y(t), f
k
(t))
N

k=1

2
k
f
k
(t), f
k
(t)) (5.42)
Los coecientes
k
, en tanto, se calculan de la forma:

k
=
y(t), f
k
(t))
f
k
(t), f
k
(t))
(5.43)
100 CAP

ITULO 5. AN

ALISIS BAJO EXCITACIONES PERI

ODICAS
Por lo tanto:
e
N
(t), y
N
(t)) =
N

k=1
y(t), f
k
(t))
f
k
(t), f
k
(t))
y(t), f
k
(t))
N

k=1
y(t), f
k
(t))
2
f
k
(t), f
k
(t))
2
f
k
(t), f
k
(t))
=
N

k=1
y(t), f
k
(t))
2
f
k
(t), f
k
(t))

N

k=1
y(t), f
k
(t))
2
f
k
(t), f
k
(t))
= 0 (5.44)
222
Este resultado permite apreciar que y
N
(t), con los coecientes calculados
seg un (5.27), es la combinaci on lineal que mejor representa a y(t) (en el
sentido de la norma cuadr atica), ya que, dada su ortogonalidad con el vector
de error e
N
(t), minimiza la distancia entre y(t) y el conjunto de funciones que
se generan por combinaci on lineal de los N elementos de la base. La Figura 5.8
(b) ilustra geometricamente la idea de ortogonalidad entre el error e
N
(t) y la
representaci on truncada y
N
(t).
Finalmente, es importante hacer notar que la representaci on obtenida en
(5.26), con los coecientes explicitados en (5.27), representa a la funci on y(t),
dentro del intervalo [
T
2
,
T
2
] sea esta peri odica o no. En este ultimo caso la
representaci on se debe entender v alida s olo dentro del intervalo en que se ha
calculado. Sin embargo, dado que dentro del intervalo de longitud T todas las
sinusoides del conjunto B completan un n umero entero de perodos, la period-
icidad de los elementos de B se extiende a la representaci on de y(t), es decir,
se repite en todo intervalo de la forma [kT
T
2
, kT +
T
2
] con k Z. Adem as
por simple traslaci on del intervalo en que trabajamos, es decir, corriendo del eje
temporal, el c alculo de los coecientes y la representaci on pueden tomarse en
cualquier intervalo arbitrario [t
o
, t
o
+ T]. En todo caso, el lector debe advertir
que si la se nal bajo an alisis no es peri odica, la representaci on ser a distinta para
distintas elecciones de t
o
.
5.3.2. Serie de Fourier exponencial
Si consideramos la representaci on en serie de Fourier obtenida para una
funci on seccionalmente continua y(t) obtenida en (5.26), podemos reescribirla
utilizando las expresiones para sen(t) y cos(t) en terminos de exponenciales
complejas:
y(t) = A
0
+

n=1
[A
n
cos(n
0
t) +B
n
sen(n
0
t)]
= A
0
e
j00t
+

n=1
_
A
n
e
jn0t
+e
jn0t
2
+B
n
e
jn0t
e
jn0t
2j
_
(5.45)
que puede reagruparse como:
5.3. SERIES DE FOURIER PARA SE

NALES DE TIEMPO CONTINUO101


seriedeFourier!exponencial
y(t) = A
0
e
j00t
+

n=1
_
A
n
jB
n
2
e
jn0t
+
A
n
+jB
n
2
e
jn0t
_
(5.46)
Es decir, podemos reescribir una serie de Fourier trigonometrica como una
serie de Fourier exponencial de la forma:
y(t) =

n=
C
n
e
jn0t
(5.47)
Una expresi on para los coecientes C
n
se puede obtener a partir de los
coecientes de la serie trigonometrica y la ecuaci on de Euler. Por ejemplo, para
n > 0:
C
n
=
A
n
jB
n
2
=
1
2
_
2
T
_ T
2

T
2
y(t) cos(n
0
t)dt j
2
T
_ T
2

T
2
y(t) sen(n
0
t)dt
_
=
1
T
_ T
2

T
2
y(t)(cos(n
0
t) j sen(n
0
t))dt (5.48)
Por tanto, tenemos la expresi on:
C
n
=
1
T
_ T
2

T
2
y(t)e
jn0t
dt (5.49)
Se deja al lector vericar que esta expresi on tambien es v alida para el resto
de los coecientes C
n
, cuando n 0. Si se presta atenci on a la forma de los coe-
cientes en la ecuaci on (5.46), puede apreciarse que aparecen en pares complejos
conjugados, es decir, n > 0:
C
n
=
A
n
jB
n
2
= [C
n
[e
jn
(5.50)
C
n
=
A
n
+jB
n
2
= [C
n
[e
jn
(5.51)
tal como tambien puede demostrarse a partir de la expresi on general (5.49)
para los coecientes de la serie compleja. Es decir, tenemos un nuevo conjunto
de funciones, complejas en este caso, de la forma:
e
jn0t

nZ
;
0
=
2
T
(5.52)
que constituye una base para el espacio de funciones seccionalmente continuas
en el intervalo [
T
2
,
T
2
]. Se deja al lector vericar que este conjunto tambien es
ortogonal bajo el producto interno antes denido, pero en que ahora la conju-
gaci on s afecta a las funciones involucradas:
102 CAP

ITULO 5. AN

ALISIS BAJO EXCITACIONES PERI

ODICAS
Parseval
Parseval
f
n
(t), f
m
(t)) =
_ T
2

T
2
f
n
(t)

f
m
(t)dt =
_ T
2

T
2
e
jn0t
e
jm0t
dt (5.53)
Que debe cumplir:
f
n
(t), f
m
(t)) =
_
0 ; n ,= m
> 0 ; n = m
(5.54)
Es importante hacer notar que en la manipulaci on que se ha hecho en la
serie de Fourier trigonometrica para llegar a la serie exponencial, han aparecido
valores para n negativos y positivos. Esto en realidad debe interpretarse nada
m as como lo que se ha mencionado: un producto de la manipulacio on algebraica
que permite obtener la representaci on en serie (5.47) m as compacta y f acil de
manipular. Si se desea obtener la amplitud de la n-esima arm onica de la serie
deben considerarse ambos terminos de la serie n y n, es decir, usando las
ecuaciones (5.50) y (5.51):
C
n
e
jn0t
+C
n
e
jn0t
= [C
n
[e
jn
e
jn0t
+[C
n
[e
jn
e
jn0t
= [C
n
[ e
j(n0tn)
+[C
n
[ e
j(n0tn)
= 2[C
n
[ cos(n
0
t
n
)
5.3.3. Parseval y la energa de las se nales peri odicas
Existe un conjunto de resultados, deducidos por Parseval, que relacionan
directamente caractersticas de la se nal peri odica con los coecientes de su Serie
de Fourier. En realidad, los resultados de Parseval se aplican a la expansi on en
cualquier base ortogonal. Los detalles matem aticos pueden ser examinados en
el Apendice B.
Supongamos que una se nal y(t) peri odica se expresa como serie en los ele-
mentos, f

(t), de una base ortogonal en el intervalo (T/2, T/2). Entonces:


y(t) =

=0

(t) (5.55)
Esto signica que:
y(t), y(t)) =
_

=0

(t),

=0

(t)
_
(5.56)
Si a continuaci on usamos la propiedad de ortogonalidad de los elementos de
la base, tenemos que:
y(t), y(t)) =

=0
[

[
2
f

(t), f

(t)) (5.57)
5.4. RESPUESTAAENTRADAS SINUSOIDALES. EL CASODE TIEMPODISCRETO103
sinusoidal
amplitud
\angulo!dedesfase
fase
per odo
frecuencia!angular
frecuencia
Note que el lado izquierdo en (5.57) representa el cuadrado del valor efectivo
de la se nal peri odica.
Para la serie de Fourier trigonometrica, usando la misma denici on del pro-
ducto interno (5.24), la expresi on (5.57) se reduce a:
_
T/2
T/2
(y(t))
2
dt = A
2
o
+
1
2

=0
(A
2

+B
2

) (5.58)
En el caso exponencial, la expresi on (5.57) est a dada por:
_
T/2
T/2
(y(t))
2
dt =

=
C

2
(5.59)
En (5.58) y en (5.59), el lado izquierdo representa la energa de la se nal
y(t) en un perodo. El lado derecho en ambas ecuaciones se nala que esa energa
puede ser computada como la suma de similar energa de cada arm onica.
5.4. Respuesta a entradas sinusoidales. El caso
de tiempo discreto
En esta secci on nos detendremos en la caracterstica de ganancia que exhibe
un sistema lineal de tiempo discreto cuando la excitaci on es una sinuoside. Con
ese prop osito consideremos un sistema lineal estable modelado por su ERS:
y[t] +a
n1
y[t 1] +. . . +a
1
y[t n + 1] +a
0
y[t n] =
b
m
u[t] +b
m1
u[t 1] +. . . +b
1
u[t m+ 1] +b
0
u[t m] (5.60)
Si la entrada del sistema es una se nal sinusoidal de tiempo discreto de perodo
N Z que puede escribirse de la forma:
u[t] = Acos(t +); con =
2
N
(5.61)
en que (vea Captulo 2):
A es la amplitud, cuyas unidades dependen del sistema en cuesti on,
es el angulo de desfase (o simplemente fase), medido en [rad], y
es la frecuencia angular discreta, medida en [rad]. Esta, a su vez, determina
la frecuencia discreta f =
1
N
[Hz] y el perodo T = N de la sinusoide.
Aplicando la f ormula de Euler se tiene que:
Acos(t +) = A
e
j(t+)
+e
j(t+)
2
= e
jt
+

e
jt
(5.62)
104 CAP

ITULO 5. AN

ALISIS BAJO EXCITACIONES PERI

ODICAS
sistema!estable
modosnaturales
donde C,

es el complejo conjugado de y:
=
A
2
e
j
(5.63)
Por otra parte, sabemos que si K() C es la ganancia al modo forzante
e
jt
, entonces, por linealidad:
Tx
o
, Acos(t +)))) = K()e
jt
+ (K())

e
jt
+modos naturales
(5.64)
Donde K() es la ganancia a modo forzante y est a dada por (4.35), con

i
= e
j
. Si expresamos K() en su forma polar se llega a:
K() = [K()[e
ja()
(5.65)
As, se obtiene:
Tx
o
, Acos(t +)))) = [K()[Acos(t ++
a
()) +modos naturales (5.66)
Como el sistema es estable, los modos naturales decaen a cero cuando t ,
as, la respuesta estacionaria contiene s olo la componente particular, es decir,
contiene s olo los modos forzados y tiene la forma:
y[t] = A
s
() cos(t +
s
()) (5.67)
Esta forma puede ser directamente calculada reemplazando (5.67) en la ERS.
Cuando el modo forzante es una exponencial de la forma e
jt
, la ganan-
cia a modo forzante, K(), caracteriza lo que se denomina respuesta en
frecuencia del sistema de tiempo discreto.
La teora precedente es ilustrada a traves de un ejemplo.
Ejemplo 5.6. Consideremos el sistema modelado por la ERS
y[t] 0, 7y[t 1] + 0, 12y[t 2] = 1, 5u[t] (5.68)
Supongamos que la entrada es u[t] = sen(t) y que todas las condiciones
iniciales son cero.
El sistema en primer lugar es estable, ya que sus frecuencias naturales se
encuentran ubicadas en
1
= 0, 4 y
1
= 0, 3, es decir, tienen magnitud menor
que 1. Con esto sabemos entonces que la soluci on homogenea tiene la forma:
y
h
[t] = B
1
(0, 4)
t
+B
2
(0, 3)
t
(5.69)
Para obtener la soluci on particular reemplazamos la soluci on propuesta
5.4. RESPUESTAAENTRADAS SINUSOIDALES. EL CASODE TIEMPODISCRETO105
y
p
[t] = A
s
() sen(t +
s
()) (5.70)
que es equivalente a una expresi on de la forma
y
p
[t] = C
1
() cos(t) +C
2
() sen(t) (5.71)
Los coecientes C
1
() y C
2
() se obtienen reemplazando la soluci on partic-
ular propuesta y la funci on de entrada en la ecuaci on de recursi on original.
Siguiendo la discusi on del Ejemplo 5.1 en la p agina 89, la modicaci on en
magnitud y fase que experimenta la sinuoside al pasar por el sistema, se puede
calcular de la respuesta en frecuencia del sistema. En este caso
K() =
1, 5e
2j
e
2j
0, 7e
j
+ 0, 12
(5.72)
Esta respuesta en frecuencia puede ser representada gr acamente, como se
muestra en la Figura 5.9
0 2 4 6 8
0.5
1
1.5
2
2.5
3
3.5
4
Frecuencia angular discreta [rad]
|
K
(

)
|
0 2 4 6 8
1
0.5
0
0.5
1
Frecuencia angular discreta [rad]

a
(

)
Figura 5.9: Respuesta en frecuencia de un sistema de segundo orden de tiempo
discreto
222
An alogamente a lo que ocurre en el caso de tiempo continuo, en ciertos
sistemas, a pesar de tener todas sus frecuencias naturales en el interior de la zona
de estabilidad, la respuesta a sinusoides de baja amplitud incluye componentes
sinuosidales de altsima amplitud. Esto sucede en situaciones en que el sistema
es excitado con una sinusoide de frecuencia muy cercana a frecuencias naturales
que se encuentran al interior del disco unitario, pero muy pr oximas al lmite de
estabilidad (en este caso, la circunferencia unitaria). En este caso, dependiendo
del amortiguamiento del sistema, la salida puede alcanzar el estado estacionario
s olo despues de mucho tiempo, y aunque analticamente la oscilaci on en la salida
permanece acotada, puede alcanzar magnitudes insostenibles para el sistema
real.
106 CAP

ITULO 5. AN

ALISIS BAJO EXCITACIONES PERI

ODICAS
resonancia
frecuencia!fundamental
arm onicas
Ejemplo 5.7. El fen omeno de respuestas inusualmente altas se origina en sis-
temas que exhiben altas ganancias a un modo forzante de la forma e
jt
. Con-
sidere, por ejemplo, el sistema:
y[t] 1, 4128y[t 1] + 0, 9980y[t 2] = 0, 5851u[t] (5.73)
Observamos que es un sistema estable, con frecuencias naturales
1,2
=
e
j
pi
4
. Note que estas frecuencias naturales se encuentran muy cercanas a la
circunferencia unitaria. La ganancia a continua de este sistema es 1. Sin em-
bargo, la ganancia a una frecuencia =

4
tiene magnitud 414, 0. Esto implica
que si la excitaci on es una sinusoide de amplitud unitaria y frecuencia =

4
,
la respuesta forzada ser a una sinuoside de amplitud 414, 0, es decir, para esta
excitaci on, el sistema entra en resonancia.
5.5. Serie de Fourier de tiempo discreto
Veamos ahora c omo pueden extenderse las ideas hasta aqu expuestas a la
representaci on de funciones denidas en instantes de tiempo discreto como suma
de sinusoides, tambien denidas en tiempo discreto.
Para sistemas de tiempo discreto, las series trigonometricas son poco us-
adas, preriendose la forma exponencial. Veremos que ello se debe a que las
exponenciales peri odicas involucradas tienen propiedades de simetra que hacen
mucho m as simple el c alculo de los coecientes, en comparaci on al c alculo de los
coecientes de la serie trigonometrica. As, consideramos se nales de la forma:
f[t] = e
jt
; t = 0, 1, 2, . . . (5.74)
Nuestro interes fundamental, al igual que para serie de Fourier trigonometri-
ca, es determinar c omo puede representarse una funci on peri odica como suma
de un termino constante y un conjunto de sinusoides de frecuencias m ultiplos
de la frecuencia fundamental.
Consideremos, por ejemplo, una funci on y[t] denida para t = 0, 1, 2, . . . , de
perodo N, es decir:
y[t +N] = y[t] ; t (5.75)
La frecuencia fundamental se dene an alogamente al caso continuo:

0
=
2
N
(5.76)
y las frecuencia arm onicas corresponden a los m ultiplos de la frecuencia fun-
damental
0
. Sin embargo, si observamos con atenci on la forma que toman las
exponenciales imaginarias para cada arm onica veremos que:
e
j0(+N)t
= e
j
2
N
(+N)t
= e
j
2
N
t
e
j2t
= e
j
2
N
t
(5.77)
5.5. SERIE DE FOURIER DE TIEMPO DISCRETO 107
Es decir, tenemos periodicidad en la frecuencia, ya que el resultado
(5.77) nos indica que la arm onica -esima es la misma que la ( + N)-esima,
y la misma en realidad que cualquiera de las ( + mN)-esimas, en que m es
cualquier n umero entero. Esto indica que el conjunto ortogonal es nito, con
s olo N componentes.
Por tanto para representar una funci on discreta y[t] de perodo N en serie
de Fourier nos basta simplemente una suma de las primeras N arm onicas:
y[t] =
N1

n=0
C
n
e
j0nt
;
0
=
2
N
(5.78)
Desde el punto de vista del algebra lineal queremos representar el vector y[t]
en terminos de los vectores del conjunto:
B
d
= 1, e
j0t
, e
j20t
, . . . , e
j(N1)0t
(5.79)
Si denimos un producto interno en este conjunto, an alogo al denido en
(5.24), la integral (suma continua) en un periodo fundamental se transforma en
una sumatoria (suma discreta):
f
1
[t], f
2
[t]) =
N1

t=0
f

1
[t]f
2
[t] (5.80)
Tendremos que para los vectores del conjunto B
d
, si n
1
,= n
2
:
e
j0n1t
, e
j0n2t
) =
N1

t=0
(e
j0n1t
)

e
j0n2t
(5.81)
=
N1

t=0
e
j0(n1+n2)t
(5.82)
Que es una suma geometrica
e
j0n1t
, e
j0n2t
) =
1 (e
j0(n1+n2)
)
N
1 e
j0(n1+n2)
(5.83)
Pero seg un (5.76) tenemos que N
0
= 2, y n
1
y n
2
son n umeros enteros, por
tanto, para n
1
,= n
2
, pues de otra forma el denominador se hace cero:
e
j0n1t
, e
j0n2t
) =
1 e
j2(n1+n2)t
1 e
j0(n1+n2)
= 0 (5.84)
y si n
1
= n
2
= n:
e
j0nt
, e
j0nt
) = |e
j0nt
|
2
=
N1

t=0
e
j0nt
e
j0nt
=
N1

t=0
1 = N (5.85)
108 CAP

ITULO 5. AN

ALISIS BAJO EXCITACIONES PERI

ODICAS
Es decir, el conjunto denido en (5.79) es ortogonal bajo el producto in-
terno (5.80). Por tant, los coecientes de la representaci on (5.78) se pueden
calcular usando el Lema B.1 en la p agina 346, con lo que se obtiene la expresi on
equivalente a (5.49), pero para las funciones discretas:
C
n
=
e
j0nt
, y[t])
e
j0nt
, e
j0nt
)
=
1
N
N1

t=0
y[t]e
j0nt
;
0
=
2
N
(5.86)
Es importante vericar que la expresi on obtenida en (5.86) usada en la rep-
resentaci on (5.78) garantiza que la suma es en efecto una funci on real. Para la
serie de Fourier exponencial se veric o que la suma de las arm onicas correspon-
dientes a los terminos n es real pues estos terminos resultan ser conjugados el
uno del otro. Para la serie de Fourier discreta, si observamos la expresi on para
el coeciente N , tenemos:
C
N
=
1
N
N1

t=0
y[t]e
j0(N)t
=
1
N
N1

t=0
y[t]e
j0Nt
e
j0t
=
1
N
N1

t=0
y[t]e
j0t
=
1
N
N1

t=0
(y[t]e
j0t
)

= (C

(5.87)
Es decir, el coeciente de la arm onica N es el complejo conjugado del
coeciente de la correspondiente -esima arm onica. O, en otras palabras, la
magnitud de los coecientes C

tiene simetra par respecto a


N
2
, mientras que
su fase (o angulo) tiene simetra impar con respecto a
N
2
. La arm onica N
puede ser expresada como:
e
j0(N)t
= e
j0Nt
e
j0t
= e
j0t
(5.88)
Es decir, ambas arm onicas y N correponden en realidad a una misma
frecuencia. Por tanto si sumamos los terminos correspondientes a ellas en la
representaci on, escribiendo sus coecientes en forma polar:
C

e
j0t
+C
N
e
j0(N)t
= C

e
j0t
+ (C

e
j0t
= [C

[e
j

e
j0t
+[C

[e
j

e
j0t
= 2[C

[ cos(
0
t +

) (5.89)
En base a esto podemos concluir que al representar una se nal peri odica
de tiempo discreto en forma de una Serie de Fourier, en realidad, la estamos
describiendo en terminos de N exponenciales peri odicas de la base (5.79), en
que N es el perodo de la funci on discreta. Pero estas corresponden en realidad
a un valor constante y k diferentes arm onicas, en que k =
N
2
, si N es par, y
k =
N1
2
si es impar.
5.5. SERIE DE FOURIER DE TIEMPO DISCRETO 109
espectrodel nea
matriz!deFourier
La serie de Fourier para una se nal de tiempo discreto puede ser descrita en
un gr aco en que aparece [C

[ en funci on de Z. Este diagrama es conocido


como el espectro de lnea de la se nal de tiempo discreto.
El problema de convergencia de la serie de Fourier para se nales de tiempo
discreto tiene un tratamiento mucho m as simple que en el caso de tiempo con-
tinuo. Esto se debe a que las amplitudes de las N arm onicas se pueden calcular
a partir de un sistema de ecuaciones linealmente independientes de la forma:
_

_
y[0]
y[1]
y[2]
.
.
.
y[N 1]
_

_
= W
N
_

_
C
0
C
1
C
2
.
.
.
C
N1
_

_
(5.90)
donde el elemento (i, j) de la matriz W
N
est a dado por:
[W
N
]
i,j
=
_
e
j0
_
(i1)(j1)
(5.91)
Las ecuaciones precedentes permiten calcular los coecientes que describen
exactamente la se nal peri odica y[t]. Note que la matriz W
N
tiene la forma
general:
W
N
=
_

_
1 1 1 1
1 w w
2
w
N1
1 w
2
w
4
w
N2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 w
N1
w
N2
w
_

_
(5.92)
donde w = e
j0
. Esta matriz se denomina matriz de Fourier, y es no singular
(ver Apendice F). De esta forma, el vector de la derecha en (5.90) puede ser
despejado al multiplicar por la inversa de W
N
.
Las ideas de Parseval tambien se aplican a se nales de tiempo discreto, aunque
en este caso el concepto de energa no tiene la connotaci on fsica que tiene en
tiempo continuo.
De esta forma, si una se nal peri odica y[t] tiene la expansi on en serie dada
por:
y[t] =
N1

=0

[t] (5.93)
donde las funciones f

[t] son elementos de una base ortogonal, entonces:


y[t], y[t]) =
N1

=0
[

[
2
f

[t], f

[t]) (5.94)
110 CAP

ITULO 5. AN

ALISIS BAJO EXCITACIONES PERI

ODICAS
sistema!lineal
ganancia!amodoforzante
respuestaenfrecuencia
que es equivalente a:
N1

t=0
y[t]
2
= N
N1

=0
[

[
2
(5.95)
5.6. Aplicaci on de las series de Fourier al anali-
sis de sistemas lineales
Cuando un sistema estable es excitado por una se nal peri odica, su respuesta
en estado estacionario tambien es una se nal peri odica. Esta respuesta, en general
no tiene la misma forma que la se nal de entrada, ya que el sistema amplica y
desfasa cada componente arm onica de la excitaci on, en general en forma distinta.
Para usar cuantitativamente las series de Fourier en el an alisis de un sis-
tema lineal, debemos calcular la ganancia a modo forzante del sistema para la
frecuencia de cada una de las arm onicas de interes, es decir, la respuesta en
frecuencia del sistema para cada una de esas arm onicas.
Estos conceptos son comunes tanto a los sistemas de tiempo continuo como
a los sistemas de tiempo discreto. Para apreciar mejor su aplicaci on consider-
aremos un ejemplo.
Ejemplo 5.8. Un sistema de tiempo continuo, denido por su EDS:

3
y(t) + 7
2
y(t) + 15y(t) + 54y(t) = 54u(t) (5.96)
es excitado con una se nal peri odica de frecuencia angular 1 [rad/s]. Entonces la
amplicaci on y desfase que experimentan la componente constante o continua y
las primeras nueve arm onicas, al pasar a traves del sistema, se pueden calcular
a partir de la expresi on que dene la respuesta en frecuencia del sistema:
K() =
54
(j)
3
+ 7(j)
2
+ 15(j) + 54
(5.97)
donde = 0; 1; 2; 3; . . . ; 9 [rad/s].
La respuesta en frecuencia es mostrada en la Figura 5.10, donde se ha in-
dicado la magnitud y fase de la respuesta a continua y la respuesta para las
frecuencias de la fundamental y de las primeras nueve arm onicas. Los valores
numericos se muestran en la Tabla 5.1. Al observar los datos obtenidos se apre-
cia que el sistema privilegia, en amplicaci on, la tercera arm onica.
Para ser m as especcos, supongamos que la excitaci on u(t) es una se nal
cuadrada, con valor medio cero. Usando Matlab o Maple podemos calcular
entonces la respuesta, y(t). La entrada y la salida son mostradas en la Figura
5.11.
La fuerte presencia de la tercera arm onica en la salida es claramente apre-
ciada, as como tambien es f acilmente apreciable el que la forma de onda de la
salida es muy diferente a la de la entrada.
5.7. PROBLEMAS PARA EL LECTOR 111
0 2 4 6 8 10
0
0.5
1
1.5
2
2.5
3
Frecuencia [rad/s]
|
K
(

)
|
0 2 4 6 8 10
5
4
3
2
1
0
Frecuencia [rad/s]

a
(

)
Figura 5.10: Respuesta en frecuencia de un sistema de tercer orden de tiempo
continuo.
Frecuencia [rad/s] Amplicaci on Desfase [rad]
0 1,0000 0,0000
1 1,1011 -0,2895
2 1,5855 -0,7023
3 2,6833 -2,0344
4 0,9288 -3,2104
5 0,4125 -3,5334
6 0,2301 -3,7083
7 0,1442 -3,8305
8 0,0972 -3,9244
9 0,0688 -4,0000
Cuadro 5.1: Amplitud y fase de las arm onicas en el Ejemplo 5.8.
5.7. Problemas para el lector
Problema 5.1. Determine la serie de Fourier trigonometrica de las siguientes
funciones
3
:
3
e.t.o.c. : En todo otro caso.
112 CAP

ITULO 5. AN

ALISIS BAJO EXCITACIONES PERI

ODICAS
0 2 4 6 8 10 12 14 16 18 20
3
2
1
0
1
2
3
Tiempo [s]
E
n
t
r
a
d
a

y

r
e
s
p
u
e
s
t
a
y(t)
u(t)
Figura 5.11: Comportamiento de un sistema con una excitaci on peri odica.
(a) y(t) =
_

_
1 ; < t 0
+1 ; 0 < t
y(t + 2) e.t.o.c.
(b) y(t) =
_
t ; 1 < t 1
y(t + 2) e.t.o.c.
(c) y(t) = [Acos(t)[
(d) y(t) = m ax0, Asen(t)
(e) y(t) = 4 sen
2
(t) (use identidades trigonometricas)
(f) y(t) = sen(t) + 6 cos
3
(t)(idem)
Para cado caso graque el espectro de lnea (use [

C
n
[).
Problema 5.2. Determine la serie de de Fourier exponencial que representa
a cada una de las siguientes funciones:
(a) y(t) = cos(2t) + sen(5t)
(b) y(t) =
_
e
t
0 t < 1
y(t + 1) e.t.o.c.
(c) y(t) =

n=
(t nT)
(d) Todas las funciones del problema anterior.
Problema 5.3. Considere el sistema de primer orden:
5.7. PROBLEMAS PARA EL LECTOR 113
d y(t)
dt
+ 10y(t) = 10u(t)
Suponga que u(t) es la se nal peri odica de la Figura 5.12.
0 2 4 6 8 10 12
1.5
1
0.5
0
0.5
1
1.5
2
2.5
Tiempo [s]
u
(
t
)
Figura 5.12: Tren de pulsos
5.3.1 Determine las tres primeras arm onicas (n = 1, 2, 3) del desarrollo en
serie de Fourier de u(t).
5.3.2 Determine la respuesta del sistema a la suma de esas tres arm onicas
puesta en la entrada, es decir, a la serie de Fourier de u(t), pero truncada.
5.3.3 Graque la salida y(t) obtenida, y comp arela con la simulaci on en Mat-
lab del sistema sometido a la entrada original u(t). Comente.
Problema 5.4. Considere el sistema denido por su ecuaci on diferencial en
que
n
y son positivos:
d
2
y(t)
dt
2
+ 2
n
d y(t)
dt
+
2
n
y(t) =
2
n
u(t)
5.4.1 Determine la salida del sistema si la entrada es u(t) = Acos(
n
t).
5.4.2 Determine la relaci on de amplitudes entre la salida y la entrada en estado
estacionario cuando
n
= 10, y = 0,1, 0,05, 0,01.
5.4.3 Simule y graque para las condiciones anteriores, cuando A = 1.
Problema 5.5. Considere el sistema denido por su ecuaci on diferencial:
d y(t)
dt
= y(t) +u(t)
Si la entrada del sistema es una sinusoide u(t) = sen(10t)
114 CAP

ITULO 5. AN

ALISIS BAJO EXCITACIONES PERI

ODICAS
5.5.1 Determine la salida del sistema y(t), suponiendo condiciones iniciales
cero.
5.5.2 Graque la parte homogenea de la soluci on correspondiente a los modos
naturales, la soluci on particular correspondiente a la sinusoide de entrada
y la soluci on total, suma de las dos primeras. Comente.
Problema 5.6. Considere el conjunto de funciones denidas en el intervalo
[
T
2
,
T
2
]:
B = 1 , cos(n
0
t) , sen(n
0
t)
n=1,2,...
;
0
=
2
T
Y el producto interno denido en el como:
y
n
(t), y
m
(t))
T
=
_ T
2

T
2
y

n
(t)y
m
(t)dt ; y
n
(t), y
m
(t) B
Demuestre que el conjunto B es ortogonal y encuentre todos los posibles
valores que toma el producto interno cuando se recorren los elementos de B.
Problema 5.7. Considere la siguiente funci on peri odica f(t) denida como:
f(t) =
_

_
A ; [t[ < /2
0 ; /2 [t[ < T/2
f(t +T) ; e.t.o.c.
5.7.1 Determine la serie de Fourier trigonometrica de la funci on f(t).
5.7.2 Graque la amplitud de las arm onicas en funci on de la frecuencia.
5.7.3 C omo se ve afectado el gr aco a medida que crece el valor de T ?
Que pasa cuando T ?
Problema 5.8. Modulaci on por ancho de pulso.
Considere la funci on v(t) denida como:
v(t) =
_

_
5 ; 0 < t < < 0,001
0 ; < t < 0,001
v(t + 0,001) ; e.t.o.c.
5.8.1 Determine la serie de Fourier de v(t), indicando la amplitud de los coe-
cientes en funci on del par ametro .
5.8.2 Si el par ametro vara lentamente con el tiempo, digamos (t) = sen(2t)
Que se obtiene si se hace pasar v(t) por un sistema con una EDS dada
por
d y(t)
dt
+ 100y(t) = 100u(t) ?
5.7. PROBLEMAS PARA EL LECTOR 115
Problema 5.9. Considere la funci on y(t) = t
2
, denida en el intervalo 0
t < T.
5.9.1 C omo podra extenderse la funci on y(t) al intervalo [T, T] de manera
que su serie de Fourier sea de la forma:
y(t) = A
0
+

n=1
A
n
cos(
n
t) ?
5.9.2 C omo podra extenderse al intervalo [T, T] de manera que su serie sea
de la forma:
y(t) =

n=1
B
n
sen(
n
t) ?
Problema 5.10. Determine la serie de Fourier discreta de las siguientes fun-
ciones:
(a) y[t] = sen

3
t
(b) y[t] =
_
sen3t ; t = 0, . . . , 3
y[t + 4] ; e.t.o.c.
(c) y[t] =
_

t
; ,= 1, t = 0, . . . , N 1
y[t +N] ; e.t.o.c.
(d) y[t] = (1)
t
(e) y[t] =
_

_
1 ; t = 2, . . . , 0
1 ; t = 1, . . . , 3
y[t + 6] ; e.t.o.c.
(f) y[t] = t mod N
Construya el espectro de lnea para cada caso.
116 CAP

ITULO 5. AN

ALISIS BAJO EXCITACIONES PERI

ODICAS
transformadadeFourier|textbf
Fourier
per odo!infinito
aperi odicas!se~ nales
transformadadeFourier
Captulo 6
Analisis bajo excitaciones
arbitrarias. La
transformada de Fourier
6.1. La limitaci on de las series de Fourier
En el captulo anterior se estudi o la representaci on de se nales en un intervalo
de tiempo nito, [t
o
, t
o
+ T], a traves de una combinaci on lineal de un n umero
(posiblemente innito) de sinusoides. Este an alisis es muy util para establecer
de una manera simple, el contenido frecuencial (espectro) de una se nal peri odi-
ca, identicando claramente la amplitud y fase de cada una de las arm onicas
que la forman, tanto en tiempo discreto como en continuo. En este captulo
presentamos la extensi on para un periodo T , para estudiar el contenido
frecuencial de se nales no peri odicas (o de periodo innito).
El resultado de esta extensi on nos permitir a incorporar al an alisis impor-
tantes se nales tales como el impulso de Dirac, el escal on, la exponencial (real)
decreciente y otras se nales arbitrarias como muestra la Figura 6.1. Una clase
adicional y experimentalmente muy importante a incluir ahora est a compues-
ta por las se nales conocidas en un intervalo de tiempo nito. Estas se nales se
pueden calicar como peri odicas o no, dependiendo de lo que ocurra fuera del
intervalo conocido. La transici on hacia innito, del periodo de conocimiento de
la se nal que se incluye en la herramienta de an alisis, es justamente el proceso que
permite desarrollar una herramienta que incorpore las funciones no peri odicas
al an alisis frecuencial.
6.2. La Transformaci on de Fourier. El caso del
tiempo continuo
117
118CAP

ITULO6. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER


seriedeFourier
0
0 T
Figura 6.1: Se nales arbitrarias
Si recordamos el Captulo 5, una serie de Fourier es una representci on de una
funci on f(t) mediante suma de sinusoides. Sin embargo, esta serie representa a
la funci on s olo dentro del intervalo sobre el cual se calcul o, [t
o
, t
o
+T). Si la se nal
es peri odica,y este intervalo corresponde a un n umero entero de perodos de la
funci on, entonces la serie tambien la representa en el resto del eje real. Esta idea
tambien se puede aplicar para obtener la serie de Fourier para una funci on no
peri odica, siempre que la restrinjamos a un intervalo [a, b] de longitud T. Como
se mencion o antes, esta serie representa a la funci on dentro del intervalo, y fuera
de este s olo replica peri odicamente la representaci on lograda en [a, b]. Esto puede
apreciarse en la Figura 6.2.
La Figura 6.2, adem as, muestra que la longitud del intervalo T puede am-
pliarse, de manera de ir renando la representaci on de la funci on a traves de
la serie. Pues bien, lo que interesa en este punto es ver que pasa con la rep-
resentaci on cuando el intervalo tiene longitud innita. Es decir, queremos ver
que pasa con la serie de Fourier cuando se utiliza para representar funciones de
perodo innito o aperi odicas.
0 a b
0 a b
0 a b
0 a b
Figura 6.2: La funci on restringida a [a, b] y su reconstrucci on usando la serie de
Fourier.
La serie de Fourier exponencial para una funci on peri odica, de perodo T,
6.2. LATRANSFORMACI

ONDE FOURIER. EL CASODEL TIEMPOCONTINUO119


tiene la forma:
f(t) =

n=
C
n
e
jnt
(6.1)
En que:
C
n
=
1
T
_
T/2
T/2
f(t)e
jnt
dt (6.2)

n
= n
0
= n
2
T
(6.3)
La ecuaci on (6.1) es la que describe la funci on f(t) dentro del interva-
lo [
T
2
,
T
2
] en terminos de las exponenciales peri odicas que representan las
diferentes arm onicas
n
. Recordemos que la ecuaci on (6.3) explicita que las
arm onicas no son nada m as que m ultiplos de la frecuencia fundamental
0
=
2
T
.
Ahora bien, cada uno de los coecientes denidos por la ecuaci on (6.2) dene
a C
n
como funci on de la frecuencia
n
, es decir:
C
n
= C
n
(
n
) (6.4)
Consideremos ahora la funci on:
F() = T C
n
(
n
) (6.5)
Con esto la serie de Fourier exponencial (6.1) de f(t) puede reescribirse
como:
f(t) =
1
T

n=
F(
n
)e
jnt
=
1
2

n=
F(
n
)e
jnt

0
(6.6)
pero si se observa que:

0
=
n

n1
= (6.7)
la serie se reescribe como:
f(t) =
1
2

n=
F(
n
)e
jnt
(6.8)
Esta ultima expresi on corresponde a una suma de Riemann [11], la que,
llevada al lmite cuando el perodo T crece hasta innito, equivale a 0,
con lo que la serie se transforma en una integral:
f(t) =
1
2
_

F(j)e
jt
d (6.9)
120CAP

ITULO6. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER


TransformadadeFourier
transformadadeFourier
transformadade
Fourier!inversa
funci on!generalizada
deltadeDirac
El signicado de esta ultima expresi on es conceptualmente muy importante,
ya que nos indica que a medida que el perodo de una funci on peri odica aumenta,
la distancia entre la lneas del espectro se reduce progresivamente, y en el
lmite, cuando la funci on tiene perodo innito y 0, la representaci on en
frecuencia de f(t) en vez de ser discreta, pasa a ser una representaci on continua.
As, en lugar de quedar expresada como una suma de sinusoides de frecuencias
m ultiplos de una fundamental
0
, queda representada por una integral en que
participa una funci on, F(j) denida para en toda la recta real.
Esta funci on F() es la transformada de Fourier de f(t) , y su expresi on
se deduce utilizando (6.5), (6.4) y (6.2):
F() = T C
n
=
_
T/2
T/2
f(t)e
jnt
dt (6.10)
la cual, cuando T y considerando R, se convierte en:
F() =
_

f(t)e
jt
dt (6.11)
Dada la forma de la integral (6.11), puede apreciarse que F() en general
ser a una funci on en la variable real pero con valores complejos, excepto en
algunos especiales (ver Problema 6.4). Para enfatizar la naturaleza compleja de
la transformada de Fourier F() es una funci on compleja, se preere denotar-
la por F( ). Con esta ultima observaci on podemos establecer nalmente la
existencia del par transformada y transformada inversa de Fourier seg un
T f(t) = F( ) =
_

f(t)e
t
dt (6.12)
T
1
F( ) = f(t) =
1
2
_

F( )e
t
d (6.13)
Para la existencia de la transformada de Fourier es suciente que la funci on
f(t) sea absolutamente integrable[9] en ] , [, es decir:
_

[ f(t) [ dt < (6.14)


Sin embargo, es posible obtener la transformada de Fourier de funciones que
no cumplen este requisito, por ejemplo, las funciones peri odicas, con el uso de
funciones generalizadas, como el delta de Dirac.
El factor
1
2
que acompa na a la integral en (6.13), en algunos textos es repar-
tido equitativamente entre ambas integrales, como un factor
1

2
en la trans-
formada directa y en la inversa. Preferiremos las expresiones (6.12) y (6.13), ya
que esta ultima puede reescribirse de manera natural, reemplazando la frecuen-
cia angular en [rad/s] por la frecuencia f en [Hz], tal como se aprecia en la
siguiente ecuaci on
6.2. LATRANSFORMACI

ONDE FOURIER. EL CASODEL TIEMPOCONTINUO121


T
1
F(j2f) =
_

F(j2f)e
j2ft
df
El mismo an alisis desarrollado con la serie de Fourier exponencial cuando el
perodo de la funci on tiende a innito, puede repetirse de manera similar para
la serie de Fourier trigonometrica (ver Problema 6.3)
Ejemplo 6.1. Para ilustrar los resultados obtenidos veamos un ejemplo. Con-
sideremos la funci on f(t) denida en principio peri odica en el intervalo [
T
2
,
T
2
]:
f(t) =
_
A ; [t[ /2 < T/2
0 ; /2 < [t[ T/2
(6.15)
Esta corresponde a un pulso de alto A y ancho , centrado en cero, que se
repite en intervalos de longitud T.
Los coecientes de la serie exponencial de Fourier se pueden obtener sin
problema:
Maple
> assume(T>0,A>0);
> assume(0<tau,tau<T);
> y(t,T) := A * ( Heaviside(t+tau/2) - Heaviside(t-tau/2) );
> C(0,T):=1/T*int(y(t,T),t=-T/2..T/2);
> C(n,T):=simplify(1/T*int(y(t,T)*exp(-I*2*Pi*n/T*t),
t=-T/2..T/2));
C
0
=
A
T
(6.16)
C
n
=
A
T

sen
_
n
T
_
n
T
n ,= 0 (6.17)
La transformada de Fourier de y(t) resulta dada por la expresi on:
F( ) =
_

y(t)e
t
dt =
_
/2
/2
Ae
t
dt (6.18)
=
A

e
t

/2
/2
=
A

(e

2
e

2
) (6.19)
=
2A

sen
_

2
_
(6.20)
122CAP

ITULO6. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER


espectro!continuo
que usualmente se escribe como:
F( ) = A
sen
_

2
_

2
(6.21)
Si consideramos ahora la ecuaci on (6.17), podemos escribir:
TC
n
= A
sen
_

2
_

2
(6.22)
donde
n
=
2n
T
. De esta forma, observamos que:
lm
n
TC
n
= F( ) (6.23)
222
A pesar de su conexi on, existen varias diferencias conceptuales entre la serie
de Fourier y la transformada de Fourier. La primera diferencia importante es
que el espectro de lnea que aparece asociado a la serie de Fourier, se convierte,
en el caso de la Transformada de Fourier, en un espectro denido para toda
frecuencia. En forma compacta nos referiremos a este ultimo como el espectro
continuo de la se nal.
Una segunda diferencia es que la Serie de Fourier resulta descrita por un
conjunto de valores complejos asociados a un conjunto enumerable de frecuencias
(la frecuencia 0 y las frecuencias m ultiplos de una frecuencia fundamental), esos
valores complejos determinan la amplitud y fase de las componentes arm onicas.
Ese no es el caso de la Transformada de Fourier para se nales de tiempo continuo,
ya que la transformada F( ) es una medida de densidad o m as bien de
intensidad relativa (no absoluta) de la participaci on de las distintas frecuencias
en la representaci on de la funci on. Esta cantidad est a denida para todo el eje
de los reales, es decir, para todo , as, la presencia de una frecuencia
1
en una
se nal f(t) est a dada por:
Y
1
=
_

+
1

1
F( )e
t
d (6.24)
Esta integral es cero, a menos que F( ) contenga un impulso (
1
). En
el Apendice C se demuestra que este impulso acusa la presencia de una sinusoide
pura de frecuencia
1
en f(t).
Ejemplo 6.2. Para apreciar desde un angulo distinto las diferencias mencio-
nandas, consideremos la analoga de una viga empotrada, cargada con arena na
y con tres fuerzas puntuales, como se muestra en la Figura 6.3.
La viga tiene un largo L y un ancho A. En la Figura 6.3 la coordenada x
es an aloga a la frecuencia angular . En primer lugar se aprecian tres fuerzas
no nulas, que act uan en puntos especcos de la viga. Ellas son an alogas a los
coecientes de una serie de Fourier. En segundo lugar se observa la carga de
6.2. LATRANSFORMACI

ONDE FOURIER. EL CASODEL TIEMPOCONTINUO123


Parseval
Parseval
F
1
F
2
F
3
f(x)
x
Figura 6.3: Viga cargada con arena
arena, con una distribuci on f(x) [N/m]. Esta distribuci on captura la irregular-
idad de la distribucic on de la arena a lo largo y a lo ancho de la viga. Se puede
deducir que si f(x) es nita, entonces, esta carga de arena ejerce una fuerza
cero en cualquier punto de la viga. No obstante, es obvio que si la densidad de
la arena es (x), entonces la fuerza total ejercida por la carga de arena es:
_
L
0
f(x)(x)Adx (6.25)
La densidad de carga por metro lineal f(x) es entonces an aloga a la trans-
formada de Fourier F( ), en el sentido que esta ultima corresponde a una
densidad espectral por ancho de banda.
222
La transformaci on de Fourier posee una serie de propiedades que resultan de
mucha utilidad para el c alculo de transformadas de funciones a partir de algunas
elementales, para la obtenci on de transformadas inversas sin tener que resolver la
integral (6.13), y para el an alisis de sistemas, como se ve en la secci on siguiente.
Estas propiedades se detallan en el Apendice C. Algunas de esas propiedades
son de especial relevancia por sus aplicaciones al an alisis de sistemas lineales.
6.2.1. Parseval y la energa de las se nales aperi odicas en
tiempo continuo
Los resultados deducidos por Parseval permiten tambien relacionar directa-
mente las caractersticas de una se nal cualquiera con su transformada de Fourier.
Los detalles matem aticos pueden ser examinados en el Apendice C.
Si la se nal (real) f(t) tiene energa nita en el intervalo (, ), y su
transformada de Fourier es F( ) entonces, aplicando el Teorema C.1, se tiene
que:
_

(f(t))
2
dt =
1
2
_

[F( )[
2
d =
1

_

0
[F( )[
2
d (6.26)
124CAP

ITULO6. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER


respuestaenfrecuencia
anchodebanda
Observando el lado derecho de la ecuaci on, podemos calcular la fracci on de
la energa total que es aportada por cada intervalo del espectro (
k
,
k+1
). Para
apreciar esto consideremos el siguiente ejemplo.
Ejemplo 6.3. Sea la se nal f(t) = e
at
(t), donde a R
+
. Entonces, su trans-
formada de Fourier es
F( ) =
1
+a
(6.27)
y su energa total es
W =
_

0
e
2at
dt =
1

_

0
1

2
+a
2
d =
1
2a
(6.28)
Usando Parseval podemos demostrar que la mitad de esa energa es aportada
por el espectro en el intervalo de frecuencia (a, a), como se ve en
W
(a,a)
=
1

_
a
0
1

2
+a
2
d =
1
a
arctan

a

a
0
=
1
4a
(6.29)
6.2.2. Aplicaci on a sistemas lineales
Nuestro interes en el estudio de la transformaci on de Fourier y sus propiedades,
se origina en su utilidad para analizar las caractersticas de los sistemas lineales.
La denici on hecha en la secci on precedente de la transformada de Fourier resul-
ta como continuaci on natural de las series de Fourier, de esta forma la transfor-
mada constituye la prolongaci on natural del estudio de propiedades del sistema
como la respuesta en frecuencia, ancho de banda y ltraje, entre otras.
Para apreciar la utilidad del an alisis mediante transformada de Fourier,
consideremos un sistema lineal de tiempo continuo, denido por su ecuaci on
diferencial (EDS), tal como se vio en el Captulo 3:
d
n
y(t)
dt
n
+a
n1
d
n1
y(t)
dt
n1
+. . . +a
0
y(t)
= b
m
d
m
u(t)
dt
m
+b
m1
d
m1
u(t)
dt
m1
+. . . +b
0
u(t) (6.30)
En que u(t) e y(t) representan respectivamente la se nal de entrada y de
salida del sistema. Note que por generalidad hemos reemplazado n 1 por m
en el lado derecho, aunque seguiremos suponiendo que el sistema es propio, es
decir, m n.
Si utilizamos la propiedad que permite obtener una expresi on para la trans-
formada de Fourier de la derivada de una funci on, ecuaci on (C.9) en la p agi-
na 367, a cada una de las derivadas de la entrada u(t) y la salida y(t) puede
aplic arsele trasnformaci on de Fourier, utilizando:
T
_
d
n
f(t)
dt
n
_
= ( )
n
T f(t) = ( )
n
F( )
6.2. LATRANSFORMACI

ONDE FOURIER. EL CASODEL TIEMPOCONTINUO125


funci ondetransferencia
De esta forma, si se aplica transformaci on de Fourier a ambos lados de la
EDS (6.30) se obtiene:
( )
n
Y ( ) +. . . +a
0
Y ( ) = b
m
( )
m
U( ) +. . . +b
0
U( ) (6.31)
luego:
Y ( ) =
b
m
( )
m
+. . . +b
0
( )
n
+. . . +a
0
U( ) =
B( )
A( )
U( ) (6.32)
donde A( ) y B( ) son polinomios en .
Si ahora denimos la funci on racional en como
H( ) =
B( )
A( )
=
b
m
( )
m
+. . . +b
0
( )
n
+. . . +a
0
(6.33)
entonces la salida del sistema lineal puede ser expresada como
Y ( ) = H( )U( ) (6.34)
La funci on H( ) que aparece en la expresi on para la salida Y ( ) es la
que caracteriza al sistema mismo, ya que depende s olo de los coecientes de la
EDS (6.30), y no de la se nal de entrada U( ). Esta funci on se conoce como
funci on de transferencia o transferencia de Fourier.
En general, H( ) es una funci on racional en . Sin embargo, existen casos
en que la entrada u(t) se aplica en forma retardada al sistema. En esos casos,
si el retardo es , la transformada de Fourier U( ) debe ser reemplazada por
U( )e

(vea las propiedades en la Tabla C.1) y la funci on de transferencia
resulta:
H( ) =
B( )
A( )
=
b
m
( )
m
+. . . +b
0
( )
n
+. . . +a
0
e

(6.35)
Una discusi on adicional sobre la naturaleza de H( ), en particular, referida
a la estabilidad del sistema se desarrolla m as adelante, en la Secci on 6.2.5.
Una interpretaci on fundamental para la funci on de transferencia se puede
construir a partir del Lema 3.1 en la p agina 53. All se establece que la respuesta
de un sistema a una se nal de entrada arbitraria u(t), puede obtenerse mediante
la convoluci on de esta con la respuesta h(t) del sistema a un impulso unitario:
y(t) = u(t) h(t) =
_

u()h(t )d (6.36)
Si aplicamos transformaci on de Fourier a esta relaci on, utilizando el resultado
(C.13) en la p agina 371 que establece la transformada de la convoluci on de
funciones, tenemos que:
T y(t) = T u(t) h(t) (6.37)
Y ( ) = U( )T h(t) (6.38)
126CAP

ITULO6. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER


Podemos apreciar entonces que la funci on H( ) en la ecuaci on (6.34) es
exactamente la transformada de Fourier de la respuesta h(t) del sistema
(6.30) a un impulso unitario en su entrada.
Dado que la EDS tiene s olo coecientes reales, la funci on de transferencia
H( ) cumple con H( ) = (H( ))

, lo que implica que:


su magnitud es una funci on par en [H( )[ = [H( )[ (6.39)
su fase es una funci on impar en H( ) = H( ) (6.40)
Para ilustrar la derivaci on de la funci on de transferencia a partir de un
sistema fsico, examinemos el siguiente ejemplo.
Ejemplo 6.4. Consideremos el circuito de la Figura 6.4, que puede ser visto
como un sistema con entrada el voltaje de la fuente v
f
(t) y como salida el voltaje
en el condensador v
c
(t).
R
v
f
(t)
+
i(t)
C v
c
(t)
Figura 6.4: Circuito RC como sistema de primer orden.
Usando leyes de Kircho y la ecuaci on para la corriente por el condensador,
podemos llegar a una EDS:
v
R
(t) +v
C
(t) = v
f
(t) (6.41)
RC
d v
C
(t)
dt
+v
C
(t) = v
f
(t) (6.42)
d v
C
(t)
dt
+
1
RC
v
C
(t) =
1
RC
v
f
(t)di(t) (6.43)
En estas ecuaciones se puede renombrar v
c
(t) = y(t) , v
f
(t) = u(t) ,
1
RC
=
, con lo que la EDS resulta:
d y(t)
dt
+y(t) = u(t) ; R
+
(6.44)
A continuaci on calculamos la salida del sistema para diferentes funciones de
entrada u(t).
Si aplicamos transformaci on de Fourier a (6.44) tenemos:
6.2. LATRANSFORMACI

ONDE FOURIER. EL CASODEL TIEMPOCONTINUO127


Maple
>with(inttrans) : assume(alpha>0) :
>eds:= diff(y(t),t)+alpha*y(t)=alpha*u(t) ;
>eq1:=fourier(u(t),t,w)=U(jw) :
>eq2:=fourier(y(t),t,w)=Y(jw) :
>subs({eq1,eq2},fourier(eds,t,w)) ;
>Y(jw):=solve(%,Y(jw));
Y ( ) +Y ( ) = U( ) (6.45)
Y ( ) =

+
U( ) (6.46)
Con esta expresi on se puede obtener la salida del sistema para diferentes
casos, con ayuda de las tranformadas en la Tabla C.2 en la p agina 389.
Entrada impulso unitario
En primer lugar, podemos calcular casi directamente la respuesta a impulso
del sistema, ya que si u(t) = (t), entonces U( ) = 1 y, por tanto:
Maple
>U(jw)= fourier(Dirac(t),t,w) :
>H(jw)=subs(%,Y(jw));
U( ) = 1
Y ( ) = H( ) =

+
Donde se aplica transformaci on inversa
Maple
> h(t) = invfourier(H(jw),w,t);
h(t) = T
1
_
1
+
_
(6.47)
= e
t
(t) (6.48)
Entrada escal on unitario
128CAP

ITULO6. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER


fraccionesparciales
Maple
>U(jw)= fourier(Heaviside(t),t,w) :
>Y(jw)=subs(%,Y(jw));
U( ) = () +
1

(6.49)
Y ( ) =

+
_
() +
1

_
(6.50)
Donde se desarrolla el producto y luego se buscan terminos que correspondan
a transformadas conocidas, ya sea agrupando de manera conveniente o separan-
do en fracciones parciales (ver Apendice D):
Y ( ) =

+
() +

( +)
(6.51)
= () +
1


1
( +)
(6.52)
Ya que, del termino que multiplica al delta Dirac s olo interesa su valor en
= 0, y el otro se separa en fracciones parciales. De esta forma se puede
calcular la transformaci on inversa de Fourier:
Maple
> y(t) = invfourier(Y(jw),w,t);
y(t) = T
1
_
() +
1

_
T
1
_
1
( +)
_
(6.53)
= (t) e
t
(t) (6.54)
Entrada exponencial peri odica
Finalmente, examinemos la respuesta a una exponencial peri odica u(t) =
e
ot
. Su transformada de Fourier de u(t) es:
U( ) = T
_
e
ot
_
= 2(
o
) (6.55)
Con lo que la salida ser a:
6.2. LATRANSFORMACI

ONDE FOURIER. EL CASODEL TIEMPOCONTINUO129


ganancia!a modoforzante
Y ( ) =

+
2(
o
) =


o
+
2(
o
) (6.56)
y(t) =


o
+
e
ot
= A(
o
)e
ot+j(o)
(6.57)
en que:
A(
o
) =


o
+

=

_

2
o
+
2
(6.58)
(
o
) = arctan

o

(6.59)
Lo anterior muestra que, al pasar a traves del sistema, la exponencial peri odi-
ca, experimenta un cambio en magnitud (en un factor A(
o
)) y en fase (una
adici on igual a (
o
).
222
6.2.3. La funci on de transferencia y la respuesta en fre-
cuencia
La ultima parte del Ejemplo 6.4, en la secci on anterior, pone de maniesto
la utilidad de conocer la transformada de Fourier de la respuesta a impulso de
un sistema, H( ). Observe que:
Y ( ) = H( )U( ) (6.60)
pero si u(t) = e
ot
, entonces
Y ( ) = H( )2(
o
) (6.61)
= H(
o
)2(
o
) (6.62)
por tanto, la salida es:
y(t) = H(
o
)e
ot
(6.63)
As tenemos que H(
o
) representa la ganancia al modo forzante e
ot
,
denida en (3.24). Es m as, dada la relaci on de las exponenciales peri odicas con
las se nales sinusoidales podemos establecer el siguiente lema.
Lema 6.1. Dado un sistema estable de tiempo continuo con entrada u(t) y
salida y(t). La respuesta del sistema a la entrada se nal de entrada sinusoidal
u(t) = cos(
o
t), t, es
y(t) = A(
o
) cos(
o
t +(
o
)) (6.64)
130CAP

ITULO6. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER


En que
A(
o
) = [H(
o
)[ (6.65)
(
o
) = H(
o
) (6.66)
Donde H( ) es la transformada de Fourier de la respuesta a impulso del
sistema h(t).
Demostraci on
La respuesta a la excitaci on cos(
o
t), puede ser calculada como la combi-
naci on de las respuestas a un par de exponenciales peri odicas. A partir de:
Y ( ) = H( )U( ) (6.67)
tenemos que, si u(t) =
1
2
(e
ot
+e
ot
), entonces:
Y ( ) = H( )((
o
) +( +
o
)) (6.68)
= H(
o
)(
o
) +H(
o
)( +
o
) (6.69)
y, por lo tanto, la salida es:
y(t) =
1
2
H(
o
)e
ot
+
1
2
H(
o
)e
ot
(6.70)
=
1
2
[H(
o
)[e
ot+jH( o)
+
1
2
[H(
o
)[e
otjH( o)
(6.71)
= [H(
o
)[ cos(
o
t +H(
o
)) (6.72)
222
Ejemplo 6.5. Para el mismo sistema del Ejemplo 6.4, descrito por la ecuaci on
diferencial:
d y(t)
dt
+y(t) = u(t) ; R
+
(6.73)
Determinemos la soluci on si la se nal de entrada es u(t) = cos(t).
Tal como se hizo antes, se aplica transformaci on de Fourier sobre la EDS,
donde se ha reemplazado la entrada u(t) con lo que se obtiene la transformada
de Fourier de la salida:
Maple
> U(jw)= fourier(cos(t),t,w) : eq3 ;
simplify(subs(eq3,Y(jw)));
6.2. LATRANSFORMACI

ONDE FOURIER. EL CASODEL TIEMPOCONTINUO131


U( ) = (( + 1) +( 1)) (6.74)
Y ( ) =

+
(( + 1) +( 1)) (6.75)
donde, simplicando como antes, se obtiene la transformada inversa:
Y ( ) =

j +
( + 1) +

j +
( 1) (6.76)
=
( +j)

2
+ 1
( + 1) +
( j)

2
+ 1
( 1) (6.77)
= Ae
j
( + 1) +Ae
j
( 1) (6.78)
en que:
A =

( +j)

2
+ 1

2
+ 1
(6.79)
=
_
( +j)

2
+ 1
_
= arctan
1

(6.80)
por lo tanto, la salida es:
y(t) = Acos(t ) (6.81)
=

2
+ 1
cos
_
t arctan
1

_
(6.82)
Se deja al lector vericar el caso general, en que, cuando la entrada es una
sinusoide de frecuencia arbitraria, cos(
o
t), entonces la salida del sistema ser a:
y(t) =

_

2
+
2
o
cos
_
t arctan

o

_
(6.83)
En la Figura 6.5 se muestra la magnitud A(
o
) y angulo de desfase (
o
)
de la salida cuando = 10.
222
El ejemplo anterior pone en evidencia que la salida que se obtiene a traves de
la transformada de Fourier corresponde a la parte estacionaria de la salida del
sistema, donde no aparecen modos naturales. Esto es coherente, ya que podemos
pensar una se nal no causal como una que comenz o a actuar sobre el sistema en
t = , y, por ende, el efecto de las condiciones iniciales ha desaparecido. Sin
embargo, debemos observar que el desarrollo realizado es an alogo cuando < 0.
Esto nos advierte que en el caso de sistemas inestables, es decir, con frecuen-
cias naturales fuera del semiplano izquierdo (que es la zona de estabilidad para
sistemas de tiempo continuo), la salida obtenida mediante la transformaci on de
132CAP

ITULO6. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER


0 100 200 300 400 500 600
0
0.2
0.4
0.6
0.8
1

A
(

)
(a) Magnitud
0 100 200 300 400 500 600
1.5
1
0.5
0

)
(b)

Angulo
Figura 6.5: Magnitud y angulo de H( ) en el ejemplo ( = 100).
Fourier resulta ser acotada, mientras que la salida verdadera del sistema crece
hasta innito. Es decir, la soluci on mediante Fourier para se nales no causales
resulta ciega a la inestabilidad propia del sistema, pero nos permite obten-
er la componente particular de la se nal de salida. Para ilustrar esto observe el
siguiente ejemplo, que s olo tiene sentido si el sistema bajo an alisis es estable.
Ejemplo 6.6. Consideremos el caso en que la entrada al sistema es u(t) =
cos(t)(t). En este caso, tenemos que la transformada de Fourier de la entrada
y de la salida al sistema son respectivamente
Maple
>U(jw) = fourier(Heaviside(t)*cos(t),t,w);
>Y(jw) = subs (%,Y(jw));
U( ) =

2
(( 1) +( + 1)) +

2
+ 1
(6.84)
Y ( ) =

+
_

2
(( 1) +( + 1)) +

2
+ 1
_
(6.85)
La salida Y ( ) puede simplicarse con las mismas consideraciones anteri-
ores, es decir, evaluando los coecientes que acompa nan a los deltas de Dirac
en la frecuencia de interes, separando en fracciones parciales y agrupando con-
venientemente:
6.2. LATRANSFORMACI

ONDE FOURIER. EL CASODEL TIEMPOCONTINUO133


filtraje
Y ( ) =

j +

2
( 1) +

j +

2
( + 1) +

( +)(
2
+ 1)
=
( j)

2
+ 1

2
( 1) +
( +j)
j +

2
( + 1)
+
( + 1))
(
2
+ 1)(
2
+ 1)


2

2
+ 1
_
1
+
_
=

2

2
+ 1

2
_
( + 1) +( 1)
_
+

2
+ 1
j
2
_
( + 1) ( 1)
_
+

2
(
2
+ 1)

(
2
+ 1)
+

(
2
+ 1)
1
(
2
+ 1)


2

2
+ 1
_
1
+
_
Por tanto, con ayuda de la Tabla C.2 en la p agina 389, tenemos que la salida
es:
y(t) =

2
+ 1
_
T
1
_

2
_
( + 1) +( 1)
_
+

(
2
+ 1)
_
+T
1
_
j
2
_
( + 1) ( 1)
_
+
1
(
2
+ 1)
_
T
1
_
1
+
__
y(t) =

2
+ 1
_
cos(t)(t) + sen(t)(t) e
t
(t)

En Maple los c alculos se pueden hacer mucho m as r apido, y, dado que en la


transformaci on inversa aparecen exponenciales complejas, se utiliza la funci on
evalc, que permite expandir estas mediante la relaci on de Euler,
1
:
Maple
>U(jw) = fourier(Heaviside(t)*cos(t),t,w);
>subs(%,Y(jw));
>y(t) = simplify( evalc( invfourier(%,w,t) ) );
222
6.2.4. Filtraje
Una generalizaci on de los resultados precedentes se puede extraer examinan-
do la naturaleza de la funci on de transferencia y la forma en que evolucionan
1
e
j
= cos() + j sen()
134CAP

ITULO6. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER


espectro
respuestaenfrecuencia
sistema!estable
su magnitud y su fase con la frecuencia . En estas caractersticas, que denen
la respuesta en frecuencia del sistema, se capturan efectos tales como su ve-
locidad y su capacidad de ltrar y discriminar se nales de diferentes contenidos
espectral.
Es com un que para clasicar las funciones de transferencia de sistemas es-
tables, se use su caracterstica ltrante.

Esta queda determinada por [H( )[.
Para ejemplicar esta descripci on consideremos primero sistemas que discrimi-
nan entre frecuencias altas y bajas.

c

c

A
a
A
a

|H(j)|
|H(j)|
Figura 6.6: Sistemas pasa bajos (izquierda) y pasa altos (derecha)
En la Figura 6.6 se observan dos conductas distintas. El sistema descrito por
la caracterstica del lado izquierdo, deja pasar las bajas frecuencias y aten ua las
altas frecuencias. El sistema caracterizado por la funci on de transferencia del
lado derecho hace lo contrario: deja pasar las altas frecuencias y bloquea las bajas
frecuencias. Una forma de apreciar estos comportamientos distintos es aplicar
a ambos sistemas una misma secuencia de escalones temporales. La transici on
brusca de un nivel a otro requiere la presencia de muy altas frecuencias, en
estricto sentido, de frecuencia innita. Por otro lado, una vez que se ha llegado
a un nuevo nivel, predominan las frecuencias bajas, en rigor, la frecuencia cero.
Los escalones tambien tienen energa a frecuencias intermedias tal como lo revela
la transformada de Fourier del escal on unitario, estas frecuencias intermedias se
originan en el quiebre entre una pendiente innita (inicio del escal on) y una
pendiente cero (resto del escal on).
Ejemplo 6.7. Considere los siguientes sistemas:
H
1
( ) =
1
( + 1)
2
Pasa bajos (6.86)
H
2
( ) =
( )
2
( + 1)
2
Pasa altos (6.87)
Si a ambos sistemas se aplica una secuencia de escalones, se obtiene el re-
sultado de la Figura 6.7. En esta, se observa que la respuesta del ltro pasa
6.2. LATRANSFORMACI

ONDE FOURIER. EL CASODEL TIEMPOCONTINUO135


frecuencia!decorte
pasabanda
elimina banda
0 5 10 15 20 25 30
1
0.5
0
0.5
1
1.5
2
Tiempo [s]
R
e
s
p
u
e
s
t
a

a

e
s
c
a
l

n

y
1
(t)
y
2
(t)
Figura 6.7: Respuesta a escalones de un sistema pasa bajos y un sistema pasa
altos.
bajos, y
1
(t), no puede seguir las transiciones de los escalones, pero alcanza el
nivel constante de la entrada sin error (dado que la ganancia a continua es
uno). Por su parte, la respuesta del ltro pasa altos, y
2
(t), es capaz de replicar
instant aneamente los cambios bruscos, sin embargo presenta respuesta nula una
vez que el escal on alcanza un nivel constante (dado que la ganancia a continua
es cero).
222
La transici on entre una zona de paso y otra de rechazo (y viceversa) que
ocurre en [H( )[ es siempre gradual. Una forma de cuanticar un lmite para
esa transici on es lo que se dene como frecuencia de corte. Esta denici on,
aunque arbitraria es universalmente aceptada. En la Figura 6.6,
c
es la fre-
cuencia de corte si a = A/

2.
Aparte del comportamiento pasa bajos y pasa altos podemos reconocer las
caractersticas pasa banda y elimina banda. Las caractersticas generales de
ambos sistemas aparecen reejadas en los gr acos de la Figura 6.8.

c1

c2

c1

c2

A
a
A
a
|H(j)| |H(j)|

Figura 6.8: Sistemas pasa banda y elimina banda.
136CAP

ITULO6. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER


frecuenciasdecorte
El sistema descrito por la caracterstica del lado izquierdo en la Figura 6.8
bloquea las frecuencias bajas y las fecuencias altas, en cambio, deja pasar un
rango de frecuencias intermedias. Por su parte, el sistema descrito por la car-
acterstica del lado derecho en la Figura 6.8, bloquea un rango intermedio de
frecuencias y deja pasar tanto las altas como las bajas frecuencias. El compor-
tamiento de estos sistemas puede ser estudiado tambien usando una secuencia
de escalones. Para ilustrar las diferentes conductas desarrollamos un ejemplo.
Ejemplo 6.8. Considere los siguientes sistemas:
H
3
( ) =

( + 1)
2
Pasa banda (6.88)
H
4
( ) =
( )
2
+ 1
( + 1)
2
Elimina banda (6.89)
0 5 10 15 20 25 30
1.5
1
0.5
0
0.5
1
1.5
Time [s]
R
e
s
p
u
e
s
t
a

a

e
s
c
a
l

n
y
3
(t)
y
4
(t)
Figura 6.9: Respuesta a escalones de un sistema pasa banda y un sistema elimi-
na banda.
Cuando a ambos sistemas se aplica una secuencia de escalones se obtiene el
resultado de la Figura 6.9. De la Figura 6.9 se observa que la respuesta del ltro
pasa banda, y
3
(t), no puede seguir las transiciones de los escalones, y presenta
respuesta nula una vez que el escal on alcanza niveles constantes (tiene ganancia
a continua igual a cero). Por su parte, la respuesta del ltro elimina banda,
y
4
(t), es capaz de replicar instant aneamente los cambios bruscos, y de alcanzar,
sin error, el valor constante de la entrada (tiene ganancia a continua igual a
uno). Sin embargo, y
4
(t) presenta una anomala justo despues de la transici on
brusca. Esta anomala se debe a que el sistema bloquea un rango intermedio de
frecuencias.
222
En el caso de los sistemas pasa banda y sistemas elimina banda, existen dos
frecuencias de corte,
c1
y
c2
(vea Figura 6.8), para a = A/

2.
Cualquiera que sea la naturaleza ltrante del sistema, las frecuencias de corte
son las que delimitan la(s) banda(s) de paso y la(s) banda(s) de rechazo.
6.2. LATRANSFORMACI

ONDE FOURIER. EL CASODEL TIEMPOCONTINUO137


sistema!estable
6.2.5. Caso singular en la funci on de transferencia.
En primer lugar, se debe enfatizar que:
La funci on de transferencia de un sistema lineal de tiempo continuo
est a denida s olo si su respuesta a impulso tiene transformada de Fouri-
er. Esto es equivalente a exigir que el sistema tenga s olo frecuencias natu-
rales en el SPI cerrado, con la condici on que si algunas de esas frecuencias
naturales est an sobre el eje imaginario, ellas sean simples
Es muy importante notar que el Lemma 6.1 en la p agina 129, que iguala
H( ) con la respuesta en frecuencia, est a formulado para sistemas estables.
No podemos extender este resultado a sistemas que tienen frecuencias naturales
en el eje imaginario, aunque sean no repetidas. Veamos a traves de un ejemplo,
los resultados err oneos que surgen si no somos cuidadosos.
Ejemplo 6.9. Un sistema con entrada u(t) y salida y(t), tiene una EDS:
dy(t)
dt
= u(t) (6.90)
Observamos que el sistema tiene s olo una frecuencia natural, y ella est a ubi-
cada en = 0, es decir, se trata de una frecuencia natural no repetida en el eje
imaginario.
La respuesta en frecuencia, K() est a dada por la ganancia al modo forzante
e
t
, y ella resulta de aplicar (3.24) a este caso particular:
K() =
1

(6.91)
Suponga que u(t) = e
at
(t), a > 0 y si, err oneamente, hacemos H( ) =
K(), entonces y(t) se puede calcular a partir de :
y(t) = T
1
Y ( ) = T
1
H( )U( ) = T
1
_
1
( +a)
_
(6.92)
As se obtiene:
Maple
>with(inttrans):
>assume(a>0);simplify(evalc((invfourier(1/(-w^2+I*a*w),w,t)));
y(t) =
signo (t) 2e
at
(t)
2a
(6.93)
138CAP

ITULO6. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER


dando origen a una respuesta no causal, ya que la funci on signo (t) tiene valor
1, t < 0.
Para obtener la respuesta correcta, recordemos que la funci on de transfer-
encia H( ) es la transformada de Fourier de la respuesta del sistema a un
impulso unitario. Aplicando esta denici on a nuestro sistema se llega a:
H( ) =
1

+() (6.94)
Entonces
y(t) = T
1
_
1
( +a)
+

a
()
_
=
1 e
at
(t)
a
(t) (6.95)
que es la respuesta correcta.
222
El ejemplo precedente ilustra y explica el problema. Cuando el sistema tiene
frecuencias naturales en el eje imaginario, los modos naturales asociados no
decaen, y la transformada de Fourier de cada uno de ellos s olo existe en el
lmite. Esta condici on es acusada por la presencia de deltas de Dirac en . As,
la funci on de transferencia es una funci on racional m as uno o varios deltas de
Dirac en .
La ultima pregunta que debemos responder es por que la determinaci on de
H( ) usando (6.31) no da el resultado correcto. La respuesta est a en que para
pasar de (6.31) a (6.33) se requiere dividir por un polinomio que se hace cero
para uno o m as valores de , es decir, se realiza una divisi on por cero a esas
frecuencias. Consideremos un ejemplo adicional.
Ejemplo 6.10. Sea un sistema con la EDS:
d
2
y(t)
dt
2
+ 4y(t) = 3u(t) (6.96)
Al aplicar transformaci on de Fourier se obtiene:
(( )
2
+ 4)Y ( ) = 3U( ) (6.97)
Observamos que y(t) contiene dos modos naturales complejos, los que com-
binados generan una se nal sinusoidal de frecuencia 2 [rad/s]. Esto implica que
Y ( ) debe incluir dos impulsos: ( 2) y ( + 2).
Cuando dividimos ambos lados de (6.97) por (( )
2
+4), estamos dividiendo
por cero cuando = 2, exactamente donde ocurren los impulsos. Esta divisi on
llevara, err oneamente, a que la funci on de transferencia sera:
3
( )
2
+ 4
(6.98)
Sin embargo, la respuesta del sistema a u(t) = (t) est a dada por:
h(t) =
3
2
sen(2t)(t) (6.99)
6.3. LATRANSFORMACI

ONDE FOURIER. EL CASODE TIEMPODISCRETO139


As, el valor correcto de H( ) es:
H( ) =
3
( )
2
+ 4
+j
3
2
(( + 2) ( 2)) (6.100)
222
6.3. La Transformaci on de Fourier. El caso de
tiempo discreto
Consideremos en esta secci on el caso de las funciones no peri odicas, denidas
en tiempo discreto, y c omo se pueden hacer un desarrollo an alogo para estas
que permita representar de alguna forma su contenido en frecuencia.
En primer lugar, recordemos las expresiones correspondientes a la repre-
sentaci on en serie de Fourier de una funci on peri odica denida en tiempo dis-
creto, tal como se vi o en el Captulo 5. Sea y[t] una funci on peri odica de perodo
N, entonces esta se puede representar mediante una serie de Fourier discreta
que no es m as que una combinaci on lineal nita de N exponenciales complejas:
y[t] =
N1

n=0
C
n
e
jont
; donde
o
=
2
N
C
n
=
1
N
N1

t=0
y[t]e
jont
Consideremos ahora el caso en que el perodo N de la se nal crece hasta
innito, es decir, tenemos una se nal que ya no es peri odica. En este caso se puede
hacer el siguiente desarrollo, totalmente an alogo al caso de la transformaci on de
Fourier para funciones de tiempo continuo, en la secci on 6.2.
Llamemos
n
= n
o
y denamos la funci on:
Y (e
jn
) = N C
n
(6.101)
Reemplazando en la representaci on en serie anterior:
y[t] =
1
N
N1

n=0
Y (e
jn
)e
jont
(6.102)
=
1
2
N1

n=0
Y (e
jn
)e
jnt
(6.103)
Ya que la frecuencia fundamental en este caso es
o
=
n+1

n
= , es
decir, la separaci on entre arm onicas es igual a la frecuencia fundamental. La
sumatoria anterior corresponde a una suma de Riemann[11] que llevada al
140CAP

ITULO6. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER


transformadadeFourier!discreta
transformadadeFourier!discretainversa
lmite cuando N se convierte en una integral en la variable , que pasa a
ser continua. Cabe observar que el lmite superior de la integral es:

N1
=
2
N
(N 1) (6.104)
lm
N

N1
= 2 (6.105)
Por tanto, cuando el perodo de la funci on N se tiene que:
y[t] =
1
2
_
2
0
Y (e
j
)e
jt
d (6.106)
Cabe recordar que para el caso de las funciones de tiempo discreto existe
periodicidad en frecuencia, por tanto la funci on y[t] podra representarse emple-
ando el intervalo [, ] o cualquier otro de longitud 2.
La ecuaci on (6.106) nos dice que podemos representar la funci on de tiempo
discreto y[t] como una integral que involucra la funci on Y (e
j
), que ahora pre-
senta valores en forma continua en el intervalo [0, 2]. Veamos ahora cu al es la
expresi on que permite obtener esta funci on. A partir de la denici on hecha en
(6.101) tenemos:
Y (e
jn
) = N C
n
=
N1

t=0
y[t]e
jont
=
N1

t=0
y[t]e
jnt
(6.107)
Cuando N aparece la variable continua y es necesario considerar
todos los valores de la funci on, es decir, el tiempo discreto barre todos los
enteros. Por tanto:
Y (e
j
) =

t=
y[t]e
jt
(6.108)
Esta funci on es la transformada de Fourier discreta de la funci on y[t].
Mientras que la expresi on (6.106) representa la transformaci on inversa de
Fourier discreta.
T
d
y[t] = Y (e
j
) =

t=
y[t]e
jt
(6.109)
T
d
1
_
Y (e
j
)
_
= y[t] =
1
2
_
2
0
Y (e
j
)e
jt
d (6.110)
A continuaci on, veamos un ejemplo para ilustrar lo anterior.
6.3. LATRANSFORMACI

ONDE FOURIER. EL CASODE TIEMPODISCRETO141


Ejemplo 6.11. Consideremos como primera se nal, un delta de Kronecker. Si
calculamos su transformada de Fourier discreta tenemos que esta, se reduce a
un unico termino:
Y (e
j
) =

t=
[t]e
jt
=
K
[0]e
j0
= 1 (6.111)
es decir, se obtiene un espectro plano, en analoga al caso del espectro del delta
de Dirac en tiempo continuo. En la Figura 6.10 se muestra el delta de Kronecker
y la transformada de Fourier calculada, que en este caso resulta tener s olo parte
real.
5 0 5
0.2
0
0.2
0.4
0.6
0.8
1
t

k
[
t
]
0 2 4 6
0
0.5
1
1.5
2

Y
(
e
j

)
Figura 6.10: Delta de Kronecker y su transformada de Fourier
222
Ejemplo 6.12. Consideremos ahora la se nal exponencial:
y[t] =
t
[t] [[ < 1 (6.112)
Su transformada de Fourier discreta es:
Y (e
j
) =

t=
y[t]e
jt
=

t=0

t
e
jt
=

t=0
(e
j
)
t
(6.113)
La expresi on para Y (e
j
) resulta ser una serie geometrica convergente ya
que [e
j
[ < 1. Por tanto su suma es
Y (e
j
) =
1
1 e
j
(6.114)
La transformada Y (e
j
) puede ser reescrita en forma polar (m odulo y angulo)
como:
142CAP

ITULO6. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER


Y (e
j
) =
1
1 cos() +jsen()
(6.115)
[Y (e
j
)[ =
1
_
(1 cos())
2
+ (sen())
2
=
1
_
1 2cos() +
2
(6.116)
Y (e
j
) = arctan
_
sen()
1 cos()
_
(6.117)
2 0 2 4 6 8 10
0.2
0
0.2
0.4
0.6
0.8
1
t
y
[
t
]
0 2 4 6
0
1
2
3
4
5
6

|
Y
(
e
j

)
|
Figura 6.11: Se nal y[t] = (0,8)
t
[t] y la magnitud de Y (e
j
).
En la Figura 6.11 se muestra la se nal en tiempo discreto y la magnitud de
su transformada de Fourier discreta cuando = 0,8
222
Ejemplo 6.13. Consideremos ahora un pulso discreto denido seg un
y[t] =
_
1 ; [t[ 5
0 ; [t[ > 5
(6.118)
Su transformada de Fourier discreta est a dada por la expresi on:
Y (e
j
) =
5

t=5
e
jt
(6.119)
Se puede apreciar directamente que es una funci on real, ya que cada par de
exponenciales complejas conjugadas al sumarse se transforman en una funci on
coseno, es decir:
Y (e
j
) = 1 + 2
5

t=1
cos(t) (6.120)
Alternativamente, la transformada se puede calcular calculando la suma de
la progresi on geometrica de exponenciales:
6.3. LATRANSFORMACI

ONDE FOURIER. EL CASODE TIEMPODISCRETO143


Parseval
energ a
Y (e
j
) =
5

t=5
e
jt
= e
j(5)
1 e
j(11)
1 e
j
=
e
j5
e
j6
1 e
j
(6.121)
Esta expresi on, a priori, no parece ser real, pero si se reescribe conveniente-
mente tenemos que:
Y (e
j
) =
_
e
j5
e
j6
_
e
j

2
(1 e
j
) e
j

2
=
e
j
11
2
e
j
11
2
e
j

2
e
j

2
=
sen(
11
2
)
sen(
1
2
)
(6.122)
Note que la ecuaci on (B.48) del Apendice B, establece justamente la propiedad
que permite convertir la suma de cosenos en un cuociente de senos.
10 5 0 5 10
0.2
0
0.2
0.4
0.6
0.8
1
t
y
[
t
]
0 2 4 6
5
0
5
10
15

Y
(
e
j

)
Figura 6.12: Se nal y[t] y su transformada discreta Y (e
j
).
La Figura 6.12 se muestran los gr acos del pulso en tiempo discreto y de su
transformada de Fourier.
222
En el Apendice C se incluyen las propiedades m as importantes de la trans-
formaci on de Fourier en tiempo discreto (tabla C.3 en la p agina 390), adem as
de una lista de transformadas simples que se pueden utilizar para el c alculo de
otras m as complejas (Tabla C.4 en la p agina 391).
6.3.1. Parseval y las se nales aperi odicas de tiempo discre-
to
Los resultados deducidos por Parseval en el Apendice C permiten tambien
relacionar directamente las caractersticas de energa de una se nal cualquiera con
su transformada de Fourier discreta. En el caso de se nales de tiempo discreto, las
ideas de potencia y energa no tienen la connotaci on fsica que poseen cuando se
usan en el contexto de las se nales de tiempo continuo. Sin embargo, son tambien
144CAP

ITULO6. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER


concepto utiles, especialmente si la secuencia de tiempo discreto se origina en
el muestreo de una se nal de tiempo continuo.
Para la se nal real de tiempo discreto f[t] se dene la energa como:
W =

t=
(f[t])
2
(6.123)
Si la se nal f[t] tiene energa nita en el intervalo (, ), y su transformada
de Fourier es F(e
j
) entonces, aplicando el Teorema C.2 en la p agina 386, se
tiene que:

t=
(f[t])
2
=
1
2
_
2
0
[F(e
j
)[
2
d (6.124)
Observando el lado derecho de la ecuaci on, podemos calcular la fracci on de
la energa total que es aportada por cada intervalo del espectro (
k
,
k+1
). En
comparaci on con el caso continuo, ac a el c alculo es mucho m as complicado.
6.3.2. Aplicaci on a sistemas lineales
Consideremos un sistema lineal de tiempo discreto denido por su ecuaci on
recursiva (ERS):
y[t] +a
n1
y[t 1] +. . . +a
1
y[t n + 1] +a
0
y[t n]
= b
m
u[t] +b
m1
u[t 1] +. . . +b
1
u[t m+ 1] +b
0
u[t m] (6.125)
En que m y n son enteros positivos cualesquiera. Si aplicamos transformada
de Fourier a ambos lados de la ecuaci on tenemos:
Y (e
j
)(1 +a
n1
e
j
+. . . +a
1
e
j(n1)
+a
0
e
jn
) =
U(e
j
)(b
m
+b
m1
e
j
+. . . +b
1
e
j(m1)
+b
0
e
j
) (6.126)
Si se factoriza y despeja la transformada de Fourier de la secuencia de salida
tenemos que esta resulta ser la transformada de la entrada U(e
j
) multiplicada
por una funci on racional en la variable e
j
:
Y (e
j
) =
b
m
+b
m1
e
j
+. . . +b
1
e
j(m1)
+b
0
e
j
1 +a
n1
e
j
+. . . +a
1
e
j(n1)
+a
0
e
jn
U(e
j
) (6.127)
Justamente podemos apreciar que la funci on racional que aparece multipli-
cando la entrada depende s olo del sistema, ya que s olo depende de los coecientes
de la ERS inicial. Con esta expresi on podemos obtener la secuencia de salida
del sistema calculando la transformaci on de Fourier inversa.
En particular, cuando la entrada es un delta de Kronecker en el origen:
6.3. LATRANSFORMACI

ONDE FOURIER. EL CASODE TIEMPODISCRETO145


u[t] =
K
[t] U(e
j
) = 1 (6.128)
En este caso la salida del sistema es:
Y (e
j
) =
b
m
+b
m1
e
j
+. . . +b
1
e
j(m1)
+b
0
e
j
1 +a
n1
e
j
+. . . +a
1
e
j(n1)
+a
0
e
jn
= H(e
j
) (6.129)
es decir, la funci on racional H(e
j
) es exactamente la transformada de Fourier
de la respuesta del sistema a un delta de Kronecker en su entrada. De esta forma,
la respuesta a cualquier otra se nal de entrada se obtiene usando la relaci on:
Y (e
j
) = H(e
j
)U(e
j
) (6.130)
Esta ecuaci on, corresponde, en el dominio de tiempo discreto, a la convolu-
ci on de las secuencias temporales:
y[t] = h[t] u[t] =

l=
u[l]h[t l] (6.131)
en que, tal como se vi o al nal del Captulo 4, la secuencia h[t] es la respuesta
del sistema al delta Kronecker.
La funci on H(e
j
) es la funci on de transferencia del sistema de tiem-
po discreto, y resulta igual a la ganancia al modo forzante e
jt
, descrita
en (4.35). Esto dice que H(e
j
) describe completamente la respuesta en
frecuencia del sistema de tiempo discreto (vea la Secci on 5.4).
Ejemplo 6.14. Consideremos el sistema de tiempo discreto denido por su
ecuaci on recursiva:
y[t] 1,6y[t 1] + 0,63y[t 2] = u[t] (6.132)
Si aplicamos transformaci on de Fourier discreta tenemos que:
Y (e
j
) 1,6e
j
Y (e
j
) + 0,63e
j2
Y (e
j
) = U(e
j
) (6.133)
Y (e
j
)(1 0,9e
j
)(1 0,7e
j
) = U(e
j
) (6.134)
As la funci on de transferencia est a dada por:
H(e
j
) =
1
(1 0,9e
j
)(1 0,7e
j
)
(6.135)
La transformada de la salida queda entonces dada por
146CAP

ITULO6. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER


fraccionesparciales
Y (e
j
) = H(e
j
)U(e
j
) =
U(e
j
)
(1 0,9e
j
)(1 0,7e
j
)
(6.136)
Analizaremos a continuaci on el comportamiento del sistema para distintas
excitaciones.
Entrada delta de Kronecker
En este caso:
U(e
j
) = 1 Y (e
j
) =
1
(1 0,9e
j
)(1 0,7e
j
)
(6.137)
Donde la transformada de la salida se debe separar en fracciones parciales
para poder aplicar transformaci on inversa:
Y (e
j
) =
4,5
1 0,9e
j

3,5
1 0,7e
j
(6.138)
Por tanto, la salida del sistema es:
y[t] = (4,5(0,9)
t
3,5(0,7)
t
)[t] (6.139)
Note que para esta excitaci on (delta de Kronecker) y[t] = h[t].
Entrada escal on unitario
En este caso, u[t] = [t], por lo tanto:
U(e
j
) =
1
1 e
j
+

=
( + 2) (6.140)
Y (e
j
) =
1
(1 0,9e
j
)(1 0,7e
j
)
_
1
1 e
j
+

=
( + 2)
_
(6.141)
La expresi on de la tranformada de Fourier de la secuencia de salida puede
simplicarse separando en fracciones parciales y considerando el valor del termi-
no que acompa na a la sumatoria de deltas de Dirac s olo en las frecuencias en
que estos son distintos de cero, es decir, en = 2. Sin embargo, notamos que:
H(e
j
)

=2
= H(1) =
100
3
; Z (6.142)
De esta forma:
6.3. LATRANSFORMACI

ONDE FOURIER. EL CASODE TIEMPODISCRETO147


Y (e
j
) =
1
(1 0,9e
j
)(1 0,7e
j
)(1 e
j
)
+
1
(1 0,9e
j0
)(1 0,7e
j0
)

=
( + 2) (6.143)
=
40,5
1 0,9e
j
+
8,17
1 0,7e
j
+
100
3
1 e
j
+
100
3

=
( + 2)
(6.144)
Por tanto la secuencia de salida es:
y[t] = T
d
1
_
40,5
1 0,9e
j
_
+T
d
1
_
8,17
1 0,7e
j
_
+T
d
1
_
100
3
1 e
j
+
100
3
()
_
(6.145)
= (40,5(0,9)
t
+ 8,17(0,7)
t
+ 33,3)[t] (6.146)
0 5 10 15 20 25 30 35 40 45 50
0
0.5
1
1.5
2
2.5
k
0 5 10 15 20 25 30 35 40 45 50
0
5
10
15
20
25
30
35
k
Figura 6.13: Respuesta a impulso y a escal on del ejemplo 6.14
La Figura 6.13 muestra los gr acos de las secuencias de correspondientes a
la respuesta a impulso y a escal on unitario del sistema.
Entrada exponencial compleja
Ahora u[t] = e
jot
y, de la Tabla C.4 en la p agina 391, tenemos que su
transformada de Fourier es:
U(e
j
) = 2

=
(
o
+ 2) (6.147)
Por lo tanto la transformada de Fourier de la respuesta est a dada por:
148CAP

ITULO6. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER


Y (e
j
) = H(e
j
)U(e
j
) = H(e
j
)

=
(
o
+ 2)
= 2H(e
jo
)

=
(
o
+ 2) (6.148)
Note que hemos usado la periodicidad en frecuencia de la funci on de trans-
ferencia, lo que implica:
H(e
j(o+2)
) = H(e
jo
) = [H(e
jo
)[e
j((o))
Z (6.149)
As, aplicando la transformaci on inversa, se obtiene:
y[t] = [H(e
jo
)[ e
j(ot+(o))
(6.150)
222
6.3.3. La funci on de transferencia y la respuesta en fre-
cuencia
La parte nal del Ejemplo 6.14, en la secci on precedente, muestra el vnculo
entre la funci on de transferencia y la respuesta en frecuencia de un sistema de
tiempo discreto. Este resultado se generaliza en el siguiente lema.
Lema 6.2. Dado un sistema estable de tiempo discreto con entrada u[t] y salida
y[t], la respuesta del sistema a la se nal de entrada sinusoidal u[t] = cos(
o
t), t,
es:
y[t] = A(
o
) cos(
o
t +(
o
)) (6.151)
en que:
A(
o
) =

H(e
jo
)

(6.152)
(
o
) = H(e
jo
) (6.153)
donde H(e
j
) es la transformada de Fourier de la respuesta a impulso del sis-
tema h[t].
Demostraci on
La respuesta a la excitaci on cos(
o
t), t Z, puede ser calculada como la
combinaci on de las respuestas a un par de exponenciales peri odicas, usando la
relaci on:
Y (e
j
) = H(e
j
)U(e
j
) (6.154)
6.3. LATRANSFORMACI

ONDE FOURIER. EL CASODE TIEMPODISCRETO149


frecuencia!decorte
pasabajos
pasaaltos
pasabanda
eliminabanda
Si consideramos la entrada u[t] =
1
2
(e
jot
+e
jot
), entonces:
Y (e
j
) = H(e
j
)((
o
) +( +
o
)) (6.155)
= H(e
jo
)(
o
) +H(e
jo
)( +
o
) (6.156)
luego, la salida es:
y[t] =
1
2
H(e
jo
)e
ot
+
1
2
H(e
jo
)e
jot
(6.157)
=
1
2
[H(e
jo
)[e
jot+jH(e
jo
)
+
1
2
[H(
o
)[e
jotjH(e
jo
)
(6.158)
= [H(e
jo
)[ cos(
o
t +H(e
jo
)) (6.159)
222
6.3.4. Filtraje
La respuesta en frecuencia de los sistemas discretos puede ser caracterizada
a traves de H(e
j
). Se aplican en este caso las mismas deniciones que en el caso
de sistemas de tiempo continuo: frecuencias de corte, banda de paso, banda de
rechazo, etc. Existe sin embargo un elemento que agrega complejidad al an alisis,
y el es la naturaleza perdi odica de H(e
j
). Consideremos un sistema para el que
la magnitud de la respuesta en frecuencia aparece descrita en la Figura 6.14.
10 8 6 4 2 0 2 4 6 8 10
0
0.2
0.4
0.6
0.8
1
1.2
Frecuencia
|
F
(
e
j

)
|
Figura 6.14: Respuesta en frecuencia (magnitud) de un sistema de tiempo dis-
creto.
El problema con el gr aco de la Figura 6.14 es que genera ambig uedades
respecto de si se trata de un sistema pasa bajos, pasa banda, etc. El problema
se resuelve si se considera que, cualquiera sea la se nal procesada por el sistema,
ella tambien tiene un espectro peri odico. En consecuencia, la naturaleza ltrante
se puede denir observando H(e
j
) s olo en [0; ], tal como se ha remarcado
en la Figura 6.14 con un trazo m as grueso.
150CAP

ITULO6. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER


sistema!estable
6.3.5. Caso singular en la funci on de transferencia. El caso
de los sistemas discretos
Para el caso de los sistemas de tiempo discreto conviene recordar que
La funci on de transferencia de un sistema lineal de tiempo discreto
est a denida s olo si su respuesta a un delta de Kronecker posee transformada
de Fourier. Esto es equivalente a exigir que el sistema tenga s olo frecuencias
naturales en el disco unitario cerrado, con la condici on que si algunas de
esas frecuencias naturales est an sobre la circunferencia unitaria, ellas sean
simples.
Es muy importante notar que el Lema 6.2 en la p agina 148, que iguala
H(e
j
) con la respuesta en frecuencia, est a formulado para sistemas estables.
No podemos extender este resultado a sistemas que tienen frecuencias naturales
sobre la circunferencia unitaria, aunque sean no repetidas. Veamos a traves de
un ejemplo, los resultados err oneos que surgen si no somos cuidadosos.
Ejemplo 6.15. Un sistema con entrada u[t] y salida y[t], tiene una ERS:
y[t] y[t 1] = u[t] (6.160)
Observamos que el sistema tiene s olo una frecuencia natural, y ella est a ubi-
cada en = 1, es decir, se trata de una frecuencia natural sobre la circunferencia
unitaria y de multiplicidad 1.
La respuesta en frecuencia, K() est a dada por la ganancia al modo forzante
e
jt
, y ella resulta de aplicar (3.24) a este caso particular:
K() =
e
j
1 e
j
(6.161)
Suponga que u[t] = a
t
[t], 1 > a > 0 y si, err oneamente, hacemos H(e
j
) =
K(), entonces y[t] se puede calcular a partir de:
Y (e
j
) = H(e
j
)U(e
j
) =
e
j
(e
j
1)(e
j
a)
(6.162)
de donde se obtiene:
y[t] = T
d
1
_
1
1 a
_
e
j
e
j
1

e
j
e
j
a
__
=
1
2(1 a)
_
signo [t] 2a
t
[t]

(6.163)
dando origen a una respuesta no causal, ya que la funci on signo [t] tiene valor
1, t < 0.
Para obtener la respuesta correcta, recordemos que la funci on de transferen-
cia H(e
j
) es la transformada de Fourier de la respuesta del sistema a un delta
de Kronecker. Aplicando esta denici on a nuestro sistema se llega a:
6.3. LATRANSFORMACI

ONDE FOURIER. EL CASODE TIEMPODISCRETO151


H(e
j
) =
e
j
e
j
1
+

=
( 2) (6.164)
y, usando la periodicidad de la funci on e
j
, se tiene que:
Y (e
j
) =
1
1 a
_
e
j
e
j
1

e
j
e
j
a
+

=
( 2)
_
(6.165)
Entonces, la salida se obtiene, por ejemplo, usando Maple :
y[t] = T
d
1
_
1
( +a)
+

a
()
_
=
1 a
t
1 a
[t] (6.166)
que es la respuesta correcta.
222
El ejemplo precedente ilustra y explica el problema. Cuando el sistema tiene
frecuencias naturales sobre la circunferencia unitaria, los modos naturales aso-
ciados no decaen, y la transformada de Fourier de cada uno de ellos s olo existe
en el lmite. Esta condici on es acusada por la presencia de deltas de Dirac en
el dominio de la frecuencia . As, la funci on de transferencia es una funci on
racional m as uno o varios deltas de Dirac en .
La explicaci on de esta situaci on es an aloga a la del caso continuo.
152CAP

ITULO6. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER


6.4. Problemas para el lector
Problema 6.1. Determine la transformada de Fourier de las siguientes fun-
ciones, ya sea mediante la deci on o usando tablas y transformadas conocidas
(ver Apendice C):
1. y(t) = [(t +T) (t T)]t ; T > 0
2. y(t) = (1 2e
]t]
)
2
3. y(t) =
1

2
e

t
2

2
(Recuerde que
_

e
u
2
du =

)
Problema 6.2. Considere la funci on:
y(t) =
_

_
4t(t + 1) ; 1 < t < 0
4t(t 1) ; 0 < t < 1
0 ; [t[ 1
6.2.1 Graque la funci on.
6.2.2 Determine la transformada de Fourier Y ( ) de la funci on y(t).
6.2.3 Cu al es la serie de Fourier exponencial de y(t) consider andola solo en
el intervalo [-1,1]?
6.2.4 Graque por separado la parte real e imaginaria de Y ( ) y compare con
los coecientes obtenidos para la serie de Fourier exponencial. Comente.
Problema 6.3. Demuestre que una funci on f(t) arbitraria (o de perodo in-
nito) puede expresarse en la forma de Integral de Fourier:
f(t) =
1

_

0
[A() cos(t) +B() sen(t)] d
en que:
A() =
_

f(t) cos(t)dt
B() =
_

f(t) sen(t)dt
C omo se reducen las expresiones si f(t) es par o impar?
Problema 6.4. Usando la ecuaci on de Euler para exponenciales complejas:
6.4. PROBLEMAS PARA EL LECTOR 153
6.4.1 Demuestre que si y(t) es par, entonces su transformada de Fourier Y ( )
es real.
6.4.2 An alogamente, demuestre que si y(t) es impar, entonces su transformada
de Fourier Y ( ) es imaginaria pura.
Problema 6.5. Considere el sistema de segundo orden denido por:
d
2
y(t)
dt
2
+ 100y(t) = 100u(t)
Encuentre la salida del sistema mediante la transformaci on de Fourier cuan-
do
6.5.1 u(t) = sen(
o
t)(t), con condiciones iniciales cero.
6.5.2 u(t) = sen(
o
t).
6.5.3 Graque y compare las soluciones obtenidas en los puntos anteriores
cuando
o
,= 10 y cuando
o
= 10 . Comente.
Problema 6.6. Suponga que se quiere dise nar un sistema cuya caracterstica
en frecuencia sea:
H( ) =
_
1 ; [[ <
c
0 ; [[ < 0
Es decir, este sistema act ua como ltro ideal ya que permite el paso de
sinusoides de frecuencias menores que
c
sin afectarlas, mientras que aquellas
de frecuencias mayores no aparecen en la salida.
6.6.1 Graque H( )
6.6.2 Determine cu al debiera ser la respuesta a impulso del sistema.
6.6.3 Que puede comentar respecto del resultado obtenido?
Problema 6.7. Determine la transformada de Fourier discreta delas siguientes
funciones:
y[t] = (t + 1)
t
[t] , con [[ < 1
y[t] =
2
t
+ 3
t
6
t
[t]
y[t] = cos(
1
t +) , con 0 <
1
< 2
154CAP

ITULO6. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE FOURIER


Problema 6.8. Considere un pulso de tiempo discreto de amplitud A > 0 y
centrado en t = 0, denido por:
y[t] =
_
A ; [t[ N
0 : [t[ > N
N Z
+
6.8.1 Graque el pulso en tiempo discreto para algunos valores de A y N.
6.8.2 Determine la transformada de Fourier discreta de y[t] ( Sugerencia : use
la ecuaci on B.2.35).
6.8.3 Graque la transformada de Fourier discreta para distintos valores de N.
6.8.4 Determine el valor de Y (e
j0
) en funci on de N.
6.8.5 Analice que sucede para valores extremos de N, es decir, cuando N = 0
y cuando N .
Problema 6.9. Determine la respuesta a un delta de Kronecker y a un escal on
unitario de los sistemas de tiempo discreto dados por sus ERS:
6.9.1 y[t] y[t 1] = 2u[t 7]; y[1] = 1
6.9.2 y[t] = u[t 1] 0, 5u[t 2] + 0, 2u[t 3]
6.9.3 y[t] 1, 1y[t 1] + 0, 24y[t 2] = u[t 2]; y[1] = 1; y[2] = 1
Problema 6.10. Tenemos un sistema de tiempo discreto el queremos que su
respuesta en frecuencia sea igual a:
H(e
j
) =
_
1 ; [[ <
c
0 ;
c
< [[
6.10.1 Determine su respuesta a un delta de Kronecker.
6.10.2 Determine, si es posible, su respuesta a un escal on de tiempo discreto.
Comente.
Laplace
transformadade
Laplace|textbf
sistema!din amico
sistema!estable
sistema!inestable
se~ nal!noacotada
se~ nal!detiempocontinuo
Captulo 7
Analisis bajo excitaciones
arbitrarias. La
transformada de Laplace
Entre los metodos disponibles para el estudio de los sistemas din amicos,
lineales y de tiempo continuo, uno en particular resulta ser especialmente util:
la transformada de Laplace. Las principales ventajas de este metodo se pueden
resumir en lo siguiente:
Permite el an alisis de sistemas lineales estables e inestables.
Se puede aplicar a una vasta gamas de se nales no acotadas.
Permite incluir las condiciones iniciales del sistema.
La EDS es transformada en una ecuaci on algebraica, que puede ser mane-
jada de manera m as simple.
7.1. Denici on de la transformada
Considere una se nal de tiempo continuo y(t), denida para 0 t < .
La transformada de Laplace asociada a y(t), y su transformada inversa est an
denidas como:
Ly(t) = Y (s) =
_

0

e
st
y(t)dt (7.1)
L
1
Y (s) = y(t) =
1
2j
_
+j
j
e
st
Y (s)ds (7.2)
155
156CAP

ITULO7. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE LAPLACE


transformadadeLaplace!definici on
transformadade
Laplace!inversa
transformadade
Laplace!regi ondeconvergencia
fraccionesparciales
funci ondetransferencia
ecuaci ondiferencial!del
sistema
EDS
Y (s) es la transformada de Laplace de y(t). El par transformada y su trans-
formada inversa est an est an bien denidas si existe R, y una constante
positiva k < tales que:
[y(t)[ < ke
t
; t 0 (7.3)
La regi on 's se conoce como la regi on de convergencia de la
transformada.
Suponemos que el lector ha conocido estas ideas anteriormente en alg un
curso de Matem aticas, a pesar de lo cual se presenta en el Apendice D una
revisi on de la transformada de Laplace, sus propiedades y las transformadas
de algunas funciones simples. Tambien se incluye una revisi on del metodo de
fracciones parciales, el cual resulta de utilidad para obtener transformadas de
Laplace inversas para funciones racionales.
En este captulo nos concentraremos en esta transformada como herramienta
para el an alisis de los sistemas lineales.
7.2. Aplicaci on a sistemas lineales: la funci on de
transferencia
Como ya hemos visto, una gran cantidad y variedad de sistemas de interes,
pueden ser representados mediante un modelo lineal. Como se vio en el Captulo
1, esto se consigue linealizando la o las ecuaciones diferenciales que describen el
comportamiento del sistema en el tiempo en torno a un punto de equilibrio o,
m as generalmente, en torno a un punto de operaci on. Para el caso de sistemas de
una entrada y una salida, el proceso de linealizaci on desemboca en la obtenci on
de una ecuaci on diferencial del sistema (EDS), cuya forma general es:
d
n
y(t)
dt
n
+a
n1
d
n1
y(t)
dt
n1
+. . . +a
0
y(t) = b
m
d
m
dt
m
u(t) +. . . +b
0
u(t) (7.4)
Cuando se aplica transformada de Laplace a la EDS, usando una de la
propiedades vistas en el Apendice D, la transformada de la derivada de una
funci on es:
L
_
d

y(t)
dt

_
= s

Y (s) s
1
y(0

)
d
n1
y(0

)
dt
n1
(7.5)
Por tanto, si aplicamos esto a la EDS (7.4) tenemos que:
s
n
Y (s) +a
n1
s
n1
Y (s) +. . . +a
0
Y (s)
= b
m
s
m
U(s) +. . . +b
0
U(s) +f(s, x
o
) (7.6)
donde f(s, x
o
) es una funci on que depende de la variable s y de las n condiciones
iniciales de la salida y(t) y sus derivadas. Es importante destacar que:
7.2. APLICACI

ONASISTEMAS LINEALES: LAFUNCI

ONDE TRANSFERENCIA157
condicionesiniciales
funci ondetransferencia
funci on!racional
funci onde
transferencia!ceros
ceros
f(s, x
0
) = p(s)
T
x
0
(7.7)
donde p(s) es un vector que contiene polinomios en s y x
0
es un vector que
contiene las condiciones iniciales ya mencionadas. Esta estructura explicita la
linealidad del sistema, puesto que la homogeneidad y superposici on respecto de
las condiciones iniciales resulta evidente.
Ahora si suponemos condiciones iniciales iguales a cero, tenemos que:
Y (s) = H(s)U(s) (7.8)
donde se dene la funci on:
H(s) =
B(s)
A(s)
(7.9)
que se forma con los polinomios que contienen los coecientes de la ecuaci on
(7.4) original:
A(s) = s
n
+a
n1
s
n1
+. . . +a
0
(7.10)
B(s) = b
m
s
m
+b
m1
s
m1
+. . . +b
0
(7.11)
La funci on racional H(s) es la funci on de transferencia en el dominio
de Laplace. La representaci on (7.9) es muy util para describir caractersticas
y propiedades de un sistema tales como estabilidad y velocidad, adem as de
entregar informaci on en el momento de dise nar sistemas de control, ltros u
otras aplicaciones.
Ejemplo 7.1. Consideremos un sistema descrito por la ecuaci on diferencial:
d
2
y
dt
2
+ 2
d y
dt
= u(t) (7.12)
Su funci on de transferencia es:
H(s) =
1
s
2
+ 2s
(7.13)
222
A continuaci on deniremos algunos conceptos que se encuentran fuertemente
ligados a la denici on de la funci on de transferencia de un sistema. Para esto
consideremos su denici on dada por las ecuaciones (7.9), (7.10) y (7.11). Por
simplicidad, asumiremos que los polinomios B(s) y A(s) no se hacen cero si-
mult aneamente para alg un valor de la variable compleja s. As, denimos en-
tonces los siguientes terminos:
(i) Las m races de la ecuaci on B(s) = 0 son los ceros del sistema. Ellos
hacen adem as que H(s) = 0.
158CAP

ITULO7. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE LAPLACE


funci ondetransferencia!polos
polos
funci onde
transferencia!multiplicidad
multiplicidad
funci onde
transferencia!gradorelativo
gradorelativo
funci ondetransferencia!estrictamentepropia
funci onde
transferencia!bipropia
funci ondetransferencia!propia
funci onde
transferencia!impropia
sistema!estable
entrada
salida
respuesta!a impulso
impulso!respuestaa
(ii) Las n races de la ecuaci on A(s) = 0 son los polos del sistema. Ellos hacen
adem as que H(s) .
(iii) Si A(s) = 0 tiene n
k
races en s =
k
, decimos que el polo
k
tiene
multiplicidad n
k
.
(iv) La diferencia de grado entre A(s) y B(s), es decir, mn se denomina el
grado relativo del sistema.
(v) Si m < n decimos que el modelo es estrictamente propio. Esto implica
que el grado relativo del sistema es positivo.
(vi) Si m = n decimos que el modelo es bipropio. Esto implica que el grado
relativo del sistema es cero.
(vii) Si m n decimos que el modelo es propio.
(viii) Si m > n decimos que el modelo es impropio, o que tiene grado relativo
negativo.
Estas deniciones nos ayudar an a apreciar la forma en que se relaciona la
salida de un sistema con su entrada, tal como pone en evidencia la denici on
(7.9), pero la simplicidad reside en que la relaci on se establece mediante la
funci on racional H(s), es decir, las derivadas han desaparecido. Si bien para
llegar a esta relaci on las condiciones iniciales se han supuesto cero, sabemos que
en caso de sistemas estables, el efecto de estas desaparece despues de un tiempo.
La funci on de transferencia de un sistema lineal describe en forma algebraica
sus propiedades de entrada-salida.
En forma similar a aquella que se utiliz o en el an alisis de Fourier, la funci on
de transferencia puede ser denida en base a la respuesta a impulso, con condi-
ciones iguales a cero. Si recordamos como se deni o al funci on de transferencia
H(s) al aplicar transformada de Laplace a la EDS del sistema denido en (7.4),
podemos escribir la salida del sistema seg un la ecuaci on (7.8). Se puede apre-
ciar que si a ambos lados de esta expresi on, se aplica transformada de Laplace
inversa, tenemos que (vea la Tabla D.1 en la p agina 414):
Y (s) = H(s)U(s) y(t) = h(t) u(t) (7.14)
En que:
h(t) = L
1
H(s) (7.15)
Por lo tanto, podemos armar que:
7.2. APLICACI

ONASISTEMAS LINEALES: LAFUNCI

ONDE TRANSFERENCIA159
funci ondetransferencia!con
retardo
funci on!racional
retardo
La funci on de transferencia H(s) de un sistema de tiempo continuo, denida
en (7.9), es igual a la transformada de Laplace de la respuesta h(t) del
sistema a un impulso (Delta de Dirac) en la entrada, cuando las condiciones
iniciales cero.
Aunque en la mayora de los casos de interes, la funci on de transferencia es
una funci on racional en s. Sin embargo, cuando el sistema tiene un retardo ,
la expresi on general para la funci on de transferencia es:
H(s) =
B(s)
A(s)
e
s
(7.16)
La funcion de tranferencia en Matlab puede denirse mediante vectores
con los coecientes de los polinomios A(s) y B(s), y el comando tf :
Matlab
>> A=[1 3 2],B=[1 1]
A =
1 3 2
B =
1 1
>> H=tf(B,A)
Transfer function:
s + 1
-------------
s^2 + 3 s + 2
O bien, deniendo la variable s:
160CAP

ITULO7. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE LAPLACE


deltadeDirac!en
frecuencia Matlab
>> s=tf([1 0],[1])
Transfer function:
s
>> H=(s+1)/(s^2+2*s+1)
Transfer function:
s + 1
-------------
s^2 + 2 s + 1
7.2.1. Funci on de transferencia en dominios de Laplace y
Fourier
Cuando el sistema tiene frecuencias naturales en el SPI cerrado, con la re-
stricci on que aquellas frecuencias en el eje imaginario sean simples, las funciones
de transferencia en ambos dominios existen. El elemento com un es conceptual:
en ambos casos, la funci on de transferencia corresponde a la respec-
tiva transformada de la respuesta a impulso con condiciones iniciales
iguales a cero.
La denici on y la estructura de H(s) parecen ser identicas a la denici on y la
estructura de la funci on de transferencia en el dominio de Fourier, bastando hac-
er una simple sustituci on de s por . Sin embargo, esto no siempre es correcto.
La diferencia es que cuando el sistema tiene frecuencias naturales (simples) en
el eje imaginario, la funci on de transferencia en Fourier incluye deltas de Dirac
en frecuencia. Esto se origina en el hecho que la respuesta a impulso del sistema
contiene modos naturales que no decaen y para los cuales la transformada de
Fourier existe s olo en el lmite. En cambio, para el mismo sistema, la funci on de
transferencia en Laplace no contiene impulsos en frecuencia, debido a que esta
transformada est a bien denida, bastando escoger 's > 0.
Ejemplo 7.2. Consideremos el sistema con la EDS:
d
2
y(t)
dt
2
+a
1
d y(t)
dt
+y(t) = u(t) (7.17)
donde a
1
0.
La funci on de transferencia, en el dominio de Laplace, es:
H
L
(s) =
1
s
2
+a
1
s + 1
; 's > 0 (7.18)
En cambio, en el caso de Fourier, debemos distinguir dos casos.
7.3. RESPUESTA A IMPULSO Y RESPUESTA A ESCAL

ON. 161
impulso!respuestaa
escal on!respuestaa
respuesta!aimpulso
respuesta!aescal on
modos!naturales
(i) Caso a
1
> 0 :
En este caso, las frecuencias naturales est an en el SPI abierto, por lo
tanto, los modos naturales son absolutamente integrables y la funci on de
transferencia en el dominio de la transformaci on de Fourier es:
H
F
( ) =
1
( )
2
+a
1
+ 1
(7.19)
En este caso:
H
F
( ) = H
L
(s)[
s=
(7.20)
(ii) Caso a
1
= 0 :
En este caso, las frecuencias naturales est an sobre el eje imaginario y los
modos naturales combinados corresponden a una sinusoide. M as espec-
camente, la respuesta a impulso, con condiciones iniciales iguales a cero
es:
h(t) = sen(t)(t) (7.21)
En consecuencia (vea la Tabla C.2 en la p agina 389, con
o
= 1) la funci on
de transferencia en el dominio de la transformaci on de Fourier es:
H
F
( ) =
j
2
(( + 1) ( 1)) +
1
( )
2
+ 1
(7.22)
Se observa que, en este caso, no se cumple (7.20).
222
La relaci on entre transformada de Fourier y transformada de Laplace puede
ser resumida en la siguiente armaci on:
Las transformaciones de Laplace y Fourier son equivalentes, via la relaci on
s = , en aquellos casos en que la transformada de Laplace existe para
's > , donde < 0.
7.3. Respuesta a impulso y respuesta a escal on.
Como ya hemos visto, la funci on de transferencia est a asociada a la respuesta
a impulso del sistema. Por otro lado sabemos que si se aplica un impulso a la
entrada, la respuesta contiene solamente los modos naturales del sistema; esto
nos permite estudiar su comportamiento natural, que es independiente de la
162CAP

ITULO7. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE LAPLACE


valorfinal
se nal de entrada (caractersticas del transiente, velocidad de respuesta, etc.), a
partir del an alisis de la funci on H(s).
Debido a la idealizaci on implcita en la denici on de un impulso es mucho
m as frecuente estudiar la din amica natural de un sistema con la ayuda de la
respuesta a escal on, es decir, cuando U(s) = 1/s.
La denici on (7.9) nos permite expresar la respuesta a escal on unitario
del sistema como:
Y (s) = H(s)
1
s
(7.23)
Lo cual, suponiendo que el sistema no tiene polos en el origen,
corresponde a:
y(t) = y

+ modos naturales del sistema (7.24)


donde y

= H(0), en virtud del Teorema del Valor Final (ver Teorema D.1 en
la p agina 410). Si el sistema es estable, entonces los modos naturales decaen
exponencialmente a cero. Luego, para sistemas estables, la respuesta en estado
estacionario est a dada por la constante y

. Note que si H(s) tiene uno o m as


ceros en s = 0, entonces y

= 0.
Ejemplo 7.3. Consideremos el sistema denido por su EDS:
d
2
y(t)
dt
2
+ 5
d y(t)
dt
+ 4y(t) = 2u(t) (7.25)
Si aplicamos transformada de Laplace a ambos lados, suponiendo condiciones
iniciales iguales a cero, podemos obtener la funci on de transferencia del sistema:
s
2
Y (s) + 5sY (s) + 4Y (s) = 2U(s) (7.26)
H(s) =
Y (s)
U(s)
=
2
s
2
+ 5s + 4
(7.27)
La respuesta del sistema cuando u(t) es un Delta de Dirac se obtiene direc-
tamente de H(s)
U(s) = L(t) = 1 Y (s) = H(s) =
2
s
2
+ 5s + 4
(7.28)
Donde podemos aplicar transformada inversa separando en fracciones par-
ciales
1
, o bien con ayuda de Maple :
1
Este metodo se detalla en el Apendice D.
7.3. RESPUESTA A IMPULSO Y RESPUESTA A ESCAL

ON. 163
Maple
>with(inttrans):
>U(s):=laplace(Dirac(t),t,s);
>Y(s):=2/(s^2+5*s+4)*U(s);
>Y(s):=convert(Y(s),parfrac,s);
>y(t):=invlaplace(Y(s),s,t);
U(s) = 1 (7.29)
Y (s) =
2
s
2
+ 5s + 4
(7.30)
Y (s) =
2
3
_
1
s + 1
+
1
s + 4
_
(7.31)
y(t) =
2
3
e
t

2
3
e
4t
(7.32)
La respuesta a escal on unitario se puede obtener de manera similar
U(s) = L(t) =
1
s
Y (s) =
2
s
2
+ 5s + 4

1
s
(7.33)
Donde se aplica transformada inversa:
Maple
>with(inttrans):
>U(s):=laplace(Heaviside(t),t,s);
>Y(s):=2/(s^2+5*s+4)*U(s);
>y(t):=invlaplace(Y(s),s,t);
U(s) =
1
s
(7.34)
Y (s) =
2
s(s + 1)(s + 4)
(7.35)
y(t) =
1
2

2
3
e
t
+
1
6
e
4t
(7.36)
En la Figura 7.1 se puede apreciar tanto la respuesta a escal on recien obteni-
da as como la respuesta impulso. Estas se generaron en Matlab, con los co-
mandos impulse y step, que usan como argumento el sistema denido mediante
su funcion de transferencia:
164CAP

ITULO7. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE LAPLACE


Matlab
>>G=tf([2],[1 5 4]);
>>subplot(2,1,1),impulse(G);
>>subplot(2,1,2),step(G);
Time (sec.)
A
m
p
l
i
t
u
d
e
Impulse Response
0 1 2 3 4 5 6
0
0.1
0.2
0.3
0.4

Time (sec.)
A
m
p
l
i
t
u
d
e
Step Response
0 1 2 3 4 5 6
0
0.1
0.2
0.3
0.4
0.5

Figura 7.1: Respuestas a impulso y a escal on en Ejemplo 7.3
222
Es util denir tambien un conjunto de par ametros que describen ciertas
propiedades de la din amica del sistema. Para identicar estos par ametros a
denir consideremos la funci on de transferencia dada por:
G(s) = 9
s + 1
s
2
+ 4s + 9
(7.37)
La respuesta a escal on del sistema se muestra en la Figura 7.2. Entonces
podemos denir los siguientes ndices:
Respuesta estacionaria, y

: el valor nal de la respuesta a escal on, siempre


y cuando el sistema tiene sus polos en el SPI abierto.
7.3. RESPUESTA A IMPULSO Y RESPUESTA A ESCAL

ON. 165
t
p
t
u

k
r
y


M
u

t
r

Tiempo
t
s

0
y

+M
p

y

+
Figura 7.2:

Indices denidos en la respuesta a escalon
Tiempo de Subida (Rise time), t
r
: el instante de tiempo en que la res-
puesta a escal on alcanza por primera vez el valor de la respuesta esta-
cionaria y

.
2
Sobre-respuesta (Overshoot), M
p
: el valor m aximo que alcanza la respues-
ta a escal on, usualmente expresado como el porcentaje en que se sobrepasa
la respuesta estacionaria y

.
Maxima contra-respuesta (Undershoot), M
u
: el m aximo (en valor abso-
luto) que la respuesta a escal on alcanza bajo el cero.
Tiempo de asentamiento (Settling time), t
s
: el tiempo luego del cual la
respuesta a escal on queda connada a una banda de desviaci on , alrede-
dor del respuesta estacionaria. Esta deviaci on, , se dene generalmente
como un porcentaje de y

, del 2 % o 5 %.
Para el ejemplo en particular, denido en la ecuaci on (7.37) y cuya respuesta
a escal on se muestra en la Figura 7.2, el valor de los ndices denidos se muestran
en la Tabla 7.1.
3
2
Esta denici on vara de autor a autor, por tanto debe tenerse claro de que se est a hablando
al utilizarla.
3
Note que para este ejemplo en particular, hemos elegido un valor inusualmente grande
para , para una mejor visualizaci on.
166CAP

ITULO7. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE LAPLACE


Indice Denici on Valor en el ejemplo
y

respuesta estacionaria 1
t
r
tiempo de subida 1.0
M
p
sobre-respuesta 0.5
M
u
m ax. contra-respuesta 1.5
t
s
tiempo de asentamiento 1.8
Cuadro 7.1:

Indices de la respuesta a escal on
7.4. Respuesta a condiciones iniciales y se nales
arbitrarias.
De la misma manera que en la secci on precedente se obtuvo las respuestas
a impulso y a escal on del sistema, la transformada de Laplace permite obtener
la respuesta del sistema cuando la entrada en un tipo m as general de se nales.
Sin embargo, la ventaja principal que esta transformada, a diferencia de la
transformada de Fourier, permite inclur el efecto de las condiciones iniciales.
Veamos para esto el siguiente ejemplo:
Ejemplo 7.4. Consideremos el sistema denido por su EDS:
d
2
y(t)
dt
2
+
d y(t)
dt
+y(t) = u(t) (7.38)
Obtengamos primero la salida del sistema cuando la entrada u(t) es cero, y
tenemos condiciones iniciales y(0

) = 1 e y
t
(0

) = 1. Si aplicamos transfor-
mada de Laplace, recordando la propiedad (7.5), tenemos que:
s
2
Y (s) sy(0

) y
t
(0

) +sY (s) y(0

) +Y (s) = 0 (7.39)
s
2
Y (s) s 1 +sY (s) 1 +Y (s) = 0 (7.40)
Y (s)(s
2
+s + 1) = s + 2 (7.41)
Y (s) =
s + 2
s
2
+s + 1
(7.42)
Donde, para aplicar la inversa, podemos observar que la transformada que
aparece no puede separarse directamente en fracciones parciales, pues sus polos
son complejos, pero si pueden llevarse a la forma de la transformada del seno
y del cosenos con un corrimiento en s. Este corrimiento corresponde a una
exponencial en el tiempo (vea (D.26) en el Apendice D):
7.4. RESPUESTAACONDICIONES INICIALES YSE

NALES ARBITRARIAS.167
Y (s) =
s + 2
(s +
1
2
)
2
+
3
4
(7.43)
=
s +
1
2
(s +
1
2
)
2
+
3
4
+

3
2
(s +
1
2
)
2
+
3
4
(7.44)
Por tanto, la respuesta a las condiciones iniciales dadas es:
y(t) = e

1
2
t
cos
_

3
2
t
_
+

3 e

1
2
t
sen
_

3
2
t
_
(7.45)
En la Figura 7.3 se puede apreciar el punto de partida y la pendiente inicial
de la se nal y(t).
0 1 2 3 4 5 6 7 8 9 10
0
0.5
1
t [seg]
y
(
t
)
Figura 7.3: Respuesta a condiciones iniciales para el ejemplo 7.4
Es importante recalcar en este ejemplo que las condiciones iniciales que se
insertan en los c alculos al aplicar la transformada de Laplace corresponden a
las de la se nal en t = 0

. Es decir, son los valores de la funci on y(t) y de su


derivada justo antes que el sistema comience a evolucionar bajo el efecto de
la entrada (que, en el ejemplo previo, es cero). Este alcance es importante pues,
en ciertos casos, se puede producir una discontinuidad en la salida del sistema
en el instante t = 0, es decir, y(0
+
) ,= y(0
+
). Veamos esto en un ejemplo.
Ejemplo 7.5. Considere la red electrica de la Figura 7.4 en que se conecta la
batera de 1[V] en t = 0, y todas las condiciones iniciales son cero.
Por ley de voltajes de Kircho tenemos:
v
f
(t) = v
R
(t) +v
C
(t) (7.46)
(t) = Ri(t) +
1
C
_
t

i()d (7.47)
Derivando a ambos lados y aplicando la transformada de Laplace, con condi-
ci on inicial cero:
168CAP

ITULO7. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE LAPLACE


valorinicial R
v
f
(t)
+
i(t)
C v
c
(t)
Figura 7.4: Circuito RC
d (t)
dt
= R
d i(t)
dt
+
1
C
i(t) (7.48)
s
1
s
= R
_
sI(s) i(0

+
1
C
I(s) (7.49)
Despejando se obtiene:
I(s) =
C
s RC + 1
(7.50)
Si aplicamos el Teorema del Valor Inicial (vea Apendice D), tenemos que:
i(0
+
) = lm
s
sI(s) = lm
s
s C
s RC + 1
=
1
R
(7.51)
Evidentemente esta es diferente a la corriente inicial, dada en t = 0

. Esto
se comprueba observando que la transformada inversa de I(s) es discontinua en
t = 0:
i(t) = L
1
I(s) = L
1
_
1/R
s + 1/RC
_
=
1
R
e
t/RC
(t) (7.52)
222
Consideremos ahora el caso en que la entrada es una se nal arbitraria.
Ejemplo 7.6. Consideremos el mismo sistema del Ejemplo 7.5, pero en que
ahora la entrada es un pulso denido como:
u(t) =
_
1 ; 0 t 10
0 ; t > 10
(7.53)
Las condiciones iniciales son iguales a cero, por simplicidad. Note que no
habra problemas en considerar el efecto de estas, ya sea incluyendolas en el
desarrollo mediante transformada de Laplace, o bien, dada la linealidad del sis-
tema, se calculando su efecto en la salida por separado y sumandolo al efecto de
la se nal de entrada.
La funci on de transferencia del sistema, si se aplica transforma de Laplace,
es:
7.4. RESPUESTAACONDICIONES INICIALES YSE

NALES ARBITRARIAS.169
H(s) =
Y (s)
U(s)
=
1
s
2
+s + 1
(7.54)
La transformda de Laplace del pulso u(t) puede obtenerse sin problema, ya
que esta funci on se expresa en terminos de escalones y se puede utilizar la
propiedad de corrimiento temporal, que se traduce en una exponencial en s (vea
(D.23) en el Apendice D):
Lf(t t
0
)(t t
0
) = e
st0
F(s)
Por tanto:
u(t) = (t) (t 10) U(s) =
1
s
e
10s
1
s
(7.55)
Luego, la transformada de la salida es:
Y (s) = H(s)U(s) =
1 e
10s
s(s
2
+s + 1)
(7.56)
Note que para obtener la inversa, dado que la exponencial s olo representa un
corrimiento en el tiempo, podemos concentrarnos s olo en la parte racional de
Y (s), para luego aplicarle dicha traslaci on temporal. Es decir, consideremos:
F(s) =
1
s(s
2
+s + 1)
=
1
s

s + 1
s
2
+s + 1
=
1
s

s +
1
2
(s +
1
2
)
2
+
3
4

3
2
(s +
1
2
)
2
+
3
4
(7.57)
Donde se observa que tenemos la forma de la transformada de un escal on,
del seno y del coseno, estas ultimas con un corrimiento en la variable s. Este
corrimiento en s corresponde a una exponencial en el tiempo (Apendice D), por
lo tanto:
f(t) =
_
1 e

1
2
t
_
cos
_

3
2
t
_
+
1

3
sen
_

3
2
t
_
__
(t) (7.58)
Luego la salida es:
y(t) = L
1
_
(1 e
10s
)F(s)
_
= f(t) f(t 10) (7.59)
Es decir:
y(t) =
_
1 e

1
2
t
_
cos
_

3
2
t
_
+
1

3
sen
_

3
2
t
_
__
(t)

_
1 e

1
2
(t10)
_
cos
_

3
2
(t 10)
_
+
1

3
sen
_

3
2
(t 10)
_
__
(t 10)
(7.60)
En la Figura 7.5 se muestra el pulso de entrada u(t) y la salida del sistema,
y(t), ante esta excitaci on.
170CAP

ITULO7. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE LAPLACE


0 2 4 6 8 10 12 14 16 18 20
0.5
0
0.5
1
1.5
t [seg]
u
(
t
)


y
(
t
)
Figura 7.5: Pulso de entrada y respuesta del sistema del ejemplo 7.6.
Para nalizar, veamos un caso en que la transformada de Laplace permite,
de manera similar a la transformada de Fourier, analizar la respuesta de un
sistema a una se nal sinusoidal.
Ejemplo 7.7. Consideremos nuevamente el sistema del Ejemplo 7.4 denido
por su EDS:
d
2
y(t)
dt
2
+
d y(t)
dt
+y(t) = u(t) (7.61)
Supongamos que como entrada al sistema se elige una se nal sinusoidal de
frecuencia , por ejemplo:
u(t) = cos(t) (7.62)
Con esto y con ayuda de Maple podemos llegar de manera directa a una
expresi on para la transformada de Laplace de la salida y aplicarle transformaci on
inversa:
Maple
>with(inttrans):
>assume(omega>0):
>U(s):=laplace(cos(omega*t),t,s);
>H(s):=1/(s^2+s+1);
>Y(s):=H(s)*U(s);
>y(t):=invlaplace(Y(s),s,t);
7.5. ESTABILIDAD 171
respuestaenfrecuencia
estabilidad
U(s) =
s
s
2
+
2
(7.63)
H(s) =
1
s
2
+s + 1
(7.64)
Y (s) =
s
s
2
+
2

1
s
2
+s + 1
(7.65)
y(t) =
1
2

2
+ 1 +
4
cos(t) +

2
+ 1 +
4
sen(t) +modos naturales
(7.66)
Los modos naturales del sistema decaen a cero cuando t , por tanto
podemos concentrarnos s olo en la componente particular de la salida. Las com-
ponentes seno y coseno pueden combinarse en un solo termino:
y(t) = A() cos (t +()) +modos naturales (7.67)
En que A() y () son la amplitud y angulo de desfase, respectivemente
denidos por:
A() =
1

2
+ 1 +
4
(7.68)
() = arctan
_

1
2
_
(7.69)
En estas expresiones se aprecia como la amplitud y la fase de la se nal de
salida dependen de la frecuencia , es decir, corresponden a la respuesta en
frecuencia del sistema. Esto se graca en la Figura 7.6, con los comandos de
Matlab :
Matlab
>>H=tf(1,[1 1 1]); w=[0:0.01:5];
>>h=freqresp(H,w);hw=h(:);
>>subplot(2,1,1);plot(w, abs(hw));
>>subplot(2,1,2);plot(w, unwrap(angle(hw))*180/pi);
222
7.5. Estabilidad
Hasta aqu hemos visto que la respuesta de un sistema que tiene una funci on
de transferencia H(s) es de la forma:
172CAP

ITULO7. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE LAPLACE


multiplicidad!polos
l mitedeestabilidad
SPI
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
0
0.2
0.4
0.6
0.8
1
1.2
1.4
M
a
g
n
i
t
u
d
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
200
150
100
50
0
F
a
s
e
Frecuencia [rad/s]
Figura 7.6: Magnitud y fase de la respuesta en frecuencia del sistema en Ejemplo
7.7.
Y (s) = H(s)U(s) +
p

k=1
n
k

i=1

ki
(s
k
)
i
(7.70)
Donde el valor de cada
ki
depende de las condiciones iniciales, y donde
hemos asumido que cada polo ubicado en s =
k
, tiene multiplicidad n
k
. Esta
suposici on implica a su vez que n
1
+n
2
+. . . +n
p
= n.
Recordando la denici on de estabilidad, un sistema es estable si cualquier
entrada acotada produce una salida tambien acotada, para cualquier condici on
inicial acotada. Si observamos la ecuaci on (7.70) podemos armar que la condi-
ci on necesaria y suciente para que el sistema sea estable es que los polos de
este, en el denominador de las fracciones del segundo termino de la ecuaci on,
den origen a se nales que decaigan exponencialmente. Esto se traduce en que los
polos del sistema deben tener parte real estrictamente negativa, es decir, deben
estar ubicados sobre el semiplano izquierdo (SPI) abierto del plano com-
plejo s . Es decir, para sistemas continuos el lmite de estabilidad en un plano
complejo s en que se ubican sus polos es el eje imaginario .
Ejemplo 7.8. Consideremos el sistema del ejemplo 7.1. Los polos de su funci on
de transferencia est an ubicados en s = 2 y s = 0. Estos no est an en el SPI
abierto (el 0 est a en el SPI cerrado). Por tanto el sistema no es estable. Se
7.5. ESTABILIDAD 173
Hurwitz!polinomio
deja al lector el vericar, usando la transformada de Laplace, que una entrada
constante (diferente de cero) produce una salida que crece indenidamente.
222
7.5.1. Analisis de polinomios
La discusi on anterior pone de maniesto la importancia de conocer la ubi-
caci on de los polos de un sistema, para establecer si se trata o no de un sis-
tema estable. Sin embargo, el determinar la ubicaci on exacta de las races de la
ecuaci on:
A(s) = s
n
+a
n1
s
n1
+. . . +a
0
= 0 (7.71)
puede ser una tarea bastante engorrosa cuando n 3. Por esto en el an alisis del
polinomio A(s), m as que determinar exactamente sus races, lo que nos interesa
es poder asegurar si estas tienen o no parte real estrictamente negativa. Para
esto, consideremos el polinomio p(s) denido como:
p(s) = s
n
+a
n1
s
n1
+. . . +a
1
s +a
0
(7.72)
donde a
i
R.
El problema a estudiar se reere a determinar si este polinomio tiene o no
todas sus races con parte real estrictamente negativa, o de manera equivalente,
si tiene o no races con parte real mayor o igual que cero. La idea puede nat-
uralmente ser resuelta calculando las n races de p(s). Sin embargo en muchas
aplicaciones resulta de especial interes estudiar la relaci on entre los coecientes
del polinomio con la ubicaci on de sus races.
Los polinomios que tienen todas sus races en el semiplano izquierdo cerrado
se conocen como polinomios Hurwitz. Si sus races tienen parte real estric-
tamente negativa, es decir, se ubican sobre el SPI abierto, los denominaremos
estrictamente Hurwitz .
De la ecuaci on (7.72) podemos observar interesantes propiedades que por
supuesto son v alidas para los polinomios en general. Las que nos interesan en
este caso son aquellas que nos entregan informaci on sobre el signo de la parte
real de las races, como las que se detallan a continuaci on:
Propiedad 1 El coeciente a
n1
cumple con:
a
n1
=
n

i=1

i
(7.73)
donde
1
,
2
, . . .
n
son las races de p(s).
Esta propiedad es directa de notar que el polinomio p(s) puede escribirse
como:
p(s) =
n

i=1
(s
i
) (7.74)
174CAP

ITULO7. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE LAPLACE


entonces, al expandir el producto (7.74) y observar el coeciente que acom-
pa na a la potencia (n 1)-esima de s, se obtiene (7.73).
Propiedad 2 El coeciente a
0
cumple con:
a
0
= (1)
n
n

i=1

i
(7.75)
Esta propiedad tambien se obtiene de expandir el producto (7.74) y ob-
servando el termino constante.
Propiedad 3 Si todas las races de p(s) tienen parte real negativa, entonces es
necesario que a
i
> 0, i 0, 1, . . . , n 1.
Para demostrar esta propiedad procedemos de la siguiente forma:
a) Las races de p(s) pueden ser reales o complejas, y si complejas deben
aparecer en pares conjugados (dado que p(s) es un polinomio con
coecientes reales).
b) En base a lo anterior, y sin perdida de generalidad, podemos suponer
que existen n
1
races reales y n
2
pares de races complejas. Por lo
tanto n
1
+ 2n
2
= n.
c) Si todas las races tienen parte real negativa, entonces se pueden ex-
presar como:

i
= [
i
[ i = 1, 2, . . . , n
1
(7.76)

n1+i
=

n1+n2+i
= [
i
[ +j
i
i = 1, 2, . . . , n
2
(7.77)
d) De esta forma, tenemos que
p(s) =
n1

i=1
(s +[
i
[)
n2

l=1
(s +[
l
[)
2
+
2
l
(7.78)
donde, la segunda productoria ha agrupado, en factores cuadr aticos,
los pares conjugados.
e) De (7.78) se observa que p(s) corresponde al producto de polinomios de
primer y segundo orden, los que tienen todos sus coecientes reales
y positivos. Como los coecientes de p(s) son suma de productos de
los coecientes de estos polinomios de primer y segundo orden, la
propiedad queda demostrada.
Note que esta propiedad es necesaria para que p(s) sea un polinomio estri-
camente Hurwitz, pero no suciente, excepto en el caso en que n = 1
y n = 2.
Propiedad 4 Si alguno de los coecientes es negativo o cero, entonces una
o m as races de p(s) tiene parte real negativa o cero. Esta propiedad se
deduce directamente de la propiedad anterior.
7.5. ESTABILIDAD 175
Routh!algoritmo
Adem as de los criterios que nos entregan las propiedades anteriores, uno de
los metodos cl asicos para determinar la naturaleza Hurwitz de un polinomio es
el algoritmo de Routh, tambien conocido como algoritmo o criterio de Routh-
Hurwitz, que a continuaci on se explica.
Consideremos un polinomio p(s) de grado n, denido como
p(s) =
n

i=0
a
i
s
i
(7.79)
s
n

0,1

0,2

0,3

0,4
. . .
s
n1

1,1

1,2

1,3

1,4
. . .
s
n2

2,1

2,2

2,3

2,4
. . .
s
n3

3,1

3,2

3,3

3,4
. . .
s
n4

4,1

4,2

4,,3

4,4
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
s
2

n2,1

n2,2
s
1

n1,1
s
0

n,1
Cuadro 7.2: Arreglo de Routh
El algoritmo de Routh se basa en la construcci on del arreglo numerico que se
muestra en la Tabla 7.2. donde los terminos de las dos primeras las se calculan
seg un:

0,i
= a
n+22i
; i = 1, 2, . . . , m
0
(7.80)

1,i
= a
n+12i
; i = 1, 2, . . . , m
1
(7.81)
con m
0
= (n + 2)/2 y m
1
= m
0
1 para n par y m
1
= m
0
para n impar.
Mientras que los terminos de la tercera la en adelante se calculan seg un

k,j
=

k1,1

k2,j+1

k2,1

k1,j+1

k1,1
; k = 2, . . . , n j = 1, 2, . . . , m
j
(7.82)
donde m
j
= m axm
j1
, m
j2
1, mientras que se asigna valor cero al coe-
ciente
k1,j+1
, cuando no est a denido en el arreglo de Routh 7.2.
Una vez construdo el arreglo de Routh podemos aplicar el siguiente resul-
tado:
176CAP

ITULO7. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE LAPLACE


Dado un polinomio p(s) como el denido en (7.79) y el arreglo asociado a
el 7.2, entonces el n umero de races de p(s) con parte real mayor que cero
es igual a n umero de cambios de signo en la primera columna del arreglo.
Ejemplo 7.9. Para ilustrar el uso del algoritmo de Routh-Hurwitz consideremos
el siguiente sistema:
d
3
y(t)
dt
3
+
d
2
y(t)
dt
2
+ 2
d y(t)
dt
+ 3y(t) = u(t) (7.83)
Su funci on de transferencia est a dada por:
H(s) =
Y (s)
U(s)
=
1
s
3
+s
2
+ 2s + 3
(7.84)
Por tanto, para la estabilidad debemos analizar las races del polinomio de-
nominador:
p(s) = s
3
+s
2
+ 2s + 3 (7.85)
El arreglo de Routh en este caso es:
s
3
1 2
s
2
1 3
s
1 23
1
= 1 0
s
0
3 0
Donde se observa de inmediato que en la primera columna aparece un 1,
por tanto existen races con parte real positiva. Lo que se puede conrmar, por
ejemplo, con ayuda de Matlab. Este permite obtener las races de un polinomio
dados sus coecientes, mediante el comando roots :
Matlab
>> roots([1 1 2 3])
ans =
0.1378 + 1.5273i
0.1378 - 1.5273i
-1.2757
222
7.6. POLOS, CEROS Y LA RESPUESTA TEMPORAL 177
funci ondetransferencia!gradorelativo
fasem nima
ceros!fasenom nima
funci ondetransferencia!estable
polos
fraccionesparciales
7.6. Polos, ceros y la respuesta temporal
A continuaci on examinaremos algunas propiedades fundamentales de los po-
los y ceros de la funci on de transferencia de un sistema, y su inuencia sobre
las caractersticas de la respuesta de un sistema lineal.
Consideremos una funci on de transferencia de la forma general:
H(s) = K

m
i=1
(s
i
)

n
l=1
(s
l
)
(7.86)
donde
l
C y
i
C. Si suponemos que no hay valores de l y de i tales que

l
=
i
entonces,
1
,
2
, . . . ,
m
and
1
,
2
, . . . ,
n
son los ceros y los polos de
la funci on de transferencia, respectivamente. El grado relativo, antes denido es
n
r
Z
= n m.
Estaremos particularmente interesados en aquellos ceros ubicados en el eje
imaginario o en su cercana, y en aquellos polos ubicados en el semiplano derecho.
Los polos y ceros ubicados en estas regiones juegan un rol fundamental en la
din amica del sistema.
Una clase especial de funci on de transferencia es aquella que tiene todos sus
ceros y sus polos en el semiplano izquierdo (SPI) del plano complejo s . Tradi-
cionalmente estas se denominan funciones de transferencia de fase mnima.
Sin embargo, de aqu en adelante usaremos este nombre para referirnos simple-
mente a funciones de transferencia sin ceros en el semiplano derecho (SPD),
que tengan o no polos en el. Diremos que un cero tiene fase no mnima si se
encuentra ubicado en el SPD cerrado, de otra forma se denominar a cero de fase
mnima. Si hablamos de una funci on de transferencia estable nos referimos
a que todos sus polos se ubican sobre el SPI abierto; si decimos que inestable, es
porque al menos uno de sus polos se encuentra en el SPD cerrado. Los polos en
si mismos tambien se pueden denominar estables o inestables, si se encuentran
dentro o fuera del SPI abierto,respectivamente
4
.
A continuaci on examinaremos la inuencia sobre la respuesta transiente de
un sistema de los polos y ceros de su funci on de transferencia.
7.6.1. Polos
Como el lector recordar a de sus cursos de matem aticas, una funci on racional
siempre puede descomponerse en fracciones parciales, tal es el caso tambien de
la funci on de transferencia de un sistema en la variable s. Cada uno de los
terminos de esta expansi on contiene ya sea un polo real simple, un par de polos
complejos conjugados o m ultiples combinaciones de polos repetidos. Por tanto,
para conocer el efecto de los polos en la respuesta transiente de un sistema
basta conocer el efecto ocasionado por los polos de primer y segundo orden y
su interacci on.
4
En ocasiones, por abuso de lenguaje, los ceros de fase no mnima tambies se les denomina
ceros inestables, dado que se encuantran al la regi on del plano s en que los polos son inestables.
178CAP

ITULO7. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE LAPLACE


polos!r apidos
polos!dominantes
polos!lentos
Un polo de primer orden contribuye a la descomposici on en fracciones par-
ciales, en general, con un termino de la forma:
H
1
(s) =
K
1

1
s + 1
(7.87)
Mientras que un polo de segundo orden contribuye a la expansi on con un
termino:
H
2
(s) =
K
2
_
s

n
_
2
+ 2
_
s

n
_
+ 1
(7.88)
Cada polo genera un termino especco que coincide justamente con cada uno
de los modos naturales en la respuesta del sistema a un impulso en la entrada.
Estos modos est an presentes tambien en la respuesta a cualquier entrada al
sistema (excepto en casos muy excepcionales cuando hay coincidencia de polos
con ceros). El tipo de modo natural asociado a cada polo de un sistema depende
de la ubicaci on de este sobre el plano complejo s , exactamente equivalente a la
ubicaci on de cada frecuencia natural sobre un plano complejo, como se vi o en el
Captulo 3 3. Para ilustrar esto podemos apreciar en la Figura 7.7 las diferentes
respuestas a impulso de un sistema que tiene por funci on de transferencia:
H
1
(s) =
1
s p
(7.89)
para los polos ubicados sobre el eje real, y
H
2
(s) =
1
_
s (a +bj)
__
s (a bj)
_ (7.90)
para los polos complejos, que aparecen emparejados con su conjugado.
Tanto la ubicaci on en el plano complejo de los polos de un sistema, como las
caractersticas por esta determinada, est an en directa relaci on con las frecuencias
naturales que se pueden obtener a partir de la EDS del sistema.
En virtud de estas analogas es que nos referiremos, en general, como polos
r apidos a aquellos que se encuentran m as alejados del lmite de estabilidad que
los dem as polos del sistema. Esto es equivalente que considerar que la respuesta
transiente asociada a estos polos desaparece m as r apido que aquella asociada
a los otros polos, tal como puede apreciarse en la Figura 7.7 al comparar la
respuesta a impulso de un sistema con un polo en p
2
= 4 con las dem as.
Por otro lado llamaremos polos dominantes o polos lentos a aquellos que se
encuentran en el SPI abierto, pero m as cercanos al lmite de estabilidad que el
resto de los polos de sistema. Esto equivale a decir que el transiente asociado
a los polos dominantes decae m as lento que los dem as modos naturales, como
tambien puede apreciarse en la gura 7.7, para el polo en p
1
.
Por ejemplo, si tenemos un sistema cuyos polos est an ubicados en (1; 2
j6; 4; 5j3), podemos decir que el polo dominante es 1 y los polos r apidos
son los que se encuentran en 5 j3.
7.6. POLOS, CEROS Y LA RESPUESTA TEMPORAL 179
p
1
p
0
p
2
p
3
p
4
s
Figura 7.7: Respuesta a impulso de diferentes sistemas de acuerdo a la ubicaci on
de sus polos en el plano complejo
180CAP

ITULO7. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE LAPLACE


ceros
controlabilidad
observabilidad
7.6.2. Ceros
En general, el efecto de la ubicaci on de los polos en la din amica de un
sistema puede entenderse sin demasiada dicultad dada su directa relaci on con
la estabilidad y las caractersticas generales de la respuesta del sistema. De hecho
en la literatura sobre sistemas y su estabilidad se puede encontrar mucha m as
informaci on que la aqu detallada.
Por el contrario, el efecto de los ceros en el an alisis del comportamiento de
un sistema a menudo ha sido subestimado. Sin embargo, en los ultimos a nos se
ha retomado el estudio del efecto de los ceros sobre la respuesta de un sistema,
que ahora son reconocidos por su importancia, por ejemplo, al denir criterios
de dise no de sistemas de control.
Es asi como, mientras que los polos de un sistema est an asociados a la
presencia de sus modos naturales aislados, los ceros reejan de alg un modo la
interacci on entre estos, por ejemplo, en el caso en que la salida de un sistema
est a formada por la suma de modos naturales diferentes. Adem as, a pesar que
la ubicaci on de los polos determina los modos naturales de un sistema, es la
ubicaci on de los ceros la que determina la proporci on en que los modos aparecen
combinados en la salida. En estas combinaciones los modos naturales toman
diferente fuerza, pudiendo ser su efecto, en algunos casos, casi imperceptible.
De hecho, la ubicaci on relativa de polos y ceros tiene directa relaci on con los
conceptos de observabilidad y controlabilidad, como se detalla en el Captulo
10.
A continuaci on se presenta un ejemplo ilustrativo.
Y (s) U(s)
K
s + 2
K
s + 1
Figura 7.8: Sistema con interacci on aditiva entre dos estados
Ejemplo 7.10. Consideremos el sistema de la Figura 7.8, cuya funci on de
transferencia sistema esta dada por:
Y (s) =
_
K
s + 1
+
K
s + 2
_
U(s) (7.91)
G(s) = K
(1 +)s + (2 +)
(s + 1)(s + 2)
(7.92)
7.6. POLOS, CEROS Y LA RESPUESTA TEMPORAL 181
cancelaci on!cuasi-
ceros!r apidos
ceros!lentos
Este sistema tiene sus polos en s = 1, 2 y un cero en s =
(2+)
1+
. Es
decir, la ubicaci on est a directamente relacionada con el peso de cada uno de los
modos naturales en la respuesta del sistema, por ejemplo, a un impulso unitario
en la entrada:
y(t) = K(e
t
+e
2t
) (7.93)
Si tomamos un valor peque no, = 0,1, la funci on de transferencia es:
G(s) = 1,1K
(s + 1,909)
(s + 1)(s + 2)
(7.94)
En esta puede observarse la cercana del cero al polo en s = 2. La respuesta
a impulso ser a en este caso:
y(t) = 1,1K(e
t
+ 0,1e
2t
) (7.95)
En que se aprecia la peque na magnitud con que aparece el modo natural m as
r apido. Es decir, el cero a medida que se acerca al polo en s = 2 produce
una cuasi-cancelaci on , que ser a total cuando = 0. En este ultimo caso
denitivamente no aparece este modo natural en la salida del sistema, ya que el
polo ha sido cancelado, y la funci on de transferencia se ha reducido a:
G(s) =
K
(s + 1)
(7.96)
Invitamos al lector a estudiar el caso an alogo cuando alcanza valores muy
grandes y cu al es su efecto sobre el otro modo natural del sistema. Adem as
puede analizarse que sucede con el sistema cuando el par ametro toma valores
negativos. Que pasa si = 1 o = 2 ?
222
Al igual como antes se denieron los polos r apidos y lentos de un sistema,
pueden denirse de manera an aloga los ceros r apidos y lentos. Ceros r apidos
son aquellos que est an m as alejados del lmite de estabilidad que los polos dom-
inantes del sistema, por otro lado los ceros lentos son aquellos que se encuentran
m as cerca del lmite de estabilidad que los polos dominantes del sistema. Para
apreciar el efecto de los ceros presentamos el siguiente ejemplo:
Ejemplo 7.11. Efecto de los ceros en la respuesta a escal on.
Considere un sistema cuya funci on de transferencia es:
H(s) =
s +c
c(s + 1)(0,5s + 1)
(7.97)
Esta estructura de la funci on de transferencia permite estudiar el efecto de
la ubicaci on de un cero en la respuesta del sistema sin alterar la ubicaci on de
los polos ni la ganancia a continua.
En este sistema observamos dos modos naturales: e
t
y e
2t
. El primero
de estos estar a casi ausente de la respuesta a medida que c se acerca a 1.
182CAP

ITULO7. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE LAPLACE


undershoot
contrarespuesta
respuesta!inversa
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
6
4
2
0
2
4
6
Tiempo [s]
R
e
s
p
u
e
s
t
a
c=0.1
c=0.1
c=0.25
c=0.25
c=10
c=10
Figura 7.9: Efecto de la ubicaci on de los ceros sobre la respuesta a escal on
Algo an alogo sucede para el segundo modo a medida que c se acerca a 2. Esta
situaci on de cuasi cancelaciones tambien fue mencionada en el ejemplo anterior
La situaci on m as general se aprecia en la gura 7.9. En esta, se indica el
valos de c al lado de cada una de las respuestas gracadas. Podemos apreciar que
un cero r apido, i.e. [c[ 1, no afecta signicativamente la respuesta transiente.
Cuando el cero es lento y estable obtenemos un gran overshoot, mientras que
cuando es lento, pero inestable, el undershoot es el que crece en magnitud. El
efecto de los ceros puede parecer demasiado crtico en este ejemplo, en que ambos
superan el 400 %, sin embargo, el lector puede vericar que puede ser a un mayor
si el cero es m as cercano el origen.
222
7.6.3. Respuesta inversa o contrarespuesta (undershoot)
La Figura 7.2 en la p agina 165 sugiere que existen casos en los que, en la
presencia de una excitaci on mayor que cero, la respuesta del sistema se hace
negativa durante alg un lapso de tiempo no despreciable. Este comportamiento
tambien aparece en la Figura 7.9. Un resultado muy fuerte es el siguiente.
Lema 7.1. Considere un sistema lineal estable con funci on de transferencia
H(s), y con un cero real en s = c, donde c > 0, entonces la respuesta a un
escal on positivo se hace negativa durante uno o m as lapsos no despreciables.
Demostraci on
La respuesta del sistema est a dada por:
Y (s) = H(s)
K
s
; K > 0 (7.98)
Entonces:
H(s)
K
s
=
_

0
y(t)e
st
dt; 's > 0 (7.99)
Note que la regi on de convergencia queda determinada, por un lado, por el
hecho que el sistema es estable, por lo cual la transformada de h(t) est a bien
7.6. POLOS, CEROS Y LA RESPUESTA TEMPORAL 183
factordeamortiguamiento
frecuencianatural!no
amortiguada
frecuencianatural!amortiguada
denida para 's 0 y, por otro lado, por el hecho que la respuesta a un
escal on est a bien denida para 's > 0. En consecuencia, la regi on de conver-
gencia para y(t) es 's > 0.
Si ahora, en la ecuaci on (7.99), hacemos s = c (note que, por ser c > 0,
est a en la regi on de convergencia) obtenemos, aplicando el hecho que H(c) = 0:
H(c)
K
c
=
_

0
y(t)e
ct
dt = 0 (7.100)
Como la integral es cero, y e
ct
> 0, t, necesariamente y(t) debe ser nega-
tiva en uno o m as intervalos de tiempo.
222
El lema precedente justica y asegura la presencia de undershoots, como el
sugerido en la Figura 7.2 en la p agina 165. Sin embargo, este comportamiento
inverso se puede manifestar en diferentes formas, tal como ilustra la Figura 7.10.
0 5 10 15
0.5
0
0.5
1
Tiempo [s]
R
e
s
p
u
e
s
t
a

a

e
s
c
a
l

n
0 2 4 6
2
1.5
1
0.5
0
0.5
1
1.5
Tiempo [s]
R
e
s
p
u
e
s
t
a

a

e
s
c
a
l

n
Figura 7.10: Distintas formas de respuesta inversa
7.6.4. Sistema can onico de segundo orden
Para el caso de un par de polos complejos conjugados, es usual estudiar un
sistema can onico de segundo orden con la funci on de transferencia:
H(s) =

2
n
s
2
+ 2
n
s +
2
n
(7.101)
donde (0 < < 1) es conocido como el factor de amortiguamiento y
n
, como
la frecuencia natural no amortiguada. Tambien denimos, para uso futuro, la
frecuencia natural amortiguada,
d
, como:

d
=
n
_
1 +
2
(7.102)
Este sistema tiene dos polos complejos conjugados, s
1
y s
2
, denidos por:
184CAP

ITULO7. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE LAPLACE


s
1,2
=
n
j
d
=
n
e
j()
(7.103)
donde es el angulo denido por cos = .
Para este sistema, la transformada de Laplace de su respuesta a escal on
unitario est a dada por:
Y (s) =

2
n
(s
2
+ 2
n
s +
2
n
)s
=

2
n
[(s +
n
)
2
+
2
d
] s
(7.104)
Realizando una expansi on en fracciones parciales se llega a:
Y (s) =
1
s

s +
n
(s +
n
)
2
+
2
d


n
(s +
n
)
2
+
2
d
(7.105)
=
1
s

1
_
1
2
_
_
1
2
s +
n
(s +
n
)
2
+
2
d


d
(s +
n
)
2
+
2
d
_
(7.106)
Aplicando, nalmente, la transformada de Laplace inversa obtenemos:
y(t) = 1
e
nt
_
1
2
sen(
d
t +) (7.107)
Las caractersticas principales de esta respuesta aparecen in la Figura 7.11,
donde y

= 1 y T
d
= 2/
d
.

j
d

n

T
d

y

+M
p

t
r
t
p

j
d


Figura 7.11: Localizaci on de los polos y respuesta a escal on unitario de un sis-
tema can onico de segundo orden.
Podemos tambien calcular los indicadores descritos en la Figura 7.2 en la
p agina 165.
Tiempo de levantamiento. Para este caso, usamos k
r
= 1 (reerase a la
Figura 7.2 en la p agina 165) obteniendo:
7.6. POLOS, CEROS Y LA RESPUESTA TEMPORAL 185
e
ntr
_
1
2
sen(
d
t
r
+) = 0 (7.108)
De aqu se llega a:
t
r
=

d
(7.109)
Sobrerespuesta (overshoot). La m axima sobrerespuesta, M
p
, y el instante
en el cual este ocurre, t
p
, pueden ser calculados derivando y(t), y luego
igualando a cero esta derivada:
dy(t)
dt
=
e
nt
_
1
2
[
n
sen(
d
t +) +
d
cos(
d
t
r
+)] (7.110)
As, tenemos que
d
t
p
= y el instante en que ocurre la sobrerespuesta,
t
p
, es:
t
p
=

d
=
T
d
2
(7.111)
A su vez, la magnitud de la sobrerespuesta est a dada por:
Mp = y(t
p
) 1 =
e

d
_
1
2
sen( +) = e

1
2
(7.112)
Las expresiones anteriores sugieren que un valor peque no para genera
un tiempo de levantamiento peque no, al costo de una gran sobrerespuesta.
Tambien podemos apreciar que la velocidad de decaimiento y, como con-
secuencia, el tiempo de asentamiento, est an determinados por el producto

n
(corresponde a la magnitud de la parte real de los polos).
Aunque este sistema can onico parece ser un caso muy particular, ocurre que
con frecuencia, y en distintas aplicaciones, el sistema bajo estudio est a dominado
por un par de polos complejos conjugados. Aunque las f ormulas desarrolladas
para calcular los indicadores de la respuesta a escal on no son aplicables a sis-
temas no can onicos, los conceptos asociados tiene igual validez.
186CAP

ITULO7. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE LAPLACE


7.7. Problemas para el lector
Problema 7.1. Determine la transformada de Laplace de las siguientes fun-
ciones:
(i) y(t) = Acos(t +)
(ii) y(t) = te
at
, en que a > 0
(iii) y(t) =
_

_
1 ; 0 < t < 1
2 t ; 1 t < 2
3 +t ; 2 t < 3
0 ; t 3
(iv) y(t) =
1
2
t
Problema 7.2. Para los siguientes sistemas:
(i)
d
2
y(t)
dt
2
+
d y(t)
dt
6y(t) = u(t)
(ii)
d
3
y(t)
dt
3
+ 3
d
2
y(t)
dt
2
+
d y(t)
dt
+ 3y(t) =
d u(t)
dt
u(t)
(iii)
d
2
y(t)
dt
2
+
d y(t)
dt
6y(t) = u(t)
(iv)
d
2
y(t)
dt
2
+ 16
d y(t)
dt
+ 100y(t) = 100u(t)
7.2.1 Determine su funci on de transferencia,
7.2.2 Determine si son o no estables,
7.2.3 Determine y graque su respuesta a impulso, y
7.2.4 Determine y graque su respuesta a escal on.
Problema 7.3. Considere un sistema denido por su ecuaci on diferencial:
d
2
y(t)
dt
2
+
d y(t)
dt
+y(t) =
d u(t)
dt
+ 3u(t)
7.3.1 Determine la funci on de transferencia del sistema.
7.3.2 Determine la salida del sistema a entrada cero y condiciones iniciales
y(0) = 1 y y(0) = 1. Graque.
7.3.3 Determine la salida del sistema si la entrada es u(t) = (t) (t 2).
Graque.
7.7. PROBLEMAS PARA EL LECTOR 187
Problema 7.4. Para el sistema:
d
2
y(t)
dt
2
+ 7
d y(t)
dt
+ 10y(t) =
d u(t)
dt
+u(t)
7.4.1 Determine condiciones sobre y de manera que en la respuesta a
impulso aparezca s olo el modo natural dominante.
7.4.2 Si u(t) = 0, = 1 y = 1 determine la condiciones iniciales de manera
que el la respuesta homogenea s olo aparezca el modo natural dominante.
7.4.3 Repita los dos puntos anteriores, pero para el modo r apido del sistema.
Problema 7.5. Considere el circuito de la Figura 7.12.
C L
R
v
c
(t)
+
e(t)
Figura 7.12: Circuito RLC
7.5.1 Determine la funcion de transferencia considerando como entrada la fuente
de voltaje e(t) y como salida el voltaje en el condensador v
C
(t)
7.5.2 Si R = 1000 [], C = 1000 [F] y L = 0,1 [H], determine la respuesta a
un escal on de 5 [V ] en e(t).
Problema 7.6. Se sabe que la respuesta de un sistema lineal a un escal on
unitario en su entrada (con condiciones iniciales iguales a cero) est a dada por:
g(t) = (2 2e
4t
+te
4t
)(t)
Determine la funci on de transferencia del sistema.
Problema 7.7. Considere el siguiente modelo no lineal:
d
2
y(t)
dt
2
+ [2 + 0,1u(t)
2
]
d y(t)
dt
+ 6y(t) = u(t) + 0,1e
u(t)
Linealice el sistema en torno a un punto de operaci on (u
Q
,y
Q
), determine
su funci on de transferencia y analice la evoluci on de los polos cuando u
Q

[0,5, 0,5].
188CAP

ITULO7. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE LAPLACE


Problema 7.8. Considere la siguiente funci on de trasferencia de un sistema:
H(s) =
s
2
+ 13s + 30
s
3
+ 4s
2
7s 10
7.8.1 Haga un esquema con la ubicaci on de todos los polos y ceros del sistema
en el plano complejo s, clasic andolos de acuerdo a su velocidad (lentos y
r apidos).
7.8.2 Determine la respuesta del sistema si se somete a un impulso unitario en
la entrada.
7.8.3 Determine la salida del sistema si las condiciones iniciales son y(0) = 1,
y(0) = 0 e y(0) = 2.
Problema 7.9. Considere la siguiente funci on de transferencia de un sistema
que depende de un par ametro K 0:
G(s) =
K(s + 1)
s
2
s + 1 +K(s + 1)
7.9.1 Determine para que rango de valores del par ametro K los el sistema es
estable.
7.9.2 Haga un esquema en el plano complejo de c omo vara la ubicaci on de los
polos al variar el par ametro K (por ejemplo, para K = 0, 0,5, 1, 2 ).
7.9.3 Para cada uno de los valores de K considerados en 7.9.2 determine y
graque la respuesta del sistema a un escal on unitario (con condiciones
iniciales iguales a cero).
Problema 7.10. Dado el sistema denido por su funci on de transferencia
G(s) =
s +b
2
s
2
+bs +b
2
7.10.1 Determine la respuesta del sistema si la entrada es un impulso unitario
y las condiciones iniciales son cero.
7.10.2 Determine la respuesta del sistema a un escal on unitario, con condi-
ciones iniciales cero.
7.10.3 Determine los par ametros de la respuesta a escal on de la Tabla 7.1, y
verifquelos gracando la simulaci on para algunos valores del par ametro b.
7.7. PROBLEMAS PARA EL LECTOR 189
Problema 7.11. Determine la respuesta e escal on de los siguientes sistemas
denidos por su funci on de tranferencia y con condiciones iniciales cero, y
graque para algunos valores de los par ametros a, b, c, K > 0
(i) G
1
(s) =
K(s +a)
(s +a)(s +K)
(ii) G
2
(s) =
K(s +a)(s +b)
(s +a)(s +b)(s +K)
(iii) G
3
(s) =
K(s +a)(s +b)(s +c)
(s +a)(s +b)(s +c)(s +K)
Que puede decir del efecto de los ceros sobre la respuesta del sistema?
Problema 7.12. Una forma de vericar el grado relativo de la funcion de
tranferencia de un sistema es a traves de su respuesta a escal on. Demuestre que
si p(t) es la respuesta a un escal on de un sistema con funci on de transferencia
G(s), entonces:
dp(t)
dt

t=0
= 0 grado relativo de G(s) 2
190CAP

ITULO7. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADADE LAPLACE


transformadaZeta|textbf
Zeta!transformada
transformadaZeta!inversa
Captulo 8
Analisis bajo excitaciones
arbitrarias. La
transformada Zeta
De los metodos disponibles para el estudio de los sistemas lineales din amicos,
de tiempo discreto, uno en particular resulta ser especialmente util: la Trans-
formaci on Zeta. Esta puede entenderse como el an alogo, en tiempo discreto, de
la transformada de Laplace estudiada en el Captulo 7.
Las principales ventajas de este metodo se pueden resumir en lo siguiente:
Permite el an alisis de sistemas lineales estables e inestables.
Se puede aplicar a una vasta gamas de se nales no acotadas.
Permite incluir las condiciones iniciales del sistema.
La ERS es transformada en una expresi on algebraica, que resulta m as
simple de manejar.
8.1. Denici on de la transformada
Dada una se nal de tiempo discreto f[t], 0 t < . La transformada Zeta
asociada a f[t], y su transformada Zeta inversa est an denidas por:
Z f[t] = F(z) =

t=0
f[t]z
t
(8.1)
Z
1
F(z) = f[t] =
1
2j
_

F(z)z
t1
dz (8.2)
191
192CAP

ITULO8. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADAZETA


funci ondetransferencia
condicionesiniciales
La curva cerrada sobre la que se calcula integral compleja que dene la
transformada Zeta inversa (E.2) es tal que debe encerrar a todas las singulari-
dades de Y (z) [17]. La fundamentaci on de estas expresiones se desarrolla en el
Apendice E. Tambien se incluyen en ese apendice las propiedades m as impor-
tantes de la Transformaci on Zeta.
En este captulo nos concentraremos en el uso de esta transformaci on para
el an alisis de sistemas lineales de tiempo discreto.
8.2. Aplicaci on a sistemas lineales: la funci on de
transferencia
Como ya hemos visto, una gran cantidad y variedad de sistemas de interes,
pueden ser modelados en forma lineal. Esto se consigue linealizando la o las ecua-
ciones de recursi on que describen el comportamiento del sistema en el tiempo,
como se vi o en el Captulo 1, en torno a un punto de equilibrio o m as gen-
eralmente, en torno a un punto de operaci on. Para el caso de sistemas de una
entrada y una salida, el proceso de linealizaci on desemboca en la obtenci on de
una ecuaci on de recursi on, la ERS, de la forma general:
y[t] +a
n1
y[t 1] +. . . +a
1
y[t n + 1] +a
0
y[t n] =
b
m
u[t] +b
m1
u[t 1] +. . . +b
1
u[t m+ 1] +b
0
u[t m] (8.3)
Cuando se aplica transformaci on Zeta a la ERS se puede usar una de la
propiedades en el Apendice E, la que nos indica que la transformada de una
se nal desplazada en el tiempo puede expresarse como:
Z y[t t
0
] = Y (z)z
t0
+y[1]z
t0+1
+. . . +y[t
0
+ 1]z
1
+y[t
0
] (8.4)
Por tanto, si aplicamos esto a la ERS (8.3) tenemos que:
Y (z) +a
n1
z
1
Y (z) . . . +a
1
z
n+1
Y (z) +a
0
z
n
Y (z)
= b
m
U(z) +. . . +b
0
z
m
U(z) +f(z
1
, x
o
) (8.5)
donde f(z
1
, x
o
) es una funci on que depende de la variable z y de las n condi-
ciones iniciales de la salida y[t], expresadas como y[1], y[2], . . . y[n].
Es importante destacar que:
f(z
1
, x
0
) = [p(z
1
)]
T
x
o
(8.6)
donde p(z
1
) es un vector que contiene polinomios en z
1
y x
o
es un vector
que contiene las condiciones iniciales ya mencionadas. Esta estructura es una
expresi on de la linealidad del sistema (homogeneidad y superposici on respecto
de las condiciones iniciales).
8.2. APLICACI

ONASISTEMAS LINEALES: LAFUNCI

ONDE TRANSFERENCIA193
fraccionesparciales
Nota 8.1. Note tambien que se ha supuesto que u[1] = u[2] = . . . =
u[m] = 0. Esto no es restrictivo, porque siempre es posible encontrar una se-
cuencia de entrada u[t], no nula t < m, tal que y[t] satisfaga las condiciones
iniciales establecidas.
222
Para ilustrar estas ideas, consideramos un ejemplo en donde adem as analizare-
mos algunas alternativas para el c alculo de la transformaci on inversa.
Ejemplo 8.1. Considere un sistema con la ERS:
y[t] 0, 7y[t 1] + 0, 1y[t 2] = 0, 8u[t 1] (8.7)
Suponga que la entrada es un escal on unitario, es decir, u[t] = 1, t 0, y
que las condiciones iniciales son y[1] = 2 e y[2] = 1. Nos interesa calcular
la evoluci on de la salida y[t], t 0.
Soluci on
Aplicamos transformada Zeta a la ERS, obteniendo:
Y (z) 0, 7
_
z
1
Y (z) +y[1]
_
+ 0, 1
_
z
2
Y (z) +z
1
y[1] +y[2]
_
= 0, 8z
1
U(z) (8.8)
Esto lleva a:
Y (z) =
0, 8z
1
1 0, 7z
1
+ 0, 1z
2
U(z) +
(0, 7 0, 1z
1
)y[1] 0, 1y[2]
1 0, 7z
1
+ 0, 1z
2
(8.9)
Esto indica que, para este ejemplo:
f(z
1
, x
o
) = [p(z
1
)]
T
x
o
=
_
0, 7 0, 1z
1
0, 1

_
y[1]
y[2]
_
(8.10)
Reordenando de manera de obtener polinomios en z en vez de polinomios en
z
1
, y reemplazando las condiciones iniciales, se llega a:
Y (z) =
0, 8z
z
2
0, 7z + 0, 1
U(z)
. .
Yu(z)
+
1, 5z
2
0, 2z
z
2
0, 7z + 0, 1
. .
Yx(z)
(8.11)
donde Y
u
(z) e Y
x
(z) denotan las transformadas de la respuesta a entrada con
condiciones iniciales iguales a cero y de la respuesta a condici on inicial, con
entrada cero, respectivamente.
De manera de hacer m as simple el c alculo de la transformada Zeta inversa,
y al igual que en el caso de la transformada de Laplace (Captulo 7), usamos la
expansi on en fracciones parciales:
194CAP

ITULO8. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADAZETA


Y
u
(z) =
0, 8z
(z 0, 5)(z 0, 2)
z
z 1
=
4
3(z 0, 2)

4
3(z 0, 5)
+
2
z 1
(8.12)
As, podemos utilizar la Tabla E.2 en la p agina 434 para obtener la trans-
formaci on inversa:
y
u
[t] =
4
3
_
(0, 2)
t1
(0, 5)
t1
_
[t 1] + 2[t 1] ; t 0 (8.13)
An alogamente:
Y
x
(z) =
1, 5z
2
0, 2z
(z 0, 5)(z 0, 2)
=
3
2

1
15(z 0, 2)
+
11
12(z 0, 5)
(8.14)
Aplicando transformaci on inversa se llega a:
y
x
[t] =
3
2

K
[t]
1
15
(0, 2)
t1
[t 1] +
11
12
(0, 5)
t1
[t 1] ; t 0 (8.15)
Finalmente, la respuesta completa es y[t] = y
u
[t] +y
x
[t].
Sin embargo, una forma alternativa para calcular y[t] es la siguiente:
Y (z) = z
_
0, 8z
(z 0, 5)(z 0, 2)(z 1)
+
1, 5z 0, 2
(z 0, 5)(z 0, 2)
_
(8.16)
= z
_
5
15(z 0, 2)

5
6(z 0, 5)
+
2
z 1
_
(8.17)
=
z
3(z 0, 2)

5z
6(z 0, 5)
+
2z
z 1
(8.18)
Al aplicar ahora transformaci on inversa se llega a
y[t] = 2 +
1
3
(0, 2)
t

5
6
(0, 5)
t
; t 0 (8.19)
Lo que se ha hecho en esta segunda forma de calcular Z
1
es aprovechar
la presencia de un factor z en el numerador. As las fracciones parciales pueden
despues recibir de vuelta ese factor z, de modo que en la transformaci on inversa
no aparece corrimiento en el tiempo, ya que, como puede verse en el Apendice
E:
Z
1
_
z
z a
_
= a
t
[t] ,= Z
1
_
1
z a
_
= a
t1
[t 1] (8.20)
El lector puede comprobar que ambas expresiones obtenidas previamente para
y[t] son equivalentes y corresponden a la se nal en la Figura 8.1.
8.2. APLICACI

ONASISTEMAS LINEALES: LAFUNCI

ONDE TRANSFERENCIA195
0 5 10 15
0
0.5
1
1.5
2
2.5
3
t
y
[
t
]
Figura 8.1: Salida y[t] para el Ejemplo 8.1.
222
Volvamos ahora a considerar la forma general de la ERS y supongamos
condiciones iniciales iguales a cero. Entonces tenemos que:
Y (z) = H(z)U(z) (8.21)
Donde se dene la funci on:
H(z) =
B(z)
A(z)
(8.22)
que se forma con los polinomios que contienen los coecientes de la ecuaci on
(8.3) original:
A(z) = z
m
(z
n
+a
n1
z
n1
+. . . +a
0
) (8.23)
B(z) = z
n
(b
m
z
m
+b
m1
z
m1
+. . . +b
0
) (8.24)
La denici on de los polinomios A(z) y B(z) acusa la presencia de una can-
celaci on. En realidad, se ha elegido esta forma para los polinomios para con-
siderar los tres casos posibles: n < m, n = m y n > m. Para claricar esto
ilustraremos los tres diferentes casos.
Ejemplo 8.2 (Caso n < m). Sea la ERS:
y[t] 0, 8y[t 1] + 0, 4y[t 2] 0, 1y[t 3] = 0, 2u[t 3] 0, 7u[t 4] (8.25)
En este caso, n = 3, con a
n1
= a
2
= 0, 8, a
n2
= a
1
= 0, 4 y a
n3
= a
0
=
0, 1 Por otro lado m = 4, con b
m
= b
4
= 0, b
m1
= b
3
= 0, b
m2
= b
2
= 0,
b
m3
= b
1
= 0, 2 y b
m4
= b
0
= 0, 7
Entonces, la funci on de transferencia es:
H(z) =
z
3
(0, 2z 0, 7)
z
4
(z
3
0, 8z
2
+ 0, 4z 0, 1)
=
0, 2z 0, 7
z(z
3
0, 8z
2
+ 0, 4z 0, 1)
(8.26)
196CAP

ITULO8. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADAZETA


funci ondetransferencia!tiempodiscreto
222
Ejemplo 8.3 (Caso n = m). Sea la ERS:
y[t] 0, 8y[t 1] + 0, 4y[t 2] 0, 1y[t 3] = 0, 2u[t 2] 0, 7u[t 3] (8.27)
En este caso tamben n = 3, con a
n1
= a
2
= 0, 8, a
n2
= a
1
= 0, 4 y
a
n3
= a
0
= 0, 1 Por otro lado m = 3, con b
m
= b
3
= 0, b
m1
= b
2
= 0,
b
m2
= b
1
= 0, 2, y b
m3
= b
0
= 0, 7
Entonces, la funci on de transferencia es:
H(z) =
z
3
(0, 2z 0, 7)
z
3
(z
3
0, 8z
2
+ 0, 4z 0, 1)
=
0, 2z 0, 7
z
3
0, 8z
2
+ 0, 4z 0, 1
(8.28)
222
Ejemplo 8.4 (Caso n > m). Sea la ERS:
y[t] 0, 8y[t 1] + 0, 4y[t 2] 0, 1y[t 3] = 0, 2u[t 1] 0, 7u[t 2] (8.29)
En este caso nuevamente n = 3, con a
n1
= a
2
= 0, 8, a
n2
= a
1
= 0, 4 y
a
n3
= a
0
= 0, 1 Por otro lado m = 2, con b
m
= b
2
= 0, b
m1
= b
1
= 0, 2 y
b
m2
= b
0
= 0, 7
Entonces, la funci on de transferencia es:
H(z) =
z
3
(0, 2z 0, 7)
z
2
(z
3
0, 8z
2
+ 0, 4z 0, 1)
=
z(0, 2z 0, 7)
z
3
0, 8z
2
+ 0, 4z 0, 1
(8.30)
222
En lo sucesivo, supondremos que los polinomios B(z) y A(z) son copri-
mos, es decir, todos los factores comunes en H(z) han sido eliminados por
cancelaci on. Los grados de B(z) and A(z) ser an redenidos como m y n
respectivamente.
La funci on racional H(z) es la funci on de transferencia en el dominio Ze-
ta. La representaci on (8.22) es muy util para describir caractersticas y propiedades
de un sistema tales como estabilidad y velocidad, adem as de entregar informa-
ci on para el dise no de sistemas de control, ltros y otras aplicaciones.
A continuaci on repetiremos algunos conceptos ligados a la denici on de la
funci on de transferencia de un sistema. Son los mismos que para el caso de la
transformaci on de Laplace y su reiteraci on est a orientada a enfatizar los aspectos
comunes existentes en el dominio del tiempo continuo y en el dominio del tiempo
discreto. As, denimos entonces los siguientes terminos.
8.2. APLICACI

ONASISTEMAS LINEALES: LAFUNCI

ONDE TRANSFERENCIA197
funci onde
transferencia!ceros
funci onde
transferencia!polos
multiplicidad!polos
funci ondetransferencia!gradorelativo
grado relativo
funci onde
transferencia!estrictamentepropia
funci ondetransferencia!bipropia
funci ondetransferencia!propia
polinomiocaractrer stico
(i) Las m races de la ecuaci on B(z) = 0 son los ceros del sistema. Ellos
hacen adem as que H(z) = 0.
(ii) Las n races de la ecuaci on A(z) = 0 son los polos del sistema. Ellos hacen
adem as que H(z) .
(iii) Si A(z) = 0 tiene n
t
races en z =
t
, decimos que el polo
t
tiene
multiplicidad n
t
.
(iv) La diferencia de grado entre A(z) y B(z), es decir, m n se denomina el
grado relativo del sistema.
(v) Si m < n decimos que el modelo es estrictamente propio. Esto implica
que el grado relativo del sistema es positivo.
(vi) Si m = n decimos que el modelo es bipropio. Esto implica que el grado
relativo del sistema es cero.
(vii) Si m n decimos que el modelo es propio .
Note que el polinomio A(z) corresponde al polinomio caracterstico de la
ERS, multiplicado por z

, donde N tiene un valor que depende del caso


especco. De esta forma, el conjunto de los polos de H(z) incluye un conjunto
de polos en el origen m as las frecuencias naturales que se pueden calcular de
la ERS.
Estas deniciones nos ayudar an a apreciar la forma en que se relaciona la
salida de un sistema con su entrada, tal como pone en evidencia la denici on
(8.22), pero la simplicidad reside en que la relaci on se establece mediante la
funci on racional H(z), es decir, los desplazamientos temporales han desapareci-
do. Si bien para llegar a esta relaci on las condiciones iniciales se han supuesto
iguales a cero, sabemos que en el caso de sistemas estables, su efecto se extingue
exponencialmente en tiempo.
En forma similar a aquella que se utiliz o en el an alisis de Fourier, la fun-
ci on de transferencia puede ser denida en base a la respuesta a impulso, con
condiciones iguales a cero. Si recordamos como se deni o la funci on de transfer-
encia H(z) al aplicar transformaci on Zeta a la ERS del sistema (8.3), podemos
escribir la salida del sistema seg un la ecuaci on (8.21). Se puede apreciar que si
a ambos lados de esta expresi on, se aplica transformaci on Zeta inversa (vea la
Tabla E.1 en la p agina 433), tenemos que:
Y (z) = H(z)U(z) y[t] = h[t] u[t] (8.31)
En que:
h[t] = Z
1
H(z) (8.32)
Por lo tanto, podemos armar que:
198CAP

ITULO8. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADAZETA


deltadeDirac!en
frecuencia
La funci on de transferencia H(z) de un sistema de tiempo discreto, denida
en (8.22), es igual a la transformada Zeta de la respuesta h[t] del sistema
a un Delta de Kronecter en la entrada, cuando las condiciones iniciales son
cero.
A diferencia del caso de tiempo continuo, la funci on de transferencia H(z) es
siempre una funci on racional en z. La existencia de un retardo puro, digamos
de t
o
unidades, implica simplemente la existencia de t
o
polos en el origen.
La relaci on entre la ERS, la respuesta a delta de Kronecker h[t] y la funci on
de transferencia H(z) se describe en la Figura 8.2. A esos vnculos se ha agregado
la respuesta a escal on unitario, con condiciones iniciales iguales a cero, g[t].
ERS
H(z) h[t] g[t]
Figura 8.2: Relaciones entre ERS, funci on de transferencia y respuestas a delta
y a escal on.
8.2.1. Funci on de transferencia en dominios de Fourier y
Zeta
Cuando el sistema tiene frecuencias naturales en el disco unitario cerrado,
con la restricci on que aquellas frecuencias sobre la circunferencia unitaria sean
simples, las funciones de transferencia en ambos dominios existen. El elemento
com un es conceptual: en ambos casos, la funci on de transferencia es
igual a la correspondiente transformada de la respuesta a un delta de
Kronecker, con condiciones iniciales iguales a cero.
La denici on y la estructura de H(z) parecen ser identicas a la denici on
y la estructura de la funci on de transferencia en el dominio de Fourier, bas-
tando hacer una simple sustituci on de z por e
j
. Sin embargo, esto no siempre
es correcto. La diferencia es que cuando el sistema tiene frecuencias naturales
(simples) sobre la circunferencia unitaria, la funci on de transferencia en Fourier
incluye deltas de Dirac en frecuencia. Esto se origina en el hecho que la respuesta
a impulso del sistema contiene modos naturales que no decaen y para los cuales
la transformada de Fourier existe s olo en el lmite. En cambio, para el mismo
sistema, la funci on de transferencia en Zeta no contiene impulsos en frecuencia,
debido a que la transformada Zeta est a bien denida, bastando escoger el radio
de convergencia igual a 1, es decir, [z[ > 1.
8.2. APLICACI

ONASISTEMAS LINEALES: LAFUNCI

ONDE TRANSFERENCIA199
transformadadeFourier!discreta
respuestaenfrecuencia
Ejemplo 8.5. Consideremos el sistema con la ERS:
y[t] ay[t 1] +a
2
y[t 2] = a

3
2
u[t 1] (8.33)
donde 0 < a 1.
La funci on de transferencia en el dominio de la transformaci on Zeta es:
H
z
(z) =
a

3
2
z
z
2
az +a
2
; [z[ > 1 (8.34)
En cambio, en el dominio de Fourier, debemos distinguir dos casos:
(i) Caso a < 1 :
En este caso, las frecuencias naturales est an dentro del disco unitario
abierto, por lo tanto, los modos naturales son absolutamente sumables
1
y la funci on de transferencia en el dominio de la transformada de Fourier
discreta es:
H
F
(e
j
) =

3
2
e
j
(e
j
)
2
ae
j
+a
2
(8.35)
En este caso:
H
F
(e
j
) = H
z
(z)[
z=e
j (8.36)
De esa forma, H
z
(e
j
) es tambien igual la respuesta en frecuencia del
sistema.
(ii) Caso a = 1 :
En este caso, las frecuencias naturales est an sobre la circunferencia uni-
taria y los modos naturales combinados corresponden a una sinusoide. M as
especcamente, la respuesta a un delta de Kronecter, con condiciones ini-
ciales iguales a cero es:
h[t] = sen( t/3)[t] (8.37)
En consecuencia (vea Tabla C.4 en la p agina 391, con
o
= /3) la funci on
de transferencia en el dominio de la transformaci on de Fourier es:
H
F
(e
j
) =
j
2
_

=
( +
o
+ 2) (
o
+ 2)
_
+

3
2
e
j
(e
j
)
2
e
j
+ 1
(8.38)
Se observa que en este caso, no se cumple (8.36).
1
Recuerde que una secuencia f[t], denida t N es absolutamente sumable si y s olo si

t=0
|f[t]| < .
200CAP

ITULO8. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADAZETA


impulso!respuestaa
escal on!respuestaa
respuesta!aimpulso
respuesta!aescal on
valorfinal
222
La relaci on entre la transformaci on de Fourier y transformaci on Zeta puede
ser resumida en la siguiente armaci on:
Las transformaciones Zeta y de Fourier son equivalentes, via la relaci on
z = e
j
, en aquellos casos en que la transformada Zeta existe para [z[ < ,
donde 0 < < 1.
8.3. Respuesta a impulso y respuesta a escal on.
Como ya hemos visto, la funci on de transferencia est a univocamente asociada
a la respuesta a impulso del sistema. Por otro lado, sabemos que si se aplica un
impulso a la entrada, la respuesta contiene solamente los modos naturales del
sistema; esto nos permite estudiar su comportamiento natural, independiente
de la se nal de entrada (caractersticas del transiente, velocidad de respuesta,
etc.) a partir del an alisis de la funci on H(z).
An alogamente al caso de sistemas de tiempo continuo, la respuesta a escal on
es tambien usada para describir el sistema, aunque en este caso, ello no se debe
a la dicultad para generar el delta.
La denici on (8.22) nos permite expresar la respuesta a escal on unitario
del sistema como:
Y (z) = H(z)
z
z 1
(8.39)
Lo cual, suponiendo que el sistema no tiene polos en z = 1, corre-
sponde a:
y[t] = y

+ modos naturales del sistema (8.40)


donde y

= H(1), en virtud del Teorema del Valor Final (ver Teorema E.1 en
la p agina 431). Si el sistema es estable, entonces los modos naturales decaen
exponencialmente a cero, por tanto, la respuesta en estado estacionario est a dada
por la constante y

. Note adem as que si H(z) tiene uno o m as ceros en z = 1,


entonces y

= 0.
Es conveniente recalcar que la respuesta a escal on unitario contiene los modos
naturales del sistema, por lo que revela cuestiones fundamentales del compor-
tamiento din amico del sistema.
Tambien es conveniente recordar que existe una relaci on simple entre la
respuesta a escal on g[t] y la respuesta a delta de Kronecter h[t]. Esta est a dada
por:
h[t] = g[t] g[t 1] (8.41)
8.3. RESPUESTA A IMPULSO Y RESPUESTA A ESCAL

ON. 201
muestreo
Ejemplo 8.6. Considere el sistema denido por su ERS:
y[t] 1, 75y[t 1] + 0, 8y[t 2] = 0, 2u[t] + 0, 25u[t 1] (8.42)
Su funci on de transferencia es:
H(z) =
Y (z)
U(z)
=
0, 2z
2
+ 0, 25z
z
2
1, 75z + 0, 8
(8.43)
La respuesta a impulso unitario y a delta de Kronecker pueden ser calculadas
mediante la metodologa usual, ya empleada en el Captulo 7 en el contexto de
sistemas de tiempo continuo y la transformada de Laplace. Esta corresponde
a reemplazar la expresi on para U(z), descomponer en fracciones parciales de
manera conveniente para poder obtener la transformada Zeta inversa, con ayuda
de la Tabla E.2 en la p agina 434.
En Matlab la funci on de transferencia en tiempo discreto, al igual que en
tiempo continuo, se dene mediante el comando tf en el que se especica un
tercer argumento correspondiente al tiempo de muestreo (ver Captulo 11). Este
se mantener indenido, haciendolo igual a 1. De esta forma la respuesta a
impulso y escalon pueden obtenerse mediante los comandos dimpulse y dstep,
respectivamente. Para el sistema en particular se nales se muestran en la Figura
8.3, obtenida con los siguientes comandos:
Matlab
>> Gd2=tf([-0.2 0.25 0],[1 -1.75 0.8],-1)
Transfer function:
-0.2 z^2 + 0.25 z
------------------
z^2 - 1.75 z + 0.8
Sampling time: unspecified
>> subplot(2,1,1),stem(impulse(Gd2))
>> subplot(2,1,2),stem(step(Gd2))
222
De igual forma que en el caso de tiempo continuo, en la respuesta a escal on de
sistemas de tiempo discreto puede denirse un conjunto de par ametros que de-
scriben ciertas propiedades de su din amica. Sin embargo, en este caso, el c alculo
de algunos de estos par ametros se complica pues la variable independiente, el
tiempo t, es discreta. As, el hacer cero una derivada para calcular un m aximo
o un mnimo se hace difcil por dos factores: la derivada no est a denida y, por
otro lado, el c alculo del instante asociado debe restringirse a valores enteros.
202CAP

ITULO8. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADAZETA


0 5 10 15 20 25 30 35 40
0.2
0.1
0
0.1
0.2
0.3
t
R
e
s
p
u
e
s
t
a

a

i
m
p
u
l
s
o
0 5 10 15 20 25 30 35 40
0.5
0
0.5
1
1.5
t
R
e
s
p
u
e
s
t
a

a

e
s
c
a
l
o
n
Figura 8.3: Respuesta a delta Kronecker y a escal on unitario para el Ejemplo
8.6.
En la Figura 8.3 se muestra una respuesta a escal on unitario con condiciones
iniciales iguales a cero. Se observa que se pueden asignar los mismos elementos
caracterizadores que en el caso de tiempo continuo.
Un asunto de interes tiene que ver con el hecho que una se nal cualquiera f[t]
(no s olo la respuesta a escal on o la respuesta a impulso), puede ser igual a cero
durante los primeros d instantes. Ello se explica con el siguiente an alisis.
Sea una se nal f[t] con transformada F(z) dada por:
F(z) =
B
f
(z)
A
f
(z)
(8.44)
donde A
f
(z) y B
f
(z) son polinomios de la forma:
A
f
(z) = z
p
+
p1
z
p1
+. . . +
1
z +
0
(8.45)
B
f
(z) =
q
z
q
+
q1
z
q1
+. . . +
1
z +
0
;
q
,= 0 (8.46)
para n umeros enteros p y q no negativos. Observe que dado que F(z) debe poder
expresarse en serie de potencias no positivas de z, es necesario que p q.
La expansi on de F(z) en potencias de z
1
se obtiene dividiendo B
f
(z) por
A
f
(z), esto lleva a:
F(z) =
q
z
p+q
+ (
q1

p1
)z
p+q1
+. . . (8.47)
8.4. RESPUESTAACONDICIONES INICIALES YEXCITACIONES ARBITRARIAS.203
gradorelativo
Esta ecuaci on demuestra que el primer valor de f[t] distinto de cero ocurre
en el instante t = p q, con f[p q] =
q
. El resultado principal se puede
resumir en el siguiente lema:
Lema 8.1. Considere una se nal f[t] y su transformada F(z), cuociente de
polinomios en z, con grado relativo d, entonces f[t] = 0 para t = 0, 1, ..d 1
222
Cuando este lema se aplica a la respuesta a escal on unitario, con condiciones
iniciales iguales a cero, se deduce que esta es cero en los primeros d instantes,
donde d es el grado relativo de la funci on de transferencia H(z). En rigor, el
Lema 8.1 se aplica al producto H(z)U(z), pero en este caso U(z) es
z
z1
, es
decir, su grado relativo es cero, por lo tanto el grado relativo de H(z)U(z) es
igual al grado relativo de H(z).
8.4. Respuesta a condiciones iniciales y excita-
ciones arbitrarias.
De la misma manera que en la secci on precedente se obtuvo las respuestas
a impulso y a escal on del sistema, la transformada Zeta permite obtener la
respuesta del sistema cuando la entrada pertenece a un tipo m as general de
se nales. En esta tarea, las principales ventajas que tiene esta transformaci on
sobre la transformaci on de Fourier, son que se puede aplicar a una amplia gama
de excitaciones no acotadas, y que permite inclur el efecto de las condiciones
iniciales.
Consideremos primero un ejemplo.
Ejemplo 8.7. Considere un sistema con ERS:
y[t] +a
1
y[t 1] +a
2
y[t 2] = b
1
u[t 3] +b
0
u[t 4] (8.48)
Entonces al aplicar la transformada Zeta (en el marco de la Nota 8.1 en la
p agina 193) se obtiene:
Y (z) =
b
1
z
3
+b
0
z
4
1 +a
1
z
1
+a
2
z
2
U(z) +
a
1
y[1] a
2
z
1
y[1] a
2
y[2]
1 +a
1
z
1
+a
2
z
2
(8.49)
lo cual lleva a:
Y (z) =
b
1
z +b
0
z
2
(z
2
+a
1
z +a
2
)
U(z)
. .
Yu(z)=T0,u[t])))]
+
(a
1
y[1] +a
2
y[2])z
2
a
2
y[1]z
z
2
+a
1
z +a
2
. .
Yx(z)=Txo,0)))]
(8.50)
222
Este ejemplo permite inducir algunos resultados generales:
204CAP

ITULO8. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADAZETA


retardo
respuesta!estacionaria
(i) Tanto la respuesta a entrada, y
u
[t] como la respuesta a condiciones ini-
ciales, y
x
[t], contienen los modos naturales del sistema.
(ii) El denominador de Y
u
(z) diere del de Y
x
(z), no s olo debido al denomi-
nador de U(z), sino que adem as en un conjunto de polos en z = 0. Estos
no son frecuencias naturales del sistema, sino que corresponden ex-
actamente al retardo con que se aplica la excitaci on.
(iii) La transformada Y
u
(z) contiene los polos de U(z); estos explican la pres-
encia de modos forzados, lo cual es consistente con lo planteado en la
subsecci on 4.3.6 en la p agina 73.
(iv) Si el grado relativo de H(z) es mayor que cero (como ocurre usualmente),
entonces y
u
[0] = 0.
(v) Salvo para especiales valores de las condiciones iniciales, el grado relativo
de Y
x
(z) es cero, as y
x
(0) ,= 0, lo cual lleva, salvo para esos valores
especiales, a que y(0) ,= 0.
Un caso especial de interes es cuando la excitaci on u[t] es una sinusoide de
frecuencia
o
, t 0, es decir, u[t] = 0, 5(e
jot
+e
jot
).
Consideremos primero el caso de una excitaci on u[t] = e
jot
[t], y un sistema
estable, con funci on de transferencia H(z), entonces:
U(z) =
z
z e
jo
(8.51)
Y (z) = H(z)
z
z e
jo
+Y
x
(z) (8.52)
Dado que el sistema es estable, s olo el modo forzado permanece, ya que la
frecuencia forzante est a sobre la circunferencia unitaria. As, si denotamos como
Y
t
ee
(z) la transformada Zeta de la componente estacionaria de la salida, tenemos
que:
Y
t
ee
(z) =
zH(e
jo
)
z e
jo
; H(e
jo
) = [H(e
jo
)[ e
jH(e
jo
)
(8.53)
y, por tanto:
y
t
ee
[t] = e
jot
H(e
jo
) = [H(e
jo
)[ e
j(ot+H(e
jo
))
(8.54)
Si consideramos ahora la excitaci on u[t] = e
jot
[t], la transformada Zeta
de la componente estacionaria de la salida es:
Y
tt
ee
(z) =
zH(e
jo
)
z e
jo
; H(e
jo
) = [H(e
jo
)[ e
jH(e
jo
)
(8.55)
y, por tanto:
y
tt
ee
[t] = e
jot
H(e
jo
) = [H(e
jo
)[ e
j(ot+H(e
jo
))
(8.56)
8.5. ESTABILIDAD 205
estabilidad
multiplicidad!polos
l mitedeestabilidad
circunferencia unitaria
Si ahora combinamos ambas excitaciones, es decir, u[t] = 0, 5(e
jot
+e
jot
),
la transformada Zeta de la componente estacionaria combinada de la salida
est a dada por:
y
ee
[t] = 0, 5 (y
t
ee
[t] +y
tt
ee
[t]) = [H(e
jo
)[ cos(t
o
+H(e
jo
)) (8.57)
Este resultado no es sorprendente, ya que por ser el sistema estable, la
relaci on (8.36) es v alida, y as se cumple que:
La funci on de transferencia H(z) de un sistema estable, evaluada en z = e
jo
es igual a la ganancia al modo forzante e
jot
(ver (4.35)).
8.5. Estabilidad
Hasta aqu hemos visto que la respuesta de un sistema que tiene una funci on
de transferencia H(z) es de la forma:
Y (z) = H(z)U(z) +
p

t=1
nt

i=1

ti
(z
t
)
i
(8.58)
Donde el valor de cada
ti
depende de las condiciones iniciales, y donde
hemos supuesto que cada polo ubicado en z =
t
, tiene multiplicidad n
t
. Esta
suposici on implica a su vez que n
1
+n
2
+. . . +n
p
= n, donde n es el orden de
la ERS, es decir, es el n umero de autovalores del sistema.
Si recordamos la denici on de estabilidad, tenemos que un sistema es estable
cuando cualquier entrada acotada produce una salida tambien acotada, para
cualquier condici on inicial acotada. Si observamos la ecuaci on (8.58) podemos
armar que la condici on necesaria y suciente para que el sistema sea estable
es que los polos de este, que aparecen en las fracciones del segundo termino
de la ecuaci on, den origen a se nales que decaigan exponencialmente. Esto se
traduce en que los polos del sistema deben tener magnitud estrictamente menor
que uno, es decir, deben estar ubicados sobre el disco unitario abierto del
plano complejo z . Es decir, para sistemas discretos, el lmite de estabilidad en
el plano complejo z en que se ubican sus polos, es la circunferencia unitaria.
Ejemplo 8.8. Consideremos un sistema con funci on de transferencia:
H(z) =
(z 0, 2)
z
3
(z 1)(z 0, 8)
(8.59)
Esta funci on tiene tres polos en el origen, que se originan en los retardos y
en la estructura de la ERS (vea ecuaciones (8.23) y (8.24)). Estos polos s olo
introducen retardos en los modos naturales. Los otros polos de su funci on de
transferencia est an ubicados en z = 1, y z = 0, 8. Estos ultimos polos correspon-
den a frecuencias naturales del sistema. Uno de estos, el ubicado en z = 1, no
est a en el disco unitario abierto, sino que justo sobre el lmite de estabilidad.
206CAP

ITULO8. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADAZETA


sistemasdiscretos!estabilidad
Por tanto el sistema no es estable. Se deja al lector el vericar que una entrada
constante, diferente de cero, produce una salida que crece indenidamente.
222
8.5.1. Analisis de polinomios
Al igual que en el caso de sistemas de tiempo continuo, es posible estudiar
la estabilidad de un sistema de tiempo discreto analizando el polinomio denom-
inador de su funci on de transferencia, sin calcular explcitamente las races de
ese polinomio.
Supongamos que el denominador mencionado sea un polinomio de la forma:
p(z) = a
n
z
n
+a
n1
z
n1
+. . . +a
2
z
2
+a
1
z +a
0
(8.60)
Entonces se trata de determinar si existen o no races de este polinomio cuya
magnitud sea igual o mayor que 1, o equivalentemente, si todas las raices est an
en el disco unitario abierto en el plano complejo z . Diremos que los polinomios
que tiene esta propiedad son polinomios estables.
A semejanza de lo que ocurre en el caso de sistemas de tiempo continuo,
podemos aprovechar algunas propiedades del polinomio (8.60) para descartar
algunas situaciones. Dos de estas propiedades son especialmente utiles
Propiedad 1 El coeciente a
n1
cumple con:
a
n1
= a
n
n

i=1

i
(8.61)
donde
1
,
2
, . . .
n
son las races de p(z).
Esta propiedad es directa al notar que el polinomio p(s) puede escribirse
como:
p(z) = a
n
n

i=1
(z
i
) (8.62)
entonces, al expandir el producto (8.62) y observar el coeciente que acom-
pa na a la potencia (n 1)-esima de z, se obtiene (8.61).
Propiedad 2 El coeciente a
0
cumple con:
a
0
= (1)
n
a
n
n

i=1

i
(8.63)
Esta propiedad tambien se puede demostrar expandiendo el producto
(8.62) y observando el termino constante.
8.5. ESTABILIDAD 207
desigualdad!triangular
bilineal!transformaci on
Routh
La primera propiedad dice que para que el polinomio p(z) sea estable, en-
tonces es necesario que [a
n1
[ < n[a
n
[ ya que cada raz de p(z) debe tener
magnitud menor que 1. El resultado se obtiene al utilizar la desigualdad trian-
gular: el m odulo de la suma es menor que la suma de los m odulos.
La segunda propiedad dice que la estabilidad de p(z) exige como condici on
necesaria que [a
0
[ < [a
n
[. Este resultado se obtiene al considerar que cada factor

i
en (8.63) debe tener magnitud menor que uno.
Las dos propiedades precedentes ayudan a descartar algunos polinomios bajo
an alisis. El lector debe recordar que estas propiedades son necesarias pero no
sucientes para asegurar estabilidad. Tambien conviene tener presente que, a
diferencia del caso de tiempo continuo, un polinomio puede ser estable aunque
algunas de sus races sean positivas; esto implica que los coecientes de un
polinomio p(z) estable pueden ser positivos, negativos o cero.
Una vez superada la etapa de la inspecci on se requiere un metodo de an alisis
que proporcione una respuesta categ orica sobre la estabilidad o inestabilidad del
polinomio. Una de las formas de realizar el estudio es transformar el problema
en uno en que podamos aplicar el algoritmo de Routh y, en general, todos los
resultados de la Secci on 7.5.1. Con este objetivo se puede usar, por ejemplo, la
transformaci on bilineal:
z =
w + 1
w 1
w =
z + 1
z 1
(8.64)
donde w es una variable compleja auxiliar. Si expresamos la variable w en termi-
no de su parte real y su parte imaginaria , es decir w = + j entonces
(8.64) se puede escribir como:
z =
w + 1
w 1
=
+ 1 +j
1 +j
=[z[ =

( + 1)
2
+
2
( 1)
2
+
2
(8.65)
De la ecuaci on (8.65) se puede ver que > 0 si y s olo si [z[ < 1. Tambien
se puede ver w est a en el eje imaginario ( = 0) si y s olo si z est a sobre la
circunferencia unitaria ([z[ = 1). As, si denimos la funci on racional P
w
(w)
como:
P
w
(w) = p (z)

z=
w+1
w1
(8.66)
entonces el polinomio p(z) tiene todas sus races al interior del disco unitario
si y s olo si el polinomio numerador de P
w
(w) tiene todas sus raices al interior
del semi-plano izquierdo. Por lo tanto, podemos usar el criterio de Routh para
probar el polinomio numerador de P
w
(w) y as estudiar la estabilidad de p(z).
Ejemplo 8.9. Considere el polinomio p(z) = z
3
0, 8z
2
0, 25z +0, 2. Se trata
de determinar si todas sus races al interior del disco unitario. Para ello primero
calculamos P
w
(w), obteniendo:
208CAP

ITULO8. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADAZETA


Jury
Jury!algoritmo
P
w
(w) =
0, 15w
3
+ 1, 85w
2
+ 4, 65w + 1, 35
(w 1)
3
(8.67)
Luego aplicamos Routh al numerador de P
w
(w), construyendo el arreglo:
w
3
0, 15 4, 65
w
2
1, 85 1, 35
w
1
4, 5405
w
0
1, 35
Como no hay cambios de signo en la primera columna, sabemos que todos
los ceros de P
w
(w) est an al interior del semi-plano izquierdo, lo cual implica
que todas las races de p(z) est an estrictamente al interior del disco unitario.
222
El metodo de la transformaci on bilineal, aunque efectivo, puede llegar a
ser muy engorroso para polinomios de grado elevado. Tambien hace m as difcil
estudiar problemas de estabilidad condicionada a par ametros. Para evitar estos
inconvenientes, se puede utilizar un algoritmo o criterio alternativo desarrollado
por Jury
z
n

n,n

n,n1

n,n2
. . .
n,1

n,0

n,0

n,1

n,2
. . .
n,n1

n,n
z
n1

n1,n1

n1,n2

n1,n3
. . .
n1,0

n1,0

n1,1

n1,2
. . .
n1,n1
.
.
.
z
0

0,0
Cuadro 8.1: Arreglo de Jury
Consideremos el polinomio en (8.60) y el arreglo de la Tabla 8.1. Este arreglo
se construye como se indica, paso a paso, a continuaci on:
(i) La primera la se construye directamente con los coecientes de polinomio
original en orden descendente, i.e.
n,
= a

, = n, n 1, . . . , 0.
(ii) La segunda la se construye a partir de la primera la con los mismos
coecientes, pero en orden ascendente.
(iii) La tercera la es calculada a partir de las dos immediatamente anteriores
de acuerdo a la siguiente f ormula:
8.5. ESTABILIDAD 209

n1,n
=
1

n,n

n,n

n,1

n,0

n,n+1

= 1, 2, . . . , n (8.68)
Note que esta la tiene un elemento menos que las dos anteriores.
(iv) La cuarta la se construye a partir de la tercera la con los mismos coe-
cientes, pero en orden inverso.
(v) La quinta la se construye a partir de las dos las precedentes usando
(8.68) con los coecientes correspondientes. Esta regla de construcci on se
aplica tambien a todas las las impares que siguen, hasta la (2n + 1)-
esima, es decir, hasta calcular
0,0
. En cada una de estas las, el n umero
de coecientes se reduce en uno.
(vi) La sexta la, as como todas las las pares que siguen, se construyen con
los mismos coecientes de la la impar inmediatamente anterior, pero en
orden inverso.
Jury formul o un teorema de estabilidad cuyas condiciones se verican usando
el arreglo de la tabla 8.1. El teorema se enuncia a continuaci on, sin demostraci on,
ya que ella excede el marco de este texto. El lector interesado puede consultar
[10].
Teorema 8.1. El polinomio p(z) dado en (8.60), con a
n
> 0, tiene todas
sus races estrictamente al interior del crculo unitario si y s olo si
,
> 0
para = 0, 1, . . . , n 1. 222
A continuaci on ejemplicamos el algoritmo, tanto en su mec anica como en
sus potenciales aplicaciones.
Ejemplo 8.10. Considere el polinomio p(z) = z
3
0, 5z
2
0, 64z + 0, 32.
Entonces n = 3, a
n
= 1 > 0 y el arreglo de Jury resultante se muestra en la
Tabla 8.2.
Los terminos de la tercera, quinta y septima la se calculan siguiendo el
procedimiento general descrito precedentemente, as:

2,2
=
1
1

1 0, 32
0, 32 1

;
2,1
=
1
1

1 0, 64
0, 32 0, 5

;
2,0
=
1
1

1 0, 5
0, 32 0, 64

(8.69)

1,1
=
1
0,8976

0, 8976 0, 48
0, 48 0, 8976

;
1,0
=
1
0,8976

0, 8976 0, 2952
0, 48 0, 2952

(8.70)

0,0
=
1
0, 6409

0, 6409 0, 4531
0, 4531 0, 6409

(8.71)
210CAP

ITULO8. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADAZETA


z
3

3,3
= 1
3,2
= 0, 5
3,1
= 0, 64
3,0
= 0, 32
0,32 -0,64 -0,5 1
z
2

2,2
= 0, 8976
2,1
= 0, 2952
2,0
= 0, 48
-0,48 -0,2952 0,8976
z
1

1,1
= 0, 6409
1,0
= 0, 4531
0, 4531 0, 6409
z
0

0,0
= 0, 3206
Cuadro 8.2: Arreglo de Jury. Ejemplo 8.10
Al aplicar el teorema de Jury observamos que
3,3
= a
3
> 0 y que
,
> 0,
0, 1, 2. En consecuencia el polinomio p(z) tiene todas sus races dentro
del disco unitario.
222
Para apreciar el uso del algoritmo de Jury en estudios de estabilidad relativa
o condicional, consideraremos un ejemplo adicional.
Ejemplo 8.11. Sea un polinomio p(z) = z
2
+ az + 0, 8. Se trata de estudiar
bajo que condiciones este polinomio tiene sus dos races con m odulo menor que
uno. Note que n = 2 y a
n
= a
2
= 1 > 0.
Primero construimos el arreglo de Jury, el que aparece en la Tabla 8.3.
z
2

2,2
= 1
2,1
= a
2,0
= 0, 8
0,8 a 1
z
1

1,1
= 0, 36
1,0
= 0, 2a
0,2a 0,36
z
0

0,0
= 1
a
2
1,8
2
Cuadro 8.3: Arreglo de Jury. Ejemplo 8.11
El arreglo de la tabla muestra que la condici on requerida por el teorema de
Jury (
1,1
> 0,
0,0
> 0) se cumple si y s olo si 1, 8 < a < 1, 8.
222
8.6. Polos, ceros y la respuesta temporal
A continuaci on examinaremos algunas propiedades fundamentales de los po-
los y ceros de la funci on de transferencia de un sistema de tiempo discreto, y su
inuencia sobre las caractersticas de la respuesta de un sistema lineal.
Consideremos una funci on de transferencia de la forma general:
8.6. POLOS, CEROS Y LA RESPUESTA TEMPORAL 211
fasem nima
ceros!fasenom nima
funci ondetransferencia!estable
polos
H(z) = K

m
i=1
(z
i
)
z
d

n
l=1
(z
l
)
(8.72)
donde
l
C y
i
C. Si suponemos que no hay valores de l y de i tales que

l
=
i
entonces,
1
,
2
, . . . ,
m
and
1
,
2
, . . . ,
n
son los ceros y los polos de
la funci on de transferencia, respectivamente (a estos ultimos hay que agregar
los d polos en el origen).
Estaremos particularmente interesados en aquellos ceros ubicados sobre la
circunferencia unitaria o en su cercana, y en aquellos polos al exterior del disco
unitario. Los polos y ceros ubicados en estas regiones juegan un rol fundamental
en la din amica del sistema.
Una clase especial de funci on de transferencia es aquella que tiene todos
sus ceros y sus polos al interior del disco unitario en el plano complejo z .
Tradicionalmente estas se denominan funciones de transferencia de fase
mnima . Sin embargo, a similitud de la nomenclatura usada en sistemas de
tiempo continuo, reservaremos ese nombre para referirnos simplemente a fun-
ciones de transferencia sin ceros fuera del disco unitario, que tengan o no polos
en el. Diremos que un cero tiene fase no mnima si tiene magnitud mayor o,
al menos, igual a uno, de otra forma se denominar a cero de fase mnima. Si
hablamos de una funci on de transferencia estable nos referimos a que todos
sus polos se ubican sobre el disco unitario abierto; si decimos que inestable,
es porque al menos uno de sus polos se encuentra fuera del disco unitario, o
sobre el borde de este ultimo. Los polos en si mismos tambien se pueden de-
nominar estables o inestables , si se encuentran dentro o fuera del disco unitario
abierto,respectivamente
2
.
A continuaci on examinaremos la inuencia sobre la respuesta transiente de
un sistema de los polos y ceros de su funci on de transferencia.
8.6.1. Polos
Las funciones que se originan al aplicar la transformaci on Zeta a las ERS
de sistemas lineales, son funciones racionales y siempre pueden descomponerse
en fracciones parciales. Cada uno de los terminos de esta expansi on contiene
ya sea un polo real simple, un par de polos complejos conjugados o m ultiples
combinaciones de polos repetidos. Por tanto, para conocer el efecto de los polos
en la respuesta transiente de un sistema basta conocer el efecto ocasionado por
los polos de primer y segundo orden y su interacci on.
Un polo de primer orden contribuye a la descomposici on en fracciones par-
ciales, en general, con un termino de la forma:
H
1
(z) =
K
1
(1 a)
z a
(8.73)
donde K
1
es la ganancia a continua.
2
En ocasiones, por abuso de lenguaje, a los ceros de fase no mnima tambien se les denomina
ceros inestables, dado que se encuentran en la regi on del plano z en que los polos son
inestables.
212CAP

ITULO8. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADAZETA


modosnaturales
Mientras que un polo de segundo orden contribuye a la expansi on con un
termino:
H
2
(s) = K
2
1 2 cos
o
+
2
z
2
2z cos
o
+
2
(8.74)
donde K
2
es la ganancia a continua.
En el Captulo 4 se describi o gr acamente la relaci on entre la ubicaci on de
las frecuencias naturales (simples) y los modos naturales. Dado que los polos de
H(z), salvo aquellos ubicados en el origen, son iguales a las frecuencias naturales,
es conveniente repetir la descripci on gr aca de esa relaci on.
1
z
Figura 8.4: Relaci on entre la ubicaci on de los polos (de multiplicidad uno) y los
modos naturales (caso decreciente).
Cada polo genera un termino especco que coincide justamente con cada uno
de los modos naturales en la respuesta del sistema a un impulso en la entrada.
Estos modos est an presentes tambien en la respuesta a cualquier entrada al
sistema (excepto en casos muy excepcionales cuando hay coincidencia de polos
8.6. POLOS, CEROS Y LA RESPUESTA TEMPORAL 213
polos!r apidos
polos!dominantes
polos!lentos
z
1
Figura 8.5: Relaci on entre la ubicaci on de los polos (de multiplicidad uno) y los
modos naturales (caso no decreciente).
con ceros). El tipo de modo natural asociado a cada polo de un sistema depende
de la ubicaci on de este sobre el plano complejo z , exactamente equivalente a la
ubicaci on de cada frecuencia natural sobre un plano complejo, como se vi o en
el Captulo 4. Para ilustrar esto podemos apreciar en la Figura 8.4 las diferentes
respuestas a impulso de un sistema de un unico polo.
En forma an aloga a lo que ocurre con los sistemas continuos en el tiempo,
nos referiremos, en general, como polos r apidos a aquellos que se encuentran
m as cercanos al origen del plano z . Esto es equivalente que considerar que la
respuesta transiente asociada a estos polos desaparece m as r apido que aquella
asociada a los otros polos, tal como puede apreciarse en la gura 8.4. Por otro
lado, llamaremos polos dominantes o polos lentos a aquellos que se encuantran
al interior del disco unitario, pero m as cercanos al lmite de estabilidad (cir-
cunferencia unitaria) que el resto de los polos de sistema. Esto equivale a decir
que el transiente asociado a los polos dominantes decae m as lentamente que los
dem as modos naturales.
214CAP

ITULO8. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADAZETA


ceros
controlabilidad
observabilidad
Por ejemplo, si tenemos un sistema cuyos polos est an ubicados en (0, 5; 0, 6
j0, 6; 0, 2; 0, 2+j0, 3), podemos decir que los polos dominantes es 0, 6j0, 6
y el polo m as r apido es el que se encuentra en 0, 2.
8.6.2. Ceros
En general, el efecto de la ubicaci on de los polos en la din amica de un sis-
tema puede entenderse sin demasiada dicultad dada su directa relaci on con la
estabilidad y las caractersticas generales de la respuesta del sistema. De hecho
en la literatura sobre sistemas y su estabilidad se puede encontrar mucha m as
informaci on que la aqu detallada. Por el contrario, a menudo se ha subestima-
do el efecto de los ceros en el an alisis del comportamiento de un sistema. Sin
embargo, en los ultimos a nos se ha vuelto a dar un vistazo al efecto de los ceros
sobre la respuesta de un sistema, que ahora son reconocidos por su importancia,
por ejemplo, al denir criterios de dise no de sistemas de control. Es asi como,
mientras que los polos de un sistema est an asociados a la presencia de sus modos
naturales aislados, los ceros reejan de alg un modo la interacci on entre estos,
por ejemplo, en el caso en que la salida de un sistema est a formada por la suma
de dos modos naturales diferentes. Adem as, a pesar que la ubicaci on de los polos
determina los modos naturales de un sistema, es la ubicaci on de los ceros la que
determina la proporci on en que los modos aparecen combinados en la salida. En
estas combinaciones los modos naturales toman diferente fuerza, pudiendo ser
su efecto, en algunos casos, casi imperceptible. De hecho, la ubicaci on relativa
de polos y ceros tiene directa relaci on con los conceptos de observabilidad y
controlabilidad, como se detalla en el Captulo 10.
Veamos esto a traves de un ejemplo.

z 0, 5
Y (z) U(z)
1
z 0, 8
Figura 8.6: Sistema discreto con interacci on aditiva entre dos estados.
Ejemplo 8.12. Consideremos el sistema de la Figura 8.6, cuya funci on de
transferencia sistema esta dada por:
H(z) =
Y (z)
U(z)
=

z 0, 5
+
1
z 0, 8
=
(0, 3 + 0, 2)z (0, 3 + 0, 1)
(z 0, 5)(z 0, 8)
(8.75)
8.6. POLOS, CEROS Y LA RESPUESTA TEMPORAL 215
cancelaci on!cuasi-
undershoot
contrarespuesta
respuesta!inversa
Este sistema tiene sus polos en p
1
= 0, 5 y p
2
= 0, 8 y un cero en c
1
=
3+1
3+2
.
Es decir, la ubicaci on est a directamente relacionada con el peso de cada uno
de los modos naturales en la respuesta del sistema, por ejemplo, a un impulso
unitario en la entrada:
y[t] = (0, 5)
t
+ (1 )(0,8)
t
(8.76)
Si tomamos un valor de cercano a cero, por ejemplo = 0,01, la funci on
de transferencia es:
H(z) = 0, 203
(z 0,5074)
(z 0, 5)(z 0, 8)
(8.77)
En esta puede observarse la cercana del cero al polo en z = 0, 5. La respuesta
a impulso ser a en este caso:
y[t] = 0, 01(0, 5)
t
+ 0, 99(0,8)
t
(8.78)
En que se aprecia la peque na magnitud con que aparece el modo natural m as
r apido. Es decir, a medida que el cero se acerca al polo en z = 0, 5 se produce
una cuasi-cancelaci on , que ser a total cuando = 0.
Invitamos al lector a estudiar el caso an alogo cuando se acerca a 1 y cu al
es su efecto sobre el otro modo natural del sistema. Adem as puede analizarse
que sucede con el sistema cuando el par ametro toma valores negativos. Que pasa
si = 1/3 o = 2/3 ?
222
8.6.3. Respuesta inversa o contrarespuesta (undershoot)
La Figura 8.3 en la p agina 202 sugiere que existen casos en los que, en la
presencia de una excitaci on mayor que cero, la respuesta del sistema se hace
negativa durante alg un lapso no despreciable. Existe un resultado an alogo al
Lema 7.1 en la p agina 182, respecto del rol de algunos ceros que est an ubicados
fuera del crculo unitario.
Lema 8.2. Considere un sistema lineal estable con funci on de transferencia
H(z), y con un cero real en z = c, donde c > 1, entonces la respuesta a un
escal on positivo se hace negativa durante uno o m as lapsos no despreciables.
Demostraci on
La respuesta del sistema est a dada por:
Y (z) = H(z)
Kz
z 1
; K > 0 (8.79)
Entonces:
H(z)
Kz
z 1
=

t=0
y[t]z
t
; [z[ > 1 (8.80)
Note que la regi on de convergencia queda determinada, por un lado, por el hecho
que el sistema es estable, por lo cual la transformada de h[t] est a bien denida
216CAP

ITULO8. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADAZETA


para [z[ 1 y, por otro lado, por el hecho que la respuesta a un escal on est a bien
denida para [z[ > 1. En consecuencia, la regi on de convergencia para y[t] es
[z[ > 1.
Si ahora, en la ecuaci on (8.80), hacemos z = c (note que, por ser c > 1,
est a en la regi on de convergencia) obtenemos, aplicando el hecho que H(c) = 0
H(c)
K
c
=

t=0
y[t]c
t
= 0 (8.81)
Como la suma es cero, y c
t
> 0, t, necesariamente y[t] debe ser negativa
en uno o m as lapsos, y positiva, el resto del tiempo.
El lema precedente justica la presencia de undershoots, como el sugerido
en la Figura 8.3 en la p agina 202. Sin embargo, este comportamiento inverso se
puede manifestar en formas m as diversas, tal como se ilustra en la Figura 8.7.
0 10 20 30 40 50
1
0.5
0
0.5
1
Tiempo [s]
R
e
s
p
u
e
s
t
a

a

e
s
c
a
l

n
0 10 20 30 40 50
1
0.5
0
0.5
1
Tiempo [s]
R
e
s
p
u
e
s
t
a

a

e
s
c
a
l

n
Figura 8.7: Ejemplos de distintas formas de respuesta inversa en sistemas dis-
cretos.
8.7. PROBLEMAS PARA EL LECTOR 217
8.7. Problemas para el lector
Problema 8.1. Determine la transformada Zeta de las siguientes funciones:
(i) y[t] = Acos(t +)
(ii) y[t] = t a
t
(iii) y[t] =
_

_
0 ; 0 t 1
1 ; 2 t 7
0 ; t 8
(iv) y[t] = (0, 5)
t
Problema 8.2. Para los siguientes sistemas:
(i) y[t] y[t 1] = u[t]
(ii) y[t] = u[t] u[t 1]
(iii) y[t] 1, 4y[t 1] + 0, 48y[t 2] = 0, 08u[t]
(iv) y[t] y[t 1] 1, 1[t 2] = u[t 1] 0, 1u[t 2]
8.2.1 Determine su funci on de transferencia,
8.2.2 Determine si son o no estables,
8.2.3 Determine y graque su respuesta a delta de Kronecker, y
8.2.4 Determine y graque su respuesta a escal on unitario.
Problema 8.3. Considere un sistema denido por su ecuaci on recursiva:
y[t + 2] y[t + 1] + 0, 5y[t] = u[t] 0, 5u[t 1]
8.3.1 Determine la funci on de transferencia del sistema.
8.3.2 Determine la salida del sistema a entrada cero y condiciones iniciales
y[1] = 1 y y[1] = 1. Graque.
8.3.3 Determine la salida del sistema si la entrada es u[t] = [t] [t 2].
Graque.
Problema 8.4. Si N es un n umero entero positivo, entonces considere los
siguientes sistemas:
(promediomovil) y[t] =
1
N
(u[t] +u[t 1] +. . . +u[t N])
(autoregresivo) y[t] +y[t 1] +. . . +y[t N] = u[t]
8.4.1 Determine su funci on de transferencia,
218CAP

ITULO8. AN

ALISIS BAJOEXCITACIONES ARBITRARIAS. LATRANSFORMADAZETA


8.4.2 Determine sus polos y ceros,
8.4.3 Determine y graque su respuesta a delta de Kronecker, y
8.4.4 Determine y graque su respuesta a escal on unitario.
Problema 8.5. Para el sistema:
y[t] +
1
y[t 1] +
0
y[t 2] = u[t] u[t 1]
8.5.1 Determine condiciones sobre
0
,
1
y de manera que el sistema sea
estable.
8.5.2 Si u[t] = 0,
1
= 1,
0
= 0,16 y = 0, determine la condiciones
iniciales de manera que el la respuesta homogenea s olo aparezca el modo
natural dominante.
8.5.3 Si no se conoce u[t] = 0, pero
1
= 1,
0
= 0,16, determine de
manera que en la salida solo aparezca el modo natural mas r apido.
Problema 8.6. Se sabe que la respuesta de un sistema lineal a un escal on
unitario en su entrada (con condiciones iniciales iguales a cero) est a dada por:
g[t] =
_
0, 5 (0, 4)
t
cos
_

3
(t 1)
__
[t]
Determine la funci on de transferencia del sistema.
respuestaenfrecuencia
transformadadeFourier
transformadadeLaplace
transformadaZeta
Bode
Nyquist
Captulo 9
Representaci on de sistemas
lineales
9.1. Ideas generales
La caracterizaci on de la respuesta en frecuencia de un sistema lineal, as co-
mo su funci on de transferencia obtenida con la tranformaci on de Fourier, la
transformaci on de Laplace o la transformaci on Zeta, son herramientas utiles
para el an alisis, sntesis y dise no de sistemas din amicos en sus distintas aplica-
ciones, tales como procesamiento de se nales y control autom atico, entre otras.
Estas herramientas han sido ampliamente reconocido a traves de los a nos y han
dado lugar tambien a una serie de formas especiales de representaci on gr aca.
En primer lugar, recordemos que la respuesta en frecuencia de un sistema
lineal y su funci on de transferencia est an caracterizadas por la misma funci on de
la frecuencia
1
H(j) que, en general, toma valores complejos. Una de las formas
de representaci on m as usuales se basa en gr acos separados de la magnitud y la
fase de H(j), en donde la frecuencia, , es la variable independiente. La m as
conocida y usada de estas representaciones fue desarrollada por Hendrik Bode
en los a nos cuarenta [4](o no?). Por otra parte, tambien es posible representar
H(j) en un solo gr aco unico donde el eje de las abscisas corresponde a su parte
real, y el eje de ordenadas, a su parte imaginaria. Este se denomina diagrama
polar o de Nyquist. En esta ultima caracterizaci on, la frecuencia queda implcita.
Finalmente en este Captulo introducimos la representaci on en diagramas de
bloques, ampliamente usada en el dominio temporal, de Fourier, de Laplace y de
la transformada Zeta, dada su gran utilidad para representar sistemas complejos
mediante la interconecci on de sistemas m as simple, y la causalidad inherente de
las se nales de entrada y de salida de estos sistemas din amicos.
1
Ver Lema 6.1 en la p agina 129.
219
220 CAP

ITULO 9. REPRESENTACI

ON DE SISTEMAS LINEALES
Bode!diagramasde
Bode|textbf
diagramas!deBode
ejeslogar tmicos
decada
octava
decibel
factorescan onicos
9.2. Diagramas de Bode
9.2.1. Tiempo continuo
Como ya hemos visto, un sistema de tiempo continuo puede ser caracterizado
por la funci on H( ). El diagrama de Bode correspondiente a esta funci on
est a formado por dos gr acos: uno que describe la evoluci on de su magnitud
[H( )[ como funci on de la frecuencia angular , y el otro describe el angulo
de la respuesta en frecuencia H( ), tambien como funci on de la frecuencia
angular .
Los diagramas de Bode son dibujados con ejes especiales:
El eje de las abscisas es lineal en log
10
(), o logartmico en . Esto permite
una representaci on compacta de la frecuencia en un gran rango de valores.
En este eje, la unidad es la decada, que corresponde a la distancia en el
eje que separa a una frecuencia cualquiera
1
y su m ultiplo 10
1
. Una
unidad alternativa es la octava, que corresponde a la distancia entre
1
y
2
1
(doble de la frecuencia).
La magnitud de la respuesta en frecuencia es medida en decibeles [dB], es
decir, se representa la funci on:
[H( )[
dB
= 20 log
10
[H( )[ (9.1)
Es decir, al igual que para la frecuencia, se utiliza un eje logartmico en
[H( )[.
El uso de ejes logartmicos proporciona varias ventajas, incluyendo pre-
cisi on por valores peque nos y grandes de [H( )[, facilidad para construir
aproximaciones simples para [H( )[
dB
, y el hecho que la respuesta en fre-
cuencia de sistemas en cascada puede ser obtenida sumando las respuestas
en frecuencia individuales.
El angulo es medido en una escala lineal en radianes o grados.
Los paquetes de software disponibles, tales como Matlab , incluyen coman-
dos especiales para calcular la respuesta en frecuencia y dibujar los diagramas de
Bode. Sin embargo, es importante, para el manejo conceptual de la herramienta,
desarrollar la habilidad de hacer, en forma manual y r apida, un bosquejo de esos
diagramas, utiles para el an alisis y el dise no de las propiedades de un sistema o
de una se nal.
Para desarrollar estas ideas consideraremos una funci on de transferencia que
puede expresarse como un producto de funciones particulares, que llamaremos
factores can onicos, correspondientes a los siguientes tipos:
[B1] K
[B2] (1 +T )
q
, q 1; 1
9.2. DIAGRAMAS DE BODE 221
Bode!aproximaciones
[B3] ( )
q
, q 1; 1
[B4]
_
1 + 2

n
+
_

n
_
2
_
q
q 1; 1, 0 < 1.
[B5] e

, > 0
donde el exponente q 1; 1 describe las dos opciones para cada factor: su
presencia en el numerador o en el denominador de la funcion H( ) dada.
A continuaci on se presente un ejemplo ilustrativo.
Ejemplo 9.1. Considere la funci on:
H( ) = 6
e
0,1
( + 2)
( + 1)(( )
2
+ + 4)
(9.2)
Que puede reescribirse como:
H( ) =
(3) (e
0,1
) (1 + 0, 5 )
( ) (1 + )
_
1 + 2 0, 25

2
+
_

2
_
2
_ (9.3)
222
As, en el caso general:
H( ) =
n

=1
F

( ) (9.4)
donde cada uno de los factores elementales, F

( ), es una funci on perteneciente


a alguno de los tipos [B1] a [B5]. Entonces
[H( )[
dB
= 20 log
10
[H( )[ =
n

=1
20 log
10
[F

( )[ =
n

=1
[F

( )[
dB
(9.5)
H( ) =
n

=1
F

( ) (9.6)
Es decir:
La magnitud (en dB) de H( ) es igual a la suma de las magnitudes (en
dB) de F

( ), y
El angulo de H( ) es igual a la suma de los angulos de F

( )
En consecuencia, para poder construir aproximaciones para una funci on de
transferencia arbitraria, es suciente desarrollar aproximaciones para cada uno
de los cinco factores can onicos, [B1] a [B5]. Esto es lo que haremos a contin-
uaci on.
222 CAP

ITULO 9. REPRESENTACI

ON DE SISTEMAS LINEALES
Bode!as ntotas
[B1]
En este caso F( ) = K y su magnitud es exactamente:
[K[
dB
= 20 log
10
[K[ (9.7)
es decir, es una recta horizontal. Por su parte, la fase es:
K =
_
0 para K 0
180
o
para K < 0
(9.8)
As, la fase de larespuesta en frecuencia tambien es una recta horizontal.
[B2]
En este caso F( ) = (1 +T )
q
, donde q 1; 1. Entonces:
[F( )[
dB
= 20 q log
10
_
1 +T
2

2
= 10 q log
10
(1 +T
2

2
) (9.9)
F( ) = q arctan(T) (9.10)
Podemos construir una aproximaci on por trazos o asntotas para la magni-
tud, si observamos que:

1
[T[
=[F( )[
dB
0 [dB] (9.11)

1
[T[
=[F( )[
dB
20q log
10
([T[) (9.12)
Esto signica que la magnitud de la respuesta en frecuencia de una funci on
tipo [B2] puede aproximarse por dos asntotas: una de baja frecuencia, con
pendiente 0 [dB/dec] y otra de alta frecuencia, cuya pendiente es 20q [dB/dec].
Estas asntotas se intersectan en = 1/[T[. Cuando q = 1, a esta frecuencia
la curva exacta pasa 3 [dB] m as abajo, ya que [F(j/[T[)[ =
_
1/2 y basta
recordar que 20 log
10

0, 5 3, 0103.
En la Figura 9.1 se muestra la aproximaci on asint otica y la curva exacta para
una funci on tipo [B2], con q = 1, en termino de la frecuencia normalizada [T[.
La fase de la respuesta en frecuencia es m as difcil de aproximar de una
manera simple. Sabemos que para [T[ 1 la fase es aproximadamente cero
y que para [T[ 1, la fase es aproximadamente

= 90 q signo(T) [
o
]. Una
aproximaci on aceptable puede ser construida por tres rectas:
Una recta horizontal en 0 [
o
] en el rango de frecuencia (; 0, 1/[T[), es
decir, hasta una decada antes de 1/[T[).
Una recta que une los puntos (0; 0, 1/[T[) y (10/[T[;

), es decir, desde
una decada antes hasta una decada despues de 1/[T[). Esta recta tiene
una pendiente de 0, 5

[
o
/dec] (para el caso con T > 0 y q = 1, esta
pendiente es 45 [
o
/dec]),
9.2. DIAGRAMAS DE BODE 223
10
2
10
1
10
0
10
1
10
2
50
40
30
20
10
0
10
|T|
M
a
g
n
i
t
u
d

[
d
B
]
Figura 9.1: Diagrama de Bode de magnitud para una funci on tipo [B2], con
q = 1
Y una recta horizontal en

en el rango de frecuencia (10/[T[, ). As,


en alta frecuencia, la fase tiende a 90q[
o
] signo(T).
Esta aproximaci on es exacta en = 1/[T[, donde la fase es 45q[
o
].
En la Figura 9.2 se aprecia tanto la aproximaci on asint otica, como la curva
exacta para el caso q = 1 y T > 0 . La frecuencia se ha normalizado a [T[.
10
2
10
1
10
0
10
1
10
2
100
80
60
40
20
0
20
T
F
a
s
e

[

]
Figura 9.2: Diagrama de Bode de fase para una funci on tipo [B2], con q = 1
[B3]
En este caso, F( ) = ( )
q
, q 1; 1. La magnitud, en decibeles, est a dada
por:
[F( )[
dB
= 20q log
10
[[ (9.13)
De esta forma, considerando que el eje de abscisas est a en escala logartmica, la
magnitud es una recta con pendiente 20q [dB/dec].
La fase, en tanto, es:
F( ) = 90 q[
o
] (9.14)
224 CAP

ITULO 9. REPRESENTACI

ON DE SISTEMAS LINEALES
as ntotas
que corresponde a una recta horizontal en 90 q[
o
].
[B4]
En este caso, el factor can onico es de la forma:
F( ) =
_
1 + 2

n
+
_

n
_
2
_
q
(9.15)
en que q 1; 1 y 0 < 1. Se trata de un factor de segundo grado,
determinado por dos par ametros:
n
y .
La magnitud es:
[F( )[
dB
= 20 q log
10

_
1

2

2
n
_
2
+ 4
2

2
n
= 10 q log
10
_
_
1

2

2
n
_
2
+ 4
2

2
n
_
(9.16)
Y el angulo de fase es:
F( ) =
_

_
q arctan
_
2
n

2
n

2
_
<
n
90q[
o
] +q arctan
_
2
n

2
n
_
>
n
(9.17)
Para construir una aproximaci on por trazos o asntotas, primero observa-
mos que:

n
=[F( )[
dB
0 [dB] (9.18)

n
=[F( )[
dB
40q log
10
_

n
_
(9.19)
10
1
10
0
10
1
40
20
0
20
40
/
n
M
a
g
n
i
t
u
d

[
d
B
]

Figura 9.3: Diagrama de Bode de magnitud para una funci on tipo [B4], con
q = 1 y dos valores de .
9.2. DIAGRAMAS DE BODE 225
resonancia
As, en baja frecuencia, la magnitud (en [dB]) puede ser aproximada por una
asntota horizontal en 0 [dB]. En alta frecuencia, la aproximaci on asint otica es
una recta de pendiente 40q [dB/dec] que pasa por el punto (
n
; 0). Sin embargo,
la curva exacta puede ser muy distinta a la aproximaci on asint otica, dependiendo
del valor del par ametro . Esto puede se ilustra en la Figura 9.3, donde se
muestran las curvas exactas para = 0, 01 and = 0, 1. La echa indica la
direcci on en la que aumenta . Note que en el caso lmite, cuando = 0, el
diagrama tiende a [dB].
En general, el diagrama de magnitud exhibe, a la frecuencia
r
, un pico
de resonancia M
r
, valor que puede calcularse usando los metodos cl asicos del
C alculo. Para simplicar el desarrollo, usaremos la frecuencia normalizada =
/
n
y el hecho que para q = 1, [F( )[
dB
alcanza el m aximo a la misma
frecuencia
r
a la que g() = (1
2
)
2
+4
2

2
alcanza el mnimo. As, derivando
y haciendo igual a cero se obtiene:
dg()
d
= 2(1
2
)(2) + 8
2
= 0 (9.20)
donde se observa que la resonancia ocurre exactamente en:

r
=
_
1 2
2
=
r
=
n
_
1 2
2
(9.21)
Con esto, y la ecuaci on (9.16), se obtiene:
M
r
= [F(
r
)[ =
1
2
(9.22)
Finalmente, en (9.21) se puede notar que el pico de resonancia existe para
q = 1 si y s olo si < 1/

2.
La fase de una funci on de tipo [B4], dada por (9.17), se puede tambien
aproximar por asntotas, con la misma prevenci on que en el caso de la magnitud:
la precisi on de la aproximaci on asimpt otica depende crucialmente del valor de
. As:

n
=F( ) 0 [
o
] (9.23)

n
=F( ) 180 q[
o
] (9.24)
De esta forma, la aproximaci on asint otica se compone de dos rectas hori-
zontales: una en 0 [
o
] y la otra en 180 q[
o
]. En la Figura 9.4 se muestra el caso
de q = 1, donde se muestran dos curvas, para dos valores de (0, 01 y 0, 1).
En el gr aco se muestra con una echa la direcci on en que crece . Note que a
medida que crece , la aproximaci on asint otica se hace cada vez m as inexacta,
contrariamente a lo que ocurre con la aproximaci on asint otica para la magnitud.
Siempre es posible renar las aproximaciones inherentes en los diagramas
de Bode, en particular aprovechando herramientas como Maple que facilitan el
manejo de expresiones analticas complejas. En este caso, es posible obtener la
pendiente exacta del graco de la fase de H( ) en la frecuencia de corte
n
,
que permitira trazar una tercera asintota, de manera similar a la Figura 9.2.
226 CAP

ITULO 9. REPRESENTACI

ON DE SISTEMAS LINEALES
10
1
10
0
10
1
200
150
100
50
0
/
n
F
a
s
e

[
o
]

Figura 9.4: Diagrama de Bode de fase para una funci on tipo [B4], con q = 1
El siguiente codigo Maple establece supuestos sobre las variables q, ,
n
y xi,
luego dene la funcion H( ), obtiene la derivada respecto a = 10

(debido
a la escala logartmica en el eje horizontal), y la eval ua en =
n
Maple
> assume(q,integer);
> assume(xi>0,omega>0,omega_n>0);
> interface(showassumed=0);
> H(omega):=(1+2*xi*I*omega/omega_n+(I*omega/omega_n)^2)^q;
> fase_H:=evalc(argument(H(omega)));
> d_fase_H:=factor(diff(subs(omega=10^phi,fase_H),phi));
> simplify(subs(phi=log10(omega_n),d_fase_H));
H( ) =
_
1 +
2( )

n
+
_

n
_
2
_
q
(9.25)
fase
H
( ) = arctan
_
_
sen
_
q arctan
_
2n

2
n

2
__
cos
_
q arctan
_
2n

2
n

2
__
_
_
(9.26)
d
d
fase
H
=
2 q 10

ln(10)
n
_

2
n
+ (10

)
2
_
(
2
n
(10

)
2
)
2
+ (2(10

)
n
)
2
(9.27)
The last command line gives us the answer:
d
d
fase
H

=10
n
=
q ln(10)


2, 3 q

(9.28)
9.2. DIAGRAMAS DE BODE 227
retardo
retardo!diagramade Bode
Bode!aproximaci onasint otica
Bode!frecuenciasdequiebre
[B5]
En este caso, tenemos la funci on F( ) = e

, > 0, y por lo tanto:
[F( )[
dB
= 1 (9.29)
F( ) = (9.30)
Note que el retardo puro s olo introduce un angulo de fase lineal en frecuen-
cia; sin embargo, dado que los diagramas de Bode usan una escala de frecuencia
logartmica, la fase no aparece como una recta, sino que como una curva expo-
nencial. Esto ultimo se debe a que la fase puede tambien escribirse como:
F( ) = = 10
log
10

(9.31)
La Figura 9.5 muestra el diagrama de Bode de fase en una escala de frecuen-
cia normalizada, lo cual permite entender por que no existe una aproximaci on
asint otica sencilla para este caso.
10
1
10
0
10
1
600
500
400
300
200
100
0

F
a
s
e

[
o
]
Figura 9.5: Diagrama de Bode de fase para una funci on tipo [B5]
222
Con las aproximaciones para las clases [B1] a [B4], m as la representaci on
exacta de la clase [B5], se puede construir una aproximaci on global para una
funci on arbitraria H( ) usando (9.5)-(9.6). De esa forma, la aproximaci on,
tanto para la magnitud (en [dB]) como para la fase (en [
o
]) de H( ) se puede
calcular sumando las aproximaciones para cada uno de los factores can onicos.
A continuaci on bosquejamos una forma sistem atica de construir esas aprox-
imaciones. Esto requiere tener presente las aproximaciones asnt oticas de los
factores [B1]-[B4], que resumimos en las Tablas 9.1 y 9.2.
Note que las asntotas son rectas que se encuentran en puntos o frecuencias
de quiebre.
Con estas asntotas se puede desarrollar un proceso constructivo, tanto para
magnitud como para fase. La contribuci on de factores tipo [B1] y [B5] es agre-
gada al nal en ambos diagramas. Lo mismo se aplica a la contribuci on de un
factor tipo [B3] en el diagrama de fase. El procedimiento se desarrolla a traves
de los siguientes pasos:
228 CAP

ITULO 9. REPRESENTACI

ON DE SISTEMAS LINEALES
Factor ( Z) Asntota 1 Asntota 2
K 0 [dB]
( )

20 log
10
[dB]

(1 + T)

0 [dB] 20 log
10
(|T|) [dB]
T R <
1
|T|
>
1
|T|

1 + 2

n
+

0 [dB] 40 log
10

[dB]
0 < 1 < n > n
Cuadro 9.1: Aproximaciones asint oticas de magnitud de factores b asicos
Paso 1 Escriba la funci on de transferencia, H( ) como producto de factores
[B1]-[B5].
Paso 2 Seleccione el rango de frecuencias en el cual desea construir la aproxi-
maci on asint otica.
Paso 3 Anote para cada factor, los puntos de quiebre de sus asntotas as como
la pendiente de ellas entre cada par de puntos de quiebre consecutivos.
Tome en inmediata consideraci on los factores repetidos (tal como se ha
hecho en las Tablas 9.1 y 9.2).
Paso 4 En el diagrama de magnitud, dibuje la asntota
2
del factor ( )

. Note
que esta asntota pasa por 0 [dB] en = 1.
Paso 5 Avance en el eje de frecuencias hasta encontrar el primer punto de
quiebre y sume la pendiente correspondiente.
Paso 6 Proceda hasta el siguiente punto de quiebre y sume la nueva pendiente
que aparece a la pendiente acumulada. Repita hasta llegar al nal del
rango de frecuencias elegido.
Paso 7 Desplace verticalmente el diagrama de magnitud en 20 log
10
[K[.
Paso 8 Si H( ) incluye un factor ( )

, es decir, un factor tipo [B3], desplace


verticalmente el diagrama de fase en 90 [o]. Adem as, si K < 0, desplace
verticalmente el diagrama de fase en 180 [
o
].
Paso 9 Si H( ) incluye un retardo, sustraiga la fase correspondiente del dia-
grama de fase.
2
Observe que en este caso, la asntota coincide con el diagrama exacto, tanto en magnitud
como en fase
9.2. DIAGRAMAS DE BODE 229
Factor ( Z) Asntota 1 Asntota 2 Asntota 3
K (1 signo(K))90 [
o
]

( )

90 [
o
]
(1 + T)

0 [
o
] 45 log
10
(10|T|) [
o
] 90 [
o
]
T > 0 <
1
|10T|
1
|10T|
< <
10
|T|
>
10
|T|
(1 + T)

0 [
o
] 45 log
10
(10|T|) [
o
] 90 [
o
]
T < 0 <
1
|10T|
1
|10T|
< <
10
|T|
>
10
|T|

1 + 2

n
+

0 [
o
] 180 [
o
]
0 < 1 < n > n
Cuadro 9.2: Aproximaciones asint oticas de fase de factores b asicos
Paso 10 Verique que su resultado satisface las aproximaciones asint oticas,
tanto en magnitud como en fase, para frecuencias muy bajas (0) y para
frecuencias muy altas (). Corrija, si es necesario.
Para ilustrar el procedimiento, desarrollamos el siguiente ejemplo.
Ejemplo 9.2. Considere la respuesta en frecuencia dada por:
H( ) =
8( 2)( + 1)
( + 8)( 4)
(9.32)
Lo primero que debemos hacer es re-escribir H( ) como el producto de seis
factores (F
1
( ) a F
6
( )) can onicos del tipo [B1] a [B5]. As se obtiene
H( ) = 0, 5
..
F1:[B1]
(1 0, 5 )
. .
F2:[B2]
(1 + )
. .
F3:[B2]
( )
1
. .
F4:[B3]
(1 + 0, 125 )
1
. .
F5:[B2]
(1 0, 25 )
1
. .
F6:[B2]
(9.33)
Diagrama de magnitud:
Supondremos luego que el rango de frecuencias de interes es [10
2
; 10
2
].
Los puntos de quiebre as como las pendientes entre dos puntos de quiebre
sucesivos se muestran en la Tabla 9.3. Observe que las pendientes se indican
como m ultiplos de 20 [dB/dec]. En la ultima la del cuadro se indica el efecto
neto de la contribuci on de los distintos factores entre dos puntos de quiebre
sucesivos. Con los resultados de esa lnea se pueden completar los Pasos 4 a 6 del
procedimiento bosquejado. Finalmente se incorpora el factor [B1], desplazando
verticalmente el diagrama en 20 log
10
(0, 5) 6 [dB].
230 CAP

ITULO 9. REPRESENTACI

ON DE SISTEMAS LINEALES
El gr aco superior de la Figura 9.6 muestra la aproximaci on asint otica logra-
da as como la curva exacta.
(; 1] (1; 2] (2; 4] (4; 8] (8; 100]
F
2
-1 -1 -1 -1 -1
F
3
0 1 1 1 1
F
4
0 0 1 1 1
F
5
0 0 0 -1 -1
F
6
0 0 0 0 -1
Ac. -1 0 1 0 -1
Cuadro 9.3: Contribuci on de pendientes entre puntos de quiebre. Diagrama de
magnitud
Diagrama de fase:
A similitud del caso de la magnitud construimos un cuadro donde se especi-
ca la contribuci on, en pendiente de la fase, de cada factor, entre dos puntos
sucesivos. Las pendientes son m ultiplos de 45 [o/dec]. El lector es invitado a re-
visar nuevamente la Tabla 9.2 para tener en mente las caractersticas asnt oticas
de cada factor.
La ultima lnea de la Tabla 9.4 muestra el efecto acumulado de los factores F
3
a F
6
. Con esta informaci on podemos ejecutar los Pasos 4 a 6 del procedimiento
bosquejado.
Para el Paso 8 apreciamos que el efecto del factor F
1
sobre la fase es nulo,
ya que se trata de una ganancia positiva. En cambio, el factor F
2
s afecta la
fase, desplaz andola en 90 [
o
].
El diagrama asint otico de fase resultante aparece en el gr aco inferior de la
Figura 9.6 donde tambien se indica la curva exacta.
(; 0, 1] (0, 1; 0, 2] (0, 2; 0, 4] (0, 4; 0, 8] (0, 8; 10] (10; 20] (20; 40] (40; 80] (80; 100]
F
3
0 1 1 1 1 0 0 0 0
F
4
0 0 -1 -1 -1 -1 0 0 0
F
5
0 0 0 1 1 1 1 0 0
F
6
0 0 0 0 -1 -1 -1 -1 0
Ac. 0 1 0 1 0 -1 0 -1 0
Cuadro 9.4: Contribuci on de pendientes entre puntos de quiebre. Diagrama de
fase
222
La complejidad de los sistemas, as como la necesidad de precisi on hacen que
el procedimiento descrito tenga un valor limitado. Por ello, es tambien impor-
9.2. DIAGRAMAS DE BODE 231
tante dominar el uso de herramientas computacionales modernas. En particular,
Matlab dispone del comando bode para calcular y dibujar exactamente estos
diagramas. Para la funci on del Ejemplo 9.2, primero la expandimos como cuo-
ciente de polinomios en , es decir:
H( ) =
8( )
2
8 16
( )
3
+ 4( )
2
32
(9.34)
Entonces, los diagramas de Bode obtienen con el c odigo Matlab :
Matlab
>>H=tf([8 -8 -16],[1 4 -32 0]);
>>bode(H);
10
2
10
1
10
0
10
1
10
2
30
20
10
0
10
20
30
40
M
a
g
n
i
t
u
d

[
d
B
]
10
2
10
1
10
0
10
1
10
2
90
85
80
75
70
65
60
55
Frecuencia [rad/s]
F
a
s
e

[
o
]
Figura 9.6: Diagramas de Bode de magnitud y fase para la respuesta en frecuen-
cia del Ejemplo 9.2
9.2.2. Tiempo discreto
La respuesta en frecuencia de sistemas de tiempo discreto tambien puede
describirse gr acamente usando diagramas de Bode; sin embargo, en este caso,
232 CAP

ITULO 9. REPRESENTACI

ON DE SISTEMAS LINEALES
espectro
no tienen la misma utilidad por dos razones fundamentales:
a) Debido a que la respuesta en frecuencia es peri odica con perodo 2, en-
tonces la idea de usar una escala logartmica de la frecuencia para incre-
mentar el rango de descripci on, tiene utilidad limitada.
b) No se pueden construir aproximaciones simples, ya que aqu no aparecen
polinomios en , sino que polinomios en e
j
.
Sin embargo, es importante destacar que si consideramos una funci on H(e
j
)
como la tranformada de Fourier de una se nal arbitraria h[t], no necesariamente
la respuesta a impulso de un sistema, el diagrama de bode es importante pues
reeja el contenido frecuencial de dicha funci on. Es decir, los diagramas de Bode
permiten representar el espectro de una se nal arbitraria h[t].
Para ilustrar el diagrama de Bode en tiempo discreto, desarrollamos el sigu-
iente ejemplo.
Ejemplo 9.3. Considere la funci on:
H(e
j
) =
0, 2
e
2j
1, 5e
j
+ 0, 7
(9.35)
Para obtener la magnitud y fase de esta funci on compleja, primero es nece-
sario aplicar la ecuaci on de Euler e
j
= cos()+j sen(). Para facilitar el trabajo
algebraico, el siguiente c odigo Maple permite obtener el modulo y el angulo de
H(e
j
).
Maple
> H:=0.2/(exp(2*I*theta)-1.5*exp(I*theta)+0.7);
> abs(H);
> argument(evalc(H));
[H(e
j
)[ =
0,2
_
(cos 2 + 1, 5 cos 0, 7)
2
+ (sen 2 + 1, 5 sen )
2
(9.36)
H(e
j
) = arctan
_
sen2 1, 5 sen
cos 2 1, 5 cos + 0, 7
_
(9.37)
Se puede apreciar que las expresiones obtenidas no son simples de aproximar,
ya sea en baja o alta frecuencia, usando o no escala logaritmica en la frecuencia.
Sin embargo, en Matlab , resulta muy simple obtener el gr aco de la magnitud
y el angulo de la funci on H(e
j
), usando el comando bode. Note que este es el
mismo que se usa para tiempo continuo, por tanto se debe tener el cuidado
de denir la funci on de transferencia en tiempo discreto. Con los siguientes
comandos, Matlab entrega los gr acos de la Figura 9.7, donde se aprecia una
lmite de la banda de frecuencia en = , producto de la periodicidad inherente
al an alisis en frecuencia en tiempo discreto:
9.3. DIAGRAMAS POLARES 233
diagramapolar
polar!diagrama
Matlab
>> H=tf([0.2],[1 -1.5 0.7],-1);
>> bode(H);
Bode Diagram
Frequency (rad/sec)
P
h
a
s
e

(
d
e
g
)
M
a
g
n
i
t
u
d
e

(
d
B
)
25
20
15
10
5
0
5
10
1
10
0
360
270
180
90
0
Figura 9.7: Diagrama de Bode en tiempo discreto (Ejemplo 9.3).
222
9.3. Diagramas polares
Aunque los diagramas de Bode son una poderosa herramienta para el an alisis
y dise no, se requieren los dos diagramas para interpretar correctamente ciertas
caractersticas del sistema. Una alternativa es utilizar un diagrama polar, en el
que la respuesta en frecuencia se representa en un s olo gr aco, donde el eje de
abscisas corresponde a la parte real de H( ) y el eje de ordenadas, a la parte
imaginaria de H( ). En esta descripci on, la frecuencia est a implcita (esta es
la limitaci on principal del diagrama polar).
9.3.1. Tiempo continuo
Para introducir el tema consideraremos un ejemplo.
234 CAP

ITULO 9. REPRESENTACI

ON DE SISTEMAS LINEALES
cuadrante
Ejemplo 9.4. La respuesta en frecuencia de un sistema de tiempo continuo
est a caracterizada por:
H( ) =
1
( + 3)(( )
2
+ 0, 4 + 1)
(9.38)
Si se eval ua H( ) en un rango de frecuencias 0 < < y dibujamos
el resultado en en plano cartesiano se obtiene el resultado que aparece en el
diagrama polar de la Figura 9.8. Esta gura se obtiene con el siguiente c odigo
Matlab :
Matlab
>>H=tf(1,conv([1 3],[1 0.4 1]));
>>w=logspace(-2,1,1000);h=freqresp(H,w);
>>plot(real(h(1,:)), imag(h(1,:)))
El mismo graco se obtiene al reemplazar el ultimo comando por plot(h(1,:)).
En la Figura 9.8 se han indicado adicionalmente algunos puntos que corre-
sponden a distintas frecuencias donde
1
<
2
<
3
<
4
.
Aunque parezca curioso hablar de gr acos polares, y describirlos en termino
un gr aco cartesiano, es s olo una cuesti on de lenguaje. De hecho, el mismo
diagrama polar se puede dibujar en otras coordenadas. En realidad, eso es lo
que hace el comando polar de Matlab . As, si usamos el c odigo:
Matlab
>>H=tf(1,conv([1 3],[1 0.4 1]));
>>w=logspace(-2,1,1000);h=freqresp(H,w);
>>polar(angle(h(1,:)), abs(h(1,:)));
se obtiene el gr aco de la Figura 9.9.
222
Del ejemplo precedente se puede entender que, dependiendo de la aplicaci on,
por facilidad de lectura se preera uno u otro sistema de coordenadas.
Para hacer un bosquejo de un diagrama polar se debe examinar magnitud
y fase de la respuesta en frecuencia. El an alisis de la magnitud est a orientado a
determinar como vara a medida que la frecuencia va desde 0 hasta .
El an alisis de la fase permite saber cuales cuadrantes recorre el gr aco, ya
que ello s olo es funci on de la fase para [0, ). Siempre es conveniente saber
el comportamiento de la magnitud y la fase en alta y baja frecuencia, es decir:
0 e . Una forma alternativa es saber como evolucionan la parte real y la parte
9.3. DIAGRAMAS POLARES 235
0.5 0.4 0.3 0.2 0.1 0 0.1 0.2 0.3 0.4 0.5
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
0.1
Parte real
P
a
r
t
e

i
m
a
g
i
n
a
r
i
a

4
=0
=
Figura 9.8: Diagrama polar. Coordenadas cartesianas (Ejemplo 9.4).
imaginaria de la respuesta en frecuencia. Ellas tambien permiten determinar en
que cuadrante del plano complejo se encuentra el diagrama polar.
Para facilitar el an alisis, examinaremos primero algunos casos simples. Estas
funciones no tienen la misma trascendencia que en el caso de Bode. La diferencia
radica en que el diagrama polar de una funci on complicada no puede obtenerse
por composici on simple de diagramas polares de funciones elementales, como
s se puede hacer al construir diagramas de Bode. El objetivo del estudio de estos
casos es inducir una metodologa para la construcci on de diagramas polares.
[P1] K
[P2]
1
T + 1
[P3] ( )
q
, q 1; 1
[P4]
_
_

n
_
2
+ 2

n
+ 1
_
1
0 < 1,
n
> 0.
236 CAP

ITULO 9. REPRESENTACI

ON DE SISTEMAS LINEALES
0.2
0.4
0.6
0.8
1
30
210
60
240
90
270
120
300
150
330
180 0

4

=0
Figura 9.9: Diagrama polar. Coordenadas polar (Ejemplo 9.4).
[P5] e

, > 0
[P6]
1
(T + 1)
, T > 0
[P7]
e

T + 1
[P8]
1
( )
2

2
o
Examinaremos, a continuaci on, los rasgos principales del diagrama polar
para cada uno de los tipos b asicos.
[P1]
En este caso el diagrama polar es un unico punto, R. Este punto corre-
sponde a (K, 0).
9.3. DIAGRAMAS POLARES 237
[P2]
Podemos determinar la descomposici on cartesiana (partes real e imaginaria) y
la descomposici on polar (magnitud y fase). As:
F( ) =
1

2
T
2
+ 1
j
T

2
T
2
+ 1
(9.39)
[F( )[ =
1

2
T
2
+ 1
(9.40)
F( ) =
_
arctan([T[) T > 0
arctan([T[) T < 0
(9.41)
Entonces, examinando la caracterstica de fase, se observa que el diagrama
polar recorre el cuarto cuadrante para T > 0 y el primer cuadrante si T < 0. Por
otro lado la magnitud es monot onicamente decreciente, desde 1 (para = 0)
hasta cero (para = ); sin embargo, en este caso particular se puede decir algo
m as, porque es f acil demostrar, usando (9.39) que las partes real e imaginaria
de F( ) cumplen con
('F( ) 0, 5)
2
+ (F( ) = 0, 25 (9.42)
lo cual indica que el diagrama polar es una semi-circunferencia centrada en
(0, 5; 0) con radio 0, 5. Esta semi-circunferencia est a en el cuarto cuadrante para
T > 0 y en el primero para T < 0.
Note adem as que el valor absoluto de T no afecta el diagrama, pues solamente
equivale a re-escalar la frecuencia, la cual se encuentra implcita como par ametro
que hace recorrer la curva.
Adem as, de (9.41) vemos que la fase tiende a 0, 5signo(T). Es decir,
cuando tiende a innito, el diagrama polar tiende al origen, apeg andose al eje
imaginario por abajo (T > 0) o al al eje imaginario por arriba (T < 0).
Los diagramas polares correspondientes a T > 0 y a T < 0 se muestran en
la Figura (9.10).
0 0.5 1
0.6
0.4
0.2
0
0.2
Parte real
P
a
r
t
e

i
m
a
g
i
n
a
r
i
a
T>0
0 0.5 1
0.2
0
0.2
0.4
0.6
Parte real
P
a
r
t
e

i
m
a
g
i
n
a
r
i
a
T<0
=0

3

=
=0

3

=
Figura 9.10: Diagramas polares para el caso [P1].
[P3]
En este caso, F( ) = ( )
q
. Esta funci on tiene parte real cero para q 1; 1.
238 CAP

ITULO 9. REPRESENTACI

ON DE SISTEMAS LINEALES
As es que el diagrama polar coincide con el eje imaginario (semi-eje superior
para q = 1 y semi-eje inferior para q = 1). La fase es 0, 5q R
+
. Para
valores de tendiendo a cero, la magnitud tiende a innito. Para tendiendo
a innito, la magnitud tiende a cero.
[P4]
En este caso conviene descomponer la funci on F( ) en sus partes real e imag-
inaria en la forma
F( ) =

2
n
( )
2
+ 2
n
+
2
n
=
(
2

2
n
)
2
n
(
2

2
n
)
2
+ 4
2

2
n

2
j
2
3
n

(
2

2
n
)
2
+ 4
2

2
n

2
(9.43)
6 4 2 0 2 4 6
12
10
8
6
4
2
0
2
Parte Real
P
a
r
t
e

I
m
a
g
i
n
a
r
i
a
=0,05
0,1
0,15
0,25
=0 =
Figura 9.11: Diagrama polar de una funci on tipo [P4] para distintos valores de

La parte imaginaria de F( ) es negativa R. Por lo tanto el diagrama


polar s olo puede estar en el tercer y cuarto cuadrante. En cambio, la parte real
puede ser positiva o negativa, el punto de quiebre ocurre cuando =
n
. Para
<
n
la parte real es negativa, lo cual indica que el diagrama polar est a en
el cuarto cuadrante; para >
n
la parte real es negativa, lo cual indica que el
diagrama polar est a en el tercer cuadrante.
Adem as podemos examinar la evoluci on de la fase a medida que progresa
desde 0 hasta . En eso podemos apoyarnos en el diagrama de Bode para la fase
9.3. DIAGRAMAS POLARES 239
retardo!diagramapolar
c rculounitario
de la respuesta en frecuencia para el sistema elemental [B4] (ver Figura 9.4 en
la p agina 226). Observamos que la fase decae monot onicamente a medida que
crece. Un aspecto de interes es que, cuando , el diagrama polar se acerca
al origen asint oticamente siguiendo el eje real negativo.
La Figura 9.11 muestra los diagramas polares de F( ) tipo [P4], para dis-
tintos valores de . Note que el valor de
n
no altera los diagramas, porque este
par ametro s olo produce escalamiento de la frecuencia (ojo, esta armaci on es
s olo v alida si
n
> 0; el lector es invitado a investigar el caso
n
< 0).
[P5]
La respuesta en frecuencia del retardo puro, e

, tiene magnitud unitaria,
R, y con fase igual a , en consecuencia el diagrama polar es una
circunferencia unitaria con centro en el origen.
[P6]
La funci on F( ), en este caso, puede descomponerse en sus partes real e imag-
inaria, en la forma:
F( ) =
1
(T + 1)
=
T + 1
(1 +
2
T
2
)
=
T
(1 +
2
T
2
)
j
1
(1 +
2
T
2
)
(9.44)
La descomposici on en magnitud y fase est a dada por:
[F( )[ =
1

2
T
2
+ 1
(9.45)
F( ) = 0, 5 arctan(T) (9.46)
De la ecuaci on (9.44) se observa que la parte real es siempre negativa, y que
la parte imaginaria tambien es siempre negativa. Por lo tanto, el diagrama polar
de F( ) est a connado al cuarto cuadrante. De la ecuaci on (9.45) se ve que
la magnitud decrece mont onicamente a medida que la frecuencia aumenta. Esto
es consistente con la ecuaci on (9.44), ya que de all sabemos que tanto la parte
real como la parte imaginaria decaen monot onicamente a cero.
De la ecuaci on (9.46) se ve tambien que para = 0 la fase es 0, 5; sin
embargo, esto no implica que a esa frecuencia la parte real sea cero. De hecho,
de la ecuaci on (9.44) se ve que la parte real, para = 0, es igual a T. Para
= la fase tiende a ; esto implica que el diagrama polar tiende al origen
acerc andose asint oticamente al eje real negativo.
En la Figura 9.12 se muestra el diagrama polar de una funci on tipo [P6] con
T = 1. Se observa que la parte real viene desde (1; ) cuando = 0.
[P7]
La funci on en este caso es el producto de una funci on tipo [P5] y una funci on
tipo [P6]. Por lo tanto la magnitud resultante es el producto de las magnitudes
de los factores y la fase es la suma de la fase de los factores, es decir:
[F( )[ =
1

2
T
2
+ 1
; F( ) = 0, 5 arctan(T) (9.47)
240 CAP

ITULO 9. REPRESENTACI

ON DE SISTEMAS LINEALES
espiral
1.5 1 0.5 0 0.5
12
10
8
6
4
2
0
=
0
Figura 9.12: Diagrama polar de una funci on tipo [P6] con T = 1
La magnitud es la misma de una funci on tipo [P6], lo cual implica que decae
mon otonamente a medida que la frecuencia crece. Por su parte, la fase exhibe
un crecimiento mon otono, en la direcci on negativa; esta caracterstica se debe
al termino . Dado que la magnitud decae mon otonamente, el crecimiento
de la fase genera una espiral hacia el origen.
3 2 1 0 1
4
3
2
1
0
1
Parte real
P
a
r
t
e

i
m
a
g
i
n
a
r
i
a
0.04 0.02 0 0.02 0.04
0.04
0.03
0.02
0.01
0
0.01
0.02
Parte real
P
a
r
t
e

i
m
a
g
i
n
a
r
i
a
a) b)
0
0
Figura 9.13: a) Diagrama polar de una funci on tipo [P7] (T = 1 y = 2), y b)
detalle.
En la Figura 9.13.a) se muestra el diagrama polar de una funci on del tipo
[P7], con T = 1 y = 2. En la Figura 9.13.b) se observa un detalle (alrededor
del origen) del mismo diagrama.
[P8]
En este caso, F( ) = 1/(( )
2

2
o
). Para esta funci on el diagrama polar
9.3. DIAGRAMAS POLARES 241
discontinuidad
empieza en (1/
2
o
; 0) para = 0 y tiende r apidamente hacia a lo largo
del eje real negativo para

o
. En =
o
hay una discontinuidad, ya que
para esa frecuencia, el diagrama polar salta desde (; 0) a (; 0), luego, a
medida que se hace mayor que
o
, el diagrama polar tiende al origen para
.
222
Como ya hemos dicho, el diagrama polar de funciones complejas no se puede
obtener en forma simple usando los diagramas polares para los funciones tipo
[P1] a [P8]. Sin embargo, las ideas usadas para dibujar el diagrama polar de
cada una de esas funciones ayuda a construir los diagramas polares de funciones
m as complicadas. Incluso, algunos de los rasgos peculiares de las funciones tipo
[P1] a [P8] se propagan a las funciones compuestas, tal como se aprecia en el
siguiente ejemplo.
Ejemplo 9.5. Suponga que la respuesta en frecuencia de un sistema est a dada
por una funci on H( ) compuesta por un factor tipo [P2] y un factor tipo [P8].
La funci on H( ) est a dada por:
H( ) =
1
(0, 5 + 1)(( )
2
+ 1)
(9.48)
Se requiere dibujar el diagrama polar. Para ello primero descomponemos la
funci on dada en sus partes real e imaginaria, es decir:
H( ) =
1
(0, 25
2
+ 1)(
2
+ 1)
j

(0, 25
2
+ 1)(
2
+ 1)
(9.49)
y en magnitud y fase:
[H( )[ =
1
_
0, 25
2
+ 1 [
2
1[
(9.50)
H( ) =
_
arctan(0, 5) < 1
arctan(0, 5) > 1
(9.51)
As, de las ecuaciones precedentes, podemos observar que:
la parte real, la parte imaginaria y la fase tienen una discontinuidad en
= 1 (esto es heredado del factor tipo [P8] en la funci on H( ));
cuando < 1 la parte real es positiva y la parte imaginaria es negativa,
es decir, el diagrama polar est a en el cuarto cuadrante;
cuando > 1 la parte real es negativa y la parte imaginaria es positiva,
es decir, el diagrama polar est a en el segundo cuadrante;
cuando 1

la fase tiende a arctan(0, 5) y cuando 1


+
la fase
tiende a arctan(0, 5);
242 CAP

ITULO 9. REPRESENTACI

ON DE SISTEMAS LINEALES
dado que la discontinuidad de la fase es [rad], el diagrama polar salta
desde el cuarto cuadrante al segundo cuadrante cuando pasa por 1
[rad/s]; y
cuando la magnitud tiende a 0 y la fase tiende a 1, 5 [rad/s],
es decir, el diagrama polar tiende al origen acerc andose asint oticamente
al eje imaginario superior.
El diagrama polar para este ejemplo aparece en la Figura 9.14. Note que se
ha dibujado con lnea delgada la asntota del diagrama polar para 1

y para
1
+
.
2 1.5 1 0.5 0 0.5 1 1.5 2 2.5
1.5
1
0.5
0
0.5
1
1.5
Parte real
P
a
r
t
e

i
m
a
g
i
n
a
r
i
a
1
+

1


=0
=
Figura 9.14: Diagrama polar de H( ) para el Ejemplo 9.5.
222
Otro tipo de situaciones de interes son aquellas respuestas en frecuencia
donde el numerador es tambien un polinomio en . Note que en el caso de las
funciones tipo [P1] a [P8], esta situaci on no ha sido incluida, ya que s olo hemos
considerado funciones con numerador constante. Para observar los fen omenos
que puede provocar este numerador m as complejo consideraremos un ultimo
ejemplo.
Ejemplo 9.6. Un sistema tiene la respuesta en frecuencia dada por:
H( ) = 0, 001
( + 5)
2
( + 0, 1)
( + 0, 5)( + 0, 2)( + 0, 1)
2
(9.52)
Para una funci on tan compleja como esta, podemos deducir algunas rasgos
del diagrama polar:
El diagrama parte, para = 0, en (2, 5; 0);
9.3. DIAGRAMAS POLARES 243
Para es cero, y la fase es 270[
o
];
En general, la magnitud y la fase cumplen con:
[H( )[ =0, 001

(
2
+ 25)
2
(
2
+ 0, 01)
(
2
+ 0, 25)(
2
+ 0, 04)(
2
+ 0, 01)
2
)
(9.53)
H( ) =2 arctan(0, 2) 3 arctan(10) arctan(2) arctan(5)
(9.54)
Parece difcil, a partir de las expresiones precedentes para magnitud y fase,
obtener algunos criterios para dibujar el diagrama polar. Recurriremos a Mat-
lab usando el siguiente c odigo:
Matlab
>>H=-0.001*tf(poly([-5 -5 0.1]),poly([-0.5 -0.2 -0.1 -0.1]));
>>w=logspace(-1,2,4000);
>>h=freqresp(H,w);subplot(221);plot(h(1,:));
El primer comando es equivalente a H=zpk([-5 -5 0.1],[-0.5 -0.2 -0.1
-0.1],-0.001). El resultado se muestra en la Figura 9.15.a).
2 1.5 1 0.5 0 0.5
0.4
0.2
0
0.2
0.4
0.6
0.8
1
Parte real
P
a
r
t
e

i
m
a
g
i
n
a
r
i
a
0 1 2 3 4
x 10
3
12
10
8
6
4
2
0
2
x 10
4
Parte real
P
a
r
t
e

i
m
a
g
i
n
a
r
i
a
a) b)
Figura 9.15: a) Diagrama polar de H( ) para el Ejemplo 9.6, y b) detalle.
Aparentemente el diagrama no reeja la condici on de la fase asint otica
(270[
o
]), ya que esta parece ser 360[
o
]. Esta aparente contradicci on es re-
suelta con un detalle del diagrama en torno al origen. Este detalle se muestra
en la Figura 9.15.b) y se obtiene con
244 CAP

ITULO 9. REPRESENTACI

ON DE SISTEMAS LINEALES
diagramapolar!tiempodiscreto
circulounitario
Matlab
>> w2=logspace(0.3,3,4000);h2=freqresp(H,w2);
>> subplot(222);plot(h2(1,:));
222
9.3.2. Tiempo discreto
Naturalmente que el mismo tipo de descripci on mediante diagramas polares
es aplicable a la respuesta en frecuencia de sistemas de tiempo discreto. Sin
embargo, en este caso es a un m as difcil construir, a mano, una aproximaci on
para el diagrama polar. La raz on esencial es que la respuesta en frecuencia
H(e
j
) es un cuociente de polinomios en e
j
(en vez de ser un cuociente de
polinomios en , como en el caso de sistemas de tiempo continuo). Ese rasgo
hace que las expresiones tanto para la magnitud como para las partes real e
imaginaria de H(e
j
) sean expresiones muy complicadas de . Una herramienta
interesante, para dibujar diagramas polares de sistemas simples se deduce de la
Figura 9.16.
= 0
p
o
=
e
j
Figura 9.16: Interpretaci on gr aca de la respuesta en frecuencia (e
j
p
o
)
1
En la Figura 9.16 la circunferencia de radio unitario describe la ubicaci on del
n umero complejo e
j
, por lo tanto, el vector que se ha dibujado es e
j
p
o
. As, si
consideramos un sistema cuya respuesta en frecuencia es F(e
j
) = (e
j
p
o
)
1
,
vemos que su magnitud es el recproco del largo del vector dibujado, y la fase
corresponde al negativo del angulo en la gura. A medida que crece desde 0
hasta , la punta del vector se desplaza desde (1, 0) hasta (1, 0). Esto implica
que la magnitud del vector crece mon otonamente (para p
o
R
+
) desde 1 p
o
hasta 1+p
o
. As, la magnitud de F(e
j
) decrece mon otonamente desde (1p
o
)
1
hasta (1 +p
o
)
1
, y su fase va mon otonamente tambien, desde 0 hasta [rad].
El diagrama polar est a por lo tanto en el cuarto y tercer cuadrantes.
9.3. DIAGRAMAS POLARES 245
La idea precedente puede ser usada en la determinaci on de los rasgos prin-
cipales de diagramas polares de funciones simples, como se ilustra en el ejemplo
siguiente.
Ejemplo 9.7. Un sistema de tiempo discreto tiene la respuesta en frecuencia
dada por:
F(e
j
) =
e
j
z
o
e
j
= 1 z
o
e
j
; 0 < z
o
< 1 (9.55)
Las caractersticas del diagrama polar pueden ser construidas a partir de la
Figura 9.17.
= 0
z
o

e
j
Figura 9.17: Interpretaci on gr aca de la respuesta en frecuencia de 1 z
o
e
jt
.
Primero observamos que:
[F(e
j
)[ =
[e
j
z
o
[
[e
j
[
= [e
j
z
o
[ (9.56)
F(e
j
) = (e
j
z
o
) e
j
= (9.57)
Usando relaciones b asicas de geometra, sabemos tambien que = .
As, la fase de F(e
j
) es igual a , por su parte, la magnitud de F(e
j
) es igual
al largo del vector e
j
z
o
.
Con los antecedentes anteriores vemos que la magnitud de F(e
j
) va mon o-
tonamente desde 1 z
o
, para = 0, hasta 1 + z
o
, para = . Por su parte,
la fase empieza en 0 [rad] para = 0, luego crece hasta alcanzar un m aximo
(siempre menor que /2), luego decae hasta llegar a cero nuevamente cuando
= . El diagrama polar est a por lo tanto en el primer cuadrante.
222
Para funciones m as complejas es difcil estimar la forma en que evolucionan la
magnitud y la fase. En esos casos es preferible recurrir a software como Matlab
246 CAP

ITULO 9. REPRESENTACI

ON DE SISTEMAS LINEALES
bloques
diagramasdebloques
sistema!interconexi on
interconexi on
, que en el caso de Ejemplo 9.7 los siguientes comandos dan como resultado el
gr aco de la Figura 9.18.
Matlab
>> F=tf([1 -0.7],[1 0],-1);
>> w=[0:0.01:pi];
>> h=freqresp(F,w);
>> plot(h(1,:))
0.2 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8
0.2
0.1
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
Parte real
P
a
r
t
e

i
m
a
g
i
n
a
r
i
a
1+z
o
1z
o

= 0
=
Figura 9.18: Diagrama polar para el Ejemplo 9.7.
9.4. Diagramas de bloques
Una forma de representar la interconexi on de sistemas es un diagrama en
bloques, donde cada uno de los bloques representa a uno de los sistemas par-
ticipantes. A cada bloque se asocia una caracterizaci on del sistema asociado,
tal como la respuesta a impulso con condiciones iniciales iguales a cero, o su
respuesta en frecuencia, o la funci on de transferencia, entre otras.
Un requisito clave en esta forma de representaci on es que cada uno de los
sistemas participantes mantenga su caracterizaci on original (la funci on de trans-
ferencia, por ejemplo) cuando se realiza la interconexi on. Para entender esto,
considere las dos redes de la Figura 9.19. Los sistemas pueden ser caracteriza-
dos por sus respectivas funciones de transferencia H
1
( ) y H
2
( ) respectiva-
9.4. DIAGRAMAS DE BLOQUES 247
amplificador
mente, donde:
H
1
( ) =
V
2
( )
V
1
( )
=
R
2
C
3
R
1
R
2
+R
1
+R
2
(9.58)
H
2
( ) =
V
4
( )
V
3
( )
=
C
4
R
5
C
4
R
5
+ 1
(9.59)
R
1
C
3
R
2
R
5 v
1
(t) v
2
(t) v
4
(t) v
3
(t)
C
4
Figura 9.19: Sistemas a interconectar. Caracterizaci on independiente
Al conectar directamente ambas redes (V
2
( ) = V
3
( )), la relaci on entre
las variables es ahora:
V
2
( )
V
1
( )
=
R
2
(R
5
C
4
+ 1)
R
1
R
2
R
5
C
3
C
4

2
+ (R
1
R
2
C
4
+R
1
R
5
C
3
+R
2
R
5
C
4
) +R
1
+R
2
(9.60)
V
4
( )
V
2
( )
=
V
4
( )
V
3
( )
=
R
5
C
4

R
5
C
4
+ 1
(9.61)
Se aprecia que la funci on de transferencia entre V
1
( ) y V
2
( ) ya no
satisface (9.60) y esto hace que la funci on de transferencia entre V
1
( )y V
4
( )
sea distinta al producto H
1
( )H
2
( ), donde H
1
( ) y H
2
( ) est an dadas
en (9.58)(9.59).
Supongamos ahora que las redes de la Figura 9.19 son interconectadas a
traves de un amplicador de ganancia unitaria, tal como se muestra en la Figura
9.20.
R
1
C
3
R
2
R
5 v
1
(t) v
2
(t) v
4
(t) v
3
(t)
+

C
4
Figura 9.20: Sistemas interconectados
248 CAP

ITULO 9. REPRESENTACI

ON DE SISTEMAS LINEALES
Ahora podemos ver que las transferencias entre V
1
( ) y V
2
( ) y entre
V
3
( ) y V
4
( ) son las mismas que en (9.58)(9.59). Por lo tanto la funci on de
transferencia entre V
1
( )y V
4
( ) es ahora igual al producto H
1
( )H
2
( ).
222
La discusi on precedente se nala la condici on implcita en los diagramas de
bloques: la funci on de transferencia de cada bloque sigue rigiendo la relaci on
entre entrada y salida, aunque el bloque sea interconectado con otros.
La ventaja principal de estos diagramas es que permiten analizar un sistema
por partes, estudiando el rol que cada subsistema juega en el total. Esto es clave
en el an alisis y sntesis de ltros, controladores y otros sistemas procesadores de
se nales.
En la Tabla 9.5 se muestran algunos ejemplos de diagramas de bloques con
sus transferencias equivalentes.
Finalmente es necesario se nalar que la representaci on en diagramas de blo-
ques se aplica sin distinci on tanto a sistemas de tiempo continuo como a sistemas
de tiempo discreto, y tambien a sistemas hbridos, que combinan elementos en
ambos dominios, como se muestra en el Captulo 11.
9.4. DIAGRAMAS DE BLOQUES 249
Interconexi on
Transferencia equivalente
H
1
( ) H
2
( )
H1( )H2( )
+
+
H
1
( )
H
2
( )
H1( ) + H2( )
+

H
1
( ) H
2
( )
H1( )H2( )
1 H1( )H2( )
+

H
1
( )
H
2
( )
H1( )
1 H1( )H2( )
+

+
+
H
3
( )
H
1
( ) H
2
( )
(H1( ) + H3( ))H2( )
1 + H1( )H2( )
+

H
1
( )
H
2
( ) H
3
( )
H1( )H2( )H3( )
1 + H2( ) + H1( )H2( )H3( )
Cuadro 9.5: Diagramas de bloques y transferencias equivalentes
250 CAP

ITULO 9. REPRESENTACI

ON DE SISTEMAS LINEALES
9.5. Problemas para el lector
Problema 9.1. Dibuje los diagramas de Bode, es decir, magnitud y fase,
de cada una de las funciones de transferencia que se presentan a continuaci on.
Haga primero las aproximaciones asint oticas y luego use Matlab para vericar:
a) H
1
(s) =
15
s
2
+ 8s + 15
b) H
2
(s) =
s
s
2
2s 3
c) H
3
(s) =
1
s(0,2s + 1)
d) H
4
(s) =
6(s 3)
(s + 5)(s + 9)
2
e) H
5
(s) = H
4
(s)
f ) H
6
(s) =
e
2s
4s + 1
g) H
7
(s) =
1
s
2
+ 0,01s + 1
h) H
8
(s) =
s2
s
2
+3s+2
Problema 9.2. Construya los diagramas de Bode de la siguiente funci on de
transferencia para = 0,1; 0,2; 0,5; 1; 5:
H(s) =
s + 1
(s + 1)(0,2s + 1)
Problema 9.3. Dados los diagramas de Bode de la Figura 9.21, proponga una
funci on de transferencia H(s) que pueda ser representada aproximadamente por
ellos.
Problema 9.4. Con los diagramas de Bode de G(s) que aparecen en la Figura
9.22, determine en forma aproximada los diagramas de Bode para e
2s
G(s),
s+1
s+1
G(s) y
G(s)
s
.
Problema 9.5. Dados los diagramas de Bode de G(s) de la Figura 9.23,
determine los diagramas de Bode para G(s).
9.5. PROBLEMAS PARA EL LECTOR 251
80
60
40
20
0
20
10
2
10
1
10
0
10
1
10
2
10
3
200
150
100
50
0
50
100
Frecuencia (rad/seg.)
F
a
s
e

(
g
r
a
d
o
s
)
Figura 9.21: Diagramas de Bode de H(s)
50
40
30
20
10
0
10
2
10
1
10
0
10
1
200
150
100
50
0
Frecuencia (rad/seg.)
F
a
s
e

(
g
r
a
d
o
s
)
Figura 9.22: Diagramas de Bode de G(s)
252 CAP

ITULO 9. REPRESENTACI

ON DE SISTEMAS LINEALES
25
20
15
10
5
0
10
1
10
0
10
1
10
2
100
80
60
40
20
0
Frecuencia (rad/seg.)
F
a
s
e

(
g
r
a
d
o
s
)
Figura 9.23: Diagramas de Bode de G(s)
variables!deestado|textbf
estado|textbf
espacio!deestado
modelo!enespaciodeestado
Captulo 10
Representaci on en variables
de estado.
10.1. Conceptos fundamentales sobre modelos
de sistemas.
Uno de los aspectos esenciales que interesa en ciencias aplicadas e ingeniera
es la representaci on de sistemas mediante un modelo, que lo describa con su-
ciente detalle y permita analizar sus propiedades fundamentales.
En la teora de sistemas estos modelos juegan un rol fundamental, pues son
imprescindibles para el an alisis, la sntesis y el dise no. En particular, el principal
objeto de contar con una representaci on de un sistema es el poder predecir y
analizar el comportamiento del sistema en el tiempo.
Naturalmente existen diferentes formas de describir un sistema dado, dando
lugar a diferentes modelos, seg un sea el aspecto del sistema que interesa describir
con mayor enfasis. Por ejemplo, si consideramos un motor electrico, podramos
estar interesados en el como un sistema de conversi on electro-mec anica, un sis-
tema termico, un sistema mec anico sujeto a vibraciones, o bien, estudiar el
comportamiento de los materiales que lo conforman.
En segundo lugar, no existe un unico modelo para un sistema, ya que al
modelar siempre existe alguna simplicaci on implcita de la realidad, la cual,
en la mayor parte de los casos, resulta demasiado compleja para describir todos
sus aspectos.
De esta forma, una decisi on fundamental a la hora de modelar un sistema
es denir el objetivo del modelo, es decir, cu ales son los aspectos esenciales que
queremos capturar.
La teora y herramientas existentes para modelar de sistemas son muy di-
versas, y en ellas se combinan leyes de la fsica, la qumica, la termodin amica,
adem as de teora de se nales, procesamiento de datos, matem aticas y herramien-
tas numericas. De hecho, un modelo generalmente no se obtiene de una sola
253
254 CAP

ITULO 10. REPRESENTACI

ON EN VARIABLES DE ESTADO.
sistema!din amico
sistema!h brido
muestreo
estado!delsistema
estado!variablesde
variables!deestado
estado!vectorde
vector!deestado
estado!espaciode
estado!trayectoria
vez, sino que se construye en un proceso iterativo, que considera la calidad de
los resultados obtenidos con el en las diferentes etapas, por ejemplo, para hacer
control sobre un sistema o predecir su comportamiento.
En este captulo, nos interesa introducir una clase especial de modelos, util
para describir sistemas din amicos. Como ya hemos visto, estos sistemas se car-
acterizan por la interacci on de sus variables en el tiempo, y se describen, en
tiempo continuo, a traves de ecuaciones diferenciales (EDS en Cap. 3), y en
tiempo discreto, a traves de ecuaciones recursivas (ERS en Cap. 4).
Adem as de estos dos tipos de sistemas din amicos, en el dominio del tiempo
continuo y en el del tiempo discreto, se introducen sistemas hbridos en los que se
establece una relaci on entre tiempo continuo y discreto a traves del muestreo.
En este captulo hemos enfatizado los conceptos, propiedades fundamentales,
interpretaciones fsicas y ejemplos, sin embargo, para un estudio en mayor pro-
fundidad de los t opicos aqu presentados el lector puede consultar, por ejemplo,
las referencias [5], [8], [15], [18], [19], [20], [21].
10.2. Conceptos fundamentales
10.2.1. Introducci on
Uno de los tipos de modelos utilizados con frecuencia para describir un sis-
tema es aquel en un conjunto de ecuaciones que relaciona sus variables internas.
Estas variables se denominan variables de estado. En cada instante el conjun-
to de ellas, que toman un valor determinado, se denomina estado del sistema.
Sin embargo, a menudo usaremos las expresiones variables de estado y estado
del sistema como sin onimos.
La denici on dada es m as bien intuitiva y podra coincidir en realidad con
cualquier grupo de variables de un sistema dado. Por esto, seremos mas precisos:
Un conjunto de variables de estado de un sistema dado es aquel que permite
expresar cualquier variable del sistema como funci on del estado presente y de
los valores presentes y futuros de las entradas del sistema.
En esta denici on hemos enfatizado en signicado fsico de las variables de
estado. Sin embargo, existen tambien deniciones m as abstractas.
El conjunto de variables de estado usualmente se agrupan en un vector de
estado, el cual pertenece al llamado espacio de estado.
Es importante notar es que la evoluci on del estado en el tiempo, es decir, su
trayectoria, puede ser obtenida a partir del estado presente y el valor futuro de
las entradas del sistema. De esta forma, los modelos de este tipo son siempre
ecuaciones diferenciales de primer orden, en el caso de sistemas continuos, o
ecuaciones recursivas de un paso, para sistemas discretos
Adem as, al conocer el estado del sistema en un instante dado t, podemos
entonces calcular la energa que en ese instante el sistema posee. En el caso de
sistemas fsicos, esta siempre depende de las variables del sistema, tales como ve-
locidad, posici on, presi on, voltaje y corriente, entre otras. Todas estas variables,
10.2. CONCEPTOS FUNDAMENTALES 255
por la denici on dada, se pueden obtener a partir del estado del sistema.
Esto sugiere adem as que podemos pensar el estado de un sistema de forma
m as general, ya que las variables de estado pueden ser cualquier funci on de
variables del sistema. Esta observaci on resulta muy importante pues establece
que el estado del sistema no necesariamente esta formado por variables reales
del sistema, permitiendo de esta forma un an alisis m as general. Es m as, esta
misma observaci on hace evidente que la elecci on de las variables de estado no
es unica.
10.2.2. Modelos basicos en variables de estado
Si denotamos por x al vector de estado que corresponde a una elecci on en
particular de variables de estado para un sistema dado, entonces la forma general
del modelo en variables de estado es:
Para sistemas de tiempo continuo
dx
dt
= F(x(t), u(t), t) (10.1)
y(t) = G(x(t), u(t), t) (10.2)
donde u(t) es el vector de entrada y y(t) es el vector de salida del
sistema. En el caso de sistemas de una entrada y una salida, naturalmente
estos vectores se reducen a funciones escalares.
Para sistemas de tiempo discreto
x[t + 1] = F
d
(x[t], u[t], t) (10.3)
y[t] = G
d
(x[t], u[t], t) (10.4)
Donde, an alogamente al caso de tiempo continuo, u[t] en el vector de
entradas y y[t] es el vector de salidas del sistema, y tambien para el
caso de sistemas SISO se reducen a funciones escalares.
Para ilustrar los conceptos presentados hasta el momento consideremos el
siguiente ejemplo:
Ejemplo 10.1. En la Figura 10.1, una fuerza externa f(t) se aplica a un sis-
tema masa-resorte sujeto a un muro por un extremo. La posici on d(t) se mide
con respecto a la posici on en que el resorte se encuentra en su largo natural. El
movimiento de la masa es amortiguado por una fuerza de roce viscoso, propor-
cional a la velocidad de la masa, v(t).
Sabemos que para obtener la posici on y la velocidad de la masa se debe
conocer su valor en alg un instante inicial. Por tanto el vector de estado debe
tener dos componentes, i.e x(t) = [x
1
(t) x
2
(t)]
T
, y la elecci on m as natural en
este caso es:
x
1
(t) = d(t) (10.5)
x
2
(t) = v(t) = x
1
(t) (10.6)
256 CAP

ITULO 10. REPRESENTACI

ON EN VARIABLES DE ESTADO.
transformaci ondelestado
estado!transformaci on
similaridad
se~ nal!modelodeestado
M
roce viscoso
d(t)
v(t)
K
f(t)
Figura 10.1: Sistema masa-resorte.
Con esta elecci on, se pueden aplicar las leyes de Newton para obtener:
f(t) = M
dv(t)
dt
+Kd(t) +Dv(t) = M x
2
(t) +Kx
1
(t) +Dx
2
(t) (10.7)
donde D es el coeciente de roce viscoso, o constante de proporcionalidad.
De esta forma podemos escribir las ecuaciones de estado del sistema:
x
1
(t) = x
2
(t) (10.8)
x
2
(t) =
K
M
x
1
(t)
D
M
x
2
(t) +
1
M
f(t) (10.9)
Para resolver este sistema de ecuaciones diferenciales de primer orden, se
requiere conocer los valores x
1
(0) y x
2
(0), as como el valor de la excitaci on
f(t), t 0.
Podemos apreciar tambien que la energa almacenada en el sistema, w(t),
queda expresada como:
w(t) =
1
2
K (d(t))
2
+
1
2
M (v(t))
2
= x(t)
T
x(t) (10.10)
donde es una matriz diagonal: = diag
_
K
2
,
M
2
_
.
Finalmente, la no unicidad de la representaci on en variables de estado se
puede apreciar si, en vez de la elecci on hecha en (10.8), elegimos un nuevo
vector de estado x(t) que se relaciona con x(t) a traves de una matriz no singular
cualquiera T R
22
, es decir:
x(t) = Tx(t) (10.11)
M as adelante, en la Secci on 10.3.3, veremos en m as detalle este tipo de
transformaciones.
222
10.2.3. Se nales descritas en espacio de estado
Las representaciones en variables de estado adem as de describir sistemas o
procesos, pueden ser tambien muy utiles para representar una gran variedad de
se nales.
10.3. MODELOS DE ESTADO PARA SISTEMAS CONTINUOS 257
se~ nal!detiempocontinuo
se~ nal!detiempodiscreto
sistema!tiempocontinuo
Para esto se utilizan modelos de estado sin excitaciones o se nales de entrada.
Por tanto, la se nal que se obtiene como salida del sistema s olo depende de la
condici on inicial del vector de estado.
Este tipo de sistemas sin se nal de entrada se denominan homogeneos o
aut onomos:
Para se nales de tiempo continuo
dx(t)
dt
= Ax(t) (10.12)
y(t) = Cx(t) (10.13)
Para se nales de tiempo discreto
x[t + 1] = A
q
x[t] (10.14)
y[t] = C
q
x[t] (10.15)
Las variables denidas en este tipo de modelos en espacio de estado, no
tienen un signicado fsico, sin embargo, esta forma de describir se nales resulta
muy util en diversas aplicaciones de la teora de se nales.
Ejemplo 10.2. Supongamos la se nal de tiempo continuo:
f(t) = 2 + 4 cos(5t) sen(5t) (10.16)
Esta esta formada por una sinusoide m as una constante, y puede interpre-
tarse como la soluci on de la ecuaci on diferencial homogenea:
d
3
f(t)
dt
3
+ 25
d f(t)
dt
= 0; sujeta a f(0) = 6;

f(0) = 5 and

f(0) = 100
(10.17)
Si ahora escogemos como variables de estado x
1
(t) = f(t), x
2
(t) =

f(t) y
x
3
(t) =

f(t), entonces el modelo el espacio de estado de esta se nal es:
dx(t)
dt
=
_
_
0 1 0
0 0 1
0 25 0
_
_
x(t) y(t) = [1 0 0] x(t) (10.18)
222
10.3. Modelos de estado para sistemas continu-
os
En esta secci on se presentan los modelos en variables de estado para sistemas
de tiempo continuo. El an alisis que se realiza est a centrado en sistemas lineales
258 CAP

ITULO 10. REPRESENTACI

ON EN VARIABLES DE ESTADO.
retardo
linealizaci on
puntodeequilibrio
e invariantes en el tiempo, tal como se ha considerado en los captulos pre-
vios. Naturalmente los sistemas son en general no lineales, tal como se muestra
en las ecuaciones (10.1) y (10.2), pero pueden ser linealizados, tal como se hizo
en el captulo 1.
Otra restricci on importante es que los sistemas considerados no poseen re-
tardos puros. Estos daran origen a un vector de estado de dimensi on innita.
Sin embargo, en la Secci on 10.4 veremos que este tipo de sistemas pueden ser
representados en variables de estado usando un modelo del sistema muestrea-
do.
10.3.1. Linealizaci on
Si consideramos el modelo de un sistema invariante en el tiempo, las ecua-
ciones (10.1)-(10.2) se reducen a:
dx
dt
= F(x(t), u(t)) (10.19)
y(t) = G(x(t), u(t)) (10.20)
Suponemos que el modelo (10.19)-(10.20) tiene, al menos, un punto de equi-
librio dado por x
Q
, u
Q
, y
Q
. Este tro de vectores satisface:
0 = F(x
Q
, u
Q
) (10.21)
y
Q
= G(x
Q
, u
Q
) (10.22)
Note que el punto de equilibrio queda determinado haciendo las derivadas
iguales a cero.
Si consideramos una vecindad alrededor del punto de equilibrio, podemos
aproximar el modelo (10.19)-(10.20) por una serie de Taylor truncada (Apendice
A), de la forma:
x(t) F(x
Q
, u
Q
) +
F
x

x=x
Q
u=u
Q
(x(t) x
Q
) +
F
u

x=xQ
u=uQ
(u(t) u
Q
) (10.23)
y(t) G(x
Q
, u
Q
) +
G
x

x=x
Q
u=u
Q
(x(t) x
Q
) +
G
u

x=x
Q
u=u
Q
(u(t) u
Q
) (10.24)
Las ecuaciones (10.23) y (10.24) se pueden reescribir por lo tanto como:
dx(t)
dt
= Ax(t) +Bu(t) (10.25)
y(t) = Cx(t) +Du(t) (10.26)
donde las se nales incrementales son:
x(t) = x(t) x
Q
; u(t) = u(t) u
Q
; y(t) = y(t) y
Q
(10.27)
10.3. MODELOS DE ESTADO PARA SISTEMAS CONTINUOS 259
y las matrices de la representaci on de estado son:
A =
F
x

x=x
Q
u=uQ
; B =
F
u

x=x
Q
u=u
Q
; C =
G
x

x=x
Q
u=u
Q
; D =
G
u

x=x
Q
u=u
Q
(10.28)
Para ilustrar esta forma de obtener un modelo lineal para un sistema no
lineal, se ilustra en el siguiente ejemplo.
Ejemplo 10.3. Considere el levitador electromagnetico que se muestra en la
Figura 10.2.
+
R
i(t)
f(t)
mg
v(t) h(t)
L
e(t)
Figura 10.2: Levitador electromagnetico.
La esfera met alica est a sometida a dos fuerzas: su propio peso, mg, y la
fuerza de atracci on generada por el electroim an, f(t). La fuerza del electroim an
se regula a traves de la fuente de voltaje, e(t) > 0, t. La fuerza de atracci on
sobre la esfera, f(t), depende de la distancia h(t) y de la corriente, i(t). Esta
relaci on se puede describir aproximadamente por la expresi on
f(t) =
K
1
h(t) +K
2
i(t) (10.29)
donde K
1
y K
2
son constantes positivas.
Aplicando los principios usuales en redes electricas y mec anica, podemos
escribir las siguientes ecuaciones:
e(t) = Ri(t) +L
di(t)
dt
(10.30)
v(t) =
dh(t)
dt
(10.31)
f(t) =
K
1
h(t) +K
2
i(t) = mg +m
dv(t)
dt
(10.32)
260 CAP

ITULO 10. REPRESENTACI

ON EN VARIABLES DE ESTADO.
A continuaci on escogemos las variables de estado: la corriente i(t), la posi-
ci on de la esfera h(t), y su velocidad v(t), es decir:
x(t) =
_
x
1
(t) x
2
(t) x
3
(t)

T
=
_
i(t) h(t) v(t)

T
(10.33)
Note que esta elecci on permite cuanticar directamente la energa almace-
nada en el sistema.
A partir de (10.30)-(10.32) obtenemos el modelo de estado del sistema:
di(t)
dt
=
dx
1
(t)
dt
=
R
L
x
1
(t) +
1
L
e(t) (10.34)
dh(t)
dt
=
dx
2
(t)
dt
= x
3
(t) (10.35)
dv(t)
dt
=
dx
3
(t)
dt
=
K
1
m(x
2
(t) +K
2
)
x
1
(t) g (10.36)
Para linealizar el modelo obtenido, necesitamos obtener primero el punto de
equilibrio alrededor del cual se har a dicha linealizaci on. La entrada al sistema
es el voltaje de la fuente e(t). Supongamos que el punto de equilibrio se obtiene
jando e(t) = E
Q
, entonces, a partir de este, se puede calcular el estado del
sistema en el punto de equilibrio. Este queda caracterizado por las ecuaciones
(10.34)-(10.36), haciendo las derivadas iguales a cero:

R
L
x
1Q
+
1
L
E
Q
= 0 =x
1Q
=
E
Q
R
(10.37)
x
3Q
= 0 =x
3Q
= 0 (10.38)
K
1
m(x
2Q
+K
2
)
x
1Q
g = 0 =x
2Q
=
K
1
mg
x
1Q
K
2
=
K
1
E
Q
mgR
K
2
(10.39)
El modelo linealizado queda expresado en terminos de la entrada incremental
e(t) y el estado incremental x(t) = [x
1
(t), x
2
(t), x
3
(t)]
T
de la forma:
dx
1
(t)
dt
=
R
L
x
1
(t) +
1
L
e(t) (10.40)
dx
2
(t)
dt
= x
3
(t) (10.41)
dx
3
(t)
dt
=
Rg
E
Q
x
1
(t)
Rmg
2
K
1
E
Q
x
2
(t) (10.42)
Si consideramos como salida del sistema la posici on de la esfera h(t), pode-
mos comparar las ultimas ecuaciones con (10.25) y (10.26) para obtener:
A =
_

R
L
0 0
0 0 1
Rg
E
Q

Rmg
2
K
1
E
Q
0
_

_
; B =
_

_
1
L
0
0
_

_
; C
T
=
_

_
0
1
0
_

_
; D = 0 (10.43)
222
10.3. MODELOS DE ESTADO PARA SISTEMAS CONTINUOS 261
matriz!de transici on
exponencial!deunamatriz
De aqui en adelante omitiremos el prejo , pero el lector debe tener en
mente que los modelos obtenidos mediante linealizaci on relacionan el estado
incremental, las entradas incrementales y las salidas incrementales, en
torno al punto de equilibrio.
10.3.2. Modelos lineales en el espacio de estado
Consideramos el modelo en variables de estado, lineal e invariante en el
tiempo:
dx(t)
dt
= Ax(t) +Bu(t) (10.44)
y(t) = Cx(t) +Du(t) (10.45)
Lema 10.1. Dada la ecuaci on (10.44), sujeta a la condici on inicial x(t
o
) = x
o
,
su soluci on es:
x(t) = e
A(tto)
x
o
+
_
t
to
e
A(t)
Bu()d t t
o
(10.46)
donde la matriz de transici on e
At
satisface:
e
At
= I +

k=1
1
k!
A
k
t
k
(10.47)
(Para la denici on de exponencial de una matriz ver Apendice F) De-
mostraci on
Puede vericarse directamente al reemplazar (10.46) en la ecuaci on (10.44),
usando la regla de Leibniz para la derivaci on de la integral.
222
Con este resultado, dado un estado inicial x(t
o
) = x
o
la soluci on de las
ecuaciones (10.44)(10.45) se puede expresar como:
y(t) = Ce
A(tto)
x
o
+C
_
t
to
e
A(t)
Bu()d +Du(t) (10.48)
Dinamica del sistema
Como hemos visto en los Captulos 3 y 4, la salida de un sistema siempre
puede descomponerse en dos partes: una componente no forzada determinada
por las condiciones iniciales y formada por los modos naturales del sistema, y
una componente forzada por la se nal de entrada al sistema. Esto mismo se ve
conrmado en la soluci on de la ecuaci on de estado (10.48), donde se aprecia la
componente no forzada x
u
(t), y la componente forzada x
f
(t), donde:
x
u
(t) = e
A(tto)
x
o
(10.49)
x
f
(t) =
_
t
to
e
A(t)
Bu()d (10.50)
262 CAP

ITULO 10. REPRESENTACI

ON EN VARIABLES DE ESTADO.
respuestahomog enea
estabilidad
velocidad
Estructura de la respuesta homogenea
Para analizar con mayor detalle el modelo en espacio de estado y su soluci on,
consideremos t
o
= 0 y la entrada u(t) = 0 t 0, es decir, el estado est a formado
s olo por su parte no forzada u homogenea. Entonces:
x(t) = e
At
x
o
(10.51)
Supondremos adem as que A R
n
y que, por simplicidad, no tiene autoval-
ores repetidos, sino que son todos diferentes
1
,
2
,. . . ,
n
, con sus n autovectores
v
1
, v
2
, . . . , v
n
linealmente independientes
1
. En este caso podemos armar que
siempre existen constantes
1
,
2
, . . . ,
n
tales que:
x
o
=
n

=1

C (10.52)
Del algebra lineal (Apendice F) sabemos que los autovalores de la matriz A
k
son
k
1
,
k
2
,. . . ,
k
n
con sus correspondientes autovectores v
1
, v
2
, . . . , v
n
. De
esta forma, se obtiene:
x(t) = e
At
x
o
=
_
I +

k=1
1
k!
A
k
t
k
__
n

=1

_
=
n

=1

_
_
_v

k=1
1
k!
A
k
v

. .

t
k
_
_
_ =
n

=1

t
v

(10.53)
Esta ecuaci on pone de maniesto que la componente no forzada del vector
de estado es una combinaci on lineal de modos de la forma e

t
, cada uno de
los cuales est a asociado a un autovalor de A. Esto establece un resultado muy
importante:
Los frecuencias naturales de un sistema de tiempo continuo son iguales a los
valores propios de la matriz A de su representaci on en variables de estado.
Es decir, la ecuaci on caracterstica de un sistema est a dada por:
det(I A) = 0 (10.54)
Por tanto, la matriz A es la que determina:
la estructura de la respuesta no forzada u homogenea,
la estabilidad (o inestabilidad) del sistema, y
la velocidad de respuesta.
1
Todo conjunto de n vectores l.i. en R
n
forman una base para R
n
10.3. MODELOS DE ESTADO PARA SISTEMAS CONTINUOS 263
El an alisis previo puede extenderse al caso en que la matriz A posee valores
propios repetidos, utilizando la forma de Jordan (Apendice F).
En ausencia de se nal de entrada, hemos visto que el estado del sistema resulta
ser una combinaci on de modos naturales. Estos pertenecen al conjunto de fun-
ciones generadas por exponenciales reales o complejas, que pueden corresponder
a se nales constantes, exponenciales reales y sinusoides puras o moduladas por
exponenciales, entre otras.
Ejemplo 10.4. Para ilustrar la diferentes aparici on de diferentes tipos de mo-
dos naturales, y su interpretaci on fsica consideremos nuevamente el sistema
del Ejemplo 10.1 en la p agina 255. Para dicho sistema, obtuvimos el modelo en
variables de estado:
_
x
1
(t)
x
2
(t)
_
=
_
0 1

K
M

D
M
__
x
1
(t)
x
2
(t)
_
+
_
0
1
M
_
f(t) (10.55)
en que x
1
(t) y x
2
(t) son respectivamente la posicion y la velocidad de la masa
M, y f(t) es la fuerza externa.
Las frecuencias naturales del sistema son los autovalores de la matriz A, es
decir, las soluciones de la ecuaci on caracterstica:
det(I A) =
2
+
D
M
+
K
M
= 0 (10.56)
Estas son:

1,2
=
D
2M

_
D
2
4M
2

K
M
(10.57)
Donde podemos apreciar que:
Si no existe amortiguaci on (D=0), los autovalores del sistema son imagi-
narios puros, y los modos naturales son oscilaciones sostenidas de frecuen-
cia angular
o
=
_
K/M. Esto coincide con la interpretaci on fsica, pues
si no existe roce es natural pensar que si el resorte no se encuentra en su
largo natural o la masa posee velocidad inicial, esta permanecer a oscilando
indenidamente, aunque no exista fuerza externa.
Cuando el sistema est a debilmente amortiguado ( D
2
< 4KM), los auto-
valores de la matriz A son complejos conjugados con parte real negativa,
por tanto los modos naturales asociados son sinusoides amortiguadas ex-
ponencialmente. Esto coincide tambien con lo que sucede en la pr actica,
pues en caso de existir una fuerza de roce no muy grande, la masa os-
cilar a hasta detenerse en ealg un momento en su posici on de largo natural.
Finalmente, si la amortiguaci on es muy grande ( D
2
> 4KM), los auto-
valores de la matriz ser an reales y negativos, lo cual indica que los auto-
valores son dos exponenciales decrecientes. En este caso, la existencia de
una fuerza de roce importante se traduce en que la masa no lograr a oscilar
sino que es llevada por la fuerza del resorte hasta su posici on de equilibrio,
y toda la energa contenida en el sistema se disipa r apidamente en el roce.
264 CAP

ITULO 10. REPRESENTACI

ON EN VARIABLES DE ESTADO.
planodefase
Para ilustrar estas tres situaciones podemos utiliar Matlab , que permite
denir facilmente denir sistemas en variables de estado a traves del coman-
do ss. La respuesta a una condici on inicial se obtiene a traves del comando
initial. Para estas simulaciones consideramos tres diferentes valores para la
constante de roce viscoso D, mientras que los otros par ametros son:
M = 2 [kg]; K = 0, 1
_
N
m
_
d(0) = 0, 3 [m]; and v(0) = 0, 05
_
m
s
_
(10.58)
Usando c odigo Matlab como el siguiente se obtienen los gr acos de la Figu-
ra 10.3.
Matlab
>> M=2 ; K=0.1 ; D=0 ;
>> x_o=[0.3 0.05];
>> A=[0 1;-K/M -D/M];B=[0;1/M];C=[1 0];d=0;
>> S=ss(A,B,C,d);
>> initial(S,x_o)
Tiempo (seg.)
A
m
p
l
i
t
u
d
0 10 20 30 40 50 60 70
0.4
0.2
0
0.2
0.4
D=0
D=0.2
D=2
Figura 10.3: Respuesta homogenea del sistema masa-resorte-roce.
En la Figura 10.4 se muestra la trayectoria que sigue el estado del sistema.
Se ha considerado la posici on de la masa d(t) como coordenada horizontal, y la
velocidad, v(t), como coordenada vertical. Este tipo de diagrama se conoce como
plano de fase,. En Matlab , el mismo comando initial permite obtener la
trayectoria del estado mediante el siguiente codigo:
Matlab
>> [y,t,x]=initial(S,x_o);
>> plot(x(:,1),x(:,2))
10.3. MODELOS DE ESTADO PARA SISTEMAS CONTINUOS 265
modoforzado
soluci onparticular
0.5 0.4 0.3 0.2 0.1 0 0.1 0.2 0.3 0.4 0.5
0.1
0.08
0.06
0.04
0.02
0
0.02
0.04
0.06
0.08
0.1
distancia d(t)
v
e
l
o
c
i
d
a
d

v
(
t
)
D=0
D=0.2
D=2
x
o
=[0.3 0.05]
T
Figura 10.4: Trayectorias en el espacio de estado del sistema masa-resorte-roce.
Note que, excepto en el caso en que no existe roce (D = 0), la masa llegar a a
detenerse asint oticamente, es decir, llega al origen del espacio de estado.
222
Estructura de la respuesta forzada
Cuando las condiciones iniciales del sistema son cero, el estado s olo tendr a su
componente forzada.
x
f
(t) =
_
t
to
e
A(t)
Bu()d (10.59)
Esta parte del estado tambien incluye modos naturales, pero adem as contiene
los modos forzados o soluciones particulares, los cuales como hemos visto en
captulos precedentes, no dependen del sistema, sino que exclusivamente de la
se nal de entrada u(t). En general, los modos forzantes presentes en la entrada
aparecer an tambien en el estado. Sin embargo, es importante mencionar que un
caso especial sucede cuando los modos forzantes en la entrada coinciden con
alguno de los modos naturales del sistema.
Estabilidad del sistema
Tal como se mencion o antes, la estabilidad de un sistema lineal e invariante
puede ser analizada usando la matriz de estado A.
266 CAP

ITULO 10. REPRESENTACI

ON EN VARIABLES DE ESTADO.
equilibrio inestable
puntodeequilibrio
modonatural!dominante
resonancia
Por denici on, todas las variables de un sistema pueden expresarse como
funciones lineales de su estado y su entrada. Cuando la entrada al sistema u(t)
es un vector de funciones temporales acotadas, entonces las variables del sistema
ser an acotadas si su estado lo es.
Tenemos entonces el siguiente resultado:
Teorema 10.1. Considere el sistema con la descripci on en variables de estado
(10.44)-(10.45) donde los elementos de A, B, C y D est an acotados. Entonces el
estado del sistema, y por tanto su salida, es acotado para toda entrada acotada
si, y s olo si, los autovalores de la matriz A tienen parte real estrictamente
negativa.
222
Para apreciar la aplicaci on de este teorema en la pr actica, retomemos el
sistema del levitador magnetico del Ejemplo 10.3. Para dicho sistema la matriz
A (en el modelo linealizado) est a dada por la expresi on:
A =
_

R
L
0 0
0 0 1
Rg
E
Q

Rmg
2
K
1
E
Q
0
_

_
(10.60)
y sus autovalores o valores propios son las races de la ecuaci on
det(I A) =
_
+
R
L
_
_

Rmg
2
K
1
E
Q
__
+

Rmg
2
K
1
E
Q
_
(10.61)
Podemos apreciar que, del conjunto de autovalores de la matriz, existe uno
que es real y mayor que cero. Esto implica que el sistema es inestable, lo
cual coincide con el an alisis del sistema desde el punto de vista fsico. Si bien
existe un punto de euilibrio para el sistema, al menos te oricamente, dado x
2Q
en la ecuaci on (10.39)), este resulta ser un punto de equilibrio inestable, ya que
cualquier peque na perturbaci on sobre la esfera har a que esta o acelera hasta
adherirse al im an, o bien, cae al suelo.
Velocidad de respuesta y resonancia
Como ya hemos visto, en los sistemas estables la parte real de los autovalores
determina la velocidad a la cual los modos naturales decaen a cero. Los modos
m as lentos, que hemos denominado modos dominantes, determinan la velocidad
con que la salida del sistema alcanza el estado estacionario, es decir, determinan
la velocidad de respuesta del sistema.
Un segundo aspecto, de especial importancia en estructuras exibles, es la
presencia de resonancias en un sistema, que est an asociadas a autovalores com-
plejos. Desde el punto de vista fsico, la presencia de autovalores complejos tiene
relaci on con la existencia de dos tipos de energa. En circuitos electricos, la en-
erga electrost atica de condesadores y la energa electromagnetica en inductores.
10.3. MODELOS DE ESTADO PARA SISTEMAS CONTINUOS 267
transformaci ondelestado
estado!transformaci on
similaridad
En sistemas mec anicos, la energa cinetica de una masa en movimiento y la en-
erga potencial debida a diferencia de nivel o a la compresi on de un resorte. Los
principales problemas con este tipo sistemas ocurren cuando la se nal de entrada
contiene energa en la banda de frecuencias cercana a la frecuencia con que el
sistema oscila en forma natural. En la pr actica, este problema puede traducirse
en oscilaciones de magnitud que el sistema simplemente no est a preparado para
soportar. Para ilustrar esta situaci on examinaremos un ejemplo que ilustra el
fen omeno:
Ejemplo 10.5. Consideremos nuevamente el sistema masa-resorte-roce del
Ejemplo 10.1, en que las constantes tienen los valores:
M = 1[kg] ; D =
1
3
[Ns/m] ; K = 1[N/m] (10.62)
Con lo cual los autovalores del sistema son las soluciones de:
det(I A) =
2
+
D
M
+
K
M
=
2
+
1
3
+ 1 = 0 (10.63)

1,2
=
1
6

1
2
_
35
9

1
6
j (10.64)
Por tanto, los modos naturales son de la forma e
0,1667t
cos(t+). Cualquier
excitaci on que posea energa a frecuencias cercanas a = 1[rad/s] har a que el
sistema entre en resonancia, haciendo que en la salida del sistema aparezcan
oscilaciones de magnitud signicativa.
Se desarrolla una simulaci on del comportamiento del sistema bajo dos ex-
citaciones distintas: en el primer caso, la entrada es una sinusoide de frecuencia
= 1 [rad/s], y en el segundo caso, la excitaci on una se nal cuadrada de frecuen-
cia fundamental
o
= 0, 333 [rad/s]. En ambos casos las condiciones iniciales
del sistema son cero. Los resultados se muestran en la Figura 10.5.
Podemos apreciar que, en el primer caso, se genera un fen omeno de reso-
nancia debido a que la frecuencia de la sinusoide es aproximadamente igual a
la frecuencia de oscilaci on de los modos naturales del sistema. En el segundo
caso, tambien aparece un fen omeno de resonancia; sin embargo, ahora se debe
a la tercera arm onica de la excitaci on , ya que la frequencia angular de ella
es 3
o
= 0, 999[rad/s], es decir, coincide casi exactamente con la frecuencia
natural de oscilaci on del sistema.
222
10.3.3. Transformaciones de similaridad
La elecci on de variables de estado para un sistema dado no es unica. Concre-
tamente podemos tener un sistema con entrada u(t), salida y(t) y dos diferentes
elecciones para el vector de estado: x(t) y x(t) R
n
, con sus matrices asociadas
A, B, C, D y A, B, C, D, respectivamente. El siguiente lema establece la
relaci on entre ambos modelos.
268 CAP

ITULO 10. REPRESENTACI

ON EN VARIABLES DE ESTADO.
matriz!detransformaci on
0 5 10 15 20 25 30 35 40
3
2
1
0
1
2
3
tiempo
y(t)
u(t)
0 5 10 15 20 25 30 35 40
3
2
1
0
1
2
3
tiempo
y(t)
u(t)
Figura 10.5: Resonancia en el sistema masa-resorte.
Lema 10.2. Dado un sistema cuyo vector de estado es x(t) y sus matrices son
A, B, C, D, entonces, dada la matriz de transformaci on T R
nn
no
singular, tenemos un nuevo vector de estado:
x(t) = T x(t) (10.65)
El modelo de estado para la nueva representaci on, queda expresado mediante
las matrices:
A = TAT
1
; B = TB ; C = CT
1
; D = D (10.66)
Demostraci on
Dada la transformaci on (10.65), en que T es no singular y, por tanto, in-
vertible, tenemos que:
x(t) = T
1
x(t) (10.67)
Si reemplazamos entonces el vector de estado x(t) en las ecuaciones de estado
del sistema (10.44)-(10.45), obtenemos:
T
1

x(t) = AT
1
x(t) +Bu(t) (10.68)
y(t) = CT
1
x(t) +Du(t) (10.69)
10.3. MODELOS DE ESTADO PARA SISTEMAS CONTINUOS 269
donde, al multiplicar la primera ecuaci on por T por la izquierda, se obtiene:

x(t) =
A
..
TAT
1
x(t) +
B
..
TB u(t) (10.70)
y(t) = CT
1
. .
C
x(t) + D
..
D
u(t) (10.71)
De esta forma se obtienen las ecuaciones (10.66).
222
Diferentes elecciones de las variables de estado pueden tener o no signicado
fsico, sin embargo, existen representaciones que resultan m as simples del punto
de vista matem atico, como veremos en la Secci on 10.6.
A pesar de las diferentes posibles representaciones, es natural que ciertas
importantes caractersticas y propiedades del sistema permanezcan invariantes,
cualquiera sea la representaci on elegida. Si, por ejemplo, consideramos los au-
tovalores del sistema, tenemos que:
det(I A) = det(TT
1
TAT
1
) (10.72)
= det
_
T(I A)T
1
_
(10.73)
= det(T) det(I A) det(T
1
) (10.74)
= det(I A) (10.75)
Por tanto, la estabilidad, la naturaleza de la respuesta homogenea y la ve-
locidad de respuesta del sistema son invariantes respecto a transformaciones de
similaridad del estado.
(t)
f
1
(t)
C 2
(t)
L
(t)
(t)
2
R
+
v
v C R
i
i
L
i
Figura 10.6: Red electrica
Ejemplo 10.6. En el circuito electrico de la Figura 10.6, si escogemos el vector
de estado como x(t) = [x
1
(t) x
2
(t)]
T
= [i
L
(t) v
c
(t)]
T
y la se nal de entrada
u(t) = v
f
(t), entonces usando conocimientos b asicos de redes electricas, tenemos
que:
dx(t)
dt
=
_

_
0
1
L

1
C

R
1
+R
2
R
1
R
2
C
_

_x(t) +
_
_
0
1
R
1
C
_
_
u(t) (10.76)
270 CAP

ITULO 10. REPRESENTACI

ON EN VARIABLES DE ESTADO.
funci ondetransferencia
polos
autovalores
Una elecci on alternativa del vector de estado puede ser x(t) = [x
1
(t) x
2
(t)]
T
=
[i(t) i
2
(t)]
T
. Donde puede probarse sin problema que
x(t) =
1
R
2
_
R
2
1
0 1
_
. .
T
x(t) (10.77)
222
10.3.4. Espacio de estado y funciones de transferencia
La representaci on de sistemas mediante modelos de variables de estado es
una descripsi on alternativa a las que hemos visto antes, tales como la ecuaci on
diferencial del sistema (Captulo 3) y su funci on de transferencia asociada (Captu-
los 6 y 7). Sin embargo, en esta secci on veremos que los modelos en espacio de
estado permiten describir con mayor profundidad una conjunto m as general de
sistemas.
En primer lugar, el siguiente lema establece como obtener una representaci on
en variables de estado de un sistema, dada su funci on de transferencia.
Lema 10.3. Dado un sistema lineal en invariante del tiempo con entrada con
funci on de transferencia:
H(s) =
Y(s)
U(s)
(10.78)
En que U(s) y Y(s) son las transformadas de Laplace de la entrada u(t) y la
salida y(t). Entonces, dada un modelo de estado con matrices A, B, C, D,
tenemos que:
H(s) = C(sI A)
1
B+D (10.79)
Adem as, los polos de la funci on de transferencia H(s) pertencen al conjunto
de los autovalores de la matriz A.
Demostraci on
Usando la denici on en la Secci on 7.2, la funci on de transferencia del sis-
tema es la transformada de Laplace de la respuesta a impulso (delta de Dirac)
del sistema, con condiciones iniciales iguales a cero. Por lo tanto, si aplicamos
la transformada de Laplace a la ecuaci on (10.44), tenemos que:
sX(s)
0
..
x(0

) = AX(s) +B
1
..
L(t) (10.80)
(sI A)X(s) = B (10.81)
X(s) = (sI A)
1
B (10.82)
De igual forma, aplicando Laplace a la ecuaci on (10.45) y reemplazando la
transformada del vector de estado X(s), obtenemos:
Y(s) = H(s) = CX(s) +DL(t) = C(sI A)
1
B+D (10.83)
10.3. MODELOS DE ESTADO PARA SISTEMAS CONTINUOS 271
cancelaci on
Por otro lado, para obtener los polos de la transferencia H(s) podemos ree-
scribir la inversa de (sI A) usando las propiedades en el Apendice F. De esta
forma:
H(s) = C
Adj(sI A)
det(sI A)
B+D =
CAdj(sI A)B+Ddet(sI A)
det(sI A)
(10.84)
Lo que pone de maniesto que todos los polos de H(s) son autovalores de la
matriz A.
222
Es importante notar que no necesariamente los polos de la funci on de
transferencia son todos los autovalores del sistema, pues la ecuaci on (10.79)
puede tener cancelaciones encubiertas entre races del numerador (ceros) y races
del denominador (polos) . Esto se ilustra mejor a traves del siguiente ejemplo.
Ejemplo 10.7. Consideremos las matrices de un modelo de estado:
A =
_
2 1
0 3
_
; B =
_
1
0, 5
_
; C =
_
0 1

; D = 0 (10.85)
Entonces, la funci on de transferencia asociada es:
H(s) = C(sI A)
1
B =
1
(s + 2)(s + 3)
_
0 1

_
s + 3 1
0 s + 2
_ _
1
0, 5
_
(10.86)
=
0, 5(s + 2)
(s + 2)(s + 3)
=
0, 5
(s + 3)
(10.87)
En este caso, la funci on de transferencia tiene s olo un polo, a pesar que la
matriz A posee dos autovalores. Se observa que existe una cancelaci on entre un
polo y un cero en H(s). Este fen omeno tiene relaci on directa con las propiedades
del sistema que se estudian en la Secci on 10.6.
222
Para interpretar este hecho en la pr actica, volvamos una vez m as al levita-
dor magnetico del Ejemplo 10.3 en la p agina 259. Si consideramos la corriente
i(t) como salida, vemos de inmediato que la funci on de transferencia desde la
entrada e(t) a esta salida tiene s olo un polo, a pesar que el vector de estado
tiene dimensi on tres. La explicaci on de esto es que, en nuestro modelo fsico
simplicado, la corriente i(t) no es afectada por la posici on ni por la velocidad
vertical de la esfera. Note que la situaci on seria diferente si consider aramos en
el modelo el efecto del cambio de posici on de la esfera en la inductancia del
electroim an.
De esta forma, vemos que la funci on de transferencia puede no en-
tregar la misma informaci on que el modelo en variables de estado
para un sistema dado.
272 CAP

ITULO 10. REPRESENTACI

ON EN VARIABLES DE ESTADO.
realizaci on m nima
funci ondetransferencia!estrictamentepropia
Un problema interesante es obtener una representaci on de estado de un sis-
tema a partir de su funci on de transferencia. El lector debe tener la precauci on
de considerar un modelo de estado adecuado, el cual no contenga cancelaciones
entre polos y ceros implcitas. Teniendo esto en cuenta, el modelo obtenido se
denomina realizaci on mnima.
Existen diferentes metodos para obtener un modelo en variables de estado a
partir de la funci on de transferencia, y a continuaci on ilustramos uno de ellos.
Consideremos la funci on de transferencia dada por
H
T
(s) =
B
o
(s)
A
o
(s)
+H
T
() =
b
n1
s
n1
+b
n2
s
n2
+. . . b
1
s +b
0
s
n
+a
n1
s
n1
+. . . +a
1
s +a
0
+H
T
()
(10.88)
En primer lugar, podemos apreciar que D = H
T
(), por tanto basta consid-
erar la funci on de transferencia H(s) = H
T
(s) H
T
(), que es estrictamente
propia.
Consideremos ahora v

(t) R cuya transformada de Laplace es V

(s) tal
que:
V

(s) =
s
1
A
o
(s)
U(s) 1, 2, . . . , n (10.89)
Esto implica que:
v

(t) =
dv
1
(t)
dt
2, . . . , n (10.90)
Y (s) =
n

=1
b
1
V

(s) (10.91)
U(s) =
A
o
(s)
A
o
(s)
U(s) =
s
n
A
o
(s)
U(s)
. .
sVn(s)
+
n

=1
a
1
s
1
A
o
(s)
U(s)
. .
V

(s)
(10.92)
Ahora si escogemos como variables de estado x

(t) = v

(t), la ecuaci on cor-


responde a:
A =
_

_
0 1 0 0 0
0 0 1 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
0
a
1
a
2
a
n2
a
n1
_

_
; B =
_

_
0
0
.
.
.
0
1
_

_
(10.93)
C =
_
b
0
b
1
b
2
b
n1

; D = H
T
() (10.94)
Ejemplo 10.8. La funci on de transferencia de un sistema est a dada por:
H(s) =
4s 10
(s + 2)
2
(s 1)
=
4s 10
s
3
+ 3s
2
4
(10.95)
10.4. MODELOS DE ESTADOPARASISTEMAS DISCRETOS YMUESTREADOS273
sistema!discreto
sistema!muestreado
discretizaci on
muestreo
PLC
conversor!digital-an alogo(DAC)
conversor!an alogo-digital(ADC)
DAC|seeconversor
ADC|seeconversor
Entonces una realizaci on mnima para este sistema es:
A =
_
_
0 1 0
0 0 1
4 0 3
_
_
; B =
_
_
0
0
1
_
_
(10.96)
C =
_
10 4 0

; D = 0 (10.97)
222
Otro resultado importante, cuya demostraci on se deja como ejercicio para el
lector, es
La funci on de transferencia de un sistema es invariante respecto a transfor-
maciones de similaridad del estado
10.4. Modelos de estado para sistemas discretos
y muestreados
En esta secci on estudiaremos la representaci on de estado para sistemas de
tiempo discreto, usando como base los resultados ya obtenidos para sistemas de
tiempo continuo.
Antes de comenzar es importante distinguir que un modelo en tiempo dis-
creto puede originarse de dos formas:
A partir de un sistema intrnsecamente discreto, y generalmente no lineal,
cuyas variables est an denidas s olo en intantes de tiempo especcos t
k
.
Estos pueden originarse, por ejemplo, en el modelamiento de sistemas
econ omicos o en el modelamiento de procesos estoc asticos.
O bien, a partir de la discretizaci on de un sistema de tiempo continuo.
En este caso, interesa el valor las variables del sistema en instantes de
tiempo especcos. Esto se denomina muestreo. Los modelos de este tipo
son muy utiles cuando sistemas digitales, tales como microcontroladores,
computadores, controladores l ogicos programables (PLCs) u otros, deben
interactuar con sistemas reales de tiempo continuo, tales como estruc-
turas mec anicas, v alvulas, tanques, circuitos an alogos, o con procesos in-
dustriales completos
2
. Este tipo de sistemas se denominan sistemas
muestreados.
Cualquiera que sea el origen del modelo discreto, nos concentraremos en el
caso en que este es lineal e invariante en el tiempo, tal como lo hicimos en
el caso de tiempo continuo.
2
La conexi on requiere de conversores Digital-An alogo y An alogo-Digital (DAC y ADC, sus
siglas en ingles, respectivamente)
274 CAP

ITULO 10. REPRESENTACI

ON EN VARIABLES DE ESTADO.
linealizaci on
sistema!muestreado
muestreo
sampling|seemuestreo
retentor
10.4.1. Linealizaci on de sistemas discretos
El equivalente en tiempo discreto de las ecuaciones (10.3)-(10.4) est a dado
por las expresiones no lineales:
x[t + 1] = F
d
(x[t], u[t]) (10.98)
y[t] = G
d
(x[t], u[t]) (10.99)
La linealizaci on se realiza de manera an aloga que para el caso continuo,
considerando primero un punto de equilibrio, dado por el tro x
Q
, u
Q
, y
Q
,
que satisface las ecuaciones:
x
Q
= F
d
(x
Q
, u
Q
) (10.100)
y
Q
= G
d
(x
Q
, u
Q
) (10.101)
Podemos apreciar que el punto de equilibrio queda denido por un conjunto
de valores constantes para el estado del sistema y para su entrada, que deben
satisfacer (10.98)-(10.99). Esto implica un valor constante tambien en la salida
del sistema. El sistema discreto puede ser entonces linealizado en torno a este
punto de equilibrio, deniendo las se nales:
x[t] = x[t] x
Q
; u[t] = u[t] u
Q
; y[t] = y[t] y
Q
(10.102)
Obtenemos as el modelo en variables de estado:
x[t + 1] = A
d
x[t] +B
d
u[t] (10.103)
y[t] = C
d
x[t] +D
d
u[t] (10.104)
donde las matrices son:
A
d
=
F
d
x

x=x
Q
u=u
Q
; B
d
=
F
d
u

x=x
Q
u=u
Q
; C
d
=
G
d
x

x=x
Q
u=u
Q
; D
d
=
G
d
u

x=x
Q
u=u
Q
(10.105)
10.4.2. Sistemas muestreados
Como hemos dicho antes, los modelos de tiempo discreto se obtienen a
menudo al hacer un muestreo
3
de las entradas y salidas de un sistema de tiempo
continuo.
Cuando alg un dispositivo digital se utiliza para actuar sobre un sistema de
tiempo continuo, la se nal de actuaci on o de comando sobre el s olo se dene en
ciertos instantes de tiempo especcos, y no para todo instante de tiempo t. Sin
embargo, siempre necesitaremos una se nal continua para actuar sobre el sistema
(de tiempo continuo). Esta se nal se obtiene usualmente a traves de un retentor,
el cual genera una se nal constante por tramos, manteniendo el ultimo valor
especicado hasta que se dene el siguiente. Este tipo de retentor se denomina
3
Sampling, en ingles
10.4. MODELOS DE ESTADOPARASISTEMAS DISCRETOS YMUESTREADOS275
ZOH|seeretentor
muestreo!per odode
per odo!demuestreo
retentor de orden cero
4
. Es importante considerar que existen otras formas
de generar una se nal de actuaci on continua a partir de la secuencia discreta
(vease, por ejemplo, [3]).
Adem as de la se nal de actuaci on, es necesario medir las variables que nos
interesan de un sistema en los instantes de tiempo especcos que se requiera.
Es decir, debemos muestrear las se nales de salida.
En la Figura 10.7 se describe la discretizaci on de un sistema continuo. Si
suponemos un muestreo peri odico, con periodo , nos interesa el valor de las
variables s olo en los instantes k, en que k N. En las secciones posteriores
omitiremos el perodo de muestreo del argumento de las se nales, usando
u(k) = u[t] para la entrada, y(k) = y[t] para la salida, y x(k) = x[t] para
el estado del sistema, donde ahora t representa los instantes de tiempo discreto.
y[k] (t) u
S
(t) y u[k]
Tiempo Continuo
Sistema de
Retentor
(Hold) (Sample)
Muestreo
Figura 10.7: Esquema de un sistema muestreado
Si consideramos el modelo en variables de estado, lineal, invariante y de
tiempo continuo denido en (10.44)-(10.45), con estado inicial x(k
0
) = x
0
,
entonces podemos usar la ecuaci on (10.46) para calcular el valor del estado en
el pr oximo instante de muestreo:
x(k
0
+ ) = e
A(k0+k0)
x(k
0
) +
_
k0+
k0
e
A(k0+)
B u()d
(10.106)
Es m as, si u() es generada mediante un retentor de orden cero, entonces:
u() = u(k
0
) k
0
< k
0
+ (10.107)
De esta forma, haciendo el cambio de variable = k
0
+, se obtiene:
x(k
0
+ ) = e
A
x(k
0
) +
_

0
e
A
d Bu(k
0
) (10.108)
Es m as, dado el estado y la entrada en un instante k
0
, la salida del sistema
queda denida por la ecuaci on (10.45), es decir:
y(k
0
) = Cx(k
0
) +Du(k
0
) (10.109)
4
Zero Order Hold o ZOH, en ingles
276 CAP

ITULO 10. REPRESENTACI

ON EN VARIABLES DE ESTADO.
exponencial!deunamatriz
Por lo tanto, dado un sistema de tiempo continuo con un modelo en variables
de estado con matrices A, B, C, D, si muestreamos sus entradas y salidas cada
segundos, entonces, el sistema muestreado equivalente queda descrito por el
modelo de estado en tiempo discreto:
x(k + ) = A
d
x(k) +B
d
u(k) (10.110)
y(k) = C
d
x(k) +D
d
u(k) (10.111)
donde las matrices son:
A
d
= e
A
; B
d
=
_

0
e
A
d B ; C
d
= C ; D
d
= D (10.112)
Existen diferentes metodos para obtener la matriz A
d
denida mediante
la exponencial de una matriz en el extremo izquierdo de (10.112). Una opci on
es utilizar la denici on de la exponencial de una matriz en el Apendice F, sin
embargo, a menudo es m as simple calcularla empleando la transformada de
Laplace inversa, de manera que:
A
d
= e
A
= L
1
_
(sI A)
1
_

t=
(10.113)
Note que el metodo propuesto involucra tres pasos esencialmente:
(i) Dada la matriz A, se obtiene la matriz inversa de (sI A).
(ii) A continuaci on se aplica transformada de Laplace inversa a cada compo-
nente de (sI A)
1
.
(iii) Finalmente, las funciones temporales en cada una de las entradas de la
matriz obtenida se eval uan en t = .
Veamos a continuaci on un ejemplo para aclarar e ilustrar las ideas presen-
tadas hasta el momento.
Ejemplo 10.9. Consideremos el sistema mec anico del Ejemplo 10.1 en la p agi-
na 255, que fue descrito en variables de estado seg un las ecuaciones:
_
x
1
(t)
x
2
(t)
_
=
_
0 1

K
M

D
M
__
x
1
(t)
x
2
(t)
_
+
_
0

1
M
_
f(t) (10.114)
donde f(t) es la fuerza externa, y donde podemos escoger como salida del sistema
ya sea la posici on de la masa, x
1
(t), o su velocidad, x
2
(t).
Para simplicar las expresiones, supongamos algunos valores para los par amet-
ros del sistema. Se ja la masa M = 1 [kg], la constante de roce viscoso D = 1, 2
[Ns/m] y la constante del resorte K = 0, 32 [N/m].
10.4. MODELOS DE ESTADOPARASISTEMAS DISCRETOS YMUESTREADOS277
matriz!detransici on!discreta
La matriz A
d
se obtiene usando (10.113), aplicando transformada de Laplace
inversa:
A
d
= L
1
_
_
_
_
s 1
0, 32 s + 1,2
_
1
_
_
_

t=
=
_
2e
0,4
e
0,8
2,5(e
0,4
e
0,8
)
0, 8(e
0,4
e
0,8
) e
0,4
+ 2e
0,8
_
(10.115)
La matriz B
d
se obtiene, seg un (10.112), integrando:
B
d
=
_

0
_
2e
0,4
e
0,8
2,5(e
0,4
e
0,8
)
0, 8(e
0,4
e
0,8
) e
0,4
+ 2e
0,8
_
d
_
0
1
_
=
_
6,25e
0,4
+ 3,125e
0,8
+ 3,125
2,5(e
0,4
e
0,8
)
_
(10.116)
Note que ambas matrices, A
d
y B
d
son funciones de . Por tanto, el perodo
de muestreo , tiene una clara inuencia sobre el comportamiento del sistema
muestreado, tal como veremos m as adelante.
222
10.4.3. Modelos de estado lineales
Concentremonos ahora en el modelo en variables de estado, lineal e invariante
en el tiempo:
x[t + 1] = A
d
x[t] +B
d
u[t] (10.117)
y[t] = C
d
x[t] +D
d
u[t] (10.118)
Este puede corresponder a un modelo linealizado como (10.103)-(10.104),
o a un sistema muestreado como (10.110)-(10.111) donde se ha omitido del
argumento temporal.
Lema 10.4. Dado el sistema de tiempo discreto denido en las ecuaciones
(10.117) y (10.118), sujeto a la condici on inicial x[t
o
] = x
o
, su soluci on est a da-
da por
x[t] = A
d
(tto)
x
o
+
(tto)1

i=0
A
d
(tto)i1
B
d
u[i +t
o
] t t
o
(10.119)
donde A
d
(tto)
es la matriz de transici on discreta.
Demostraci on
278 CAP

ITULO 10. REPRESENTACI

ON EN VARIABLES DE ESTADO.
respuesta!noforzada
A partir de la ecuaci on (10.117), usando la condici on inicial x[t
o
] = x
o
,
puede determinarse completamente la trayectoria futura del estado. As:
x[t
o
+ 1] = A
d
x[t
o
] +B
d
u[t
o
] (10.120)
x[t
o
+ 2] = A
d
x[t
o
+ 1] +B
d
u[t
o
+ 1]
= A
d
_
A
d
x[t
o
] +B
d
u[t
o
]
_
+B
d
u[t
o
+ 1]
= A
d
2
x[t
o
] +A
d
B
d
u[t
o
] +B
d
u[t
o
+ 1] (10.121)
.
.
.
Por inducci on, tenemos que:
x[t
o
+] = A
d

x[t
o
] +
1

i=0
A
d
1+i
B
d
u[t
o
+i] 0 (10.122)
Este ultima ecuaci on coincide con la ecuaci on (10.119) al hacer = t t
o
.
222
Con el resultado del lema anterior, podemos encontrar la soluci on a la
ecuaci on (10.118), pues la salida del sistema queda determinada en todo mo-
mento por el vector de estado:
y[t] = C
d
A
d
(tto)
x
o
+C
d
(tto)1

i=0
_
A
d
(tto)i1
B
d
u[t
o
+i]
_
+D
d
u[t]
(10.123)
Dinamica del sistema
El vector de estado que se obtiene al resolver las ecuaciones del sistema,
an alogamente al caso de tiempo continuo, tiene dos componentes: la componente
no forzada, x
u
[t], y la forzada, x
f
[t], donde:
x
u
[t] = A
d
(tto)
x
o
(10.124)
x
f
[t] =
(tto)1

i=0
A
d
(tto)i1
B
d
u[t
o
+i] (10.125)
Estructura de la respuesta no forzada
Para simplicar el an alisis del modelo y su soluci on, aprovecharemos la in-
varianza en el tiempo, considerando el caso en que t
o
= 0 and u[t] = 0 t 0,
i.e. el estado tiene s olo su parte no forzada. En este caso:
x[t] = A
d
t
x
o
(10.126)
10.4. MODELOS DE ESTADOPARASISTEMAS DISCRETOS YMUESTREADOS279
estabilidad
velocidad
Por simplicidad asumiremos que A
d
R
nn
tiene n autovalores distintos

, con n autovectores linealmente independientes v

, entonces siempre existe


un conjunto de n constantes

tales que:
x
o
=
n

=1

C (10.127)
Del algebra lineal (Apendice F) sabemos que los autovalores la matriz A
d
t
son
t

, para t N, con sus correspondientes autovectores v

. De esta forma, se
obtiene:
x[t] = A
d
t
x
o
= A
d
t
n

=1

=
n

=1

A
d
t
v

. .

=
n

=1

(10.128)
Esta ecuaci on pone de maniesto que la componente no forzada del estado
es una combinaci on lineal de modos de la forma

t
, cada uno est a asociado
con un autovalor de A
d
. Esto establece un resultado muy importante:
Los frecuencias naturales de un sistema de tiempo discreto son iguales a los
valores propios de la matriz A
d
de su representaci on en variables de estado.
Es decir, la ecuaci on caracterstica de un sistema est a dada por:
det(I A
d
) = 0 (10.129)
An alogamente al caso de los modelos de tiempo continuo, esto indica que la
matriz A
d
determina:
la estructura de la respuesta no forzada,
la estabilidad (o inestabilidad) del sistema, y
la velocidad de la respuesta.
El an alisis previo puede extenderse al caso en que la matriz A
d
posee valores
propios repetidos, utilizando la forma de Jordan (Apendice F).
En ausencia de entrada, el estado del sistema evoluciona como una combi-
naci on de sus modos naturales, los cuales pertenecen a una clase denida de
funciones (Secci on 4.3.1). Estas se expresan como potencias de los autoval-
ores reales o complejos, tal como se aprecia en la ecuaci on (10.128), y est an
relacionadas con constantes, exponenciales reales, sinusoides puras o moduladas
por exponenciales, y otras funciones especiales que aparecen cuando hay auto-
valores repetidos.
Ejemplo 10.10. Para ilustrar estas ideas consideremos el sistema muestreado
que vimos en el Ejemplo 10.9. Si = 1, las matrices de la representaci on de
estado son:
A
d
=
_
0, 8913 0, 5525
0, 1768 0, 2283
_
; B
d
=
_
0, 3397
0, 5525
_
(10.130)
280 CAP

ITULO 10. REPRESENTACI

ON EN VARIABLES DE ESTADO.
respuesta!forzada
estabilidad
Los autovalores del sistema son las soluciones de la ecuaci on:
det(I A
d
) = det
__
0, 8913 0, 5525
0, 1768 0, 2283
__
(10.131)
= ( 0, 6703)( 0, 4493) = 0 (10.132)
Es decir,
1
= 0, 6703 y
2
= 0, 4493. Por lo tanto, la respuesta no forzada
es de la forma:
x
u
[t] = C
1
(0, 6702)
t
+C
2
(0, 4493)
t
(10.133)
donde C
1
y C
2
dependen s olo del estado inicial.
Podemos apreciar que cuando t tiende a innito, x
u
[t] se hace cero, ya que
[
1,2
[ < 1. Adem as, estos autovalores son reales positivos, por tanto los modos
naturales no contienen oscilaciones. Esto es esperable pues en el Ejemplo 10.9
se eligieron los par ametros de manera que el sistema masa-resorte resulta sobre
amortiguado.
222
Estructura de la respuesta forzada
Si se considera la ecuaci on (10.119) con condici on inicial cero, el estado s olo
exhibe su componente forzada. Adem as de los modos naturales, esta se nal in-
cluye los modos forzados o particulares, que dependen del tipo de se nal de
entrada u[t]. En general, los modos forzantes en la entrada tambien apare-
cer ann en la salida del sistema, excepto en el caso que alguna de ellos coincida
con alguno un modo natural del sistema.
Estabilidad
La estabilidad de un sistema lineal, de tiempo discreto e invariante en el
tiempo tambien puede ser analizada a traves de la matriz A
d
. Ya hemos es-
tablecido que todas las variables del sistema se pueden expresar como funciones
lineales del estado y la entrada. Cuando la entrada u[t] es un vector acotado en
el tiempo, entonces las variables del sistema permanecer an acotadas si y s olo si
el estado est a acotado. Tenemos entonces el siguiente resultado:
Teorema 10.2. Dado un sistema descrito en variables de estado por las ecua-
ciones (10.117)-(10.118), donde A
d
, B
d
, C
d
y D
d
tienen elementos acotados.
Entonces, el estado del sistema estar a acotado para toda entrada acotada si y
s olo si los autovalores de la matriz A
d
se encuentran en el interior del disco
unitario, i.e. [

[ < 1 ; .
222
Velocidad de respuesta y resonancia
Recordemos que los modos naturales de un sistema de tiempo discreto son
las potencias de los autovalores

. Estos autovalores siempre pueden expresarse


10.4. MODELOS DE ESTADOPARASISTEMAS DISCRETOS YMUESTREADOS281
transiente|seerespuesta!transitoria
respuesta!aescal on
resonancia
como un n umero complejo en su forma exponencial, por lo tanto, un modo
natural puede escribirse como:
(

)
t
=
_
[

[ e
j

_
t
= [

[
t
e
j

t
; donde

(10.134)
Por lo tanto, tenemos que:
La magnitud 0 < [

[ < determina la velocidad con la que el modo


decae a cero, en el caso de sistemas estables ([

[ < 1), o crece hasta


innito, para sistema inestables ([

[ > 1).
El angulo <

determina la frecuencia discreta de oscilaci on del


modo natural, medida en radianes.
A pesar que los modos naturales de un sistema estable decaen a cero, ellos
determinan la respuesta transiente del sistema. Para apreciar esto, generalmente
se utiliza la respuesta!a escal on del sistema, con condiciones iniciales cero.
Ejemplo 10.11. Consideremos el sistema dicreto de primer orden:
x[t + 1] =

x[t] +u[t] (10.135)


y[t] = (1

)x[t] (10.136)
Para obtener la respuesta a escal on, usamos la ecuaci on (10.123), donde
x
o
= 0 y u[t] = 1, t 0:
y[t] = C
d
_
t1

i=0
A
d
ti1
_
B
d
(10.137)
= (1

)
_
t1

i=0

ti1

_
= (1

)
t1

1
t

1
1

(10.138)
= 1
t

(10.139)
La salida, y[t] = y
h
[t] + y
p
[t] se muestra en la Figura 10.8, para diferentes
valores del unico autovalor

. El transiente est a dado por y


h
[t] =
t

, mientras
que la respuesta estacionaria es y
p
[t] = 1.
222
En la (10.134) apreciamos que los autovalores de un sistema determinan
la amortiguaci on de su respuesta transiente, sin embargo, tambien determinan
su frecuencia de oscilaci on (cuando los autovalores tienen parte imaginaria no
nula). El problema que puede surgir cuando existen estos modos resonantes
es an alogo al caso de tiempo continuo cuando la entrada el sistema contiene
una sinusoide u otra se nal con energa en la banda de frecuencias cercana a la
frecuencia de oscilaci on natural del sistema. A pesar que la salida del sistema
permanece acotada, ella puede alcanzar amplitudes intolerables para el sistema
fsico real.
282 CAP

ITULO 10. REPRESENTACI

ON EN VARIABLES DE ESTADO.
per odo!demuestreo
muestreo!per odode
0 1 2 3 4 5 6 7 8 9 10
0
0.2
0.4
0.6
0.8
1
tiempo discreto k
y
[
k
]
= 0.2
= 0.6
= 0.8
Figura 10.8: Respuesta a escal on del sistema para diferentes autovalores.
Ejemplo 10.12. Consideremos el sistema discreto por:
x[t + 1] =
_
1,2796 0, 81873
1 0
_
x[t] +
_
1
0
_
u[t] (10.140)
y[t] =
_
0 0, 5391

x[t] (10.141)
Los autovalores del sistema se obtiene a partir de A
d
:

1,2
= 0, 6398 j0, 6398 = 0, 9048 e
j

4
(10.142)
Los modos naturales asociados, presentes en la respuesta transiente, son:

t
1,2
= 0, 9048
t
e
j

4
t
= 0, 9048
t
_
cos
_

4
t
_
j sen
_

4
t
__
(10.143)
Los modos naturales est an levemente amortiguados, ya que [
1,2
[ es cercano
a 1, y muestra una oscilaci on de frecuencia

4
.
En los gr acos de la Figura 10.9 se muestra el efecto de resonancia en la
salida del sistema. En la parte superior, se ha considerado u[t] = sen
_

4
t
_
, es
decir, la entrada tiene la misma frecuencia que los modos naturales. En la parte
inferior, en tanto, la entrada es una se nal cuadrada de frecuencia

12
. En este
ultimo caso, la frecuencia de la tercera arm onica de la entrada coincide con
la de los modos naturales.
222
Efecto del perodo de muestreo
Si observamos las ecuaciones (10.112), podemos notar que las matrices A
d
y
B
d
dependen de la elecci on del perodo de muestreo . Esta elecci on tendr a un
efecto directo sobre la posici on de los polos del sistema.
Lema 10.5. Dado un sistema de tiempo continuo con
i
, . . . ,
n
, si este
sistema es muestreado con un perodo de muestreo , entonces los autovalores
del sistema discreto resultante son
1
, . . . ,

, en que:

= e

(10.144)
10.4. MODELOS DE ESTADOPARASISTEMAS DISCRETOS YMUESTREADOS283
0 5 10 15 20 25 30 35 40
5
0
5
tiempo discreto k
y[k]
u[k]
0 5 10 15 20 25 30 35 40
3
2
1
0
1
2
3
tiempo discreto k
y[k]
u[k]
Figura 10.9: Resonancia en la salida del sistema.
Demostraci on
La matriz del sistema de tiempo continuo A puede ser diagonalizada uti-
lizando sus autovalores:
A = T
1
diag
1
, . . . ,
n
T (10.145)
donde
1
, . . . ,
n
son los autovalores del sistema de tiempo continuo. En-
tonces, usando (10.112):
A
d
= e
A
= e
T
1
diag1,...,n]T
= e
T
1
diag1,...,n]T
= T
1
diage
1
, . . . , e
n
T (10.146)
donde el ultimo paso es consecuencia de la denici on de la exponencial de una
matriz (Apendice F). De esta forma, a partir de (10.146) resulta evidente que
los autovalores de A
d
son precisamente e
1
, . . . , e
n
.
222
En la Figura 10.10 se muestra la respuesta del sistema muestreado del Ejem-
plo 10.9, considerando x
1
[t] como la salida del sistema, cuando inicialmente
x
o
= [1 0]
T
, para diferentes valores de . Se debe notar que el eje horizontal
corresponde a los instantes discretos t, por tanto los instantes de tiempo reales
son t [seg.]
284 CAP

ITULO 10. REPRESENTACI

ON EN VARIABLES DE ESTADO.
retardo
0 2 4 6 8 10 12 14 16 18 20
0
0.5
1
Tiempo de muestreo =2
tiempo discreto k
x
1
[
k
]
0 2 4 6 8 10 12 14 16 18 20
0
0.5
1
Tiempo de muestreo =1
x
1
[
k
]
0 2 4 6 8 10 12 14 16 18 20
0
0.5
1
Tiempo de muestreo =0.5
x
1
[
k
]
Figura 10.10: Efecto del muestreo en los modos naturales
En base a lo anterior, es importante notar que:
La elecci on del perodo de muestreo es un aspecto fundamental a considerar
cuando se muestrea un sistema de tiempo continuo, de manera que sea los
sucientemente peque no para reejar elmente las se nales que se muestrean.
Ejemplo 10.13. Para ilustrat una mala elecci on de , supongamos una se nal
f(t) = Asen(
o
t) que es muestreada cada segundos, con = 2/, N.
Entonces, la se nal discreta resultante es f[t] = 0, t Z, es decir, una constante
!
222
Sistemas muestreados y retardos
En la secci on 10.3, mencionamos que no es posible describir sistemas con
retardos puros mediante modelos en variables de estado de dimensi on nita. Sin
embargo, este problema se puede ser evitado muestreando las se nales. Esto se
ilustra a traves del siguiente ejemplo.
Ejemplo 10.14. Considere el sistema termico que se bosqueja en la Figura
10.11. La temperatura medida en el caudal, y(t), depende de la potencia que
10.4. MODELOS DE ESTADOPARASISTEMAS DISCRETOS YMUESTREADOS285
u(t)
Sensor
y(t)
flujo
Calefactor
Figura 10.11: Sistema termico con retardo.
entregue al udo la fuente de calor. Esta es controlado por una se nal de control
u(t). Los cambios en u(t) producen cambios en la temperatura y(t), pero con un
retardo de tiempo no despreciable. El sistema linealizado se representa mediante
la funci on de transferencia:
Y (s)
U(s)
= H(s) =
e
s
K
s +
(10.147)
Donde U(s) e Y (s) son las transformadas de Laplace de u(t) e y(t) respec-
tivamente.
Supongamos luego que las se nales de entrada y salida son muestreadas cada
[s]. El retardo , tambien en segundos, es funci on de la velocidad del ujo y
podemos suponer, por simplicidad, que es un m ultiplo del intervalo de muestreo
, es decir, = m, m Z
+
. Este retardo se convierte en un factor z
m
en el
denominador de la funci on de transferencia en el dominio de la transformada
Zeta. Es decir, el retardo se convierte en un conjunto de m polos en el origen.
Adem as, en base a la ecuaci on (10.144), el autovalor del sistema continuo en
s = se transforman en un autovalor del sistema discreto en z = e

. La
funci on de transferencia resultante es:
Y [z]
U[z]
= H[z] =
K

1 e

z
m
(z e

)
(10.148)
que puede expresarse mediante el modelo de estado discreto:
x
1
[t + 1] = x
2
[t] (10.149)
x
2
[t + 1] = x
3
[t] (10.150)
.
.
.
.
.
.
x
m
[t + 1] = x
m+1
[t] (10.151)
x
m+1
[t + 1] = e

x
m+1
[t] +
K

(1 e

)u[t] (10.152)
y[t] = x
1
[t] (10.153)
A un m as, podemos interpretar las variables de estado x
m+1
[t], . . . , x
1
[t] co-
mo la temperatura en puntos equiespaciados entre el calefactor y el sensor de
temperatura (suponiendo un caudal de velocidad constante).
222
286 CAP

ITULO 10. REPRESENTACI

ON EN VARIABLES DE ESTADO.
transformaci ondelestado
estado!transformaci on
similaridad
funci ondetransferencia
matriz!adjunta
Cuando el retardo no es m ultiplo exacto del perodo de muestreo , en la
funci on de transferencia aparecen un polo y un cero adicionales (consulte, por
ejemplo, [6]).
10.4.4. Transformaciones de similaridad
Las diferentes elecciones del vector de estado para sistemas discretos se rela-
cionan de la misma manera que para sistemas de tiempo continuo a traves de las
transformaciones de similaridad (Secci on 10.3.3). De igual forma, muchas de
las propiedades del sistema, como la ubicaci on de las frecuencias naturales o au-
tovalores, la controlabilidad y la observabilidad tambien permanecen invariantes
ante este tipo de transformaciones.
10.4.5. Espacio de estado y funciones de transferencia
Para los sistemas de tiempo discreto la relaci on entre los modelos en variables
de estado y aquellos mediante funciones de transferencia es an aloga al caso de
tiempo continuo (Secci on 10.3.4).
Como hemos mencionado, el modelo en variables de estado de un sistema
lineal, invariante en el tiempo es una descripci on alternativa a la funci on de
transferencia, que a menudo entrega mayor informaci on sobre el sistema.
Para un sistema de tiempo discreto, lineal e invariante, con entrada u[t] R
m
y salida y[t] R
p
, la funci on de transferencia, H[z], est a denida como:
Y[z] = H[z]U[z]; where [H[z]]
ij
=
Y
i
[z]
U
j
[z]
(10.154)
Es decir, el elemento (i, j) en la matriz H[z] es la transformada Zeta de la
respuesta en la i-esima salida cuando se aplica un delta de Kronecker de am-
plitud unitaria en la j-esima entrada, con condiciones iniciales cero y las dem as
entradas son iguales a cero t 0.
Por otro lado, si se aplica transformada Zeta a modelo en variables de estado
de tiempo discreto (10.117)-(10.118), con condiciones iniciales cero, tenemos:
X[z] = (zI A
d
)
1
B
d
U[z] (10.155)
Y[z] = C
d
X[z] +D
d
U[z] (10.156)
que se reduce a:
C
d
(zI A
d
)
1
B
d
+D
d
= H[z] (10.157)
En adelante, nos concentraremos en los sistemas escalares o SISO, i.e. m =
p = 1, B
d
, C
d
T
son vectores columna, y D
d
= H[]. Podemos apreciar que en
este caso H[z] es un cuociente de polinomios en la variable z, i.e.
H[z] =
C
d
Adj(zI A
d
) B
d
+D
d
det(zI A
d
)
det(zI A
d
)
(10.158)
donde Adj() denota la matriz adjunta de la matriz () (ver Apendice F.
10.5. MODELOS DE ESTADO PARA SISTEMAS INTERCONECTADOS287
cancelaci on
realizaci onm nima
sistema!interconexi on
An alogamente al caso de tiempo continuo, podemos observar que los polos
de la funci on de transferencia pertenecen al conjunto de autovalores de la ma-
triz A
d
. Sin embargo, como se aprecia en el Ejemplo 10.7 en la p agina 271,
para el caso continuo, puede suceder que algunos de los autovalores de A
d
no
aparezcan como polos de la funci on de transferencia. Esto implica la existencia
de cancelaciones entre polos y ceros de la funci on de transferencia (ver Secciones
10.6.1 y 10.6.2, m as adelante).
El resultado central para sistemas de tiempo discreto es el mismo que para el
caso de sistemas de tiempo continuo : la funci on de transferencia puede
no aportar la misma informaci on que el modelo en variables de
estado para un mismo sistema.
Para obtener un modelo en variables de estado a partir de la funci on de
transferencia de un sistema discreto, podemos usar el mismo procedimiento
propuesto para sistemas continuos en la Secci on 10.3.4. En este caso, usamos
la transformada Zeta en lugar de la transformada de Laplace, que satisface la
propiedad (ver Apendice E):
F[z] = Z f[t] zF[z] = Z f[t + 1] (10.159)
Ejemplo 10.15. Consideremos el sistema discreto dado por su funci on de
transferencia:
H[z] =
2z
2
z + 1
(z 0, 8)(z 0, 6)
=
1,8z + 0, 04
z
2
1,4z + 0, 48
+ 2 (10.160)
Una realizaci on mnima para este sistema est a dada por las matrices:
A
d
=
_
0 1
0, 48 1,4
_
; B
d
=
_
0
1
_
(10.161)
C
d
=
_
0, 04 1,8

; D
d
= 2 (10.162)
222
Para sistemas de tiempo discreto tambien tenemos que la funci on de
transferencia del sistema es invariante respecto a transformaciones
de similaridad.
10.5. Modelos de estado para sistemas interconec-
tados
Para construir modelos en espacio de estados de sistemas complejos estos
pueden ser a menudo descritos como la interconexi on de sistemas m as simples.
Esta interconexi on es usualmente la combinaci on de tres tipos b asicos de es-
tructuras: conexi on en serie, en paralelo y en realimentaci on. En cada uno de
288 CAP

ITULO 10. REPRESENTACI

ON EN VARIABLES DE ESTADO.
conexi on!serie(cascada)
serie!conexi on
cascada|seeconexi on
conexi on!paralelo
paralelo!conexi on
estos casos nos interesa obtener un modelo en variables de estado del sistema
completo resultante.
Para el an alisis que sigue consideramos dos sistemas, denidos mediante su
modelo en variables de estado:
Sistema 1:
_
_
_
dx
1
(t)
dt
= A
1
x
1
(t) +B
1
u
1
(t)
y
1
(t) = C
1
x
1
(t) +D
1
u
1
(t)
(10.163)
Sistema 2:
_
_
_
dx
2
(t)
dt
= A
2
x
2
(t) +B
2
u
2
(t)
y
2
(t) = C
2
x
2
(t) +D
2
u
2
(t)
(10.164)
Conexi on en serie
La interconexi on de sistemas que se muestra en la Figura 10.12 se denomina
conexi on en serie o en cascada. Para obtener el modelo de estado deseado,
observamos que y
2
(t) = u
1
(t). Adem as, el sistema completo tiene como entrada
u(t) = u
2
(t), y como salida y(t) = y
1
(t). Con esto se obtiene:
_
x
1
(t)
x
2
(t)
_
=
_
A
1
B
1
C
2
0 A
2
_ _
x
1
(t)
x
2
(t)
_
+
_
B
1
D
2
B
2
_
u(t) (10.165)
y(t) =
_
C
1
D
1
C
2

_
x
1
(t)
x
2
(t)
_
+D
1
D
2
u(t) (10.166)
x (t)
1 2
x (t)
u (t)
1
y (t)
1
y(t) u(t)
u (t)
2 2
y (t)
Figura 10.12: Conexi on de sistemas en serie
Conexi on en paralelo
La interconexi on de sistemas que se muestra en la Figura 10.13 se denomina
conexi on en paralelo. Para obtener el modelo de estado deseado, observamos
que la entrada es u(t) = u
1
(t) = u
2
(t) y que la salida para el sistema se expresa
como y(t) = y
1
(t) +y
2
(t). De esta forma, se obtiene:
_
x
1
(t)
x
2
(t)
_
=
_
A
1
0
0 A
2
_ _
x
1
(t)
x
2
(t)
_
+
_
B
1
B
2
_
u(t) (10.167)
y(t) =
_
C
1
C
2

_
x
1
(t)
x
2
(t)
_
+D
1
+D
2
u(t) (10.168)
10.5. MODELOS DE ESTADO PARA SISTEMAS INTERCONECTADOS289
conexi on!realimentaci on
realimentaci on
feedback!seerealimentaci on
lazodecontrol
planta
controlador
x (t)
1
y (t)
1
y (t)
2
u (t)
2
u (t)
1
y(t) u(t)
2
x (t)
+
+
Figura 10.13: Conexi on de sistemas en paralelo
Conexi on en realimentaci on
La interconexi on de sistemas que se muestra en la Figura 10.14 se denomina
conexi on en realimentaci on o feedback (con realimentaci on negativa unitaria), y
aparece normalmente asociada a la estructura b asica del lazo de control reali-
mentado, donde S
1
es la planta y S
2
es el controlador. Para obtener el modelo en
variables de estado del sistema en su conjunto, podemos apreciar que la entrada
al sistema completo satisface la ecuaci on u(t) = u
2
(t) + y
1
(t), y que la salida
del sistema es y(t) = y
1
(t). Si suponemos adem as que el sistema S
1
(la planta)
es estrictamente propia, es decir, D
1
= 0, se obtiene:
_
x
1
(t)
x
2
(t)
_
=
_
A
1
B
1
D
2
C
1
B
1
C
2
B
2
C
1
A
2
_ _
x
1
(t)
x
2
(t)
_
+
_
B
1
D
2
B
2
_
u(t) (10.169)
y(t) =
_
C
1
0

_
x
1
(t)
x
2
(t)
_
(10.170)
x (t)
1 2
x (t)
y (t)
1
y(t) u(t) u (t)
2
y (t)
2
1
u (t)
+

Figura 10.14: Conexi on de sistemas en realimentaci on (feedback)


Es importante notar que es posible aplicar los mismos resultados anteriores
a modelos de estado de sistemas de tiempo discreto interconectados. El lector
interesado en m as detalles puede consultar, por ejemplo, [22].
290 CAP

ITULO 10. REPRESENTACI

ON EN VARIABLES DE ESTADO.
sistema!propiedades
control
controlabilidad
sistema!controlable
estado!controlable
alcanzabilidad
sistema!alcanzable
estado!alcanzable
10.6. Propiedades de los sistemas
10.6.1. Controlabilidad, Alcanzabilidad y Estabilizabilidad
Una cuesti on de interes, en especial pensando en el control de sistemas, es
bajo que condiciones es posible llevar el vector de estado a un punto especco
del espacio de estado, a traves de las se nales de entrada al sistema. Debemos
recordar que el estado de un sistema a menudo est a formado por variables
internas de este, tales como temperatura, presi on, el nivel de alg un estanque
u otras, que en pueden ser crticas e interesa mantenerlas controladas entre
algunos valores especcos. En esta secci on se revisan conceptos relacionados
con este objetivo.
Controlabilidad
El concepto de controlabilidad se reere a determinar si, a partir de una
condici on inicial x
0
, es posible o no llevar el vector de estado al origen,
x = 0, en un tiempo nito, usando la entrada u(t).
Ejemplo 10.16. Si observamos el modelo denido en (10.171), podemos apre-
ciar que la entrada u(t) no tiene efecto alguno sobre el estado x
2
(t).
_
x
1
(t)
x
2
(t)
_
=
_
0 1
0 0
_ _
x
1
(t)
x
2
(t)
_
+
_
1
0
_
u(t) (10.171)
Dado un estado inicial [x
1
(0), x
2
(0)]
T
, la entrada u(t) puede ser elegida para
llevar x
1
(t) a cero, mientras que x
2
(t) no sufre ning un cambio. Diremos que
este sistema no es completamente controlable.
222
Formalmente, tenemos la siguiente denici on:
Denici on 10.1. Un estado x
o
se dice controlable si existe un intervalo de
tiempo nito [0, T] y una entrada u(t), t [0, T] tal que x(T) = 0. Si todos
los estados son controlables, entonces se dice que el sistema es completamente
controlable.
Alcanzabilidad
Un concepto relacionado con la controlabilidad es la alcanzabilidad, usado
en general para sistemas de tiempo discreto. Formalmente se dene como:
Denici on 10.2. Un estado x ,= 0 se dice alcanzable desde el origen, si dado
x(0) = 0, existe un intervalo de tiempo nito [0, T] y una entrada u(t), t
[0, T] tal que x(T) = x. Si todos los estados del sistema son alcanzables se dice
que el sistema es completamente alcanzable.
10.6. PROPIEDADES DE LOS SISTEMAS 291
controlabilidad!test
alcanzabilidad!test
controlabilidad!matriz
matriz!decontrolabilidad
Para sistemas de tiempo continuo, lineales e invariantes, completa contro-
labilidad y alcanzabilidad son equivalentes. Sin embargo, el ejemplo siguiente
ilustra una diferencia entre estas propiedades para sistemas de tiempo discreto.
Ejemplo 10.17. Considere el sistema y la salida:
x[t + 1] =
_
0, 5 1
0, 25 0, 5
_
. .
A
d
x[t] =x[t] =
_
0, 5 1
0, 25 0, 5
_
t
x[0] (10.172)
Podemos apreciar que el sistema es completamente controlable, pues x[t] = 0,
t 2 y x[0] R
2
. Esto implica que cualquier estado inicial es controlable.
Sin embargo, ning un estado diferente de cero es alcanzable desde el origen, ya
que si x[0] = 0, entonces x[t] = 0, t N.
222
Dada esta distinci on entre controlabilidad y alcanzabilidad para sistemas dis-
cretos, en adelante usaremos el termino controlabilidad para referirnos al m as
fuerte de ambos conceptos. Sin embargo, en el contexto de sistemas lineales e in-
variantes en el tiempo, por lo general se habla indistintamente de controlabilidad
y alcanzabilidad.
Test de controlabilidad
Dado que no siempre es posible, a priori, determinar si un sistema es o no
controlable, se presenta a continuaci on una manera sistem atica para determinar
la completa controlabilidad de un sistema. Los conceptos involucrados sobre
matrices pueden ser consultados en el Apendice F.
Teorema 10.3. Considere el modelo de estado lineal e invariante en el tiempo,
donde A R
nn
:
x(t) = Ax(t) +Bu(t) (10.173)
y(t) = Cx(t) +Du(t) (10.174)
(i) El conjunto de todos los estados controlables es el espacio rango de la
matriz de controlabilidad
c
[A, B] donde:

c
[A, B]
Z
=
_
B AB A
2
B . . . A
n1
B

(10.175)
(ii) El modelo es completamente controlable si y s olo si
c
[A, B] tiene rango
la completo.
222
Ejemplo 10.18. Considere el modelo en variables de estado dado por (10.171),
con matrices de estado:
A =
_
0 1
0 0
_
; B =
_
1
0
_
(10.176)
292 CAP

ITULO 10. REPRESENTACI

ON EN VARIABLES DE ESTADO.
similaridad
controlabilidad!p erdida
La matriz de controlabilidad del sistema es:

c
[A, B] = [B, AB] =
_
1 0
0 0
_
(10.177)
Claramente, el rango
c
[A, B] = 1, por tanto el sistema no es completa-
mente controlable.
222
Este test puede ser aplicado indistamente para analizar la controlabilidad de
sistemas de tiempo continuo y la alcanzabilidad de sistemas de tiempo discreto.
La controlabilidad de un sistema es otra de las propiedades que no depende
de la elecci on de las variables de estado. Si consideramos una transformaci on de
similaridad arbitraria T (ver Secci on 10.3.3) observamos que:
A
n
= (T
1
AT)(T
1
AT) . . . (T
1
AT)
= T
1
A(TT
1
)A(TT
1
) . . . (TT
1
)AT = T
1
A
n
T (10.178)
para todo n N, por lo tanto:

c
[ A, B ] = T
1

c
[A, B] (10.179)
Esto implica que la matrices
c
[ A, B ] y
c
[A, B] tienen el mismo rango,
pues T es no singular.
El lector puede vericar que los modelos en variables de estado usados para
describir se nales en la Secci on 10.2.3 corresponden son no controlables. De he-
cho, cualquier modelo de estado en que B = 0 resulta ser no controlable
.
Perdida de controlabilidad
La falta de controlabilidad en un sistema en ocasiones puede originarse en la
estructura misma del sistema, sin embargo, en otras ocasiones depende del valor
numerico de ciertos par ametros. Esto se ilustra a traves del siguiente ejemplo.
Ejemplo 10.19. Considere el circuito en la Figura 10.15 en la p agina siguiente.
En primer lugar, nos interesa obtener un modelo de el en variables de estado.
Eligiendo como variables de estado x
1
(t) = i
R1
(t) y x
2
(t) = v
C3
(t), y usando
leyes b asicas de redes electricas para la parte izquierda del circuito, tenemos que:
i
C1
= C
1
d
dt
(v
i
v
+
); i
R1
=
v
i
v
+
R
1
; i
R2
=
v
+
R
2
; i
C1
= i
R2
i
R1
(10.180)
Lo que permite obtener:
di
R1
(t)
dt
=
(R
1
+R
2
)
C
1
R
1
R
2
i
R1
(t) +
1
C
1
R
1
R
2
v
i
(t) (10.181)
v
+
(t) = R
1
i
R1
(t) +v
i
(t) (10.182)
10.6. PROPIEDADES DE LOS SISTEMAS 293
R
1 i (t)
R1
v (t)
+
v (t)

v (t)
C3
v (t)
o
C
3
R
3
2
R C
1
v (t)
i
+

Op.Amp.
Figura 10.15: Circuito electr onico para el Ejemplo 10.19.
De manera similar, para el lado derecho del circuito tenemos que:
dv
C3
(t)
dt
=
1
R
3
C
3
v
C3
(t) +
1
R
3
C
3
v

(t) (10.183)
v
o
(t) = v
C3
(t) (10.184)
El amplicador operacional (ideal) asegura que v
+
(t) = v

(t), por tanto,


podemos combinar (10.181)(10.184) para obtener:
_

_
di
R1
(t)
dt
dv
C3
(t)
dt
_

_ =
_

(R
1
+R
2
)
C
1
R
1
R
2
0

R
1
R
3
C
3

1
R
3
C
3
_

_
_
i
R1
(t)
v
C3
(t)
_
+
_

_
1
C
1
R
1
R
2
1
C
3
R
3
_

_v
i
(t) (10.185)
v
o
(t) =
_
0 1

_
i
R1
(t)
v
C3
(t)
_
(10.186)
La matriz de controlabilidad est a dada por:

c
[A, B] =
_
B AB
_
=
_

_
1
R
1
R
2
C
1
(R
1
+R
2
)
(R
1
R
2
C
1
)
2
1
R
3
C
3
(R
2
C
1
+R
3
C
3
)
(R
3
C
3
)
2
R
2
C
1
_

_
(10.187)
y su determinante es igual a:
det (
c
[A, B]) =
R
2
(R
1
R
2
R
3
C
1
C
2
)
2
(R
1
C
1
+R
3
C
3
) (10.188)
donde se observa que el sistema es completamente controlable si y s olo si:
R
1
C
1
,= R
3
C
3
(10.189)
294 CAP

ITULO 10. REPRESENTACI

ON EN VARIABLES DE ESTADO.
cancelaci on
gramiano!controlabilidad
controlabilidad!gramiano
Esta condici on tiene una interpretaci on muy importante desde el punto de
vista de la funci on de transferencia del sistema. Si se aplica transformada de
Laplace a las ecuaciones (10.181)(10.184), la funci on de transferencia desde
V
i
(s) a V
o
(s), recordando que V
+
(s) = V

(s), est a dada por:


V
o
(s)
V
i
(s)
=
V
o
(s)
V

(s)
V
+
(s)
V
i
(s)
=
1
R
3
C
3
_
s +
1
R
3
C
3
_
_
s +
1
R
1
C
1
_
_
s +
R
1
+R
2
R
1
R
2
C
1
_ (10.190)
Donde se aprecia que la perdida de la completa controlabilidad cuando R
1
C
1
=
R
3
C
3
(obtenida a partir de (10.188)), se traduce en una cancelaci on de un
cero con un polo en la funci on de transferencia. Siendo m as especco, el cero
de la mitad izquierda del circuito en la Figura 10.15 se cancela con el polo de
la otra parte del circuito. Este hecho ser a analizado con mayor detalle en la
Secci on 10.6.3.
222
Gramiano de controlabilidad
El test de controlabilidad da una respuesta armativa o negativa sobre la
(completa) controlabilidad de un sistema dado. Sin embargo, el saber que un
sistema es completamente controlable no dice nada respecto a que grado de
controlabilidad el sistema posee, es decir, que tan difcil es controlar un estado
del sistema.
Para sistemas estables es posible cuanticar el esfuerzo de control a traves
de la energa involucrada en la se nal de entrada u(t) aplicada desde t =
para alcanzar el estado x(0) = x
0
en t = 0:
J(u) =
_
0

|u(t)|
2
dt =
_
0

u(t)
T
u(t)dt (10.191)
Se puede demostrar [1] que la energa de control mnima necesaria es:
J(u
opt
) = x
T
0
P
1
x
0
0 (10.192)
donde
P =
_

0
e
At
BB
T
e
A
T
t
dt (10.193)
La matriz P R
n
se denomina gramiano de controlabilidad, y es una
medida de la controlabilidad del vector de estado x(0).
Para apreciar por que esta matriz proporciona una medida de controlabili-
dad relativa, podemos recurrir a los resultados del Apendice F. Esta matriz P
es simetrica y por tanto todos sus autovalores
1
,
2
, . . . ,
n
son reales y dis-
tintos, y sus autovectores asociados v
1
, v
2
, . . . , v
n
son ortogonales y pueden
10.6. PROPIEDADES DE LOS SISTEMAS 295
Lyapunov!ecuaci on
gramiano!controlabilidad!tiempodiscreto
controlabilidad!gramiano!tiempodiscreto
elegirse de norma unitaria, es decir, |v
i
|
2
= v
T
i
v
i
= 1. Entonces, la matriz
puede escribirse como:
P =
n

i=1

i
v
i
v
T
i
P
1
=
n

i=1

1
i
v
i
v
T
i
(10.194)
Adem as, dado un vector x
0
R
n
, existen constantes reales
1
, . . . ,
n
tales
que:
x
0
=
n

i=1

i
v
i
(10.195)
As, sin perdida de generalidad, la ecuaci on (10.192) se puede re-escribir
como:
J(u
opt
) = x
T
0
P
1
x
0
=
n

i=1

2
i

1
i
(10.196)
De (10.196) se observa que si x
0
est a alineado con v

, donde

es muy
peque no, entonces el costo (energa) de llevar el estado desde el origen, en t =
, hasta x
0
en t = 0, es muy grande y diremos que ese estado en particular
es difcilmente controlable.
Volviendo a la ecuaci on (10.193), es importante destacar que la existencia
de esta integral est a garantizada pues el sistema es estable, y por lo tanto todos
los autovalores de la matriz A tienen parte real negativa. Es m as, el gramiano
de controlabilidad P denido en (10.193) satisface la ecuaci on de Lyapunov:
AP+PA
T
+BB
T
= 0 (10.197)
Para sistemas de tiempo discreto, se puede realizar un an alisis similar, donde
el gramiano de controlabilidad se dene como:
P
d
=

t=0
A
d
t
B
d
B
d
T
(A
d
T
)
t
(10.198)
que satisface la ecuaci on de Lyapunov
A
d
P
d
A
d
T
P
d
+B
d
B
d
T
= 0 (10.199)
La suma denida (10.198) existe si y s olo si el sistema de tiempo discreto es
estable, lo cual equivale a restringir los autovalores al interior del disco unitario:
Ejemplo 10.20. Consideremos nuevamente el modelo del circuito en el Ejem-
plo 10.19 en la p agina 292, dado por(10.185)-(10.186). Si queremos apreciar
la informaci on dada por el gramiano de controlabilidad, denido en (10.193),
cuando el modelo est a cerca de perder la completa controlabilidad, podemos con-
siderar valores para los par ametros que aseguren R
1
C
1
R
3
C
3
. En particular,
elegimos:
R
1
= R
2
= R
3
= 1[K]; C
1
= 0,9[mF]; C
3
= 1[mF] (10.200)
296 CAP

ITULO 10. REPRESENTACI

ON EN VARIABLES DE ESTADO.
Note que hemos utilizado unidades especiales, donde mF corresponde a 10
3
[F] y K a 10
3
[]. Esto hace que el tiempo sea medido en segundos, la corriente
en mili-amperes y la tensi on, en Volts.
El modelo de estado queda descrito por:
_

i
R1
(t)
v
C3
(t)
_
=
_

20
9
0
1 1
_ _
i
R1
(t)
v
C3
(t)
_
+
_
10
9
1
_
v
i
(t) (10.201)
v
o
(t) =
_
0 1

_
i
R1
(t)
v
C3
(t)
_
(10.202)
En este caso, algunos estados, es decir ciertas combinaciones de valores de
valores para i
R1
y v
C3
, son m as difciles de alcanzar que otros. Para vericar
esto podemos calcular el gramiano de controlabilidad denido en (10.193), re-
solviendo:
0 = AP+PA
T
+BB
T
(10.203)
0 =
_

20
9
0
1 1
_ _
p
11
p
12
p
21
p
22
_
+
_
p
11
p
12
p
21
p
22
_ _

20
9
1
0 1
_
+
_
10
9
1
_
_
10
9
1

(10.204)
Usando Matlab obtenemos:
Matlab
>> A=[-20/9 0; -1 -1];
>> B=[10/9 ; 1];
>> C=[1 0];
>> S=ss(A,B,C,0);
>> P=gram(S,c)
>> inv(P)
P =
_
0,2778 0,2586
0,2586 0,2414
_
P
1
= 10
3

_
1,4616 1,5660
1,5660 1,6820
_
(10.205)
Los autovalores de P son
1
= 0,0003 y
2
= 0,5188 con sus correspondientes
autovectores v
1
= [0,6818 0,7315]
T
y v
2
= [0,7315 0,6818]
T
.
As podemos calcular, usando la ecuaci on (10.192), la mnima energa de
control necesaria para llevar el estado x(t), from 0 in t = , to x
0
in t = 0.
Suponemos que x
0
is colineal con los autovectores:
x
0
= v
1
J(u
opt
) = 3141,7 (10.206)
x
0
= v
2
J(u
opt
) = 1,9274 (10.207)
donde claramente se verica que la energa de control para alcanzar el estado
x
0
= v
1
es tres ordenes de magnitud mayor que la necesaria para alcanzar
x
0
= v
2
.
10.6. PROPIEDADES DE LOS SISTEMAS 297
cancelaci on!cuasi-
descomposici oncan onica!alcanzabilidad
subespacio!controlable
Tambien, si substitutimos los valores numericos de los par ametros en la
ecuaci on (10.190), vemos que la funci on de transferencia resulta ser:
V
o
(s)
V
i
(s)
=
1
(s + 1)
_
s + 1 +
1
9
_
_
s +
20
9
_ (10.208)
donde observamos una cuasi-cancelaci on de un polo con un cero.
222
Es posible generalizar el concepto de gramiano para inclur el caso de sis-
temas inestables, como el lector interesado puede conocer consultando [23].
Descomposici on can onica y estabilizabilidad
En el caso que un sistema no sea completamente controlable, este puede
decomponerse en un subsistema controlable y completamente incontrolable
tal como establece el siguiente lema.
Lema 10.6. Considere un sistema para el cual rango
c
[A, B] = t < n,
entonces existe una transformaci on de similaridad x = T
1
x, en que las nuevas
matrices de estado tienen la forma:
A = T
1
AT =
_
A
c
A
12
0 A
nc
_
(10.209)
B = T
1
B =
_
B
c
0
_
(10.210)
donde A
c
tiene dimensi on k y el par (A
c
, B
c
) es completamente controlable.
222
Este resultado establece cu ales estados pueden y cu ales no pueden ser lleva-
dos a cero. Para apreciar mejor este hecho, expresemos el estado y la salida de
la forma:
_

x
c

x
nc
_
=
_
A
c
A
12
0 A
nc
_ _
x
c
x
nc
_
+
_
B
c
0
_
u (10.211)
y =
_
C
c
C
nc

_
x
c
x
nc
_
+Du (10.212)
El subespacio controlable del modelo en variables de estado est a com-
puesto por todos los estados generados como combinaci on de los estados en
x
c
. La estabilidad de este subespacio est a determinada por la ubicai on de los
autovalores de la matriz A
c
.
Por otra parte, el subespacio no controlable est a formado por todos los
estados generador como combinaci on lineal de los estados en x
nc
, y su estabilidad
queda determinada por los autovalores de la matriz A
nc
.
298 CAP

ITULO 10. REPRESENTACI

ON EN VARIABLES DE ESTADO.
estabilizabilidad
sistema!estabilizable
cancelaci on
formacan onica!controlable
controlabilidad!formacan onica
formacan onica!delcontrolador
controlador!formacan onica
De esta forma, la entrada no tiene efecto alguno sobre el subespacio no
controlable, por lo que podramos esperar que este subespacio fuera al menos
estable, de manera que sus estados decaigan naturalmente al origen. En este
caso el modelo en variables de estado se denomina estabilizable.
Una consecuencia clave de la descripci on dada por (10.211)-(10.212) es el
hecho que la funci on de transferencia queda dada por:
H(s) = C
c
(sI A
c
)
1
B
c
+D (10.213)
La ecuaci on (10.213) dice que los autovalores del subespacio no controlable
no aparecen como polos de la funci on de transferencia. Esto implica que existe
una cancelaci on de los polos correspondientes a las races de det(sI A
nc
).
Forma can onica controlable
Lema 10.7. Considere un modelo de estado completamente controlable para
un sistema SISO. Entonces, existe una transformaci on de similaridad tal que el
modelo de estado se puede expresar en la forma can onica controlable:
A
t
=
_

_
0 0 . . . 0
0
1 0 . . . 0
1
0 1 . . . 0
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 1
n1
_

_
B
t
=
_

_
1
0
0
.
.
.
0
_

_
(10.214)
donde:

n
+
n1

n1
+ +
1
+
0
= det(I A) (10.215)
es el polinomio caracterstico de A.
222
Lema 10.8. Considere un modelo de estado completamente controlable para un
sistema SISO. Entonces, existe una transformaci on de similaridad que convierte
el modelo de estado en la forma can onica del controlador:
A
tt
=
_

n1

n2
. . .
1

0
1 0 . . . 0 0
0 1 . . . 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 1 0
_

_
B
tt
=
_

_
1
0
0
.
.
.
0
_

_
(10.216)
donde:

n
+
n1

n1
+ +
1
+
0
= det(I A) (10.217)
es el polinomio caracterstico de A.
222
10.6. PROPIEDADES DE LOS SISTEMAS 299
observabilidad
estado!observable
sistema!observable
reconstructibilidad
10.6.2. Observabilidad, Reconstructibilidad y Detectabil-
idad
Si consideramos el modelo de estado de un sistema dado, podemos es razon-
able suponer que si se observa su salida durante un intervalo de tiempo, entonces
podramos obtener informaci on sobre su estado. La propiedad asociada a este
concepto se denomina observabilidad.
Observabilidad
La observabilidad de un sistema se reere a la informaci on que se puede
obtener sobre el estado a partir de mediciones de su salida.
Ejemplo 10.21. Si consideramos el sistema denido por el modelo en variables
de estado:
_
x
1
(t)
x
2
(t)
_
=
_
1 0
1 1
_ _
x
1
(t)
x
2
(t)
_
y(t) =
_
1 0

_
x
1
(t)
x
2
(t)
_
(10.218)
Podemos apreciar que y(t) queda determinada por x
1
(t), mientras que la otra
variable de estado x
2
(t) no tiene inuencia alguna sobre la salida. Por tanto el
sistema no es completamente observable, es decir, existe una parte del estado
de la cual nunca se obtendr a informaci on alguna.
222
Se puede formalizar la denici on de observabilidad de la siguiente forma:
Denici on 10.3. El estado x
o
,= 0 se dice no observable si dado x(0) = x
o
,
y u(t) = 0 para t 0, entonces y(t) = 0 para t 0, es decir, la condici on
inicial x
o
no tiene efecto alguno sobre la salida del sistema.
El sistema se dice completamente observable si no existe estado inicial,
diferente de cero, que sea no observable.
Reconstructibilidad
Otro concepto estrechamente relacionado al de observabilidad, es el que se
denomina reconstructibilidad. Este, para sistemas de tiempo discreto, se re-
ere a que se puede decir de x(K), habiendo observado valores pasados de la
salida y[t], durante 0 t K.
Para sistemas de tiempo continuo, lineales e invariantes, no es necesario hacer
distinci on entre observabilidad y reconstructibilidad. Sin embargo, el siguiente
ejemplo ilustra que para sistemas de tiempo discreto, estos conceptos son difer-
entes.
Ejemplo 10.22. Considere el modelo en espacio de estado:
x[t + 1] = 0 x[0] = x
o
(10.219)
y[t] = 0 (10.220)
300 CAP

ITULO 10. REPRESENTACI

ON EN VARIABLES DE ESTADO.
observabilidad!test
observabilidad!matriz
matriz!deobservabilidad
Este sistema es claramente reconstruible para todo K 1, ya que sabemos
que x[K] = 0 para K 1. Sin embargo, es no observable pues y[t] = 0, t sin
importar x
o
.
Dada la diferencia entre los conceptos de observabilidad y reconstructibil-
idad, en adelante usaremos el termino observabilidad para referirnos al m as
fuerte de ambos conceptos.
Test de observabilidad
Para contar con un criterio que permita determinar si un sistema es o no
observable, se presenta a continuaci on el siguiente teorema.
Teorema 10.4. Considere el sistema en variables de estado, continuo, lineal e
invariante en el tiempo:
x(t) = Ax(t) +Bu(t) (10.221)
y(t) = Cx(t) +Du(t) (10.222)
donde A R
nn
.
(i) El conjunto de estados no observables es igual al subespacio nulo de la
matriz de observabilidad
o
[A, C] donde:

o
[A, C]
Z
=
_

_
C
CA
.
.
.
CA
n1
_

_
(10.223)
(ii) El sistema es completamente observable si y solo si
o
[A, C] tiene rango
columna completo n.
222
Este test de observabilidad puede aplicarse indistintamente a sistemas de
tiempo discreto y continuo.
Ejemplo 10.23. Considere el siguiente modelo en espacio de estado:
A =
_
3 2
1 0
_
; B =
_
1
0
_
; C =
_
1 1

(10.224)
La matriz de observabilidad est a dada por:

o
[A, C] =
_
C
CA
_
=
_
1 1
4 2
_
(10.225)
Entonces el rango de
o
[A, C] = 2, lo que dice que el sistema es completa-
mente observable.
222
10.6. PROPIEDADES DE LOS SISTEMAS 301
observabilidad!p erdida
Ejemplo 10.24. Si observamos el modelo denido en (10.218), tenemos:
A =
_
1 0
1 1
_
; C =
_
1 0

(10.226)
La matriz de observabilidad es:

o
[A, C] =
_
1 0
1 0
_
(10.227)
El rango de
o
[A, C] = 1 < 2 y, por lo tanto, el sistema no es completamente
observable.
222
La observabilidad de un sistema es una propiedad que no depende de la
elecci on de las variables de estado. An alogamente al caso de la matriz de con-
trolabilidad en la Secci on 10.6.1, puede demostrarse que el rango de la matriz
de observabilidad 10.223 en la p agina anterior es invariante respecto a transfor-
maciones de similaridad.
Perdida de observabilidad
La observabilidad de un sistema queda determinada b asicamente por car-
actersticas propias de su estructura. Sin embargo, tambien es posible que la
observabilidad de un modelo se vea afectada por valores numericos particulares
en algunos de sus par ametros, de manera an aloga a lo que sucede con la con-
trolabilidad, tal como se analiz o en la Secci on 10.6.1. Es esperable que los
par ametros afecten la completa observabilidad de un modelo de una manera
similar. Para esto se propone el siguiente ejemplo, que es el dual del Ejemp-
lo 10.19 en la p agina 292.
Ejemplo 10.25. Consideremos el circuito de la Figura 10.16 en la p agina
siguiente. Este corresponde al mismo de la Figura 10.15, pero en que se han
intercambiado las redes electricas a la derecha e izquierda del amplicador op-
eracional. Por tanto, podemos utilizar ecuaciones similares a las antes obtenidas
para describir el sistema en variables de estado. En particular, se escoge x
1
(t) =
v
C3
(t) y x
2
(t) = i
R1
(t).
Para la parte izquierda del circuito, tenemos:
dv
C3
(t)
dt
=
1
R
3
C
3
v
C3
(t) +
1
R
3
C
3
v
i
(t) (10.228)
v
+
(t) = v
C3
(t) (10.229)
Por su parte para la parte derecha:
di
R1
(t)
dt
=
(R
1
+R
2
)
C
1
R
1
R
2
i
R1
(t) +
1
C
1
R
1
R
2
v

(t) (10.230)
v
o
(t) = R
1
i
R1
(t) +v

(t) (10.231)
302 CAP

ITULO 10. REPRESENTACI

ON EN VARIABLES DE ESTADO.
v (t)
C3
R
3
v (t)
i
R
1 i (t)
R1
C
1
v (t)
+
v (t)
o 2
R
C
3
v (t)

Op.Amp.
Figura 10.16: Circuito electr onico.
El amplicado operacional (ideal), conectado como un seguidor de voltaje,
asegura que v
+
(t) = v

(t), y por lo tanto podemos combinar los modelos de


estado dados por las ecuaciones (10.228) a (10.231), para obtener:
_

_
dv
C3
(t)
dt
di
R1
(t)
dt
_

_
=
_

1
R
3
C
3
0
1
C
1
R
1
R
2

(R
1
+R
2
)
C
1
R
1
R
2
_

_
_

_
v
C3
(t)
i
R1
(t)
_

_
+
_

_
1
R
3
C
3
0
_

_
v
i
(t) (10.232)
v
o
(t) =
_
1 R
1
_
_

_
v
C3
(t)
i
R1
(t)
_

_
(10.233)
La matriz de observabilidad es:

c
[C, A] =
_

_
C
CA
_

_
=
_

_
1 R
1

1
R
3
C
3

1
R
2
C
1
R
1
+R
2
R
2
C
1
_

_
(10.234)
Para determinar el rango de esta matriz es necesario calcular su determi-
nante:
det (
c
[C, A]) =
1
R
3
C
3
C
1
(R
1
C
1
+R
3
C
3
) (10.235)
donde se observa que el modelo del sistema es completamente observable si y
s olo si R
1
C
1
,= R
3
C
3
, misma condici on que se obtuvo en el Ejemplo 10.19 en
la p agina 292.
Aplicando transformada de Laplace a las ecuaciones (10.230)(10.229) obten-
10.6. PROPIEDADES DE LOS SISTEMAS 303
cancelaci on
gramiano!observabilidad
observabilidad!gramiano
emos la funci on de transferencia de V
i
(s) a V
o
(s):
V
o
(s)
V
i
(s)
=
V
+
(s)
V
i
(s)
V
o
(s)
V

(s)
=
_
s +
1
R
1
C
1
_
_
s +
R
1
+R
2
R
1
R
2
C
1
_
1
R
3
C
3
_
s +
1
R
3
C
3
_ (10.236)
Cuando R
1
C
1
= R
3
C
3
se produce una perdida de la completa observabilidad
del sistema, que se traduce en una cancelaci on de un polo con un cero en
la funci on de transferencia, es decir, el polo del lado izquierdo del circuito en la
Figure 10.16 se cancela con el cero del lado derecho.
Es importante notar que, a pesar que el resutado similar es el mismo, ex-
iste un diferencia entre las funciones de transferencia (10.236) y (10.190) en la
p agina 294, pues el orden de la cancelaci on es diferentes en cada caso. La can-
celaci on cero-polo se relaciona con la perdida de completa observabilidad y la
cancelaci on polo-cero se relaciona con la perdida de completa controlabilidad.
Volveremos en m as detalle a este punto en la Secci on 10.6.3.
222
Gramiano de observabilidad
El test de observabilidad planteado en el Teorema 10.4 en la p agina 300
permite determinar si un sistema es o no es completamente observable. sin
embargo, en ocasiones puede ser de interes determinar el grado de observabilidad
de un sistema dado. Para el caso de sistemas estables, podemos cuanticar la
energa en la se nal de salida y(t), en ausencia de se nal de entrada (u(t) = 0), y
cuando el estado inicial es x(0) = x
0
, mediante:
E(x
0
) =
_

0
|y(t)|
2
dt =
_

0
y(t)
T
y(t)dt (10.237)
Es posible demostrar que la energa en la salida del sistema est a dada por:
E(x
o
) =
_

0
|y(t)|
2
dt = x
o
T
Qx
o
(10.238)
donde
Q =
_

0
e
A
T
t
C
T
Ce
At
dt (10.239)
La matriz Q se denomina gramiano de observabilidad, y cuantica la
observabilidad del vector de estado x(0). Para apreciar mejor esto, podemos
recurrir a los resultados del Apendice F. La matriz Q es simetrica y por tanto
todos sus autovalores
1
,
2
, . . . ,
n
son reales y distintos, y sus autovectores
asociados v
1
, v
2
, . . . , v
n
son ortogonales y pueden elegirse de norma unitaria,
es decir, |v
i
|
2
= v
T
i
v
i
= 1. Entonces, la matriz puede escribirse como:
Q =
n

i=1

i
v
i
v
T
i
(10.240)
304 CAP

ITULO 10. REPRESENTACI

ON EN VARIABLES DE ESTADO.
Lyapunov!ecuaci on
Adem as, dado un vector x
0
R
n
, existen constantes reales
1
, . . . ,
n
tales
que:
x
0
=
n

i=1

i
v
i
(10.241)
As, sin perdida de generalidad, la ecuaci on (10.238) se puede re-escribir
como:
E(x
0
) = x
T
0
Qx
0
=
n

i=1

2
i

i
(10.242)
De (10.242) se observa que si x
0
est a alineado con v

, donde

es muy
peque no, entonces el la energa presente en la salida debida a este estado ini-
cial sera muy peque na y diremos que ese estado en particular es difcilmente
observable.
Volviendo a la ecuaci on (10.239), la existencia de la integral queda garanti-
zada pues el sistema es estable, lo que asegura que los autovalores de la matriz
A tienen parte real negativa. Adem as, el gramiano de observabilidad Q denido
en (10.239) satisface la ecuaci on de Lyapunov:
A
T
Q+QA+C
T
C = 0 (10.243)
Para sistemas estables de tiempo discreto, el gramiano de observabilidad
queda denido por:
Q
d
=

t=0
(A
d
T
)
t
C
d
T
C
d
A
d
t
(10.244)
que satisface la ecuaci on de Lyapunov:
A
d
T
Q
d
A
d
Q
d
+C
d
T
C
d
= 0 (10.245)
Ejemplo 10.26. Consideremos nuevamente el sistema del Ejemplo 10.25, de-
scrito por el modelo de estado (10.232)(10.233), para apreciar la utilidad del
gramiano de observabilidad (10.239), en especial cuando el modelo est a pr oximo
a perder la completa observabilidad, es decir, cuando R
1
C
1
R
3
C
3
.
Suponemos los mismos valores para las componentes R
1
, R
2
, R
3
, C
1
y C
3
que
en el Ejemplo 10.20 en la p agina 295, con lo que obtenemos:
_
v
C3
(t)

i
R1
(t)
_
=
_
1 0
10
9

20
9
_ _
v
C3
(t)
i
R1
(t)
_
+
_
1
0
_
v
i
(t) (10.246)
v
o
(t) =
_
1 1

_
v
C3
(t)
i
R1
(t)
_
(10.247)
En este sistema ciertas combinaciones del estado (en t = 0) tendr an poco
efecto en la salida. Para vericar esto podemos calcular el gramiano de observ-
10.6. PROPIEDADES DE LOS SISTEMAS 305
cancelaci on!cuasi-
dualidad
abilidad (10.193), resolviendo:
0 = A
T
Q+QA+C
T
C (10.248)
0 =
_
1
10
9
0
20
9
_ _
q
11
q
12
q
21
q
22
_
+
_
q
11
q
12
q
21
q
22
_ _
1 0
10
9

20
9
_
+
_
1
1
_
_
1 1

(10.249)
Usando Matlab obtenemos:
Matlab
>> A=[-1 0; 10/9 -20/9];
>> B=[1;0];
>> C=[1 -1];
>> S=ss(A,B,C,0);
>> Q=gram(S,o)
Q =
_
0,2414 0,2328
0,2328 0,2250
_
(10.250)
Los autovalores de Q son
1
= 0,0003 y
2
= 0,4661 con sus correspondi-
entes autovectores v
1
= [0,6946 0,7194]
T
y v
2
= [0,7194 0,6946]
T
.
Ahora podemos evaluar el efecto de ciertos estados iniciales en la salida del
sistema. Consideraremos x
0
= v
1
y x
0
= v
2
para calcular la energa, tal como
se dene en la ecuaci on (10.238):
x
0
= v
1
E(x
0
) = 0,000287 (10.251)
x
0
= v
2
E(x
0
) = 0,4661 (10.252)
donde se observa que la energa debida el estado inicial x
0
= v
2
es tres ordenes
de magnitud mayor, lo que indica que existen ciertos estados que son poco ob-
servables en la salida.
La perdida de observabilidad tambien puede ser apreciado en la funci on de
transferencia del sistema:
V
o
(s)
V
i
(s)
=
_
s + 1 +
1
9
_
_
s +
20
9
_
1
(s + 1)
(10.253)
donde se aprecia que existe una cuasi-cancelaci on entre un polo y un cero.
222
Principio de Dualidad
Podemos notar un paralelo notable entre los resultados del Teorema 10.3 en
la p agina 291 y del Teorema 10.4 en la p agina 300, y tambien entre las deni-
ciones de los gramianos (10.193) y (10.239). Esto de pie a lo que se conoce como
el principio de dualidad, el cual se formaliza a continuaci on:
306 CAP

ITULO 10. REPRESENTACI

ON EN VARIABLES DE ESTADO.
sistema!dual
descomposici oncan onica!observabilidad
subespacio!observable
detectabilidad
sistema!detectable
Teorema 10.5 (Dualidad). Considere el modelo en variables de estado de-
scrito por la 4-tupla (A, B, C, D). Entonces el sistema es completamente con-
trolable si y solo si el sistema dual (A
T
, C
T
, B
T
, D
T
) es completamente ob-
servable.
222
Descomposici on can onica y detectabilidad
El teorema anterior puede ser a menudo utilizado para extender un resultado
sobre controlabilidad a un resultado sobre la observabilidad y vice versa. El dual
del Lema 10.6 en la p agina 297 es :
Lema 10.9. Si rango
o
[A, C] = k < n, existe una transformaci on de simi-
laridad x = T
1
x, tal que las nuevas matrices de estado tienen la forma:
A = T
1
AT =
_
A
o
0
A
21
A
no
_
(10.254)
C = CT =
_
C
o
0

(10.255)
donde A
o
tiene dimensi on k y el par (C
o
, A
o
) is completamente observable.
222
Este resultado tiene una relevancia similar a la descomposici on can onica
asociada para el caso de la controlabilidad. Para apreciar esto, aplicamos el
dual del Lema 10.6 en la p agina 297 para expresar el estado (transformado) y
las ecuaciones de salida en la forma particionada que se muestra a continuaci on:
_

x
o
(t)

x
no
(t)
_
=
_
A
o
0
A
21
A
no
_ _
x
o
(t)
x
no
(t)
_
+
_
B
o
B
no
_
u(t) (10.256)
y(t) =
_
C
o
0

_
x
o
(t)
x
no
(t)
_
+Du(t) (10.257)
La descripci on anterior pone en evidencia el problema que puede surgir cuan-
do se intenta controlar un sistema usando s olo su salida, pues en esta no aparece
informaci on alguna sobre x
no
.
El subespacio observable de un modelo es el espacio formado por todos
los estados que se generan como combinaciones lineales de los estados en x
o
.
La estabilidad de este subespacio queda determinada por la ubicaci on de los
autovalores de la matriz A
o
.
El subespacio no observable de un modelo, es el espacio formado por
todos los estados generados como combinaci on lineal de los estados en x
no
.
La estabilidad de este subespacio queda determinada por los autovalores de la
matriz A
no
.
Si el subespacio no observable es estable, decimos que el sistema es de-
tectable.
Una consecuencia clave de la descripci on (10.256)(10.257) podemos apre-
ciarla en la funci on de transferencia del sistema que queda expresada como:
H(s) = C
o
(sI A
o
)
1
B
o
+D (10.258)
10.6. PROPIEDADES DE LOS SISTEMAS 307
cancelaci on
formacan onica!observable
observabilidad!formacan onica
descomposici oncan onica
Es decir, los autovalores del subespacio no observable no pertenecen al con-
junto de polos de la funci on de transferencia del sistema. Esto implica que existe
una cancelaci on de todos los polos correspondientes a las races de det(sIA
no
).
Forma can onica observable
Es posible obtener las formas can onicas duales a las presentadas en los Lemas
10.7 y 10.8. Para ilustrar esto presentamos a continuaci on solo uno de los teo-
remas duales.
Lema 10.10. Considere un sistema escalar o SISO, completamente observable.
Entonces existe una transformaci on de similaridad tal que lleva al modelo a la
forma can onica observable:
x(t) =
_

n1
1
.
.
.
.
.
.
.
.
. 1

0
0 0
_

_
x(t) +
_

_
b
n1
.
.
.
.
.
.
b
0
_

_
u(t) (10.259)
y(t) =
_
1 0 . . . 0

x(t) +Du(t) (10.260)


222
10.6.3. Descomposici on Can onica
En la secci on anterior se analizaron propiedades de los sistemas din ami-
cos, considerando aquellos que son solo parcialmente observables y controlables.
Estos pueden ser separados en subsistemas completamente controlables y com-
pletamente observables.
Los resultados de los Lemas 10.6 y 10.9 pueden combinarse para aquellos sis-
temas que no son ni completamente observables ni completamente controlables.
Podemos apreciar esto en el siguiente Teorema.
Teorema 10.6 (Descomposici on Can onica). Considere un sistema descrito
por un modelo en espacio de estado. Entonces, siempre existe una transforma-
ci on de similaridad T tal que el modelo transformado, con su nuevo vector de
estado x = T
1
x toma la forma:
A =
_

_
A
co
0 A
13
0
A
21
A
22
A
23
A
24
0 0 A
33
0
0 0 A
34
A
44
_

_
; B =
_

_
B
1
B
2
0
0
_

_
; C =
_
C
1
0 C
2
0

(10.261)
(i) El subsistema [A
co
, B
1
, C
1
] es completamente controlable y completamente
observable, y tiene la misma funci on de transferencia que el sistema orig-
inal (ver Lema 10.11 en la p agina siguiente).
308 CAP

ITULO 10. REPRESENTACI

ON EN VARIABLES DE ESTADO.
(ii) El subsistema:
_
A
co
0
A
21
A
22
_
,
_
B
1
B
2
_
,
_
C
1
0

(10.262)
es completamente controlable.
(iii) El subsistema:
_
A
co
A
13
0 A
33
_
,
_
B
1
0
_
,
_
C
1
C
2

(10.263)
es completamente observable.
222
La Figura 10.17 ilustra la estructura interna de un sistema de acuerdo al teo-
rema anterior. En ella, x(t), x
no
(t), x
nc
(t) y x
ncno
(t) representan la parte del
estado completamente controlable y observable, no observable, no controlable,
y no controlable ni observable, respectivamente.
x
ncno
(t)
x
nc
(t)
x
no
(t)
x(t)
u(t) y(t)
Figura 10.17: Estructura de un sistema de acuerdo a su controlabilidad y ob-
servabilidad.
La descomposici on can onica descrita en el Teorema 10.6 tiene una impor-
tante consecuencia para la funci on de transferencia del modelo, ya que esta solo
reeja el subespacio completamente observable y completamente controlable.
Lema 10.11. Considere la matriz de transferencia H(s) dada por:
Y(s) = H(s)U(s) (10.264)
10.7. OBSERVADORES 309
realizaci onm nima
observador
Entonces:
H = C(sI A)
1
B+D = C
1
(sI A
co
)
1
B
1
+D (10.265)
donde C
1
, A
co
y B
1
son las de las ecuaciones (10.261). Esta descripci on de
estado es una realizaci on mnima de la funci on de transferencia.
222
Adem as, si denotamos por M el conjunto de autovalores de una matriz
M, entonces:
A = A
co
A
22
A
33
A
44
(10.266)
donde:
A Autovalores del sistema
A
co
Autovalores del subsistema controlable y observable
A
22
Autovalores del subsistema controlable pero no observable
A
33
Autovalores del subsistema no controlable pero observable
A
44
Autovalores del subsistema no controlable y no observable
Observamos que la controlabilidad de un sistema dado depende de la es-
tructura de sus entradas, es decir, donde se aplican y como entran en el sistema
aquellas variables que son manipulables. Por tanto, los estados de un subsistema
pueden ser no controlables desde una entrada, pero completamente controlables
desde otra. Es importante tener esto en mente para el dise no de sistemas de
control, pues en un proceso real no todas sus entradas pueden ser manipuladas,
y por tanto puede que sea imposible llevar las variables de la planta a ciertos
ubicaciones del espacio de estado.
An alogamente, la observabilidad de un sistema depende de que salidas se
consideren. Algunos estados pueden ser no observables desde una salida dada,
pero puede ser completamente observables desde otra. En el contexto del an alisis
y dise no de sistemas de control, esto se traduce en que puede ser difcil (imposi-
ble) obtener informaci on sobre ciertas variables internas de la planta, a partir
de las salidas medidas disponibles.
10.7. Observadores
Cuando las variables de estado de un sistema deben ser medidas para mon-
itoreo, control u otros prop ositos, existen importantes aspectos tanto tecnicos
como econ omicos a considerar.
Un observador es un estimador de las variables de estado en base a un
modelo del sistema, mediciones de la salida de la planta y(t) y de su entrada
u(t).
El problema de observar el estado de un sistema es una generalizaci on del
caso en que se desea medir indirectamente alguna variables de un sistema usando
un modelo de un sistema y otras variables m as f aciles de medir.
310 CAP

ITULO 10. REPRESENTACI

ON EN VARIABLES DE ESTADO.
error!estimaci on
estimaci on!error
observador!polinomio
Hurwitz!polinomio
error!modelo
modelo!error
10.7.1. Dinamica del observador
Supongamos que un sistema tiene un modelo de estado dado por las ecua-
ciones (10.44)-(10.45) con D = 0 (sistema estrictamente propio). En este caso,
la estructura general de un observador cl asico para el estado del sistema es
la que se muestra en la Figura 10.18, donde la matriz J es la ganancia del
observador.
Sistema
B
u(t)
(sI-A)
-1
C
J
+
+
+
-
(t) x
^
y(t)
Figura 10.18: Observador del estado cl asico
La ecuaci on que denes la din amica del observador es entonces:
d x(t)
dt
= A x(t) +Bu(t) +J(y(t) C x(t)) (10.267)
Una pregunta natural es: si contamos con un modelo del sistema y conocemos
su entrada, porque es necesario entonces usar la salida para estimar el estado?
no bastara con simular el sistema? La clave aqu es que no conocemos el
estado inicial del sistema, y por tanto no podramos obtener la trayectoria
del estado.
Si consideramos el error de estimaci on del estado x(t) = x(t) x(t), su
din amica se obtiene restando (10.267) de (10.44). Esto es:
d x(t)
dt
= (AJC) x(t) (10.268)
donde observamos que el error de estimaci on converge a cero si y solo si todos los
autovalores de la matriz AJC tienen parte real negativa, i.e., si el polinomio
del observador:
E(s) = det(sI A+JC) (10.269)
es estrictamente Hurwitz.
Discusi on
La ecuaci on (10.268) es v alida solo si el modelo es un representaci on exacta
del sistema bajo an alisis. Errores de modelado tendr an consecuencias sobre
el observador, tales como error de estimaci on diferente de cero.
10.7. OBSERVADORES 311
polos!observador
Si el par (A, C) es completamente observable, entonces los autovalores de
A JC pueden situarse arbitrariamente sobre regi on de estabilidad del
plano complejo. Por tanto, la velocidad de convergencia de la estimaci on
es parte del dise no del observador. Estos autovalores se conocen como los
polos del observador.
Si el par (A, C) es detectable, entonces el observador asegura error esta-
cionario cero asit oticamente, a pesar que no todos los autovalores de la
matriz AJC pueden situarse a gusto.
Si el sistema no es completamente observable, y el subespacio no observ-
able contiene modos inestables, entonces el error de estimaci on no con-
verge.
Ejemplo 10.27. Para ilustrar el uso de un observador consideremos nueva-
mente el modelo de estado del Ejemplo 10.8. En este caso particular, queremos
que los polos del observador se ubiquen en s = 4, s = 6 y s = 8. Entonces
la ganancia del observador J debe elegirse adecuadamente, por ejemplo, usando
Matlab :
Matlab
>> A=[ 0 1 0; 0 0 1; 4 0 -3];
>> B=[ 0; 0; 1];
>> C=[-10 4 0];
>> J=place(A,C,[-4 -6 -8])
J =
_
4,5247 7,5617 4,1543

T
(10.270)
Para apreciar la din amica del observador, asumiremos que el estado inicial
del sistema es x(0) = [1 2 1]
T
y que la entrada del sistema es una se nal
cuadrada de amplitud 1, y frecuencia igual a 1 [rad/s]. El observador se inicia
con x(0) = 0. Entonces, la norma del error de estimaci on, [[ x(t)[[ evoluciona
como se muestra en la Figura 10.19
Es importante notar que, en este ejemplo, la planta es inestable, lo que sig-
nica que tanto el estado como su estimaci on crecen indenidamente. Sin em-
bargo, bajo el supuesto de un modelo exacto, el error de estimaci on converge a
cero.
222
Para darle una interpretaci on fsica a la losofa del uso de observadores,
veamos a continuaci on otro ejemplo.
Ejemplo 10.28. La Figura 10.20 muestra el esquema de un sistema rotacional
en que la entrada es el torque (t). La potencia en el sistema se transmite a
traves de un sistema de engranajes en dos ruedas de radios r
1
y r
2
y momentos
312 CAP

ITULO 10. REPRESENTACI

ON EN VARIABLES DE ESTADO.
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
0
2
4
6
8
10
12
Tiempo [s]
N
o
r
m
a

d
e
l

e
r
r
o
r
Figura 10.19: Error de estimaci on del estado
de inercia I
1
e I
2
, respectivamente. La rotaci on de ambos ejes es amortiguada
por un roce viscoso con coecientes D
1
y D
2
, y existe un resorte de torsi on no
despreciable en el eje 2 que tambien ha sido modelado. La carga en el sistema se
ha includo como un momento de inercia I
3
. Lo que nos interesa es estimar la
velocidad
3
de la carga want to estimate the load speed en base a la medici on
de velocidad en el eje 1 1,
1
.
D
1
D
2
K
2
3

I
2
2
3
3

1
I
1
r
2
r
1
I
2

1
2
Figura 10.20: Sistema rotacional
En primer lugar, es necesario obtener el modelo de estado del sistema, para
lo cual consideramos el mnimo conjunto de variables del sistemas que cuati-
can la energa almacenada en el. El sistema tiene cuatro componentes capaces
de almacenar energa: tres momentos angulares y un resorte. Sin embargo, la
energa almacenada en I
1
e I
2
puede calcularse tanto a partir de
1
como de

2
,i.e., necesitamos solo una de estas velocidades, ya que satisfacen la relaci on:

1
(t)

2
(t)
=
r
2
r
1
; and
1
(t)
1
(t) =
2
(t)
2
(t) (10.271)
10.7. OBSERVADORES 313
Entonces, motivados por el modelado fsico, elegimos:
x
1
(t) =
1
(t) (10.272)
x
2
(t) =
2
(t)
3
(t) (10.273)
x
3
(t) =
3
(t) (10.274)
Usando algunos conocimientos de Mec anica, tenemos:
(t) = D
1

1
(t) +I
1
d
1
(t)
dt
+
1
(t) (10.275)

2
(t) =
r
2
r
1

1
(t) = D
2

2
(t) +I
2
d
2
(t)
dt
+K
2
(
2
(t)
3
(t)) (10.276)
0 = K
2
(
3
(t)
2
(t)) +I
3
d
3
(t)
dt
(10.277)
Dado que escogimos
1
(t) como la variable medible del sistema, o sea, como
salida, obtenemos nalmente el modelo:
dx(t)
dt
=
_

r
2
1
D
2
+r
2
2
D
1
r
2
1
I
2
+r
2
2
I
1

r
1
r
2
K
2
r
2
1
I
2
+r
2
2
I
1
0
r
1
r
2
0 1
0
K
2
I
3
0
_

_
. .
A
x(t) +
_

_
r
2
2
r
2
1
I
2
+r
2
2
I
1
0
0
_

_
. .
B
(t)
(10.278)

1
(t) =
_
1 0 0

. .
C
x(t) (10.279)
A continuaci on, se escogen los siguientes valores para los par ametros del
sistema:
r
1
= 0, 25[m]; r
2
= r
3
= 0, 50[m]; D
1
= D
2
= 10
_
Nms
rad
_
(10.280)
K
2
= 30
_
Nm
rad
_
; I
1
= 2,39
_
Nms
2
rad
_
; I
2
= I
3
= 38,29
_
Nms
2
rad
_
(10.281)
Con estos valores tenemos que:
A =
_
_
1,045 1,254 0
0, 5 0 1
0 0, 784 0
_
_
; B =
_
_
0, 084
0
0
_
_
(10.282)
Para vericar la observabilidad, utilizamos el criterio presentado en la Sec-
ci on 10.6.2, es decir, construimos la matriz de observabilidad:

o
=
_
_
C
CA
CA
2
_
_
=
_
_
1,0000 0 0
1,0450 1,2540 0
0, 4650 1,3104 1,2540
_
_
(10.283)
314 CAP

ITULO 10. REPRESENTACI

ON EN VARIABLES DE ESTADO.
ruido
filtro
En esta expresi on podemos observar que la matriz
o
tiene rango completo,
pues claramente det
o
,= 0, por tanto el sistema es completamente observable
desde la salida
1
(t).
Una vez que tenemos la estimaci on del vector de estado, x(t), la estimaci on
del estado
3
(t) para
3
, se obtiene a partir de:

3
(t) = [0 0 1]
. .
K3
T
x(t) (10.284)
donde
3
(t) puede obtenerse a partir de (10.267). Con esto:
d
3
(t)
dt
= K
3
T
d x(t)
dt
= K
3
T
(AJC) x(t) +K
3
T
B
. .
0
(t) +K
3
T
J
1
(t) (10.285)
222
10.7.2. Observadores y ruido de medici on.
Hasta el momento en todos los an alisis hecho asumido que tanto la entrada
de un sistema dado, u(t), como su salida, y(t), est an disponibles sin errores
de ning un tipo. En general, esto es correcto s olo respecto a la entrada, pues
usualmente esta es generada por el mismo que se emplea para estimar el estado.
Sin embargo, la medici on de la salida y(t), ser a siempre en presencia de ruido.
Para analizar el efecto de este ruido de medici on, denotemos por y
m
(t) la
medici on, es decir, la salida real de la planta contaminada con ruido:
y
m
(t) = y(t) +v(t) (10.286)
donde v(t) se denomina ruido de medici on aditivo. El error de medici on satisface
la ecuaci on:
d x(t)
dt
= (AJC) x(t) +Jv(t) (10.287)
Por tanto, tenemos que:

X(s) = (sI A+JC)


1
x(0) + (sI A+JC)
1
JV (s) (10.288)
Es decir, el error debido al ruido ser a peque no si la funci on de transferencia
(sI A+JC)
1
J es capaz de actuar como ltro para el ruido v(t).
Para ilustrar estas ideas, consideremos el siguiente ejemplo.
Ejemplo 10.29. Un sistema es modelado por las ecuaciones de estado:
A =
_
2 1
1 3
_
; B =
_
1
0, 5
_
; C =
_
1 1

; D = 0 (10.289)
Supongamos que queremos estimar una variable del sistema z(t) =
T
x(t),
donde
T
= [1 1]. Entonces, una estimaci on de esta variable es z(t), que se
obtiene como:
z(t) =
T
x(t) (10.290)
10.7. OBSERVADORES 315
Entonces, la parte ruidosa en la estimaci on de z(t) es z
v
(t), cuya transfor-
mada de Laplace satisface
Z
v
(s) = H
v
(s)V (s); where H
v
(s) =
T
(sI A+JC)
1
J (10.291)
A continuaci on consideramos dos elecciones diferentes del polinomio del ob-
servador E(s). Estas son:
E
1
(s) = (s + 0, 5)(s + 0, 75) and E
2
(s) = (s + 10)(s + 20) (10.292)
El lector puede apreciar que esto se traduce en observadores que tendr an
diferente velocidad, siendo el primero mucho m as lento que el segundo. Con
estas elecciones calculamos las ganancias del observador, J
1
y J
2
, y las corre-
spondientes funciones de transferencias de los ltros asociados:
H
1
(s) =
T
(sI A+J
1
C)
1
J
1
=
1,875s + 5,625
s
2
+ 1,25s + 0, 375
(10.293)
H
2
(s) =
T
(sI A+J
2
C)
1
J
2
=
144s + 432
s
2
+ 30s + 200
(10.294)
Para comparar ambos casos en la Figura 10.21, se muestra la respuesta en
frecuencia (diagrama de Bode) de cada uno de los ltros obtenidos. Es intere-
sante notar que, a partir de los gr acos obtenidos podemos concluir que el ltro
m as lento resulta ser m as inmune a ruido de alta frecuencia, comparado con el
m as lento.
10
1
10
0
10
1
10
2
10
3
60
40
20
0
20
40
Frecuencia [rad/s]
M
a
g
n
i
t
u
d

[
d
B
]
|H
1
(j)|
|H
2
(j)|
Figura 10.21: Caracterstica de ltraje de los observadores
222
En base al ejemplo anterior tenemos que
En el dise no de un observador, siempre existe un compromiso entre la veloci-
dad de convergencia del error de observaci on y la inmunidad de la estimaci on
frente al ruido de medici on.
316 CAP

ITULO 10. REPRESENTACI

ON EN VARIABLES DE ESTADO.
observador!deordenreducido
observador!deordencompleto
Una forma sistem atica de encarar este problema es usar la teora de ltro
optimos, como los ltros de Kalman-Bucy. El lector interesado puede consultar,
por ejemplo, la referencia [2].
Existe una serie de otros observadores, incluso capaces de incorporar no-
linealidades presentes en el sistema a observar. Sin embargo, uno de particular
interes es el observador de orden reducido, que b asicamente asocia direc-
tamente la salida del sistema a una parte del estado, reduciendo la parte del
estado a estimar. Dada esta diferencia, el observador cl asico presentado en esta
secci on tambien se denomina de orden completo (ver [13, 7],yuz01?).
muestreo|textbf
quantum|textbf
sistemas!digitales
Captulo 11
Sistemas hbridos
11.1. Introducci on
Uno de los paradigmas m as ricos de la ingeniera moderna es el uso de la
tecnologa digital en el procesamiento de se nales. Esto se reeja en campos
tan distintos como las telecomunicaciones, la bioingeniera, la automatizaci on,
el control autom atico, el procesamiento de im agenes, procesamiento de voz, re-
conocimiento de patrones, etc. La amplitud y velocidad con las que la aplicaci on
de este paradigma se consolida y se extiende parecen no tener lmites; ello se
debe a la velocidad con que progresa la electr onica digital.
Los sistemas digitales usados en procesamiento de se nales, cualquiera sea
el prop osito de este, manejan se nales que son discretas en magnitud (con dis-
cretizaci on determinada por el n umero de bits) y discretas en tiempo (debido a
que existe una sincronizaci on con un reloj o temporizador). Por ejemplo, en un
computador con registros de 16 bits y una unidad procesadora central (CPU)
de 1 [GHz], se pueden representar n umeros enteros positivos con magnitud cuya
discretizaci on corresponde a 2
16
veces el valor m aximo representado. Esto es
el quantum de magnitud. A su vez, las operaciones que se realizan en la CPU y
las transferencias de datos s olo pueden iniciarse en instantes que son m ultiplos
del perodo del reloj, es decir, m ultiplos de 1 [ns].
Muchas veces se usan como sin onimo las expresiones digital y tiempo dis-
creto. En rigor, no son sin onimos, ya que un registro digital tiene un valor que
est a denido en todo instante (tiempo continuo); lo que s ocurre es que s olo
nos interesa analizar lo que pasa con ese valor almacenado en los instantes que
corresponden a m ultiplos del ciclo del reloj, que es cuando se puede producir
alg un cambio. Por esta ultima raz on aceptaremos la sinonimia; sin embargo
debemos tener presente que si el dispositivo digital tiene una discretizaci on muy
gruesa, es decir, un quantum grande, debido a un n umero reducido de bits, es
necesario hacer un an alisis de este efecto en el procesamiento de las se nales
Una fracci on muy signicativa de las aplicaciones en el campo del proce-
samiento de se nales involucran la interacci on o interconexi on de sistemas y
317
318 CAP

ITULO 11. SISTEMAS H

IBRIDOS
sistemas!h bridos
muestreo
reconstrucci on
muestreo|textbf
muestreo!per odode
muestra
se nales de tiempo continuo con sistemas y se nales de tiempo discreto. Cuan-
do un sistema incluye componentes tanto de tiempo continuo como de tiempo
discreto, se habla de sistemas hbridos.
La comunicaci on de sistemas que procesan se nales de distinta naturaleza re-
quiere resolver dos problemas: el problema de muestreo, que permite transfor-
mar una se nal de tiempo continuo en una se nal de tiempo discreto y el problema
de reconstrucci on, es decir, la transformaci on de una se nal de tiempo discreto
en una se nal de tiempo continuo.
Si bien ya se abord o brevemente en la Secci on los modelos para sistemas
y se nales muestreadas, en este captulo estudiaremos mas en profundidad la
soluci on de esos problemas y su descripci on, tanto temporal como frecuencial.
Para una comprensi on acabada de los conceptos y resultados que se presentan
ac a, se requiere que el lector tenga un dominio acabado de los captulos 3, 4 y
6.
11.2. Muestreo de se nales.
Supongamos que deseamos procesar digitalmente una se nal de tiempo con-
tinuo f(t), entonces debemos tomar el valor de la se nal en un instante dado,
es decir, una muestra y transformarla en una colecci on de bits, es decir, cuan-
tizarla. Tecnicamente se requiere un muestreador y un conversor tal como se
indica, en forma simplicada, en la Figura 11.1. En esa gura, el muestreador
discretiza en el tiempo, y el conversor discretiza la amplitud de la se nal. En
lo sucesivo, supondremos que la conversi on A/D es de alta precisi on y de alta
velocidad, por lo cual se supondr a que no hay error en la cuantizaci on de la
amplitud y no hay retardo en la operaci on.
f
d
(t
1
)
Conversor
A/D
f(t) f(t
1
)
t = t
1
Figura 11.1: Proceso de muestreo y cuantizaci on
Para capturar la informaci on contenida en la se nal f(t), por simplicidad
se suele muestrear la se nal en forma peri odica, con perodo , es decir, con
frecuencia angular de muestreo
m
= 2/, lo cual signica que se obtiene una
secuencia f(0), f(), f(2), . . .. Esta secuencia puede ser tratada como una
secuencia discreta, y le son aplicables los metodos de an alisis presentados para
las se nales de tiempo discreto en el Captulo 4.
En este captulo enfocaremos nuestro an alisis en la conexi on dicsreto-continuo,
as como en los procesos de muestreo y de reconstrucci on.
El primer fen omeno interesante de observar se relaciona con la selecci on
de la frecuencia de muestreo. Si la se nal a muestrear es una constante, en-
tonces, la infomaci on codicada en la se nal se captura con cualquier frecuencia
11.2. MUESTREO DE SE

NALES. 319
0 0.5 1
2
1
0
1
2
0 0.5 1
2
1
0
1
2
0 0.5 1
2
1
0
1
2
=1 [s] =0,5 [s] =0,05 [s]
Figura 11.2: Muestreo a diferentes frecuencias
de muestreo. Como contrapartida, si la se nal cambia r apidamente, es necesario
muestrear r apido (comparativamente) para que la secuencia de tiempo discreto
capture esa din amica de cambio. Las ambig uedades que surgen de una elecci on
desacertada del perodo de muestreo se ilustran en el siguiente ejemplo.
Ejemplo 11.1. Suponga que f(t) = 2 cos(2t), es decir, se trata de una se nal
sinuosidal de frecuencia 1 [Hz]. Consideremos ahora tres valores distintos para
la frecuencia de muestreo f
m
(
m
= 2f
m
)
(a) f
m
= 1 [Hz], es decir, = 1 [s]
(b) f
m
= 2 [Hz], es decir, = 0, 5 [s]
(c) f
m
= 20 [Hz], es decir, = 0, 05 [s]
Los tres casos son mostrados en los gr acos de la Figura 11.2
De un an alisis somero de la Figura 11.2 se puede observar lo siguiente:
(i) El muestreo a f
m
= 1 [Hz] genera una secuencia de valores constantes.
Este resultado indica que el proceso de discretizaci on temporal entrega un
resultado totalmente equvoco. En otras palabras, dado f[k], no hay forma
de recuperar la funci on de tiempo continuo f(t). Note que si el mismo
muestreo se hubiera usado en la se nal f(t) = 2 sen(2t), entonces, f[k]
hubiese sido cero k N.
(ii) El muestreo a f
m
= 2 [Hz] genera una secuencia de valores constantes de
signo alternado. Aunque se preserva la naturaleza peri odica de la se nal
f(t), as como su frecuencia exacta, el resultado tambien es equvoco, por
cuanto sera imposible recuperar la se nal original a partir de sus muestras.
(iii) El muestreo a f
m
= 20 [Hz] genera una secuencia de valores que aproxima
en forma muy cercana la se nal original. Demostraremos m as adelante que,
en casos como este existe un procedimiento para recuperar la se nal original
con el grado de exactitud tan grande como deseemos.
320 CAP

ITULO 11. SISTEMAS H

IBRIDOS
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
6
4
2
0
2
x 10
4
Tiempo [s]
E
r
r
o
r
Figura 11.3: Error de reconstrucci on usando interpolaci on c ubica.
Para vericar la aseveraci on anterior podemos intentar una reconstrucci on
por interpolaci on c ubica (comando spline de Matlab) y dibujando el error
de reconstrucci on, como se indica a continuaci on
Matlab
>>tt=[0:1e-5:1];Delta=0.05;t=[0:Delta:1];
>>f=2*cos(2*pi*tt);fk=2*cos(2*pi*t);
>>faprox=spline(t,fk,tt); subplot(211);plot(tt,f-faprox);
La Figura 11.3 muestra que el error de reconstrucci on es muy peque no (del
orden de 10
4
).
11.3. Analisis en frecuencia de se nales muestreadas
Una vez que se obtiene la se nal discreta f[k] podemos usar las herramientas
desarrolladas en el Captulo 6 para realizar un an alisis espectral. En esta secci on
nos interesar a relacionar ese an alisis con el an alisis espectral de la se nal de
tiempo continuo f(t).
El principal resultado est a dado por el siguiente lema
Lema 11.1. Sea una se nal de tiempo continuo f(t), muestreada peri odicamente
con frecuencia angular de muestreo
m
[rad/s] (es decir, cada [s]), y sean
F( ) y F[e
j
] las transformadas de Fourier de f(t) y de la secuencia f[k] =
f(k) respectivamente. Entonces, se cumple que
11.3. AN

ALISIS EN FRECUENCIA DE SE

NALES MUESTREADAS 321


trendeimpulsos
muestreo impulsivo
F[e
j
] =
1

=
F
_

2

_
=
1

=
F (
m
) donde =
(11.1)
Demostraci on
Recordemos que
f[k] = f(k) =

=
f()
K
[k ] (11.2)
Por lo cual, podemos calcular el espectro de la secuencia usando TFD.
F[e
j
] =

=
f()e
j
(11.3)
Por otro lado supongamos que la se nal original, f(t) es multiplicada por un
tren de impulsos, es decir,
f

(t) = f(t)

k=

D
(t k)
. .
m(t)
(11.4)
Entonces, la transformada de Fourier de esta secuencia impulsiva es la con-
voluci on compleja de las transformadas de Fourier de la se nal original y del tren
de impulsos, es decir,
T f

(t) = F

( ) = F( ) M

( ) =
1
2
_

F(j)M

( j) d
(11.5)
Para calcular M

( ) notamos que m

(t) es una se nal peri odica, de perodo


, por lo tanto se puede expandir en una serie exponencial de Fourier. As,
aplicando las deniciones de la secci on 5.3.2, se obtiene
m

(t) =

k=

(t k) =
1

=
e
j
2

t
(11.6)
a partir de lo cual, aplicando la transformaci on de Fourier a la suma de expo-
nenciales complejas, se llega a
M

( ) =
2

D
_

2

_
(11.7)
y, nalmente, reemplazando en (11.5) se obtiene
322 CAP

ITULO 11. SISTEMAS H

IBRIDOS
F

( ) =
1
2
_

F(j)M

( j) d =
1

=
F
_

2

_
(11.8)
Ahora bien, el c alculo de la transformaci on de Fourier se puede realizar por
un camino alternativo. En efecto, a partir de (11.4) se tiene que
f

(t) = f(t)

k=

D
(t k) =

k=
f(k)
D
(t k) (11.9)
de donde se llega a
F

( ) =

k=
f(k)e
jk
(11.10)
Comparando (11.3), (11.8) y (11.10), se llega al resultado (11.1)
222
modelos|textbf
Captulo 12
Modelos
12.1. Ideas generales
Una de las tareas m as interesantes y complejas en el an alisis de sistemas
es la de construir modelos para describir cuantitativamente lo que ocurre en el
sistema bajo an alisis.
Un modelo es siempre una representaci on aproximada de la realidad y, en sus
aspectos esenciales, se relaciona ntimamente con el prop osito que nos mueve a
obtener el modelo. Por ejemplo, un motor electrico puede tener distintos modelos
seg un cual es el interes del analista: un modelo electromec anico, un modelo
termico, un modelo que describa los fen omenos vibratorios y de esfuerzos, etc.
En cualquier caso, una vez denido el prop osito del modelo, este debe cap-
turar los rasgos esenciales que hacen del sistema un ente particular y diferente
de los dem as, tanto cualitativa como cuantitativamente.
Es importante se nalar que el objetivo esencial de un modelo es tener
un mecanismo que permita predecir el comportamiento del sistema
bajo condiciones de excitaci on distintas a las observadas. En otras pal-
abras el modelo es un mecanismo de inferencia y predicci on.
El problema que queremos resolver aqu se puede denir de la siguiente
forma:
Dada una historia de datos del sistema (datos de entrada y salida, en tiempo
continuo o discreto), determinar un modelo matem atico que pueda replicar
en la forma m as precisa posible (bajo alg un criterio de optimalidad) la
historia de datos disponibles y otras historias de datos que se puedan obtener
del mismo sistema, para validar el modelo obtenido.
Note que exite un mecanismo generador de los datos, es decir, el sistema cuyo
comportamiento queremos modelar. Adem as la historia de datos del sistema
debe ser tal que permita observar los rasgos de interes del sistema. Por ejemplo,
323
324 CAP

ITULO 12. MODELOS


si el sistema que deseamos modelar es una red RC, no nos servir a recolectar datos
del sistema cuando las fuentes que alimentan la red son constantes, porque en
ese caso ser a imposible calcular los par ametros de cualquier modelo din amico.
Otra idea que aparece en la denici on del problema es que la construcci on
del mejor modelo tiene asociado un criterio de calidad optima.
En la determinaci on de un modelo existen pues, tres elementos
1. La selecci on de una clase de modelos, /. Por ejemplo, una ecuaci on difer-
encial de cierto orden.
2. Un experimento que permite recolectar datos. Por ejemplo, el aplicar una
excitaci on de amplio espectro al sistema.
3. Un criterio de optimizaci on que permite seleccionar uno de los miembros
de la clase elegida en base a los datos experimentales. Por ejemplo, el
minimizar la suma (o integral) de los errores cuadr aticos.
La clase de modelos se elige, en primera instancia, usando citerios fenomenol ogi-
cos. Por ejemplo, si el comportamiento del sistema a modelar est a dominado por
3 componentes din amicos, una clase razonable es el conjunto de las ecuaciones
diferenciales de tercer orden.
En muchos casos, el experimento no puede ser dise nado de acuerdo a las
necesidades del analista, sino que se debe usar datos provenientes de la operaci on
normal del sistema a modelar. Adem as, es com un que se desee o necesite ir
renando el modelo en forma recursiva (e incluso en tiempo real, es decir, se va
renando el c alculo a medida que se van obteniendo nuevos datos).
Tambien es crucial notar que el que se use un procedimiento de optimizaci on
s olo se garantiza, en el mejor de los casos, que se encontrar a el modelo optimo
dentro de la clase elegida. Si el mecanismo generador de los datos no pertenece a
la clase de modelos elegida, como suele suceder, entonces siempre habr a un error
de modelado, sin importar cuan informativo sea el experimento para recolectar
datos.
Los metodos m as robustos que se conocen para construir modelos son aque-
llos que usan un criterio de optimizaci on cuadr atica. En ellos concentraremos
nuestra atenci on en lo que sigue.
12.2. Modelado de sistemas de tiempo continuo.
Teora basica.
Para motivar la discusi on y el tratamiento te orico del tema, consideramos el
siguiente ejemplo.
Ejemplo 12.1. Suponga que la clase de modelos elegida, /, est a denida por
y
m
(t) = (u(t))
3
(12.1)
donde u(t) es la entrada del sistema a modelar.
12.2. MODELADODE SISTEMAS DE TIEMPOCONTINUO. TEOR

IAB

ASICA.325
predicci on!errorde
Suponga adem as que se realiza un experimento recolector de datos en el sis-
tema a modelar. Como resultado del mismo se obtienen datos
1
de entrada y
salida, u(t) e y(t), en el intervalo [0; t
f
]. Entonces el mejor valor de , , en
(12.1) se puede calcular minimizando un funcional de costo J() dado por
J() =
_
t
f
0
_
(y() (u())
3
_
2
d (12.2)
entonces
= arg mn
R
J() (12.3)
La minimizaci on se realiza derivando J() respecto de y haciendo esa
derivada igual a cero. Esto lleva a
=
__
t
f
0
(u())
6
d
_
1 _
t
f
0
y()(u())
3
d (12.4)
Note que si el sistema a modelar perteneciese a la clase de modelos elegida,
es decir, si existe
o
tal que y(t) =
o
(u(t))
3
, entonces =
o
, siempre que
u(t) ,= 0 en alg un lapso no cero en el intervalo [0; t
f
].
La ecuaci on (12.4) arroja una estimaci on del par ametro una vez que se han
recogido los datos. Existe una formulaci on alternativa donde evoluciona a
medida que se obtienen m as datos, tal como se demuestra a continuaci on.
Para hacer el tratamiento m as simple haremos las siguientes substituciones
p(t) =
__
t
0
(u())
6
d
_
1
(12.5)
(t) = (u(t))
3
(12.6)
Entonces, si reemplazamos t
f
por t en (12.4) tenemos que
(t) = p(t)
_
t
0
y()() d (12.7)
Luego, al derivar (12.5), se obtiene
dp(t)
dt
= (p(t)(t))
2

d (p(t))
1
dt
= ((t))
2
(12.8)
Al derivar (12.7) y al usar (12.8) se obtiene
d (t)
dt
= p(t)(t) (y(t) (t)(t))
. .
e(t)
(12.9)
donde e(t) es el error que se comete al predecir la salida y(t) usando el modelo
y la entrada observada de la planta.
1
Note que se trata de datos experimentales de la planta
326 CAP

ITULO 12. MODELOS


regresi on!vectorde
regresores
Las ecuaciones (12.8) y (12.9) permiten calcular (t) en tiempo real, como
se puede vericar en la simulaci on implementada en el esquema SIMULINK
de la Figura 12.1. En esa gura, el sistema a modelar, o mecanismo generador
de datos aparece enmascarado. El lector puede vericar, al observar e(t) en el
oscilloscopio, que ese sistema pertenece a la clase /.
u(t)
y(t)
\phi (t)
p (t)
e (t)
alfa (t)
Antes de empezar la simulacin, defina el SISTEMA (haga un doble click en el bloque y edite) y asigne los
valores iniciales p(0) y alfa(0) en los bloques de integracin correspondientes
p (0)
alfa (0)
p
alfa
e
SISTEMA
1/s
1/s K
(u(1))^3
Figura 12.1: Estimaci on por mnimos cuadr aticos
Note adem as que, para que este programa SIMULINK funcione se debe asig-
nar una condici on distinta de cero a p(0) (en el bloque integrador correspondi-
ente). Se invita al lector a observar el efecto de distintas elecciones para p(0).
En cambio, el valor inicial (0) puede ser cualquier valor, incluyendo cero.
222
Es importante repetir que, en el ejemplo precedente, se plantearon dos formas
de calcular un valor estimado para el par ametro . En la primera, dada por la
ecuaci on (12.4), se requiere conocer previamente un conjunto de datos en un
lapso no cero. En cambio, en la forma construida por las ecuaciones (12.8) y
(12.9), el valor estimado se va construyendo a medida que los datos se van
obteniendo.
Formularemos a continuaci on el metodo general para sistemas de tiempo
continuo.
La clase de modelos a usar, /, est a denida por
y
m
(t) =
m
(t)
T
(12.10)
donde (t)
m
es un vector, llamado vector de regresi on,. Los elementos de
m
(t)
son conocidos como regresores. Existen tres grandes lneas en la construcci on
del vector de regresi on:
12.2. MODELADODE SISTEMAS DE TIEMPOCONTINUO. TEOR

IAB

ASICA.327
PEM
erroresenlasvariables
predicci on!errorde
gradiente
En base a la entrada de la planta y la salida del modelo. Este enfoque es
la base de los llamados metodos de error de predicci on, reconocidos
por su sigla inglesa PEM (prediction error methods).
En base a la entrada del modelo, la que resulta de medir la entrada a la
planta
2
y a la salida del modelo. Esta elecci on genera los metodos conoci-
dos como de errores en la variables
En base a la entrada de la planta y la salida de la planta. Esta elecci on es
la base del metodo cl asico de estimaci on por errores cuadraticos. Es
conocido por la sigla inglesa LSE (least squares errors). Ese el metodo m as
robusto y m as usado, y es el que usaremos en este texto. Distinguiremos
esta elecci on de las otras dos reemplazando
m
(t) por (t) en la derivaci on
de las ecuaciones del metodo.
Por su parte, el vector R
p
contiene los par ametros
1
,
2
, . . . ,
p
que
distinguen cada elemento en /.
Note que la expresi on es bastante general, ya que la unica restricci on es que
el modelo sea lineal en los par ametros a estimar, y no necesariamente debe ser
lineal en los datos. Por ejemplo
y
m
(t) = a
_
u(t) +b u(t) +c cos(u(t)) +d (12.11)
Entonces, el modelo (12.11) puede ser puesto en la forma (12.10) con las
siguientes asociaciones
(t) = [
_
u(t) u(t) cos(u(t)) 1]
T
(12.12)
= [a b c d ]
T
(12.13)
Veremos adem as en una secci on siguiente que (12.10) puede describir sis-
temas din amicos.
Para modelar un sistema con entrada u(t) y salida y(t), como miembro de
la clase /, debemos encontrar un estimado optimo,

, para de modo que se
minimice
J() =
_
t
f
0
(y() ()
T
)
2
d (12.14)
El producto ()
T
corresponde a una estimaci on de la salida del sistema
a modelar, utilizando el elemento generico de la clase /. La diferencia y()
()
T
es conocida como el error de predicci on (no confundir con los meto-
dos PEM). El metodo de estimaci on cuadr atica permite determinar cual de
los elementos de / es el que arroja la predicci on con menor error cuadr atico
acumulado. Esto es equivalente a seleccionar el optimo .
La minimizaci on de (12.14) se hace a traves del procedimiento tradicional:
derivando respecto de la inc ognita y luego haciendo esa derivada igual a cero.
Como se trata de la derivada de una funci on escalar respecto de un vector, la
derivada corresponde al gradiente

. As el mejor estimado

est a dado por
2
Hay una diferencia entre ambos debido al ruido de medici on
328 CAP

ITULO 12. MODELOS

= arg mn
R
p
J() (12.15)
El procedimiento descrito lleva a

J() =
dJ()
d
= 2
_
t
f
0
()(y() ()
T
) d (12.16)
Al hacer cero el gradiente se obtiene el estimado

dado por

=
__
t
f
0
()()
T
d
_
1 _
t
f
0
()y() d (12.17)
Para demostrar que la expresi on (12.17) minimiza el funcional, se debe cal-
cular la segunda derivada (o Hessiano) de J(), la que debe ser una matriz
positiva denida (ver Apendice F). Esto da
H
J
() =
d
2
J()
d
2
= 2
_
t
f
0
()()
T
d (12.18)
Entonces el Hessiano H
J
() es positivo denido si el vector () cumple
algunas condiciones muy poco exigentes
3
en [0; t
f
].
La expresi on (12.17) proporciona una forma de construir el modelo, esti-
mando , una vez que se han acumulado los datos en un lapso [0; t
f
]. Tal como
se ilustr o en el Ejemplo 12.1, es posible construir un estimado,

(t), que vaya
evolucionando a medida que se van considerando nuevos datos. Esto aparece
resuelto en el siguiente teorema.
Teorema 12.1. Considere la clase / denida por (12.10), el funcional en
(12.14) y un experimento que permite construir () para [0; t]. Entonces
el estimador optimo,

(t) se puede obtener a traves de
dP(t)
dt
= P(t)(t)(t)
T
P(t) (12.19)
d

(t)
dt
= P(t)(t)(y(t) (t)

(t)) = P(t)(t)e(t) (12.20)


Demostraci on
Denamos previamente la matriz P(t) R
pp
de la forma
P(t) =
__
t
0
()()
T
d
_
1
(12.21)
3
Cuya deducci on escapa al marco de este texto.
12.3. MODELADODE SISTEMAS DE TIEMPOCONTINUO. MODELOS LINEALES.329
y la matriz
Q(t) = P(t)
1
=
_
t
0
()()
T
d (12.22)
entonces
dP(t)Q(t)
dt
= 0 =
dP(t)
dt
Q(t) +P(t)
dQ(t)
dt
(12.23)
Esto lleva a
dP(t)
dt
= P(t)
dQ(t)
dt
P(t) = P(t)(t)(t)
T
P(t) (12.24)
donde hemos usado el hecho que
Q(t)
dt
= (t)(t)
T
(12.25)
Por otro lado, al usar (12.17)

(t) = P(t)
_
t
f
0
()y() d (12.26)
con lo cual, al derivar se obtiene
d

dt
=
dP(t)
dt
_
t
f
0
()y() d +P(t)(t)y(t) (12.27)
= P(t)
dQ(t)
dt
P(t)
_
t
f
0
()y() d
. .

(t)
+P(t)(t)y(t) (12.28)
lo que lleva a (12.20) al usar (12.25).
El Teorema 12.1 establece un procedimiento a traves del cual la estimaci on
de los par ametros del modelo se va obteniendo a medida que se dispone de nueva
informaci on.
12.3. Modelado de sistemas de tiempo continuo.
Modelos lineales.
La teora desarrollada en la secci on precedente se aplica a cualquier clase de
modelos /, con la unica condici on que los miembros de esa clase sean lineales
en el vector de par ametros, es decir, tengan la forma (12.10). Esto no excluye
modelos que son no lineales en la entrada y la salida, tal como se ilustra en
el Ejemplo 12.1. Sin embargo, en esta secci on enfocaremos nuestra atenci on en
modelos din amicos lineales de tiempo continuo. Con este objetivo deniremos
330 CAP

ITULO 12. MODELOS


la clase / por la ecuaci on diferencial (3.1), la que reproducimos a continuaci on
(reemplazando y(t) por y
m
(t)).
d
n
y
m
(t)
dt
n
+a
n1
d
n1
y
m
(t)
dt
n1
+. . .+a
0
y
m
(t) = b
n1
d
n1
dt
n1
u(t)+b
n2
d
n2
dt
n2
u(t)+. . .+b
0
u(t)
(12.29)
Antes de desarrollar la metodologa general, examinaremos un ejemplo muy
simple, para adquirir perspectiva
Ejemplo 12.2. La clase / es elegida como en (12.29), con n = 1, es decir
dy
m
(t)
dt
+a
0
y
m
(t) = b
0
u(t) (12.30)
La primera opci on para contruir la forma (12.10) en este caso es (note la
sustituci on de y
m
(t) por y(t) en el vector (t))
(t) =
_
_
t
0
u()d
_
t
0
y()d
_
T
(12.31)
=
_
b
0
a
0

T
(12.32)
Sin embargo, esta forma de selecci on del vector de regresi on (t) no es ra-
zonable, porque basta que las se nales tengan un valor medio distinto de cero (por
peque no que sea) para que el vector (t) crezca sin lmites.
Intentaremos otro enfoque, usando el operador de Heaviside (denido en
(3.2). El modelo (12.30) puede ser re-escrito como
0 = ( +a
0
)y
m
(t) +b
0
u(t) (12.33)
Supongamos se dene un polinomio operador m onico estable E() = + e
0
(e
0
> 0), entonces (12.33) se puede escribir como
0 =
+a
0
E()
y
m
(t) +
b
0
E()
u(t) (12.34)
Sumando y
m
(t) a ambos lados se obtiene
y
m
(t) = y
m
(t)
+a
0
E()
y
m
(t) +
b
0
E()
u(t) = (e
0
a
0
)
y
m
(t)
E()
+b
0
u(t)
E()
(12.35)
As, una elecci on natural es
(t) =
_
u(t)
E()
y(t)
E()
_
T
(12.36)
=
_
b
0
e
0
a
0

T
(12.37)
Note que hemos reemplazado y
m
(t) por y(t) en el vector de regresi on, as el
vector de regresi on resulta dependiente s olo de los datos de entrada y salida del
sistema a modelar, lo cual es consistente con la idea del metodo LSE.
12.3. MODELADODE SISTEMAS DE TIEMPOCONTINUO. MODELOS LINEALES.331
222
El Ejemplo 12.2 permite inducir una metodologa general.
Denamos
A() =
n
+a
n1

n1
+. . . a
0
(12.38)
B() = b
n1

n1
+b
n2

n2
+. . . b
0
(12.39)
E() =
n
+e
n1

n1
+. . . e
0
(12.40)
donde E() es un polinomio operador estable.
Entonces el modelo (12.29) se puede escribir como
0 =
A()
E()
y
m
+
B()
E()
u(t) (12.41)
Si ahora sumamos y
m
(t) a ambos lados se obtiene
y
m
(t) =
E() A()
E()
y
m
+
B()
E()
u(t) (12.42)
Entonces la elecci on de (t) consistente con el metodo LSE es
(t) =
_

n1
u(t)
E()

n2
u(t)
E()

u(t)
E()

n1
y(t)
E()

n2
y(t)
E()

y(t)
E()
_
T
(12.43)
y el vector de par ametros es
=
_
b
n1
b
n2
b
0
e
n1
a
n1
e
n2
a
n2
e
0
a
0

T
(12.44)
Ejemplo 12.3. Supongamos que la clase / es el conjunto de ecuaciones difer-
enciales de tercer orden, lineales y de coecientes constantes, entonces
(t) =
_

2
u(t)
E()
u(t)
E()
u(t)
E()

2
y(t)
E()
y(t)
E()
y(t)
E()
_
T
(12.45)
=
_
b
2
b
1
b
0
e
2
a
2
e
1
a
1
e
0
a
0

T
(12.46)
donde E() es cualquier polinomio de tercer grado cuyas races tenga parte real
menor que cero.
222
332 CAP

ITULO 12. MODELOS


12.4. Modelado de sistemas de tiempo discreto.
Teora basica.
La construcci on de modelos para sistemas de tiempo continuo es de gran
interes conceptual. Sin embargo, la implementaci on de las ecuaciones de esa
construcci on requiere el uso de una m aquina digital, en cuyo caso necesariamente
se debe usar una discretizaci on y ello hade de mayor relvancia la construicci on
de sistemas de tiempo discreto.
Al igual que en el caso de tiempo continuo, usaremos un ejemplo para motivar
la discusi on.
Ejemplo 12.4. Suponga que la clase de modelos elegida, /, est a denida por
y
m
[k] = (u[k])
3
(12.47)
donde u[k] es la entrada del sistema a modelar.
Suponga adem as que se realiza un experimento recolector de datos en el sis-
tema a modelar. Como resultado del mismo se obtienen datos
4
de entrada y
salida, u[k] e y[k], en el intervalo [0; N]. Entonces el mejor valor de , , en
(12.47) se puede calcular minimizando un funcional de costo J() dado por
J() =
N

=1
_
(y[] (u[])
3
_
2
(12.48)
entonces
= arg mn
R
J() (12.49)
La minimizaci on se realiza derivando J() respecto de y haciendo esa
derivada igual a cero. Esto lleva a
=
_
N

=1
(u[])
6
_
1
N

=1
y[](u[])
3
(12.50)
Note que si el sistema a modelar perteneciese a la clase de modelos elegida,
es decir, si existe
o
tal que y[k] =
o
(u[k])
3
, entonces =
o
, siempre que
u[k] ,= 0 en alg un lapso no cero en el intervalo [0; N].
La ecuaci on (12.50) arroja una estimaci on del par ametro una vez que se
han recogido los datos. Existe una formulaci on alternativa donde evoluciona
a medida que se obtienen m as datos, tal como se demuestra a continuaci on.
Para hacer el tratamiento m as simple haremos las siguientes substituciones
p[k] =
_
N

=1
(u[])
6
_
1
(12.51)
[k] = (u[k])
3
(12.52)
4
Note que se trata de datos experimentales de la planta
12.4. MODELADODE SISTEMAS DE TIEMPODISCRETO. TEOR

IAB

ASICA.333
predicci on!errorde
Entonces, si reemplazamos N por k en (12.50) tenemos que
[k] = p[k]
k

=1
y[][] (12.53)
Luego, al usar (12.51), se obtiene
p[k] =
p[k 1]
1 +p[k 1][k]
2
= p[k 1] p[k 1][k]
2
p[k] (12.54)
Combinando (12.7) y (12.8) se obtiene
[k] = [k 1] +p[k][k] (y[k] [k 1][k])
. .
e[k]
(12.55)
donde e[k] es el error que se comete al predecir la salida y[k] usando el modelo
y la entrada observada de la planta.
Las ecuaciones (12.54) y (12.55) permiten calcular [k] en tiempo real, como
se puede vericar en la simulaci on implementada en el esquema SIMULINK de
la Figura 12.2. En esa gura, el sistema a modelar, o mecanismo generador
de datos aparece enmascarado. El lector puede vericar, al observar e[k] en el
oscilloscopio, que ese sistema pertenece a la clase /.
u[k]
y[k]
\phi [k]
p [k]
e [k]
alfa [k]
Antes de empezar la simulacin, defina el SISTEMA (haga un doble click en el bloque y edite) y asigne los
valores iniciales p[0] y alfa[0] en los bloques de retardo correspondientes
p [0]
alfa [0]
z
1
z
1
p
alfa
e
SISTEMA
u(1)/(1+u(1)*u(2)^2)
(u(1))^3
Figura 12.2: Estimaci on por mnimos cuadr aticos
Note adem as que, para que este programa SIMULINK funcione se debe asig-
nar una condici on distinta de cero a p[0] (en el bloque de retardo correspondi-
ente). Se invita al lector a observar el efecto de distintas elecciones para p[0].
En cambio, el valor inicial [0] puede ser cualquier valor, incluyendo cero.
334 CAP

ITULO 12. MODELOS


regresi on!vectorde
regresores
PEM
erroresenlasvariables
222
Es importante repetir que, en el ejemplo precedente, se plantearon dos formas
de calcular un valor estimado para el par ametro . En la primera, dada por la
ecuaci on (12.50), se requiere conocer previamente un conjunto de datos en un
lapso no cero. En cambio, en la forma construida por las ecuaciones (12.54) y
(12.55), el valor estimado se va construyendo a medida que los datos se van
obteniendo.
Formularemos a continuaci on el metodo general sistemas de tiempo discreto.
La clase de modelos a usar, /, est a denida por
y
m
[k] =
m
[k]
T
(12.56)
donde
m

m
[k] es un vector, llamado vector de regresi on,. Los elementos de
m

m
[k]
son conocidos como regresores. Existen tres grandes lneas en la construcci on
del vector de regresi on, y ellas son las mismas que en el caso continuo:
metodos de error de predicci on, (PEM) (prediction error methods).
metodo de errores en la variables
Metodo cl asico de estimaci on por errores cuadraticos (LSE)(least
squares errors). Distinguiremos esta elecci on de las otras dos reemplazan-
do
m
[k] por [k] en la derivaci on de las ecuaciones del metodo.
Por su parte, el vector R
p
contiene los par ametros
1
,
2
, . . . ,
p
que
distinguen cada elemento en /.
Note que la expresi on es bastante general, ya que la unica restricci on es que
el modelo sea lineal en los par ametros a estimar, y no necesariamente debe ser
lineal en los datos. Por ejemplo
y
m
[k] = a
_
u[k] +b u[k] +c cos(u[k]) +d (12.57)
Entonces, el modelo (12.57) puede ser puesto en la forma (12.56) con las
siguientes asociaciones
[k] = [
_
u[k] u[k] cos(u[k]) 1]
T
(12.58)
= [a b c d ]
T
(12.59)
Veremos adem as en una secci on siguiente que (12.56) puede describir sis-
temas din amicos.
Para modelar un sistema con entrada u[k] y salida y[k], como miembro de
la clase /, debemos encontrar un estimado optimo,

, para de modo que se
minimice
J() =
N

0
(y[] []
T
)
2
(12.60)
El producto []
T
corresponde a una estimaci on de la salida del sistema a
modelar, utilizando el elemento generico de la clase /. La diferencia y[][]
T

12.4. MODELADODE SISTEMAS DE TIEMPODISCRETO. TEOR

IAB

ASICA.335
predicci on!errorde
gradiente
es conocida como el error de predicci on (no confundir con los metodos PEM). El
metodo de estimaci on cuadr atica permite determinar cual de los elementos de
/ es el que arroja la predicci on con menor error cuadr atico acumulado. Esto
es equivalente a seleccionar el optimo .
La minimizaci on de (12.60) se hace a traves del procedimiento tradicional:
derivando respecto de la inc ognita y luego haciendo esa derivada igual a cero.
Como se trata de la derivada de una funci on escalar respecto de un vector, la
derivada corresponde al gradiente

. As el mejor estimado

est a dado por

= arg mn
R
p
J() (12.61)
El procedimiento descrito lleva a

J() =
dJ()
d
= 2
N

=1
[](y[] []
T
) (12.62)
Al hacer cero el gradiente se obtiene el estimado

dado por

=
_
N

=1
[][]
T
_
1
N

=1
[]y[] (12.63)
Para demostrar que la expresi on (12.63) minimiza el funcional, se debe cal-
cular la segunda derivada (o Hessiano) de J(), la que debe ser una matriz
positiva denida (ver Apendice F). Esto da
H
J
() =
d
2
J()
d
2
= 2
N

k=1
[][]
T
(12.64)
Entonces el Hessiano H
J
() es positivo denido si el vector [] cumple
algunas condiciones muy poco exigentes
5
en 0 < N.
La expresi on (12.63) proporciona una forma de construir el modelo, esti-
mando , una vez que se han acumulado los datos en un lapso [0; t
f
]. Tal como
se ilustr o en el Ejemplo 12.4, es posible construir un estimado,

[k], que vaya
evolucionando a medida que se van considerando nuevos datos. Esto aparece
resuelto en el siguiente teorema.
Teorema 12.2. Considere la clase / denida por (12.56), el funcional en
(12.60) y un experimento que permite construir [] para 0 < N. Entonces
el estimador optimo,

[k] se puede obtener a traves de
P[k] = P[k 1]
P[k 1][k][k]
T
P[k 1]
1 +[k]
T
P[k 1][k]
(12.65)

[k] =

[k 1] +P[k][k](y[k] [k]

[k]) = P[k][k]e[k] (12.66)


5
Cuya deducci on escapa al marco de este texto.
336 CAP

ITULO 12. MODELOS


Demostraci on
Denamos previamente la matriz P[k] R
pp
de la forma
P[k] =
_
k

=1
[][]
T
_
1
(12.67)
y la matriz
Q[k] = P[k]
1
=
k

=1
[][]
T
= Q[k 1] +[k][k]
T
(12.68)
entonces podemos aplicar el lema de inversi on de matrices para obtener P[k](=
Q[k]
1
) en funci on de P[k 1](= Q[k 1]
1
), lo cual lleva a (12.65).
Por otro lado, al usar (12.63) se tiene que
P[k]
1

[k] =
k

=1
[]y[] (12.69)
P[k 1]
1

[k 1] =
k1

=1
[]y[] (12.70)
lo cual lleva a

[k] = P[k]P[k 1]
1

[k 1] +P[k][]y[] (12.71)
de donde, al usar (12.65), se obtiene (12.66).
222
El Teorema 12.2 establece un procedimiento a traves del cual la estimaci on
de los par ametros del modelo se va obteniendo a medida que se dispone de nueva
informaci on.
12.5. Modelado de sistemas de tiempo discreto.
Modelos lineales.
La teora desarrollada en la secci on precedente se aplica a cualquier clase de
modelos /, con la unica condici on que los miembros de esa clase sean lineales
en el vector de par ametros, es decir, tengan la forma (12.56). Esto no excluye
modelos que son no lineales en la entrada y la salida, tal como se ilustra en
el Ejemplo 12.4. Sin embargo, en esta secci on enfocaremos nuestra atenci on en
modelos din amicos lineales de tiempo discreto. Con este objetivo deniremos la
clase / por la ecuaci on diferencial (4.1), la que reproducimos a continuaci on
(reemplazando y[k] por y
m
[k]).
12.5. MODELADODE SISTEMAS DE TIEMPODISCRETO. MODELOS LINEALES.337
y
m
[k] +a
n1
y
m
[k 1] +. . . +a
1
y
m
[k n + 1] +a
0
y
m
[k n] =
b
m
u[k] +b
m1
u[k 1] +. . . +b
1
u[k m+ 1] +b
0
u[k m] (12.72)
Antes de desarrollar la metodologa general, examinaremos un ejemplo muy
simple, para adquirir perspectiva
Ejemplo 12.5. La clase / es elegida como en (12.72), con n = 1, es decir
y
m
[k] +a
0
y
m
[k 1] = b
0
u[k] (12.73)
La primera opci on para contruir la forma (12.56) en este caso es (note la
sustituci on de y
m
[k] por y[k] en el vector [k])
[k] =
_
u[k] y
m
[k 1]

T
(12.74)
=
_
b
0
a
0

T
(12.75)
A diferencia del caso de tiempo continuo, esta forma de selecci on del vector
de regresi on [k] es razonable y la metodologa de la secci on anterior puede ser
aplicada sin mayores dicultades.
222
El Ejemplo 12.5 permite inducir una metodologa general, ya que podemos
expresar la ecuaci on (12.72) como
y
m
[k] = [k]
T
[k] (12.76)
[k] =
_
u[k] u[k 1] . . . u[k m] y
m
[k 1] y
m
[k 2] . . . y
m
[k n]

(12.77)
[k] =
_
b
m
b
m1
. . . b
0
a
n1
a
n2
. . . a
0

(12.78)
338 CAP

ITULO 12. MODELOS


seriedeTaylor
Taylor
Apendice A
Series de Taylor
A.1. Serie de Taylor en una variable
Considere una funci on g(x), donde x R y sea x
Q
un valor arbitrario en R,
tal que g(x) es continua en x = x
Q
.
Suponga adem as que g(x) es innitamente diferenciable en x = x
Q
, es decir,
todas las derivadas de g(x) en x = x
Q
son continuas.
Entonces la funci on g(x) se puede expandir en serie de potencias de (xx
Q
),
es decir, admite la siguiente representaci on en una serie de Taylor
g(x) = g(x
Q
) +
d x
dt

Q
(x x
Q
) +
1
2!
d
2
x
dt
2

Q
(x x
Q
)
2
+
1
3!
d
3
x
dt
3

Q
(x x
Q
)
3
+. . .
(A.1)
=

i=0
1
i!
d
i
x
dt
i

Q
(x x
Q
)
i
(A.2)
donde
d
n
x
dt
n

Q
denota la derivada n-esima de g respecto de x y evaluada en
x = x
Q
.
A partir de esta expansi on, podemos construir aproximaciones de primer,
segundo, tercer orden, etc. truncando la serie despues de la potencia de primer,
segundo, tercer grado, etc., respectivamente. Por ejemplo, la aproximaci on de
primer orden es
g
1
(x) = k
0
+k
1
(x x
Q
); k
0
= g(x
Q
); k
1
=
d g
dx

Q
(A.3)
Esta aproximaci on de primer orden se puede apreciar gr acamente, como se
muestra en la Figura A.1.
En esta gura m = k
1
=
d g
dx

Q
. Se observa que, en la medida que nos
alejamos del punto de operaci on, el error de modelado lineal aumenta.
339
340 AP

ENDICE A. SERIES DE TAYLOR


x
Q
g(x
Q
)
g(x)
g
1
(x)
m
1
x
Figura A.1: Aproximaci on de primer orden para funci on no lineal de una varia-
ble.
A.2. Serie de Taylor en dos variables
La misma idea resumida en la secci on anterior se puede extender al caso de
una funci on g(x
1
, x
2
), con x
1
R, x
2
R.
Sea (x
1Q
, x
2Q
) un par arbitrario tal que g(x
1
, x
2
) es continua e innitamente
diferenciable en x
1
= x
1Q
, x
2
= x
2Q
. Entonces g puede expandirse en serie de
potencias de (x
1
x
1Q
) y (x
2
x
1Q
)
g(x
1Q
, y
Q
) +
g
x
1

Q
(x
1
x
1Q
) +
g
x
2

Q
(x
2
x
2Q
) +
1
2

2
g
x
2
1

Q
(x
1
x
1Q
)
2
+
1
2

2
g
x
2
2

Q
(x
2
x
2Q
)
2
+

2
f
x
1
x
2

Q
(x
1
x
1Q
)(x
2
x
2Q
) +. . . (A.4)
donde el termino general de la expansi on es
1
i!j!

i+j
g
x
i
1
x
j
2

Q
(x
1
x
1Q
)
i
(x
2
x
2Q
)
j
(A.5)
En forma an aloga al caso de una variable, podemos truncar esta serie para
tener aproximaciones de primer, segundo, tercer, etc. orden. Por ejemplo, la
aproximaci on de primer orden est a dada por
A.3. EL CASO GENERAL 341
g
1
(x
1
, x
2
) = k
0
+k
11
(x
1
x
1Q
) +k
12
(x
2
x
2Q
) (A.6)
k
0
= g(x
1Q
, x
2Q
) (A.7)
k
11
=
d g
dx
1

Q
(A.8)
k
12
=
d g
dx
2

Q
(A.9)
A.3. El caso general
La idea desarrollada en las dos secciones anteriores se puede generalizar al
caso de una funci on g(x
1
, x
2
, . . . , x
n
) con x
1
R, x
2
R, . . ., x
n
R.
Sea (x
1Q
, x
2Q
, . . . , x
nQ
) una n-tupla tal que g(x
1
, x
2
, . . . , x
n
) es continua e
innitamente diferenciable en x
1
= x
1Q
, x
2
= x
2Q
, . . ., x
n
= x
nQ
. Entonces la
expansi on en serie de Taylor est a dada por
g(x
1
, x
2
, . . . , x
n
) = g(x
1Q
, x
2Q
, . . . , x
nQ
)
+

i1,i2,...,in=0
1
i
1
!i
2
! i
n
!

ni
g

i1
x
1

i2
x
2

in
x
n

Q
(x
1
x
1Q
)
i1
(x
2
x
2Q
)
i2
. . . (x
n
x
nQ
)
in
(A.10)
donde n
i
= i
1
+i
2
+. . . +i
n
.
La aproximaci on de primer orden, por truncamiento de la serie es entonces
g
1
(x
1
, x
2
, . . . , x
n
) = k
0
+
n

i=1
k
1i
(x
i
x
iQ
) (A.11)
k
0
= g(x
1Q
, x
2Q
, . . . , x
nQ
) (A.12)
k
1i
=
d g
dx
i

Q
(A.13)
(A.14)
Es importante se nalar que los desarrollos precedentes siguen siendo v alidos
aunque las variable x
1
, x
2
, . . ., x
n
sean funciones de una variable temporal u
otra variable independiente.
A.4. Algunas reglas practicas para la expansi on
en serie
La teora general precedente permite construir algunas reglas b asicas para
expandir funciones complicadas en serie de potencias.
342 AP

ENDICE A. SERIES DE TAYLOR


R1 Considere las funciones no lineales g(x) y h(x) y un punto de operaci on
com un dado por x
Q
, entonces las aproximaciones de primer orden para
las funciones que se indican son
[R1,1] g
1
(x) = g(x
Q
) +
d g(x)
dx

Q
(x x
Q
)
[R1,2]

h
1
(x) = h(x
Q
) +
d h(x)
dx

Q
(x x
Q
)
[R1,3]

g(x) +h(x)
1
= g(x
Q
) +h(x
Q
) +
_
d g(x)
dx

Q
+
d h(x)
dx

Q
_
(x x
Q
)
[R1,4]

g(x)h(x)
1
= g(x
Q
)h(x
Q
) +
_
h(x
Q
)
d g(x)
dx

Q
+g(x
Q
)
d h(x)
dx

Q
_
(x x
Q
)
R2 La aproximaci on de primer orden de g(x) =
d

x(t)
dt

en torno al punto de
operaci on x = x
Q
, g(x
Q
) = 0 es
g
1
(x) =
d

(x(t) x
Q
)
dt

(A.15)
R3 La aproximaci on de primer orden de g(x) =
_
d

x(t)
dt

_
k
, k > 1 en torno al
punto de operaci on x = x
Q
,
_
d

x(t)
dt

_
k1
= 0 es
g
1
(x) = 0 (A.16)
Apendice B
Bases matematicas para las
Series de Fourier
B.1. Espacios vectoriales y bases ortogonales
En esta secci on se revisan los conceptos b asicos de los espacios vectoriales,
incluyendo deniciones y propiedades. Se introducen adem as las ideas de ortog-
onalidad y bases, ideas matem aticas abstractas de mucha utilidad para funda-
mentar el an alisis mediante series de Fourier y otros t opicos dentro de la teora
de sistemas como es, por ejemplo, la construcci on de modelos y la estimaci on
de se nales utilizando el enfoque de mnimos cuadrados.
Denici on B.1. Un espacio vectorial 1 es un conjunto de objetos v
1
, v
2
, . . .
, llamados vectores, donde se denen dos operaciones: suma de dos vectores,
y multiplicaci on por un escalar y que satisfacen las siguientes propiedades:
1. Si v
i
1 y v
j
1, entonces v
i
+v
j
1
2. Si v
i
1 y v
j
1, entonces v
i
+v
j
= v
j
+v
i
3. Si v
i
, v
j
, v
k
son vectores cualesquiera de 1, entonces v
i
+ (v
j
+ v
k
) =
(v
i
+v
j
) +v
k
4. Existe un vector

0 1, tal que para todo v
i
1 se cumple v
i
+

0 = v
i
5. Para cada v
i
1 existe un vector v
i
1, tal que v
i
+ (v
i
) =

0
6. Si v
i
1 y es un escalar, entonces v
i
1
7. Si v
i
y v
j
est an en 1 y es un escalar, entonces (v
i
+v
j
) = v
i
+v
j
8. Si y son escalares y v
i
1, entonces ( +)v
i
= v
i
+v
i
343
344AP

ENDICE B. BASES MATEM

ATICAS PARALAS SERIES DE FOURIER


9. Si y son escalares y v
i
1, entonces (v
i
) = ()v
i
10. Existe el escalar 1 tal que 1v
i
= v
i
, para todo v
i
1
Existe un sinn umero de conjuntos de elementos que son ejemplo de espa-
cios vectoriales, de entre los cuales se deja al lector vericar que los siguientes
cumplen las propiedades recien enumeradas:
El espacio R
n
en que los escalares son n umeros reales,
El espacio C
n
en que los escalares pueden ser n umeros reales o bien com-
plejos,
El conjunto de funciones reales seccionalmente continuas
1
en un intervalo
[a, b], en que los escalares son n umeros reales.
Denici on B.2. Dado un conjunto de vectores ( = v
1
, . . . , v
n
1, diremos
que el espacio generado por (, es el conjunto de todos los vectores de la
forma:
v =
1
v
1
+. . . +
n
v
n
Es decir, v es una combinaci on lineal de v
1
, . . . , v
n
.
Se deja al lector probar que el subespacio generado por el subconjunto de
vectores ( 1 tambien cumple las propiedades de un espacio vectorial.
Denici on B.3. Un conjunto de vectores v
1
, . . . , v
n
se dice linealmente in-
dependiente, si la ecuaci on:

1
v
1
+. . . +
n
v
n
= 0
se cumple s olo para los escalares
1
=
2
= . . . =
n
= 0. En caso contrario
se dice que los vectores son linealmente dependientes.
La independencia lineal en un conjunto de vectores es una propiedad muy
importante pues nos permite armar que ninguno de los vectores del conjun-
to puede expresarse como una combinaci on lineal de los dem as vectores. Esta
demostraci on se deja al lector.
Denici on B.4. Dado un espacio vectorial 1, diremos que un conjunto de
vectores B = v
1
, . . . , v
n
es base de 1 si:
1. v
1
, . . . , v
n
es linealmente independiente, y
1
Es decir, que poseen a lo m as un n umero nito de puntos de discontinuidad.
B.1. ESPACIOS VECTORIALES Y BASES ORTOGONALES 345
norma
normainducida
desigualdadtriangular
distancia
\anguloentrevectores
2. v
1
, . . . , v
n
genera todo el espacio 1.
En este caso diremos que el espacio vectorial 1 tiene dimensi on igual a
n. Por ejemplo, el espacio de vectores en el plano tiene dimensi on n = 2, en
el espacio n = 3, mientras que existen otros espacios como por ejemplo el de
funciones que pueden tener dimensi on innita.
Denici on B.5. Dados dos vectores cualesquiera v
i
y v
j
en un espacio vectorial
1 con escalares en C, entonces diremos que v
i
, v
j
) es un producto interno,
producto escalar o producto punto si cumple las siguientes propiedades:
1. v
i
, v
j
) es un escalar
2. v
i
, v
j
+v
k
) = v
i
, v
j
) +v
i
, v
k
)
3. v
i
, v
i
) > 0 si v
i
,=

0
4. v
i
, v
j
) = v
j
, v
i
)

, en que ()

denota el complejo conjugado de ()


Este producto adem as induce una norma en el espacio vectorial 1:
_
_
v
i
_
_
=
_
v
i
, v
i
)
Recordamos que una norma se dene como sigue:
Denici on B.6. Una norma
_
_

_
_
en un espacio vectorial es una funci on que
va del espacio 1 a R que cumple con :
1.
_
_
v
i
_
_
0 y
_
_
v
i
_
_
= 0 si y s olo si v
i
=

0
2.
_
_
v
i
_
_
= [[
_
_
v
i
_
_
en que [[ es el valor absoluto o m odulo del escalar
3.
_
_
v
i
+v
j
_
_

_
_
v
i
_
_
+
_
_
v
i
_
_
( desigualdad triangular) .
Con la norma inducida de esta forma con el producto interno en el espacio
vectorial podemos introducir la idea de distancia entre dos vectores:
d(v
i
, v
j
) =
_
_
v
i
v
j
_
_
Denici on B.7. Un espacio vectorial donde se ha denido una norma, es decir,
se tiene una medida de distancia y longitud se denomina espacio euclideano
Adem as puede denirse el coseno del angulo entre dos vectores como
cos (v
i
, v
j
) =
v
i
, v
j
)
_
_
v
i
_
_
_
_
v
j
_
_
346AP

ENDICE B. BASES MATEM

ATICAS PARALAS SERIES DE FOURIER


Denici on B.8. De la denici on del angulo entre dos vectores es claro que
podemos decir que dos vectores son ortogonales bajo el producto interno , ),
si este producto es igual a cero. Es decir:
v
i
v
j
v
i
, v
j
) = 0
Lema B.1. Supongamos un espacio vectorial 1 de dimension n, en que se tiene
una base de vectores:
B = v
1
, v
2
, . . . , v
n
(B.1)
Si los vectores de la base B son ortogonales entre si bajo un producto in-
terno , ), es decir:
v
i
, v
j
) =
_
0 ; si i ,= j
> 0 ; si i = j
(B.2)
Entonces, un vector arbitrario u 1 se representa como una combinaci on
lineal de los vectores de la base B de la forma:
u =
1
v
1
+
2
v
2
+. . . +
n
v
n
(B.3)
en que cada coeciente se calcula:

i
=
v
i
, u)
v
i
, v
i
)
(B.4)
Demostraci on
La representaci on (B.3) se deduce de inmediato del hecho de tener un con-
junto de n vectores linealmente independientes en un espacio vectorial 1 de
dimensi on n. Lo central que nos ata ne en este caso es el c alculo de los coe-
cientes (B.4).
Tomemos la ecuaci on (B.3), y apliquemosle producto interno con alguno de
los vectores de la base (B.1):
v
i
, u) = v
i
,
1
v
1
+
2
v
2
+. . . +
n
v
n
) (B.5)
Si aplicamos la linealidad del producto interno
v
i
, u) =
1
v
i
, v
1
) +
2
v
i
, v
2
) +. . . +
n
v
i
, v
n
) (B.6)
Y dada la ortogonalidad del conjunto B, los productos de la derecha son cero a
excepci on del que coinciden los ndices i :
u, v
i
) =
i
v
i
, v
i
) (B.7)
B.2. CONVERGENCIA DE LAS SERIES DE FOURIER 347
De donde se demuestra el resultado (B.4). 222
Lema B.2. Desigualdad de Cauchy-Schwartz
Si v
i
y v
j
son dos vectores arbitrarios en un espacio euclideano, es decir, un
espacio vectorial con norma inducida por un producto interno, entonces
v
i
, v
j
)
2
v
i
, v
i
) v
j
, v
j
) (B.8)
Demostraci on
Primero se observa que esta desigualdad es inmediata si cualquiera de los
vectores, v
i
o v
j
, es el vector cero. As es suciente considerar el caso en ambos
son no nulos.
Consideremos un vector (v
i
v
j
), cuya norma es no negativa
0 (v
i
v
j
), (v
i
v
j
)) (B.9)
=
2
v
i
, v
i
) 2v
i
, v
j
) +
2
v
j
, v
j
) (B.10)
De donde
2v
i
, v
j
)
2
v
i
, v
i
) +
2
v
j
, v
j
) (B.11)
Ahora, si tomamos =
_
v
j
, v
j
) y =
_
v
i
, v
i
) entonces
2

v
j
, v
j
)

v
i
, v
i
)v
i
, v
j
) 2v
i
, v
i
)v
j
, v
j
) (B.12)
v
i
, v
j
)

v
j
, v
j
)

v
i
, v
i
) (B.13)
Donde elevando al cuadrado se tiene la desigualdad a demostrar.
222
B.2. Convergencia de las Series de Fourier
B.2.1. Convergencia de sucesiones y series
A continuaci on se hace un breve repaso sobre convergencia de sucesiones y
series de funciones.
Denici on B.9. Se dice que una sucesi on de funciones f
k
(x) de funciones,
cada una denida en un intervalo I = [a, b], converge (puntualmente) en I, si
lm
k
f
k
(x
0
) existe x
0
I (B.14)
348AP

ENDICE B. BASES MATEM

ATICAS PARALAS SERIES DE FOURIER


Denici on B.10. Se dice que una sucesi on f
k
(x) de funciones, denidas en
un intervalo I = [a, b], converge uniformemente a una funci on f(x) en el
intervalo I si
> 0 K > 0 tal que k > K [f(x) f
k
(x)[ < a x b (B.15)
Estas dos deniciones sobre la convergencia de sucesiones son aplicables to-
talmente a series de funciones, ya que estas ultimas no son m as que sucesiones
de sumas parciales. Es decir, si se tiene una serie de funciones de la forma
S(x) =

n=1
f
n
(x) (B.16)
Sus propiedades de convergencia est an dadas por la convergencia de la suce-
si on S
k
(x), que es la suma parcial k-esima
S
k
(x) =
k

n=1
f
n
(x) (B.17)
Denici on B.11. Se dice que una serie de funciones
S(x) =

n=1
f
n
(x) (B.18)
converge absolutamente si la serie de los valores absolutos de su termino
general converge, es decir, si

n=1
[f
n
(x)[ (B.19)
converge. Note que por comparaci on de los terminos generales, si una serie
converge absolutamente, entonces tambien converge en el sentido usual
2
Lema B.3. M-Test de Weiertrass
Si tenemos una serie convergente de n umeros reales positivos

k=1
M
k
(B.20)
Y una serie de funciones en un intervalo I = [a, b]

k=1
f
k
(x) (B.21)
2
Sentido usual signica que la serie (B.18) converge
B.2. CONVERGENCIA DE LAS SERIES DE FOURIER 349
Tales que
[f
k
(x)[ M
k
(B.22)
Para cada k y para cada x I , entonces la serie de funciones

k=1
f
k
(x)
converge uniforme y absolutamente en el intervalo I.
Demostraci on
Por comparaci on entre los terminos de la serie numerica y la de funciones, se
sigue que para cada x
0
en el intervalo I, la serie converge absolutamente. As la
serie converge puntualmente a una funci on lmite f(x) en a x b. Ahora

f(x)
n

k=1
f
k
(x)

k=n+1
f
k
(x)

(B.23)

k=n+1
[f
k
(x)[ (B.24)

k=n+1
M
k
(B.25)
=

k=1
M
k

n

k=1
M
k
(B.26)
Donde en el lado derecho la expresi on tiende a cero cuando n . Ya que
esta convergencia no depende del x que se elija en I, es uniforme.
B.2.2. Convergencia de las Series de Fourier
Para estudiar la convergencia de la serie de Fourier de una funci on, a con-
tinuaci on se desarrollan algunos lemas que permiten determinar que la norma
del vector de error e
n
(t) = y(t) y
n
(t) tiende asint oticamente a cero, cuando
n .
Lema B.4. Desigualdad de Parseval
Si y(t) es una funci on per odica y A
0
, A
1
, ...A
n
y B
1
, ...B
n
son (algunos de
los) coecientes de su representaci on en serie de Fourier entonces
1
T
_ T
2

T
2
y
2
(t)dt A
2
0
+
1
2
n

k=1
_
A
2
k
+B
2
k
_
(B.27)
Demostraci on
La norma al cuadrado del error que se comete, que se representa en la gura
5.8 a la derecha, es:
350AP

ENDICE B. BASES MATEM

ATICAS PARALAS SERIES DE FOURIER


_
_
e
n
(t)
_
_
2
= e
n
(t), e
n
(t)) (B.28)
= e
n
(t), y(t) y
n
(t)) (B.29)
= e
n
(t), y(t)) e
n
(t), y
n
(t)) (B.30)
Pero seg un (5.37) el segundo termino es cero, y usando (5.38)
_
_
e
n
(t)
_
_
2
= e
n
(t), y(t)) (B.31)
= y(t), y(t)) y
n
(t), y(t)) (B.32)
=
_
_
y(t)
_
_
2

_
n

k=1

k
f
k
(t), y(t)
_
(B.33)
=
_
_
y(t)
_
_
2

k=1

k
f
k
(t), y(t)) (B.34)
que puede reescribirse como
_
_
e
n
(t)
_
_
2
=
_
_
y(t)
_
_
2

k=1

2
k
_
_
f
k
(t)
_
_
2
(B.35)
Si recordamos que la norma siempre es positiva o cero y se expresa mediante
integrales, y si calculamos la norma cuadr atica de cada f
k
(t) de la base (5.23)
obtenemos
_ T
2

T
2
e
2
n
(t)dt =
_ T
2

T
2
y
2
(t)dt
_
A
2
0
T +
n

k=1
_
A
2
k

T
2
+B
2
k

T
2
_
_
0 (B.36)
Con esto se obtiene la desigualdad de Parseval:
1
T
_ T
2

T
2
y
2
(t)dt A
2
0
+
1
2
n

k=1
_
A
2
k
+B
2
k
_
(B.37)
222
Corollario B.1. De la ecuaci on (B.27), se deduce adem as que
lm
k
A
k
= lm
k
2
T
_ T
2

T
2
y(t) cos(k
0
t)dt = 0 (B.38)
lm
k
B
k
= lm
k
2
T
_ T
2

T
2
y(t) sen(k
0
t)dt = 0 (B.39)
B.2. CONVERGENCIA DE LAS SERIES DE FOURIER 351
Demostraci on
Directa de la desigualdad de Parseval, ya que si la integral del lado izquierdo
existe, entonces la serie del lado derecho, cuyo termino general es no-negativo,
est a acotada superiormente. Esto permite armar que converge, lo que a su
vez implica que el termino general se hace cero cuando n , por tanto, los
coecientes A
k
y B
k
se hacen cero cuando k . 222
Lema B.5. La aproximaci on o serie de Fourier truncada y
n
(t) de una funci on
peri odica y(t) de perodo T, puede escribirse como
y
n
(t) =
2
T
_ T
2

T
2
y(t +s)
sen(
0
(n +
1
2
)s)
2 sen
_
0
2
s
_ ds ;
0
=
2
T
(B.40)
Demostraci on
La aproximaci on n-esima puede escribirse utilizando las ecuaciones (5.27)
y
n
(t) = A
0
+
n

k=1
[A
k
cos(k
0
t) +B
k
sen(k
0
t)] (B.41)
=
1
T
_ T
2

T
2
y()d (B.42)
+
n

k=1
_
cos(k
0
t)
2
T
_ T
2

T
2
y() cos(k
0
)d + sen(k
0
t)
2
T
_ T
2

T
2
y() sen(k
0
)d
_
(B.43)
=
2
T
_ T
2

T
2
y()
_
1
2
+
n

k=1
cos(k
0
t) cos(k
0
) + sen(k
0
t) sen(k
0
)
_
d
(B.44)
=
2
T
_ T
2

T
2
y()
_
1
2
+
n

k=1
cos(k
0
( t))
_
d (B.45)
Pero se puede utilizar la siguiente identidad trigonometrica
sen
__
k +
1
2
_

0
s
_
sen
__
k
1
2
_

0
s
_
= 2 sen
_

0
s
2
_
cos (k
0
s) (B.46)
Y si se hace la suma desde 1 hasta n, obtenemos
sen
__
n +
1
2
_

0
s
_
sen
_

0
s
2
_
= 2 sen
_

0
s
2
_
n

k=1
cos (k
0
s) (B.47)
352AP

ENDICE B. BASES MATEM

ATICAS PARALAS SERIES DE FOURIER


O bien,
1
2
+
n

k=1
cos (k
0
s) =
sen
__
n +
1
2
_

0
s
_
2 sen
_
1
2

0
s
_ (B.48)
Reemplazando en la integral se obtiene
y
n
(t) =
2
T
_ T
2

T
2
y()
sen
__
n +
1
2
_

0
( t)
_
2 sen
_
0
2
( t)
_ d (B.49)
Si se considera t jo y se hace el cambio s = t se obtiene
y
n
(t) =
2
T
_ T
2
t

T
2
t
y(t +s)
sen
__
n +
1
2
_

0
s
_
2 sen
_
0
2
s
_ ds (B.50)
En esta expresi on, si la funci on y(t) tiene perodo T, entonces puede probarse
que la funci on en el integrando tambien es peri odica en s, con perodo T. Esto
se deja como ejercicio al lector. Por lo tanto la integral puede calcularse en
cualquier intervalo de longitud T, en particular, en [
T
2
,
T
2
].
222
Lema B.6. Convergencia puntual.
Supongamos que y(t) es una funci on peri odica en (, ), de perodo T,
entonces para cada t
0
se cumple que
lm
n
y
n
(t
0
) =
y(t
+
0
) +y(t

0
)
2
(B.51)
En que y(t
+
0
) e y(t

0
) son los lmites por la derecha y por la izquierda de y(t)
en t
0
.
Demostraci on
Primero, y como resultado previo, observemos que si integramos a ambos
lados de la ecuaci on (B.48), obtenemos
_ T
2

T
2
sen
__
n +
1
2
_

0
s
_
2 sen
_
1
2

0
s
_ =
T
2
(B.52)
Ahora denamos la funci on
g(t) =
y(t
+
) +y(t

)
2
(B.53)
Esta coincide con y(t) s olo en sus puntos de continuidad y adem as hereda
su periodicidad. Podemos observar tambien que si t
0
es una discontinuidad de
y(t), lo es tambien de g(t) y
B.2. CONVERGENCIA DE LAS SERIES DE FOURIER 353
g(t
0
) =
y(t
+
0
) +y(t

0
)
2
=
g(t
+
0
) +g(t

0
)
2
(B.54)
Consideremos lo que sucede con el error e
n
(t
0
), entre g(t) y su representaci on
en serie de Fourier, a medida que n tiende a innito. Si usamos la igualdad recien
mencionada y la expresi on (B.40) para la n-esima suma parcial, el error puede
escribirse
e
n
(t
0
) = g(t
0
) g
n
(t
0
) (B.55)
=
2
T
_ T
2

T
2
g(t
0
)
sen(
0
(n +
1
2
)s)
2 sen
_
0
2
s
_ ds
2
T
_ T
2

T
2
g(t
0
+s)
sen(
0
(n +
1
2
)s)
2 sen
_
0
2
s
_ ds
(B.56)
=
2
T
_ T
2

T
2
[g(t
0
) g(t
0
+s)]
sen(
0
(n +
1
2
)s)
2 sen
_
0
2
s
_ ds (B.57)
=
2
T
_ T
2

T
2
_
g(t
0
) g(t
0
+s)
1
2

0
s
1
2

0
s
sen
_
1
2

0
s
_
_
sen
_

0
_
n +
1
2
_
s
_
ds
(B.58)
La expresi on entre corchetes dentro de la integral es seccionalmente continua
en el intervalo [
T
2
,
T
2
], siempre y cuando t
0
sea un punto de continuidad de g(t),
lo que permite armar que el primer cuociente de la expresi on entre corchetes
se transforma en la derivada cuando s 0. En estos puntos, usando la ecuaci on
(B.39), se deduce que
lm
n
e
n
(t
0
) = 0 (B.59)
O, lo que es lo mismo,
lm
n
g
n
(t
0
) = g(t
0
) =
g(t
+
0
) +g(t

0
)
2
(B.60)
Ya que, en este caso t
0
se ha supuesto un punto de continuidad, es decir,
g(t
+
0
) = g(t

0
) = g(t
0
).
En aquellos puntos (nitos) de discontinuidad de g(t), podemos denir la
funci on
G(t) = g(t +t
0
) g(t
0
) (B.61)
Si separamos esta funci on en sus partes par e impar
354AP

ENDICE B. BASES MATEM

ATICAS PARALAS SERIES DE FOURIER


G
par
(t) =
G(t) +G(t)
2
(B.62)
=
g(t +t
0
) +g(t +t
0
) 2g(t
0
)
2
(B.63)
G
impar
(t) =
G(t) G(t)
2
(B.64)
=
g(t +t
0
) g(t +t
0
)
2
(B.65)
La serie de Fourier de G
impar
(t) converge a cero en t = 0, pues es una
serie senoidal. Mientras que G
par
(t) es continua en t = 0 (cuya prueba se deja
al lector), por tanto su serie de Fourier converge a G
par
(0) = G(0). Con esto
podemos armar que la serie de Fourier de G(t) converge a cero en t = 0 y en
consecuencia
lm
n
G
n
(0) = 0 = lm
n
g
n
(t
0
) = g(t
0
) (B.66)
Es decir, la serie de Fourier de g(t) en t = t
0
converge a g(t
0
), tambien en el
caso de los puntos de discontinuidad.
Ahora dada la denici on de g(t) en (B.53), su expresi on en serie de Fourier
coincide con la de y(t), por tanto la convergencia puntual debe ser la misma.
En consecuencia, el lema queda demostrado.
222
Lema B.7. Convergencia uniforme
Supongamos que y(t) es una funci on continua en (, ), de perodo T,
cuya primera derivada y
t
(t) es seccionalmente continua. Entonces, su serie de
Fourier converge uniformemente a y(t) en cualquier intervalo [a, b]. Es decir,
> 0 N > 0 ; n > N [y(t) y
n
(t)[ < t [a, b] (B.67)
Demostraci on
Sean
A
0
+

n=1
[A
n
cos(n
0
t) +B
n
sen(n
0
t)] (B.68)
A
t
0
+

n=1
[A
t
n
cos(n
0
t) +B
t
n
sen(n
0
t)] (B.69)
Las series de Fourier de y(t) e y
t
(t), respectivamente. Entonces, dada la
periodicidad de y(t), tenemos que
B.2. CONVERGENCIA DE LAS SERIES DE FOURIER 355
A
t
0
=
1
T
_ T
2

T
2
y
t
(t)dt (B.70)
=
1
T
[y(T/2) y(T/2)] (B.71)
= 0 (B.72)
Mientras que para n > 0 tenemos
A
t
n
=
2
T
_ T
2

T
2
y
t
(t) cos(n
0
t)dt (B.73)
=
2
T
_
y(t) cos(n
0
t)

T
2

T
2
+n
0
_ T
2

T
2
y(t) sen(n
0
t)dt
_
(B.74)
= n
0
2
T
_ T
2

T
2
y(t) sen(n
0
t)dt (B.75)
= n
0
B
n
(B.76)
B
t
n
=
2
T
_ T
2

T
2
y
t
(t) sen(n
0
t)dt (B.77)
=
2
T
_
y(t) sen(n
0
t)

T
2

T
2
n
0
_ T
2

T
2
y(t) cos(n
0
t)dt
_
(B.78)
= n
0
2
T
_ T
2

T
2
y(t) sen(n
0
t)dt (B.79)
= n
0
A
n
(B.80)
Utilizando la desigualdad de Parseval (B.27), podemos armar que

n=1
_
A
t
n
2
+B
t
n
2
_
=

n=1
_
n
0
_
A
n
2
+B
n
2
_
2
(B.81)

1
T
_ T
2

T
2
y
t
(t)
2
dt < (B.82)
Si se observa el termino general n
0
_
A
2
n
+B
2
n
de la segunda serie, se
aprecia que pertenece al conjuto de todas las sucesiones cuadrado sumables,
al igual que la sucesi on 1/(n
0
). En ambas sucesiones n = 1, 2, . . . . En con-
secuencia el producto de estas sucesiones tambien es cuadrado sumable, por
tanto

n=1
_
1
n
0
n
0
_
A
n
2
+B
n
2
_
=

n=1
_
A
n
2
+B
n
2
(B.83)
356AP

ENDICE B. BASES MATEM

ATICAS PARALAS SERIES DE FOURIER


Tambien converge.
Si ahora usamos la desigualdad de Cauchy-Schwartz (B.8)
[(A
n
, B
n
); (cos(n
0
t), sen(n
0
t)))[ |(A
n
, B
n
)| |(cos(n
0
t), sen(n
0
t))|
(B.84)
A
n
cos(n
0
t) +B
n
sen(n
0
t)
_
A
n
2
+B
n
2
_
cos
2
(n
0
t) + sen
2
(n
0
t)
(B.85)
=
_
A
n
2
+B
n
2
(B.86)
Con esto se puede comparar la serie
[A
0
[ +

n=1
[A
n
cos(n
0
t) +B
n
sen(n
0
t)[ (B.87)
con la serie convergente de constantes positivas
[A
0
[ +

n=1
_
A
n
2
+B
n
2
(B.88)
el M-test de Weierstrass (vea el Lema B.3) asegura por tanto que
A
0
+

n=1
[A
n
cos(n
0
t) +B
n
sen(n
0
t)] (B.89)
converge uniformemente en cualquier intervalo cerrado. Pero, por el lema de
convergencia puntual antes visto, sabemos que esta serie converge a y(t) punto
a punto.
222
Con los resultados hasta aqu obtenidos estamos en condiciones ya de de-
mostrar que la norma del error que se comete al representar en serie de Fourier
una funci on seccionalmente continua tiende asint oticamente a cero.
Lema B.8. Sea y(t) una funci on denida en (, ), de periodo T, seccional-
mente continua y con primera derivada seccionalmente continua. Entonces, si
y
n
(t) es la n-esima suma parcial de su representaci on en serie de Fourier, la
norma del error e
n
(t) = y(t) y
n
(t) es tal que
lm
n
|e
n
(t)| = 0 (B.90)
Demostraci on
Es directa de (B.67), ya que si tomamos y(t) en el intervalo [
T
2
,
T
2
], y
denotamos por t
1
, t
1
, . . . , t
m
los puntos en que y(t) es discontinua dentro
de el, entonces, dado un > 0, para cada uno de los m + 1 subintervalos
(
T
2
, t
1
), . . . , (t
k
, t
k+1
), . . . , (t
m
,
T
2
) existe una constante N
k
tal que
B.2. CONVERGENCIA DE LAS SERIES DE FOURIER 357
n > N
k
[y(t) y
n
(t)[ < (B.91)
[e
n
(t)[ < t (t
k
, t
k+1
) (B.92)
Si elegimos N = m axN
k

k=1,...,m+1
podemos asegurar que
n > N [e
n
(t)[ < t [
T
2
,
T
2
] t
1
, . . . , t
k+1
(B.93)
Por tanto
|e
n
(t)|
2
=
_ T
2

T
2
e
n
2
(t)dt (B.94)
=
_
t1

T
2
e
n
2
(t)dt +. . . +
_
t
k+1
t
k
e
n
2
(t)dt +. . . +
_ T
2
tm
e
n
2
(t)
2
dt (B.95)
<
2
(t
1
(
T
2
)) +. . . +
2
(t
k+1
t
k
) +. . . +
2
(
T
2
t
m
) =
2
T
(B.96)
Con esto podemos armar, que dado un peque no siempre es posible escoger
N sucientemente grando de manera que [e
n
(t)[ <

T , y por tanto converge


a cero.
222
Corollario B.2. Identidad de Parseval
Si y(t) es una funci on per odica y A
0
, A
1
, ...A
n
y B
1
, ...B
n
son los coe-
cientes de su representaci on en serie de Fourier, entonces
1
T
_ T
2

T
2
y
2
(t)dt = A
2
0
+
1
2
n

k=1
_
A
2
k
+B
2
k
_
(B.97)
Demostraci on
Es directa de la ecuaci on (B.36), donde como consecuencia del lema anterior
(B.90), la norma del error, adem as de ser positiva, tiende asint oticamente a cero.
Por tanto la desigualdad (B.27) se transforma en la identidad (B.97).
La serie de Fourier es s olo una representaci on de la funci on y(t), en el sentido
que converge al mismo valor que y(t) en los puntos que esta funci on es
continua, y en aquellos en que hay discontinuidades o saltos, la serie converge
al promedio de los lmites laterales. Note que estas diferencias entre la se nal
y su representaci on en serie de Fourier no son detectadas por la funci on de
error minimizada, la cual puede de todos modos alcanzar el valor mnimo
(cero).
358AP

ENDICE B. BASES MATEM

ATICAS PARALAS SERIES DE FOURIER


transformadadeFourier
transformadadeFourierinversa
Apendice C
La transformaci on de
Fourier
C.1. Transformaci on de Fourier en tiempo con-
tinuo
C.1.1. Denici on de la Transformada
Dada una funci on y(t) en el intervalo ] , [ , su transformada de
Fourier Y ( ) y su transformada de Fourier inversa quedan denidas por las
ecuaciones
T [y(t)] = Y ( ) =
_

y(t)e
t
dt (C.1)
T
1
[Y ( )] = y(t) =
1
2
_

Y ( )e
t
d (C.2)
Para que la transformada exista es suciente que la funci on y(t) sea absolu-
tamente integrable en el intervalo < t < , es decir:
_

y(t)

dt <
Existen funciones que a pesar de no cumplir con esta condici on, es posible
calcular su transformada de Fourier.
Veamos a manera de ejemplo c omo se puede obtener la transformada de
Fourier del delta de Dirac, a partir de la transformada de un pulso como el del
ejemplo 6.1 (p ag. 121).
359
360 AP

ENDICE C. LA TRANSFORMACI

ON DE FOURIER
Ejemplo C.1. Consideremos un pulso centrado en el cero, de ancho y altura
1/, es decir, una funci on
y

(t) =
_
_
_
1

; [t[ /2
0 ; [t[ > /2
Esta funci on est abien denida t ] , [, y el area del pulso es unitaria
> 0. Su transformada de Fourier por tanto puede obtenerse, en base al
ejemplo 6.1 ya mencionado, o por la denici on (C.1) ser a
Y

( ) =
_
/2
/2
1

e
t
dt
=
1

_
e

2
e

2
_
=
sen
_

2
_

2
Puede apreciarse que a medida que 0, la funci on se transforma en
un pulso mas alto y angosto, siendo esta funci on una de las aproximaciones
asint oticas del Delta de Dirac, pues es cero en todo instante, excepto t = 0, y
su integral es unitaria. En tanto, su trasnformada de Fourier se hace cada vez
m as plana. Estas ideas se pueden apreciar en la gura C.1.
0
2
4
6
8
10
12
14
16
1 0.8 0.6 0.4 0.2 0.2 0.4 0.6 0.8 1
t
(a) Pulso y

(t)
0.2
0
0.2
0.4
0.6
0.8
1
40 30 20 10 10 20 30 40
w
(b) Espectro Y

( )
Figura C.1: Pulso y su transformada para = 1,
1
4
,
1
16
.
Analticamente tenemos que en el lmite, cuando 0 :
C.1. TRANSFORMACI

ON DE FOURIER EN TIEMPO CONTINUO 361


y

(t) (t)

Y

( ) =
sen(

2
)

2
Y ( ) = 1
C.1.2. Propiedades de la Transformada de Fourier
Existen diversas propiedades de la transformada de Fourier que resultan de
mucha utilidad en el an alisis frecuencial de se nales y su relaci on con los sistemas
lineales, que adem as permiten ontener la transformada de Fourier de una funci on
a partir de algunas m as b asicas.
Lema C.1. Simetra.
Sea y(t) una funci on denida t, cuya transformada de Fourier es Y ( ),
entonces si consideramos la funci on Y (t), en el dominio del tiempo ahora, su
transformada de Fourier es
TY (t) = 2y( ) (C.3)
Demostraci on
Es directa de reemplazar Y (t) en la denici on de la transformada y recor-
dando la ecuaci on que dene a y(t) como transformada inversa de Y ( )
TY (t) =
_

Y (t)e
t
dt
= 2
1
2
_

Y (t)e
jt()
dt
= 2y( )
222
Ejemplo C.2. Consideremos una funci on constante y(t) = C. Esta funci on
no es absolutamente integrable, sin embargo, su transformada de Fourier puede
obtenerse en base a la transformada del Delta de Dirac:
T y(t) = T C
= C T 1
= C 2()
= C 2()
Veamos ahora c omo se ve afectada la transformada de Fourier de una se nal
cuando esta es desplazada en el tiempo, que puede ser el caso en que existe, por
ejemplo, retardo.
362 AP

ENDICE C. LA TRANSFORMACI

ON DE FOURIER
Desplazamientoeneltiempo
Desplazamientoenfrecuencia
Lema C.2. Desplazamiento en el tiempo.
Si tenemos una funci on y(t) denida para < t < , cuya transformada
de Fourier es Y ( ), entonces la transformada de Fourier de y(t t
0
) es
Ty(t t
0
) = e
t0
Y ( ) (C.4)
Demostraci on
Aplicando la denici on de la Transformada de Fourier, para la funci on y(t)
desplazada en el tiempo, tenemos que
Ty(t t
0
) =
_

y(t t
0
)e
t
dt
= e
t0
_

y(t t
0
)e
(tt0)
dt
Donde si se dene t

= t t
0
se puede reescribir la integral como
Ty(t t
0
) = e
t0
_

y(t

)e
t

dt

= e
t0
Y ( )
222
Ejemplo C.3. Si se aplica este lema al ejemplo 6.1, obtenemos que si el pulso
de amplitud A no est a centrado en el origen, sino que se ha desplazado a la
derecha, ubic andose en el intervalo [0, ] su transformada de Fourier ser a
Ty
[0,]
(t) = e
jw

2
A
sen
_

2
_

2
Si analizamos en que cambia realmente la transformada de Fourier del pulso
al desplazarlo en el tiempo, podemos apreciar que s olo el angulo de Y ( ) es el
que se ve afectado, ya que su m odulo permanece invariante. Esto era esperable
ya que la ubicaci on del instante t = 0, cuando estamos considerando una funci on
denida para < t < , es arbitraria afectando s olo las fases relativas de
sus componentes en frecuencia.
Veamos que pasa en la contraparte del lema de desplazamiento en el tiempo,
pero en el dominio de la frecuencia .
Lema C.3. Desplazamiento en la frecuencia.
Si tenemos, al igual que antes, una funci on y(t) denida en toda la recta
real, es decir, para < t < , cuya transformada de Fourier es Y ( ),
entonces
Te
at
y(t) = Y ( a) ; a C (C.5)
C.1. TRANSFORMACI

ON DE FOURIER EN TIEMPO CONTINUO 363


Demostraci on
Si aplicamos la denici on de la transformada a la funci on y(t) multiplicada
por la exponencial peri odica e
0t
tenemos que
Te
at
y(t) =
_

e
at
y(t)e
t
dt
=
_

y(t)e
( a)t
dt
En que se puede denir

= a
Te
at
y(t) =
_

y(t)e

t
dt
= Y (

)
= Y ( a)
222
Ejemplo C.4. Con este lema podemos obtener la transformada de Fourier de
una exponencial peri odica, considerando en la ecuaci on (C.5) a =
0
:
T
_
e
0t
_
= T
_
e
0t
1
_
= 2(
0
)
= 2(
0
)
Ya que el delta de Dirac es diferente de cero s olo en el punto en que su
argumento es igual a cero.
A partir de esta transformada, utilizando la ecuaci on de Euler, se pueden
obtener sin problema la del coseno y del seno:
T cos(
0
t) = T
_
e
0t
+e
0t
2
_
=
1
2
_
T
_
e
0t
_
+T
_
e
0t
_
= [( +
0
) +(
0
)]
T sin(
0
t) = T
_
e
0t
e
0t
2j
_
=
j
2
_
T
_
e
0t
_
+T
_
e
0t
_
= j [( +
0
) (
0
)]
364 AP

ENDICE C. LA TRANSFORMACI

ON DE FOURIER
Este lema tiene importantes aplicaciones en el an alisis de se nales que se
modulan en frecuencia y aquellas que son peri odicas, como puede apreciarse en
los siguientes corolarios.
Corollario C.1. Modulaci on.
Si tenemos una se nal y(t) denida para todo t R, cuyo espectro (transfor-
mada de Fourier) es Y ( ), entonces
Tcos(
0
t)y(t) =
1
2
[Y (
0
) +Y ( +
0
)] (C.6)
Demostraci on
Esta es directa del lema anterior utilizando la ecuaci on de Euler, es decir,
escribiendo cos(
0
t) con exponenciales peri odicas. Esto es
Tcos(
0
t)y(t) = T
_
1
2
(e
0t
+e
0t
)y(t)
_
=
1
2
_
Te
0t
y(t) +Te
0t
y(t)
_
=
1
2
(Y (
0
) +Y ( +
0
))
222
Se deja al lector la demostraci on del corolario que se obtiene por analoga
en el caso que en vez de cos(
0
t) se utiliza sen(
0
t).
Ejemplo C.5. En ambos casos de modulaci on planteados, cosenoidal y senoidal,
al hacer el producto de una se nal con una sinusoide se logra desplazar el espectro,
o contenido de frecuencias de la se nal. Esto permite llevar, por ejemplo, se nales
de contenido de baja frecuencia (como la voz humana, en la banda de 04[kHz]),
a bandas de frecuencia para transmisi on radial (por ejemplo 1[MHz]).
Esta idea se muestra en la gura C.2
|F{y(t)cos(210
6
t)}|
1[MHz]
4[kHz]
]Jy(t)]]
Figura C.2: Espectro de una se nal de frecuencias audible y espectro de la se nal
modulada.
Corollario C.2. Funciones Peri odicas.
Si tenemos una se nal peri odica y
T
(t), en un intervalo de longitud T, esta
no es una funci on absolutamente integrable y su transformada de Fourier no
C.1. TRANSFORMACI

ON DE FOURIER EN TIEMPO CONTINUO 365


puede obtenerse a traves de la denici on (C.1). Sin embargo, sabemos ya que
una se nal peri odica podemos representarla mediante una Serie de Fourier (rep-
resentaci on en el tiempo) ya sea trigonometrica o con exponenciales peri odicas.
En los desarrollos realizados adem as ya hemos encontrado las expresiones para
las transformadas de Fourier de una constante, del coseno, del seno y de una ex-
ponencial peri odica, por tanto, la transformada de Fourier de una se al peri odica
se puede obtener:
T y
T
(t) = T
_

n=
C
n
e
nt
_
En que
n
= n2/T, y por linealidad
T y
T
(t) =

n=
C
n
T
_
e
nt
_
=

n=
C
n
( +
n
)
Ejemplo C.6. Consideremos el tren de pulsos de la gura C.3 denido por
y(t) =
_

_
+1 ; 0 [t[

2
1 ;

2
< [t[
y(t + 2) ; [t[ >
t
1
1

y(t)
Figura C.3: Tren de pulsos
La integral del valor absoluto de la funci on claramente diverge, y si intenta-
mos obtener la transformada de Fourier de esta funci on utilizando la denici on
(C.1), llegamos a una expresi on difcil de simplicar. En cambio, la funci on y(t)
puede expresarse mediante su serie de Fourier, que en este caso ser a cosenoidal,
pues y(t) es par:
366 AP

ENDICE C. LA TRANSFORMACI

ON DE FOURIER
y(t) =

n=1
A
n
cos(nt)
A
n
=
1

y(t) cos(nt)dt
Calculando los coecientes B
n
, se obtiene
y(t) =

n=1
4
n
sen
_
n
2
_
cos(nt)
Luego,
Y ( ) =

n=1
4
n
sen
_
n
2
_
[( +n) +( n)]
=

n=
n,=0
4
n
sen
_
n
2
_
( +n)
Es decir, los coecientes A
n
se transforman en las amplitudes de los deltas
de Dirac en el espectro Y ( ), como se puede apreciar en la gura C.4
0.4
0.2
0
0.2
0.4
0.6
0.8
1
1.2
2 4 6 8 10
w
(a) Coecientes An
0.2
0
0.2
0.4
0.6
10 5 5 10
(b) Espectro Y ( )
Figura C.4:
Lema C.4. Escalamiento.
Sea y(t) una funci on denita para t ] , [, y a una constante real
distinta de cero, entonces
C.1. TRANSFORMACI

ON DE FOURIER EN TIEMPO CONTINUO 367


Ty(at) =
1
[a[
Y (j

a
) (C.7)
Demostraci on
Si reemplazamos la funci on escalada y(at) en la denici on de la integral,
podemos ah denir una nueva variable t

= at, pero se debe tener en cuenta


que el signo de a determina si los lmites de la integral se mantienen o se deben
intercambiar:
Ty(at) =
_

y(at)e
t
dt
=
_

_
_

y(t

)e

t

a
dt

a
; si a > 0
_

y(t

)e

t

a
dt

a
; si a < 0
Dado que el cambio de orden en los lmites de la integral es un cambio de
signo, ambas expresiones pueden juntarse en una sola:
Ty(at) =
signo(a)
a
_

y(t

)e
j

a
t

dt

Que es lo mismo que


Ty(at) =
1
[a[
Y (j

a
)
222
A partir de este lema puede vericarse directamente que
Ty(t) = Y ( ) (C.8)
A continuaci on veamos algunas propiedades de la transformada de Fourier
que tienen directa relaci on con la aplicaci on de esta en la soluci on de las ecua-
ciones diferenciales y el an alisis de sistemas, que se reeren a la transformada
de la derivada, de la integral y de la convoluci on de funciones.
Lema C.5. Derivaci on en t.
Sea y(t) una funci on denida en toda la recta real talque y(t) 0 cuando
t , y cuya transformada de Fourier es Y ( ) . Entonces, la transformada
de Fourier de la derivada de y(t) con respecto al tiempo es
T
_
d y(t)
dt
_
= Y ( ) (C.9)
368 AP

ENDICE C. LA TRANSFORMACI

ON DE FOURIER
Demostraci on
Si se aplica la denici on de la transformada de Fourier a la derivada
d y(t)
dt
,
y se integra por partes, se obtiene:
T
_
d y(t)
dt
_
=
_

d y(t)
dt
e
t
dt
=
_
y(t)e
t

+
_

y(t)e
t
dt
Y dada la condici on asint otica sobre y(t) cuando t , s olo sobrevive el
segundo termino
T
_
d y(t)
dt
_
=
_

y(t)e
t
dt
= Y ( )
222
Es importante hacer notar que este lema no garantiza la existencia de la
transformada de la derivada temporal de y(t), sino que, en caso de existir, su
expresi on puede obtenerse utilizando (C.9). Para las derivadas de orden supe-
rior en tanto, tenemos el siguiente corolario, que se debe utilizar con la misma
precauci on antes mencionada:
Corollario C.3. Derivadas de orden superior
Para una funci on y(t) denida como en el lema anterior, tenemos que
T
_
d
n
y(t)
dt
n
_
= ( )
n
Y ( ) (C.10)
Demostraci on
Se deja al lector, pues es directa por inducci on, aplicando recursivamente el
lema anterior.
222
Lema C.6. Transformada de la integral.
Sea y(t) una funci on denida en todos los reales, cuya transformada de
Fourier es Y ( ). Entonces, la transformada de su integral denida es
T
__
t

y()d
_
=
1

Y ( ) +Y (0)() (C.11)
C.1. TRANSFORMACI

ON DE FOURIER EN TIEMPO CONTINUO 369


Demostraci on
Para demostrar esta propiedad debemos en primer lugar observar que si
denimos
1
(t) como la integral denida de y(t), entonces
d
1
(t)
dt
=
d
dt
__
t

y()d
_
= y(t)
Pero tambien se cumple, para cualquier constante real k, que
d
dt
(
1
(t) +k) = y(t)
Por tanto, aplicando Fourier y la ecuaci on (C.9)
(
1
( ) + 2k()) = Y ( )
Luego, ya tenemos una forma para la transformada de la derivada, que es

1
( ) =
1

Y ( ) 2k() (C.12)
Por tanto nos resta encontrar el valor de k. Para esto consideremos nueva-
mente la integral indenida
1
(t)

1
(t) =
_
t

y()d
=
_

y()d +
_
t

y()d
=
_

y()d
_
t

y(x)dx
Donde se ha cambiando la variable x = , en la segunda integral.
Si denimos

2
(t) =
_
t

y(x)dx

2
( ) =
1

Y ( ) 2k()
Es su transformada de Fourier, seg un la forma (C.12). Entonces podemos
retomar la funci on
1
(t), y aplicarle transformada de Fourier
370 AP

ENDICE C. LA TRANSFORMACI

ON DE FOURIER

1
(t) =
_

y()d
2
(t)

1
( ) = 2
__

y()d
_
()
2
( )
1

Y ( ) 2k() = 2
__

y()d
_
()
_
1

Y ( ) 2k()
_
Donde si se observa que () = (), se puede despejar la constante k:
k =
1
2
_

y()d
=
1
2
__

y()e

d
_

=0
=
1
2
Y (0)
Por tanto

1
( ) =
1

Y ( ) +Y (0)()
222
Ejemplo C.7. El lema anterior puede utilizarse para obtener la transformada
del escal on unitario (t) o funci on de Heaviside, a partir de la transformada del
delta de Dirac.
Dada la denici on del Delta Dirac y de la funci on de Heaviside, tenemos que
_
t

()d =
_
0 ; t < 0
1 ; t > 0
= (t)
Por tanto,
T (t) = T
__
t

()d
_
=
1

T (t) +() T (t)[
=0
=
1

+()
C.1. TRANSFORMACI

ON DE FOURIER EN TIEMPO CONTINUO 371


Lema C.7. Convoluci on en el tiempo.
Sean y
1
(t) e y
2
(t), dos funciones denidas para < t < , cuyas trans-
formadas de Fourier son Y
1
( ) e Y
2
( ), respectivamente. Entonces, la trans-
formada de Fourier de la convoluci on entre ellas es
Ty
1
(t) y
2
(t) = Y
1
( )Y
2
( ) (C.13)
Recordando que la convoluci on se dene como:
y
1
(t) y
2
(t) =
_

y
1
()y
2
(t )d (C.14)
Demostraci on
Insertando la expresi on de la convoluci on en la transformada se obtiene
Ty
1
(t) y
2
(t) =
_

__

y
1
()y
2
(t )d
_
e
t
dt
donde si se intercambia el orden de integraci on
Ty
1
(t) y
2
(t) =
_

y
1
()
__

y
2
(t )e
t
dt
_
d
Que usando la ecuaci on (C.4) es igual a
Ty
1
(t) y
2
(t) =
_

y
1
()
_
e

Y
2
( )
_
d
= Y
2
( )
_

y
1
()e

d
= Y
2
( )Y
1
( )
222
Veamos a continuaci on cu al es la transformada de Fourier de un producto de
funciones que puede resultar util para el calculo de la transformada de Fourier
de alguna funci on m as complicada.
Lema C.8. Producto de funciones.
Sean y
1
(t) e y
2
(t) funciones denidas para < t < , cuyas transfor-
madas de Fourier son Y
1
( ) e Y
2
( ), respectivamente. Entonces, la transfor-
mada de Fourier del producto entre ellas es
Ty
1
(t)y
2
(t) =
1
2
Y
1
( ) Y
2
( ) (C.15)
372 AP

ENDICE C. LA TRANSFORMACI

ON DE FOURIER
Demostraci on
Consideremos la transformada de Fourier inversa de la convoluci on de fun-
ciones en
T
1
Y
1
( ) Y
2
( ) =
1
2
_

Y
1
( ) Y
2
( )e
t
d
=
1
2
_

__

Y
1
(j)Y
2
( j)d
_
e
t
d
Intercambiando el orden de integraci on
T
1
Y
1
( ) Y
2
( ) =
1
2
_

Y
1
(j)
__

Y
2
( j)e
t
d
_
d
Donde si se dene j =

T
1
Y
1
( ) Y
2
( ) =
1
2
_

Y
1
(j)
__

Y
2
(

)e
(

+j)t
d

_
d
= 2
_
1
2
_

Y
1
(j)e
jt
d
__
1
2
_

Y
2
(

)e
j

t
d

_
= 2y
1
(t)y
2
(t)
Con lo que el lema queda demostrado.
222
Teorema C.1 (Teorema de Parseval. El caso de tiempo continuo). Sean
Y
1
( ) y Y
2
( ) las tranformadas de Fourier de las funciones (reales) y
1
(t) e
y
2
(t) respectivamente, denidas t ] , [. En tonces tenemos que
_

y
1
(t)y
2
(t)dt =
1
2
_

Y
1
( )Y
2
( )d (C.16)
Demostraci on
Esto se demuestra con ayuda del lema de convoluci on en el tiempo (C.13).
Seg un este tenemos que
y
1
(t) y
2
(t) = T
1
Y
1
( )Y
2
( )
_

y
1
()y
2
(t )d =
1
2
_

Y
1
( )Y
2
( )e
t
d
C.1. TRANSFORMACI

ON DE FOURIER EN TIEMPO CONTINUO 373


Si evaluamos en t = 0, queda
_

y
1
()y
2
()d =
1
2
_

Y
1
( )Y
2
( )d
Donde si se reemplaza al lado izquierdo por t, y usamos la ecuaci on (C.8)
que establece que T y
2
(t) = Y
2
( ), entonces queda demostrado el lema.
222
Corollario C.4. Un caso especial del lema anterior es cuando se considera
y
1
(t) = y
2
(t) = y(t), con lo que la ecuaci on (C.16) se transforma en
_

y(t)
2
dt =
1
2
_

Y ( )Y ( )d
Pero dado que Y ( ) es el complejo conjugado de Y ( ), el integrando a
la derecha es la norma cuadrado de la transformada, es decir
_

y(t)
2
dt =
1
2
_

[Y ( )[
2
d (C.17)
En la tabla C.1 se muestra un resumen de las propiedades hasta aqu re-
visadas y que sirven para el calculo de la transformada de Fourier de las fun-
ciones m as comunes, como las que se muestran en la tabla C.2
374 AP

ENDICE C. LA TRANSFORMACI

ON DE FOURIER
transformadadeFourierdiscreta
transformadadeFourierdiscretainversa
C.2. Transformada de Fourier en tiempo discre-
to
C.2.1. Denici on de la transformada
Dada una funci on denida en tiempo discreto y[k] , en que k Z , su
transformada de Fourier discreta Y (e
j
) y su transformada de Fourier discreta
inversa quedan denidas por las ecuaciones
T
d
y(t) = Y (e
j
) =

k=
y[k]e
jk
(C.18)
T
d
1
_
Y (e
j
)
_
= y[k] =
1
2
_
2
0
Y (j)e
jk
d (C.19)
La transformada Y (e
j
) denida en (C.18) resulta ser peri odica, de perodo
2, por tanto la integral que dene la transformada inversa (C.19), puede cal-
cular en cualquier intervalo de longitud 2. De hecho, algunos textos la denen
en el intervalo [, ]
Para que la transformada exista es suciente que la funci on y[k] sea absolu-
tamente sumable en el intervalo < k < , es decir:

k=

y[k]

<
Si bien existen funciones que no cumplen con esta condici on, a pesar de ello
poseen transformada de Fourier discreta.
A continuaci on se muestran algunos ejemplos para ver c omo se obtiene la
transformada de Fourier discreta para un delta de Kronecker, para una secuencia
constante y para una exponencial decreciente discreta.
Ejemplo C.8. Consideremos primero la secuencia
y[k] =
K
[k] =
_
1 ; k = 0
0 ; k ,= 0
Es decir, un delta de Kronecker . Esta secuencia es absolutamente sum-
able, por tanto se cumple la condici ojn suciente para la existencia de su trans-
formada discreta. Si calculamos esta usando la denici on tenemos que la serie
innita se traduce en un solo termino
C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 375
Y (e
j
) =

k=

K
[k]e
jk
=
K
[0]e
j0
= 1
Es decir, su transformada de Fourier discreta es constante. Podemos inter-
pretar esto de manera an aloga al delta de Dirac en tiempo continuo, cuya trans-
formada tambien es constante y representa un espectro plano, o igual contenido
de frecuencias en todo el espectro.
Ejemplo C.9. Consideremos ahora el caso opuesto en que tenemos una se-
cuencia constante que se escoge de amplitud uno por simplicidad. Es decir, la
secuencia que nos interesa es
y[k] = 1 k Z
Esta secuencia no es absolutamente sumable, ya que

k=

Sin embargo, si usamos la denici on de la transformada tenemos que


Y (e
j
) =

k=
1 e
jk
En que la serie al lado derecho podemos interpretarla como una representaci on
en serie exponencial de Fourier de alguna funci on peri odica, en que el coeciente
es C
k
= 1 , para todo k. Si recordamos, el coeciente C
k
en una serie de Fourier
exponencial para una funci on peri odica f() se calcula como
C
k
=
1
T
_ T
2

T
2
f()e
j
2
T
k
Con lo que la funci on se expresa como
f() =

k=
C
k
e
j
2
T
k
De aqu podemos observar que el perodo de la funci on peri odica debe ser
T = 2, y para que la integral que dene a C
k
sea unitaria basta que la funci on,
dentro del intervalo [, ] sea un delta Dirac de amplitud 2, centrado en
= 0.
376 AP

ENDICE C. LA TRANSFORMACI

ON DE FOURIER
Es decir, la transformada de Fourier discreta de la secuencia constante
y[k] = 1 es igual a
Y (e
j
) = 2

n=
( 2n)
Esto se puede comprobar calculando la transformada de Fourier discreta in-
versa, mediante la integral (C.19), que dada la periodicidad basta calcularla en
cualquier intervalo de longitud 2
y[k] =
1
2
_

Y (e
j
)e
jk
d
=
1
2
_

n=
( 2n)e
jk
d
=
_

()e
jk
d
= 1 k Z
Ejemplo C.10. Consideremos ahora la se nal
y[k] =
k
[k] [[ < 1
Su transformada de Fourier discreta ser a
Y (e
j
) =

k=0

k
e
jk
=

k=0
(e
j
)
k
Que resulta ser una serie geometrica convergente ya que [e
j
[ < 1. Por
tanto su suma es
Y (e
j
) =
1
1 e
j
C.2.2. Propiedades de la transformada de Fourier discreta
A continuaci on se detallan una serie de propiedades de la transformada de
Fourier discreta que resultan utiles para la obtenci on de algunas transformadas
y para el an alisis de sistemas.
C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 377
Lema C.9. Linealidad
La transformada de Fourier discreta es una transformaci on lineal, es decir,
si y
1
[k] e y
2
[k] son dos secuencias denidas k Z, cuyas transformadas de
Fourier son Y
1
(e
j
) e Y
2
(e
j
) respectivamente, entonces
T
d
y
1
[k] +y
2
[k] = Y
1
(e
j
) +Y
2
(e
j
) (C.20)
Demostraci on
Es directa de la denici on de la transformada (C.18), ya que
T
d
y
1
[k] +y
2
[k] =

k=
(y
1
[k] +y
2
[k])e
jk
=

k=
y
1
[k]e
jk
+

k=
y
2
[k]e
jk
= Y
1
(e
j
) +Y
2
(e
j
)
222
Lema C.10. Corrimiento en el tiempo.
Sea y[k] una secuencia de tiempo discreto denida k Z, cuya transfor-
mada de Fourier es Y (e
j
) , y sea k
0
un n umero entero, entonces
T
d
y[k k
0
] = e
jk0
Y (e
j
) k
0
Z (C.21)
Demostraci on
Consideremos la denici on de la transformada (C.18), y tomemos k
0
Z,
entonces
T
d
y[k k
0
] =

k=
y[k k
0
]e
jk
Sea k k
0
= l, entonces k = l +k
0
y reemplazando en la sumatoria
T
d
y[k k
0
] =

l=
y[l]e
j(l+k0)
= e
jk0

l=
y[l]e
jl
= e
jk0
Y (e
j
)
378 AP

ENDICE C. LA TRANSFORMACI

ON DE FOURIER
222
Lema C.11. Corrimiento en frecuencia.
Sea y[k] una secuencia de tiempo discreto denida k Z, con transformada
Y (e
j
) , y sea 0 <
0
< 2 un n umero real, entonces consideremos la transfor-
mada de la secuencia original multiplicada por una exponencial peri odica
T
d
_
e
j0k
y[k]
_
= Y (e
j(0)
) (C.22)
Demostraci on
Para demostrar la propiedad anterior podemos considerar directamente la
denici on (C.18)
T
d
_
e
j0k
y[k]
_
=

k=
e
j0k
y[k]e
jk
=

k=
y[k]e
j(0)k
Sea
0
= , entonces reemplazando
T
d
_
e
j0k
y[k]
_
=

k=
y[k]e
jk
= Y (e
j
)
= Y (e
j(0)
)
Note que si la frecuencia
0
/ ]0, 2[ , es decir, se encuentra fuera de la banda
que hemos considerado hasta ahora, siempre puede escribirse de la forma

0
=
0
+ 2n
En que
0
]0, 2[ y n Z, con lo que
e
j0
= e
j(0+2n)
= e
j0
e
2n
= e
j0
Recordemos que es justamente por esto que a la exponencial peri odica e
j()
le hemos denominado tambien exponencial peri odica. 222
Para ilustrar esto veamos un ejemplo
Ejemplo C.11. Considere la secuencia de tiempo discreto
y[k] = cos
_
2
10
k
_
C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 379
Para calcular su transformada de Fourier discreta, en vez de usar la deni-
ci on podemos utilizar la propiedad (C.22), ya que el coseno puede escribirse en
terminos de exponenciales
y[k] = cos
_
2
10
k
_
=
e
j
2
10
k
+e
j
2
10
k
2
Ambas exponenciales peri odicas las podemos pensar como la secuencia con-
stante y
0
[k] = 1 multiplicada por la respectiva exponencial peri odica. Es as como
bajo este punto de vista la transformada de Fourier discreta se puede obtener
en unos pocos pasos
T
d
_
cos
_
2
10
k
__
=
1
2
T
d
_
e
j
2
10
k
_
+
1
2
T
d
_
e
j
2
10
k
_
=
1
2
2

n=
(
2
10
+ 2n) +
1
2
2

n=
( +
2
10
+ 2n)
=

n=
(
2
10
+ 2n) +

n=
( +
2
10
+ 2n)
Si restringimos la expresi on de la transformada a la banda que nos ha in-
teresado, es decir, [0, 2], tenemos que en ella s olo existen dos de los deltas
de Dirac
T
d
_
cos
_
2
10
k
__

0<<2
= (
2
10
) +(
18
10
)
15 10 5 0 5 10 15
1.5
1
0.5
0
0.5
1
1.5
k
y
[k
]
0 1 2 3 4 5 6
0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
2

Y
(
e
j
)
Figura C.5: Se nal cosenoidal y[k] y su transformada discreta.
En la gura C.5, se muestra la secuencia peri odica discreta y su espectro, es
decir, su transformada de Fourier discreta, formada por los dos deltas de Dirac
en el intervalo [0, 2].
380 AP

ENDICE C. LA TRANSFORMACI

ON DE FOURIER
Como consecuencia del lema anterior, que expresa el corrimiento en frecuen-
cia que sufre el espectro de una secuencia discreta al ser multiplicado por una
exponencial peri odica tenemos el siguiente corolario. Este determina el efecto
que tiene sobre la transformada de Fourier discreta el modular una secuencia
por alguna sinusoidal.
Corollario C.5. Sea y[k] una secuencia discreta denida para < k <
con transformada Y (e
j
), y 0 <
0
< 2 un n umero real. Entonces
T
d
cos(
0
k)y[k] =
1
2
_
Y (e
j(+0
+Y (e
j(0
)
_
(C.23)
T
d
sen(
0
k)y[k] =
j
2
_
Y (e
j(+0
Y (e
j(0
)
_
(C.24)
Demostraci on
Como se mencion o anteriormente resulta de la aplicaci on del lema anterior,
ya que tanto cos(
0
k) como sen(
0
k) pueden escribirse en terminos de exponen-
ciales peri odicas.
Consideremos la ecuaci on (C.23):
T
d
cos(
0
k)y[k] = T
d
_
e
j0k
+e
j0k
2
y[k]
_
=
1
2
T
d
_
e
j0k
y[k]
_
+
1
2
T
d
_
e
j0k
y[k]
_
=
1
2
_
Y (e
j(0
+Y (e
j(+0
)
_
La demostraci on de (C.24) resulta an aloga, por lo tanto se deja como ejercicio
para el lector. 222
Lema C.12. Inversi on temporal.
Sea y[k] una secuencia de tiempo discreto denida k Z, con transformada
Y (e
j
). Consideremos la transformada de la secuencia original invertida en el
tiempo, es decir
T
d
y[k] = Y (e
j
) (C.25)
Demostraci on
Para demostrar la propiedad usamos la ecuaci on (C.18), que dene la trans-
formada de Fourier discreta de una secuencia
T
d
y[k] =

k=
y[k]e
jk
C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 381
Sea l = k, entonces
T
d
y[k] =

l=
y[l]e
j(l)
=

l=
y[l]e
j()l
= Y (e
j
)
222
Corollario C.6. Note que si la secuencia y[k] est a compuesta s olo por valores
reales, entonces
T
d
y[k] = Y

(e
j
) (C.26)
En que ()

denota al complejo conjugado de ()


Demostraci on
Se deja como ejercicio al lector. 222
En base a las propiedades ya anlizadas estamos en condiciones de ver el
siguiente ejemplo.
Ejemplo C.12. Veamos como obtener ahora la transformada de Fourier disc-
reta de un escal on unitario en tiempo discrto, es decir, de la secuencia
y[k] = [k] =
_
0 ; k < 0
1 ; k 0
Para esto podemos apreciar que si denimos la secuencia
x[k] = [k] [k 1]
=
_
1 ; k = 0
0 ; k ,= 0
Es decir, resulta ser un delta de Kronecker. Esto tambien es v alido, sin
embargo, si al escal on [k] se le suma alguna constante, es decir
x[k] = [k] +C
x[k] x[k 1] =
K
[k]
Si aplicamos transformada de Fourier discreta a ambas ecuaciones anteriores
y utilizamos la propiedad de corrimiento en k
382 AP

ENDICE C. LA TRANSFORMACI

ON DE FOURIER
X(e
j
) = T
d
[k] +C2

n=
( 2n)
X(e
j
) e
j
X(e
j
) = 1
De ambas ecuaciones se puede eliminar X(e
j
) y despejar la transformada
que nos interesa
T
d
[k] =
1
1 e
j
C2

n=
( 2n)
Donde hemos obtenida la forma de la transformada del escal on unitario dis-
creto. Para obtener el valor de la constante C, podemos escribir el mismo escal on
como
[k] = 1 [k] +
K
[k]
Donde podemos aplicar la transformada utilizando la forma de T
d
[k]
obtenida, la propiedad de simetra temporal, y las transformadas del delta de
Kronecker y la constante, antes obtenidas.
1
1 e
j
C S() = S()
_
1
1 e
j
C S()
_
+ 1
En que
S() = 2

n=
( 2n)
Donde podemos apreciar que S() es simetrica respecto a = 0, por lo tanto
C 2S() = S() +
1
1 e
j
+
1
1 e
j
+ 1
. .
0
C 2S() = S()
C =
1
2
Luego, la transformada de Fourier discreta del escal on [k] es
T
d
[k] =
1
1 e
j
+

n=
( 2n)
C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 383
Lema C.13. Sea y[k] una secuencia de tiempo discreto denida k Z, cuya
transformada es Y (e
j
). Consideremos ahora la secuencia k y[k], su transfor-
mada, s olo en el caso que exista, es igual a
T
d
k y[k] = j
d Y (e
j
)
d
(C.27)
Demostraci on
Se debe tener cuidado al aplicar esta propiedad, pues no garantiza la
existencia de la transformada de k y[k].
En caso de existir, podemos aplicar la transformada de Fourier inversa, us-
ando la ecuaci on (C.19) :
T
d
1
_
j
d Y (e
j
)
d
_
=
1
2
_
2
0
j
d Y (e
j
)
d
e
jk
d
Donde se puede integrar por partes, eligiendo convientemente :
T
d
1
_
j
d Y (e
j
)
d
_
=
j
2
_
2
0
e
jk
d Y (e
j
)
d
d
=
j
2
e
jk
Y (e
j
)

2
0
. .
0

j
2
_
2
0
Y (e
j
)jke
jk
d
=
j
2
2
k
_
2
0
Y (e
j
)e
jk
d
= k
1
2
_
2
0
Y (e
j
)e
jk
d
. .
y[k]
222
Ejemplo C.13. Calculemos la transformada de Fourier discreta de la secuencia
y[k] = k
k
[k] [[ < 1
Podemos aplicar la propiedad recien vista dado que conocemos la transfor-
mada de
k
[k]. De esta forma, tenemos que:
384 AP

ENDICE C. LA TRANSFORMACI

ON DE FOURIER
T
d
_
k
k
[k]
_
= j
d T
d
_

k
[k]
_
d
= j
d
d
_
1
1 e
j
_
= j
1
(1 e
j
)
2
(je
j
)
=
e
j
(1 e
j
)
2
5 0 5 10 15 20 25
0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
2
k
y
[k
]
0 1 2 3 4 5 6
0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5

Y
(
e
j
)
Figura C.6: Secuencia y[k] = k(0,8)
k
[k] y la magnitud de su TFD.
En la gura C.6 se muestra la secuencia discreta y el m odulo de su trans-
formada discreta, cuando = 0,8
Lema C.14. Convoluci on en tiempo discreto
Sean y
1
[k] e y
2
[k] dos secuencias denidas k Z, cuyas transformadas
de Fourier son Y
1
(e
j
) e Y
2
(e
j
) respectivamente, entonces la transformada de
Fourier discreta de la convoluci on es :
T
d
y
1
[k] y
2
[k] = Y
1
(e
j
)Y
2
(e
j
) (C.28)
Demostraci on
Recordemos en primer lugar que la convoluci on de dos secuencias de tiempo
discreto y
1
[k] e y
2
[k] se dene como :
y
1
[k] y
2
[k] =

l=
y
1
[l]y
2
[k l]
C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 385
Usando esta expresi on en la denici on (C.18) tenemos que :
T
d
y
1
[k] y
2
[k] =

k=
_

l=
y
1
[l]y
2
[k l]
_
e
jk
Donde se pueden intercambiar las sumatorias y usar la propiedad de corrim-
iento en el tiempo discreto k :
T
d
y
1
[k] y
2
[k] =

l=
y
1
[l]
_

k=
y
2
[k l]e
jk
_
=

l=
y
1
[l]e
jl
Y
2
(e
j
)
= Y
2
(e
j
)

l=
y
1
[l]e
jl
= Y
2
(e
j
)Y
1
(e
j
)
222
Lema C.15. Producto en el tiempo discreto
Sean y
1
[k] e y
2
[k] dos secuencias denidas k Z, cuyas transformadas
de Fourier son Y
1
(e
j
) e Y
2
(e
j
) respectivamente, entonces la transformada de
Fourier discreta del producto de ellas es :
T
d
y
1
[k]y
2
[k] =
1
2
_
2
0
Y
1
(e
j
)Y
2
(e
j()
)d (C.29)
Demostraci on
Reemplazando el producto de las secuencias en la denici on (C.18) tenemos
que :
T
d
y
1
[k]y
2
[k] =

k=
y
1
[k]y
2
[k]e
jk
Aqui podemos escribir una de las secuencias seg un la ecuaci on (C.19) que
la expresa como la transformada de Fourier inversa. Con esto e intercambiando
de orden la sumatoria con la integral que aparece tenemos que :
T
d
y
1
[k]y
2
[k] =

k=
_
1
2
_
2
0
Y
1
(e
j
)e
jk
d
_
y
2
[k]e
jk
=
1
2
_
2
0
Y
1
(e
j
)
_

k=
_
e
jk
y
2
[k]
_
e
jk
_
d
386 AP

ENDICE C. LA TRANSFORMACI

ON DE FOURIER
Donde si usamos la propiedad de corrimiento en frecuencia tenemos que
T
d
y
1
[k]y
2
[k] =
1
2
_
2
0
Y
1
(e
j
)Y
1
(e
j()
)d
222
Teorema C.2 (Teorema de Parseval. El caso de tiempo discreto). Sean
y
1
[k] e y
2
[k] dos secuencias reales denidas k Z, cuyas transformadas de
Fourier son Y
1
(e
j
) e Y
2
(e
j
) respectivamente, entonces se cumple que:

k=
y
1
[k]y
2
[k] =
1
2
_
2
0
Y
1
(e
j
)Y

2
(e
j
)d (C.30)
En que ()

denota el complejo conjugado de ().


Demostraci on
En el lado izquierdo de la ecuaci on (C.30) podemos reemplazar y
1
[k], uti-
lizando la denici on de la transformada de Fourier discreta inversa dada por la
expresi on (C.19) :

k=
y
1
[k]y
2
[k] =

k=
_
1
2
_
2
0
Y
1
(e
j
)e
jk
d
_
y
2
[k]
Aqui podemos intercambiar el orden entre la integral y la sumatoria, para
luego formar una expresi on que corresponda a la transformada de y
2
[k] como se
aprecia a continuaci on :

k=
y
1
[k]y

2
[k] =
1
2
_
2
0
Y
1
(e
j
)
_

k=
y

2
[k]e
jk
_
d
=
1
2
_
2
0
Y
1
(e
j
)
_

k=
y
2
[k]e
jk
_

d
=
1
2
_
2
0
Y
1
(e
j
)Y

2
(e
j
)d
222
Corollario C.7. Si y[k] es una secuencia discreta denida k Z, con trans-
formada Y (e
j
), entonces se cumple que:

k=
[ y[k] [
2
=
1
2
_
2
0
[ Y (e
j
) [
2
d (C.31)
C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 387
Demostraci on
Es directa de la ecuaci on (C.30) ya que
y[k] y

[k] = [ y[k] [
2
Y (e
j
)Y

(e
j
) = [ Y (e
j
) [
2
222
388 AP

ENDICE C. LA TRANSFORMACI

ON DE FOURIER
f(t) T f(t) Descripci on
l

i=1
a
i
y
i
(t)
l

i=1
a
i
Y
i
( ) Linealidad
dy(t)
dt
Y ( ) Derivaci on
d
k
y(t)
dt
k
( )
k
Y ( ) Derivadas superiores
_
t

y()d
1

Y ( ) +Y (0)() Integraci on
y(t ) e

Y ( ) Retardo
y(at)
1
[a[
Y
_
j

a
_
Escalamiento temporal
y(t) Y ( ) Inversi on temporal
_

y
1
()y
2
(t )d Y
1
( )Y
2
( ) Convoluci on
e
at
y
1
(t) Y
1
( a) Desplazamiento en frecuencia
y(t) cos(
o
t)
1
2
Y (
o
) +Y ( +
o
) Modulaci on (cosenoidal)
y(t) sen(
o
t)
1
j2
Y (
o
) Y ( +
o
) Modulaci on (senoidal)
Y (t) 2y( ) Simetra
y
1
(t)y
2
(t)
1
2
_

Y
1
(j)Y
2
( j)d Producto en el tiempo
Cuadro C.1: Propiedades de la transformada de Fourier.
C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 389
f(t) t R T f(t)
1 2()

D
(t) 1
(t) () +
1

(t) (t t
o
)
1 e
to

e
t
(t) ' R
+
1

te
t
(t) ' R
+
1
( )
2
e
]t]
R
+
2

2
+
2
cos(
o
t) (( +
o
) +(
o
))
sen(
o
t) j (( +
o
) (
o
))
cos(
o
t)(t)

2
(( +
o
) +(
o
)) +

2
+
2
o
sen(
o
t)(t)
j
2
(( +
o
) (
o
)) +

o

2
+
2
o
e
t
cos(
o
t)(t) R
+
+
( +)
2
+
2
o
e
t
sen(
o
t)(t) R
+

o
( +)
2
+
2
o
Cuadro C.2: Tabla de tranformadas de Fourier
390 AP

ENDICE C. LA TRANSFORMACI

ON DE FOURIER
y[k] , k Z T
d
y[k] = Y (e
j
) Descripci on
l

i=1

i
y
i
[k]
l

i=1

i
Y
i
(e
j
) Linealidad
y[k] Y (e
j
) Inversi on temporal
y[k k
0
] , k
0
Z e
jk0
Y (e
j
) Corrimiento temporal
e
j0k
y[k] Y (e
j(0)
) Corrimiento en frecuencia
cos(
0
k)y[k]
1
2
_
Y (e
j(+0)
+Y (e
j(0
)
_
Modulaci on cosenoidal
sen(
0
k)y[k]
j
2
_
Y (e
j(+0)
Y (e
j(0
)
_
Modulaci on senoidal
ky[k] j
d Y (e
j
)
d

l=
y
1
[l]y
2
[k l] Y
1
(e
j
)Y
2
(e
j
) Convoluci on
y
1
[k]y
2
[k]
1
2
_
2
0
Y
1
(e
j
)Y
2
(e
j()
)d Producto en el tiempo

k=
y
1
[k]y

2
[k]
1
2
_
2
0
Y
1
(e
j
)Y

2
(e
j
)d Teorema de Parseval

k=
[ y[k] [
2
1
2
_
2
0
[ Y (e
j
) [
2
d Teorema de Parseval
Cuadro C.3: Propiedades de la transformada de Fourier discreta.
C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 391
y[k] t R T
d
y[k] = Y (e
j
)

K
[k] 1

K
[k k
0
] e
jk0
1 (k Z) 2

n=
( 2n)
[k]
1
1 e
j
+

n=
( 2n)

k
[k] ([[ < 1)
1
1 e
j
(k + 1)
k
[k] ([[ < 1)
1
(1 e
j
)
2
e
j0k
2

n=
(
0
+ 2n)
cos(
0
k)

n=
[( +
0
+ 2n) +(
0
+ 2n)]
sen(
0
k) j

n=
[( +
0
+ 2n) (
0
+ 2n)]
cos(
0
k +)

n=
_
e
j
( +
0
+ 2n) +e
j
(
0
+ 2n)

sen(
c
k)
k

n=
Y
0
(e
j(+2n)
)
Y
0
(e
j
) =
_
1 ; [[ <
c
0 ;
c
< [[
y[k] =
_
0 ; [k[ N
1 ; [k[ > N
sen
_
2N+1
2

_
sen
_
1
2

_
k
k
[k] ([[ < 1)
e
j
(1 e
j
)
2
Cuadro C.4: Tabla de tranformadas de Fourier discretas
392 AP

ENDICE C. LA TRANSFORMACI

ON DE FOURIER
C.2.3. Aspecto practico: la transformada rapida de Fouri-
er
En las aplicaciones, en particular en el procesamiento digital de se nales, no
se conoce la se nal en forma analtica, sino que como una secuencia nita de
valores numericos. Lo mismo ocurre en otras aplicaciones, como en el proce-
sameinto de im agenes, en donde la variable independiente puede ser una (o
m as) coordenada(s) espacial(es).
Dado que la informaci on es una secuencia, la descripci on de la se nal en el
dominio de la frecuencia s olo puede ser lograda a traves de la Transformada
discreta de Fourier. Sin embargo, el c alculo de esta s olo puede ser aproximado,
puesto que la se nal est a denida por un n umero nito de valores.
De esta forma, un problema central en la calidad de la aproximaci on guarda
relaci on con la medida en que la se nal truncada representa las caractersticas
espectrales de la se nal a analizar. En este caso, estamos obteniendo una serie
de Fourier discreta que representa al tramo considerado de la secuencia y[k].
Recordemos que seg un lo visto en el captulo anterior sobre series, al calcular
la serie de Fourier discreta de una secuencia de largo N, obtenemos una repre-
sentaci on en terminos de N exponenciales complejas de frecuencias 0 < 2,
que resulta ser peri odica. De esta forma, dada una secuencia y[k] de longitud N,
que puede provenir de una se nal de tiempo continuo muestreada cada [seg], es
decir, y[k] = y(t = k), podemos representarla como una suma de exponenciales
complejas
y[k] =
N1

n=0
C
n
e
jonk
; donde
o
=
2
N
(C.32)
donde
C
n
=
1
N
N1

k=0
y[k]e
jonk
(C.33)
Usualmente se dene
W
N
= e
jo
= e
j
2
N
(C.34)
y la funci on
H
n
= N C
n
=
N1

k=0
y[k]W
nk
N
(C.35)
Con lo que la funci on se puede describir en terminos de los H
n
seg un
y[k] =
1
N
N1

n=0
H
n
W
nk
N
(C.36)
A este par de ecuaciones, (C.35) y (C.36) se le denomina en muchos libros
como la Transformaci on de Fourier Discreta
1
y su inversa, por tanto debe tenerse
1
Discrete Fourier Transform o DFT
C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 393
transformadar apida
deFourier
precauci on al consultar la literatura para evitar confusi on con la denominaci on
que hemos usado en este texto.
Si se observa la ecuaci on (C.35) esta puede entenderse como un producto
matricial en que el vector H
n
es igual al producto de la matriz W
N

n,k
=
W
nk
N
por el vector y[k]. Es decir
_

_
H
0
H
1
.
.
.
H
N1
_

_
=
_

_
W
00
N
W
01
N
. . . W
0(N1)
N
W
10
N
W
11
N
. . . W
1(N1)
N
.
.
.
.
.
.
.
.
.
.
.
.
W
(N1)0
N
W
(N1)1
N
. . . W
(N1)(N1)
N
_

_
_

_
y[0]
y[1]
.
.
.
y[N 1]
_

_
(C.37)
Hacer el producto matricial el lado derecho de la ecuaci on anterior implica
N
2
multiplicaciones complejas, adem as de las sumas respectivas para el c alculo
de cada H
n
. Tambien se requieren algunas operaciones m as para el c alculo de
las potencias de W
N
. Es decir, podemos apreciar que el c alculo de la DFT es
un proceso O(N
2
)
2
.
Sin embargo, la matriz involucrada en (C.37) est a formada por potencias de
W
N
= e
j
2
N
, por tanto todos sus componentes son alguna de las races N-esimas
de la unidad, distribuida en torno a la circunferencia unitaria. Esta simetra de
hecho es el camino para reducir el n umero de c alculos necesarios para el c alculo
de la DFT. Los algoritmos que hacen uso de estas simetras se comenzaron a
desarrollar m as fuertemente a partir de mediados de los a nos 60 y reciben el
nombre generico de transformada rapida de Fourier o FFT por su denom-
inaci on en ingles
3
.
Para maximizar el aprovechamiento de las simetras es conveniente elegir
secuencias y[k] cuyo largo se una potencia de 2, es decir:
N = 2
v
para algun v Z
+
(C.38)
Esto no implica perder generalidad, pues en los casos en que no pueden
tomarse m as valores de la secuencia original podemos completar con ceros hasta
la potencia de 2 m as cercana (aunque ello signica la introducci on de un grado
variable de inexactitud).
Consideremos la forma en que se calcula el coeciente H
n
, seg un la ecuaci on
(C.35). Si tenemos una secuencia de longitud N par, podemos separarla en una
que contenga los valores de y[k] cuando k es par y otra para los k impares. Es
decir:
H
n
=
N1

k=0
y[k]W
nk
N
(C.39)
=
N/21

r=0
y[2r]W
n(2r)
N
+
N/21

r=0
y[2r + 1]W
n(2r+1)
N
(C.40)
2
Del orden de N
2
, es decir, si se duplica N el n umero de c alculos se cuadruplica !
3
Fast Fourier Transform.
394 AP

ENDICE C. LA TRANSFORMACI

ON DE FOURIER
Pero podemos apreciar que las nuevas secuencias, y[2r] e y[2r + 1], son
secuencias de largo N/2, por lo que podra escribirse las sumatorias como la
serie de Fourier discreta modicada que les corresponde. Justamente esto sucede
en forma natural al observar que
W
n(2r)
N
= e
j
2
N
n(2r)
= e
j
2
N/2
nr
= W
nr
N/2
(C.41)
Es decir, en la sumatoria aparecen las arm onicas para secuencias de longitud
N/2. Con esta observaci on la expresi on para H
n
queda
H
n
=
N/21

r=0
y[2r]W
n(2r)
N
+
N/21

r=0
y[2r + 1]W
n(2r)
N
W
n
N
(C.42)
=
N/21

r=0
y[2r]W
nr
N/2
+W
n
N
N/21

r=0
y[2r + 1]W
nr
N/2
(C.43)
= H
par
n
+W
n
N
H
impar
n
(C.44)
Como antes mencionamos, para calcular los terminos H
n
para una secuencia
de longitud N por el metodo directo, se requieren del aproximadamente N
2
multiplicaciones complejas en el producto matricial (C.37). An alogamente para
calcular cada uno de los terminos H
par
n
y H
impar
n
, que corresponden a secuencias
de largo N/2, requeriremos (N/2)
2
multiplicaciones complejas para cada uno.
Y para poder formar cada uno de los N terminos H
n
requerimos una unica
multiplicaci on compleja m as, seg un (C.44).
Es importante hacer notar que dado que las secuencias y[2r] e y[2r +1] son
N/2 peri odicas en r, sus arm onicas W
nr
N/2
, tambien lo son:
W
(l+N/2)
N/2
= e
j
2
N/2
(l+N/2)
= e
j
2
N/2
l
e
j2
= e
j
2
N/2
l
= W
l
N/2
(C.45)
Aplicando este nuevo enfoque para la secuencia de largo N necesitamos
N + 2
_
N
2
_
2
N
2
N 2 (C.46)
Sin embargo, y he aqu la facilidad que entrega el suponer que N es una
potencia de 2, las secuencias y[2r] e y[2r +1], tienen longitud par (N/2 tambien
ser a potencia de 2), por tanto podemos aplicarles este mismo metodo. Es decir,
cada una puede separarse en dos subsecuencias de longitud N/4. Con esto el
n umero de c alculos necesarios seran
N + 2
_
N
2
+ 2
_
N
4
_
2
_
= N +N + 4
_
N
4
_
2
(C.47)
Y as sucesivamente con las secuencias de largo N/4, que pueden subdividirse
en subsecuencias de largo N/8.
C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 395
En general una secuencia de largo N = 2
v
, podemos subdividiras v = log
2
N
veces en subsecuencias de longitud menor. Y en cada etapa se realizan N mul-
tiplicaciones complejas. Por tanto podemos armar que este algoritmo es del
orden de N log
2
N. En la gura C.7 se muestra una comparaci on del n umero de
multiplicaciones necesarias para calcular los terminos H
n
de esta serie directa-
mento o mediante este nuevo algoritmo denominado FFT. Para una secuencia
de largo N = 1024 = 2
10
con el primer metodo requerimos 1048576 multiplica-
ciones, mientras que usando la transformada r apida se requieren solo 10240, es
decir, 2 ordenes de magnitud menor.
0 5 10 15 20 25 30 35 40 45 50
0
500
1000
1500
2000
2500
N
Figura C.7: Comparaci on N
2
(x) y N log
2
N (*)
Veamos a continuaci on un ejemplo para ilustrar el uso de la transformada
r apida
Ejemplo C.14. Considermos una secuancia discreta de longitud N = 8, cuyos
valores denominaremos y
0
, y
1
, y
2
, y
3
, y
4
, y
5
, y
6
e y
7
. Entonces usando la ecuaci on
(C.44) tenemos que
H
n
= H
p
n
+W
n
8
H
i
n
En que H
p
n
y H
i
n
son la serie formada por las subsecuencias pares e impares
de la secuencia original.
Esto se representa en la gura C.8, donde sobre las lineas de ujo se coloca
el factor que une a los datos
Note en la gura se ha hecho uso de la periodicidad de H
p
n
y H
i
n
ya que, por
ejemplo,
396 AP

ENDICE C. LA TRANSFORMACI

ON DE FOURIER
H
p
1
H
p
0
H
i
3
H
i
2
H
i
1
H
i
0
H
p
3
H
p
2
W
6
8
W
5
8
W
7
8
W
4
8
W
3
8
W
2
8
W
1
8
W
0
8
H
0
H
1
H
2
H
3
H
4
H
5
H
6
H
7
Figura C.8: Primera etapa de la FFT para N = 8
H
4
= H
i
4
+W
4
8
H
p
4
Pero, por la periodicidad
H
p
4
= H
p
0
H
i
4
= H
i
0
Por lo tanto,
H
4
= H
i
0
+W
4
8
H
p
0
De manera an aloga, para calcular los terminos de H
p
n
y H
i
n
podemos aplicar
la misma idea
H
p
n
= H
pp
n
+W
2n
8
H
pi
n
H
i
n
= H
ip
n
+W
2n
8
H
ii
n
Donde ahora las series H
pp
n
, H
pi
n
, H
ip
n
y H
ii
n
est an formadas por subsecuen-
cias de largo 2, y tambien son peri odicas de perodo 2. Como se ve en el esquema
de la gura C.9
Finalmente al subdividir nuevamente las secuencias quedan terminos indi-
viduales que corresponden a los 8 valores de la secuencia original considerada:
C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 397
W
2
8
W
0
8
W
4
8
W
6
8
W
2
8
W
0
8
W
4
8
W
6
8
H
5
H
6
H
7
H
4
W
6
8
W
5
8
W
7
8
W
4
8
W
3
8
W
2
8
W
1
8
W
0
8
H
pp
0
H
pi
1
H
pi
0
H
pp
1
H
ip
0
H
ii
0
H
ii
1
H
ip
1
H
0
H
1
H
2
H
3
Figura C.9: Primera y segunda etapa de la FFT para N = 8
H
pp
n
= H
ppp
n
+W
4n
8
H
ppi
n
= y
0
+W
4n
8
y
1
H
pi
n
= H
pip
n
+W
4n
8
H
pii
n
= y
2
+W
4n
8
y
3
H
ip
n
= H
ipp
n
+W
4n
8
H
ipi
n
= y
4
+W
4n
8
y
4
H
ii
n
= H
iip
n
+W
4n
8
H
iii
n
= y
6
+W
4n
8
y
7
Estos productos calculos se agregan al esquema anterior, tal como se muestra
en la gura C.10, donde podemos apreciar claramente que en cada etapa se
realizan 8 multiplicaciones complejas, totalizando un total de 24. En caso de
haber hecho los c alculos de manera directa hubiera resultado necesario ralizar
8
2
= 64 multiplicaciones.
398 AP

ENDICE C. LA TRANSFORMACI

ON DE FOURIER
H
5
H
6
H
7
H
4
W
0
8
W
4
8
W
0
8
W
4
8
W
0
8
W
4
8
W
0
8
W
4
8
W
6
8
W
5
8
W
7
8
W
4
8
W
3
8
W
2
8
W
1
8
W
0
8
H
0
H
1
H
2
H
3
W
2
8
W
0
8
W
4
8
W
6
8
W
2
8
W
0
8
W
4
8
W
6
8
y
0
y
1
y
2
y
4
y
5
y
6
y
7
y
3
Figura C.10: Las tres etapas de la FFT para N = 8
TransformadadeLaplace!regi onde
convergencia
Apendice D
La transformada de Laplace
D.1. Transformada de Laplace
D.1.1. Denici on de la Transformada
Sea una se nal de tiempo continuo y(t), 0 t < , entonces la Trans-
formada de Laplace asociada a y(t), y su transformada inversa est an denidas
como
Ly(t) = Y (s) =
_

0

e
st
y(t)dt (D.1)
L
1
Y (s) = y(t) =
1
2j
_
+j
j
e
st
Y (s)ds (D.2)
Y (s) es la transformada de Laplace de y(t). El par transformada y su inversa
est an bien denidas si existe R y una constante positiva k < tales que
[y(t)[ < ke
t
; t 0 (D.3)
La regi on 's se conoce como la regi on de convergencia de la
transformada.
Asumimos que el lector ha conocido estas ideas anteriormente en alg un curso
de matem aticas, o bien puede consultar alg un texto de ecuaciones diferenciales
como ref. a Blanchard??.
Ahora nos concentraremos en la importancia de esta transformada para el
an alisis de sistemas, por ejemplo, para determinar respuestas a condiciones ini-
cialesy a diferentes se nales de entrada.
399
400 AP

ENDICE D. LA TRANSFORMADA DE LAPLACE


Lema D.1. Sea H(s) una funci on racional estrictamente propia
1
de la vari-
able s con regi on de convergencia 's > . SI denotamos como h(t) a su
correspondiente funci on temporal, i.e.
H(s) = L[h(t)] (D.4)
Entonces, para cualquier z
0
talque 'z
0
> , tenemos
_

0
h(t)e
z0t
dt = lm
sz0
H(s) (D.5)
Demostraci on
De la denici on de la transformada de Laplace tenemos que, para todo s en
la regi on de convergencia de la transformada, i.e. en 's >
H(s) =
_

0
h(t)e
st
dt (D.6)
Por lo tanto se tiene que z
0
est a en la regi on de convergencia de la transfor-
mada.
222
Corollario D.1. En la ecuaci on D.5 se observa que como condici on necesaria
para la convergencia de la integral del lado izquierdo se debe cumplir que
lm
t
h(t)e
st
= 0 (D.7)
Resultado que ser a usado posteriormente.
Ilustramos esto con un ejemplo:
Ejemplo D.1. Considere la se nal
y(t) = e
+2t
t 0 (D.8)
Entonces, su transformada de Laplace puede calcularse resolviendo la integral
(D.1) o usando Maple :
> y(t):=exp(2*t);
> with(inttrans):
Y(s) := laplace(y(t),t,s);
Dentro de Maple existe el paquete inttrans, que dene la transformada de
Laplace y de Fourier, junto a sus inversas, adem as de otras transformaciones
integrales. Las lneas de comando antes mostradas entregan como resultado
Y (s) =
1
s 2
para 's > 2 (D.9)
1
El orden del polinomio del numerador es estriciamente menor que el orden del polinomio
en el denominador
D.1. TRANSFORMADA DE LAPLACE 401
Ahora considere
I(z
0
) =

_
0
e
z0t
y(t)dt (D.10)
Claramente para z
0
= 3, tenemos
I(3) =

_
0
e
3t
e
2t
dt =

_
0
e
t
dt = 1 (D.11)
Note que esto se podra haberse obtenido como consecuencia de lema D.1 ya
que
Y (3) =
1
3 2
= 1 (D.12)
Sin embargo, si tomamos z
0
= 1, entonces Y (1) = 1. Entonces claramente
I(z
0
) es . Esto est a de acuerdo con el lema D.1 ya que z
0
= 1 no est a en el
interior de la regi on de convergencia de la transformada.
222
D.1.2. Propiedades de la Transformada de Laplace
La transformada de Laplace tiene propiedades muy utiles, las cuales se re-
sumen en la Tabla D.2 en la p agina 415. En esta secci on se demuestran algunas
de estas.
Lema D.2. Linealidad
Sean y
1
(t) e y
2
(t) funciones continuas en (0, +), cuyas transformadas de
Laplace son Y
1
(s) e Y
2
(s), respectivamente. Entonces
Ly
1
(t) +y
2
(t) = Y
1
(s) +Y
2
(s) , C (D.13)
Demostraci on
Esta propiedad es directa dado que la transformada de Laplace est a denida
mediante la integral (D.1) :
Ly
1
(t) +y
2
(t) =
_

0

(y
1
(t) +y
2
(t))e
st
dt
=
_

0

y
1
(t)dt +
_

0

y
2
(t)dt
= Y
1
(s) +Y
2
(s)
222
402 AP

ENDICE D. LA TRANSFORMADA DE LAPLACE


Lema D.3. Derivada en t.
Sea y(t) una funci on continua en (0, +) y sup ongamos que
d y(t)
dt
es con-
tinua por tramos, entonces
L
_
d y(t)
dt
_
= sY (s) y(0

) (D.14)
Demostraci on
Seg un la denici on tenemos:
L
_
d y(t)
dt
_
=
_

0

d y
dt
e
st
dt
En esta si se integra por partes,
= e
st
y(t)

+s
_

0

y(t)e
st
dt
= lm
t
_
e
st
y(t)
_
y(0

) +sLy(t)
Si utilizamos el resultado (D.7) de la p agina 400 obtenemos la expresi on
esperada:
L
_
d y(t
dt
_
= sY (s) y(0

) (D.15)
222
Maple tambien es capaz de reconocer esta y otras propiedades, mediante
los comandos:
> with(inttrans):
laplace(diff(y(t),t),t,s);
s laplace(y(t), t, s) y(0)
Corollario D.2. Derivadas de orden superior.
Si se extiende este resultado, aplicando este lema recursivamente a las derivadas
de orden superior puede demostrarse que
L
_
d
n
y(t)
dt
n
_
= s
n
Y (s) s
n1
y(0

)
d
n1
y(0

)
dt
n1
n Z
+
(D.16)
donde Y (s) = Ly(t). Este resultado ser a usado repetidamente para conver-
tir ecuaciones diferenciales en ecuaciones algebraicas en la variable s. Adem as
en la ecuaci on (D.16) se incluyen las condiciones iniciales de la funci on y sus
derivadas.
D.1. TRANSFORMADA DE LAPLACE 403
Ilustramos esto en el siguiente ejemplo, en que cada paso del desarrollo se
acompa na por los comandos en Maple correspondientes.
Ejemplo D.2. Considere la ecuaci on diferencial
> edo := diff(theta(t),t,t)+2*diff(theta(t),t)=v_a(t)
d
2

dt
2
+ 2
d
dt
= v
a
(t) (D.17)
Si tomamos transformada de Laplace a ambos lados de la ecuaci on y apli-
camos D.16 se obtiene
> EDO := laplace(edo,t,s);
s
2
(s) + 2s(s) (s + 2)(0

)

(0

) = V
a
(s) (D.18)
Suponiendo condiciones iniciales (0

) = 0,

(0

) = 0 y que la entrada es
un escal on unitario en t = 0. Entonces
> theta(0):=0;
D(theta)(0):=0;
v_a(t):=Heaviside(t);
Theta(s):=solve(EDO,laplace(theta(t),t,s));
(s) =
_
1
s
2
+ 2s
_
V
a
(s)
=
_
1
s
2
+ 2s
_
1
s
Expandiendo en fracciones parciales obtenemos
> Theta(s):=convert(Theta(s),parfrac,s);
(s) =
1
4(s + 2)
+
1
2s
2

1
4s
(D.19)
Aqu, aplicando los resultados de la Tabla D.2 (p agina 415 ), la salida para
t 0 es
> theta(t):=invlaplace(Theta(s),s,t);
(t) =
1
4
e
2t
+
1
2
t
1
4
(D.20)
404 AP

ENDICE D. LA TRANSFORMADA DE LAPLACE


Lema D.4. Integral en t
Sea y(t) una funci on continua en el intervalo (0, +) , con transformada
de Laplace Ly(t) = Y (s), entonces
L
__
t
0

y()d
_
=
1
s
Y (s) (D.21)
Demostraci on
Si reemplazamos la integral en la denici on de la transfomada (D.1), pode-
mos hacer una integral por partes:
L
__
t
0

y()d
_
=
_

0

__
t
0

y()d
_
. .
u
e
st
dt
. .
dv
=
__
t
0

y()d
_
e
st
s

_

0

y(t)
e
st
s
dt
= 0 +
1
s
_

0

y(t)e
st
dt
222
Lema D.5. Derivada en s.
Sea y(t) una funci on continua con Ly(t) = Y (s), entonces
Lt
n
y(t) = (1)
n
d
n
Y (s)
ds
n
(D.22)
Demostraci on
Este resultado se establece derivando ambos lados de la ecuaci on
Y (s) =
_

0

y(t)e
st
dt
y as` obtenemos
dY (s)
ds
=
_

0

s
_
y(t)e
st

dt
=
_

0

ty(t)e
st
dt
= Lt y(t)
D.1. TRANSFORMADA DE LAPLACE 405
Y el lema se obtiene aplicando esto repetidamente aunque, en rigor, para in-
tercambiar derivada con integral se requieren ciertas propiedades de regularidad.
222
Este lema puede resultar util para obtener la transformada de Laplace de
funciones que aparecen multiplicadas por la variable t, como en el siguiente
ejemplo.
Ejemplo D.3. Consideremos la funci on y(t) = t
2
y obtengamos su transfor-
mada de Laplace.Seg un la denici on
L
_
t
2
_
=
_

0

t
2
e
st
dt
Y para resolver se puede integrar por partes dos veces. Sin embargo, si se
aplica el lema D.5 tenemos
L
_
t
2
1
_
= (1)
2
d
2
ds
2
_
L1
_
=
d
2
ds
2
_
1
s
_
=
d
ds
_

1
s
2
_
=
2
s
3
La propiedad en si y el ejemplo pueden realizarse en Maple , mediante los
siguientes comandos
>laplace(t*y(t),t,s);

_

s
laplace(y(t), t, s)
_
> y(t):= t^2;
laplace(y(t),t,s);
2
1
s
3
Se deja al lector como ejercicio encontrar una expresi on (no recursiva) para
Lt
n
, usando el metodo de inducci on.
Lema D.6. Desplazamiento en t.
Sea y(t a), a > 0 una versi on desplazada de la funci on y(t). Si (t a) es
la funci on escal on unitario que comienza en a, entonces
Ly(t a)(t a) = e
sa
Y (s) (D.23)
406 AP

ENDICE D. LA TRANSFORMADA DE LAPLACE


Demostraci on
Dado que la funci on escal on unitario es igual a 0 antes de a y 1 despues, la
transformada de Laplace puede calcularse con la denici on
Lu(t a)y(t a) =
_

0

(t a)y(t a)e
st
dt
=
_

a

y(t a)e
st
dt
=
_

0

y(

t)e
s(

t+a)
d

t
= e
sa
_

0

y(

t)e
s

t
d

t
= e
sa
Y (s)
De donde se obtiene el resultado deseado.
222
Note que
Ly(t a)t a ,= Ly(t a)(t)
Por lo tanto la transformada de Laplace del lado derecho no puede obtenerse
con ayuda del lema D.6, sino en base a la denici on o usando otras propiedades.
Ejemplo D.4. Para ver una aplicaci on de este lema obtengamos la transfor-
mada de Laplace de un pulso p(t).
p(t) =
_
1 ; si 0 t < a
0 ; si t a
Esta se nal puede escribirse usando la funci on de Heaviside o escal on unitario
(t) sin necesidad de denirla por tramos. En Maple
> assume(a>0);
p(t):=Heaviside(t)-Heaviside(t-a);
p(t) = (t) (t a)
Y usando la propiedad (D.23), o calculano con Maple , se obtiene
> P(s):=laplace(p(t),t,s);
P(s) =
1
s

1
s
e
as
=
_
1 e
sa
_
1
s
D.1. TRANSFORMADA DE LAPLACE 407
Este ejemplo puede extenderse a cualquier funci on que este denida por
tramos, cuya transformada de otra forma se tendra que calcular separando la
integral (D.1) de la denici on.
Se deja al lector obtener una expresi on para f(t)p(t) en que p(t) es el pulso
del ejemplo anterior, y f(t) es alguna funci on continua en el intervalo 0 < t < a.
A continuaci on se presenta otro resultado relacionado con el desplazamiento
temporal de una funci on.
Lema D.7. Funci on peri odica.
Tomemos una funci on perodica
y(t) =

n=0
y
T
(t nT) (D.24)
en que y
T
(t) es cero fuera del intervalo [0, T], es decir, y
T
(t) = [(t) (t
T)]y(t). Entonces la transformada de Laplace de y(t) es
Ly(t) =
1
1 e
sT
Y
T
(s) (D.25)
en que Y
T
(s) = Ly
T
(t).
Demostraci on
Si se utiliza el resultado del lema D.6, al aplicar transformada de Laplace a
la ecuaci on (D.24) tenemos por linealidad
Ly(t) =

n=0
e
nTs
Y
T
(s)
Y (s) = Y
T
(s)

n=0
e
nTs
y si recordamos la suma de una serie geometrica,
Y (s) = Y
T
(s)
1
_
lm
n
e
nTs

1 e
sT
y dentro de la regi on de convergencia lm
n
e
nTs
0
Y (s) =
1
1 e
sT
Y
T
(s)
222
408 AP

ENDICE D. LA TRANSFORMADA DE LAPLACE


Lema D.8. Corrimiento en s
Sea y(t) una funci on continua en el intervalo (0, +) , con transformada
de Laplace Ly(t) = Y (s), entonces
L
_
e
at
y(t)
_
= Y (s a) (D.26)
Demostraci on
De la denici on (D.1), tenemos que
L
_
e
at
y(t)
_
=
_

0

e
at
y(t)e
st
dt
=
_

0

y(t)e
(sa)t
dt
= Y (s a)
222
Lema D.9. Convoluci on
Sean y
1
(t) e y
2
(t) funciones continuas en (0, +), talque son iguales a cero
para t < 0, cuyas transformadas de Laplace son Y
1
(s) e Y
2
(s), respectivamente.
Entonces la transformada de la convoluci on entre y
1
(t) e y
2
(t) es:
Ly
1
(t) y
2
(t) = Y
1
(s)Y
2
(s) (D.27)
En que
y
1
(t) y
2
(t) =
_
t
0

y
1
()y
2
(t )d (D.28)
Demostraci on
Si las se nales son causales, es decir, su valor es cero t < 0, entonces podemos
reescribirlas
y
1
(t) = (t)y
1
(t)
y
2
(t) = (t)y
2
(t)
Con esto, la convoluci on es equivalente a
y
1
(t) y
2
(t) =
_

y
1
()()y
2
(t )(t )d
D.1. TRANSFORMADA DE LAPLACE 409
Si reemplazamos esta forma en la denici on (D.1), podemos cambiar el orden
de las integrales:
Ly
1
(t) y
2
(t) =
_

0

__

y
1
()()y
2
(t )(t )d
_
e
st
dt
=
_

y
1
()()
__

0

[y
2
(t )(t )] e
st
dt
_
d
Donde se puede aplicar la propiedad de corrimiento en t:
Ly
1
(t) y
2
(t) =
_

y
1
()()e
s
Y
2
(s)d
= Y
2
(s)
_

0

y
1
()e
s
d
= Y
2
(s)Y
1
(s)
222
Lema D.10. Producto en t
Sean y
1
(t) e y
2
(t) funciones continuas en (0, +), cuyas transformadas de
Laplace son Y
1
(s) e Y
2
(s), respectivamente. Entonces la transformada del pro-
ducto entre y
1
(t) e y
2
(t) es:
Ly
1
(t)y
2
(t) =
1
2j
_
+j
j
Y
1
()Y
2
(s )d (D.29)
Demostraci on
Si reemplazamos el producto de las funciones dentro de la denici on de la
transformada, podemos demostrar la propiedad escribiendo una de ellas como
la transformada inversa de su transformada de Laplace:
Ly
1
(t)y
2
(t) =
_

0

y
1
(t)y
2
(t)e
st
dt
=
_

0

_
1
2j
_
+j
j
Y
1
()e
t
d
_
y
2
(t)e
st
dt
Intercambiando el orden de las integrales y usando la propiedad de corrim-
iento s tenemos que
410 AP

ENDICE D. LA TRANSFORMADA DE LAPLACE


Ly
1
(t)y
2
(t) =
1
2j
_
+j
j
Y
1
()
__

0

e
t
y
2
(t)e
st
dt
_
d
=
1
2j
_
+j
j
Y
1
()Y
2
(s )d
222
Teorema D.1. . [Teorema del Valor Final y Teorema del Valor Inicial]
Existen dos resultados que permiten obtener relaciones entre comportamien-
tos asint oticos de la funci on y(t) y su tranformada Y (s). Estos se conocen como
el teorema del Valor Inicial y teorema del Valor Final.
(i) lm
t0
+
y(t) = lm
s
sY (s) (D.30)
(ii) lm
t
y(t) = lm
s0
sY (s) (D.31)
Las ecuaciones anteriores son v alidas s olo en caso que ambos lmites ex-
istan.
Demostraci on
Las demostraciones se basan en resultados anteriores
(i) Teorema del Valor Inicial.
Supongamos primero que y(t) es continua en t = 0, i.e. y(0

) = y(0
+
) =
y = 0. Si usamos la ecuaci on (D.14) tenemos
_

0

d y(t)
dt
e
st
dt = sY (s) y(0

)
pero la integral del lado izquierdo puede acotarse y usar la ecuaci on (D.3)
_

0

d y(t)
dt
e
st
dt
_

0

d y(t)
dt

e
st
dt

_

0

ke
t
e
st
dt
= k
e
(s)t
s +

y dado que la integral existe en la regi on de convergencia 's


_

0

d y(t)
dt
e
st
dt
k
s
D.1. TRANSFORMADA DE LAPLACE 411
y si s entonces
k
s
0, de donde se obtiene
lm
s
sY (s) = lm
t0
+
y(t)
Ahora si la funci on y(t) no es continua, podemos denir
y(t) = y(t)
_
y(0
+
) y(0

(D.32)
que si es continua. Si aplicamos transformada de Laplace a la derivada de
y(t)
_

0

d y(t)
dt
e
st
dt = s

Y (s) y(0

)
pero y(0

) = y(0

) es continua y aplicando Laplace a (D.32)


_

0

d y(t)
dt
e
st
dt = s
_
Y (s)
y(0
+
) y(0

)
s
_
y(0

)
= sY (s) y(0
+
)
y nuevamente el lado izquierdo se hace cero cuando s .
222
(ii) Teorema del Valor Final.
Seg un la ecuaci on (D.14)
_

0

d y(t)
dt
dt = sY (s) y(0

) (D.33)
si tomamos lmite cuando s 0 a ambos lados de la ecuaci on,
lm
s0
__

0

d y(t)
dt
e
st
dt
_
= lm
s0
_
sY (s) y(0

)
_
(D.34)
Podemos intercambiar lmite e integral suponiendo ciertas condiciones de regu-
laridad:
_

0

d y(t)
dt
lm
s0
_
e
st
_
dt = lm
s0
sY (s) y(0

) (D.35)
_

0

d y(t)
dt
dt = lm
s0
sY (s) y(0

) (D.36)
lm
t
y(t) y(0

) = lm
s0
sY (s) y(0

) (D.37)
lm
t
y(t) = lm
s0
sY (s) (D.38)
222
412 AP

ENDICE D. LA TRANSFORMADA DE LAPLACE


Ejemplo D.5. Debe tenerse precauci on de utilizar estos teoremas en caso solo
en que ambos limites existan tanto en el tiempo como en la variable compleja s.
Consideremos por ejemplo la transformada de Laplace de cos(
0
t)
Lcos(
0
t) =
s
s
2
+
2
0
si utilizamos el teorema del valor nal
lm
s0
_
s
2
s
2
+
2
0
_
= 0
cuando en realidad sabemos que
lm
t
cos(
0
t) =
222
Ejemplo D.6. Una distinci on importante de hacer es que en el caso en que la
respuesta de un sistema sea discontinua en t = 0 el teorema del Valor Inicial
entrega el valor de la salida en t = 0
+
el que puede no coincidir con la condici on
inicial dada. Veamos esto en un ejemplo simple en que tenemos un circuito como
el de la gura D.1 en que se conecta la batera de 1[V] en t = 0, y todas las
condiciones iniciales son cero.
R
v
f
(t)
+
i(t)
C v
c
(t)
Figura D.1: Circuito RC
Por ley de voltajes de Kircho tenemos
v
f
(t) = v
R
(t) +v
C
(t)
(t) = Ri(t) +
1
C
_
t

i()d
y si derivamos a ambos lados,
d (t)
dt
= R
d i(t)
dt
+
1
C
i(t)
D.1. TRANSFORMADA DE LAPLACE 413
PropiedadestransformadadeLaplace
TablatransformadasdeLaplace
TablatransformadasdeLaplaceinversas
Si aplicamos transformada de Laplace, y consideramos la condici on inicial igual
a cero
s
1
s
= R
_
sI(s) i(0

+
1
C
I(s)
y despejando se obtiene
I(s) =
1
sR +
1
C
por tanto si aplicamos el teorema del valor inicial
i(0
+
) = lm
s
sI(s)
= lm
s
s
sR +
1
C
=
1
R
que evidentemente es diferente a la corriente inicial t = 0

. Esto se comprueba
observando que la transformada inversa de I(s) es discontinua en t = 0
i(t) = L
1
I(s)
= L
1
_
1/R
s + 1/RC
_
=
1
R
e
t/RC
(t)
La transformada de Laplace es una herramienta muy util en el estudio de
sistemas din amicos ya que pemite convertir las ecuaciones diferenciales, en
el tiempo t, a ecuaciones algebraicas en la variable s.
414 AP

ENDICE D. LA TRANSFORMADA DE LAPLACE


f(t) Lf(t) Comentarios
l

i=1
a
i
y
i
(t)
l

i=1
a
i
Y
i
(s) F
i
(s) = Lf
i
(t)
dy(t)
dt
sY (s) y(0

) donde Y (s) = Ly(t)


d
k
y(t)
dt
k
s
k
Y (s)

k
i=1
s
ki
d
i1
y(t)
dt
i1

t=0

donde Y (s) = Ly(t)


_
t
0

y()d
1
s
Y (s)
ty(t)
dY (s)
ds
t
k
y(t) (1)
k
d
k
Y (s)
ds
k
k 1, 2, 3, . . .
y(t )(t ) e
s
Y (s) (t) : escal on unitario
e
at
y(t) Y (s a)
_
t
0

y
1
()y
2
(t )d Y
1
(s)Y
2
(s) y
1
(t) = y
2
(t) = 0 t < 0
y
1
(t)y
2
(t)
1
2j
_
+j
j
Y
1
()Y
2
(s )d Convoluci on compleja
lm
t
y(t) lm
s0
sY (s) y() debe estar bien denida
lm
t0
+
y(t) lm
s
sY (s)
Cuadro D.1: Propiedades de la transformada de Laplace
D.1. TRANSFORMADA DE LAPLACE 415
f(t) (t 0) Lf(t) Regi on de Convergencia
1
1
s
> 0

D
(t) 1 [[ <
(t )
e
s
s
> 0
t
1
s
2
> 0
t
n
n Z
+
n!
s
n+1
> 0
e
t
C
1
s
> '
te
t
C
1
(s )
2
> '
cos(
o
t)
s
s
2
+
2
o
> 0
sen(
o
t)

o
s
2
+
2
o
> 0
e
t
sen(
o
t +)
(sen)s +
2
o
cos sen
(s )
2
+
2
o
> '
t sen(
o
t)
2
o
s
(s
2
+
2
o
)
2
> 0
t cos(
o
t)
s
2

2
o
(s
2
+
2
o
)
2
> 0
(t) (t )
1 e
s
s
[[ <
Cuadro D.2: Transformadas de Laplace de algunas funciones simples
416 AP

ENDICE D. LA TRANSFORMADA DE LAPLACE


fraccionesparciales
polos
D.1.3. Descomposici on en fracciones parciales
Las ecuaciones (D.1) y (D.2) dan una forma de describir se nales y sistemas
en el dominio de la variable s y poder volver al dominio del tiempo. Sin embargo,
la ecuaci on (D.2) pocas veces se usa para obtener la transformada de Laplace
inversa de una funci on. La transformada de Laplace de muchas de las se nales
que nos interesan son funciones racionales en s, por lo tanto, generalmente se usa
la descomposici on en fracciones parciales para obtener su transformada inversa,
por comparaci on con transformadas conocidas.
Tomemos una funci on racional en s, en que se conocen las races del poli-
nomio denominador, que llamaremos polos del sistema. En caso de no ser
una funci on estrictamente propia, siempre puede realizarse la divisi on de los
polinomios de forma de tener un polinomio en s m as una funci on estrictamente
propia.
Ejemplo D.7. Supongamos, para empezar, una funci on con un polinomio de-
nominador de segundo orden
H
1
(s) =
As +B
s
2
+Cs +D
(D.39)
No es simple determinar a priori la transformada inversa de esta expresi on,
pero si se pueden determinar las races del denominador. Supongamos que estas
son s =
1
y s =
2
, con
1
,=
2
. El metodo de fracciones parciales pretende
expresar una funci on racional como suma de funciones racionales m as simples,
que en nuestro caso nos permite identicar desde una tabla su tranformada de
Laplace inversa.
Y
1
(s) =
As +B
(s +
1
)(s +
2
)
=

s +
1
+

s +
2
(D.40)
Es decir, buscamos los coecientes y . Para determinar estos lo primero
que puede hacerse es realizar la suma al lado derecho de (D.40) e igualar el
polinomio denominador resultante con el de la ecuaci on (D.39)
As +B = ( +)s +
2
+
1
(D.41)
Estos polinomios son iguales si y s olo si sus coecientes son iguales:
+ = A

2
+
1

1
= B (D.42)
Este sistema de ecuaciones puede resolverse obteniendo funalmente
=
A
1
B

2
=
A
2
+B

2
(D.43)
D.1. TRANSFORMADA DE LAPLACE 417
Finalmente teniendo estos valores de las constantes puede verse en la tabla
D.2 la tranformada inversa
y
1
(t) = L
1
_

s +
1
+

s +
2
_
= e
1t
+e
2t
(D.44)
222
En el ejemplo anterior al descomponer la funci on racional (D.39) en dos
fracciones (D.40), para encontrar las constantes se resolvi o el sistema (D.42) de
dos ecuaciones y dos inc ognitas. Sin embargo, si el polinomio denominador es
de orden N el metodo desemboca en resolver un sistema de N ecuaciones y
N inc ognitas !. Es por esto que en el siguiente ejemplo se muestra un metodo
m as pr actico.
Ejemplo D.8. Consideremos el sistema
Y
2
(s) =
2s + 1
s
3
+ 3s
2
4s
(D.45)
Del polinomio denominador pueden calcularse los polos del sistema. Estos se
ubican en s = 0, 4, 1, Por lo cual interesa descomponerlo en la forma
2s + 1
s
3
+ 3s
2
4s
=

s
+

s + 4
+

s 1
(D.46)
Si multiplicamos por s ambos lados de la ecuaci on
2s + 1
s
2
+ 3s 4
= +
s
s + 4
+
s
s 1
Y ahora si hacemos s = 0 se obtiene directamente la primera constante

1
4
=
Ahora para el segundo termino de (D.46) podemos multiplicar por (s + 4)
para reemplazar luego por la segunda raz s = 4
2s + 1
s(s 1)

s=4
=
_
(s + 4)
s
+ +
(s + 4)
s 1
_
s=4
=
7
20
De manera an aloga pueden encontrarse la tercera constante, multiplicando
por (s 1) y reemplazando s = 1
2s + 1
s(s + 4)

s=1
=
_
(s 1)
s
+
(s 1)
s + 4
+
_
s=1
=
3
5
418 AP

ENDICE D. LA TRANSFORMADA DE LAPLACE


Como puede verse este metodo de multiplicar por cada uno de los polinomios
factores del denominador, para luego reemplazar la variable s por la respectiva
raz, permite llegar de manera mucho m as directa a los coecientes de la de-
scomposici on (D.46). Con ayuda de la tabla D.2 se obtiene nalmente
y
2
(t) = L
1
_

1
4
s
+

7
20
s + 4
+
3
5
s 1
_
=
1
4

7
20
e
4t
+
3
5
e
t
(D.47)
222
Se deja al lector vericar que la funci on obtenida es la misma que se obtiene
si se aplica el metodo del ejemplo D.7.
Cabe destacar que en el ejemplo D.8 se ha aprovechado que al multiplicar
por cada factor del denominador (s ) y reemplazar por s = todos los
terminos de la descomposici on en fracciones parciales se hacen cero, excepto el
coeciente correspondiente a
1
s
. Sin embargo, en caso de existir races repeti-
das, aparecer a una indenici on al reeplazar (s = ).
Ejemplo D.9. En el caso de races repetidas, la descomposici on en fracciones
parciales no toma la forma (D.40), sino que se descompone como
Y
3
(s) =
As +B
(s )
2
=

s
+

(s )
2
(D.48)
Note que en esta expresi on solamente el coeciente puede ser obtenido
como en el ejemplo D.8, Porque no puede obtenerse el coeciente ? C omo
podra obtenerse ?
Una manera simple de llegar a la forma (D.48) es forzando a que aparezca
el termino (s ) en el numerador, separar y luego simplicar como se muestra
a continuacion
Y
3
(s) =
A(s ) + (A +B)
(s +)
2
=
A
s
+
A +B
(s +)
2
(D.49)
Con lo cual puede obtenerse de la tabla D.2
y
3
(t) = Ae
t
+ (A +B)te
t
(D.50)
222
Cuando las races del polinomio denominador son n umeros complejos, el
metodo visto en los ejemplos D.7,D.8 y D.9 puede aplicarse de igual forma. Los
coecientes que se obtienen en este caso son complejos, pero adem as, dado que
el polinomio denominador tiene coecientes reales, las races complejas apare-
cen siempre en pares complejos conjugados
2
, los coecientes de la expansi on
2
Esto como resultado del Teorema Fundamental del

Algebra
D.1. TRANSFORMADA DE LAPLACE 419
en fracciones parciales tambien son complejos conjugados. Esto asegura que las
funciones exponenciales complejas que se obtienen en (D.44) son iguales a sinu-
soidales multiplicadas por exponenciales reales. Se deja al lector como ejercicio
esta demostraci on.
Ejemplo D.10. Cuando el denominador de una funci on racional de la forma
(D.39) tiene races complejas se suele escribir como
Y
4
(s) =
As +B
s
2
+ 2
n
s +
2
n
; 0 < 1 (D.51)
Expresi on en que se denomina factor de amortiguaci on. Dado que en la tabla
D.2 tenemos s olo expresiones en que el denominador es una suma de cuadrados,
podemos escribir la funci on de la forma
Y
4
(s) =
As +B
(s +
n
)
2
+ (
n
_
1
2
)
2
(D.52)
Y en el numerador de esta expresi on puede construrse el termino (s +
n
)
para luego separar en dos terminos
Y
4
(s) =
A(s +
n
) + (A
n
+B)
D(s)
=
A(s +
n
)
D(s)
+
(A
n
+B)
D(s)
=
A(s +
n
)
D(s)
+
(A
n
+B)
(
0
_
1
2
)
(
n
_
1
2
)
D(s)
(D.53)
en que el denominador es
D(s) = (s +
n
)
2
+ (
n
_
1
2
)
2
(D.54)
Y aplicando transformada de Laplace inversa se llega a
y
4
(t) = Ae
nt
cos
n
_
1
2
t+
(A
n
+B)
(
n
_
1
2
)
e
nt
sen
n
_
1
2
t (D.55)
222
Con estos ejemplos y un poco de pr actica no debiera resultar difcil obtener
transformadas de Laplace inversa de funciones racionales. En realidad hoy en
da cualquier software es capaz de obtener la expansi on en fraccines parciales de
una funci on racional
3
, e incluso transformadas inversas de Laplace, por lo tanto,
estos c alculos pueden dejarse para el computador cuando resulten demasiado
engorrosos.
Por ejemplo, si usamos Maple para obtener la transformada de Laplace
inversa de la funci on racional (D.39), tenemos las siguientes lneas de comando
que arrojan el resultado que se aprecia m as adelante
3
Use el comando residue de MATLAB
420 AP

ENDICE D. LA TRANSFORMADA DE LAPLACE


> H(s) := (A*s+B)/(s^2+C*s+D):
h(t) := invlaplace(H(s),s,t);
h(t) =
1
2
e

1
2
Ct
C
3
Bcos(
1
2

4 D C
2
t)
(4 D C
2
) D
+ 4
e

1
2
Ct
DAcos(
1
2

4 D C
2
t)
4 D C
2

1
2
Ct
C
2
Acos(
1
2

4 D C
2
t)
4 D C
2

e

1
2
Ct
AC sen(
1
2

4 D C
2
t)

4 D C
2
2
e

1
2
Ct
CBcos(
1
2

4 D C
2
t)
4 D C
2
+ 2
e

1
2
Ct
Bsen(
1
2

4 D C
2
t)

4 D C
2
+
1
2
e

1
2
Ct
CBcos(
1
2

4 D C
2
t)
D
Es importante notar que Maple , en este caso, ha supuesto que el termi-
no 4D C
2
es estrictamente positivo, es decir, que las races del polinomio
denominador son reales y distintas. En consecuencia, si bien el uso de software
puede ayudar bastante en un desarrollo matem atico, lo fundamental es entender
e interpretar lo resultados que se obtienen.
D.1. TRANSFORMADA DE LAPLACE 421
Y (s) y(t) = L
1
Y (s) ; t 0
1
D
(t)
e
s
, > 0
D
(t )
1
s
(t)
1
s
n
, n 2, 3, . . .
t
n1
(n 1)!
k
s +
ke
t
e
s
s +
, > 0 e
(t)
(t )
a
1
s +a
0
(s +
1
)(s +
2
)
C
1
e
1t
+C
2
e
2t
C
1
=
1a1a0
12
; C
2
=
2a1+a0
12
a
1
s +a
0
(s +)
2
a
1
e
t
+ (a
0
a
1
)te
t
a
1
s +a
0
(s +)
2
+
2
0
e
t
_
C
1
cos(
0
t) +C
2
sen(
0
t)
_
C
1
= a
1
; C
2
=
a0a1
0
k
s(s +)
k
a
_
1 e
t
_
a
1
s +a
0
s
_
(s +)
2
+
2
0
_
a
0

2
+
2
0
_
1 e
t
_
C
1
cos(
0
t) +C
2
sen(
0
t)
__
C
1
= a
0
; C
2
=
a0a1(
2
+
2
0
)
0
Cuadro D.3: Transformadas inversas de Laplace utiles
422 AP

ENDICE D. LA TRANSFORMADA DE LAPLACE


radiodeconvergencia
Apendice E
La Transformaci on Zeta
E.1. Denici on de la Transformaci on
Dada una se nal de tiempo discreto f[k], 0 k < . La transformaci on
Zeta, y la transformaci on Zeta inversa, est an denidas por
Z f[k] = F(z) =

k=0
f[k]z
k
(E.1)
Z
1
F(z) = f[k] =
1
2j
_

f(z)z
k1
dz (E.2)
La curva cerrada sobre la que se calcula la transformada Zeta inversa (E.2)
se elige de forma que para todos los valores de z sobre , la sumatoria en (E.1)
converge. Esto implica que depende de f[k], tal como se determina, en forma
constructiva, a continuaci on.
La transformaci on Zeta es la contraparte discreta de la Transformaci on de
Laplace. Su justicaci on surge de la necesidad de cubrir un rango m as amplio
de se nales que el que puede ser tratado usando al transformaci on de Fourier. En
el caso de la transformaci on Zeta la transici on se puede describir como

k=
f[]e
j

k=0
f[]
[z[

e
j
; [z[ > (E.3)
Donde podemos denir z = [z[e
j
, y donde se denomina radio de conver-
gencia de la transformaci on.
Observe que, por un lado, hemos reducido la sumatoria al intervalo k N y
que por otro, hemos dividido la funci on f[] por [z[

. Una elecci on adecuada de


puede hacer que en muchos casos en que la sumatoria de la izquierda no converge,
la suma de la derecha s lo haga. Por ejemplo, la se nal f[k] = (1, 5)
k
[k] no tiene
423
424 AP

ENDICE E. LA TRANSFORMACI

ON ZETA
transformada de Fourier, pero si tiene transformada Zeta, para ello, basta elegir
[z[ > 1, 5.
Para obtener (E.2), que describe la f ormula de la Transformaci on Zeta inver-
sa, podemos recurrir a la idea de ortogonalidad. Si ambos lados de la ecuaci on
(E.1) son multiplicados por z
k
= [z[
k
e
jk
, y luego integramos en el intervalo
[0; 2], se obtiene
_
2
0
F(z)z
k
d =

=0
f[k][z[
k
_
2
0
e
j(k)
d (E.4)
Por otra parte, sabemos que las exponenciales peri odicas 1, e
j
, e
j2
, e
j3
, . . .
forman un conjunto de funciones ortogonales, ya que
e
jk
, e
j
) =
_
2
0
e
j(k)
d =
_
0 k ,=
2 k =
(E.5)
Con este resultado, (E.4) se simplica a
f[k] =
1
2
_
2
0
F(z)z
k
d (E.6)
Finalmente podemos reemplazar la integral con respecto a por una integral
respecto de z. Primero notamos que
d z
d
=
d [z[e
j
d
= jz =d =
1
jz
dz (E.7)
Luego, reemplazando la expresi on para d en (E.6) se llega a la ecuaci on
(E.2). Note que como recorre el intervalo [0; 2], nuestra primera interpretaci on
de en (E.2) es la de una circunferencia de radio mayor que . La teora de
variables complejas permite demostrar que es suciente que sea una curva
cerrada que encierre completamente la circunferencia de radio mayor que .
Ilustremos el c alculo de la transformada Zeta y su inversa mediante un par
de ejemplos:
Ejemplo E.1. Considere la se nal
y[k] =
k
[k] (E.8)
Entonces, su transformada Zeta est a dada por la serie geometrica:
Z
_

k
[k]
_
=

k=0

k
z
k
=

k=0
(z
1
)
k
= lm
k
1 (z
1
)
k
1 (z
1
)
(E.9)
Donde la expresi on al lado derecho converge si y s olo si
[z
1
[ < 1 [z[ > [[ (E.10)
E.2. PROPIEDADES DE LA TRANSFORMADA ZETA 425
Entonces, en esta regi on tenemos que
Z
_

k
[k]
_
=
1
1 z
1
=
z
z
(E.11)
222
E.2. Propiedades de la Transformada Zeta
La transformada Zeta posee una serie de propiedades, las cuales se resumen
en la Tabla E.1 en la p agina 433. En esta secci on se revisan algunas de ellas.
Lema E.1. Linealidad
Sean y
1
[k] e y
2
[k] dos secuencias discretas denidas para k [0, +), cuyas
transformadas Zeta son Y
1
(z) e Y
2
(z), respectivamente. Entonces
Z y
1
[k] +y
2
[k] = Y
1
(z) +Y
2
(z) , C (E.12)
Demostraci on
Esta propiedad se demuestra sin problema ya que la transformada Zeta se
dene mediante la sumatoria (E.1) :
Ly
1
[k] +y
2
[k] =

k=0
(y
1
[k] +y
2
[k])z
k
=

k=0
y
1
[k]z
k
+

k=0
y
2
[k]z
k
= Y
1
(z) +Y
2
(z)
Se debe hacer notar que en este caso la regi on de convergencia de la com-
binaci on lineal de las transformadas es la intersecci on de la regi on de conver-
gencia de cada una por separado. 222
Lema E.2. Escalamiento en z.
Sea y[k] una secuencia de tiempo discreto en que k (0, +), y sup ongamos
que tenemos a C, entonces
Z
_
a
k
y[k]
_
= Y
_
z
a
_
(E.13)
Demostraci on
Seg un la denici on tenemos:
Z
_
a
k
y[k]
_
=

k=0
a
k
y[k]z
k
=

k=0
y[k]
_
z
a
_
k
= Y
_
z
a
_
(E.14)
426 AP

ENDICE E. LA TRANSFORMACI

ON ZETA
En este caso la regi on de convergencia de la nueva transformada tambien
resulta escalada.
222
Ejemplo E.2. Consideremos la transformada Zeta calculada para la secuencia
del ejemplo E.1, que establece
y
1
[k] =
k
[k] Y
1
(z) =
z
z
; [[ < 1
Si ahora consideramos la secuencia
y
2
[k] =
k
y
1
[k] = [k]
Su transformada Zeta, aplicando (E.13) es
Y
2
(z) = Y
1
_
z

1
_
= Y
1
(z)
=
z
z
=
z
z 1
Que converge si y solo si [z[ > 1.
Ejemplo E.3. Consideremos ahora la secuencia que corresponde a una os-
cilaci on de amplitud creciente o decreciente dependiendo del par ametro r.
y[k] = r
k
cos(
0
k)
Su transformada Zeta puede obtenerse escribiendo el coseno en terminos de
exponenciales complejas
y[k] =
1
2
_
(re
j0
)
k
+ (re
j0
)
k
)

Usando el teorema, tenemos que


Y (z) =
1
2
_
Z
_
(re
j0
)
k
_
+Z
_
(re
j0
)
k
)
_
=
1
2
_
z
z re
j0
+
z
z re
j0
_
=
1
2
_
z(2z 2r cos
0
)
z
2
z2r cos
0
+r
2
_
=
z(z r cos
0
)
z
2
z2r cos
0
+r
2
E.2. PROPIEDADES DE LA TRANSFORMADA ZETA 427
Lema E.3. Conjugaci on.
Sea y[k] una secuencia discreta en que 0 k < cuya transformada Zeta
es Y (z). Entonces, la transformada Zeta de la secuencia conjugada es
Z y

[k] = Y

(z

) (E.15)
Demostraci on
Directa de la denici on (E.1)
Z y

[k] =

k=0
y

[k]z
k
=
_

k=0
y[k](z

)
k
_

= Y (z

222
Lema E.4. Desplazamientos en k.
Sea y[k] una secuencia discreta en que 0 k < cuya transformada Zeta
es Y (z). Entonces, dado un entero k
0
> 0, tenemos los siguientes resultados
para la transformada Zeta de la secuencia y[k] desplazada
Z y[k k
0
] = Y (z)z
k0
+y[1]z
k0+1
+. . . +y[k
0
+ 1]z
1
+y[k
0
]
(E.16)
Z y[k +k
0
] = Y (z)z
k0

_
y[0]z
k0
+y[1]z
k01
+. . . +y[k
0
1]z
_
(E.17)
Demostraci on
Consideremos primero el caso en que la secuencia ha sido retrasada en k
0
,
es decir, la ecuaci on (E.16). Si usamos la denici on de la transformada (E.1), y
la escribimos por extensi on, tenemos que
Z y[k k
0
] =

k=0
y[k k
0
]z
k
= y[k
0
] +y[k
0
+ 1]z
1
+. . . +y[1]z
k0+1
+

k=k0
y[k k
0
]z
k
Si denimos en la sumatoria l = k k
0
, entonces tenemos que k = l + k
0
.
Por tanto si reordenamos al lado derecho de la ultima igualdad tendremos que
428 AP

ENDICE E. LA TRANSFORMACI

ON ZETA
Z y[k k
0
] =

l=0
y[l]z
(l+k0)
+y[1]z
k0+1
+. . . +y[k
0
+ 1]z
1
+y[k
0
]
= z
k0
_

l=0
y[l]z
l
_
+y[1]z
k0+1
+. . . +y[k
0
+ 1]z
1
+y[k
0
]
Donde la ecuaci on (E.16) queda demostrada.
Consideremos ahora el caso en que la secuencia y[k] es adelantada en k
0
.
Reemplazando en la denici on tenemos que
Z y[k +k
0
] =

k=0
y[k +k
0
]z
k
=

l=k0
y[l]z
(lk0)
= z
k0
_

l=0
y[l]z
l

_
y[0] +y[1]z
1
+. . . +y[k
0
1]z
k0+1
_
_
=

l=0
y[l]z
l

_
y[0]z
k0
+y[1]z
k01
+. . . +y[k
0
1]z
_
Lo cual demuestra la segunda ecuaci on del lema, (E.17).
222
Es importante observar que si la secuencia y[k], retrasada en k
0
, adem as
se multiplica por un escal on unitario, tambien desplazado en k
0
, entonces ten-
dremos que
Z y[k k
0
][k k
0
] = Y (z)z
k0
(E.18)
Ya que, en este caso, todas las condiciones iniciales ser an iguales a cero.
Ejemplo E.4. Determine la transformada Zeta inversa de
Y (z) =
z
k0
z
Esta transformada se puede reescribir de manera de poder aplicar la ecuaci on
(E.18)
Y (z) = z
(k0+1)
z
z
y[k] =
k(k0+1)
[k (k
0
+ 1)]
E.2. PROPIEDADES DE LA TRANSFORMADA ZETA 429
Lema E.5. Derivaci on en z
Sea y[k] una secuencia en tiempo discreto para k (0, +) , con transfor-
mada Zeta Z y[k] = Y (z), entonces
Z k y[k] = z
d Y (z)
dz
(E.19)
Demostraci on
De la denici on (E.1), tenemos que
Z k y[k] =

k=0
ky[k]z
k
=

k=0
ky[k]z
k
= z

k=0
(k)y[k]z
k1
= z
d Y (z)
dz
222
Ejemplo E.5. Consideremos el caso en que la secuencia discreta a la cual
queremos calcularle su transformada Zeta es una rampa de tiempo discreto, es
decir:
y[k] = k[k]
Seg un (E.19) su transformada ser a
Z k[k] = z
d
dz
_
z
z 1
_
= z
(z 1) z
(z 1)
2
=
z
(z 1)
2
Lema E.6. Convoluci on
Sean y
1
[k] e y
2
[k] dos secuencias discretas causales, es decir, iguales a cero
para k < 0. Supongamos que sus transformadas Zeta son Y
1
(z) e Y
2
(z), respec-
tivamente. Entonces la transformada de la convoluci on discreta entre y
1
[k] e
y
2
[k] es:
430 AP

ENDICE E. LA TRANSFORMACI

ON ZETA
Ly
1
[k] y
2
[k] = Y
1
(z)Y
2
(z) (E.20)
En que
y
1
[k] y
2
[k] =
k

l=0
y
1
[l]y
2
[k l] (E.21)
Demostraci on
Si las se nales son causales, es decir, su valor es cero k < 0, entonces podemos
reescribirlas
y
1
[k] = [k]y
1
[k]
y
2
[k] = [k]y
2
[k]
Con esto, la convoluci on es equivalente a
y
1
[k] y
2
[k] =

l=
y
1
[l][l]y
2
[k l][k l]
Si reemplazamos esta forma en la denici on (E.1), podemos cambiar el orden
de las sumatorias:
Ly
1
[k] y
2
[k] =

k=0
_

l=
y
1
[l][l]y
2
[k l][k l]
_
z
k
=

l=
y
1
[l][l]
_

k=0
y
2
[k l][k l]z
k
_
Donde se puede aplicar la propiedad de corrimiento en k (E.18) y reducir la
sumatoria eliminando el [l]:
Ly
1
[k] y
2
[k] =

l=
y
1
[l][l]z
l
Y
2
(z)
= Y
2
(z)

l=0
y
1
[l]z
l
= Y
2
(z)Y
1
(z)
222
E.2. PROPIEDADES DE LA TRANSFORMADA ZETA 431
Teorema E.1 (Teorema del Valor Final y Teorema del Valor Inicial).
Existen dos resultados que relacionan el comportamiento asint otico de la funci on
y[k] y su tranformada Y (z). Estos se conocen como el teorema del Valor Inicial
y teorema del Valor Final en tiempo discreto.
lm
z
Y (z) = y[0] (E.22)
lm
z1
(z 1)Y (z) = lm
k
y[k] (E.23)
Las ecuaciones anteriores son v alidas s olo en el caso que los lmites
existen, tanto en k como en z.
Demostraci on
La ecuaci on (E.22) se demuestra f acilmente observando la denici on de la
transformada Zeta de la secuencia y[k] escrita por extensi on
Y (z) =

k=0
y[k]z
k
= y[0] +y[1]z
1
+. . . +y[k]z
k
+. . .
La cual, si se lleva al lmite z se reduce a un solo termino
lm
z
Y (z) = lm
z
y[0] + lm
z
y[1]z
1
. .
0
+. . . + lm
z
y[k]z
k
. .
0
+. . .
= y[0]
Con lo que se demuestra el Teorema del Valor Inicial.
Para demostrar la ecuaci on (E.23) consideremos la transformada Zeta de la
secuencia adelantada en una unidad menos la secuencia original
Z y[k + 1] y[k] = Z y[k + 1] Z y[k]
= zY (z) zy[0] Y (z) = (z 1)Y (z) zy[0]
Por otro lado, si aplicamos la denici on tendremos que
Z y[k + 1] y[k] = lm
k
k

l=0
(y[l + 1] y[l])z
l
432 AP

ENDICE E. LA TRANSFORMACI

ON ZETA
PropiedadestransformadaZeta
TablatransformadaZeta
Si igualamos ambas expresiones y hacemos posteriormente tender z 1 ,
tendremos que
lm
z1
(z 1)Y (z) zy[0] = lm
z1
_
lm
k
k

l=0
(y[l + 1] y[l])z
l
_
lm
z1
(z 1)Y (z) y[0] = lm
k
k

l=0
(y[l + 1] y[l])
lm
z1
(z 1)Y (z) y[0] = lm
k
(y[k + 1]) y[0]
Donde el ultimo paso al lado derecho se justica ya que la sumatoria cor-
responde a una serie telesc opica. De esta forma se demuestra el Teorema del
Valor Final, o valor de equilibrio.
La transformada Zeta es muy util en el estudio de sistemas din amicos de
tiempo discreto, ya que pemite convertir las ecuaciones recursivas, que de-
nen al sistema en el tiempo k, a ecuaciones algebraicas en la variable z.
E.2. PROPIEDADES DE LA TRANSFORMADA ZETA 433
y[k] Y (z) = Z y[k] Comentarios
l

i=1
a
i
y
i
[k]
l

i=1
a
i
Y
i
(z)

k
y[k] Y
_
z

_
C, ' > 0
y

[k] Y

(z

) Conjugaci on
y[k k
0
] z
k0
Y (z) +y[1]z
k0+1
+. . . +y[k
0
] k
0
Z
+
y[k +k
0
] z
k0
Y (z) (y[0]z
k0
+. . . +y[k
0
1]z) k
0
Z
+
y[k k
0
][k k
0
] z
k0
Y (z) k
0
Z
+
ky[k] z
dY (z)
dz
k

l=0
y
1
[l]y
2
[k l] Y
1
(z)Y
2
(z) Convoluci on en k
y[0] lm
z
Y (z) T. del Valor Inicial
lm
k
y[k] lm
z1
(z 1)Y (z) T. del Valor Final
Cuadro E.1: Propiedades de la transformada Zeta
434 AP

ENDICE E. LA TRANSFORMACI

ON ZETA
y[k] (k 0) Y (z) = Z y[k] Regi on de Convergencia

K
[k] 1 z C
1
z
z 1
[z[ > 1
k
z
(z 1)
2
[z[ > 1

k
z
z
[z[ > [[
e
j0k
z
z e
j0
[z[ > 1
cos(
0
k)
z(z cos
0
)
z
2
2z cos
0
+ 1
[z[ > 1
sen(
0
k)
z sen
0
z
2
2z cos
0
+ 1
[z[ > 1

k
cos(
0
k)
z(z cos
0
)
z
2
2zcos
0
+
2
[z[ > [[

k
sen(
0
k)
zsen
0
z
2
2zcos
0
+
2
[z[ > [[
cos(
0
k +)
z
2
cos z cos cos
0
+ sensen
0
z
2
2z cos
0
+ 1
[z[ > 1
_

k
; 0 k < N
0 ; k N
1 (z
1
)
N
1 z
1
[z[ > 0
Cuadro E.2: Transformada Zeta de algunas funciones simples
matrices|textbf
matriz!definici on
matriz!elementos
Apendice F
Matrices. Deniciones y
Propiedades
11 de septiembre de 2003
En este apendice se presenta una revisi on de conceptos y propiedades rela-
cionadas con matrices, como soporte para varios de los captulos del texto y
como referencia para t opicos m as avanzados. En varios de los resultados que se
presentan se han omitido demostraciones y detalles excesivos, para los cuales se
incluyen las referencias necesarias orientadas al lector m as interesado.
F.1. Conceptos Basicos
Intuitivamente se puede decir que una matriz no es m as que un arreglo
rectangular de las y columnas, cuyos elementos pertenecen a un conjunto dado
(n umeros reales, complejos, o bien funciones u otros objetos matem aticos), en
el cual se encuentra denida la suma y la multiplicaci on. M as formalmente:
Denici on F.1. Una matriz es un arreglo de n m objetos pertenecientes a un
conjunto K, dispuestos rectangularmente en n las y m columnas (n, m enteros
positivos). Al conjunto de dichas matrices lo denotaremos por /
nm
(K), o
simplemente por K
nm
.
Denici on F.2. Los objetos dentro de dicho arreglo se denominan elementos
de la matriz, y denotaremos por a
ij
el elemento situado en la i-esima la y
j-esima columna.
De esta forma tenemos que una matriz A = a
ij
es de la forma:
435
436 AP

ENDICE F. MATRICES. DEFINICIONES Y PROPIEDADES


matriz!cuadrada
A = a
ij
=
_

_
a
11
a
11
. . . a
1m
a
21
a
22
. . . a
2m
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
. . . a
nm
_

_
(F.1)
en que todos los elementos de A pertenecen al conjunto K, es decir:
a
ij
K i 1, . . . , n, j 1, . . . , m (F.2)
Una matriz con igual n umero de las y columnas se denomina cuadrada.
Dos matrices se dicen iguales si y s olo si son iguales elemento por elemento,
es decir, dadas A, B K
nm
:
A = B a
ij
= b
ij
i, j (F.3)
El conjunto K satisface por lo general las propiedades de cuerpo, y usual-
mente consideraremos el conjunto de los n umeros reales R o de los complejos C.
Recordemos que:
Lema F.1. Un conjunto K, junto a las operaciones suma y multiplicaci on se
denomina un cuerpo, si y s olo si, para todo a, b, c K:
1.- La suma (+) satisface las siguientes propiedades:
(a) cerradura, es decir, a +b K
(b) asociatividad, es decir, a + (b +c) = (a +b) +c
(c) conmutatividad, es decir, a +b = b +a
(d) existe 0 K (cero o neutro aditivo) tal que a + 0 = 0 +a = a
(e) para cada a K existe el inverso aditivo (a) K tal que a +
(a) = a +a = 0
2.- La multiplicaci on () satisface las siguientes propiedades:
(a) cerradura, es decir, a b K
(b) asociatividad, es decir, a (b c) = (a b) c
(c) existe 1 K (uno, identidad o neutro multiplicativo) tal que
a 1 = 1 a = a
(d) existe 0 K tal que a 0 = 0 a = 0 (propiedad absorbente del
cero).
F.1. CONCEPTOS B

ASICOS 437
vector!columna
vector!fila
matriz!traza
traza
matriz!traspuesta
matriz!sim etrica
matriz!hermitiana
(e) para cada a K existe el inverso multiplicativo a
1
K tal que
a a
1
= a
1
a = 1
(f ) conmutatividad, es decir, a b = b a
(g) distributividad, es decir, a (b +c) = a b +a c
Vectores
Una matriz formada por n las y 1 columna se denomina vector columna.
En base a esta denici on podemos armar que una matriz de nm est a formada
por m vectores columna, cada uno con n elementos.
Una matriz formada por 1 la y m columnas se denomina vector la.
An alogamente, en base a esta denici on podemos decir que una matriz de nm
est a formada por n vectores la, cada uno con m elementos.
En general, cuando se dena un vector de dimensi on p nos referiremos a un
vector columna formado por p elementos.
Traza de una matriz
Denici on F.3. Dada A = a
ij
K
nn
, la traza de A, que denotamos por
tr(A), es la suma de los elementos diagonales de A, es decir
tr(A) =
n

i=1
a
ii
(F.4)
Matrices especiales
Denici on F.4. Dada A = a
ij
K
nm
, la matriz traspuesta de A, que
denotamos por A
T
, es la que resulta de intercambiar sus las con sus columnas,
es decir,
A = a
ij
A
T
= a
ji
(F.5)
En base a la denici on, diremos que una matriz A es simetrica si y s olo si
A
T
= A, es decir, si y s olo si la matriz A es igual a su traspuesta. Naturalmente
para satisfacer esta condici on la matriz debe ser cuadrada.
Para el caso de matrices con coecientes o elementos complejos (es decir, en
C) resulta m as com un hablar de matrices hermitianas:
Denici on F.5. Dada A = a
ij
C
nm
, se dene la matriz hermitiana de
A, que denotamos por A
H
, como la matriz conjugada traspuesta de A, donde
la conjugaci on se aplica a cada elemento:
A
H
= (A

)
T
= (A
T
)

= a

ji
(F.6)
Una consecuencia natural de esta denici on es que toda matriz real y simetri-
ca es hermitiana.
Para matrices cuadradas, tenemos las siguientes deniciones:
438 AP

ENDICE F. MATRICES. DEFINICIONES Y PROPIEDADES


matriz!diagonal
matriz!triangularsuperior
matriz!triangularinferior
matriz!identidad
determinante
matriz!determinante
Denici on F.6. Dada una matriz A = a
ij
K
nn
, diremos que:
la matriz A es diagonal si y s olo si a
ij
= 0 i ,= j , es decir, todos sus
elementos fuera de la diagonal principal de la matriz son cero.
la matriz A es triangular superior si y s olo si a
ij
= 0 i > j, es decir,
todos los elementos bajo la diagonal principal son cero.
la matriz A es triangular inferior si y solo si A
T
es triangular superior.
Dentro del conjunto de matrices diagonales, la matriz identidad es de
especial interes y su denominaci on se justica en base a las propiedades del
producto matricial denido mas adelante. Esta se dene como:
Denici on F.7. La matriz identidad de dimensi on n, que denotamos por I
n
,
se dene como una matriz diagonal, cuyos elementos no nulos son iguales a 1,
es decir:
I
n
=
_

_
1 0 . . . 0
0 1 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 1
_

_
K
nn
(F.7)
F.2. Determinante de una matriz
A menudo en matem aticas resulta util representar las propiedades de un
objeto mediante un s olo n umero. Es as como para matrices cuadradas se dene
el determinante de la matriz. Este es un escalar asociado a una matriz
cuadrada y que, como veremos m as adelante, tiene directa relaci on con su rango,
la existencia de su inversa, y con el c alculo de los autovalores.
Denici on F.8. Dada la matriz A = a
ij
K
nn
, su determinante es un
escalar asociado a la matriz que se denota por:
[A[ = det A (F.8)
cuya denici on constructiva se muestra a continuaci on.
Expansi on de Laplace
1
El c alculo del determinante puede ser denido por inducci on. Sin embargo,
previo a su denici on presentamos dos conceptos previos necesarios:
1
Roger A. Horn & Charles R. Johnson, Matrix Analysis, Cambridge University Press, 1990,
p ag. 7
F.2. DETERMINANTE DE UNA MATRIZ 439
menor
matriz!menor
cofactor
matriz!cofactor
cofactor!desarrollo
Denici on F.9. Dada la matriz A = a
ij
K
nn
:
se dene A
ij
K
(n1)(n1)
como la ij-esima menor de A. Esta es una
matriz que resulta de eliminar la i-esima la y la j-esima columna de la
matriz A.
se dene el escalar:
C
ij
= (1)
i+j
det A
ij
(F.9)
como el ij-esimo cofactor de la matriz A
De esta forma, el determinante de A se dene en terminos del determinante
de sus menores:
det A =
n

j=1
(1)
i+j
a
ij
det A
ij
=
n

i=1
(1)
i+j
a
ij
det A
ij
(F.10)
o bien, mediante desarrollo por cofactores:
det(A) =
n

j=1
a
ij
C
ij
=
n

i=1
a
ij
C
ij
(F.11)
De esta forma, al denir el determinante para matrices formadas por un unico
elemento, queda denido el c alculo del determinante para todas las matrices de
dimensiones mayores:
det
_
a
11
_
=

a
11

= a
11
(F.12)

a
11
a
12
a
21
a
22

= a
11
a
22
a
12
a
21
(F.13)

a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33

= a
11

a
22
a
23
a
32
a
33

a
12

a
21
a
23
a
31
a
33

+a
13

a
21
a
22
a
31
a
32

(F.14)
.
.
. (F.15)
440 AP

ENDICE F. MATRICES. DEFINICIONES Y PROPIEDADES


singular
matriz!singular
matriz!nosingular
matriz!rango
rango
rango!columna
rango!columna
matriz!rango
rango
rangocompleto
Existe una serie de reglas que pueden facilitar el c alculo del determinante de
una matriz que est an m as all a del objetivo de este apendice. Sin embargo, una
observaci on util para reducir el n umero de c alculos necesarios para obtener el
determinante de una matriz es elegir la la (o columna) que contenga el mayor
n umero de ceros, para hacer el desarrollo en (F.10).
Podemos adem as hacer las siguientes observaciones:
Si la matriz A tiene una la o una columna formada s olo por ceros, en-
tonces det(A) = 0.
Si det(A) = 0 se dice que la matriz es singular. En caso contrario, se dice
que la matriz es no singular.
Si la matriz A de n n es diagonal o triangular (superior o inferior),
entonces det(A) = a
11
a
22
. . . a
nn
Rango de una matriz
En la denici on que sigue se hace menci on a los conceptos de combinaci on
lineal e independencia lineal en espacios vectoriales, que el lector interesado
puede revisar en el Apendice B.
Denici on F.10. Dada la matriz A = a
ij
K
nm
:
Se dene el rango columna de una matriz A al m aximo n umero de
columnas linealmente independientes.
Se dene el rango la de una matriz A al m aximo n umero de las lin-
ealmente independientes.
Se dene el rango de una matriz A al mnimo entre su rango la y su
rango columna.
Finalmente, se dice que A es de rango completo si su rango es igual al
mnimo entre su n umero de las o de columnas.
Ejemplo F.1. La matriz:
A =
_

_
1 2 0 4
2 3 1 1
3 1 1 3
_

_
(F.16)
tiene rango la igual a 2, pues la tercera la es la suma de las dos primeras,
mientras que tiene rango columna igual a 3, pues las 3 columnas a la izquierda
son linealmente independientes, y en R
3
estas conforman una base, es decir,
cualquier otro vector se puede escribir como combinaci on lineal de elementos de
esta base. Su rango, por ende, es igual a 2, y no es de rango completo.
F.3. OPERACIONES CON MATRICES 441
matrices!suma
espacio!vectorial
222
Una matriz cuadrada es de rango completo si y s olo si es no singular.
F.3. Operaciones con matrices
Suma de matrices
La suma de dos matrices se dene como la suma elemento por elemento.
Naturalmente, la condici on para que esta suma tenga sentido es que ambas
tengan las mismas dimensiones. Bajo esta condici on:
C = A+B = c
ij
= a
ij
+b
ij
(F.17)
donde A = a
ij
, B = b
ij
y C = c
ij
pertenecen a /
nm
(K).
La suma de matrices hereda sus propiedades directamente de las propiedades
de la suma en el conjunto K al que pertenecen sus elementos, en el Lema F.1.
Es decir, se cumple la cerradura, asociatividad, conmutatividad, existencia del
neutro y del inverso aditivo.
En particular, se dene la matriz cero (o neutro aditivo) 0
nm
como la
matriz cuyos elementos son todos 0. De esta forma A + 0 = A. Asimismo,
la matriz inversa aditiva de A, que se denota por A, esta formada por el
inverso aditivo de cada elemento de A. Esto es A = a
ij
y de esta forma
A+A = 0.
Nota: En Matlab es posible sumar un escalar c a cada elemento de una
matriz A C
nn
, haciendo abuso de notaci on, con la expresi on
>> A+c
cuyo resultado es una matriz en la cual el elemento ij-esimo es igual a a
ij
+c
Producto matriz por escalar
Denici on F.11. Dado un escalar K y una matriz A K
nm
, entonces
el producto matriz por escalar se dene como
A = a
ij
= a
ij
K
nm
(F.18)
es decir, es la matriz que se obtiene de multiplicar cada elemento de la matriz
A por el escalar
Asi como la suma de matrices hereda sus propiedades de las propiedades de
la suma en el cuerpo K, el producto por escalar las hereda de la multiplicaci on.
De esta forma, el conjunto /
nm
(K) con el producto por escalar satisface las
propiedades de un espacio vectorial (ver Apendice . . . ). Es m as, siempre es
posible establecer un isomorsmo entre /
nm
(K) y un espacio vectorial de
dimensi on nm.
442 AP

ENDICE F. MATRICES. DEFINICIONES Y PROPIEDADES


producto!matrices
matriz!producto
Lema F.2. Propiedades del producto matriz por escalar
Dados los escalares , K y las matrices A, B K
nm
, se cumplen las
siguientes propiedades:
(a) cerradura, es decir, A K
nm
(b) asociatividad, es decir, ()A = (A)
(c) conmutatividad, es decir, A = A
(d) distributividad escalar, es decir, ( +)A = A+A
(e) distributividad matricial, es decir, (A+B) = A+B
(f ) Existe el elemento neutro 1 K , tal que 1 A = A
Producto matricial
El producto de matrices puede entenderse como una extensi on del producto
punto o producto interno usual dos vectores v, w K
n
, denido como:
v, w) = v w =
n

k=1
v

k
w
k
(F.19)
De esta forma, tenemos la siguiente denici on:
Denici on F.12. Dadas las matrices A K
np
y B K
pm
, el producto
matricial entre A y B se dene como la matriz C K
nm
tal que:
AB = a
ik
b
kj
= c
ij
= C (F.20)
en que cada elemento de C es:
c
ij
=
p

k=1
a
ik
b
kj
= a
i
, b
j
) (F.21)
donde a
i
es la i-esima la de A y b
j
denota la j-esima columna de B.
Note que:
la condici on para la existencia del producto matricial es que el
n umero de columnas de A sea igual al n umero de las de B.
usando la ecuaci on (F.19), podemos ver que el elemento ij-esimo de C
es el producto punto entre el i-esimo vector la de A y el j-esimo vector
columna de B
el producto punto puede expresarse como producto matricial, es decir, en
la ecuacion (F.19):
v, w) = (v

)
T
w (F.22)
F.4. INVERSA DE UNA MATRIZ 443
matriz!inversa
matriz!nosingular
inversadeunamatriz
inversageneralizada
matriz!inversageneralizada
Lema F.3. Propiedades del producto matricial
Dadas las matrices A, B y C , de dimensiones adecuadas, se cumplen las
siguientes propiedades:
(a) asociatividad matricial, es decir, (AB)C = A(BC)
(b) asociatividad escalar, es decir, (AB) = (A)B
(c) distributividad, es decir, (A+B)C = AC+BC
(d) En general, no existe conmutatividad, es decir, AB ,= BA
(e) Dada la matriz A K
nm
, existe la matriz identidad I
n
y la matriz iden-
tidad I
m
, tal que I
n
A = A = AI
m
(f ) Si AB = C , entonces (det A)(det B) = det C
F.4. Inversa de una matriz
Revisando las propiedades del producto matricial en el Lema F.3, podemos
apreciar que no se menciona nada sobre la existencia de un inverso multiplicativo
para una matriz A dada. De hecho, en esta secci on veremos que no toda matriz
posee un inverso multiplicativo, el que s olo existe bajo ciertas condiciones.
Denici on F.13. Dada una matriz A, se dene la matriz inversa de A, que
denotamos por A
1
, como la matriz (si es que existe) que satisface:
AA
1
= A
1
A = I (F.23)
donde I representa la matriz identidad.
Si esta matriz A
1
existe, diremos que la matriz A es invertible o no
singular.
Note que:
no todas las matrices poseen una inversa,
de la ecuaci on (F.23), se deduce que la matriz A y su inversa A
1
, deben
ser cuadradas y de la misma dimensi on,
la inversa de A, si existe, es unica.
para matrices singulares y/o no cuadradas es posible denir su inversa por
la derecha, por la izquierda o su inversa generalizada.
2
En el siguiente lema se establecen condiciones equivalentes que garantizan
la invertibilidad de una matriz A dada, en diferentes contextos:
2
http://www.ee.ic.ac.uk/hp/sta/dmb/matrix
444 AP

ENDICE F. MATRICES. DEFINICIONES Y PROPIEDADES


matriz!adjunta
adjuntadeunamatriz
matriz!particionada
Lema F.4. Existencia de la inversa de A
Dada una matriz A K
nn
, entonces las siguientes condiciones son equiva-
lentes:
(a) A es no singular.
(b) A
1
existe.
(c) rango A = n.
(d) las las de A son linealmente independientes.
(e) las columnas de A son linealmente independientes.
(f ) det A ,= 0.
El c alculo de la inversa de una matriz puede denirse en terminos de su
matriz adjunta:
Denici on F.14. Dada una matriz A K
n
, se dene su matriz adjunta
como la traspuesta de la matriz de sus cofactores, es decir:
Adj A = C
ij

T
(F.24)
en que C
ij
son los denidos en la ecuaci on (F.9)
Entonces, tenemos el siguiente resultado:
Lema F.5. Inversa de una matriz
Dada una matriz A K
n
no singular, entonces su inversa A
1
es:
A
1
=
1
det A
Adj A (F.25)
Demostraci on:
Usando la expansi on de Laplace (F.10), entonces se puede probar que:
(Adj A)A = A(Adj A) = (det A) I (F.26)
222
Matrices particionadas
Toda matriz puede ser particionada de forma tal que se expresa como una
matriz de macro elementos, cada uno de ellos es en si mismo otra matriz. Se
dice, en estos casos que la matriz est a denida por bloques. Considere una matriz
A C
nm
, entonces:
F.4. INVERSA DE UNA MATRIZ 445
A = a
ij
=
_

_
A
11
A
12
A
13
A
1q
A
21
A
22
A
23
A
2q
.
.
.
.
.
.
.
.
. . . .
.
.
.
A
p1
A
p2
A
p3
A
pq
_

_
(F.27)
donde A
ij
C
nimj
y adem as se cumple que
p

i=1
n
i
= n;
q

j=1
m
j
= m (F.28)
Por ejemplo, si
A =
_

_
1 2 0 7
0 3 2 5
1 1 2 3
2 2 2 4
_

_
(F.29)
Entonces, una partici on posible es dividir la matriz A en un arreglo de 22
bloques, donde
A
11
=
_

_
1 2 0
0 3 2
1 1 2
_

_
; A
12
=
_

_
7
5
3
_

_
; A
21
=
_
2 2 2
_
; A
22
= 4 (F.30)
Lema de Inversi on Matricial
En esta seccion presentamos un importante resultado que resulta util en
aquellos casos que se requiere manipular (calcular determinantes o inversas)
matrices de grandes dimensiones, o bien, matrices denidas por bloques. Para
esto consideramos una matriz cuadrada, denida por bloques, de la forma:
446 AP

ENDICE F. MATRICES. DEFINICIONES Y PROPIEDADES


inversionmatricial
matriz!particionada
A =
_

_
A
11
A
12
A
21
A
22
_

_
C
(p+q)(p+q)
(F.31)
en que:
A
11
C
pp
; A
12
C
pq
; A
21
C
qp
; A
22
C
qq
(F.32)
De esta forma, si se denen la siguiente matrices auxiliares:

11
= A
11
A
12
A
1
22
A
21
(F.33)

22
= A
22
A
21
A
1
11
A
12
(F.34)
entonces, tenemos el siguiente resultado preliminar:
Lema F.6 (Inversa de una matriz particionada). Considere las ecuaciones
(F.31) (F.34). Si las matrices A
11
, A
2
,
11
y
22
son no singulares, entonces
la matriz A es no singular y su inversa es:
A
1
=
_
_
A
1
11
+A
1
11
A
12

1
22
A
21
A
1
11
A
1
11
A
12

1
22

1
22
A
21
A
1
11

1
22
_
_
(F.35)
o bien:
A
1
=
_
_

1
11

1
11
A
12
A
1
22
A
1
22
A
21

1
11
A
1
22
+A
1
22
A
21

1
11
A
12
A
1
22
_
_
(F.36)
En particular, dadas submatrices como las que forman la matriz (F.31),
entonces:

1
11
= A
1
11
+A
1
11
A
12

1
22
A
21
A
1
11
(F.37)
Ademas, dadas submatrices como las que forman la matriz (F.31), se tiene
que:
A
1
11
A
12

1
22
=
1
11
A
12
A
1
22
(F.38)
Finalmente, el determinante de la matriz denida en (F.31), se puede cal-
cular como:
det(A) = det(A
11
) det(
22
) (F.39)
F.4. INVERSA DE UNA MATRIZ 447
o bien:
det(A) = det(A
22
) det(
11
) (F.40)
Demostraci on:
La matriz A puede reescribirse en la forma:
A =
_
_
I
p
0
A
21
A
11
1
I
q
_
_
_
_
A
11
A
12
0
22
_
_
(F.41)
y de la forma:
A =
_
_
I
p
A
12
A
22
1
0 I
q
_
_
_
_

11
0
A
21
A
22
_
_
(F.42)
Calculando los determinantes de las matrices en estas ecuaciones, se prueba
(F.39) y (F.40). Se debe observar que esto asegura que det(A) ,= 0, es decir, A
es no singular. Ahora, se observa que:
_
_
A
11
A
12
0
22
_
_
1
=
_
_
A
11
1
A
11
1
A
12
(
22
)
1
0 (
22
)
1
_
_
(F.43)
y, adem as:
_
I
p
0
A
21
A
11
1
I
q
_
1
=
_
I
p
0
A
21
A
11
1
I
q
_
(F.44)
Estas dos ecuaciones se pueden utilizar cuando se aplica inversi on matricial
en la ecuaci on (F.41):
A
1
=
_
A
11
A
12
0
22
_
1
_
I
p
0
A
21
A
11
1
I
q
_
1
(F.45)
Reemplazando y haciendo el producto matricial, se prueba la ecuaci on (F.35).
La ecuaci on (F.36) se prueba de manera an aloga.
Finalmente, la ecuaci on (F.37) se obtiene de igualar los bloques superiores
izquierdos en las matrices (F.35) y (F.36), mientras que la ecuaci on (F.38) de
forma an aloga, pero igualando los bloques superiores derechos.
222
A partir de las ecuaciones en el lema anterior, se obtienen el siguiente lema
que, considerando algunos casos particulares para la matriz A en (F.31), repre-
senta resultados m as simples, tambien de amplia utilidad.
448 AP

ENDICE F. MATRICES. DEFINICIONES Y PROPIEDADES


autovalores|textbf
autovectores|textbf
valorescaracter sticos|textbf
vectores
caracter sticos|textbf
matriz!autovalores
autovalores
valorespropios
Lema F.7 (Lema de inversi on matricial). Dadas las matrices:
B K
mn
; C K
nn
; D K
nm
(F.46)
entonces se tienen las siguientes relaciones:
D(I
m
BD)
1
= (I
n
DB)
1
D (F.47)
(I
m
+BC
1
D)
1
= I
m
B(CDB)
1
D (F.48)
(C+DB)
1
= C
1
C
1
D(I
n
+BC
1
D)
1
BC
1
(F.49)
det
_
I
m
BD
_
= det
_
I
n
DB
_
(F.50)
Demostracion:
La ecuacion (F.47), es directa de (F.38), haciendo A
11
= I
m
, A
12
= B,
A
21
= D y A
22
= I
n
.
La ecuacion (F.48), se obtiene a partir de (F.37), haciendo A
11
= I
m
,
A
12
= B, A
21
= D y A
22
= C.
La ecuacion (F.49), tambien se obtiene a partir de (F.37), pero haciendo
A
11
= C, A
12
= D, A
21
= B y A
22
= I
m
.
Finalmente, (F.50) se obtiene a partir de las ecuaciones (F.39) y (F.40),
pero considerando A
11
= I
n
, A
12
= D, A
21
= B y A
22
= I
m
.
222
F.5. Autovalores y autovectores
En diferentes problemas, tanto en matem atica como en ingeniera, dada una
matriz A K
nn
se tiene la siguiente ecuaci on:
A v = v ; v ,= 0 (F.51)
en que interesa encontrar el (o los) vector(es) v K
n
y escalar(es) K que
permiten reemplazar el producto matriz-vector al lado izquierdo de (F.51), por
un producto escalar-vector (lado derecho). Naturalmente, nos interesa encontrar
soluciones no triviales de la ecuaci on (F.51).
Denici on F.15. Valores y vectores propios
Dada una matriz A K
nn
y la ecuaci on (F.51), entonces:
los escalares
i
que satisfacen esta ecuaci on se denominan valores pro-
pios, autovalores o eigenvalores, y
los correspondientes vectores v
i
se denominan vectores propios, au-
tovectores o eigenvectores
F.5. AUTOVALORES Y AUTOVECTORES 449
polinomiocaracter stico
espectro
radioespectral
Las soluciones de la ecuaci on (F.51) vienen dadas por el siguiente lema:
Lema F.8. Ecuaci on caracterstica
Cada autovalor de la matriz A en (F.51) satisface la ecuaci on caracterstica:
det(I A) = 0 (F.52)
El lado izquierdo de esta ecuaci on es el polinomio caracterstico, p(),
de orden n, y posee n raices complejas.
Demostraci on:
La ecuaci on (F.51) puede reescribirse como:
v Av = 0 (F.53)
(I A) v = 0 (F.54)
Entonces el resultado se prueba por contradicci on: si la ecuaci on (F.52) no
se cumple, entonces la matriz (I A) es no singular, y al multiplicar por su
inversa al lado izquierdo se tiene:
(I A)
1
(I A)v = v = 0 (F.55)
lo que contradice la condici on v ,= 0
222
Denici on F.16. Espectro y radio espectral
El conjunto de n autovalores de una matriz A K
nn
se denomina el
espectro de A, y se denota por:
(A) =
1
,
2
, . . . ,
n
(F.56)
Asimismo, se dene el radio espectral de A como:
(A) = m ax[[ : (A) (F.57)
Este justamente corresponde al radio del disco m as peque no centrado en
el origen del plano complejo C que incluye todos los autovalores de A.
Cada uno de los valores propios de A puede usarse en la ecuaci on (F.51)
para determinar su vector propio asociado resolviendo para v. Este sistema
posee innitas soluciones dado que justamente el autovalor
i
se ha obtenido
forzando su determinante a ser cero (F.52). Sin embargo, basta elegir uno de
estos vectores como soluci on ya que el lector puede vericar que si v
i
es un vector
propio asociado al autovalor
i
tambien lo es el vector v
i
, para cualquier escalar
. Para disminuir la multiplicidad de soluciones en el c alculo de autovectores,
se normalizan las soluciones de modo que su norma euclidiana sea 1, es decir
[[v
i
[[ = 1.
Cuando los autovalores son distintos entre s, los autovectores son lineal-
mente independientes. Sin embargo, cuando hay autovalores repetidos, puede
ocurrir que los autovectores asociados sean linealmente dependientes.
450 AP

ENDICE F. MATRICES. DEFINICIONES Y PROPIEDADES


matrices!similares
similaridad!transformaci onde
congruencia
Diagonalizaci on
Cuando los autovectores v
i
de la matriz A que satisfacen la ecuaci on (F.51),
son linealmente independientes, pueden agruparse en una matriz Tno singular:
T =
_
v
1
v
2
. . . v
n
_
(F.58)
Lema F.9. Diagonalizaci on
Dada una matriz A K
nn
, sin autovalores repetidos, y la matriz T denida
en (F.58), formada por sus autovectores, se tiene que:
T
1
AT = P (F.59)
en que P es la matriz diagonal formada por los autovalores de A, es decir:
P = diag
1
,
2
, . . . ,
n
(F.60)
Demostraci on
Usando la ecuaci on (F.58), podemos escribir:
AT = A
_
v
1
v
2
. . . v
n
_
(F.61)
=
_
Av
1
Av
2
. . . Av
n
_
(F.62)
=
_

1
v
1

2
v
2
. . .
n
v
n
_
(F.63)
= Tdiag
1
,
2
, . . . ,
n
(F.64)
Y el resultado se obtiene multiplicando por la izquierda por la inversa de la
matriz no singular T.
222
Denici on F.17. Cuando dos matrices A y P satisfacen la ecuaci on (F.59), se
denominan matrices similares, y la transformacion A T
1
AT se denomina
transformacion de similaridad.
Analogamente a la denicion F.17 de similaridad entre matrices, se dene
tambien el concepto de congruencia:
Denici on F.18. Dos matrices A, B K
nn
se dicen:
H
congruentes si y s olo si existe una matriz no singular S tal que B =
S
H
AS, y
F.5. AUTOVALORES Y AUTOVECTORES 451
multiplicidad!autovalores
autovectores!generalizados
Jordan!formade
matriz!formadeJordan
T
congruentes si y s olo si existe una matriz no singular S tal que B =
S
T
AS.
Naturalmente estos conceptos son equivalentes si S es una matriz real.
Forma de Jordan
En el caso que una matriz A posea autovalores repetidos, es decir, con mul-
tiplicidad, pueden darse dos situaciones diferentes respecto a la digonalizaci on.
Supongamos que un autovalor
i
con multiplicidad n
i
2, entonces:
1. el autovalor
i
da origen a n
i
autovectores linealmente independientes en
la ecuaci on (F.51), o bien
2. el autovalor
i
da origen a menos de n
i
autovectores linealmente inde-
pendientes
En el primer caso, no hay problema en construir la matriz T en (F.58), y
por tanto se obtiene la matriz diagonal P en (F.59), sin problema alguno.
Sin embargo, en el segundo caso, se pueden obtener construir los vectores
(l.i.) necesarios para la matriz T a partir de la siguiente cadena de vectores
propios:
(A
i
I)v
i,0
= 0
(A
i
I)v
i,1
= v
i,0
(F.65)
(A
i
I)v
i,2
= v
i,1
.
.
.
Note que, en estricto rigor, s olo v
i,0
es un autovector; en cambio v
i,j
j =
1, 2, . . . , k no lo son y reciben el nombre de autovectores generalizados.
Si suponemos que el unico valor propio repetido es
i
con multiplicidad
k, pero con un solo vector propio obtenido en (F.51) y el resto mediante las
ecuaciones (F.65), entonces la matriz T denida en (F.58) se construye ahora
como:
T =
_
v
1
. . . v
i,k
v
i,k1
. . . v
i,0
. .
asociados a i
. . . v
n

(F.66)
y la matriz P en (F.59) ya no es diagonal, sino que tiene la forma de Jordan:
452 AP

ENDICE F. MATRICES. DEFINICIONES Y PROPIEDADES


autovectores!generalizados
P = J
A
=
_

1
0 . . . 0
0
.
.
.
.
.
.
J
i
.
.
.
.
.
. 0
0 . . . 0
n
_

_
(F.67)
en que la matriz J
i
K
kk
es un bloque sobre la diagonal principal de J
A
de
la forma:
J
i
=
_

i
0 . . . 0
1
i
.
.
.
.
.
.
.
.
.
0 1
i
_

_
(F.68)
Note que, en estricto rigor, s olo v
i,0
es un autovector; en cambio v
i,j
, j =
1, 2, . . . , k, no lo son y reciben el nombre de autovectores generalizados.
Note adem as que todo bloque de Jordan, J
i
, es una matriz triangular y por
lo tanto cumple con
tr(J
i
) = n
i

i
; det(J
i
) =
i
ni
(F.69)
Ejemplo F.2. Considere la matriz
3
:
A =
_

_
2 0 0
a 2 0
1 1 1
_

_
; a R (F.70)
Sus autovalores se obtiene f acilmente de la ecuaci on caracterstica (F.52):
3
Homan & Kunze, Linear Algebra 2ed. 1971, Prentice-Hall, p.247
F.5. AUTOVALORES Y AUTOVECTORES 453
det(I A) = ( 2)
2
( + 1) = 0
_

1
= 2 (multiplicidad 2)

2
= 1
(F.71)
Caso 1 : a = 0
Usando la ecuaci on (F.51) se obtienen los autovectores:
(
1
I A)v
1
=
_

_
0 0 0
0 0 0
1 1 3
_

_
_

1
_

_
= 0 v
1
=
_

1
(
1
+
1
)/3
_

_
(F.72)
(
2
I A)v
2
=
_

_
3 0 0
0 3 0
1 1 0
_

_
_

2
_

_
= 0 v
2
=
_

_
0
0

2
_

_
(F.73)
Es claro que para obtener un autovector v
2
asociado a
2
= 1 basta escoger
cualquier valor para
2
,= 0, por ejemplo
2
= 1. Sin embargo, la expresi on para
v
1
nos dice que existen dos grados de libertad,
1
y
1
, es decir, es posible
obtener 2 vectores linealmente independientes:
v
1
=
_

1
(
1
+
1
)/3
_

_
=

1
3
_

_
3
0
1
_

_
+

1
3
_

_
0
3
1
_

_
=

1
3
v
1,
+

1
3
v
1,
(F.74)
Con esto tenemos la matriz de transformaci on:
454 AP

ENDICE F. MATRICES. DEFINICIONES Y PROPIEDADES


T =
_
v
1,
v
1,
v
2
_
=
_

_
3 0 0
0 3 0
1 1 1
_

_
(F.75)
Con lo que se obtiene:
T
1
AT =
_

_
2 0 0
0 2 0
0 0 1
_

_
= P (F.76)
Caso 2 : a ,= 0
Usando la ecuaci on (F.51) se obtienen los autovectores:
(
1
I A)v
1
=
_

_
0 0 0
a 0 0
1 1 3
_

_
v
1
= 0 v
1
=
_

_
0
3
1
_

_
= v
1,0
(F.77)
(
2
I A)v
2
=
_

_
3 0 0
a 3 0
1 1 0
_

_
v
2
= 0 v
2
=
_

_
0
0
1
_

_
(F.78)
Para obtener el segundo autovector asociado a
1
usamos la cadena de vec-
tores (F.65):
F.5. AUTOVALORES Y AUTOVECTORES 455
(A
1
I)v
1,1
= v
1,0
(F.79)
_

_
0 0 0
a 0 0
1 1 3
_

_
_

_
=
_

_
0
3
1
_

_
(F.80)
Donde se obtiene = 3/a y = 3 + 1 3/a. Por simplicidad escoge-
mos = 0, luego v
1,1
= [ 3/a , 1 3/a , 0 ]
T
. Con esto tenemos la matriz de
transformaci on:
T =
_
v
1,1
v
1,0
v
2
_
=
_

_
3/a 0 0
1 3/a 3 0
0 1 1
_

_
(F.81)
Con lo que se obtiene:
T
1
AT =
_

_
2 0 0
1 2 0
0 0 1
_

_
= J
A
(F.82)
Lema F.10. Sea una matriz A C
nn
con autovalores
1
,
2
,
3
, . . . ,
n
, en-
tonces
tr(A) =
n

i=1

i
(F.83)
det(A) =
n

i=1

i
(F.84)
Demostraci on
Primero observamos que siempre existe una matriz no singular T, tal que
T
1
AT = diagJ
1
, J
2
, . . . , J
q
(F.85)
456 AP

ENDICE F. MATRICES. DEFINICIONES Y PROPIEDADES


donde J
i
C
nini
, i = 1, 2, . . . , q, son bloques de Jordan, donde n
i
es un entero
mayor o igual a 1. Entonces, para la traza se cumple, usando (F.69), que
tr(T
1
AT) =
q

i=1
tr(J
i
) =
q

i=1
n
i

i
(F.86)
es decir, tr(T
1
AT) es igual a la suma de todos los autovalores de A. Por otro
lado
tr(T
1
AT) = tr(ATT
1
) = tr(A) (F.87)
lo cual cierra la demostraci on para la traza.
Para el determinante, se tiene, usando (F.69), que
det(T
1
AT) =
q

i=1
det(J
i
) =
q

i=1

i
n
i
(F.88)
es decir, tr(T
1
AT) es igual al producto de todos los autovalores de A. Por
otro lado
det(T
1
AT) = det(ATT
1
) = det(A) (F.89)
222
Una propiedad fundamental de la transformaci on similar es que se preservan
ciertas caractersticas, tal como se plantea a continuaci on.
Lema F.11. Sean A y B dos matrices similares. Entonces, tienen los mismos
autovalores, el mismo determinante y la misma traza.
Demostraci on
Si A y B son similares, entonces existe T no singular tal que B = T
1
AT.
Entonces, los autovalores de B son las races de det(I B) = 0. Si ahora
usamos la similaridad tenemos que
det(I B) = det(T
1
TT
1
AT) = det
_
T
1
(I A)T
_
(F.90)
= det
_
(I A)TT
1
_
= det(I A) (F.91)
lo cual demuestra que la transformaci on similar preserva los autovalores.
Para demostrar la preservaci on de determinante y traza se aplica directa-
mente el Lema F.10.
222
Los lemas que siguen presentan propiedades adicionales de autovalores y
autovectores.
Lema F.12 (Propiedades de autovalores y autovectores). Los autoval-
ores y autovectores de una matriz A C
nn
tienen las siguientes propiedades
F.6. NORMAS DE VECTORES Y MATRICES 457
P1 La matriz A y la matriz A
k
, tienen los mismos autovectores k entero.
P2 Si los autovalores de A son
1
,
2
, . . . ,
n
, entonces los autovalores de A
k
son
k
1
,
k
2
, . . . ,
k
n
.
P3 Si A es hermitiana, es decir, A = A
H
C
nn
, entonces todos sus auto-
valores son reales.
P4 Si A es hermitiana, entonces sus n autovectores son linealmente indepen-
dientes. Esto tambien implica que, en este caso, A es diagonalizable.
P5 Si A es hermitiana entonces sus autovectores v
1
, v
2
, . . . , v
n
son ortogonales
entre s.
Lema F.13 (Descomposici on espectral). Si A es hermitiana con autoval-
ores
1
,
2
, . . . ,
n
y autovectores asociados v
1
, v
2
, . . . , v
n
, con [[v
i
[[ = 1 para
i = 1, 2, . . . , n, entonces
A =
n

i=1

i
v
i
v
H
i
(F.92)
Las demostraciones de los lemas precedentes son dejadas como ejercicios
para el lector.
F.6. Normas de vectores y matrices
Norma de vectores
El concepto de norma, y sus propiedades, ya fue denido en el apendice . . . ,
en el contexto de espacios vectoriales (Denicion B.6 pag 322).
En particular la norma ahi empleada es la que queda inducida por el producto
interno entre vectores. Sin embargo, para vectores existen otras normas que
pueden denirse, que tambien satisfacen las propiedades en la Denicion B.6:
1. La norma euclideana (o norma l
2
) en C
n
, denida como:
|v|
2
= ([v
1
[
2
+. . . +[v
n
[
2
)
1/2
(F.93)
Esta es la norma mas comun, pues representa la distancia usual dos puntos
en C
n
. Note que tambien se deriva del producto punto usual (F.19) en C
n
,
es decir, |v|
2
2
= v, v) = v

v
2. La norma suma (o norma l
1
) en C
n
, denida como:
|v|
1
= [v
1
[ +. . . +[v
n
[ (F.94)
3. La norma max (o norma l

) en C
n
, denida como:
|v|

= m ax[v
1
[, . . . , [v
n
[ (F.95)
458 AP

ENDICE F. MATRICES. DEFINICIONES Y PROPIEDADES


desigualdad!Cauchy--Schwarz
norma-$1$
Fr obenius
norma-$2$
matriz!norma-$2$
matriz!normaFr obenius
norma-$\infty$
matriz!norma-$\infty$
4. La norma p en C
n
, con p 1 denida como:
|v|
p
= ([v
1
[
p
+. . . +[v
n
[
p
)
1/p
(F.96)
Se deja al lector (como buen ejercicio) representar todos los vectores que
est an a distancia 1 del origen, en cada una de estas normas, por ejemplo, en C
o R
2
.
Norma de matrices
Para denir la norma de una matriz, o equivalentemente, la distancia entre
dos matrices, una primera forma seria considerar simplemente el isomorsmo
entre espacio /
nm
(K) y el espacio vectorial K
nm
. Sin embargo, al considerar
simplemente la norma en un espacio vectorial de mayores dimensiones, no es
posible establecer relaciones con propiedades caractersticas de las matrices,
como son el producto matricial, el determinante y el espectro, entre otras. Por
esto, tenemos la siguiente denici on, m as adecuada:
Denici on F.19. Una norma matricial es una funci on que va de /(K) R
talque, para A, B de dimensiones adecuadas, satisface:
1. |A| 0, y |A| = 0 si y s olo si A = 0
2. |A| = [[|A| para todo escalar K
3. |A+B| |A| +|B| , es decir, la desigualdad triangular usual.
4. |AB| |A||B| , que se denomina desigualdad de CauchySchwartz
Las normas matriciales m as usuales son:
1. La norma suma (o norma-1) denida para A = a
ij
C
nm
como:
|A|
1
=
n

i=1
m

j=1
[a
ij
[ (F.97)
2. La norma euclideana, norma Fr obenius o norma-2, denida para A =
a
ij
K
nm
como:
|A|
2
=
_
_
n

i=1
m

j=1
[a
ij
[
2
_
_
1/2
=
_
tr(A
H
A) (F.98)
3. La norma max (o norma-) en K
nm
, denida como:
|A|

= m ax
i,j
a
ij
(F.99)
F.6. NORMAS DE VECTORES Y MATRICES 459
norma-p
matriz!norma-p
norma!inducida
matriz!normainducida
normaespectral
norma!spectral
matriz!normaspectral
n umerodecondicionamiento
matriz,condici on
4. La norma-p en K
nm
, con p 1 denida como:
|A|
p
=
_
_
n

i=1
m

j=1
[a
ij
[
p
_
_
1/p
(F.100)
Adem as de las anteriores, la forma m as natural de denir una norma matri-
cial es inducirla a traves de una norma vectorial de la siguiente forma:
Denici on F.20. Dada una matriz A K
nm
y una norma vectorial | |,
denimos la norma matricial inducida como:
|A| = m ax
|v|=1
|Av| (F.101)
La norma inducida puede denirse tambien de una serie de formas equiva-
lentes:
|A| = m ax
|v|=1
|Av| = m ax
|v|1
|Av| = m ax
|v|, =0
|Av|
|v|
(F.102)
Varias de las normas antes denidas, pueden expresarse en terminos de la
norma inducida, eligiendo la norma vectorial adecuada. Sin embargo, existe una
serie de normas matriciales independientes de esta denici on. Entre ellas, una
de las m as importantes es:
Denici on F.21. Se dene la norma espectral de una matriz A K
nm
como:
|A|
2
= m ax

: es un autovalor de A

A (F.103)
Finalmente, y como aplicaci on de la denici on de norma entre matrices, se
considera la relaci on entre normas de una matriz y el c alculo de su inverso.
Este c alculo puede ser muy sensible a errores numericos, en especial cuando una
matriz esta cerca de ser singular. De esta forma se dene:
Denici on F.22. Dada una matriz A, se dene el n umero de condicionamien-
to, o n umero de condici on, para la inversion con respecto a la norma matricial
| | como:
(A) =
_
|A| |A
1
| si A es no singular
si A es singular
(F.104)
Note que (A) = |A| |A
1
| |AA
1
| |I| 1 para toda matriz A.
De esta forma, cuando (A) es grande, la matriz se dice mal condiciona-
da. Si (A) es cercano a 1, la matriz se dice bien condicionada, y si (A) =
1, entonces la matriz A se dice perfectamente condicionada.
460 AP

ENDICE F. MATRICES. DEFINICIONES Y PROPIEDADES


matriz!unitaria
teoremadeSchur
Cuando una matriz es mal condicionada, el c alculo del inverso puede tener
errores muy grandes, y es aconsejable recurrir a metodos de inversi on numeri-
camente robustos.
Un caso especial de n umero de condici on de una matriz real es cuando se
usa la norma spectral en (F.104). En ese caso
(A) =
[
max
[
[
min
[
(F.105)
F.7. Tipos especiales de matrices
Matrices unitarias
Denici on F.23. Una matriz U C
nn
se dice unitaria, si y s olo si U
H
U =
I
n
, es decir, si su inversa es igual a su matriz hermitiana o conjugada traspuesta.
En particular, si la matriz es real, es decir, U R
nn
, se dice que U es real
ortogonal.
Es m as, si dos matrices son similares a traves de una matriz de transforma-
cion unitaria, es decir:
U
H
AU = P (F.106)
las matrices A y P se denominan unitaria equivalentes, o (real) ortogonal
equivalentes, si U es real.
Este tipo particular de matrices poseen interesantes propiedades, entre ellas:
los vectores columna de U forman un conjunto ortonormal;
los vectores la de U forman un conjunto ortonormal;
la transformaci on w = Uv preserva longitudes, es decir, w
H
w = v
H
v.
Por esto se dice que A es una isometra euclideana
Si bien toda matriz con autovalores no repetidos es similar a una matriz
diagonal, no siempre la matriz de transformacion es unitaria. Sin embargo, el
siguiente teorema nos dice que toda matriz es unitaria equivalente a una matriz
triangular superior:
Teorema F.1. Teorema de Schur de triangularizacion unitaria.
Dada una matriz A C
nn
con autovalores
1
, . . . ,
n
, existe una matriz uni-
taria U, tal que la matriz:
U
H
AU = T = t
ij
(F.107)
es triangular superior, con elementos sobre la diagonal t
ii
=
i
, i = 1, . . . , n.
F.7. TIPOS ESPECIALES DE MATRICES 461
Cayley-Hamilton
teoremadeCayley-Hamilton
matriz!normal
La demostraci on de este teorema es por construcci on, pero consideramos
que va m as all a del objetivo de este apendice. Sin embargo, la importancia (y
utilidad) fundamental del resultado anterior es que toda matriz A puede trans-
formarse, a traves de una matriz unitaria U, a una matriz T cuyos autovalores
se encuentran sobre la diagonal. Por ello, este resultado se aplica en una serie
de algoritmos, por ejemplo, en Matlab .
Adem as, el Teorema de Schur sirve de base para una serie de otros resultados,
entre ellos el siguiente teorema:
Teorema F.2. Teorema de CayleyHamilton
Sea p
A
() el polinomio caracteristico de una matriz A /
nn
denido en
(F.52). Entonces:
p
A
(A) = 0 (F.108)
es decir, toda matriz satisface su propia ecuaci on caracteristica.
Matrices normales
Denici on F.24. Una matriz A K
nn
se dice normal, si y solo si A
H
A =
AA
H
, es decir, A conmuta con su matriz hermitiana o compleja conjugada.
Con ayuda del Teorema de Schur, puede probarse que una matriz A es
normal si y s olo si es unitaria diagonalizable, es decir, si existe una matriz
unitaria U talque U
H
AU es diagonal.
Recuerde adem as, del Lema F.12 que toda matriz hermitiana (simetrica, en
el caso de matrices reales) es normal y, por tanto unitaria diagonalizable, es
decir:
A = A
H
A = U
H
DU (F.109)
en que U
H
U = I y D es diagonal y contiene los autovalores de A.
Matrices positivas
Una clase de matrices hermitianas (real simetricas) que aparece en m ultiples
aplicaciones son aquellas que poseen (o no) la propiedad de ser positivas.
Consideremos, por ejemplo, la expansion en serie de Taylor de una funci on
en dos variables (apendice A, p.317) en torno a un punto (x
o
, y
o
):
462 AP

ENDICE F. MATRICES. DEFINICIONES Y PROPIEDADES


hessiano
matriz!positivadefinida
f(x, y)

(xo,yo)
= f(x
o
, y
o
) +f

(xo,yo)
_

_
x
y
_

_
+
1
2
_
x y
_
H(f)

(xo,yo)
_

_
x
y
_

_
+. . . (F.110)
donde x = x x
o
, y = y y
o
, f es el gradiente de f(x, y), y H(f) es el
hessiano o matriz de las segundas derivadas de la funcion f(x, y):
H(f) =
_
_

2
f
x
2

2
f
xy

2
f
yx

2
f
y
2
_
_
(F.111)
Del C alculo Diferencial, sabemos que f(x, y) tiene un mnimo y es convexa
en una vecindad del punto (x
o
, y
o
) si se cumplen dos condiciones en dicho punto:
f = 0 , es decir, el gradiente es cero, en cuyo caso se dice que (x
o
, y
o
) es
un punto crtico; y
v
T
H(f)v > 0 , es decir, el termino cuadr atico en (F.110) es positivo, para
todo vector v = [x, y]
T
Este tipo de problemas dan pie a la siguiente denicion:
Denici on F.25. Matriz positiva denida
Una matriz hermitiana A de dimension n se dice denida positiva si
v
H
Av > 0 para todo vector v C
n
, [[v[[ ,= 0.
Una matriz hermitiana A de dimension n se dice semidenida positiva
si v
H
Av 0 para todo vector v C
n
Analogamente, una matriz hermitiana A de dimension n se dice (se-
mi)denida negativa si la matriz A es (semi)denida negativa (re-
spectivamente).
Una matriz hermitiana que no cae en ninguna de las categorias anteriores
se denomina indenida.
Lema F.14. Una matriz A hermitiana es denida positiva, si y s olo si todos
sus autovalores son reales y positivos, y es positiva semidenida positiva si todos
sus autovalores son no negativos
F.7. TIPOS ESPECIALES DE MATRICES 463
matriz!diagonal dominante
matriz!ra zde
Demostraci on
Considere el Lema F.13, entonces
A =
n

i=1

i
v
i
v
H
i
(F.112)
donde los autovectores tienen largo unitario (en norma-2). Entonces al mul-
tiplicar (F.112), por la izquierda, por v
H

, y, por la derecha, por v

se tiene
que
v
H

Av

(F.113)
Por otro lado, dado que una matriz hermitiana tienen un conjunto ortonor-
mal de autovectores, entonces, todo vector v C
nn
, puede expresarse como
v =
n

j=1

j
v
j
(F.114)
para un conjunto no vaco de valores
1
,
2
, . . .
n
.
As
v
H
Av =
n

j=1

j
v
H
j
n

i=1

i
v
i
v
H
i
n

j=1

j
v
j
(F.115)
Finalmente, aplicando (F.113), se llega a
v
H
Av =
n

=1
[

[
2

(F.116)
Lo cual lleva al resultado deseado (para denida positiva) al considerar que
v
H
Av > 0 si y s olo si

> 0 para = 1, 2, . . . , n. Un razonamiento similar


permite alcanzar el resultado para positiva semidenida.
222
El lema precedente se aplica, y demuestra, mutatis mutandis, para el caso
de matrices negativa denidas y negativa semi-denidas.
Otra forma de reconocer una matriz denida positiva se basa en el concepto
de dominancia diagonal. Esto es: una matriz se dice estrictamente diagonal
dominante si cada elemento sobre la diagonal principal es mayor que la suma
de los valores absolutos de los demas elementos en la respectiva la. De esta
forma, tenemos:
Lema F.15. Si una matriz hermitiana A tiene todos sus elementos sobre la
diagonal principal positivos y es estricamente diagonal dominante, entonces es
denida positiva.
Finalmente, y de forma an aloga a la raz cuadrada de n umeros positivos, se
dene la raz cuadrada de una matriz denida positiva:
464 AP

ENDICE F. MATRICES. DEFINICIONES Y PROPIEDADES


matriz!ra z
matriz!exponencial
matriz!nilpotente
matriz!idempotente
matriz!diagonalporbloques
matriz!triangularporbloques
matriz!permutaci\on
Denici on F.26. Una matriz hermitiana A es positiva denida si y s olo si
existe una matriz no singular B, tal que A = B
H
B. Dicha matriz B se dene
como la raz cuadrada de A y se denota por B = A
1/2
. Se debe notar que
si B es raz cuadrada de A, entonces tambien lo es UB, donde U es cualquier
matriz unitaria.
Otras matrices
Denici on F.27. Dada una matriz A K
nn
, se dena la matriz exponen-
cial de A, usando la expansion en serie de Taylor usual, es decir:
e
A
= I +A+
1
2!
A
2
+. . . =

n=0
1
n!
A
n
(F.117)
Denici on F.28. Una matriz A K
nn
se dice nilpotente, si y s olo si existe
un entero positivo, q, tal que:
A
q
= 0 (F.118)
Denici on F.29. Una matriz A K
nn
se dice idempotente, si y s olo si :
A
2
= A (F.119)
Denici on F.30. Una matriz A K
nn
se dice diagonal por bloques, si y
solo si sus unicos elementos distintos de cero pueden ser agrupados en subma-
trices A
i
K
nini
sobre su diagonal, es decir:
A =
_

_
A
1
0 . . . 0
0 A
2
. . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . A
k
_

_
(F.120)
en que

k
i=1
n
i
= n
De manera an aloga puede extenderse el concepto de matriz triangular (tanto
superior como inferior), a matrices triangulares por bloques.
Denici on F.31. Una matriz P K
nn
se denomina matriz de permutaci on
si uno y s olo uno de los elementos sobre cada la y columna es igual a 1, y el
resto son 0.
Ejemplo F.3. Considere la matriz de permutaci on:
P =
_
_
0 1 0
1 0 0
0 0 1
_
_
(F.121)
La denominaci on resulta natural pues multiplicar cualquier vector por esta ma-
triz equivale a permutar sus elementos, por ejemplo:
F.7. TIPOS ESPECIALES DE MATRICES 465
matriz!circulante
matriz!Toeplitz
P
_
_
1
2
3
_
_
=
_
_
2
1
3
_
_
(F.122)
Denici on F.32. Una matriz A K
nn
se denomina matriz circulante si
cada una de sus las resulta de la rotaci on de la primera, es decir:
_

_
a
1
a
2
. . . a
n
a
n
a
1
. . . a
n1
.
.
.
.
.
.
.
.
.
.
.
.
a
2
a
3
. . . a
1
_

_
(F.123)
Note que una matriz circulante puede ser escrita en terminos de la matriz
de permutaci on circular:
C =
_

_
0 1 0 . . . 0
0 0 1 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 . . . 1
1 0 . . . 0
_

_
A =
n1

k=0
a
k+1
C
k
(F.124)
En que C
0
= C
n
= I y a
1
, . . . , a
k
son los elementos de la primera la de
la matriz A.
Denici on F.33. Una matriz A K
nn
se denomina matriz Toeplitz si
todos los elementos sobre cada diagonal son iguales, es decir:
A =
_

_
a
0
a
1
a
2
. . . a
n
a
1
a
0
a
1
. . . a
n1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
n+1
. . . . . . a
0
a
1
a
n
a
n+1
. . . a
1
a
0
_

_
(F.125)
Note que una matriz Toeplitz puede ser escrita en terminos de las matrices
un paso adelante F y un paso atr as B:
F =
_

_
0 1 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0
.
.
. 1
0 0 . . . 0
_

_
y B = F
T
=
_

_
0 . . . 0 0
1
.
.
. 0
.
.
.
.
.
.
.
.
.
.
.
.
0 . . . 1 0
_

_
(F.126)
entonces:
A =
n

k=1
a
k
F
k
+
n

k=1
a
k
B
k
(F.127)
466 AP

ENDICE F. MATRICES. DEFINICIONES Y PROPIEDADES


matriz!Vandermonde
valoressingulares
Denici on F.34. Una matriz A K
nn
se denomina matriz de Vander-
monde si es de la forma:
A =
_

_
1 x
1
x
2
1
. . . x
n1
1
1 x
2
x
2
2
. . . x
n1
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 x
n
x
2
n
. . . x
n1
n
_

_
(F.128)
Puede probarse que el determinante de una matriz de Vandermonde es:
det A =
n

i,j=1
i>j
(x
i
x
j
) (F.129)
Este tipo de matrices aparece, por ejemplo, en el c alculo de la transformada
discreta de Fourier y en problemas de interpolacion donde se buscan los coe-
cientes de un polinomio p(x) = a
0
+ a
1
x + . . . + a
n1
x
n1
= y, a partir de n
pares de datos (x
1
, y
1
), . . . , (x
n
, y
n
):
p(x
1
) = a
0
+a
1
x
1
+. . . +a
n1
x
n1
1
= y
1
(F.130)
p(x
2
) = a
0
+a
1
x
2
+. . . +a
n1
x
n1
2
= y
2
(F.131)
.
.
. (F.132)
p(x
n
) = a
0
+a
1
x
n
+. . . +a
n1
x
n1
n
= y
n
(F.133)
F.8. Valores singulares
Hemos visto a lo largo de este apendice que existen diferentes formas de car-
acterizar una matriz expres andola o relacion andola con otra equivalente bajo
alg un criterio. Entre estos se ha denido la igualdad de matrices, la diagonal-
izacion (o similaridad), la congruencia y la equivalencia unitaria (teorema de
Schur). Sin embargo, un importante desarrollo del analisis matricial de amplia
aplicacion en diferentes areas de la Ingeniera (y otras disciplinas) es la descom-
posici on en valores singulares, que representa una extensi on de la diagonalizacion
mediante autovalores, pero que permite incluir el caso de matrices singulares y
matrices no cuadradas.
Teorema F.3. Descomposici on en valores singulares
Dada una matriz A K
nm
de rango k q = mnn, m, entonces esta puede
expresarse como:
A = VW
H
(F.134)
en que:
F.8. VALORES SINGULARES 467
las matrices V K
nn
y W K
nn
son unitarias, es decir, V
H
V = I
n
y W
H
W = I
m
;
los elementos de la matriz =
ij
K
nm
son:

ij
= 0 i ,= j (F.135)

11

22
. . .
kk
>
k+1,k+1
= . . . =
qq
= 0 (F.136)
los elementos
ii
=
i
=

i
, en
i
son los autovalores de A
H
A,
que quedan por tanto unicamente determinados;
las columnas de V son autovectores de AA
H
, y las columnas de W son
autovectores de A
H
A (ordenados seg un los autovalores
i
=
2
i
);
Si n m y AA
H
no tiene autovalores repetidos, entonces diferentes ma- Chequear si es necesario que
sean diferentes trices V en la representaci on (F.134) quedan relacionados por una matriz
diagonal D = diage
j1
, . . . , e
jn
con
i
R. Esto es:
A = V
1
W
H
1
= V
2
W
H
2
V
2
= V
1
D (F.137)
si n < m, entonces la elecci on de W no es unica;
si n = m = k (A, cuadrada y de rango completo), entonces dada V,
entonces la matriz W queda unicamente determinada;
si n m, la unicidad de V y W queda determinada considerando A
H
; y
si A es real, entonces V, y W pueden escogerse todas reales.
Los elementos
i
sobre la diagonal de la matriz se denominan valores
singulares de la matriz A.
La descomposici on en valores singulares (F.134) para una matriz Aarbitraria
no siempre es directa de obtener. Sin embargo, en el caso particular de una
matriz no singular (justamente el caso n = m = k en el teorema anterior) la
descomposici on puede obtenerse directamente siguiendo los siguientes pasos:
1. Se forma la matriz hermitiana AA
H
y se calcula su diagonalizaci on uni-
taria AA
H
= UU
H
, a traves del calculo de sus autovalores
i
(que
son positivos) y su correspondientes autovectores normalizados u
i
.
2. De esta forma se elige =
1/2
y V = U = [u
1
. . . u
n
].
3. Finalmente, W = A
H
V
1
Para el caso de una matriz cuadrada singular A, se puede aplicar el mismo
procedimiento a la matriz A

= A + I
n
, con tal que A

es no singular, y
luego obtener el lmite cuando 0.
Algunas aplicaciones de los valores singulares son:
468 AP

ENDICE F. MATRICES. DEFINICIONES Y PROPIEDADES


Permite denir normas de matrices: La norma espectral de una matriz
A, denida en (F.103), no es mas que el mayor valor singular, es decir,

1
.
Adem as, el lector puede vericar que la norma Fr obenius denida en (F.98)
satisface la identidad:
|A|
2
=
_
q

i=1

2
i
_
1/2
(F.138)
Entrega el numero de condicionamiento, con respecto a la norma espectral,
como (A) = |A| |A
1
| =
1
/
n
1, que a menudo se utiliza como la
medida est andar para la dicultad involucrada en invertir la matriz A.
Dada una matriz A = VW
H
, podemos denir la inversa generalizada
(Moore-Penrose) de A, como A

= W

V
H
, en que

es la traspuesta
de en que los valores singulares de A se reemplazan por sus recprocos.
El lector puede vericar que:
1. AA

y A

A son hermitianas,
2. AA

A = A, y
3. A

AA

= A

.
La inversa generalizada coincide naturalmente con la inversa usual en el
caso de matrices no singulares.
Adem as, una de la aplicaciones de A

es en el metodo de mnimos cuadra-


dos (ver cap modelos), en que para resolver el sistema Ax = b se busca el
vector x tal que |Ax b|
2
resulta minima. El lector puede vericar que
x = A

b resuelve este problema.


Bibliografa
[1] B.D.O. Anderson and John Moore. Linear Optimal Control. Prentice Hall,
Englewood Clis, N.J., 1971.
[2] B.D.O. Anderson and John Moore. Optimal ltering. Prentice Hall, En-
glewood Clis, N.J., 1979.
[3] K.J.

Astr om and B. Wittenmark. Computer controlled systems. Theory
and design. Prentice Hall, Englewood Clis, N.J., second edition, 1990.
[4] H.W. Bode. Network analysis and feedback amplier design. Van Nostrand,
New York, 1945.
[5] R.C. Dorf and R. Bishop. Modern Control Systems. Prentice Hall, Engle-
wood Clis, New Jersey, 9
th
edition, 1997.
[6] G.F. Franklin and J.D. Powel. Digital Control of Dynamics Systems.
Addison-Wesley, second edition, 1990.
[7] G.F. Franklin, J.D. Powell, and A. Emami-Nagiri. Feedback Control of
Dynamics Systems. Addison-Wesley Pub. Co., Reading, Mass., 1991.
[8] G.C. Goodwin, S. Graebe, and M.E. Salgado. Control System Design.
Prentice Hall, New Jersey, 2001.
[9] Hwei P. Hsu. An alisis de Fourier. Fondo Educativo Interamericano S.A.,
1973.
[10] E. Jury. Sample Data Control Systems. John Wiley and Sons, 1958.
[11] J.W. Kitchen. Calculus of one variable. Addison Wesley, 1968.
[12] D.L. Kreider, R.G. Kuller, D.R. Ostberg, and F.W. Perkins. Introducci on
al an alisis lineal. Fondo Educativo Interamericano S.A., 1971.
[13] H. Kwakernaak and R. Sivan. Linear Optimal Control Systems. Wiley
Interscience, New York, 1972.
[14] R.H. Middleton and G.C. Goodwin. Digital Control and Estimation. A
Unied Approach. Prentice Hall, Englewood Clis, New Jersey, 1990.
469
470 BIBLIOGRAF

IA
[15] K. Ogata. State Space Analisys of Control Systems. Prentice-Hall, Inc.,
Englewood Clis, New Jersey, 1967.
[16] A.V. Oppenheim and R.W. Schafer. Discrete - Time Signal Processing.
Prentice-Hall International, Inc., 2nd edition, 1999.
[17] Churchill R. and Brown J. Complex Variable and Applications. McGraw
Hill Book Company, 1984.
[18] H.H. Rosenbrock. State Space and Multivariable Theory. John Wiley and
Sons, New York, 1970.
[19] D.G. Schultz and J.L. Melsa. State Function and Linear Control Systems.
McGraw Hill Book Company, New York, 1967.
[20] D.W. Wiberg. Theory and Problems of State Space and Linear Systems.
McGraw Hill Book Company, New York, 1971.
[21] Lot A. Zadeh and Charles A. Desoer. Linear System Theory: the state
space approach. McGraw Hill Book Company, New York, 1963.
[22] K. Zhou. Essentials of Robust Control. Prentice Hall, Englewood Clis,
New Jersey, 1998.
[23] K. Zhou, G. Salomon, and E. Wu. Balanced realization and model reduc-
tion for unstable systems. International Journal of Robust and Nonlinear
Control, 9:183198, 1999.
Index
angulo
de desfase, 88, 104
angulo entre vectores, 341
angulo
de desfase, 94
de disparo, 96
Zeta
transformada, 191
ADC, vease conversor
adjunta de una matriz, 440
alcanzabilidad, 290
test, 291
amplicador, 247
amplitud, 88, 104
ancho de banda, 124
aperi odicas
se nales, 117
arm onicas, 94, 107
asntotas, 224
autovalores, 40, 270, 444, 444
autovectores, 444
generalizados, 447, 448
bilineal
transformaci on, 207
bloques, 246
Bode, 219, 220
aproximaci on asint otica, 227
aproximaciones, 221
asntotas, 222
diagramas de, 220
frecuencias de quiebre, 227
crculo unitario, 71, 239
cancelaci on, 271, 287, 294, 298, 303,
307
cuasi-, 181, 215, 297, 305
cascada, vease conexi on
causalidad, 62
Cayley-Hamilton, 457
ceros, 158, 180, 214
fase no mnima, 177, 211
lentos, 182
r apidos, 182
circulo unitario, 244
circunferencia unitaria, 205
cofactor, 435
desarrollo, 435
condiciones iniciales, 1, 62, 157, 192
conexi on
paralelo, 288
realimentaci on, 289
serie(cascada), 288
congruencia, 446
constante de tiempo, 25
constantes indeterminadas, 40, 67
contrarespuesta, 182, 215
control, 290
controlabilidad, 180, 214, 290
forma can onica, 298
gramiano, 294
tiempo discreto, 295
matriz, 291
perdida, 292
test, 291
controlador, 289
forma can onica, 298
conversor
an alogo-digital(ADC), 273
digital-an alogo(DAC), 273
471
472 INDEX
convoluci on, 53, 79
cuadrante, 234
DAC, vease conversor
decada, 220
decibel, 220
delta de Dirac, 21, 120
en frecuencia, 160
en frecuencia, 198
delta de Kronecker, 27
descomposici on can onica, 307
alcanzabilidad, 297
observabilidad, 306
desfase, 94
desigualdad
CauchySchwarz, 454
triangular, 207
desigualdad triangular, 341
Desplazamiento en el tiempo, 358
Desplazamiento en frecuencia, 358
detectabilidad, 306
determinante, 434
diagrama polar, 233
tiempo discreto, 244
diagramas
de Bode, 220
diagramas de bloques, 246
Dirac, 21
disco unitario, 71
discontinuidad, 241
discretizaci on, 63, 273
distancia, 341
dualidad, 305
ecuaci on caracterstica, 40, 66, 262,
279
ecuaci on de recursi on, 61
ecuaci on diferencial
del sistema, 156
ecuaci on diferencial del sistema, 35
EDS, 156
ejes logartmicos, 220
elimina banda, 135, 149
energa, 143
entrada, 1, 158
equilibrio estable, 38, 64
equilibrio inestable, 266
error, 98
estimaci on, 310
modelo, 311
errores en las variables, 323, 330
escal on
respuesta a, 161, 200
escal on unitario, 21, 27
espacio
de estado, 253
vectorial, 437
espectro, 134, 232, 445
continuo, 122
de lnea, 94
en frecuencia, 94
espectro de lnea, 109
espiral, 240
estabilidad, 43, 71, 171, 205, 262,
279, 280
estabilizabilidad, 298
estado, 253
alcanzable, 290
controlable, 290
del sistema, 254
espacio de, 254
observable, 299
transformaci on, 256, 267, 286
trayectoria, 254
variables de, 254
vector de, 254
estado inicial, 3
estimaci on, 309
error, 310
Euler, 26, 31
exponencial, 24, 29
creciente, 24, 30
de una matriz, 261, 276
exponencial imaginaria, 26
factor de amortiguamiento, 183
factores can onicos, 220
fase, 88, 104
fase mnima, 177, 211
feedback
seerealimentaci on, 289
ltraje, 133
INDEX 473
ltro, 314
forma can onica
controlable, 298
del controlador, 298
observable, 307
Fourier, 87, 117
Fr obenius, 454
fracciones parciales, 128, 146, 156,
178, 193, 412
frecuencia, 88, 104
angular, 88, 104
de corte, 135, 149
fundamental, 107
frecuencia fundamental, 94
frecuencia natural
amortiguada , 184
dominante, 44, 72
no amortiguada, 183
frecuencias de corte, 136
frecuencias naturales, 40, 68
funci on muestreo, 23
funci on
generalizada, 120
racional, 157, 159
funci on de transferencia, 125, 145,
156, 157, 192, 270, 286
estable, 177
tiempo discreto, 196
bipropia, 158, 197
ceros, 158, 197
con retardo, 159
estable, 211
estrictamente propia, 158, 197,
272
grado relativo, 158, 177, 197
impropia, 158
multiplicidad, 158
polos, 158, 197
propia, 158, 197
ganancia, 42, 69
a continua, 42, 69
a modo forzante, 42, 68, 88, 110,
129, 145, 205
gradiente, 324, 331
grado relativo, 158, 197, 203
gramiano
controlabilidad, 294
tiempo discreto, 295
observabilidad, 303
Heaviside, 21, 36
operador, 36
hessiano, 458
homogeneidad, 5
Hurwitz
polinomio, 173, 310
impulso
respuesta a, 158
respuesta a, 161, 200
impulso unitario, 21, 27
independencia lineal, 93
integrador, 7
interconexi on, 246
inversa de una matriz, 439
inversa generalizada, 439
inversion matricial, 442
Jordan
forma de, 448
Jury, 208
algoritmo, 208
lmite de estabilidad, 172, 205
Laplace, 155
lazo de control, 289
linealizaci on, 9, 258, 274
Lyapunov
ecuaci on, 295, 304
matrices, 431
similares, 446
suma, 437
matriz
de Fourier, 109
adjunta, 286, 440
autovalores, 444
circulante, 461
cofactor, 435
cuadrada, 432
de controlabilidad, 291
de observabilidad, 300
474 INDEX
de transformaci on, 268
de transici on, 261
discreta, 277
denici on, 431
determinante, 434
diagonal, 434
diagonal dominante, 459
diagonal por bloques, 460
elementos, 431
exponencial, 460
forma de Jordan, 448
hermitiana, 433
idempotente, 460
identidad, 434
inversa, 439
inversa generalizada, 439
menor, 435
nilpotente, 460
no singular, 436, 439
norma Fr obenius, 454
norma inducida, 455
norma spectral, 455
norma-2, 454
norma-, 454
norma-p, 455
normal, 457
particionada, 440, 442
permutaci on, 460
positiva denida, 458
producto, 438
raz, 460
raz de, 459
rango, 436
simetrica, 433
singular, 436
Toeplitz, 461
traspuesta, 433
traza, 433
triangular inferior, 434
triangular por bloques, 460
triangular superior, 434
unitaria, 456
Vandermonde, 462
matriz, condici on, 455
menor, 435
modelo, 4
en espacio de estado, 253
error, 311
linealizado, 9
peque na se nal, 14
validaci on, 319
modelos, 319
modo forzado, 42, 68, 265
modo forzante, 40, 68, 205
ganancia a, 42, 68
modo natural
dominante, 44, 72, 266
modos
naturales, 161
modos naturales, 40, 68, 89, 104, 212
muestra, 318
muestreo, 201, 254, 273, 274, 317,
318, 318
perodo de, 275, 282
multiplicidad, 158
polos, 172
autovalores, 447
polos, 197, 205
n umero de condicionamiento, 455
norma, 341
inducida, 455
spectral, 455
norma espectral, 455
norma inducida, 341
norma-1, 454
norma-2, 454
norma-, 454
norma-p, 455
Nyquist, 219
observabilidad, 180, 214, 299
forma can onica, 307
gramiano, 303
matriz, 300
perdida, 301
test, 300
observador, 309
de orden completo, 316
de orden reducido, 316
polinomio, 310
octava, 220
INDEX 475
operador, 3
operador adelanto, 62
ortogonalidad, 93
paralelo
conexi on, 288
Parseval, 102, 123, 143
pasa altos, 134, 149
pasa bajos, 134, 149
pasa banda, 135, 149
PEM, 323, 330
perodo, 88, 104
de muestreo, 275, 282
innito, 117
plano de fase, 264
planta, 289
PLC, 273
polar
diagrama, 233
polinomio caracterstico, 66, 445
polinomio caractrerstico, 197
polos, 158, 178, 211, 270, 412
dominantes, 180, 213
lentos, 180, 213
observador, 311
r apidos, 180, 213
predicci on
error de, 321, 323, 329, 331
producto
matrices, 438
promedio m ovil, 62
Propiedades transformada de Fouri-
er, 384
Propiedades transformada de Fouri-
er discreta., 386
Propiedades transformada de Laplace,
409
Propiedades transformada Zeta, 428
punto de equilibrio, 11, 13, 258, 266
punto de operaci on, 9, 14
quantum, 317
radio de convergencia, 419
radio espectral, 445
rampa unitaria, 23, 28
rango, 436
columna, 436
rango completo, 436
realimentaci on, 289
realizaci on mnima, 272, 287, 309
reconstrucci on, 318
reconstructibilidad, 299
regresi on
vector de, 322, 329
regresores, 322, 329
resonancia, 92, 106, 225, 266, 281
respuesta
a [t], 78
a (t), 50
a [t], 76
a escal on, 50, 76
a impulso, 52, 78, 158, 200
a escal on, 161, 200, 281
a impulso, 161
estacionaria, 204
forzada, 280
inversa, 182, 215
no forzada, 278
respuesta a (t), 52
respuesta en frecuencia, 89, 90, 104,
110, 124, 134, 145, 171, 199,
219
respuesta estacionaria, 49, 75
respuesta homogenea, 39, 65, 262
respuesta particular, 39, 67
respuesta transitoria, 49, 75
respuestas, 2
retardo, 159, 204, 227, 258, 284
diagrama de Bode, 227
diagrama polar, 239
retentor, 274
Routh, 207
algoritmo, 175
ruido, 314
salida, 158
sampling, vease muestreo
se nal
de tiempo continuo, 155
de tiempo continuo, 257
de tiempo discreto, 257
476 INDEX
modelo de estado, 256
no acotada, 155
se nal causal, 53, 80
se nal incremental, 14
se nales, 2, 21
de prueba, 21
de tiempo discreto, 27
serie
conexi on, 288
Serie de Fourier, 93
serie de Fourier, 87, 88, 118
cosenoidal, 98
senoidal, 95
exponencial, 101
serie de Taylor, 335
similaridad, 256, 267, 286, 292
transformaci on de, 446
singular, 436
sinuosoide
aperi odica, 30
sinusoidal, 88, 103
sinusoide, 25
amortiguada, 26
amplitud, 26
desfase, 26
discreta, 30
amortiguada, 31
f ormula de Euler, 26
frecuencia, 26
frecuencia angular, 26
perodo, 26
sistema, 1
estable, 89, 104, 134, 137, 158
inestable, 38, 64
no lineal, 87
alcanzable, 290
algebraico, 4, 6
controlable, 290
detectable, 306
din amico, 2, 155, 254
discreto, 273
dual, 306
estabilizable, 298
estable, 150, 155
hbrido, 254
inestable, 155
interconexi on, 246, 287
lineal, 110
muestreado, 273, 274
observable, 299
propiedades, 290
tiempo continuo, 257
sistemas
digitales, 317
hbridos, 318
sistemas discretos
estabilidad, 206
sistemas lineales, 5
soluci on homogenea, 39, 65
soluci on particular, 39, 67, 265
SPI, 172
subespacio
controlable, 297
observable, 306
superposici on, 5
Tabla de transformadas de Fourier,
385
Tabla de transformadas de Fourier
discretas, 387
Tabla transformada Zeta, 428
Tabla transformadas de Laplace, 409
Tabla transformadas de Laplace in-
versas, 409
Taylor, 335
teorema de Cayley-Hamilton, 457
teorema de Schur, 456
transformaci on del estado, 256, 267,
286
Transformada de Fourier, 120
transformada de Fourier, 55, 82, 117,
117, 120, 219, 355
discreta, 140
discreta inversa, 140
inversa, 120
discreta, 199
transformada de Fourier discreta, 370
transformada de Fourier discreta in-
versa, 370
transformada de Fourier inversa, 355
Transformada de Laplace
regi on de convergencia, 395
INDEX 477
transformada de Laplace, 55, 155,
219
denici on, 156
inversa, 156
regi on de convergencia, 156
transformada r apida de Fourier, 389
transformada Zeta, 82, 191, 219
inversa, 191
traza, 433
undershoot, 182, 215
valor nal, 162, 200
valor inicial, 168
valores caractersticos, 40, 444
valores propios, 40, 444
valores singulares, 462
variables
de estado, 253, 254
vector
columna, 433
de estado, 254
la, 433
vectores caractersticos, 444
velocidad, 44, 72, 262, 279
ZOH, vease retentor

También podría gustarte