Está en la página 1de 395

ANALISIS DE SISTEMAS

LINEALES
Ricardo A. Rojas
Mario E. Salgado
Juan I. Yuz1

EDITORIAL. SU
ESTE ES UN BORRADOR SUJETO A NEGOCIACION

REPRODUCCION SOLO PUEDE SER AUTORIZADA POR LOS TRES


AUTORES

Valparaso, Marzo 2002


1 Departamento

de Electr
onica
Universidad T
ecnica Federico Santa Mara
Valparaso, CHILE

CONTENIDO

PREFACIO

xiii

1 ASPECTOS FUNDAMENTALES
1.1 Sistemas
1.2 Modelos
1.3 Sistemas lineales
1.4 Invarianza en el tiempo
1.5 Linealizacion
1.6 Problemas para el lector

1
1
4
5
8
8
17

2 SENALES
DE TIEMPO CONTINUO Y TIEMPO DISCRETO
2.1 Introduccion
2.2 Se
nales de tiempo continuo
2.3 Se
nales de tiempo discreto
2.4 Problemas para el lector

20
20
20
25
30

3 ANALISIS
EN EL DOMINIO DEL TIEMPO CONTINUO
3.1 Introduccion
3.2 Ecuacion diferencial del sistema (EDS)
3.3 La respuesta del sistema
3.4 Respuesta a se
nales de prueba
3.5 Calculo de la respuesta via convolucion
3.6 Problemas para el lector

32
32
32
35
46
49
53

4 ANALISIS
EN EL DOMINIO DEL TIEMPO DISCRETO
4.1 Introduccion
4.2 Ecuacion de recursion del sistema (ERS)

56
56
56
ix

x
4.3
4.4
4.5
4.6

La respuesta del sistema


Respuesta a se
nales de prueba
Calculo de la respuesta via convolucion
Problemas para el lector

59
71
75
79

5 ANALISIS
DE SISTEMAS LINEALES BAJO EXCITACIONES

PERIODICAS
82
5.1 Se
nales Periodicas
82
5.2 Respuesta a entradas sinusoidales. El caso de tiempo continuo
83
5.3 Series de Fourier para se
nales de tiempo continuo
87
5.4 Respuesta a entradas sinusoidales. El caso de tiempo discreto
98
5.5 Serie de Fourier de tiempo discreto
101
5.6 Aplicacion de las Series de Fourier al analisis de sistemas lineales
106
5.7 Problemas para el lector
108
6 SISTEMAS LINEALES SUJETOS A EXCITACIONES ARBITRARIAS.

ANALISIS
VA FOURIER
113
6.1 La limitacion de las series de Fourier
113
6.2 La Transformacion de Fourier. El caso del tiempo continuo
113
6.3 La Transformacion de Fourier. El caso del tiempo discreto
135
6.4 Problemas para el lector
148
7 SISTEMAS LINEALES SUJETOS A EXCITACIONES ARBITRARIAS.

ANALISIS
VA LAPLACE
151
7.1 Definicion de la Transformada
151
7.2 Aplicacion a sistemas lineales: la funcion de transferencia
152
7.3 Respuesta a impulso y respuesta a escalon.
156
7.4 Respuesta a condiciones iniciales y se
nales arbitrarias.
160
7.5 Estabilidad de las Funciones de Transferencia
167
7.6 Polos, ceros y la respuesta temporal
171

8 ANALISIS
DE SISTEMAS EN TIEMPO DISCRETO MEDIANTE
ZETA
TRANSFORMACION
185
8.1 Definicion de la Transformada
185
8.2 Aplicacion a sistemas lineales: la funcion de transferencia
186
8.3 Respuesta a impulso y respuesta a escalon.
193
8.4 Respuesta a condiciones iniciales y excitaciones arbitrarias.
195
8.5 Estabilidad de las Funciones de Transferencia
197
8.6 Polos, ceros y la respuesta temporal
198

xi

9 REPRESENTACION
DE SISTEMAS EN VARIABLES DE ESTADO.
204
9.1 Conceptos fundamentales sobre modelos de sistemas.
204
9.2 Conceptos fundamentales en variables de estado
205
9.3 Modelos de estado para sistemas continuos
209
9.4 Modelos de estado para sistemas discretos y muestreados
224
9.5 Modelos de estado para sistema interconectados
238
9.6 Propiedades de los sistemas
241
9.7 Observadores
259
10 MODELOS
10.1 Ideas generales
10.2 Modelado de sistemas
10.3 Modelado de sistemas
10.4 Modelado de sistemas
10.5 Modelado de sistemas

de
de
de
de

tiempo
tiempo
tiempo
tiempo

continuo. Teora basica.


continuo. Modelos lineales.
discreto. Teora basica.
discreto. Modelos lineales.

266
266
267
273
275
280

A SERIES DE TAYLOR
A.1 Serie de Taylor en una variable
A.2 Serie de Taylor en dos variables
A.3 El caso general
A.4 Algunas reglas practicas para la expansion en serie

281
281
282
283
283

B BASES MATEMATICAS
PARA LAS SERIES DE FOURIER
B.1 Espacios vectoriales y bases ortogonales
B.2 Convergencia de las Series de Fourier

285
285
289

DE FOURIER
C LA TRANSFORMACION
C.1 Transformacion de Fourier en tiempo continuo
C.2 Transformada de Fourier en tiempo discreto

301
301
318

D LA TRANSFORMADA DE LAPLACE
D.1 Transformada de Laplace

341
341

ZETA
E LA TRANSFORMACION
E.1 Definicion de la Transformacion
E.2 Propiedades de la Transformada Zeta

364
364
366

F MATRICES. DEFINICIONES Y PROPIEDADES

376

xii
F.1 Conceptos Basicos

376

BIBLIOGRAPHY

382

INDICE DE NOMBRES

383

INDICE DE MATERIAS

384

PREFACIO

La teora de los sistemas lineales tuvo un rapido crecimiento y sostenida consolidacion desde mediados del siglo veinte. Este desarrollo fue sustentado por el trabajo
pionero de Bode, Routh, Nyquist, Kalman y muchos otros investigadores.
Ellos
construyeron, a su vez, sobre la teora matematica existente de los siglos pasados
en areas tan diversas como, por ejemplo, el calculo diferencial e integral de Newton,
las ecuaciones diferenciales y la teora de funciones de variables complejas.
El advenimiento y expansion de la tecnologa digital ampliaron el campo de
los sistemas lineales hacia los sistemas que operan en tiempo discreto. Nuevas
herramientas matematicas debieron entonces incorporarse al estudio de los sistemas
lineales.
La teora de los sistemas lineales tiene un interes en si misma como objeto
de estudio matematico. Sin embargo, en este libro, orientado al estudiante de
ingeniera, el enfoque es distinto: se trata de estudiar esta teora como un sosten para
el analisis, la sntesis y el dise
no de sistemas de procesamiento de se
nales, de sistemas
de control automatico, sistemas economicos, etc. El proposito es que el lector,
sin abandonar ni menospreciar el rigor requerido por esta teora, la conciba como
una herramienta para entender y resolver problemas del mundo fenomenologico, la
ingeniera y la tecnologa. Nos parece que esto es necesario para evitar la confusion,
frecuente en los estudiantes de ingeniera, que lleva a subvertir los roles del problema
y la herramienta, al centrar su atencion en la plataforma matematica mas que en la
interpretacion que puede y debe darse a los resultados de la teora de los sistemas
lineales.
Pensamos tambien que este enfasis en los conceptos mas que en la utilera
matematica debe reflejarse en el esfuerzo que se pide a los estudiantes que estudien el tema. Para facilitar este proposito, nos parece fundamental el hacer uso
extensivo de los paquetes de software para simulacion, como por ejemplo, MATLABSIMULINK y SIMNON. Tambien encontramos de especial utilidad el uso de software de matematica simbolica, como MAPLE y MATHEMATICA. El libro supone
que los estudiantes tienen acceso a este tipo de herramientas. Tambien suponemos
que nuestros lectores tiene una formacion matematica que incluye el estudio de la
Transformada de Laplace y de las ecuaciones diferenciales, lineales y ordinarias.
xiii

xiv

Prefacio

Las dificultades en ense


nar una vision conceptual de los sistemas lineales se reflejan en la diversidad de formas y estructuras de los programas de las asignaturas
relacionadas, en distintas instituciones en Chile y en el extranjero. En la mayora de
los casos se separa completamente, incluso en asignaturas distintas, el tratamiento
de los sistemas lineales de tiempo continuo y el tratamiento de los sistemas lineales
de tiempo discreto. Aunque esto tiene ciertas ventajas, se desprovecha la oportunidad de dar una vision unificada de conceptos tales como estabilidad, velocidad,
transientes, estado, etc. En todo caso el libro esta organizado para que el profesor pueda optar entre un enfoque simultaneo continuo-discreto y un tratamiento
separado de ambos tipos de sistemas.
Otro aspecto de especial relevancia es el hecho que el interes de la Ingeniera en
los sistemas lineales esta ligado a la posibilidad de emplearlos como modelos suficientemente precisos para describir sistemas reales. El estudiante debe ser advertido
al inicio del curso sobre el problema subyacente de fidelidad de la representacion
final, y el tema debe ser reiterado a lo largo del mismo. Tambien es necesario enfatizar que los sistemas reales no son lineales y que el costo, en precision, de modelarlos
como sistemas lineales es usualmente compensado por el traslado del problema a
un campo muy bien dotado de herramientas matematicas. Por otro lado, es conveniente enfatizar que existen sistemas reales, como los de conmutacion, que no
pueden ser modelados como sistemas lineales.
Las consideraciones anteriores han sido los elementos orientadores para este
libro. La calidad del resultado de este esfuerzo sera juzgada por los lectores.

Ricardo A. Rojas
Mario E. Salgado
Juan I. Yuz

Valparaso, Agosto de 2000

Captulo 1

ASPECTOS
FUNDAMENTALES

1.1

Sistemas

La entidad basica considerada en nuestros estudios es el sistema. Como una forma


de uniformar el lenguaje a utilizar, usaremos la siguiente definicion:
Definici
on 1.1. Un sistema es un ente organizado, resultante de la interconexi
on
de elementos b
asicos, que seg
un el juicio de un observador tiene una finalidad y
car
acter determinado.
222
Esta definicion es vaga a proposito, de modo que ella permita describir situaciones tan dismiles como sea posible. Es as como la definicion de arriba incluye
casos como los de una red electrica, un motor hidraulico, un organismo vivo, la
economa de un pas, etc. Tambien es relevante destacar que un mismo sistema
fsico puede tener interes diferente para distintos observadores; por ejemplo, un
amplificador electronico puede ser estudiado como un sistema electrico o como un
sistema termico.
Nuestra tarea guarda relacion con el comportamiento de los sistemas, y este
comportamiento no solo depende de los elementos y de su interconexion, sino que
tambien de:
los estmulos, entradas o excitaciones aplicados al sistema;
la historia del sistema, condensada en un conjunto de condiciones iniciales;
la variable independiente tiempo (cuando los elementos del sistema y/o la
interconexion de ellos cambian a medida que el tiempo transcurre).
Las entradas al sistema son se
nales o funciones temporales a traves de las cuales
el sistema recibe informacion y/o energa. Estos estmulos contribuyen a generar
cambios en algunas o en todas las variables del proceso; estas u
ltimas tambien son
se
nales puesto que pueden ser descritas como funciones del tiempo. Las se
nales
1

Aspectos fundamentales

Captulo 1

del proceso elegidas para observar el comportamiento del sistemas se conocen como
respuestas.
Las respuestas de un sistema pueden depender tambien de la informacion y/o
energa existentes (almacenadas) en el sistema en el instante en que el comportamiento del sistema empieza a ser observado. Los sistemas con esta caracterstica
inercial se denominan genericamente sistemas din
amicos. Ejemplos de mecanismos inerciales en sistemas son:
la velocidad inicial de un motor
el valor inicial de una variable en un computador
la temperatura inicial de una masa
la tension inicial en un condensador.
Supongamos que deseamos conocer las respuestas en un sistema dado, a partir
de un instante inicial to . Entonces sera suficiente conocer ciertas variables (estado)
del sistema en t = t0 , y las excitaciones t to .
Para ilustrar estas ideas analizaremos el siguiente ejemplo.
Ejemplo 1.1. Consideremos la red electrica de la Figura 1.1.
R
+
vf (t)

vc (t)

i(t)
Figura 1.1. Sistema electrico
Esta red es un sistema electrico formado por la interconexi
on de un resistor y
un condensador (los elementos). Hay una entrada al sistema determinada por la
tensi
on aplicada a traves de la fuente independiente de tensi
on. Como salida se
puede elegir cualquier se
nal electrica, como por ejemplo, la potencia disipada en el
resistor, la corriente en el circuito, la tensi
on en el condensador, etc.
En la Figura 1.1 se han indicado dos se
nales, i(t) y vc (t), que han sido elegidas
como respuestas del sistema. Para determinar el valor de estas se
nales t 0,
necesitamos conocer vf (t) t to y vc (0).
222
Para representar un sistema en forma compacta usaremos el diagrama de la
Figura 1.2. En esa figura se ha usado la siguiente notacion:

Section 1.1.

Sistemas

u(t)

y(t)

S
x(to )
Figura 1.2. Representacion compacta de un sistema

u(t) Rm : vector que re


une todas las excitaciones del sistema
x(to ) Rn : vector que describe el estado del sistema al tiempo to
y(t) Rp
: vector que re
une las se
nales escogidas como salidas
Para representar genericamente al sistema usaremos la notacion
y(t) = Thhx(to ), u(t)ii

t to

(1.1.1)

En (1.1.1), Thh, ii es una construccion1 que describe formalmente la dependencia


que la salida y(t) tiene del estado inicial, x(to ), y de la entrada u(t). Este
operador puede ser variante en el tiempo.
Ejemplo 1.2. En el Ejemplo 1.1 se tiene que

vf (t) = RC

dvc (t)
+ vc (t)
dt

(1.1.2)

cuya soluci
on es
vc (t) = vc (to )e

tto
RC

+
to

e RC
vf ()d
RC

(1.1.3)

Entonces, si hacemos la asociaci


on y(t) = vc (t), u(t) = vf (t) y x(to ) = vc (to ),
la ecuaci
on (1.1.3) puede ser identificada con (1.1.1), es decir,
vc (t) = Thhvc (to ), vf (t)ii

t to

(1.1.4)

222
Las definiciones precedentes se aplican tambien a los sistemas de tiempo discreto,
es decir, cuando el tiempo toma valores en un conjunto enumerable (t0 , t1 , t2 , . . .).
En este tipo de sistemas, la variable independiente temporal se suele denominar
t, y para enfatizar la naturaleza distinta de las se
nales de tiempo discreto, usaremos parentesis cuadrados, es decir, f [t] describira una se
nal funcion de la variable
temporal discreta.
Para ilustrar este tipo de sistemas consideremos el siguiente ejemplo.
1 Usaremos

el t
ermino operador

Aspectos fundamentales

Captulo 1

Ejemplo 1.3. Una cuenta de ahorro tiene un saldo inicial s[t0 ] = so , y recibe un
interes igual a % mensual. Si en el mes t-esimo (t = t0 , t0 + 1, . . .) se hace un
dep
osito igual a d[t], entonces el saldo s[t] puede ser descrito por


+ d[t]
t t0
(1.1.5)
s[t] = s[t 1] 1 +
100
y sujeto a s[t0 ] = so . En este sistema, la entrada es d[t], la salida es s[t], y el estado
inicial es s[t0 ]. La ecuaci
on (1.1.5) tiene como soluci
on
t
X

s[t] = so tt0 +

t` d[`]

t > t0

(1.1.6)

`=t0 +1

La ecuaci
on (1.1.6) puede ser asociada con una estructura an
aloga a la de
(1.1.1), es decir
y[t] = Thhx[t0 ], u[t]ii

t t0

(1.1.7)

Existe una clase de sistemas en los cuales no hay elementos almacenadores de


energa. Estos sistemas se conocen como sistemas algebraicos o instantaneos. Ejemplos clasicos de estos sistemas son las redes electricas resistivas. Para ellos la representacion (1.1.1) se reduce a
y(t) = Thhu(t)ii

y[t] = Thhu[t]ii

(1.1.8)

En estricto rigor, todos los sistemas reales son sistemas dinamicos. Sin embargo,
puede ocurrir que para un observador, la escala de tiempo es tal que los fenomenos
ocurren en forma instantanea. En esos casos, para efectos practicos, el sistema se
representa a traves de un modelo algebraico.

1.2

Modelos

Cuando se enfrenta el problema de analizar un sistema, naturalmente no trabajamos con el sistema real, sino que con una representacion de ese sistema. Esa
representacion o modelo, captura aspectos esenciales del sistema. Por definicion,
un modelo es una representacion aproximada de la realidad, y su grado de fidelidad
depende de muchos factores, siendo uno de ellos el proposito del modelo.
La construccion de modelos a partir de sistemas reales es un proceso complejo
que involucra la fenomenologa del sistema, mediciones, procesos de ajuste, etc. La
construccion de modelos es, por si sola, una disciplina rica en conceptos y tecnicas.
En este texto, supondremos que el modelo ya ha sido construido. En consecuencia, la teora que aqu se desarrolla se aplica al modelo del sistema bajo estudio. El
que las conclusiones que as se deriven sean validas para el sistema mismo dependera de la fidelidad con que el modelo representa a ese sistema. En muchos casos
hablaremos del modelo y del sistema como sinonimos, en otros sera necesario hacer
la diferencia.

Section 1.3.

1.3

Sistemas lineales

Sistemas lineales

Los sistemas lineales son un subconjunto del universo de los sistemas. Su importancia radica en la conjuncion de dos elementos:
muchos sistemas pueden representarse por modelos lineales de razonable fidelidad; y
existen herramientas poderosas para analizar y sintetizar este tipo de sistemas.
La naturaleza de esta conjuncion se ira apreciando a medida que progresemos en
el tema. No obstante ello, una vision temprana de estas razones se pueden apreciar
de inmediato en las definiciones que siguen.
Definici
on 1.2. Consideremos un sistema S, como se describe en la Figura 1.2 y
la ecuaci
on (1.1.1). Supongamos adem
as que el sistema cumple con
y1x (t) = Thhx1 (to ), 0 i
y1u (t) = Thh0, u1 (t)ii
y2x (t) = Thhx2 (to ), 0 i
y2u (t) = Thh0, u2 (t)ii

t to
t to
t to
t to

(1.3.1)
(1.3.2)
(1.3.3)
(1.3.4)

donde x1 (to ) y x2 (to ), son dos vectores de estado inicial arbitrarios,y u1 (t) y u2 (t)
son dos vectores de entrada arbitrarios.
Entonces el sistema es lineal si y s
olo si
y(t) = Thh1 x1 (to ) + 2 x2 (to ), 1 u1 (t) + 2 u2 (t)ii
t to
= 1 Thhx1 (to ), 0 i + 2 Thhx2 (to ), 0 i + 1 Thh0, u1 (t)ii + 2 Thh0, u2 (t)ii
= 1 y1x (t) + 2 y2x (t) + 1 y1u (t) + 2 y2u (t)

(1.3.5)
(1.3.6)
(1.3.7)

para cualquier conjunto de constantes 1 , 2 , 1 y 2 .


222
En la definicion precedente se han combinado las dos propiedades claves que
definen los sistemas lineales: superposici
on y homogeneidad.
La propiedad de superposicion encierra la idea que la salida del sistema se puede
calcular separando los efectos de componentes del estado y/o componentes de la
salida, y luego sumando (superponiendo) las respuestas a cada uno de esos componentes. Note que existen tres formas en que se puede presentar la superposicion:
superposicion de la entrada y el estado inicial
Thhx(to ), u(t)ii = Thhx(to ), 0 i + Thh0, u(t)ii

(1.3.8)

Aspectos fundamentales

Captulo 1

superposicion de componentes del estado inicial


Thhx1 (to ) + x2 (to ), 0 i = Thhx1 (to ), 0 i + Thhx2 (to ), 0 i

(1.3.9)

superposicion de componentes de la entrada


Thh0, u1 (t) + u2 (t)ii = Thh0, u1 (t)ii + Thh0, u2 (t)ii

(1.3.10)

Por su parte, la idea de homogeneidad se expresa en que, en los sistemas lineales,


la proporcionalidad en la entrada y/o el estado se propaga a la salida sin alteracion,
es decir
Thhxo , 0 i = Thhxo , 0ii
Thh0, u(t)ii = Thh0, u(t)ii

(1.3.11)
(1.3.12)

La ecuacion (1.3.11) describe la homogeneidad respecto del estado inicial, mientras que la ecuacion (1.3.12) describe la homogeneidad respecto de la entrada.
Para los sistemas algebraicos las propiedades de homogeneidad y superposicion
se aplican solo a la entrada del sistema, es decir
y(t) = Thh1 u1 (t) + 2 u2 (t)ii = 1 Thhu1 (t)ii + 2 Thhhu2 (t)ii

(1.3.13)

Para ilustrar estas definiciones consideraremos algunos ejemplos.


Ejemplo 1.4. Considere un sistema algebraico cuya relaci
on entrada-salida est
a
dada por
y(t) = Thhu(t)ii = 2|u(t)|
(1.3.14)
El sistema es lineal si y s
olo si la condici
on (1.3.13) se cumple para toda elecci
on
de las constantes 1 y 2 . Es f
acil observar que si, por ejemplo, elegimos 1 = 1
y 2 = 0, tal condici
on no se cumple, ya que
y(t) = Thhu1 (t)ii = 2|u1 (t)| 6= 2|u1 (t)| = Thhu1 (t)ii

(1.3.15)

En consecuencia, el sistema (1.3.14) no es lineal.


Ejemplo 1.5. Sea un sistema cuya relaci
on entrada-salida est
a descrita por
dy(t)
n
= (u(t))
dt

sujeto a y(to ) = xo

Entonces, el estado inicial x(to ) es xo y la respuesta resulta


Z t
n
y(t) = Thhxo , u(t)ii = xo +
(u()) d t to

(1.3.16)

(1.3.17)

to

Note que, de la ecuaci


on (1.3.17), se ve que el efecto de la entrada y el efecto de
la condici
on inicial se pueden superponer, ya que

Section 1.3.

Sistemas lineales

yx (t) = Thh0, u(t)ii =

(u()) d

(1.3.18)

to

yu (t) = Thhxo , 0 i = xo
y(t) = yx (t) + yu (t)

(1.3.19)
(1.3.20)

Consideremos ahora el caso del estado inicial x(to ) = xo = 1 x1 (to ) + 2 x2 (to ),


con u(t) = 0; entonces la respuesta y(t) = yx (t) est
a dada por
y(t) = 1 x1 (to ) + 2 x2 (to ) = 1 Thhx1 (to ), 0 i + 2 Thhx2 (to ), 0 i

(1.3.21)

De la ecuaci
on (1.3.21) se comprueba que el sistema tiene la propiedad de superposici
on de las componentes del estado. Naturalmente que tiene adem
as la propiedad
de homogenidad del estado.
Finalmente analizamos el caso donde x1 (to ) = x2 (to ) = y( to ) = 0, y u(t) =
1 u1 (t) + 2 u2 (t), la repuesta y(t) = yu (t) est
a entonces dada por
Z t
n
y(t) =
(1 u1 () + 2 u2 ()) d t to
(1.3.22)
to

De esta ecuaci
on se puede ver que la propiedad de superposici
on de las componentes de la entrada se cumple si y s
olo si n = 1. Igual condici
on, necesaria y
suficiente, se aplica para la homogeneidad de la entrada.
Resumiendo, el sistema del ejemplo tiene las siguientes caractersticas:
tiene la propiedad de superposici
on del estado y de la entrada;
tiene la propiedad de superposici
on y homogeneidad del estado;
tiene la propiedad de superposici
on y homogeneidad de la entrada si y s
olo
si n = 1.
En consecuencia, el sistema del ejemplo es lineal si y s
olo si n = 1.
El lector debe tener claro que la propiedad de linealidad (o no linealidad) de un
sistema dado no es necesariamente una propiedad intrnseca de ese sistema, sino
que puede depender de la eleccion de la variable de salida, y/o de la variable de
entrada. Para visualizar esto, supongamos que en la ecuacion (1.3.16) definimos
4

como entrada la se
nal u
(t) = (u(t)) . Entonces es facil demostrar que el sistema
con entrada u
(t) y salida y(t) es lineal.
Se puede construir un segundo ejemplo a partir de la red electrica de la Figura 1.1
en la pagina 2. Supongamos que escogemos como salida la potencia p(t) disipada
en el resistor. Entonces, el modelo de entrada-salida resulta dado por
r
Z
p
1 t
p( )
d
(1.3.23)
vf (t) = p(t)R +
C
R

Aspectos fundamentales

Captulo 1

donde hemos usado la ley de Joule p(t) = R(i(t))2 .


La discusion precedente nos motiva a introducir una nota de cautela en esta
materia
La linealidad o no linealidad de un sistema debe entenderse como la linealidad o no linealidad del modelo especfico que relaciona la entrada y la salida
particulares elegidas en el sistema.

1.4

Invarianza en el tiempo

Otra propiedad de interes es la de invarianza en el tiempo. Un sistema es invariante en el tiempo cuando las propiedades del sistema no cambian en el tiempo,
es decir, cuando se cumple la situacion de la Figura 1.3, para cualquier valor del
desplazamiento .

u(t)

S
x(0) = xo

y(t)

u(t )

invarianza
en tiempo

y(t )

x( ) = xo

Figura 1.3. Propiedad de invarianza en el tiempo


En palabras, la Figura 1.3 dice que si retardamos la entrada (y las condiciones
iniciales) la respuesta es la misma que antes, retardada en la misma cantidad.
En rigor, no existen los sistemas invariantes en el tiempo. Sin embargo, es
frecuente que la variacion que experimenta el sistema con el transcurso del tiempo,
es despreciable para todo efecto practico.
La propiedad de invarianza en el tiempo y la propiedad de linealidad crean un
ambito en que es posible aplicar potentes herramientas de analisis, sntesis y
dise
no.

1.5

Linealizaci
on

A pesar de que casi todos los sistemas reales incluyen caractersticas no lineales,
muchos de ellos pueden ser descritos con razonable precision por modelos lineales,
al menos dentro de ciertos rangos en que el sistema funciona. El incentivo para
tratar de aproximar un sistema no lineal por un sistema lineal es que la ciencia
y el arte de los sistemas lineales son mucho mas completos, simples y poderosos
que los usados para los casos no lineales. Una manera practica de obtener estos

Section 1.5.

Linealizaci
on

modelos lineales es comenzar con un modelo no lineal y, a partir de este construir


una aproximacion lineal en la vecindad de un punto de operaci
on elegido. Este
enfoque es una herramienta clave para el modelado lineal en diversos campos, por
ejemplo en la Electronica analogica y en el Control Automatico.
La estrategia de linealizacion puede ser aplicada de igual forma a modelos de
tiempo continuo y a modelos de tiempo discreto, a modelos en variables de estado
y a modelos de entrada-salida (ecuaciones recursivas y ecuaciones diferenciales de
orden superior).
Antes de intentar la formulacion de un procedimiento general de linealizacion,
motivaremos el tema con el estudio de dos casos. Ambos casos se frasearan de
identica forma, con las obvias adaptaciones, para que el lector pueda apreciar que
el tema de linealizacion trasciende la naturaleza de la descripcion temporal.
Caso 1. Sistema no lineal de tiempo continuo
Considere un sistema con entrada u(t) y salida y(t), donde el modelo de entradasalida esta dado por
d 2 y(t)
d y(t)
3
+ (0, 2 + y(t))
+ (y(t)) =
dt 2
dt

3
d u(t)
2
+ u(t)
dt

(1.5.1)

La idea es construir un modelo (ecuacion diferencial) lineal en que las se


nales
4

involucradas sean la entrada incremental u(t) = u(t) uQ y la salida incremental


4

y(t) = y(t) yQ . Para obtener ese modelo usaremos la teora de series de Taylor
(ver Apendice A).
La ecuacion (1.5.1) puede re-escribirse, miembro a miembro, como
ga (x1 (t), x2 (t), x3 (t)) = gb (x4 (t), x5 (t))

(1.5.2)

donde x1 (t) = y(t), x2 (t) = y(t),

x3 (t) = y(t), x4 (t) = u(t) y x5 (t) = u(t).

As
ga (x1 (t), x2 (t), x3 (t)) = x3 (t) + (0, 2 + x1 (t))x2 (t) + (x1 (t))
gb (x4 (t), x5 (t)) = (2x5 (t) + x4 (t))

(1.5.3)
(1.5.4)

Luego hacemos la expansion en serie de Taylor de ga y gb para, finalmente,


igualar las aproximaciones de primer orden de ambas funciones. Esto lleva a

ga (x1Q , x2Q , x3Q )+(3 (x1Q ) +x2Q )(x1 (t) x1Q )+(0, 2+x1Q )(x2 (t) x2Q )+(x3 (t) x3Q ) =
2

gb (x4Q , x5Q ) + 3 (2x5Q + x4Q ) (x4 (t) x4Q ) + 6 (2x5Q + x4Q ) (x5 (t) x5Q )
(1.5.5)

10

Aspectos fundamentales

Captulo 1

Usando las definiciones anteriores tenemos que


x1 (t) x1Q = y(t)
x2 (t) x2Q
x3 (t) x3Q
x4 (t) x4Q

(1.5.6)

d y(t)
x2Q
= y(t)
=
dt
d 2 y(t)
=
y (t) =
x3Q
dt 2
= u(t)

x5 (t) x5Q = u(t)

(1.5.7)
(1.5.8)
(1.5.9)

d u(t)
x5Q
dt

(1.5.10)

Para lograr el objetivo deseado, es decir, una ecuacion diferencial en u(t) y xi (t),
es necesario que el conjunto de valores (x1Q , x2Q , . . . , x5Q ) que define el punto de
operacion satisfaga
ga (x1Q , x2Q , x3Q ) = ga (x4Q , x5Q )

(1.5.11)

Con esta condicion, ga (x1Q , x2Q , x3Q ) y gb (x4Q , x5Q ) se compensan en (1.5.5).
En esta etapa de nuestro analisis es oportuno hacer las siguientes observaciones:
(i) Cada derivada debe ser asociada a una variable xi .
(ii) El punto de operacion es arbitrario; pero para llegar a un modelo linealizado,
debe satisfacer la ecuacion no lineal original. Para este caso, un ejemplo de
punto de operacion es x1Q = 2, x2Q = 1, x3Q = 9, 2, x4Q = 3 y x5Q = 1.
(iii) Es conveniente elegir un punto de operacion para el que las derivadas de y(t)
y de u(t), respecto del tiempo, sean iguales a cero. Este punto de operacion
se conoce como punto de operacion en equilibrio o, mas brevemente, punto
de equilibrio. La idea es que si un sistema esta en un punto de equilibrio, el
sistema se mantiene operando en ese punto ya que las derivadas de y(t) y de
u(t) son cero. La eleccion del punto de equilibrio se hace considerando el punto
en que el sistema a analizar estara operando. Para este caso, existen infinitos
puntos de equilibrio y todos ellos satisfacen x1Q = x4Q , x2Q = 0,x3Q = 0 y
x5Q = 0.
El modelo lineal para el caso estudiado tiene entonces la forma
d 2 y(t)
d y(t)
d u(t)
+ a1
+ a0 y(t) = b1
+ b0 u(t)
2
dt
dt
dt

(1.5.12)

(iv) Cuando el modelo no lineal esta descrito por dos o mas ecuaciones, las coordenadas del punto de operacion deben satisfacer al conjunto de ecuaciones
simultaneas.
(v) Un punto de operacion en equilibrio se calcula a partir del modelo algebraico
que resulta de hacer cero todas las derivadas en el modelo dinamico no lineal.
4

(vi) La linealizacion puede hacerse sobre la funcion compuesta g = ga gb = 0.

Section 1.5.

11

Linealizaci
on

Caso 2. Sistema no lineal de tiempo discreto


Considere un sistema de tiempo discreto con entrada u[t] y salida y[t], donde el
modelo de entrada-salida es la ecuacion recursiva
y[t] + 0, 5y[t 1]y[t 2] + 0, 1u[t](y[t 2])2 = (u[t 1])3

(1.5.13)

La idea es construir un modelo (ecuacion recursiva) lineal en que las se


nales
4

involucradas sean la entrada incremental u[t] = u[t] uQ y la salida incremental


4

y[t] = y[t] yQ . Para obtener ese modelo usaremos la teora de series de Taylor
(ver Apendice A).
La ecuacion (1.5.1) puede re-escribirse, miembro a miembro, como
gc (x1 [t], x2 [t], x3 [t], x4 [t]) = ga (x5 [t])

(1.5.14)

donde x1 [t] = y[t], x2 [t] = y[t 1], x3 [t] = y[t 2], x4 [t] = u[t] y x5 [t] = u[t 1].
As
2

gc (x1 [t], x2 [t], x3 [t], x4 [t]) = x1 [t] + 0, 5x2 [t]x3 [t] + 0, 1x4 [t] (x3 [t])
3

gd (x5 [t]) = (x5 [t])

(1.5.15)
(1.5.16)

Luego hacemos la expansion en serie de Taylor de gc y gd para, finalmente,


igualar las aproximaciones de primer orden de ambas funciones. Esto lleva a
gc (x1Q , x2Q , x3Q , x4Q )+(x1 [t] x1Q )+0, 5x2Q (x3 [t] x3Q )+0, 5x3Q (x2 [t] x2Q )+
2

0, 2x4Q x3Q (x3 [t] x3Q )+0, 1 (x3Q ) (x4 [t] x4Q ) = gd (x5Q )+3 (x5Q ) (x5 [t] x5Q )
(1.5.17)
Usando las definiciones anteriores tenemos que2
x1 [t] x1Q
x2 [t] x2Q
x3 [t] x3Q
x4 [t] x4Q
x5 [t] x5Q

= y[t]
= y[t 1] + x1Q x2Q
= y[t 2] + x1Q x3Q
= u[t]
= u[t 1] + x4Q x5Q

(1.5.18)
(1.5.19)
(1.5.20)
(1.5.21)
(1.5.22)

Para lograr el objetivo deseado, es decir, una ecuacion recursiva en u[t] y y[t],
es necesario que el punto de operacion (x1Q , x2Q , . . . , x5Q ) satisfaga
gc (x1Q , x2Q , x3Q , x4Q ) = gd (x5Q )

(1.5.23)

Con esta condicion, gc (x1Q , x2Q , x3Q , x4Q ) y gd (x5Q ) se compensan en (1.5.17).
En esta etapa de nuestro analisis es oportuno hacer las siguientes observaciones:
2 La

notaci
on es y[t `] = y[t `] x1Q , y u[t j] = u[t j] x4Q

12

Aspectos fundamentales

Captulo 1

(i) Cada se
nal retardada debe ser asociada a una variable xi .
(ii) El punto de operacion es arbitrario; pero para llegar a un modelo linealizado,
debe satisfacer la ecuacion no lineal original. Para este caso, un ejemplo de
punto de operacion es x1Q = 2, x2Q = 1, x3Q = 2, x4Q = 5 y x5Q = 1.
(iii) Es conveniente elegir un punto de operacion para el que las primeras diferencias
y[i] y[i 1] y u[i] u[i 1], son cero 3 i . Este punto de operacion se
conoce como punto de operacion en equilibrio o, mas brevemente, punto de
equilibrio. La idea es que si un sistema esta en un punto de equilibrio, el
sistema se mantiene operando en ese punto ya que las diferencias de y[t] y
de u[t] son cero. La eleccion del punto de equilibrio se hace considerando el
punto en que el sistema a analizar estara operando. Para este caso, existen
infinitos puntos de equilibrio y todos ellos satisfacen x1Q = x2Q = x3Q = yQ ,
x4Q = x5Q = uQ , e
2
2
yQ + 0, 5yQ
+ 0, 1uQ yQ
= u3Q

(1.5.24)

El modelo lineal tiene entonces la forma


y[t] + c1 y[t 1] + c0 y[t 2] = d1 u[t] + d0 u[t 1]

(1.5.25)

(iv) Cuando el modelo no lineal esta descrito por dos o mas ecuaciones, las coordenadas del punto de operacion deben satisfacer al conjunto de ecuaciones
simultaneas.
(v) Un punto de operacion en equilibrio se calcula a partir del modelo algebraico
que resulta de hacer cero todas las diferencias en el modelo dinamico no lineal, es decir, cada una de las se
nales involucradas es reemplazada por una
constante a calcular, con independencia del retardo que ella exhiba.
4

(vi) La linealizacion puede hacerse sobre la funcion compuesta g = gc gd = 0.


222
El analisis de los casos precedentes muestra que, con independencia de la naturaleza temporal de los sistemas (continuo o discreto), la linealizacion de sus modelos
no lineales tiene ciertos pasos basicos. En primer lugar, restringiremos la linealizacion a la contruccion de modelos lineales en torno a puntos de equilibrio. Observamos que cuando trabajamos en un punto de equilibrio, todos los valores de
ese punto x1Q , x2Q , . . . , se pueden expresar en funcion del par (uQ , yQ ); por ello
diremos que el punto de operacion en equilibrio queda definido por ese par.
Supongamos que el sistema con entrada u() y salida y() es descrito por
3 Note que si la primera diferencia de una se
nal discreta f [t], denotada por f [i] f [i 1] es cero
i, entonces, la diferencia de orden `, `, f [i] f [i `] es cero i

Section 1.5.

13

Linealizaci
on

f hu(), y()i = 0

(1.5.26)

donde f h i es un operador no lineal y, posiblemente, dinamico.


Tambien suponemos que
(i) existe, al menos un par de valores constantes reales (uQ , yQ ) tales que,
f huQ , yQ i = 0

(1.5.27)

Cada uno de estos pares define un punto de operaci


on en equilibrio.
(ii) f hu(), y()i es infinitamente diferenciable, con respecto a u, con respecto a
y, y con respecto a las derivadas (o valores retardados) de ambos, en el punto
de operacion de interes.
Si expresamos u() y y() como
u() = uQ + u()
y() = yQ + y()

(1.5.28)
(1.5.29)

entonces podemos expandir el lado izquierdo de la ecuacion (1.5.26) en una serie


de Taylor, en torno al punto de operacion (uQ , yQ ). Si en esa expansion tomamos
solo los terminos de primer orden, entonces el resultado es un modelo lineal, una
ecuacion diferencial o una ecuacion recursiva, en las variables u() y y().
Nota 1.1. El procedimiento de linealizaci
on en el caso de un sistema discreto se
desarrolla sin dificultad porque las derivadas parciales de la expansi
on en serie de
Taylor se realizan con respecto a las variables de entrada y de salida y no con
respecto de la variable tiempo (discreto).
Nota 1.2. El procedimiento de linealizaci
on presentado anteriormente genera un
modelo que es lineal en las componentes incrementales de las entradas y las salidas
en torno a un punto de operaci
on elegido (i.e. se trata de un modelo a peque
na
se
nal).
Ilustramos esto a traves de dos ejemplos.
Ejemplo 1.6. Considere un sistema de tiempo continuo descrito por el modelo
2

f hu(t), y(t)i =

dy(t) p
(u(t))
+ y(t)
=0
dt
3

(1.5.30)

Suponga que la entrada u(t) vara alrededor de u = 2. Encuentre un punto de


operaci
on con uQ = 2 y un modelo linealizado en torno a el.

14

Aspectos fundamentales

Captulo 1

Soluci
on
dy(t)
dt

(i) El punto de operaci


on es calculado de (1.5.30) con uQ = 2 y tomando
0. Esto lleva a

yQ

(uQ )
=0
3

= yQ =

16
9

(1.5.31)

(ii) El modelo linealizado es entonces obtenido a traves de la expansi


on de (1.5.30)
en serie de Taylor para obtener
dy(t)
1
2uQ
+ y(t)
u(t) = 0
dt
2 yQ
3

(1.5.32)

Cuando se usan valores numericos para el punto de operaci


on, se obtiene el
siguiente modelo linealizado:
4
dy(t) 3
+ y(t) u(t) = 0
dt
8
3

(1.5.33)

Para apreciar la calidad de la aproximaci


on consideramos el sistema original y
su modelo linealizado y corremos una simulaci
on donde la entrada a ambos sistemas
es una constante igual a 2 m
as una secuencia de pulsos de amplitud creciente. Los
resultados se muestran 1.4. Podemos ver ah que el error de linealizaci
on crece a
medida que el sistema es llevado lejos del punto de operaci
on, en torno al cual se
calcul
o el modelo linealizado.
2.8
2.6
2.4
2.2
2
1.8
1.6
1.4

5
Tiempo [s]

10

Figura 1.4. Salida del sistema no lineal (linea solida) y salida del sistema linealizado (lnea segmentada) para una onda cuadrada de amplitud
creciente en la entrada (lnea punteada)

222

Section 1.5.

15

Linealizaci
on

Ejemplo 1.7. Las caractersticas de un sistema no lineal de tiempo discreto, con


entrada u[t] y salida y[t], son descritas exactamente por
f hu[t], y[t]i = y[t]0.7y[t1]+0.12(1+0.1u[t])y[t2]2+sin (u[t 1]) = 0 (1.5.34)
Construya un modelo linealizado en torno al punto de operaci
on definido por uQ = 0.
Soluci
on
(i) Para calcular yQ aplicamos (1.5.27), de donde se obtiene
yQ 0.7yQ + 0.12yQ = 2 = yQ = 4.762

(1.5.35)

(ii) El modelo linealizado es ahora construido de (1.5.34), llevando a

y[t] 0.7y[t 1] + 0.12(1 + 0.1uQ )y[t 2]+


0.12yQ (u[t])) + cos (uQ ) u[t 1] = 0

(1.5.36)

Entonces, usando los valores numericos para el punto de operaci


on, se obtiene
el siguiente modelo linealizado:
y[t] 0.7y[t 1] + 0.12y[t 2] = 0.571u[t] + u[t 1]

(1.5.37)
222

Nota 1.3. Los paquetes computacionales modernos incluyen comandos especiales


para calcular modelos linealizados en torno a puntos de operaci
on definidos por
el usuario (pre-calculados). En el caso de MATLAB-SIMULINK, los comandos
apropiados son linmod (para sistemas de tiempo continuo) y dlinmod (para sistemas de tiempo discreto e hbridos).
Nota 1.4. Es obvio que los modelos linealizados son s
olo modelos aproximados. Por
lo tanto estos modelos deben ser linealizados con la precauci
on apropiada (como deberan serlo en realidad todos los modelos). En el caso de modelos linealizados, el
siguiente termino de la expansi
on en serie de Taylor puede ser utilizado frecuentemente para obtener una medida del error asociado al modelado.
En muchas aplicaciones, los modelos lineales proveen suficiente informacion para
estudiar la operacion del sistema (no lineal) original y para sintetizar sistemas
con suficiente precision. Los modelos lineales pueden ser obtenidos linealizando
un modelo no lineal en torno a un punto de operacion. Sin embargo, se requiere
desarrollar una metodologa para tratar los inevitables errores de modelado que
resultan de la linealizacion.

16

Aspectos fundamentales

Captulo 1

La idea fundamental es que las propiedades del modelo lineal para valores
peque
nos de sus variables incrementales, permiten inferir el comportamiento del
sistema original en las cercanas del punto de operacion.
Para comparar la calidad de la aproximacion que provee un determinado modelo
lineal, es necesario poder simular ambos modelos. Para ello, herramientas como
SIMULINK o SIMNON son extraordinariamente poderosas. A modo de ejemplo se
incluye en la Figura 1.5 un esquema SIMULINK para simular el modelo no lineal
dado por
d 2y
dy
2
+ (1 + 0, 1y(t))
+ (y(t)) = u(t) + 0.1 seno(u(t))
dt 2
dt

(1.5.38)

o, en forma mas conveniente para armar el esquema SIMULINK,


d 2y
dy
2
= (1 + 0, 1y(t))
(y(t)) + u(t) + 0, 1 seno(u(t))
dt 2
dt

(1.5.39)

y^2

u[1]+0.1*sin(u[1])
u(t)

Integrador 1

Integrador2

0.1
Producto

Figura 1.5. Diagrama SIMULINK para simulacion de sistema no lineal dado


2
2
por ddt 2y + (1 + 0, 1y(t)) ddty + (y(t)) = u(t) + 0, 1 seno(u(t))

Una observacion mas general sobre el tema de la linealizacion se relaciona con el


hecho que este concepto se puede extender, de modo que la linealizacion se hace,
no en torno a un punto de operacion, sino que a una trayectoria de operacion,
es decir, en torno a una solucion de interes (uQ (t), yQ (t)) del modelo no lineal.

Section 1.6.

1.6

17

Problemas para el lector

Problemas para el lector

Problema 1.1. Considere un sistema cuyo modelo de comportamiento est


a dado
por
y(t) = mu(t) + b

(1.6.1)

Determine las condiciones que deben satisfacer las contantes m y b de modo que
el sistema sea lineal
Problema 1.2. El
area de un rect
angulo es A = xy, donde x e y representan las
longitudes de sus lados.
1.2.1 Obtenga una expresi
on linealizada para A en torno al punto de operaci
on
xQ = 2, yQ = 5.
1.2.2 Obtenga y describa geometricamente el error cometido al usar el modelo lineal
para calcular el
area de un rect
angulo con lados x = 3 e y = 6.
Problema 1.3. Sea un sistema lineal algebraico de dimensi
on 2 2, es decir,
con dos entradas y dos salidas. Se realizan algunos experimentos y se llega a:
y(t) = [2 1]T = Thh[1 1]T i
T

y(t) = [3 4] = Thh[1 2] i

(1.6.2)
(1.6.3)

Determine la respuesta del sistema cuando la entrada es u(t) = [1 1]T


Problema 1.4. Considere un sistema con entrada u(t) y salida y(t), relacionados
por la ecuaci
on diferencial

dy(t)
2
+ 2 + 0.1 (y(t)) y(t) = 2u(t)
dt

(1.6.4)

1.4.1 Determine los modelos linealizados para un punto de operaci


on definido por
yQ = 0.1.
1.4.2 Repita el punto anterior para yQ = 3. Compare con el resultado anterior.
Problema 1.5. En un sistema con entrada u(t) y salida y(t), la relaci
on entradasalida est
a dada por
1
d y(t)
2
+ 3 (y(t)) = 2 (u(t)) 3
y(t)
(1.6.5)
dt
Redefina, si es posible, la entrada y/o la salida de modo que el modelo en las
salidas redefinidas sea lineal.

18

Aspectos fundamentales

Captulo 1

Problema 1.6. Considere la funci


on no lineal dada por
(
u(t)
|u(t)| 1
y(t) =
signo{u(t)} |u(t)| > 1

(1.6.6)

Discuta la linealizaci
on de esta funci
on en distintos punto de operaci
on.
Problema 1.7. En los sistemas tributarios modernos existe un tasa progresiva, es
as como a mayor ingreso, m
as alto es el porcentaje de impuesto a pagar. Analice
el sistema desde el punto de vista de la linealidad
Problema 1.8. Un sistema no lineal tiene un modelo dado por
d y(t)
+ f (y)y(t) = 2u(t)
dt
Donde la funci
on f (y) aparece en la Figura 1.6.

(1.6.7)

1.5
1

f(y)

0.5
0
0.5
1
1.5
4

0
y

Figura 1.6. Ganancia no lineal para el problema 1.8


Construya modelos linealizados para los puntos de operaci
on determinados por
yQ = 3, yQ = 0 e yQ = 1.
Problema 1.9. Determine si el siguiente sistema es o no lineal
d y(t)
+ 2ty(t) = 2u(t)
dt

(1.6.8)

Problema 1.10. Construya, si es posible, modelos lineales para los sistemas no


lineales cuyos modelos se indican, con las condiciones de operaci
on especificadas
(en todos los puntos de operaci
on resultantes)
y[t] 0.5(y[t 1])3 = u[t 5]

yQ = 2

(1.6.9)

u[t 1]
1 + 0.2(u[t 2])2

uQ = 1

(1.6.10)

y[t] 0.2y[t 1]y[t 2] + 0.4y[t 3] =

Section 1.6.

19

Problemas para el lector

Problema 1.11. Considere el siguiente modelo no lineal


x 1 (t) = 2x1 (t) + 0.1x1 (t)x2 (t) + u(t)
x 2 (t) = x1 (t) 2x2 (t) (x1 (t))
y(t) = x1 (t) + (1 + x2 (t))

(1.6.11)
(1.6.12)
(1.6.13)

Construya un modelo lineal en torno al punto de operaci


on definido por uQ = 1.

Captulo 2

SENALES
DE TIEMPO
CONTINUO Y TIEMPO
DISCRETO

2.1

Introducci
on

El comportamiento de los sistemas puede evaluarse observando se


nales a la entrada
del sistema, a la salida y en puntos interiores del mismo. Mas a
un, el comportamiento de los sistemas puede estudiarse, y as suele hacerse, observando su respuesta
cuando se inyectan al sistema determinadas se
nales de prueba.
El analisis de se
nales es un aspecto esencial de la teora de sistemas lineales, no
solo por su valor experimental, sino que por las propiedades de linealidad, las que
permiten construir modelos para los sistemas en base a la respuesta de ellos a esas
se
nales de prueba.

2.2

Se
nales de tiempo continuo

En el caso de los sistemas de tiempo continuo, existen varias se


nales que juegan
un rol fundamental en la teora de los sistemas lineales. Ellas y sus propiedades de
mayor interes se presentan a continuacion.

2.2.1

Escal
on unitario (funci
on de Heaviside)

El escalon unitario en el instante to se define como


(
1 t to
4
(t to ) =
0 t < to

2.2.2

(2.2.1)

Impulso unitario o delta de Dirac

El impulso unitario o delta de Dirac es una se


nal peculiar. En estricto rigor no es
una funcion temporal, sino que es lo que se conoce en Matematica como distribuci
on.
20

Section 2.2.

21

Se
nales de tiempo continuo

Se define como
Z
(t to ) = 0

t 6= to

con

(t to )dt = 1

(2.2.2)

Como se puede observar, esta se


nal no es fsicamente realizable, y se debe entender como una idealizacion de determinadas situaciones. Algunas de ellas se pueden
apreciar en la figura 2.1.

f1 (t)

f2 (t)

1
2
to to to +

to to to +

Figura 2.1. Aproximaciones al delta de Dirac


La funciones f1 (t) y f2 (t) de la figura 2.1 cumplen con
Z
Z
f1 (t)dt =
f2 (t)dt = 1

(2.2.3)

Ademas,
lim f1 (t) = lim f2 (t) = 0

t 6= to

(2.2.4)

Otra funcion de importancia que tiene la misma propiedad que f1 (t) y f2 (t) es

o
1 seno tt

f3 (t) =
(2.2.5)
t to
Esta funcion, conocida como la funci
on muestreo, juega un papel muy importante en la relacion entre se
nales de tiempo continuo y de tiempo discreto. Se puede
demostrar que
lim f3 (t) = (t to )

(2.2.6)

Una propiedad clave del delta de Dirac esta descrita en el siguiente lema.
Lema 2.1. Considere una funci
on cualquiera f (t), entonces
Z
f (t) =
f ( )(t )d

(2.2.7)

22

Se
nales de tiempo continuo y tiempo discreto

Captulo 2

222
El lema 2.1 establece que toda se
nal puede ser expresada como una operacion
lineal sobre el impulso (t ) para < < . Veremos mas adelante que esta
propiedad sera la base para calcular la respuesta de un sistema lineal a partir de la
respuesta de ese sistema a un impulso unitario.

2.2.3

Rampa unitaria

La rampa unitaria se define como


(
t to
r(t to ) =
0

t to
t < to

(2.2.8)

El delta de Dirac, el escalon unitario y la rampa unitaria pertenecen a una


secuencia de funciones, donde cada una se puede obtener a traves de la derivada de
la que sigue, es decir,
d(t to )
d2 r(t to )
=
dt
dt2
o a traves de la integral de la que le precede, es decir
(t to ) =

r(t to ) =

( to ) d =

( to ) d d

(2.2.9)

(2.2.10)

Observe que hemos interpretado el impulso como la derivada del escalon, lo cual
implica dar un significado a la derivada de una funcion en un punto de discontinuidad. Esto tiene sentido solo si esa discontinuidad es finita. En todo caso estas
operaciones deben manejarse con precaucion.

2.2.4

Exponencial

La funcion exponencial es definida genericamente como


f (t) = et

(2.2.11)

donde = + j, , R. Sin embargo, cuando 6= 0, la exponencial no es

una se
nal real, y solo tiene sentido fsico cuando se combina con e t , en cuyo caso
se llega a una sinusoide de amplitud modulada exponencialmente, situacion que se
analiza por separado mas adelante1 .
Para el caso R distinguimos dos casos, como se ilustra en la figura 2.2.
Cuando > 0 tenemos una exponencial creciente. Esta se
nal esta asociada a
los sistemas inestables, como es explicara mas adelante.
Cuando < 0, estamos en presencia de una exponencial decreciente. Esta forma
exponencial es de enorme importancia en la teora de sistemas, ya que aparece con
1 Note

que usamos el exponente * para denotar el conjugado de un n


umero complejo

Section 2.2.

23

Se
nales de tiempo continuo

0.8

>0

6
5

0.6

0.4

<0

3
0.2

2
1

2
Tiempo [s]

2
Tiempo [s]

Figura 2.2. Exponenciales creciente (izquierda) y decreciente (derecha)

frecuencia en la descripcion del comportamiento natural de una amplia gama de


situaciones. Por ejemplo, permite describir la descarga de un condensador a traves
de un resistor, el decaimiento de sustancias radiactivas y muchos otros fenomenos
naturales.
Para las exponenciales decrecientes se suele definir un parametro adicional: la
constante de tiempo, definida como:
=

1
||

(2.2.12)

La constante de tiempo es una medida de la velocidad de decaimiento de la


exponencial, tal como se ilustra en la figura 2.3.
1
1>2>3

0.8
=1

0.6
=2

0.4
0.2
0

=3
0

0.5

1.5

2
Tiempo [s]

2.5

3.5

Figura 2.3. Exponenciales de diferentes velocidades de decaimiento


Una propiedad interesante de la exponencial se muestra en la figura 2.4.
En la figura 2.4 se observa que la tangente a la curva, trazada en t = 0 intersecta
la asntota de la exponencial (el eje temporal) exactamente en t = .

24

Se
nales de tiempo continuo y tiempo discreto

Captulo 2

1
0.8
0.6
0.4
0.2
0

0.5

1.5

2
2.5
3
Tiempo normalizado t/

3.5

4.5

Figura 2.4. Propiedad de la constante de tiempo

El caso especial = 0 corresponde a lafuncion constante.

2.2.5

Se
nales sinusoidales

La se
nal fundamental en todo tipo de oscilaciones periodicas es la funcion sinusoidal,
la que puede describirse en forma generica por
f (t) = A seno(t + )

(2.2.13)

donde A es la amplitud, es la frecuencia angular (en [rad/s]) y es el angulo de


fase, o desfase.
El perodo, T [s], y la frecuencia, f [Hz], de la sinusoide estan dados por:
1
2
=
(2.2.14)
f

Un representacion equivalente para las se


nales sinusoidales se puede obtener a
partir de la formula de Euler
T =

ej(t+) ej(t+)
(2.2.15)
2j
De esta ecuacion se puede apreciar la interpretacion que usualmente se da a la
exponencial imaginaria ejt , ya que2
A seno(t + ) = A

seno(t) = ={ejt }

2.2.6

(2.2.16)

Sinusoidales con amplitud exponencial

Otra de las se
nales que aparece frecuentemente describiendo el comportamiento
natural de los sistemas es la sinusoide con amplitud variando exponencialmente, es
decir
2 La

notaci
on ={ } siginifica parte imaginaria de ...

Section 2.3.

25

Se
nales de tiempo discreto

f (t) = Aet seno(t + )

(2.2.17)

Naturalmente, cuando = 0, la se
nal se reduce a una sinusoide pura. Los
casos < 0 (sinusoide amortiguada exponencialmente) y > 0 (sinusoide creciente
exponencialmente) se muestran en la figura 2.5.
1

500

0.5

0.5

1
2
tiempo normalizado t/T

500

1
2
tiempo normalizado t/T

Figura 2.5. Se
nales sinusoidales con amplitud disminuyendo exponencialmente
(izq.) y creciendo exponencialmente (der.)

Para estas funciones, la relacion de Euler lleva a


Aet seno(t + ) = A

2.3

e(+j)t+j e(j)tj
2j

(2.2.18)

Se
nales de tiempo discreto

En el caso de las se
nales de tiempo discreto, existen contrapartes directas de las
se
nales para tiempo continuo, con algunas sutiles, pero significativas diferencias.
La primera diferencia obvia es que la variable independiente esta definida sobre el
conjunto de los n
umeros enteros, Z. Otras apareceran en cada oportunidad.

2.3.1

Escal
on unitario de tiempo discreto

El escalon unitario en el instante to se define como


(
1 t to
4
[t to ] =
0 t < to

2.3.2

(2.3.1)

Impulso unitario de tiempo discreto o delta de Kronecker

El impulso unitario discreto o delta de Kronecker se define como

26

Se
nales de tiempo continuo y tiempo discreto

(
4

[t to ] =

0
1

t 6= to
t = to

Captulo 2

(2.3.2)

Una propiedad clave del delta de Kronecker, analoga a la del delta de Dirac
(lema 2.1) esta descrita en el siguiente lema.
Lema 2.2. Considere una funci
on cualquiera f [t], entonces

f [t] =

f [i][t i]

(2.3.3)

i=

222
El lema 2.2 establece que toda se
nal puede ser expresada como una operacion lineal sobre un tren de deltas de Kronecker. Veremos mas adelante que esta propiedad
sera la base para calcular la respuesta de un sistema lineal de tiempo discreto a partir
de su respuesta a un impulso unitario.

2.3.3

Rampa unitaria de tiempo discreto

La rampa unitaria se define como


(
t to
r[t t0 ] =
0
4

t to
t < to

(2.3.4)

A similitud de lo que ocurre con las se


nales de tiempo continuo, el delta de
Kronecker, el escalon unitario y la rampa unitaria pertenecen a una secuencia de
funciones, donde cada una se puede obtener como la primera diferencia del miembro
que le sigue, es decir,
[t to ] = [t to ] [t to 1];

[t to ] = r[t to + 1] r[t to ] (2.3.5)

o a traves de la acumulacion de la que precede, es decir


r[t to ] =

[t i];

[t to ] =

i=to +1

[t i]

(2.3.6)

i=to

Las tres se
nales miembros de esta familia se ilustran 3 en la figura 2.6
Es importante destacar que en estos graficos de funciones de tiempo discreto,
la variable descrita toma, para el t correspondiente, el valor que se indica con el
crculo peque
no. La lnea vertical bajo cada crculo solo se usa para claridad y para
destacar la correspondencia con el valor de t respectivo.
3 Para

este tipo de gr
aficos use el comando stem de MATLAB.

Section 2.3.

27

Se
nales de tiempo discreto

10

[k2]

[k2]

r[k2]

8
6

1
4
2

10

10

10

Figura 2.6. Se
nales basicas de tiempo discreto

2.3.4

Exponencial de tiempo discreto

La funcion exponencial es definida genericamente como


f [t] = t

(2.3.7)

donde es, en general, un n


umero complejo. Sin embargo, cuando ={} 6= 0, la
exponencial no es una se
nal real, y solo tiene sentido fsico cuando se combina con
( )t , en cuyo caso se llega a una sinusoide de amplitud modulada exponencialmente,
situacion que se analiza por separado mas adelante.
Si R distinguimos cuatro casos, como se ilustra en la figuras 2.7 y 2.8.
1.2

5
0<< 1

1<

0.8
3
0.6
2
0.4
1

0.2
0

Figura 2.7. Exponenciales de tiempo discreto, decreciente (izquierda) y creciente


(derecha), R+
En la figura 2.7, se observa el caso cuando es positivo, a la izquierda aparece
un ejemplo para 0 < < 1 y a la derecha, aparece un ejemplo para > 1
Cuando > 1 tenemos una exponencial creciente. Esta se
nal aparece asociada
a los sistemas inestables de tiempo discreto, como es explicara mas adelante

28

Se
nales de tiempo continuo y tiempo discreto

Captulo 2

Cuando 0 < < 1, estamos en presencia de una exponencial decreciente. Esta


forma exponencial es de enorme importancia en la teora de sistemas, ya que interviene con frecuencia en la descripcion del comportamiento natural de una amplia
gama de sistemas.
En la figura 2.8, se observa el caso cuando es negativo, a la izquierda aparece
el sub-caso 0 > > 1 y a la derecha, aparece el sub-caso < 1
6
1
0>> 1

< 1

0.5
2
0

0.5
1

Figura 2.8. Exponenciales de tiempo discreto, decreciente (izquierda) y creciente


(derecha), R
El caso especial = 1 corresponde a la funcion constante.

2.3.5

Se
nales sinusoidales de tiempo discreto

Al igual que en el caso de tiempo continuo, en sistemas discretos la se


nal fundamental en oscilaciones periodicas es la funcion sinusoidal, cuya forma generica es:
f [t] = A seno(t + )

(2.3.8)

donde A es la amplitud, es la frecuencia angular normalizada (en [rad]4 ) y es el


angulo de fase, o desfase.

A diferencia de las sinusoides de tiempo continuo, una sinusoide de tiempo discreto puede ser aperi
odica en t.
Lema 2.3. Una sinuoside de tiempo discreto es peri
odica si s
olo si existen n
umeros
naturales p y N , tales que
p
= 2
(2.3.9)
N
Demostraci
on
Una sinusoide discreta seno(t) es peri
odica si y s
olo si existe un n
umero natural
N tal que, para todo t N,
4 Note

la unidad de la frecuencia.

Section 2.3.

29

Se
nales de tiempo discreto

seno(t) = seno((t + N )) = seno(t) cos(N ) + cos(t) seno(N )

(2.3.10)

Para que esta igualdad se cumpla para todo t N, es necesario y suficiente que
cos(N ) = 1 ( seno(N ) = 0). Esto se cumple si y s
olo si existe p N tal que
se cumple (2.3.9).
222
De acuerdo a este lema, las sinusoidales de tiempo discreto, seno(t/7), cos(2t),
seno(te) son se
nales aperi
odicas.
Un representacion equivalente para las se
nales sinusoidales se puede obtener a
partir de la formula de Euler
A seno(t + ) = A

2.3.6

ej(t+) ej(t+)
2j

(2.3.11)

Sinusoidales con amplitud exponencial

La sinusoide con amplitud modulada exponencialmente interviene frecuentemente


describiendo el comportamiento natural de los sistemas de tiempo discreto. Esta
se
nal aparece cuando C, lo cual significa que podemos expresar en la forma
polar
= ej

(2.3.12)

t = t ej t = t cos(t ) + jt seno(t )

(2.3.13)

Entonces

Consideremos entonces la se
nal
f [t] = At seno(t + )

(2.3.14)

Naturalmente, cuando = 1, la se
nal se reduce a una sinusoide pura. Los casos
0 < < 1 (sinusoide amortiguada exponencialmente) y > 1 (sinusoide creciente
exponencialmente) se muestran en la figura 2.9.

30

Se
nales de tiempo continuo y tiempo discreto
>1

0< <1
0.8

0.6

0.4

0.2

0.2

0.4

Captulo 2

10

15

20

10

15

20

Figura 2.9. Se
nales sinusoidales de tiempo discreto con amplitud variando exponencialmente

2.4

Problemas para el lector

Problema 2.1. Dibuje los gr


aficos de las siguientes se
nales
f1 (t) = | seno(2t)|;

f2 (t) = (3t + 2)

(2.4.1)

seno(2t)
f3 (t) =
;
t

f4 (t) = r(4t 2)

(2.4.2)

Problema 2.2 (Se


nal de amplitud modulada). Suponga que la se
nal f (t) =
cos(10t) es multiplicada por otra se
nal g(t). Dibuje el gr
afico del producto f (t)g(t),
para dos casos distintos: g(t) = 0.2 seno(t) y g(t) = signo(seno(t))
Problema 2.3 (Pulsos de ancho modulado). Supongamos se tiene la secuencia
de pulsos
f (t) =

((t 3i) (t 1 g(t) 3i))

(2.4.3)

i=0

Construya un gr
afico de la se
nal f (t) para g(t) = 0, 5 seno(0, 1t).
Problema 2.4. Considere la funci
on
f (t) =

1 seno((t 2))

t2

(2.4.4)

Dibuje f (t) (use MATLAB) para diferentes valores de . Comente sus resultados

Section 2.4.

31

Problemas para el lector

Problema 2.5. Determine una expresi


on analtica para la derivada de las siguientes funciones y grafquelas
f1 (t) = 2(t 2) (t 4);

2t 4
f3 (t) = r
;
3

f2 (t) = seno 3t
(t )
3
2

(2.4.5)

f4 (t) = (r(t) 2r(t 2)) (t + 4)

(2.4.6)

Problema 2.6. Considere los gr


aficos de la figura 2.10.

f2 (t)

f1 (t)

t
1

Figura 2.10. Se
nales compuestas
Para cada se
nal:
2.6.1 Encuentre la expresi
on analtica para cada una de las se
nales.
2.6.2 Determine una expresi
on analtica para la integral en el intervalo [0, t].
Problema 2.7. Grafique las siguientes se
nales de tiempo discreto
f1 [t] = [t 2] 3[t 5]
t

f2 [t] = (0.8) cos(0.25t)


f3 [t] = 1 seno(t/8)

(2.4.7)
(2.4.8)
(2.4.9)

Problema 2.8. Suponga que la se


nal de tiempo continuo f (t) = 4 cos(t) es
muestreada cada [s]. Dibuje la se
nal de tiempo discreto f[t] = f (t) para tres
valores diferentes de : 0, 1; 1 y 2.
Problema 2.9. Considere la secuencia de n
umeros {2; 1; 2; 1; 2; 1; 2; 1; 2; 1, . . .}.
Si asocia esa secuencia al tiempo discreto, encuentre una expresi
on analtica que
describa la secuencia.

Captulo 3

ANALISIS
EN EL DOMINIO
DEL TIEMPO CONTINUO

3.1

Introducci
on

El modelo matematico central para los sistemas de tiempo continuo es la ecuacion


diferencial del sistema, EDS, la cual relaciona la entrada del sistema, u(t), con la
salida, y(t)1 . Cuando se dispone de un buen modelo lineal para un sistema, se
pueden utilizar numerosas y poderosas herramientas de analisis, sntesis y dise
no.
Por ejemplo, para resolver una EDS respecto de una entrada particular y condiciones iniciales especficas, los metodos operacionalmente mas eficientes pertenecen
probablemente al dominio del tiempo. Aprovechando tales metodos de resolucion en
el tiempo presentaremos en este captulo las soluciones generales para tiempo continuo. Suponemos que el lector tiene la preparacion previa necesaria para utilizar
esos metodos de resolucion sin necesidad de demostracion.
El estudio de las propiedades de las soluciones generales precedentes nos permitira introducir indicadores de propiedades fsicas fundamentales para los sistemas
dinamicos lineales tales como su comportamiento natural, estabilidad, velocidad relativa, ganancia y otras. Estos indicadores permitiran establecer relaciones estrechas
entre propiedades cuantitativas y cualitativas de los sistemas lineales. La aplicacion
de los indicadores construidos descritos en este captulo y en el siguiente, es mas
eficiente en el dominio de la frecuencia y por ello se realizara en los captulos posteriores a traves de las transformaciones de Fourier y de Laplace.

3.2

Ecuaci
on diferencial del sistema (EDS)

La forma general de la EDS es

1 En el caso de modelos linealizados, debe entenderse que nos referimos a la entrada incremental
u(t) y salida incremental y(t)

32

Section 3.2.

33

Ecuaci
on diferencial del sistema (EDS)

dn y(t)
dn1 y(t)
dn1
dn2
+an1
+. . .+a0 y(t) = bn1 n1 u(t)+bn2 n2 u(t)+. . .+b0 u(t)
n
n1
dt
dt
dt
dt
(3.2.1)
La solucion a esta ecuacion debe cumplir ademas con las restricciones que imponen las condiciones o estado inicial.
Para ilustrar la forma en que se llega a la EDS desarrollaremos un ejemplo.
Ejemplo 3.1. Considere la red electrica de la Figura 3.1, donde todos los componentes son lineales.

R1

i(t)

iL (t)
+

vf (t)

v(t)

R2

Figura 3.1. Red RLC


Aplicando las leyes de Kirchoff y las relaciones terminales de las componentes
electricas se llega a:
vf (t) = R1 i(t) + v(t)
Z
1 t
dv(t) v(t)
i(t) =
v( )d + C
+
L
dt
R2

(3.2.2)
(3.2.3)

Derivando ambos miembros de las ecuaciones (3.2.2) y (3.2.3) se obtiene


dvf (t)
di(t) dv(t)
= R1
+
dt
dt
dt
di(t)
1
d2 v(t)
1 dv(t)
= v(t) + C
+
dt
L
dt2
R2 dt

(3.2.4)
(3.2.5)

Combinando las ecuaciones (3.2.4) y (3.2.5) se llega finalmente a


1
1 dvf (t)
d2 v(t) R1 + R2 dv(t)
+
+
v(t) =
(3.2.6)
2
dt
R1 R2 C dt
LC
R1 C dt
Este modelo tiene la estructura de la ecuaci
on (3.2.1) with u(t) = vf (t), y(t) =
v(t), n = 2, y
a1 =

R1 + R2
;
R1 R2 C

a0 =

1
;
LC

b2 = 0;

b1 =

1
;
R1 C

b0 = 0

(3.2.7)

34

An
alisis en el dominio del tiempo continuo

Captulo 3

Es importante adem
as hacer notar que la soluci
on v(t) debe ser tal que satisfaga
las condiciones iniciales impuestas por la tensi
on inicial en el condensador, y la
corriente inicial en el inductor.
222
En algunos casos, conviene usar una notacion compacta, tipo operador, para denotar la operacion derivada. Por esa razon, introducimos el operador de Heaviside,
hi definido por
d f (t)
dt

dn f (t)
n hf (t)i = n f (t) = n1 hf (t)i =
dtn
hf (t)i = f (t) ,

El operador de Heaviside tiene un inverso definido por


Z t
1
hf (t)i =
f ( )d

(3.2.8)
(3.2.9)

(3.2.10)

Usando este operador, el modelo (3.2.1) puede ser escrito como


n y(t) + an1 n1 y(t) + . . . + a0 y(t) = bn n u(t) + bn1 n1 u(t) + . . . + b0 u(t)
(3.2.11)
La EDS es un modelo dinamico que establece una restriccion fundamental sobre
ciertas combinaciones de la entrada, la salida y algunas derivadas de ambas
se
nales.
Para ser mas especfico, consideremos una ecuacion diferencial de primer orden
dy
+ y(t) = u(t)
(3.2.12)
dt
Observamos en (3.2.12) que la salida y(t) no puede variar arbitrariamente, sino
que existe una restriccion. Esa restriccion dice que en un instante arbitrario, t = t1 ,
la suma de la salida y su primera derivada debe ser igual al valor que tiene la entrada
u(t1 ). Por ejemplo si u(t) = 2, t 0, e y(0) = 1, entonces necesariamente
y(0)

= 3, es decir, y(0)

> 0, por lo cual en t = 0 la salida y, esta aumentando.


Por otro lado, a medida que y(t) aumenta y se acerca a 2, entonces y(t)

sigue
siendo positiva, pero disminuye consistentemente. En el lmite, cuando y(t) = 2, la
derivada de y es cero, lo cual indica que en ese instante y(t) ya no cambia.
Introduzcamos ahora una variante en (3.2.12) :
dy
y(t) = u(t)
dt

(3.2.13)

Section 3.3.

La respuesta del sistema

35

Si nuevamente u(t) = 2, t 0, e y(0) = 1, entonces y(0)

= 1, lo cual implica
que en t = 0 la salida y esta aumentando. Sin embargo, a diferencia del caso
anterior, a medida que y aumenta, acercandose a 2, su derivada crece, es decir, y(t)
aumenta. Cuando y(t) = 2, se tiene que y(t)

= 4, y subiendo. En consecuencia,
y(t) sigue creciendo monotonicamente, pero siempre la velocidad de cambio, y(t),

debe cumplir con y(t)


= u(t) + y(t).
Ambos casos pueden ser representados por la forma general de una EDS de
primer orden
dy
+ ay(t) bu(t) = 0
(3.2.14)
dt
La forma (3.2.14) deja en evidencia el significado de restriccion que tiene la EDS.
El analisis precedente se puede aplicar a EDS mas complejas, pero en esos casos
se pierde la vision intuitiva, por ello nos conviene trasladarnos a un ambito mas
general, que es lo que hacemos a continuacion.

3.3

La respuesta del sistema

La solucion de la EDS condensa aspectos fundamentales del comportamiento del


sistema. Una aproximacion intuitiva a esta conexion indica que es esperable que
la excitacion no solo fuerce determinada conducta en la respuesta, sino que en ese
proceso revele aspectos claves de la naturaleza del sistema. Esta percepcion justifica
el observar con detencion la solucion de la EDS y algunas formas en que ella puede
ser descompuesta para su mejor comprension.

3.3.1

Componente homog
enea y componente particular

Una primera forma de escudri


nar la respuesta del sistema es descomponerla de modo
de identificar aquella parte que captura la naturaleza del sistema, componente natural u homog
enea, y la otra, que refleja la naturaleza especfica de la excitacion,
componente particular o forzada.
La componente homogenea, yh (t), satisface la ecuacion homogenea asociada a
(3.2.1), es decir
n yh (t) + an1 n1 yh (t) + . . . + a0 yh (t) = 0

(3.3.1)

Note que esta ecuacion tiene infinitas soluciones, las que pueden describirse genericamente como una familia. Los miembros de esta familia se diferencian por los
valores numericos especficos que se pueden escoger para un conjunto de n constantes
indeterminadas.
Por su parte, la componente o solucion particular es una funcion especfica del
tiempo, independiente de las condiciones iniciales, y que satisface la ecuacion (3.2.1).
La solucion completa y(t) = yh (t) + yp (t) queda totalmente determinada al usar
las condiciones iniciales, aplicadas a la respuesta completa, y(t), para calcular
las constantes indeterminadas presentes en yh (t).

36

An
alisis en el dominio del tiempo continuo

Captulo 3

Antes de proseguir con el analisis consideraremos un ejemplo.


Ejemplo 3.2. Suponga que la EDS de un sistema est
a dada por
dy(t)
+ 2y(t) = 4u(t)
dt
y que la respuesta y(t) debe satisfacer la condici
on inicial y(0) = 0, 5.
Se desea calcular la respuesta del sistema para t 0 cuando u(t) = 1.

(3.3.2)

yh (t)
La componente homogenea debe cumplir con
dyh (t)
+ 2yh (t) = 0
dt

(3.3.3)

Esta ecuaci
on es satisfecha por yh (t) = Ce2t , para cualquier valor de la constante C.
yp (t)
La componente particular yp (t) es una funci
on, independiente de las condiciones
iniciales, que debe satisfacer (3.3.2) con u(t) = 1. Una soluci
on simple es yp (t) = 2,
t 0.
De esta forma, la soluci
on completa es
y(t) = yh (t) + yp (t) = Ce2t + 2

(3.3.4)

y la constante C se calcula de modo que y(0) satisfaga la condici


on inicial y(0) =
0, 5. Por lo tanto, se obtiene C = 2.5 e y(t) = 2.5e2t + 2
222
La componente natural u homogenea, yh (t) depende solo de la ecuaci
on caracterstica asociada a (3.2.1), dada por
n + an1 n1 + . . . + a1 + a0 = 0

(3.3.5)

Si las soluciones de (3.3.5) son 1 , 2 , . . . p con multiplicidad n1 , n2 , . . . , np


respectivamente, tal que n1 + n2 + . . . + np = n, entonces la forma general de yh (t)
es
yh (t) =

p X
nk
X

Cki ti1 ek t

(3.3.6)

k=1 i=1

donde los Cki son constantes arbitrarias (constantes indeterminadas) que generan
los grados de libertad necesarios para que la respuesta completa satisfaga las
condiciones iniciales.

Section 3.3.

37

La respuesta del sistema

Los valores de que satisfacen (3.3.5) son conocidos como autovalores, valores
propios , valores caractersticos o frecuencias naturales del sistema. Como la
ecuacion caracterstica de la EDS tiene coeficientes reales, cuando las soluciones
son complejas, siempre ocurren en pares conjugados.
A su vez, la funciones temporales de la forma
ti1 ek t

(3.3.7)

que aparecen en (3.3.6) se denominan modos naturales del sistema.


Los modos naturales se asocian unvocamente a las frecuencias naturales, y la
forma temporal de los primeros depende de la multiplicidad y la ubicacion de los
segundos en el plano complejo. Un mapa general, para multiplicidad uno, se aprecia
en la Figura 3.2. En esa figura se asocia una se
nal (modo natural) a cada frecuencia
natural, excepto en el caso de frecuencias complejas, en que se considera el par
conjugado.
Los modos naturales describen aspectos esenciales de un sistema lineal.
En primer lugar, los modos naturales guardan estrecha relacion con la idea de
estabilidad. Intuitivamente podemos definir la idea de estabilidad en los sistemas
lineales (o, mejor dicho, de los modelos lineales) si no existe ning
un estado inicial
acotado en magnitud, ni ning
un conjunto de excitaciones acotadas tal que alguna
se
nal en el sistema crece indefinidamente. Si consideramos solo el efecto de condiciones iniciales, resulta que la estabilidad requiere que los modos naturales sean
todos acotados. Mas a
un, la estabilidad de un sistema requiere que todos los modos
naturales decaigan en el tiempo.
Como cada modo natural depende de una frecuencia natural, son estas, es decir,
las races de la ecuacion caracterstica del sistema, las que determinan la estabilidad
del sistema. Consideremos el caso de un modo de la forma generica
yh1 (t) = Cet ;

(3.3.8)

Sea = + jo , entonces
yh1 (t) = Cet = Cet ejo t = Cet (cos(o t) + j sin(o t))

(3.3.9)

De la expresion anterior se observa que yh1 (t) decae a medida que el tiempo
transcurre si y solo si et decae, y esto ocurre si y solo si < 0. Dicho de otra
forma, si y solo si esta en el semi plano izquierdo abierto del plano complejo. Esto
se refleja en la Figura 3.2.

38

An
alisis en el dominio del tiempo continuo

Captulo 3

Eje

Imaginario

Eje
Real

Figura 3.2. Relacion entre la ubicacion de las frecuencias naturales (de multiplicidad uno) y los modos naturales

Section 3.3.

39

La respuesta del sistema

Diremos que un modelo lineal e invariante en el tiempo es estable si y solo si


todos sus modos naturales decaen asintoticamente a ceroa , es decir, si y solo si
todas sus frecuencias naturales tienen parte real estrictamente menor que cero.
Si una o mas de las frecuencias naturales del modelo tienen parte real mayor o
igual que cero, diremos que el modelo es inestable.
a Esta

definici
on de estabilidad se conoce como estabilidad asint
otica

Definimos, en consecuencia, la regi


on de estabilidad en el plano complejo,
para sistemas continuos en el tiempo, como el semiplano izquierdo (SPI) abierto,
es decir excluyendo el eje imaginario. La necesidad de esta exclusion se demostrara
mas adelante. Sin embargo, el ejemplo siguiente permite apreciar el origen de las
dificultades cuando una frecuencia natural esta en el eje imaginario.
Ejemplo 3.3. Sea un sistema cuya EDS est
a dada por
dy
= 2u(t)
dt

(3.3.10)

Entonces el sistema tiene s


olo una frecuencia natural, y ella est
a ubicada en
= 0, esto significa que el modo natural que aparecer
a en la respuesta del sistema
es et = 1. As, la respuesta homogenea es yh (t) = C1 . Supongamos que la entrada
es una constante t 0, digamos u(t) = Uo , entonces la componente particular de
la respuesta es yp (t) = Uo t. De esa forma la respuesta completa es y(t) = C1 + Uo t
donde C1 debe calcularse para satisfacer la condici
on inicial. En todo caso, lo
relevante de este ejemplo es que aunque la entrada es una simple constante, la
salida crece en forma no acotada a medida que el tiempo evoluciona. El sistema es,
entonces, inestable.
222
Un segundo aspecto de interes en relacion con las frecuencias y modos naturales
guarda relacion con la velocidad de reaccion de los sistemas.
Dentro de la clase de sistemas estables, podemos distinguir diferencias notables,
no solo por la distinta naturaleza de los valores propios, sino por las velocidades
comparativas a las que decaen las componente homogeneas de la respuesta de los
distintos sistemas.
Consideremos dos sistemas con las componentes homogenas que se indican
Sistema 1
Sistema 2

yh1 (t) = C11 e2t + C12 e5t


yh2 (t) = C21 e

3t

+ C22 e

7t

(3.3.11)
(3.3.12)

Vemos que yh1 (t) esta dominada por el modo natural e2t porque esta se
nal
decae mas lentamente que el otro modo natural e5t . Por su parte, yh2 (t) esta
dominada por el modo natural e3t , el que decae mas lentamente que el modo e7t .
As diremos que el Sistema 1 tiene una frecuencia natural dominante igual a
2, con un modo natural dominante e2t . A su vez, el Sistema 2 tiene una

40

An
alisis en el dominio del tiempo continuo

Captulo 3

frecuencia natural dominante igual a 3, con un modo natural dominante e3t .


Al comparar ambos sistemas podemos concluir, en primera aproximacion, que el
Sistema 1 es mas lento que el Sistema 2, porque su modo dominante decae mas
lentamente.
En general, si = || + jo , el modo natural tiene la forma
et = e||t (cos(o t) + j seno(o t))

(3.3.13)

De esta ecuacion se observa que este modo decae mas rapidamente cuanto mas
grande es ||. As, los sistemas son mas rapidos cuanto mas alejados del eje imaginario estan sus frecuencias naturales dominantes.
La componente particular de la respuesta, yp (t), es una funcion estrechamente
ligada a la entrada, u(t). Un caso simple, en que podemos apreciar esta relacion,
es cuando u(t) puede describirse como una combinacion lineal de funciones de la
forma ei t , es decir,
u(t) =

`
X

Bi ei t

(3.3.14)

i=1

donde los i0 s son distintos y ninguno de ellos coincide con alguna frecuencia natural.
Cada una de las funciones ei t recibe el nombre de modo forzante.
Se puede verificar, usando la linealidad del sistema, que la solucion particular,
yp (t), esta dada por

yp (t) =

`
X

ypi (t);

con ypi (t) = Ki Bi ei t

(3.3.15)

i=1

y donde
Pn1
bk (i )k
Ki = Pk=0
n
l
l=0 al (i )

(3.3.16)

La respuesta yp (t) contiene modos forzados. Bajo las suposiciones de mas arriba,
relativos a que los i0 s son distintos de las frecuencias naturales, todos los modos
forzados coinciden con modos forzantes.
Observe que podemos identificar a Ki con una ganancia asociada al modo
forzante i-esimo. Cuando el modo forzante es una constante, es decir, et = 1, se
habla de la ganancia a continua.
Para facilitar la comprension del concepto de ganancia a modos, consideremos
un ejemplo.
Ejemplo 3.4. La EDS de un sistema lineal es
dy
+ 3y(t) = 2u(t);
dt

entonces

a1 = 1; a0 = 3; b0 = 2

(3.3.17)

Section 3.3.

41

La respuesta del sistema

Supongamos que la entrada es u(t) = 5 + 4 cos(t + /4), entonces podemos


expresarla como
u(t) =

3
X

Bi ei t = 5e1 t + 2ej 4 e2 t + 2ej 4 e3 t

(3.3.18)

i=1

donde 1 = 0, 2 = j y 3 = j, es decir, hay tres modos forzantes presentes.


Las ganancias est
an dadas por (3.3.16), y para este caso particular
b0
2
=
1 + a0
3
b0
2
K2 =
= 0.3180 j0.3330 = 0.4604ej0.8084
=
2 + a0
j + 3
b0
2
K3 =
=
= 0.3180 + j0.3330 = 0.4604ej0.8084
3 + a0
j + 3

K1 =

(3.3.19)
(3.3.20)
(3.3.21)

222
El tratamiento general de la solucion particular sera pospuesto para captulos
futuros; pero en el intertanto podemos establecer un hecho trascendente

Los sistemas lineales exhiben ganancias distintas para modos forzantes distintos,
y esta capacidad de discriminacion es la base para el analisis y dise
no de sistemas
de procesamiento de se
nales y para otras aplicaciones.

3.3.2

Respuesta a estado inicial y respuesta a entrada

Una forma alternativa de descomponer la respuesta de un sistema es considerar


por separado la componente de la respuesta debida al estado inicial, yx (t), y la
componente de la respuesta debida a la entrada, yu (t), es decir
y(t) = Thhxo , u(t)ii = Thhxo , 0ii + Thh0, u(t)ii
| {z } | {z }
yx (t)

(3.3.22)

yu (t)

En consecuencia, yx (t) satisface


n yx (t) + an1 n1 yx (t) + . . . + a0 yx (t) = 0

(3.3.23)

sujeta a las condiciones iniciales definidas en el vector xo . Esto significa


que yx (t) es una combinacion lineal de modos naturales, en donde las constantes
dependen de las condiciones iniciales (las que deben ser satisfechas por la soluci
on
completa de la EDS).
A su vez, la respuesta a entrada, yu (t), es una solucion de la EDS con condiciones
iniciales iguales a cero, es decir, satisface

42

An
alisis en el dominio del tiempo continuo

Captulo 3

dn yu (t)
dn1 yu (t)
dn1
dn2
+a
+.
.
.+a
y
(t)
=
b
u(t)+b
u(t)+. . .+b0 u(t)
n1
0
u
n1
n2
dtn
dtn1
dtn1
dtn2
(3.3.24)
sujeta a condiciones iniciales cero. Para poder cumplir la restriccion que imponen estas condiciones, yu (t) debe contener, ademas de los modos forzados, una
combinacion lineal de modos naturales cuyas constantes son calculadas de modo
que se cumpla aquella restriccion.
Una descripcion pictorica comparativa, incluyendo las componentes homogenea
y particular se puede observar en la tabla 3.1.
yh (t)
modos naturales
modos forzados

yp (t)

yx (t)

yu (t)

Tabla 3.1. Presencia de modos en descomposiciones de la respuesta


Es ademas importante el notar que
y(t) = yh (t) + yp (t) = yx (t) + yu (t)

(3.3.25)

No obstante, en general, yh (t) 6= yx (t) e yp (t) 6= yu (t).


Afianzaremos estas ideas con el ejemplo 3.2 con que ejemplificamos la descomposicion en componente homogenea y particular.
Ejemplo 3.5. Suponga que la EDS est
a dada por
dy(t)
+ 2y(t) = 4u(t)
dt
y que la respuesta y(t) debe satisfacer la condici
on inicial y(0) = 0, 5.
Se desea calcular la respuesta del sistema para u(t) = 1 para t 0.

(3.3.26)

yx (t)
La respuesta a estado inicial debe cumplir con
dyx (t)
+ 2yx (t) = 0
(3.3.27)
dt
y con yx (0) = 0, 5 Esta ecuaci
on es satisfecha por yx (t) = Ce2t , con C = 0.5
yu (t)
La respuesta a entrada, yu (t), es una soluci
on para (3.3.26) con u(t) = 1, y sujeta
a yu (0) = 0.

Section 3.3.

43

La respuesta del sistema

De esta forma, la soluci


on completa es
yu (t) = yuh (t) + yup (t)

(3.3.28)

donde yuh (t) es una soluci


on de la ecuaci
on homogenea, es decir yuh (t) = Cu e2t ,
e yup (t) es la soluci
on particular yup (t) = 2. Cu se calcula de modo de obtener
yu (0) = 0, lo cual conduce a Cu = 2.
Finalmente
yx (t) = 0, 5e2t
yu (t) = 2e

2t

(3.3.29)

+2

(3.3.30)
2t

y(t) = yx (t) + yu (t) = 2.5e

+2

(3.3.31)

Ahora podemos aplicar la tabla 3.1 a este ejemplo. El resultado aparece en la


tabla 3.2.
yh (t)
modos naturales
modos forzados

yp (t)

2, 5e2t
2

yx (t)

yu (t)

0, 5e2t

2e2t
2

Tabla 3.2. Presencia de modos en descomposiciones de la respuesta del ejemplo

222
Las dos descomposiciones de la respuesta del sistema que se han desarrollado
permiten observar esa respuesta desde dos perspectivas diferentes
En la descomposicion componente homogenea- componente particular se observa la estructura de la respuesta. En efecto, en esa particion queda en
evidencia la presencia de dos tipos de modos: modos naturales (incluidos en
la componente homogenea) y modos forzados (incluidos en la componente
particular).
En la descomposicion respuesta a estado inicial-respuesta a entrada se separan
los efectos de las dos causantes de que el sistema tenga una respuesta: las
condiciones iniciales y las excitaciones o entradas aplicadas.
Note que aunque las condiciones iniciales sean iguales a cero, a
un as, los modos naturales se encuentran presente en la respuesta (en este caso solo aparece la
componente debida a la entrada, yu (t)).
Para cerrar esta seccion consideraremos un ejemplo donde estos conceptos adquieren un significado mas concreto.

44

An
alisis en el dominio del tiempo continuo

Captulo 3

Ejemplo 3.6. En el circuito de la Figura 3.3 las componentes (escaladas, por


simplicidad) tienen los siguientes valores
R1 = 2[];

R2 = 1[];

iL (t)

L = 1[H];

R1

i (t)

(3.3.32)

+
vf (t)

C = 0, 5[F ]

i (t)

R2

vc (t)

Figura 3.3. Red lineal con condiciones iniciales


En esta red, la entrada es vf (t), la salida ha sido elegida como vc (t) y el estado inicial es descrito por xo = [iL (0) vc (0)]T . Entonces usando el operador de
Heaviside (y su inverso) tenemos que las ecuaciones de mallas llevan a
Z I =E

(3.3.33)

donde

1
R + L + 1
4 1
C

Z=
1
1
C

1 1

C
;

1 1
+ R2
C

i (t)
4
;
I=

i (t)

v (t)
4 f
(3.3.34)
E=

En MAPLE esto se puede resolver usando el siguiente c


odigo
>with(linalg);
>Z:=array(1..2,1..2,[[2+rho+2/rho,-2/rho],[-2/rho,2/rho+1]]);
>Zi:=inverse(Z);
De donde resulta
Z 1 =

1
2+
2
2 + 4 + 6

2
2 + 2 + 2

(3.3.35)

Resolviendo para i (t) se obtiene


( 2 + 4 + 6)i (t) = ( + 2)vf (t)

(3.3.36)

Dado que vc (t) = 1 i (t), la EDS es


d 2 vc (t)
d vc (t)
d vf (t)
+4
+ 6vc (t) =
+ 2vf (t)
dt 2
dt
dt

(3.3.37)

Section 3.3.

La respuesta del sistema

45

Supongamos que las condiciones iniciales son vc (0) = 5 [V ], iL (0) = 3 [A] y que
vf (t) = 10 [V ]. Primero notamos que, al aplicar LCK en la superficie A, se tiene
que

1
vc (0)
v c (0) =
iL (0)
= 4 [V ]
(3.3.38)
C
R2
La soluci
on total se puede calcular usando el siguiente c
odigo MAPLE
>v_f(t):=10:
>eds:=diff(v_c(t),t,t)+4*diff(v_c(t),t)+6*v_c(t)-diff(v_f(t),t)-2*v_f(t)=0;
>dsolve({eds,v_c(0)=5,D(v_c)(0)=-4},v_c(t));
arrojando como resultado

10 5 2t
1 2t
+ e
cos( 2t)
2e
seno( 2t)
(3.3.39)
3
3
3
Entonces las distintas componentes de la respuesta vc (t) tiene los siguientes valores
e interpretaciones.
vc (t) =

(a) La componente particular, vcp (t) es aquella componente de vf (t) que contiene
s
olo los modos forzados por la excitaci
on constante, es decir, es la componente
continua de vc (t), en este caso vcp (t) = 10/3[V ]. Note que esta componente
se puede calcular usando un divisor de tensiones, y que la ganancia a modo
constante de la red es igual a 1/3.
(b) La componente homogenea, vch (t), es la parte de la respuesta que contiene todos
los modos naturales, en este caso
vch (t) =

5 2t
1 2t
e
cos( 2t)
2e
seno( 2t)
3
3

(3.3.40)

(c) La componente a estado inicial, vch (t), corresponde al valor que tendra vc (t)
debido s
olo a la corriente inicial en el inductor y a la tensi
on inicial en el condensador, es decir con la fuente de tensi
on cortocircuitada. Esta componente
se puede calcular con el siguiente c
odigo MAPLE
>v_f(t):=0:
>eds:=diff(v_c(t),t,t)+4*diff(v_c(t),t)+6*v_c(t)-diff(v_f(t),t)-2*v_f(t)=0;
>dsolve({eds,v_c(0)=5,D(v_c)(0)=-4},v_c(t));
Lo cual entrega como resultado

vcx = 5e2t cos( 2t) + 3 2e2t seno( 2t)

(3.3.41)

(d) La componente a entrada, vcu (t), corresponde a la tensi


on en el condensador
cuando se aplica la fuente de tensi
on a la red inicialmente relajada. Esta
componente se puede calcular con el siguiente c
odigo MAPLE

46

An
alisis en el dominio del tiempo continuo

Captulo 3

>v_f(t):=10:
>eds:=diff(v_c(t),t,t)+4*diff(v_c(t),t)+6*v_c(t)-diff(v_f(t),t)-2*v_f(t)=0;
>dsolve({eds,v_c(0)=0,D(v_c)(0)=0},v_c(t));
de donde se obtiene
vcu (t) =

10 10 2t
10 2t
e
cos( 2t)
2e
seno( 2t)
3
3
3

(3.3.42)

222
Un comentario final sobre la respuesta del sistema es que es usual hablar de
respuesta transitoria y respuesta estacionaria. La respuesta estacionaria corresponde a la respuesta del sistema cuando ha transcurrido mucho tiempo desde el
instante inicial. Por su parte la respuesta transiente es aquella parte de la respuesta
que se extingue con el tiempo.
En el ejemplo 3.6 en la pagina 44, la respuesta estacionaria esta dada por el
modo forzado constante, mientras que la respuesta transitoria esta formada por los
modos naturales (sinusoidales amortiguadas).
La separacion en componentes estacionaria y transitoria es transversal a la idea
de modos naturales y modos forzados, y no ocurrira siempre que la respuesta estacionaria incluya solo modos forzados, e incluso es posible que la respuesta estacionaria este formada exclusivamente por modos naturales. Por ejemplo, si un sistema
tiene modos naturales sinusoidales y la entrada es una exponencial decreciente, entonces la respuesta estacionaria contendra los modos naturales sinusoidales y la
respuesta transitoria incluira el modo forzado por la exponencial.

3.4

Respuesta a se
nales de prueba

Una forma de estudiar, y comparar en forma estandarizada el comportamiento de


un sistema es determinar su respuesta para excitaciones de prueba. Entre esas
se
nales de prueba se consideran usualmente: el escalon unitario, el impulso unitario
y la se
nal sinusoidal. En esta seccion nos concentraremos en las dos primeras (la
utilizacion de la se
nal sinusoidal sera materia de estudio de un proximo captulo).

3.4.1

Respuesta a escal
on unitario

Considere la ecuacion 3.2.1. Entonces la respuesta, g(t), a un escalon unitario y


condiciones iniciales iguales a cero, se puede obtener de la siguiente forma:
Paso 1 Determine la solucion general de la ecuacion
dn go (t)
dn1 go (t)
+
a
+ . . . + a0 go (t) = 1
n1
dtn
dtn1

(3.4.1)

Note que go (t) contiene una parte natural u homogenea (combinacion lineal de
modos naturales de la forma (3.3.6)) y una componente particular o forzada.

Section 3.4.

47

Respuesta a se
nales de prueba

Para el caso a0 6= 0, go (t) tiene la forma


p

go (t) =

k
XX
1
+
Cki ti1 ek t
a0
i=1

t 0

(3.4.2)

k=1

En el caso mas general, si a0 = a1 = . . . = ap1 = 0, ap 6= 0 entonces go (t)


tiene la forma
p

go (t) =

k
1 p XX
t +
Cki ti1 ek t
p!ap
i=1

t 0

(3.4.3)

k=1

Paso 2 Calcule las constantes Cki usando la restriccion de las condiciones iniciales
iguales a cero, es decir, usando el hecho que

` hgo (t)it=0 = 0

` = 0, 1, . . . , n 1

(3.4.4)

Paso 3 Calcule las primeras n 1 derivadas de go (t). Note que, como las condiciones iniciales son cero, esas derivadas son continuas en t = 0
Paso 4 Usando las propiedades de linealidad obtenga g(t) de acuerdo a
g(t) =

n1
X

bi i hf (t)i(t)

(3.4.5)

i=0

El procedimiento anterior es ilustrado con el siguiente ejemplo.


Ejemplo 3.7. Consideremos un sistema con la EDS
2 y(t) + 5 y(t) + 4y(t) = u(t) + 2u(t)

(3.4.6)

Entonces las frecuencias naturales son soluciones de 2 + 5 + 4 = 0, es decir


1 = 4 y 2 = 1. Luego seguimos los tres pasos bosquejados previamente
Paso 1 Calculamos la soluci
on general de
2 go (t) + 5 go (t) + 4go (t) = 1

(3.4.7)

que resulta ser go (t) = 14 + C1 e4t + C2 et . Este resultado se puede obtener


con el siguiente c
odigo MAPLE.
>eds:=Diff(Diff(go(t),t),t)+ 5*Diff(go(t),t)+4*go(t)-1;
>dsolve(eds);

48

An
alisis en el dominio del tiempo continuo

Captulo 3

Paso 2 Para este ejemplo, ya que n = 1, se necesita calcular s


olo la primera derivada de go (t), la que est
a dada por
hgo (t)i = 4C1 e4t C2 et

(3.4.8)

Paso 3 Las constantes C1 y C2 se calculan a partir de las condiciones iniciales


(iguales a cero), es decir,
1
+ C1 + C2
4
= 0 = 4C1 C2

go (0) = 0 =
hgo (t)i|t=0

(3.4.9)
(3.4.10)

1
de donde C1 = 12
y C2 = 13 . Nuevamente, este resultado se puede obtener
con MAPLE a traves del siguiente c
odigo

>eds:=Diff(Diff(go(t),t),t)+ 5*Diff(go(t),t)+4*go(t)-1;
>dsolve({eds, go(0)=0,D(go)(0)=0},go(t));
Paso 4 La respuesta a escal
on unitario est
a entonces dada por
g(t) = 2go (t) hgo (t)i =

3.4.2

1 1 4t
+ e
et
2 2

(3.4.11)

Respuesta a impulso unitario

Considere la ecuacion 3.2.1. Entonces la respuesta a un impulso de area unitaria,


(t), y condiciones iniciales iguales a cero, se puede obtener a partir de la respuesta
a escalon unitario. Esta estrategia se basa en que el sistema representado por la
EDS (3.2.1) es lineal e invariante en el tiempo2 .
De esta forma se tiene la situacion descrita en la figura 3.4.

(t)

S
x(0) = 0

g(t)

(t )
invarianza en
tiempo

g(t )

x() = 0

Figura 3.4. Efectos de la invarianza en el tiempo


Por lo tanto, aplicando linealidad, se llega a
2 Esta u
ltima propiedad surge del hecho que los coeficientes de la EDS son constantes en t, y
de que el argumento de las funciones es t, y no una funci
on distinta de t.

Section 3.5.

49

C
alculo de la respuesta via convoluci
on

dg(t)
Thh0, (t)ii Thh0, (t )ii
g(t) g(t )
= lim
= lim
0
0
dt

(t) (t )
= lim Thh0,
i = Thh0, D (t)ii = h(t)
0

(3.4.12)
(3.4.13)

Entonces, h(t) = dg(t)


es la respuesta a un impulso unitario con condiciones
dt
iniciales iguales a cero.
Aunque en algunos textos se propone calcular h(t) usando una estrategia similar
a la seguida para el calculo de la respuesta a escalon unitario, en general ello no
es aconsejable dada la naturaleza del impulso de Dirac. En efecto esta no es, en
rigor, una funcion y no es diferenciable, por lo cual ocurren situaciones paradojicas.
Por u
ltimo, desde el punto de vista meramente instrumental es mucho mas simple
calcular la respuesta a impulso usando la transformacion de Laplace, como se vera
en captulos proximos.
Ejemplo 3.8. Consideremos el mismo sistema descrito por (3.4.6), entonces podemos calcular h(t) derivando la respuesta a escal
on unitario en (3.4.11). As se
obtiene
h(t) =

dg(t)
= 2e4t + et
dt

t 0

(3.4.14)

222
Es importante anotar que las condiciones iniciales de un sistema son valores
nales pueden ser discontinuas en t = to . Esto es
conocidos para t = t
o , pero las se
lo que ocurre en el Ejemplo 3.8, en donde
lim h(t) = 0 6= lim h(t) = 1

t0

t0+

(3.4.15)

En una perspectiva mas general, podemos observar que dada la relacion entre
la respuesta a impulso y la respuesta a escalon, y considerando que esta u
ltima
contiene una combinacion lineal de los modos naturales del sistema (mas una constante), entonces h(t) contiene s
olo modos naturales. Conceptualmente, es
esta la caracterstica que confiere especial importancia a las respuestas a escalon
e impulso. En rigor, la respuesta a excitaciones mas complejas tambien contiene
una combinacion de modos naturales (a traves de la componente homogenea de
la respuesta), sin embargo, la presencia de estos modos se ve oscurecida por la
componente particular o forzada de la respuesta.
Veremos, en la siguiente seccion una utilidad inmediata de estas consideraciones.

3.5

C
alculo de la respuesta via convoluci
on

Supongamos que se conoce la respuesta a impulso, h(t), de un sistema lineal e invariante en el tiempo, con condiciones iniciales iguales a cero. Entonces, el siguiente
lema nos proporciona un resultado crucial en la teora de los sistemas lineales.

50

An
alisis en el dominio del tiempo continuo

Captulo 3

Lema 3.1. Considere un sistema lineal e invariante en el tiempo. Sea adem


as h(t)
la respuesta de ese sistema a un impulso unitario en la entrada, con condiciones
iniciales iguales a cero. Entonces, la respuesta y(t) del mismo sistema a una excitaci
on causal3 arbitaria, f (t), con condiciones iniciales iguales a cero4 , est
a dada
por
Z
t

f ( )h(t ) d

y(t) =

t 0

(3.5.1)

Demostraci
on
Sea i N y sea un incremento temporal, entonces, usando la propiedad de
invarianza en el tiempo, tenemos que
h(t i) = Thh0, (t i)ii

(3.5.2)

Luego, usando homogeneidad


f (i)h(t i) = Thh0, f (i)(t i)ii

(3.5.3)

Aplicando ahora superposici


on (i = 0, 1, . . .) y haciendo 0, i se convierte en
una variable continua , as se llega a
Z
Z
f ( )h(t )d = Thh0,
f ( )(t )dii
(3.5.4)
0

Finalmente, usando el Lema 2.1 y el hecho que h(t ) = 0 > t (por


causalidad), se obtiene
Z t
y(t) = Thh0, f (t)ii =
f ( )h(t )d
(3.5.5)
0

222
Por (3.5.5), y(t) se puede interpretar como una suma ponderada (por f ( )) de
respuestas a impulso h(t )
Note que dado que f (t) y h(t) son causales, entonces, la ecuacion (3.5.1) tambien
se puede escribir como
Z

y(t) =

f ( )h(t ) d =

f (t )h( ) d

t 0

(3.5.6)

Las integrales que aparecen en la ecuacion (3.5.6) son una expresion de la convoluci
on de dos funciones temporales. La definicion generica es
Z

4 Note

f1 ( )f2 (t ) d =

3 Una

f1 (t) f2 (t) =

f1 (t )f2 ( ) d

(3.5.7)

se
nal f (t) es causal si f (t) = 0 t < 0
que , en este caso, la respuesta y(t) tiene s
olo la componente debida a la entrada.

Section 3.5.

51

C
alculo de la respuesta via convoluci
on

Aparte de la propiedad de commutatividad que aparece en 3.5.7, la convolucion


tiene la propiedad de distributividad, es decir
f1 (f2 (t) + f3 (t)) = f1 (t) f2 (t) + f1 (t) f3 (t)

(3.5.8)

El uso de convolucion para la determinacion de la respuesta de un sistema lineal


tiene importancia conceptual y numerica, sin embargo, no es, en general, un procedimiento analticamente simple. Para apreciar esto u
ltimo, veremos un ejemplo.
Ejemplo 3.9. Un sistema lineal tiene una respuesta a impulso unitario, con condiciones iguales a cero, dada por h(t) = e2t (t). Determine, usando convoluci
on la
respuesta a la se
nal u(t) = (t) (t 1).
Soluci
on
La respuesta est
a dada por
Z

u( )h(t )d = e2 ( )((t ) (t 1 ) (3.5.9)

y(t) = u(t) h(t) =

La integraci
on se puede segmentar en tres intervalos:
Z 0

u( )h(t )d = 0

Z
t
1
u(t) h(t) =
u( )h(t )d = (1 e2t )

Z0 1

u( )h(t )d = (e2(t1) e2t )


2
0

t<0
(3.5.10)

0t<1
1t

Los tres casos se muestran en la Figura 3.5.

u()

u()

h(t)

u()

h(t)

h(t)

Figura 3.5. Ejemplo de descripcion grafica de la convolucion

52

An
alisis en el dominio del tiempo continuo

Captulo 3

222
Como se puede apreciar, el calculo mismo de la convolucion es complejo. En
realidad la importancia de ella se debe a que, por un lado, condensa la esencia de
la linealidad de los sistemas lineales (e invariantes en el tiempo), y por otro, es un
nexo de conexion con el analisis en el dominio de las Transformadas de Laplace y
Fourier.
Tambien se puede demostrar que la respuesta de un sistema lineal e invariante
en el tiempo se puede calcular a partir de la respuesta a escalon, como se muestra
en el el siguiente lema.
Lema 3.2. Sea una sistema lineal e invariante en el tiempo. Suponga que la respuesta de ese sistema a un escal
on unitario de entrada, con condiciones iniciales
iguales a cero, es g(t). Entonces la respuesta del sistema, bajo condiciones iniciales
iguales a cero, a una excitaci
on u(t) est
a dada por
y(t) = g(t)

du(t)
dt

(3.5.11)

Demostraci
on
La demostraci
on sigue la lnea de aquella del lema anterior. Primero tenemos
que la se
nal de entrada u(t) puede ser expresada aproximadamente como la suma
de escalones de altura diferencial, es decir5
u
(t) =

X
u((i + 1)) u(i)
(t i)

i=

(3.5.12)

donde u
(t) tiende a u(t) cuando tiende a cero. Por otro lado
g(t i) = Thh0, (t i)ii

(3.5.13)

As, si el sistema es excitado con u


(t) entonces, usando linealidad e invarianza,
se obtiene que la respuesta, y(t), est
a dada por
y(t)

X
u((i + 1)) u(i)
g(t i)

i=

(3.5.14)

Si finalmente hacemos tender a cero, el producto i se convierte en una


variable continua y tenemos que
Z
du( )
y(t) = lim y(t) =
g(t )d
(3.5.15)
0
d
Esta ecuaci
on es el resultado deseado. Note que el lmite superior puede ser
reducido a = t, ya que suponemos que el sistema es causal, por lo cual g(t )
es cero > t. Tambien, si u(t) es causal, el lmite inferior puede ser reemplazado
por cero.
222
5 Note

que el lmite superior de la suma es aunque los sumandos para i > t/Delta son cero,
debido a la presencia del escal
on (t i).

Section 3.6.

3.6

53

Problemas para el lector

Problemas para el lector

Problema 3.1. Resuelva las siguientes ecuaciones diferenciales con las condiciones iniciales que se indican
dy
+ 2y(t) = 0
dt
d 2y
dy
+7
+ 10y(t) = 0
2
dt
dt
d 2y
+ 4y(t) = 0
dt 2

y(0) = 1

(3.6.1)

y(0) = 1;
y(0) = 0;

y(0)

=2
y(0)

=1

(3.6.2)
(3.6.3)

Problema 3.2. La respuesta de un sistema lineal e invariante en el tiempo a un


escal
on unitario (con condiciones iguales a cero) est
a dada por
g(t) = 1 et + tet

t 0

(3.6.4)

3.2.1 Determine la EDS.


3.2.2 Calcule la respuesta del mismo sistema a un impulso unitario.
Problema 3.3. Determine los modos asociados a las siguientes conjuntos de frecuencias naturales
Sistema 1
Sistema 2
Sistema 3

1 = 2
1 = 3
1 = 1

2 = 2
2 = 0
2 = 1 + j2

3 = 2
3 = 0
3 = 1 j2

Problema 3.4. La respuesta de un sistema lineal e invariante en el tiempo a un


impulso unitario es h(t) = e2t (t). Usando convoluci
on calcule la respuesta del
sistema a una entrada u(t) = e3t (t)
Problema 3.5. La ecuaci
on caracterstica de un sistema est
a dada por
2 + a + 4 = 0

(3.6.5)

3.5.1 Determine el rango de valores de a que hacen estable al sistema.


3.5.2 Dentro de ese rango determine el valor de a de modo que el sistema sea lo
m
as r
apido posible.
Problema 3.6. Suponga que la respuesta de un sistema lineal a un escal
on unitario
con condiciones iniciales iguales a cero es una se
nal g(t), que se muestra en la
Figura 3.6.
3.6.1 Es el sistema estable ?

54

An
alisis en el dominio del tiempo continuo

Captulo 3

0.7
0.6

g(t)

0.5
0.4
0.3
0.2
0.1
0

10

15

Tiempo [s]

Figura 3.6. Respuesta a escalon unitario

3.6.2 Estime los modos naturales del sistema


3.6.3 Estime la ganancia al modo forzante constante

Problema 3.7. Se calculan los valores caractersticos de dos sistemas y se dibujan


en el plano complejo, como se muestra en la Figura 3.7.
Sistema 2
4

1.5

Eje imaginario

Eje imaginario

Sistema 1
2

0.5
0
0.5
1
1.5
2
2

1
0
1
2
3

1.5

0.5

0.5

4
3

Eje real

Eje real

Figura 3.7. Configuracion de frecuencias naturales de dos sistemas

3.7.1 Determine los modos naturales de cada sistema.


3.7.2 Cu
ales son las frecuencias dominantes en cada caso?
3.7.3 Cu
al de los dos sistemas es m
as r
apido?
Problema 3.8. Considere la red electrica de la Figura 3.8, en donde se ha agregado
el modelo de red para el amplificador operacional.

Section 3.6.

55

Problemas para el lector

3.8.1 Determine la ecuaci


on diferencial que relaciona la entrada vf (t) con la salida
vo (t).
3.8.2 Si A 1, es el sistema estable?
3.8.3 Repita si A 1 (o, lo que es lo mismo, si se intercambian los terminales
1 y 2).
1

R1

C
1

vf (t)

vc (t)
4

R2

vo (t)

+
Avc (t)
4

Figura 3.8. Red electrica con amplificador operacional

Problema 3.9. La ecuaci


on diferencial de un sistema es
d 2 y(t)
d y(t)
d u(t)
+7
+ 12y(t) =
+ 2u(t)
2
dt
dt
dt

(3.6.6)

Calcule la ganancia del sistema para los siguientes modos:


e2t , 1 y cos(3t)
Problema 3.10. En un sistema lineal e invariante en el tiempo se sabe que la
ganancia al modo ej2t es 0, 3 + j0, 4, y que las frecuencias naturales est
an ubicadas
en = 1 y = 0.
Calcule, si es posible, la respuesta y(t) del sistema cuando la entrada es u(t) =
2 seno(2t + /4) y las condiciones iniciales son y(0) = 0 e y(0)

= 2.

Captulo 4

ANALISIS
EN EL DOMINIO
DEL TIEMPO DISCRETO

4.1

Introducci
on

Para los sistemas de tiempo discreto el modelo matematico central es la ecuacion


de recursion del sistema, ERS, la cual relaciona la entrada del sistema, u[t], con la
salida, y[t]1 .
La ERS es una descripcion cuantitativa del sistema especialmente u
til para el
analisis numerico del mismo. Esto guarda relacion con la naturaleza de los algoritmos computacionales, en los que una iteracion se basa en los resultados de
la iteracion anterior. Por otro lado, una ERS surge tambien cuando se discretiza
el modelo para un sistema lineal de tiempo continuo, la EDS. El estudio de las
propiedades de la solucion que realizaremos en este captulo sera complementado
cuando, en captulos posteriores, se usen los metodos de transformacion de Fourier,
y la transformacion Zeta.
En este captulo, a similitud de lo que se hizo en el captulo precedente, se desarrollan herramientas de analisis que establecen relaciones estrechas entre propiedades
cuantitativas y cualitativas de los sistemas lineales (de tiempo discreto). En particular, interesa cuantificar y construir indicadores de propiedades relevantes tales
como comportamiento natural, estabilidad, velocidad relativa, ganancia y otras.

4.2

Ecuaci
on de recursi
on del sistema (ERS)

La forma general de la ERS es


y[t] + an1 y[t 1] + . . . + a1 y[t n + 1] + a0 y[t n] =
bm u[t] + bm1 u[t 1] + . . . + b1 u[t m + 1] + b0 u[t m] (4.2.1)
Esta forma de la ERS es una forma en la que la causalidad se cumple sin
condiciones para cualquier par de enteros positivos n y m. Esto se aprecia por
1 En

56

el caso de un modelo linealizado, la entrada es u[t] y la salida es y[t]

Section 4.2.

Ecuaci
on de recursi
on del sistema (ERS)

57

el hecho que la salida y[t] no depende de valores futuros de la entrada, aunque s


podra depender de valores presentes de la entrada.
Cuando la salida depende solo de valores pasados de la entrada (bm = 0), se
habla de sistemas estrictamente causales.
La solucion a esta ecuacion debe cumplir ademas con las restricciones que imponen las condiciones o estado inicial. Estas condiciones iniciales se refieren usualmente a un conjunto de n valores y[i ], y[i 1], . . ., y[i n + 1], donde i = 1
o, alternativamente2 i = n 1. Note que estas alternativas no encierran aspectos
conceptuales, sino que reflejan el hecho que la eleccion del instante inicial queda al
arbitrio del observador. Una generalizacion mas amplia dice que la ecuacion (4.2.1)
puede ser resuelta si conocemos, aparte de la entrada u, un conjunto de valores de
la salida y en cualquier conjunto de n instantes.
La ERS puede aparecer como modelo de situaciones muy diferentes. Consideraremos varios casos a modo de ilustracion.
Ejemplo 4.1 (Promedio m
ovil). En estadsticas econ
omicas se suele calcular indicadores que resultan de promediar el valor de ciertas variables durante un n
umero
de perodos consecutivos 3 . Suponga que nos interesa la variable desempleo, y que
definimos el ndice de desempleo trimestral calculado como el promedio de los porcentajes de desempleos de los tres u
ltimos meses. Entonces la ecuaci
on de recursi
on
es
y[t] =

1
(u[t] + u[t 1] + u[t 2])
3

(4.2.2)
222

Ejemplo 4.2 (Discretizaci


on de ecuaciones diferenciales). Considere la ecuaci
on diferencial de primer orden
y(t) + y(t) = u(t)

(4.2.3)

Entonces, si usamos la discretizaci


on de Euler4 para la primera derivada y consideramos el tiempo discreto t = 0, , . . . ` se llega a
y((` + 1)) y(`)
+ y(`) = u(`)

(4.2.4)

y[t] + ( 1)y[t 1] = u[t 1]

(4.2.5)

Lo cual lleva a
donde y[t] = y((` + 1)), y[t 1] = y(`), u[t 1] = u(`).
222
2 El

comando rsolve de MAPLE puede usar ambas opciones.


se hace para disminuir el efecto de fen
omenos ocasionales, propios de s
olo parte del
perodo bajo an
alisis (fen
omenos estacionales)
4 Aproximaci
on de la derivada como una diferencia hacia adelante.
3 Esto

58

An
alisis en el dominio del tiempo discreto

Captulo 4

Ejemplo 4.3 (Algoritmo computacional). Considere el siguiente c


odigo de programa
input N u1=0 y1=0 y2=0 For t=1,N
input u
y=0,7*y1-0,12*y2+0,2*u1
output y
u1=u
y2=y1
y1=y
end
Entonces podemos hacer la siguiente asociaci
on de variables: u[t] = u, u[t 1] =
u1, y[t] = y, y[t 1] = y1 e y[t 2] = y2. Por lo tanto en la iteraci
on t-esima
tenemos que
y[t] = 0, 7y[t 1] 0, 12y[t 2] + 0, 2u[t 1]
(4.2.6)
222
As como ocurre con los sistemas de tiempo continuo, conviene usar una notacion
compacta, tipo operador, para denotar la operacion corrimiento temporal. Por esa
razon, introducimos el operador adelanto temporal, q definido por
4

qhf [t]i = qf [t] = f [t + 1]


q n hf [t]i = q n f [t] = f [t + n]

(4.2.7)
(4.2.8)

q ` hf [t]i = q ` f [t] = f [t `]

(4.2.9)

Usando este operador, el modelo (4.2.1) puede ser escrito como


y[t] + an1 q 1 y[t] + . . . + a1 q n+1 y[t] + a0 q n y[t] =
bm u[t] + bm1 q 1 u[t 1] + . . . + b1 q m+1 u[t] + b0 q m u[t] (4.2.10)

La ERS es un modelo dinamico que establece una restriccion fundamental sobre


ciertas combinaciones de la entrada, la salida y algunas versiones retrasadas de
ambas se
nales.
Para ser mas especficos, consideremos una ecuacion de recursion de primer
orden
y[t] 0, 5y[t 1] = u[t 1]

(4.2.11)

Observamos en (4.2.11) que la salida y[t] no puede variar arbitrariamente, sino


que existe una restriccion. Esa restriccion dice que en un instante arbitrario, t = t1 ,

Section 4.3.

La respuesta del sistema

59

la salida menos la mitad de la salida en un instante anterior debe ser igual al valor
que tena la entrada un instante anterior, u[t1 1]. Para estudiar la evolucion de
la salida del sistema conviene re-escribir (4.2.11) en la forma siguiente
y[t] y[t 1] = 0, 5y[t 1] + u[t 1]

(4.2.12)

Supongamos ahora que u[1] = 0, u[t] = 2, t 0, e y[1] = 2, entonces


necesariamente y[1] y[0] = 2, 5, es decir, y[1] y[0] > 0 por lo cual, en t = 0, la
salida y, esta aumentando. Por otro lado, a medida que y[t] aumenta y se acerca a
4, entonces y[t] y[t 1] sigue siendo positiva, pero disminuye consistentemente ya
que 0, 5y[t 1] + u[t 1] se acerca a 0. En el lmite, cuando y[t] = 4, la diferencia
y[t] y[t 1] es cero, lo cual dice que en ese instante y[t] ya no cambia.
Introduzcamos ahora una variante en (4.2.11) :
y[t] 1, 5y[t 1] = u[t 1] = y[t] y[t 1] = 0, 5y[t 1] + u[t 1]

(4.2.13)

Si nuevamente u[t] = 2, t 0, e y[1] = 2, entonces y[1] y[0] = 1, lo cual


implica que en t = 0 la salida y esta aumentando. Sin embargo, a diferencia del caso
anterior, a medida que y aumenta, acercandose a 2, su primera diferencia crece, es
decir, y[t] aumenta. Cuando y[t] = 2, se tiene que y[t] y[t 1] = 4, y subiendo.
En consecuencia, y sigue creciendo monotonicamente, pero siempre la diferencia,
y[t] y[t 1], debe cumplir con y[t] y[t 1] = 0, 5y[t 1] + u[t 1].
Ambos casos pueden ser representados por la forma general de una ERS de
primer orden
y[t] + ay[t 1] bu[t] = 0

(4.2.14)

La forma (4.2.14) deja en evidencia el significado de restriccion que tiene la ERS.


El analisis precedente se puede aplicar a ERS mas complejas, pero en esos casos
se pierde la vision intuitiva, por ello nos conviene trasladarnos a un ambito mas
general, que es lo que hacemos a continuacion.

4.3

La respuesta del sistema

La solucion de la ERS condensa aspectos fundamentales del comportamiento del


sistema. Una aproximacion intuitiva a esta conexion indica que es esperable que
la excitacion no solo fuerce determinada conducta en la respuesta, sino que en ese
proceso revele aspectos claves de la naturaleza del sistema. Esta percepcion justifica
el observar con detencion la solucion de la ERS y algunas formas en que ella puede
ser descompuesta para su mejor comprension. Note que no analizaremos el problema
de existencia y unicidad de la solucion de (4.2.1).

4.3.1

Componente homog
enea y componente particular

Una primera forma de escudri


nar la respuesta del sistema es descomponerla de modo
de identificar aquella parte que captura la naturaleza del sistema, componente nat-

60

An
alisis en el dominio del tiempo discreto

Captulo 4

ural u homog
enea, y la otra, que refleja la naturaleza especfica de la excitacion,
componente particular o forzada.
La componente homogenea, yh [t], satisface la ecuacion homogenea asociada a
(4.2.1), es decir
yh [t] + an1 q 1 yh [t] + . . . + a0 q n yh [t] = 0

(4.3.1)

Antes de proseguir con el analisis consideraremos un ejemplo.


Ejemplo 4.4. Suponga que la ERS est
a dada por
y[t] 0, 5y[t 1] = u[t 1]

(4.3.2)

y que la respuesta y[t] debe satisfacer la condici


on inicial y[0] = 1.
Se desea calcular la respuesta del sistema cuando u[t] = 1 para t 0.
yh [t]
La componente homogenea debe cumplir con
y[t] 0, 5y[t 1] = 0

(4.3.3)

Esta ecuaci
on es satisfecha por yh [t] = C(0, 5)t , para cualquier valor de la constante C. Esto se verifica reemplazando yh [t] en (4.3.3)

C(0, 5)t 0, 5C(0, 5)t1 = C (0, 5)t (0, 5)t = 0

(4.3.4)

yp [t]
La componente particular yp [t] es una funci
on, independiente de las condiciones
iniciales, que debe satisfacer (3.3.2) con u[t] = 1. Como la entrada es una constante,
una soluci
on tentativa es suponer que la soluci
on particular tambien es constante,
digamos yp [t] = Co . Si esta suposici
on es correcta, entonces existe Co constante
que satisface (4.3.2) y puede ser calculada reemplazando yp [t] = Co y u[t] = 1 en
(4.3.2)
Co 0, 5Co = 1 = Co = 2

(4.3.5)

Entonces la soluci
on completa es y[t] = yh [t] + yp [t] = 2 + C(0, 5)t . La constante
C se calcula de modo que y[1] = 1
y[1] = 1 = 2 + C(0, 5)1 = C =

3
2

(4.3.6)

Por lo tanto la soluci


on completa est
a dada por
3
y[t] = 2 (0, 5)t
2

(4.3.7)

Section 4.3.

61

La respuesta del sistema

222
Volvamos ahora al problema general de calcular la componente homogenea de
la respuesta del sistema. Para ello repetimos la ecuacion homogenea (4.3.1)
yh [t] + an1 q 1 yh [t] + . . . + a0 q n yh [t] = 0

(4.3.8)

La solucion para (4.3.8) puede ser construida en torno al siguiente lema


Lema 4.1. La funci
on f [t] = Cto (o 6= 0) satisface (4.3.8) para cualquier constante C C si y s
olo si o C satisface la ecuaci
on caracterstica asociada a
la ecuaci
on homogenea
4

pq () = n + an1 n1 + . . . + a1 + a0 = 0

(4.3.9)

donde
pq () =

a` `

con an = 1

(4.3.10)

`=0

es conocido como el polinomio caracterstico asociado a la ERS.


Demostraci
on
Reemplazando f [t] en (4.3.8) se obtiene

n
+ . . . + a1 o + a0 = 0
Ctn
o + an1 n1
o
o

(4.3.11)

Por un lado (suficiencia) se ve que si o satisface (4.3.9), entonces f [t] satisface


la ecuaci
on homogenea.
Por otro lado (necesidad), si f [t] satisface la ecuaci
on homogenea, entonces
(4.3.11) debe cumplirse t y dado que o 6= 0, entonces pq (o ) = 0
222
Supongamos que las n races de pq () son distintas, entonces la solucion homogenea tiene la forma
n
X
yh [t] =
Ci ti
(4.3.12)
i=1

Un caso mas complejo ocurre cuando algunas races de pq () son repetidas. El


lema que sigue se refiere al caso de races dobles.
Lema 4.2. Si el polinomio caracterstico pq () tiene una raz doble, digamos en
= 1 , entonces la funci
on f2 [t] = Ctt1 satisface la ecuaci
on homogenea (4.3.8).
Demostraci
on
Primero notamos que si pq () tiene una raz doble en = 1 , entonces

n
X
d pq ()
a` ``1 = 0; con an = 1
=
d =1
`=0

(4.3.13)

62

An
alisis en el dominio del tiempo discreto

Captulo 4

Luego, reemplazamos yh [t] por f2 [t] en el lado izquierdo de (4.3.8), para demostrar que es igual a cero.
n
X
`=0

a` yh [t n + `] =

n
X

a` (t n + `)tn+`
1

(4.3.14)

`=0

= (t n)tn
1

n
X

a` `1 + tn+1
1

`=0

= (t

n)tn
1

n
X

a` ``1
1

(4.3.15)

d pq ()
d =1
|
{z
}

(4.3.16)

`=0

pq (1 ) +tn+1
1
| {z }
0

Con lo cual el lema queda demostrado.


222
El lector es invitado a demostrar el siguiente lema.
Lema 4.3. Si el polinomio caracterstico pq () tiene una raz de multiplicidad n1 en
on homogenea (4.3.8)
= 1 , entonces la funci
on fn [t] = Cti t1 satisface la ecuaci
para i = 0, 1, . . . , n1 1
222
De los resultados precedentes se puede ver que la ecuacion homogenea tiene
infinitas soluciones, las que pueden describirse genericamente como una familia.
Los miembros de esta familia se diferencian por los valores numericos especficos
que se pueden escoger para un conjunto de n constantes indeterminadas. De la
ecuacion (4.3.8) se observa que podemos escoger libremente un conjunto de valores
arbitrarios para y[1], y[2], . . ., y[n]. Por cada conjunto elegido hay una solucion
distinta.
Por su parte, la componente o solucion particular es una funcion del tiempo
completamente determinada, es decir, independiente de las condiciones iniciales, y
que satisface la ecuacion (3.2.1). La solucion completa y[t] = yh [t] + yp [t] queda
totalmente determinada al usar las condiciones iniciales, aplicadas a la respuesta
completa, y[t], para calcular las constantes indeterminadas presentes en yh [t].
Si las soluciones de (4.3.9) son 1 , 2 , . . . p con multiplicidad n1 , n2 , . . . , np
respectivamente, tal que n1 + n2 + . . . + np = n, entonces la forma general de yh [t]
es
yh [t] =

p X
nt
X

C`i ti1 t`

(4.3.17)

`=1 i=1

donde los C`i son constantes arbitrarias (constantes indeterminadas) que generan
los grados de libertad necesarios para que la respuesta completa satisfaga las
condiciones iniciales.

Section 4.3.

63

La respuesta del sistema

Los valores de que satisfacen (4.3.9) son conocidos como autovalores, valores
propios o frecuencias naturales del sistema. Como la ecuacion caracterstica de la
ERS tiene coeficientes reales, cuando las soluciones son complejas, siempre ocurren
en pares conjugados.
A su vez, la funciones temporales de la forma
ti1 t`

(4.3.18)

que aparecen en (4.3.17) se denominan modos naturales del sistema.


Los modos naturales se asocian unvocamente a las frecuencias naturales, y la
forma temporal de los primeros depende de la ubicacion de los segundos en el plano
complejo. Un mapa general se aprecia combinando las Figuras 4.1 y 4.2 . En ambos
gr
aficos se ha dibujado la circunferencia de radio unitario con centro en el origen.
La separacion se ha hecho solo por proposito de mayor claridad grafica. En esas
figuras se asocia una se
nal (modo natural) a cada frecuencia natural, excepto en el
caso de frecuencias complejas, en cuyo caso, se considera el par conjugado.
Los modos naturales describen aspectos esenciales de un sistema lineal.
En primer lugar, los modos naturales guardan estrecha relacion con la idea de
estabilidad. Intuitivamente podemos definir la idea de estabilidad en los sistemas
lineales (o, mejor dicho, de los modelos lineales) si no existe ning
un estado inicial
acotado en magnitud, ni ning
un conjunto de excitaciones acotadas tal que alguna
se
nal en el sistema crece indefinidamente. Si consideramos solo el efecto de condiciones iniciales, resulta que la estabilidad requiere que los modos naturales sean
todos acotados. Mas a
un, la estabilidad de un sistema requiere que todos los modos
naturales decaigan en el tiempo.
Como cada modo natural depende de una frecuencia natural, son estas, es decir,
las races de la ecuacion caracterstica, las que determinan la estabilidad del sistema.
Consideremos el caso de un modo de la forma generica
yh1 [t] = Ct ;

(4.3.19)

Sea = ej , entonces
yh1 [t] = Ct = C t ejt = C t (cos(t) + j sin(t))

(4.3.20)

De la expresion anterior se observa que yh1 [t] decae a medida que el tiempo
transcurre si y solo si t decae, y esto ocurre si y solo si || = < 1. Dicho de
otra forma, si y solo si esta al interior del crculo o disco unitario (excluyendo su
borde). Esto se refleja los modos que aparecen en la Figura 4.1 y, por contradiccion,
en la Figura 4.2.

64

An
alisis en el dominio del tiempo discreto

Captulo 4

Figura 4.1. Relacion entre la ubicacion de las frecuencias naturales (de multiplicidad uno) y los modos naturales (caso decreciente).

Section 4.3.

65

La respuesta del sistema

Figura 4.2. Relacion entre la ubicacion de las frecuencias naturales (de multiplicidad uno) y los modos naturales (caso no decreciente).

66

An
alisis en el dominio del tiempo discreto

Captulo 4

Diremos que un modelo lineal e invariante en el tiempo (discreto) es estable si


y solo si todos sus modos naturales decaen asintoticamente a ceroa , es decir, si
y solo si todas sus frecuencias naturales tienen magnitud estrictamente menor
que uno. Si una o mas de las frecuencias naturales del modelo tienen magnitud
mayor o igual que uno, diremos que el modelo es inestable.
a Esta

definici
on de estabilidad se conoce como estabilidad asint
otica

Definimos, en consecuencia, la regi


on de estabilidad en el plano complejo,
para sistemas de tiempo discreto, como el crculo unitario abierto, es decir excluyendo la circunferencia unitaria. La necesidad de esta exclusion se demostrara
mas adelante. Sin embargo, el ejemplo siguiente permite apreciar el origen de las
dificultades cuando una frecuencia natural esta en la circunferencia unitaria.
Ejemplo 4.5. Sea un sistema cuya ERS est
a dada por
y[t] y[t 1] = 2u[t 1]

(4.3.21)

Entonces el sistema tiene s


olo una frecuencia natural, y ella est
a ubicada en
= 1, esto significa que el modo natural que aparecer
a en la respuesta del sistema
es t = 1. As, la respuesta homogenea es yh [t] = C1 . Supongamos que la entrada
es una constante t 0, digamos u[t] = Uo , entonces la componente particular de la
respuesta es yp [t] = 2Uo t. De esa forma la respuesta completa es y[t] = C1 + 2Uo t
donde C1 debe calcularse para satisfacer la condici
on inicial. En todo caso, lo
relevante de este ejemplo es que aunque la entrada es una simple constante, la
salida crece en forma no acotada a medida que el tiempo evoluciona. El sistema es,
entonces, inestable.
Podemos apreciar mejor la naturaleza de este sistema, si (4.3.21) es escrita
como
y[t] = y[t 1] + 2u[t 1]
(4.3.22)
Esta ecuaci
on puede ser asociada con el c
aculo de una integral por aproximaci
on
rectangular cuando el ancho de los rect
angulos es 2. Al final, el resultado del ejemplo
muestra que la integral de un escal
on es una rampa.
222
Un segundo aspecto de interes en relacion con las frecuencias y modos naturales
guarda relacion con la velocidad de reaccion de los sistemas.
Dentro de la clase de sistemas estables, podemos distinguir diferencias notables,
no solo por la distinta naturaleza de los valores propios, sino por las velocidades
comparativas a las que decaen las componente homogeneas de la respuesta de los
distintos sistemas.
Sistema 1
Sistema 2

yh1 [t] = C11 0, 9t + C12 0, 5t


t

yh2 [t] = C21 0, 2 + C22 0, 7

(4.3.23)
(4.3.24)

Section 4.3.

67

La respuesta del sistema

Vemos que yh1 [t] esta dominada por el modo natural 0, 9t porque esta se
nal
decae mas lentamente que el otro modo natural 0, 5t . Por su parte, yh2 [t] esta
dominada por el modo natural 0, 7t , el que decae mas lentamente que el modo 0, 2t .
As diremos que el Sistema 1 tiene una frecuencia natural dominante igual a
0, 9, con un modo natural dominante 0, 9t . A su vez, el Sistema 2 tiene una
frecuencia natural dominante igual a 0, 7, con un modo natural dominante 0, 7t .
Al comparar ambos sistemas podemos concluir, en primera aproximacion, que el
Sistema 1 es mas lento que el Sistema 2, porque su modo dominante decae mas
lentamente.
En general, si = ej , con 0 < 1, el modo natural tiene la forma
t = t (cos(t) + j seno(t))

(4.3.25)

De esta ecuacion se observa que este modo decae mas rapidamente cuanto mas
peque
no es . As, los sistemas estables son mas rapidos cuanto mas cercanos al
origen del plano complejo estan sus frecuencias naturales dominantes.
La componente particular de la respuesta, yp [t], es una funcion estrechamente
ligada a la entrada, u[t]. Un caso simple, en que podemos apreciar esta relacion, es
cuando u[t] puede describirse como una combinacion lineal de funciones de la forma
it , es decir,
u[t] =

`
X

Bi it

(4.3.26)

i=1

donde los i0 s son distintos enter s y ninguno de ellos coincide con alguna frecuencia
natural. Cada una de las funciones it recibe el nombre de modo forzante.
Se puede verificar, usando la linealidad del sistema, que la solucion particular,
yp [t], esta dada por

yp [t] =

`
X

ypi [t];

con

ypi [t] = Ki Bi it

i=1

(4.3.27)
y donde
Pm
bm` (i )`
Ki = P`=0
;
n
l
l=0 anl (i )

con an = 1

(4.3.28)

La respuesta yp [t] contiene modos forzados. Bajo las suposiciones de mas arriba,
relativos a que los i0 s son distintos de las frecuencias naturales, todos los modos
forzados coinciden con modos forzantes.
Observe que podemos identificar a Ki con una ganancia asociada al modo
forzante i-esimo. Cuando el modo forzante es una constante, es decir, t = 1t , se
habla de la ganancia a continua o ganancia a frecuencia cero.

68

An
alisis en el dominio del tiempo discreto

Captulo 4

Para facilitar la comprension del concepto de ganancia a modos, consideremos


un ejemplo.
Ejemplo 4.6. Considere la ERS lineal
y[t] 0, 5y[t 1] = 2u[t 1];

n = m = 1; a1 = 1; a0 = 0, 5; b0 = 2
(4.3.29)
Supongamos que la entrada es u[t] = 5 + 4 cos(t/4 + /7), entonces podemos
expresarla como
u[t] =

3
X

entonces

Bi ei t = 51t + 2ej 7 2t + 2ej 7 3t

(4.3.30)

i=1

donde 1 = 1, 2 = ej 4 y 3 = ej 4 , es decir, hay tres modos forzantes presentes.


Las ganancias est
an dadas por (4.3.28), y para este caso particular
2
b0
=
=4
1 + a0
0, 5
b0 21
K2 =
= 0, 7630 j2, 605 = 2, 7144ej1,286
1 + a0 21
K1 =

K3 =

b0 21
= 0, 7630 + j2, 605 = 2, 7144ej1,286
1 + a0 21

(4.3.31)
(4.3.32)
(4.3.33)

222
El tratamiento general de la solucion particular sera pospuesto para captulos
futuros; pero en el intertanto podemos establecer un hecho trascendente

Los sistemas lineales exhiben ganancias distintas para modos forzantes distintos,
y esta capacidad de discriminacion es la base para el analisis y dise
no de sistemas
de procesamiento de se
nales y para otras aplicaciones.

4.3.2

Respuesta a estado inicial y respuesta a entrada

Una forma alternativa de descomponer la respuesta de un sistema es considerar


por separado la componente de la respuesta debida al estado inicial, yx [t], y la
componente de la respuesta debida a la entrada, yu [t], es decir
y[t] = Thhxo , u[t]ii = Thhxo , 0ii + Thh0, u[t]ii
| {z } | {z }
yx [t]

(4.3.34)

yu [t]

En consecuencia, yx [t] satisface


yx [t] + an1 q 1 yx [t] + . . . + a0 q n yx [t] = 0

(4.3.35)

Section 4.3.

69

La respuesta del sistema

sujeta a las condiciones iniciales definidas en un vector xo . Esto significa


que yx [t] es una combinacion lineal de modos naturales, en donde las constantes
dependen de las condiciones iniciales (las que deben ser satisfechas por la soluci
on
completa de la ERS).
A su vez, la respuesta a entrada, yu [t], es una solucion de la ERS con condiciones
iniciales iguales a cero, es decir, satisface
yu [t] + an1 q 1 yu [t] + . . . + a0 q n yu [t] = bm u[t] + bm1 q 1 u[t] + . . . + b0 q m u[t]
(4.3.36)
sujeta a condiciones iniciales cero. Para poder cumplir la restriccion que imponen estas condiciones, yu [t] debe contener, ademas de los modos forzados, una
combinacion lineal de modos naturales cuyas constantes son calculadas de modo
que se cumpla aquella restriccion.
Una descripcion pictorica comparativa, incluyendo las componentes homogenea
y particular se puede observar en la tabla 4.1.
yh [t]
modos naturales
modos forzados

yp [t]

yx [t]

yu [t]

Tabla 4.1. Presencia de modos en descomposiciones de la respuesta


Es ademas importante el notar que
y[t] = yh [t] + yp [t] = yx [t] + yu [t]

(4.3.37)

No obstante, en general, yh [t] 6= yx [t] e yp [t] 6= yu [t].


Afianzaremos estas ideas a traves del ejemplo 4.4 con que ejemplificamos la
descomposicion en componente homogenea y particular.
Ejemplo 4.7. Suponga que la ERS est
a dada por
y[t] 0, 5y[t 1] = u[t 1]

(4.3.38)

y que la respuesta y[t] debe satisfacer la condici


on inicial y[1] = 1.
Se desea calcular la respuesta del sistema si u[t] = 1 para t 1.
yx [t]
La respuesta a estado inicial debe cumplir con
yx [t] 0, 5yx [t 1] = 0

(4.3.39)

70

An
alisis en el dominio del tiempo discreto

Captulo 4

y con yx [1] = 1 Esta ecuaci


on es satisfecha por yx [t] = C(0, 5)t , con C = 0, 5,
es decir
yx [t] = 0, 5(0, 5)t
(4.3.40)
yu [t]
La respuesta a entrada, yu [t], es una soluci
on para (4.3.38) con u[t] = 1, y sujeta a
yu [1] = 0.
De esta forma, la soluci
on completa es
yu [t] = yuh [t] + yup [t]

(4.3.41)

donde yuh [t] es una soluci


on de la ecuaci
on homogenea, es decir yuh [t] = Cu (0, 5)t ,
5
e yup [t] es la soluci
on particular yup [t] = 2. Cu se calcula de modo de obtener
yu [1] = 0, lo cual conduce a Cu = 1.
Finalmente
yx [t] = 0, 5(0, 5)t

(4.3.42)

yu [t] = (0, 5) + 2

(4.3.43)
t

y[t] = yx [t] + yu [t] = 1, 5(0, 5) + 2

(4.3.44)

Este resultado tambien puede ser obtenido directamente con el c


odigo MAPLE
>rsolve({y(n)=0.5*y(n-1)+1, y(-1)=-1},y(t));
Ahora podemos aplicar la tabla 3.1 a este ejemplo. El resultado aparece en la tabla
4.2.
yh [t]
modos naturales
modos forzados

yp [t]

1, 5(0, 5)t

yx [t]

yu [t]

0, 5(0, 5)t

(0, 5)t

Tabla 4.2. Presencia de modos en descomposiciones de la respuesta del ejemplo

222
Las dos descomposiciones de la respuesta del sistema que se han desarrollado
permiten observar esa respuesta desde dos perspectivas diferentes
5 Esta

soluci
on particular se puede calcular usando la ganancia al modo 1t .

Section 4.4.

Respuesta a se
nales de prueba

71

En la descomposicion componente homogenea- componente particular se observa la estructura de la respuesta. En efecto, en esa particion queda en
evidencia la presencia de dos tipos de modos: modos naturales (incluidos en
la componente homogenea) y modos forzados (incluidos en la componente
particular).
En la descomposicion respuesta a estado inicial-respuesta a entrada se separan los efectos de las dos causas de que el sistema tenga una respuesta: las
condiciones iniciales y las excitaciones o entradas aplicadas.
Note que aunque las condiciones iniciales sean cero, los modos naturales igual
se encuentran presentes en la respuesta del sistema a traves de la respuesta debida
a la entrada, yu [t].
Un comentario final sobre la respuesta del sistema es que es usual hablar de
respuesta transitoria y respuesta estacionaria. La respuesta estacionaria corresponde a la respuesta del sistema cuando ha transcurrido mucho tiempo desde el
instante inicial. Por su parte la respuesta transiente es aquella parte de la respuesta
que se extingue con el tiempo.
En el ejemplo 3.6 en la pagina 44, la respuesta estacionaria esta dada por el
modo forzado constante, mientras que la respuesta transitoria esta formada por los
modos naturales (sinusoidales amortiguadas).
La separacion en componentes estacionaria y transitoria es transversal a la idea
de modos naturales y modos forzados. La respuesta estacionaria puede existir incluso si la entrada es cero. En ese caso esta formada exclusivamente por modos
naturales. Por ejemplo, si un sistema tiene modos naturales sinusoidales y la entrada es una exponencial decreciente, entonces la respuesta estacionaria contendra
los modos naturales sinusoidales y la respuesta transitoria incluira el modo forzado
por la exponencial.
Por otro lado, si el sistema tiene ganancia cero a un modo forzante, el correspondiente modo forzado no aparecera en la respuesta estacionaria.

4.4

Respuesta a se
nales de prueba

Una forma de estudiar, y comparar en forma estandarizada el comportamiento de


un sistema es determinar su respuesta para excitaciones de prueba. Entre esas
se
nales de prueba se consideran usualmente: el escalon unitario, el impulso unitario
y la se
nal sinusoidal. En esta seccion nos concentraremos en las dos primeras (la
utilizacion de la se
nal sinusoidal sera materia de estudio de un proximo captulo).

4.4.1

Respuesta a escal
on unitario

Considere la ecuacion 4.2.1. Entonces la respuesta, g[t], a un escalon unitario y


condiciones iniciales iguales a cero6 , se puede obtener de la siguiente forma:
6 Elegimos,

por simplicidad, g[1] = g[2] = . . . = g[n] = 0

72

An
alisis en el dominio del tiempo discreto

Captulo 4

Paso 1 Determine la solucion general de la ecuacion


go [t] + an1 q 1 go [t] + . . . + a0 q n go [t] = 1

(4.4.1)

Note que go [t] contiene una parte natural u homogenea (combinacion lineal de
modos naturales de la forma (4.3.17)) y una componente particular o forzada.
Cuando el sistema no tiene frequencias naturales en = 1, go [t] tiene la forma
go [t] = Ko +

p X
n`
X

C`i ti1 t`

t n

(4.4.2)

`=1 i=1

donde Ko es la ganancia del sistema con ERS (4.4.1) al modo constante 1t ,


es decir,
1
Ko = Pn
;
con an = 1
(4.4.3)
i=0 ai
En el caso general en que el sistema tiene una frequencia natural en = 1,
con multiplicidad p, go [t] tiene la forma
go [t] = Kp t

p1

p X
n`
X

C`i ti1 t`

t n

(4.4.4)

`=1 i=1

Hemos anotado que esta expresion para go [t] es valida t n ya que satisface
las condiciones iniciales.
Paso 2 Calcule la se
nales retardadas q ` go [t], para ` = 1, 2, . . ., n.
Paso 3 Calcule las constantes C`i usando la restriccion de las condiciones iniciales
iguales a cero, es decir, usando el hecho que
q ` go [t]|t=0 = 0

` = 0, 1, . . . , n 1

(4.4.5)

Paso 4 Usando las propiedades de linealidad e invarianza, obtenga g[t] de acuerdo


a
m
X
g[t] = bm go [t] +
bmi q i go [t][t i ]
(4.4.6)
i=1

El procedimiento anterior es ilustrado con el siguiente ejemplo.


Ejemplo 4.8. Consideremos la ERS
y[t] 0, 9q 1 y[t] + 0, 2q 2 y[t] = 2u[t] + q 1 u[t]

(4.4.7)

Entonces las frecuencias naturales son soluciones de 2 0, 9 + 0, 2 = 0, es


decir 1 = 0, 5 y 2 = 0, 4.
Luego seguimos los tres pasos bosquejados previamente

Section 4.4.

73

Respuesta a se
nales de prueba

Paso 1 Calculamos la soluci


on general de
go [t] 0, 9q 1 go [t] + 0, 2q 2 go [t] = 1
10
3

(4.4.8)

que resulta ser go [t] =


+ C1 (0, 5) + C2 (0, 4) . Note que el termino
corresponde a la ganancia a continua, es decir, al modo forzante 1t .

10
3

Paso 2 Para este ejemplo, ya que n = 2, se necesita calcular go [t 1] y go [t 2]


10
10
+ C1 (0, 5)t1 + C2 (0, 4)t1 =
+ 2C1 (0, 5)t + 2, 5C2 (0, 4)t
3
3
(4.4.9)
10
10
go [t 2] =
+ C1 (0, 5)t2 + C2 (0, 4)t2 =
+ 4C1 (0, 5)t + 6, 25C2 (0, 4)t
3
3
(4.4.10)

go [t 1] =

Paso 3 Las constantes C1 y C2 se calculan a partir de las condiciones iniciales


(iguales a cero), es decir,
10
+ 2C1 + 2, 5C2
3
10
go [2] = 0 =
+ 4C1 + 6, 25C2
3

go [1] = 0 =

(4.4.11)
(4.4.12)

de donde C1 = 5 y C2 = 83 . Lo cual conduce a


go [t] =

10
8
5(0, 5)t + (0, 4)t
3
3

t 2

(4.4.13)

Este resultado se puede obtener con MAPLE a traves del siguiente c


odigo
>ers:=go(n)-0.9*go(n-1)+0.2*go(n-2)-1;
>rsolve({ers,go(-1)=0,go(-2)=0},go(t));
Paso 4 La respuesta a escal
on unitario est
a entonces dada por
g[t] = 2go [t] go [t 1][t 1]

(4.4.14)

20
16
10
8
10(0, 5)t + (0, 4)t +
5(0, 5)t1 + (0, 4)t1 [t 1] t 2
3
3
3
3
(4.4.15)

16
10
20
20
10(0, 5)t + (0, 4)t +
10(0, 5)t + (0, 4)t [t 1] t 2
=
3
3
3
3
(4.4.16)
=

74

An
alisis en el dominio del tiempo discreto

Captulo 4

Note que go [t 1][t 1] = go [t 1][t], ya que go [t 1][t]|t=0 = 0.


As tenemos que7
g[t] = 10 20(0, 5)t + 12(0, 4)t

t 0

(4.4.17)
222

4.4.2

Respuesta a impulso unitario

Considere la ecuacion 4.2.1. Entonces la respuesta a un impulso unitario, [t], y


condiciones iniciales iguales a cero, se puede obtener a partir de la respuesta a
escalon unitario. Esta estrategia se basa en que el sistema representado por la ERS
(4.2.1) es lineal e invariante en el tiempo.
Recordemos que
[t] = [t] [t 1]
(4.4.18)
Entonces, la respuesta h[t], a un impulso unitario esta dada por
h[t] = g[t] g[t 1][t 1]

t n

(4.4.19)

Como las condiciones iniciales son cero, g[t 1][t 1] = g[t 1][t], ya que
g[t 1][t]|t=0 = 0. As la respuesta a un impulso unitario con condiciones iniciales
iguales a cero esta dada por
h[t] = g[t] g[t 1]

t 0

(4.4.20)

Aunque en algunos textos se propone calcular h[t] usando una estrategia similar
a la seguida para el calculo de la respuesta a escalon unitario, en general desde el
punto de vista meramente instrumental es mucho mas simple calcular la respuesta
a impulso usando la transformacion Zeta, como se vera en captulos proximos.
Ejemplo 4.9. Consideremos el mismo sistema descrito por (4.4.7), entonces podemos calcular h[t] construyendo la primera diferencia de la respuesta a escal
on unitario en (4.4.14). As se obtiene
h[t] = 10 20(0, 5)t + 12(0, 4)t 10 + 20(0, 5)t1 12(0, 4)t1
t

= 20(0, 5) 18(0, 4)

t 0

(4.4.21)
(4.4.22)

222
En una perspectiva general, podemos observar que dada la relacion entre la
respuesta a impulso y la respuesta a escalon, y considerando que esta u
ltima contiene
una combinacion lineal de los modos naturales del sistema (mas una constante),
entonces h[t] contiene s
olo modos naturales. Conceptualmente, es esta la caracterstica que confiere especial importancia a las respuestas a escalon e impulso. En
7 Note

que esta expresi


on no es v
alida para t = 1 y t = 2

Section 4.5.

75

C
alculo de la respuesta via convoluci
on

rigor, la respuesta a excitaciones mas complejas tambien contiene una combinacion


de modos naturales (a traves de la componente homogenea de la respuesta), sin
embargo, la presencia de estos modos se ve oscurecida por la componente particular
o forzada de la respuesta.
Veremos, en la siguiente seccion una utilidad inmediata de estas consideraciones.

4.5

C
alculo de la respuesta via convoluci
on

Supongamos que se conoce la respuesta a impulso, h[t], de un sistema lineal e


invariante en el tiempo, con condiciones iniciales iguales a cero8 . Entonces, el
siguiente lema nos proporciona un resultado crucial en la teora de los sistemas
lineales de tiempo discreto.
Lema 4.4. Considere un sistema lineal e invariante en el tiempo. Sea adem
as h[t]
la respuesta de ese sistema a un impulso unitario en la entrada, con condiciones
iniciales iguales a cero. Entonces, la respuesta y[t] del mismo sistema a una excitaci
on causal9 arbitaria, u[t], con condiciones iniciales iguales a cero, est
a dada
por
t
X
y[t] =
u[`]h(t `)
t 0
(4.5.1)
`=0

Demostraci
on
Recordemos que toda se
nal u[t] puede expresarse por
u[t] =

u[`][t `]

(4.5.2)

`=0

Por otro lado, dada la invarianza del sistema tenemos que


h[t `] = Thh0, [t `]ii

(4.5.3)

u[`]h[t `] = Thh0, u[`][t `]ii

(4.5.4)

Luego, usando homogeneidad

Aplicando ahora superposici


on se llega a

u[`]h[t `] = Thh0,

`=0

u[`][t `]ii

(4.5.5)

`=0

Finalmente, usando (4.5.2) y el hecho que h[t `] = 0 ` > t (por causalidad),


se obtiene
y[t] = Thh0, u[t]ii =

t
X

u[`]h[t `]

t 0

(4.5.6)

`=0
8 Note
9 Una

que , en este caso, la respuesta y[t] tiene s


olo la componente debida a la entrada.
se
nal u[t] es causal si u[t] = 0 t < 0

76

An
alisis en el dominio del tiempo discreto

Captulo 4

222
Por (4.5.6), y[t] se puede interpretar como una suma ponderada (por u[`]) de
respuestas a impulso h[t `]
Note que dado que u[t] y h[t] son causales, entonces, la ecuacion (4.5.1) tambien
se puede escribir como

y[t] =

u[`]h[t `] =

`=

u[t `]h[`]

t 0

(4.5.7)

`=

Las sumas que aparecen en la ecuacion (4.5.7) son una expresion de la convoluci
on de dos funciones temporales. La definicion generica es
f1 [t] f2 [t] =

f1 [`]f2 [t `] =

`=

f1 [t `]f2 [`]

(4.5.8)

`=

Aparte de la propiedad de commutatividad que aparece en 4.5.8, la convolucion


tiene la propiedad de distributividad y asociatividad, es decir
f1 (f2 [t] + f3 [t]) = f1 [t] f2 [t] + f1 [t] f3 [t]

(4.5.9)

Otra propiedad fundamental de la convolucion esta dada por el siguiente lema


Lema 4.5. La convoluci
on de un se
nal con un impulso de Kronecter en el origen
es la se
nal misma, es decir
u[t] [t to ] = u[t to ]

(4.5.10)

Demostraci
on

u[t] [t to ] =

X
`=

u[`][t to `] =

u[t to ][t to `] = u[t to ] (4.5.11)

`=

Note que el u
ltimo paso de la demostraci
on se basa en que una funci
on de tiempo
discreto es un tren de impulsos de Kronecter cuya amplitud es el valor instant
aneo
de la se
nal.
222
El uso de convolucion para la determinacion de la respuesta de un sistema lineal tiene importancia conceptual y numerica, sin embargo, no es, en general, un
procedimiento analticamente simple. Es interesante observar que el calculo de la
convolucion entre dos se
nales discretas se puede ilustrar considerando dos tiras de
papel. En una se anotan los valores de la primera se
nal y, en la otra, los de la
segunda. La convolucion se realiza invirtiendo una de las tiras y retrocediendola
sobre la otra. Para cada retroceso, la convolucion corresponde a multiplicar los
valores coincidentes y sumar los productos resultantes.
Para apreciar esto u
ltimo, veremos un ejemplo.

Section 4.5.

77

C
alculo de la respuesta via convoluci
on

Ejemplo 4.10. Un sistema lineal tiene una respuesta a impulso unitario, con condiciones iguales a cero, dada por h[t] = (0, 5)t [t]. Determine, usando convoluci
on la
respuesta a la se
nal u[t] = [t] [t 3].
Soluci
on
La respuesta est
a dada por

y[t] = u[t] h[t] =

t
X

u[`]h[t `] =

t
X

(0, 5)t` [t `]([`] [` 3]) (4.5.12)

La suma o acumulaci
on se puede segmentar en tres
1
X

u[`]h[t `]d` = 0

`=

t
X
u[t] h[t] =
u[`]h[t `]d` = 2 (0, 5)t

`=0

u[`]h[t `]d` = 7(0, 5)t

intervalos:
t<0
0t<3

(4.5.13)

t3

`=0

Una resoluci
on compacta se puede desarrollar usando el hecho que la entrada se
puede expresar como la suma de tres impulsos unitarios, es decir
u[t] = [t] [t 3] = [t] + [t 1] + [t 2]

(4.5.14)

As, ahora podemos calcular la respuesta usando la propiedad de distributividad


de la convoluci
on, seguida por la aplicaci
on del Lema 4.5.
y[t] = h[t] u[t] = h(t) ([t] + [t 1] + [t 2])
t

t1

= (0, 5) [t] + (0, 5)

t2

[t 1] + (0, 5)

[t 2]

(4.5.15)
(4.5.16)

222
Como se puede apreciar, el calculo mismo de la convolucion es complejo. En
realidad la importancia de ella se debe a que, por un lado, condensa la esencia de
la linealidad de los sistemas lineales (e invariantes en el tiempo), y por otro, es un
nexo de conexion con el analisis en el dominio de las transformaciones Zeta y de
Fourier.
La convolucion en tiempo discreto es ampliamente usada para construir las respuestas de sistemas lineales, invariantes en el tiempo y causales, cuando se conoce
la respuesta a un impulso unitario. Esto se debe a la simplicidad de las expresiones
del Lema 4.4
La respuesta de un sistema lineal e invariante en el tiempo se puede calcular a
partir de la respuesta a escalon, como se muestra en el el siguiente lema.

78

An
alisis en el dominio del tiempo discreto

Captulo 4

Lema 4.6. Sea un sistema lineal e invariante en el tiempo. Suponga que la respuesta de ese sistema a un escal
on unitario de entrada, con condiciones iniciales
iguales a cero, es g[t]. Entonces la respuesta del sistema, bajo condiciones iniciales
iguales a cero, a una excitaci
on u[t] est
a dada por
y[t] = u[t] (g[t] g[t 1]) = g[t] (u[t] u[t 1])

(4.5.17)

Demostraci
on
Dado que [t] = [t][t1], entonces, por linealidad e invarianza, la respuesta
h[t], a un impulso unitario puede expresarse como
h[t] = g[t] g[t 1]

(4.5.18)

Esto lleva inmediatamente al primer resultado, dado que


y[t] = u[t] h[t] = u[t] (g[t] g[t 1])

(4.5.19)

Para demostrar la segunda parte del resultado, notamos que la se


nal de entrada,
u[t] puede expresarse como la suma de escalones incrementales, es decir
u[t] =

(u[`] u[` 1])[t `]

(4.5.20)

`=

Luego, usando la linealidad y la invarianza vemos que


y[t] = Thh0, u[t]ii =

(u[`] u[` 1])g[t `]

(4.5.21)

`=

Y, finalmente, reconocemos en la sumatoria, la forma de la convoluci


on

(u[`] u[` 1])g[t `] = g[t] (u[t] u[t 1])

(4.5.22)

`=

222

Section 4.6.

4.6

79

Problemas para el lector

Problemas para el lector

Problema 4.1. Resuelva las siguientes ecuaciones de recursi


on con las condiciones
iniciales que se indican
y[t] 0, 2y[t 2] = 0
y[t] 0, 6y[t 1] + 0, 09y[t 2] = 0
y[t + 1] 1, 3y[t] + 0, 4y[t 1] = 0
y[t] 4y[t 1] + 9y[t 2] = 0
y[t] y[t 10] = 0

y[1] = 1; y[2] = 1
y[1] = 2; y[1] = 1
y[0] = 0; y[5] = 0
y[1] = 0; y[2] = 1
y[1] = 1; y[i] = 0 i > 1

(4.6.1)
(4.6.2)
(4.6.3)
(4.6.4)
(4.6.5)

Verifique con Maple.


Problema 4.2. Calcule la respuesta a escal
on unitario, con condiciones iguales a
cero para cada una de las ERS
y[t] 0, 2y[t 2] = u[t]
y[t] 0, 6y[t 1] + 0, 09y[t 2] = u[t 1] u[t 2]
y[t] 1, 3y[t 1] + 0, 4y[t 2] = 0, 2u[t 10]
y[t] 2y[t 1] + y[t 2] = u[t]

(4.6.6)
(4.6.7)
(4.6.8)
(4.6.9)

Verifique con Maple.


Problema 4.3. Considere la se
nal
f [t] = 2(0, 6)t 2(0, 2)t

(4.6.10)

4.3.1 Proponga una ERS de modo que f [t] corresponda (t 0) a la respuesta del
sistema a impulso con condiciones iniciales iguales a cero.
4.3.2 Proponga una ecuaci
on de recursi
on homog
enea, de modo que f [t] corresponda a la respuesta a estado inicial. Especifique ese estado inicial.
Problema 4.4. La respuesta de un sistema lineal e invariante en el tiempo a un
escal
on unitario y condiciones inciales iguales a cero est
a dada por
g[t] = (1 (0, 5)t + t(0, 5)t )[t]

(4.6.11)

4.4.1 Determine la ERS.


4.4.2 Calcule la respuesta del mismo sistema a un impulso unitario.
Problema 4.5. Determine los modos asociados a las siguientes conjuntos de frecuencias naturales
Sistema 1
Sistema 2
Sistema 3

1 = 0, 2
1 = 0, 3
1 = 1

2 = 0, 2
2 = 0, 3
2 = 0, 1 + j0, 2

3 = 0, 2
3 = 2
3 = 0, 1 j0, 2

80

An
alisis en el dominio del tiempo discreto

Captulo 4

Problema 4.6. La respuesta de un sistema lineal e invariante en el tiempo a un


impulso unitario es h[t] = (0, 7)t [t]. Usando convoluci
on calcule la respuesta del
sistema a una entrada u[t] = (0, 3)t [t]
Problema 4.7. La ecuaci
on caracterstica de un sistema est
a dada por
2 + a + b = 0

(4.6.12)

4.7.1 Suponga que b = 0, 8; determine el rango de valores de a que hacen estable


al sistema.
4.7.2 Dentro de ese rango determine el valor de a de modo que el sistema sea lo
m
as r
apido posible.
4.7.3 Suponga ahora que b = 1, 2, repita 4.7.1
Problema 4.8. Suponga que la respuesta de un sistema lineal a un escal
on unitario
con condiciones iniciales iguales a cero es una se
nal g[t], que se muestra en la Figura
4.3.
4.8.1 Es el sistema estable ?
4.8.2 Estime los modos naturales del sistema
4.8.3 Estime la ganancia al modo forzante constante

g[k]

1.5

0.5

0
1

4
5
Tiempo [s]

10

Figura 4.3. Respuesta a escalon unitario

Problema 4.9. Se contrae una deuda hipotecaria de 1000 [UF] a un interes mensual de 0, 7%. Si el plazo de la deuda es de 120 meses Cu
al debiera ser el dividendo
mensual, constante, en UF?

Section 4.6.

81

Problemas para el lector

+
E

i0

i1

in2

in1

in

Figura 4.4. Red resistiva

Problema 4.10 (Problema-desafo). En la red de la figura 4.4 todas las resistencias son iguales a R.
Considere como variable independiente, no al tiempo discreto sino que al n
umero
de orden de la malla. Construya una ecuaci
on de recursi
on en las corrientes de
mallas y especifique las condiciones (inicial y final).

Captulo 5

ANALISIS
DE SISTEMAS
LINEALES BAJO

EXCITACIONES PERIODICAS

5.1

Se
nales Peri
odicas

En este captulo se analiza el caso de sistemas lineales sujetos a excitaciones periodicas


en el tiempo. Las se
nales periodicas aparecen en muchas areas de la Ingeniera, y
tambien en fenomenos naturales. En general, ellas no se presentan como oscilaciones
puras1 de una frecuencia especfica (tipo sin(t)), sino que tienen formas mas arbitrarias, como por ejemplo, se
nales triangulares, se
nales tipo dientes de sierra, trenes
de pulsos, sinusoidales rectificadas, etc.
En algunas oportunidades los fenomenos periodicos no sinusoidales resultan de
efectos parasitos indeseables, de naturaleza no lineal, en sistemas reales. Por
ejemplo, considere el caso de un sistema amplificador con entrada u(t) y salida y(t),
cuya relacion entrada-salida es
2

y(t) = Au(t) + (u(t))

(5.1.1)

donde es un n
umero peque
no mucho menor que la amplificacion A. Entonces, si
u(t) = U cos(t) la salida y(t) esta dada por
y(t) = AU cos(t) + U 2 (0, 5 + 0, 5 cos(2t))

(5.1.2)

Por lo tanto cuando la salida de este amplificador es alimentada a otro sistema,


el analisis requiere la consideracion de tres sinusoides de distinta frecuencia (0, 1 y
2 [rad/s]).
Otros casos en que las se
nales periodicas no son sinusoides puras incluyen el
corte de se
nales sinusoidales (cuando la amplitud de una sinusoide excede cierto
1 Definimos como oscilaciones puras a aquellas que se pueden describir exactamente por una
sinusoide de una u
nica frecuencia

82

Section 5.2.

Respuesta a entradas sinusoidales. El caso de tiempo continuo

83

nivel prescrito), la rectificacion de se


nales sinusoidales, la intrevencion de zonas
muertas, histeresis, etc.
Si logramos representar una funcion periodica como combinacion lineal de sinusoides de ciertas frecuencias, como es el caso de la serie de Fourier, el analisis
de los sistemas lineales se hace mas facil, dado que podemos usar las propiedades
de superposicion y homogeneidad. El concepto clave es el de ganancia a modo
forzante, desarrollado en los captulos precedentes.

5.2

Respuesta a entradas sinusoidales. El caso de tiempo continuo

Hasta el momento hemos visto la respuesta de sistemas lineales a diferentes tipos


de entradas (modos forzantes), incluyendo el caso de exponenciales de exponente
imaginario (las que combinadas dan origen a sinuosoides reales). En esta seccion nos
detendremos en la caracterstica de ganancia que exhibe un sistema lineal cuando
la excitacion es una sinuoside.
Con ese proposito consideremos un sistema lineal estable modelado por su EDS
d n y(t)
d n1 y(t)
d n1 u(t)
+
a
+
.
.
.
+
a
y(t)
=
b
+ . . . + b0 u(t)
n1
0
n1
dt n
dt n1
dt n1

(5.2.1)

donde la entrada del sistema es una se


nal sinusoidal que puede escribirse de la forma:
u(t) = A cos(t + )

(5.2.2)

Ademas (vea Captulo 2)


A es la amplitud, cuyas unidades dependen del sistema en cuestion,
es el
angulo de desfase (o simplemente fase), medido en [rad], y
es la frecuencia angular, medida en [rad/seg].

Esta u
ltima determina la frecuencia f = 2
[Hz] de la sinusoide, y su perodo
1
2
T = f = [seg].
Aplicando la formula de Euler se tiene que

A cos(t + ) = A

ej(t+) + ej(t+)
= ejt + ejt
2

(5.2.3)

donde C, es el complejo conjugado de y


=

A j
e
2

(5.2.4)

Por otra parte sabemos que si K() C es la ganancia al modo forzante ejt ,
entonces (usando la naturaleza lineal del sistema)

84

An
alisis de sistemas lineales bajo excitaciones peri
odicas

Captulo 5

Thhxo , A cos(t + )ii = K()ejt + (K()) ejt + {modos naturales} (5.2.5)

Donde K() es la ganancia a modo forzante y dada por (3.3.16), con i = j.


Si expresamos K() en su forma polar se llega a
K() = |K()|eja ()

(5.2.6)

As, se obtiene
Thhxo , A cos(t + )ii = |K()|A cos(t + + a ()) + {modos naturales} (5.2.7)
Como el sistema es estable, los modos naturales decaen a cero cuando t , as,
la respuesta estacionaria contiene solo la componente particular, es decir, contiene
solo los modos forzados y tiene la forma
y(t) = As () cos(t + s ())

(5.2.8)

Esta forma puede ser directamente calculada reemplazando (5.2.8) en la EDS.


Cuando el modo forzante es una exponencial de la forma ejt , o una sinusoidal
cos(t), la ganancia a modo forzante, K(), caracteriza lo que se denomina
respuesta en frecuencia del sistema.
El desarrollo precedente es ilustrado a traves de un ejemplo.
Ejemplo 5.1. Consideremos el sistema definido por su ecuaci
on diferencial
d 2 y(t)
d y(t)
+4
+ 13y(t) = 26u(t)
dt 2
dt
Supongamos que la entrada es u(t) = sin(t) y que todas las condiciones iniciales
son cero.
El sistema en primer lugar es estable, ya que sus frecuencias naturales se encuentran ubicadas en 1,2 = 2 j3. Con esto sabemos entonces que la soluci
on
homogenea tiene la forma
yh (t) = e2t [B1 cos(3t) + B2 sin(3t)]
Para obtener la soluci
on particular reemplazamos la soluci
on propuesta
yp (t) = As () sin(t + s ())
que es equivalente a una expresi
on de la forma
yp (t) = C1 () cos(t) + C2 () sin(t)

Section 5.2.

85

Respuesta a entradas sinusoidales. El caso de tiempo continuo

Los coeficientes C1 () y C2 () se obtienen reemplazando la soluci


on particular
propuesta y la funci
on de entrada en la ecuaci
on diferencial original y derivando:
C1 () 2 cos(t) C2 () 2 sin(t) + 4C2 () cos(t) 4C1 () sin(t)
+13C1 () cos(t) + 13C2 () sin(t) = 26 sin(t)
De aqu, igualando los coeficientes de cos(t) y de sin(t) a ambos lados, pueden
obtenerse los coeficientes C1 y C2 :
104
(13 2 )2 + (4)2
26(13 2 )
C2 () =
(13 2 )2 + (4)2

C1 () =

Si se supone = 10[rad/s] y se combinan la soluci


on homogenea y la particular,
pueden obtenerse los coeficientes por determinar de la soluci
on homogenea B1 y B2 .
La soluci
on final es:
y(t) = yh (t) + yp (t)
= e2t [0.113 cos(3t) + 0.899 sin(3t)] 0.113 cos(10t) 0.247 sin(10t)

Esta
se muestra en la Figura 5.1, donde se aprecia claramente la presencia
de una parte de la respuesta que es transiente, m
as lenta, que desaparece manteniendose s
olo una oscilaci
on sostenida de 10[rad/seg], pero de diferente amplitud
y fase que las de la se
nal original. Estos valores de As y s , que dependen de la
frecuencia , son en este caso:
p
As (10) = C1 (10)2 + C2 (10)2
= 0.272
s (10) = (C2 (10) + jC1 (10)) = (2262 j1040) = 2, 7106 [rad]

155, 31o

Una manera m
as directa para obtener una descripci
on generica de los resultados
anteriores sera calcular la respuesta en frecuencia K(), la que en este caso est
a
dada por
26
(5.2.9)
(j)2 + 4j + 13
La magnitud y la fase de esta respuesta en frecuencia aparecen en la Figura 5.2.
De esta figura los valores de magnitud y fase de K(10) se pueden calcular usando
el comando de Matlab ginput, el resultado es |K(10)| = 0, 2734 y a (10) =
2, 7188 [rad] (note que en este ejemplo, A = 1).
222
K() = |K()|eja () =

86

An
alisis de sistemas lineales bajo excitaciones peri
odicas

Captulo 5

0.5

0.5

Figura 5.1. Se
nales de entrada y salida del sistema del ejemplo 5.1

2.5

0.5

1.5

()

|K()|

1
1.5
1

2
0.5
0

2.5
0

10
15
Frecuencia [rad/s]

20

10
15
Frecuencia [rad/s]

20

Figura 5.2. Respuesta en frecuencia de un sistema de segundo orden de tiempo


continuo

Es necesario tener presente que en ciertos sistemas, a pesar de tener todas sus
frecuencias naturales en el interior de la zona de estabilidad, la respuesta a sinusoides de baja amplitud, incluye componentes sinuosidales de altsima amplitud.
Esto sucede en situaciones en que el sistema es excitado con una sinusoide de frecuencia muy cercana a una frecuencia natural proxima al lmite de estabilidad (el
eje imaginario). En este caso, dependiendo del amortiguamiento del sistema, la salida puede alcanzar el estado estacionario solo despues de mucho tiempo, y aunque
analticamente la oscilacion en la salida permanece acotada, puede alcanzar magnitudes insostenibles para el sistema real2 . Para esto recomendamos al lector analizar
en detalle el problema 5.4.
El fenomeno de respuestas inusualmente altas se origina en sistemas que exhiben
altas ganancias a un modo forzante de la forma ejt . Considere, por ejemplo, el
sistema con EDS
2 Un caso tradicionalmente analizado en la f
sica de las oscilaciones es el colpaso del Puente
Tacoma en EE.UU.

Section 5.3.

87

Series de Fourier para se


nales de tiempo continuo

d 2 y(t)
d y(t)
+ 0, 01
+ 4y(t) = 4y(t)
(5.2.10)
2
dt
dt
En este ejemplo, que corresponde a un sistema estable, la ganancia a
continua es igual a 1, sin embargo la ganancia a modo forzante ej2t esta dada por
4
= j200
(5.2.11)
+ 0, 01 (j2) + 4
Esto significa que una excitacion sinuosidal de amplitud unitaria y frecuencia 2
[rad/s] genera una respuesta forzada de amplitud igual a 200. En casos como
este, se dice que, para esta excitacion, el sistema entra en resonancia.
La idea de resonancia en un sistema se refiere a la facilidad con que ese sistema
responde a determinadas frecuencias. Por ejemplo, todos conocemos la facilidad con
que se amplifica la oscilacion de un columpio cuando se lo empuja con la frecuencia
adecuada.
En terminos de la respuesta en frecuencia, el fenomeno descrito se refleja en que
la funcion |K()| tiene uno o mas picos muy pronunciados.
222
Cuando las frecuencias naturales del sistema se encuentran fuera de la zona de
estabilidad, la componente natural de la respuesta es no acotada. Sin embargo,
la componente forzada sigue siendo una oscilacion de la misma frecuencia que la
sinusoide en la entrada. Para apreciar esto se recomienda al lector analizar el
problema 5.5.
K() =

5.3

(j2)2

Series de Fourier para se


nales de tiempo continuo

La idea central tras las series de Fourier, sean ellas de tiempo continuo como de
tiempo discreto, es la representacion de una funcion periodica usando una base
ortogonal de funciones.
La idea de ortogonalidad adquiere su sentido mas basico con el sistema cartesiano
de coordenadas. La diferencia esta en que, en las series de Fourier, la dimension de
la base es infinita, lo cual es usual en espacios de funciones.
Antes de analizar de lleno la representacion de funciones periodicas en forma de
una serie de Fourier, sugerimos al lector revisar el Apendice B para familiarizarse
con la notacion y el vocabulario empleado de aqu en adelante.

5.3.1

Serie de Fourier trigonom


etrica

Consideremos el espacio vectorial de todas las funciones seccionalmente continuas


en un intervalo3 [ T2 , T2 ], y en el, el conjunto de vectores (funciones)
B = { 1 , cos(n0 t) , sin(n0 t) }n=1,2,...

0 =

2
T

(5.3.1)

3 En t
erminos generales el intervalo a considerar es [to , to + T ]. Por simplicidad hemos escogido
to = T /2

88

An
alisis de sistemas lineales bajo excitaciones peri
odicas

Captulo 5

El conjunto definido en (5.3.1) resulta ser analogo al conjunto de funciones considerados en el lema B.1 en la pagina 288, dado que son linealmente independientes , pues ninguna de las sinusoides (o la constante) del conjunto puede describirse
como una combinacion lineal de las demas. Ademas definimos el producto interno
en este espacio de funciones como la integral:
Z
hf (t), g(t)i =

T
2

f (t) g(t)dt

f (t), g(t) B

(5.3.2)

T2

Entonces el conjunto (5.3.1) resulta ser ortogonal , es decir, si tomamos dos


elementos ym (t) e yn (t) pertenecientes al conjunto B definido en (5.3.1):
(
Z T2
0
; n 6= m
hyn (t), ym (t)i =
yn (t)ym (t)dt =
T
>
0
;n = m
2
En este caso la conjugacion involucrada en el producto interno no afecta a las
funciones del conjunto B, pues estas son todas reales.
Con esto podemos afirmar que una funci
on y(t) seccionalmente continua definida en el intervalo [ T2 , T2 ], puede representarse como una combinaci
on lineal de
elementos de la base B, definida en (5.3.1), que en este caso tiene dimension infinita.
Es decir, para y(t) tenemos una representacion en Serie de Fourier de la forma:
y(t) = A0 +

[An cos(n0 t) + Bn sin(n0 t)]

n=1

; 0 =

2
T

(5.3.3)

En que cada uno de los coeficientes A0 , An , Bn se puede obtener como indica el


lema B.1. Por esto invitamos al lector en este punto a resolver el problema 5.6, con
lo que ademas podra comprobar que las expresiones para los coeficientes de Fourier
son:
1
A0 =
T
2
An =
T
Bn =

2
T

Z
Z
Z

T
2

y(t)dt

T2
T
2

T2
T
2

T2

y(t) cos(n0 t)dt

(5.3.4)

y(t) sin(n0 t)dt

Nos interesa la representacion en serie de Fourier, conceptualmente y como una


herramienta para describir las funciones periodicas como una combinacion lineal de
constantes, cosenos y senos, cuyas frecuencias son m
ultiplos enteros de la frecuencia fundamental 0 determinada por su perodo T . La representacion (5.3.3)
puede reescribirse alternativamente en la forma

Section 5.3.

89

Series de Fourier para se


nales de tiempo continuo

y(t) = A0 +

Cn cos(n0 t n )

(5.3.5)

n=1

En que
Cn =

A2n + Bn2

Bn
n = arctg
An

(5.3.6)
(5.3.7)

En esta forma es mas directo apreciar el contenido o espectro en frecuencia


de la se
nal y(t) a traves de la amplitud de cada una de las sinusoides de frecuencia n = n0 , que llamaremos n-
esima arm
onica. Ademas, esta representacion
permite apreciar el angulo de desfase relativo n entre las diferentes armonicas.
Si dibujamos en un grafico las magnitudes de Cn en funcion de n, obtenemos
lo que se conoce como un espectro de lnea. Este grafico permite observar las
participaciones relativas de la armonicas en la composicion de la se
nal.
Note que el calculo directo de los coeficientes Cn es mas complicado que el de
los coeficientes An y Bn , ya que las sinusoides de la forma cos(n0 t n ) no son
ortogonales entre s.
Para ilustrar el calculo de los coeficientes de Fourier se presentan a continuacion
algunos ejemplos.
Primeramente desarrollaremos un ejemplo calculando manualmente los coeficientes de la serie, para luego ilustrar el uso del soporte computacional.
Ejemplo 5.2. Considere una onda cuadrada de amplitud 2 y perodo igual a 4 [s],
tal como se ilustra en la Figura 5.3
2

Seal y(t)

1
0
1
2
6

0
Tiempo [s]

Figura 5.3. Se
nal cuadrada
La frecuencia fundamental es o = 2/T = /2 y los coeficientes de la serie se
pueden calcular como se indica

90

An
alisis de sistemas lineales bajo excitaciones peri
odicas

1
A0 =
T

T
2

y(t) dt = 0

Captulo 5

(5.3.8)

T2

Este resultado era previsible dada la simetra de


areas sobre y bajo el eje de abscisas.
Z

2
An =
T

T
2

1
y(t) cos(no t) dt =
T
2
2

1
2 cos(0, 5nt) dt+
2
2

2 cos(0, 5nt) dt = 0
0

(5.3.9)
La ausencia de componentes cosenoidales es tambien previsible, dado que la se
nal
y(t) es una funci
on impar del tiempo.
Finalmente

Bn =

2
T

T
2

T2

y(t) sin(no t) dt =

1
2

2 seno(0, 5nt) dt +
2

1
2

2 seno(0, 5nt) dt
0

2
4
4

=2
seno(0, 5nt) dt = cos(0, 5nt) =
(1 cos(n))

n
n
0

(5.3.10)

(5.3.11)

De esta manera resulta

8
Bn = n
0

n impar

(5.3.12)

n par

La participaci
on de las arm
onicas puede ser visualmente apreciada en la Figura
5.4.

Amplitud de las armnicas

3
2.5
2
1.5
1
0.5
0

4
6
8
Frecuencia angular, en mltiplos de o

10

Figura 5.4. Espectro de lnea de una se


nal cuadrada

12

Section 5.3.

91

Series de Fourier para se


nales de tiempo continuo

222
El ejemplo precedente sugiere que el calculo manual de los coeficientes se puede
complicar notablemente para se
nales de mayor complejidad. Este proceso puede ser
enormemente facilitado por programas como Maple , tal como se ilustra en los
ejemplos que siguen.
Ejemplo 5.3. Uno de los procesos en que se generan se
nales peri
odicas no sinusoidales es en la rectificaci
on. En realidad, para circuitos de potencia, control de
motores, por ejemplo, en vez de diodos se utilizan tiristores, que no son m
as que

diodos en que el instante de conducci


on es controlado. Estos
permiten recortar la
se
nal rectificada, como se aprecia en la figura 5.5 en que no se disparan los tiristores
hasta pasado un tercio del perodo de la se
nal rectificada. En este caso se dice que
el
angulo de disparo es = 3 .

1
0.8
0.6
0.4
0.2
0

0.005

0.01

0.015
Time [s]

0.02

0.025

0.03

Figura 5.5. Se
nal a la salida de rectificador controlado por tristores
Claramente el rectificador de onda completa es un caso particular de este rectificador controlado, cuando el
angulo de disparo es = 0.
Con ayuda de Maple los coeficientes se pueden obtener f
acilmente, ahorr
andonos
buena parte del trabajo algebraico. En las lneas siguientes se muestran los comandos necesarios, entre los cuales se debe indicar a Maple que 0 < < y que n es
un n
umero entero. Se ha considerado, por simplicidad, que la frecuencia original
es 1[Hz] y la amplitud original es 1[V].
>
>
>
>
>
>

assume(0<alpha,alpha<1):
y(t):=(Heaviside(t-alpha)-Heaviside(t-Pi))*sin(t):
A_0:=1/Pi*int(y(t),t=0..Pi);
assume(n,integer):
A(n):=2/Pi*int(y(t)*cos(2*n*t),t=0..Pi);
B(n):=2/Pi*int(y(t)*sin(2*n*t),t=0..Pi);
Este c
odigo de Maple arroja como respuesta los coeficientes en funci
on de n

92

An
alisis de sistemas lineales bajo excitaciones peri
odicas

Captulo 5

1 + cos()

2
1 + 2 cos() (cos( n)) cos() + 4 n sin() sin( n) cos( n)
An = 2
(1 + 2 n) (1 + 2 n)
A0 =

Bn = 4

cos() sin( n) cos( n) + 2 n sin() (cos( n)) n sin()


(1 + 2 n) (1 + 2 n)
222

Ejemplo 5.4. Consideremos la funci


on

1 + t
y(t) = 1 t

y(t + 4)

peri
odica y(t) definida por tramos como:
; 2 < t 0
;0 < t 2
; en todo otro caso

(5.3.13)

En Maple se puede definir y convertir de inmediato para que quede escrita en


terminos de escalones (funci
on de Heaviside):
> y(t):=convert(piecewise(t<-2,-t-3,t<0,t+1,t<2,-t+1,t-3),Heaviside);

y(t) = 3 t 4 Heaviside(t 2) + 2 tHeaviside(t 2) + 4 Heaviside(t + 2)


+ 2 tHeaviside(t + 2) 2 tHeaviside(t)
Si se calculan los coeficientes seg
un las expresiones (5.3.4), tenemos que el valor
medio A0 es cero y, como es par, los coeficientes Bn son todos iguales a cero. En
Maple
> A(n):=1/2*int(y(t)*cos(n*Pi/2*t),t=-2..2);
Por tanto y(t) queda expresada en una serie cosenoidal de Fourier, de la forma:
ys (t) =

(1 (1) )

n=1

2
n

2
cos

n
t
2

(5.3.14)

En el gr
afico de la Figura 5.6, podemos apreciar la aproximaci
on de la funci
on
y(t) por las primeras dos arm
onicas no nulas (n = 1, 3).
De la Figura 5.6 se observa que las dos primeras arm
onicas (con presencia no
nula en la serie) describen bastante bien la se
nal original. Ello puede ser entendido al calcular las amplitudes de las primeras diez componentes de la serie. Ellas
aparecen en el espectro de lneas de la Figura 5.7; all se observa que la amplitud de
cada arm
onica superior a la tercera es despreciable.
El gr
afico de la Figura 5.8 (a) muestra el error que se comete al representar la
funci
on por su serie truncada, en este caso hasta n = 3.

Section 5.3.

93

Series de Fourier para se


nales de tiempo continuo

Seal y aproximacin

1
0.5
0
0.5
1
6

0
Tiempo [s]

Figura 5.6. Aproximacion de la se


nal triangular con la primera y tercera armonica

Amplitud de las armnicas

1
0.8
0.6
0.4
0.2
0

3
4
5
6
Frecuencia angular, en mltiplos de

Figura 5.7. Espectro de lnea de una se


nal triangular

Podemos estudiar la fidelidad de la representacion en serie de Fourier de una


se
nal analizando lo que pasa con el error eN (t) = y(t) yN (t) que se comete al
representar una funcion y(t) por una combinacion lineal finita o suma parcial de las
funciones de la base (5.3.1), hasta el termino N -esimo yN (t).
Respecto a este error eN (t) tenemos el siguiente lema:
Lema 5.1. La representaci
on yN (t) es ortogonal al error eN (t), para todo N , es
decir:
heN (t), yN (t)i = 0
Demostraci
on
Si escribimos la suma parcial como:

; N

(5.3.15)

94

An
alisis de sistemas lineales bajo excitaciones peri
odicas

Captulo 5

0.1

0.05

2
t

y(t)

eN (t)

yN (t)

0.05

0.1

(a) Error e3 (t) = y(t) y3 (t) .

(b) Interpretaci
on geom
etrica del error

Figura 5.8.

yN (t) =

N
X

k fk (t)

(5.3.16)

k=1

En que los fk (t) son vectores de la base B, el producto (5.3.15) puede escribirse
y desarrollarse de la siguiente manera:
heN (t), yN (t)i = hy(t) yN (t), yN (t)i
= hy(t), yN (t)i hyN (t), yN (t)i
*
+ *N
+
N
N
X
X
X
= y(t),
k fk (t)
k fk (t),
j fj (t)
k=1

N
X

k=1

k hy(t), fk (t)i

k=1

N
X

fk (t),

j=1
N
X

j fj (t)

j=1

k=1

Y recordando que los vectores fk (t) son ortogonales


heN (t), yN (t)i =

N
X

k hy(t), fk (t)i

k=1

N
X

k2 hfk (t), fk (t)i

k=1

Pero los coeficientes k se calculan de la forma:


k =

hy(t), fk (t)i
hfk (t), fk (t)i

Section 5.3.

Series de Fourier para se


nales de tiempo continuo

95

Por lo tanto

heN (t), yN (t)i =

N
N
X
X
hy(t), fk (t)i
hy(t), fk (t)i2
hy(t), fk (t)i
hfk (t), fk (t)i
hfk (t), fk (t)i
hfk (t), fk (t)i2

k=1

k=1

N
X
hy(t), fk (t)i2
k=1

hfk (t), fk (t)i

N
X
hy(t), fk (t)i2
k=1

hfk (t), fk (t)i

=0
Este resultado permite apreciar que yN (t), con los coeficientes calculados seg
un
(5.3.4), es la combinacion lineal que mejor representa a y(t) (en el sentido de
la norma cuadratica), ya que, dada su ortogonalidad con el vector de error eN (t),
minimiza la distancia entre y(t) y el conjunto de funciones que se generan por
combinacion lineal de los N elementos de la base. La Figura 5.8 (b) ilustra geometricamente la idea de ortogonalidad entre el error eN (t) y la representacion
truncada yN (t).
222
La representacion obtenida en (5.3.3), con los coeficientes explicitados en (5.3.4),
representa a la funcion y(t), dentro del intervalo [ T2 , T2 ] sea esta periodica o no. En
este u
ltimo caso la representacion se debe entender valida solo dentro del intervalo
en que se ha calculado. Sin embargo, dado que dentro del intervalo de longitud
T todas las sinusoides del conjunto B completan un n
umero entero de perodos, la
periodicidad de los elementos de B se extiende a la representacion de y(t), es decir, se
repite en todo intervalo de la forma [kT T2 , kT + T2 ] con k Z. Ademas por simple
traslacion del intervalo en que trabajamos, es decir, corriendo del eje temporal, el
calculo de los coeficientes y la representacion pueden tomarse en cualquier intervalo
arbitrario [to , to + T ]. En todo caso, el lector debe advertir que si la se
nal bajo
analisis no es periodica, la representacion sera distinta para distintas elecciones de
to .

5.3.2

Serie de Fourier exponencial

Si consideramos la representacion en serie de Fourier obtenida para una funcion


seccionalmente continua y(t) obtenida en (5.3.3), podemos reescribirla utilizando
las expresiones para sin(t) y cos(t) en terminos de exponenciales periodicas4 :

4 Una exponencial peri


odica tiene la forma ejt = cos(t) + j seno t, ya que tanto su parte
real como su parte imaginaria son funciones peri
odicas del tiempo

96

An
alisis de sistemas lineales bajo excitaciones peri
odicas

y(t) = A0 +

Captulo 5

[An cos(n0 t) + Bn sin(n0 t)]

n=1
j00 t

= A0 e


X
ejn0 t + ejn0 t
ejn0 t ejn0 t
+
An
+ Bn
2
2j
n=1

Que puede reagruparse como


y(t) = A0 ej00 t +


X
An jBn

n=1

ejn0 t +

An + jBn jn0 t
e
2

(5.3.17)

Es decir, podemos reescribir una serie de Fourier trigonometrica como una serie
de Fourier exponencial de la forma:

y(t) =

Cn ejn0 t

(5.3.18)

n=

Puede obtenerse una expresion para el coeficiente Cn , por ejemplo, para n > 0,
en cuyo caso:
An jBn
#
" 2Z T
Z T2
2
2
1 2
y(t) cos(n0 t)dt j
y(t) sin(n0 t)dt
=
2 T T2
T T2
Z T2
1
=
y(t)(cos(n0 t) j sin(n0 t))dt
T T2

Cn =

Y usando la ecuacion de Euler para exponenciales imaginarias


1
Cn =
T

T
2

y(t)ejn0 t dt

(5.3.19)

T2

Se deja al lector verificar que esta expresion tambien es valida para el resto de los
coeficientes Cn , cuando n 0. Si se presta atencion a la forma de los coeficientes en
la ecuacion (5.3.17), puede apreciarse que aparecen en pares complejos conjugados,
es decir, n > 0:
An jBn
= |Cn |ejn
2
An + jBn
= |Cn |ejn
=
2

Cn =
Cn

(5.3.20)
(5.3.21)

Section 5.3.

Series de Fourier para se


nales de tiempo continuo

97

tal como tambien puede demostrarse a partir de la expresion general (5.3.19) para los
coeficientes de la serie compleja, es decir, tenemos un nuevo conjunto de funciones,
complejas en este caso, de la forma:
2
(5.3.22)
T
Este conjunto de funciones constituye una base para el espacio de funciones
seccionalmente continuas en el intervalo [ T2 , T2 ]. Se deja al lector verificar que este
conjunto tambien es ortogonal bajo el producto interno definido igual que antes,
pero en que ahora la conjugacion s afecta a las funciones involucradas:
{ejn0 t }nZ

; 0 =

Z
hfn (t), fm (t)i =

T2

Z
=

T
2

T
2

fn (t) fm (t)dt
ejn0 t ejm0 t dt

T2

Que debe cumplir


(
0
; n 6= m
hfn (t), fm (t)i =
>0 ;n=m
Es importante hacer notar que en la manipulacion que se ha hecho en la serie de
Fourier trigonometrica para llegar a la serie exponencial, han aparecido valores para
n negativos y positivos. Esto en realidad debe interpretarse nada mas como lo que
se ha mencionado: un producto de la manipulacioon algebraica que permite obtener
la representacion en serie (5.3.18) mas compacta y facil de manipular. Si se desea
obtener la amplitud de la n-esima armonica de la serie deben considerarse ambos
terminos de la serie n y n, es decir, usando las ecuaciones (5.3.20) y (5.3.21):
Cn ejn0 t + Cn ejn0 t = |Cn |ejn ejn0 t + |Cn |ejn ejn0 t
= |Cn | ej(n0 tn ) + |Cn | ej(n0 tn )
= 2|Cn | cos(n0 t n )

5.3.3

Parseval y la energa de las se


nales peri
odicas

Existe un conjunto de resultados, deducidos por Parseval, que relacionan directamente caractersticas de la se
nal periodica con los coeficientes de su Serie de Fourier.
En realidad, los resultados de Parseval se aplican a la expansion en cualquier base
ortogonal. Los detalles matematicos pueden ser examinados en el Apendice B.
Supongamos que una se
nal y(t) periodica se expresa como serie en los elementos,
f` (t), de una base ortogonal en el intervalo (T /2, T /2). Entonces

98

An
alisis de sistemas lineales bajo excitaciones peri
odicas

y(t) =

` f` (t)

Captulo 5

(5.3.23)

`=0

Esto significa que


hy(t), y(t)i =

*
X

` f` (t),

`=0

+
` f` (t)

(5.3.24)

`=0

Si a continuacion usamos la propiedad de ortogonalidad de los elementos de la


base, tenemos que
hy(t), y(t)i =

|` |2 hf` (t), f` (t)i

(5.3.25)

`=0

Note que el lado izquierdo en (5.3.25) representa el cuadrado del valor efectivo
de la se
nal periodica.
Para la Serie de Fourier trigonometrica, la expresion (5.3.25) se reduce a5
Z

T /2

T /2

(y(t))2 dt = A2o +

1X 2
(A` + B`2 )
2

(5.3.26)

`=0

En el caso exponencial, la expresion (5.3.25) esta dada por


Z

T /2

T /2

(y(t))2 dt =

C` 2

(5.3.27)

`=

En (5.3.26) y en (5.3.27), el lado izquierdo representa la energa de la se


nal y(t)
en un perodo. El lado derecho en ambas ecuaciones se
nala que esa energa puede
ser computada como la suma de similar energa de cada armonica.

5.4

Respuesta a entradas sinusoidales. El caso de tiempo discreto

En esta seccion nos detendremos en la caracterstica de ganancia que exhibe un


sistema lineal de tiempo discreto cuando la excitacion es una sinuoside.
Con ese proposito consideremos un sistema lineal estable modelado por su ERS

y[k] + an1 y[k 1] + . . . + a1 y[k n + 1] + a0 y[k n] =


bm u[k] + bm1 u[k 1] + . . . + b1 u[k m + 1] + b0 u[k m] (5.4.1)
Si la entrada del sistema es una se
nal sinusoidal de tiempo discreto de perodo
N Z que puede escribirse de la forma:
1
T

5 Note que hemos usado la misma definici


on del producto interno, es decir, hfk (t), f` (t)i =
R T /2
f
(t)f
(t)
dt
`
T /2 k

Section 5.4.

99

Respuesta a entradas sinusoidales. El caso de tiempo discreto

u[k] = A cos(k + );

con =

2
N

(5.4.2)

donde (vea Captulo 2)


A es la amplitud, cuyas unidades dependen del sistema en cuestion,
es el
angulo de desfase (o simplemente fase), medido en [rad], y
es la frecuencia angular discreta, medida en [rad].
1
N [Hz]

de la sinusoide,

ej(k+) + ej(k+)
= ejk + ejk
2

(5.4.3)

Esta u
ltima determina ademas la frecuencia discreta f =
y su perodo T = N .
Aplicando la formula de Euler se tiene que
A cos(k + ) = A

donde C, es el complejo conjugado de y


=

A j
e
2

(5.4.4)

Por otra parte sabemos que si K() C es la ganancia al modo forzante ejk ,
entonces (usando la naturaleza lineal del sistema)

Thhxo , A cos(k + )ii = K()ejk + (K()) ejk + {modos naturales} (5.4.5)

Donde K() es la ganancia a modo forzante y esta dada por (4.3.28), con i =
ej . Si expresamos K() en su forma polar se llega a
K() = |K()|eja ()

(5.4.6)

As, se obtiene
Thhxo , A cos(k + )ii = |K()|A cos(k + + a ()) + {modos naturales} (5.4.7)
Como el sistema es estable, los modos naturales decaen a cero cuando k
, as, la respuesta estacionaria contiene solo la componente particular, es decir,
contiene solo los modos forzados y tiene la forma
y[k] = As () cos(k + s ())

(5.4.8)

Esta forma puede ser directamente calculada reemplazando (5.4.8) en la ERS.


Cuando el modo forzante es una exponencial de la forma ejk , la ganancia a
modo forzante, K(), caracteriza lo que se denomina respuesta en frecuencia
del sistema de tiempo discreto.

100

An
alisis de sistemas lineales bajo excitaciones peri
odicas

Captulo 5

La teora precedente es ilustrada a traves de un ejemplo.


Ejemplo 5.5. Consideremos el sistema modelado por la ERS
y[k] 0, 7y[k 1] + 0, 12y[k 2] = 1, 5u[k]
Supongamos que la entrada es u[k] = sin(k) y que todas las condiciones iniciales
son cero.
El sistema en primer lugar es estable, ya que sus frecuencias naturales se encuentran ubicadas en 1 = 0, 4 y 1 = 0, 3, es decir, tienen magnitud menor que 1.
Con esto sabemos entonces que la soluci
on homogenea tiene la forma
yh [k] = B1 (0, 4)k + B2 (0, 3)k
Para obtener la soluci
on particular reemplazamos la soluci
on propuesta
yp [k] = As () sin(k + s ())
que es equivalente a una expresi
on de la forma
yp [k] = C1 () cos(k) + C2 () sin(k)
Los coeficientes C1 () y C2 () se obtienen reemplazando la soluci
on particular
propuesta y la funci
on de entrada en la ecuaci
on de recursi
on original.
Siguiendo la discusi
on del Ejemplo 5.1 en la p
agina 84, la modificaci
on en magnitud y fase que experimenta la sinuoside al pasar por el sistema, se puede calcular
de la respuesta en frecuencia del sistema. En este caso
K() =

1, 5e2j
e2j 0, 7ej + 0, 12

(5.4.9)

Esta respuesta en frecuencia puede ser representada gr


aficamente, como se muestra en la Figura 5.9
222
A similitud de lo que ocurre en el caso de tiempo continuo, en ciertos sistemas, a
pesar de tener todas sus frecuencias naturales en el interior de la zona de estabilidad,
la respuesta a sinusoides de baja amplitud incluye componentes sinuosidales de
altsima amplitud. Esto sucede en situaciones en que el sistema es excitado con
una sinusoide de frecuencia muy cercana a frecuencias naturales que se encuentran
al interior del disco unitario, pero muy proximas al lmite de estabilidad (en este
caso, la circunferencia unitaria). En este caso, dependiendo del amortiguamiento
del sistema, la salida puede alcanzar el estado estacionario solo despues de mucho
tiempo, y aunque analticamente la oscilacion en la salida permanece acotada, puede
alcanzar magnitudes insostenibles para el sistema real.

Section 5.5.

101

Serie de Fourier de tiempo discreto

3.5
0.5

2.5

a()

|K()|

2
1.5

0.5

1
0.5

2
4
6
Frecuencia angular discreta [rad]

2
4
6
Frecuencia angular discreta [rad]

Figura 5.9. Respuesta en frecuencia de un sistema de segundo orden de tiempo


discreto

El fenomeno de respuestas inusualmente altas se origina en sistemas que exhiben


altas ganancias a un modo forzante de la forma ejk . Considere, por ejemplo, el
sistema con ERS
y[k] 1, 4128y[k 1] + 0, 9980y[k 2] = 0, 5851u[k]

(5.4.10)
pi

Observamos que es un sistema estable, con frecuencias naturales 1,2 = ej 4 .


Note que estas frecuencias naturales se encuentran muy cercanas a la circunferencia
unitaria. La ganancia a continua de este sistema es 1. Sin embargo, la ganancia a
una frecuencia = 4 tiene magnitud 414, 0. Esto implica que si la excitacion es
una sinusoide de amplitud unitaria y frecuencia = 4 , la respuesta forzada sera
una sinuoside de amplitud 414, 0, es decir, para esta excitacion, el sistema entra en
resonancia.

5.5

Serie de Fourier de tiempo discreto

Veamos ahora como pueden extenderse las ideas hasta aqu expuestas a la representacion de funciones definidas en instantes de tiempo discreto como suma de
sinusoides, tambien definidas en tiempo discreto.
Para sistemas de tiempo discreto, las series trigonometricas son poco usadas,
prefiriendose la forma exponencial. Veremos que ello se debe a que las exponenciales
periodicas involucradas tienen propiedades de simetra que hacen mucho mas simple
el calculo de los coeficientes, en comparacion al calculo de los coeficientes de la serie
trigonometrica. As, consideramos se
nales de la forma
f [k] = ejk

; k = 0, 1, 2, . . .

(5.5.1)

Nuestro interes fundamental, al igual que para serie de Fourier trigonometrica,


es determinar como puede representarse una funcion periodica como suma de un

102

An
alisis de sistemas lineales bajo excitaciones peri
odicas

Captulo 5

termino constante y un conjunto de sinusoides de frecuencias m


ultiplos de la frecuencia fundamental.
Consideremos, por ejemplo, una funcion y[k] definida para k = 0, 1, 2, . . . , de
perodo N , es decir:
y[k + N ] = y[k]

; k

La frecuencia fundamental se define analogamente al caso continuo:


2
(5.5.2)
N
y las frecuencia armonicas corresponden a los m
ultiplos de la frecuencia fundamental
0 . Sin embargo, si observamos con atencion la forma que toman las exponenciales
imaginarias para cada armonica veremos que
0 =

ej0 (`+N )k = ej N (`+N )k = ej N `k ej2k = ej N `k

(5.5.3)

Es decir, tenemos periodicidad en la frecuencia, ya que el resultado (5.5.3)


nos indica que la armonica `-esima es la misma que la (` + N )-esima, y la misma
en realidad que cualquiera de las (` + mN )-esimas, en que m es cualquier n
umero
entero. Esto indica que el conjunto ortogonal es finito, con solo N componentes.
Por tanto para representar una funcion discreta y[k] de perodo N en serie de
Fourier nos basta simplemente una suma de las primeras N armonicas:
y[n] =

N
1
X

Cn ej0 nk ;

0 =

n=0

2
N

(5.5.4)

Desde el punto de vista del algebra lineal queremos representar el vector y[k] en
terminos de los vectores del conjunto:
Bd = {1, ej0 k , ej20 k , . . . , ej(N 1)0 k }

(5.5.5)

Si definimos un producto interno en este conjunto, analogo al definido en (5.3.2),


la integral (suma continua) en un periodo fundamental se transforma en una sumatoria (suma discreta):
hf1 [k], f2 [k]i =

N
1
X

f1 [k]f2 [k]

k=0

Tendremos que para los vectores del conjunto Bd , si n1 6= n2 :


hej0 n1 k , ej0 n2 k i =

N
1
X

(ej0 n1 k ) ej0 n2 k

k=0

N
1
X
k=0

ej0 (n1 +n2 )k

(5.5.6)

Section 5.5.

103

Serie de Fourier de tiempo discreto

Que es una suma geometrica


hej0 n1 k , ej0 n2 k i =

1 (ej0 (n1 +n2 ) )N


1 ej0 (n1 +n2 )

Pero seg
un (5.5.2) tenemos que N 0 = 2, y n1 y n2 son n
umeros enteros, por
tanto, para n1 6= n2 , pues de otra forma el denominador se hace cero:
1 ej2(n1 +n2 )k
1 ej0 (n1 +n2 )
=0

hej0 n1 k , ej0 n2 k i =

Y si n1 = n2 = n:
hej0 nk , ej0 nk i = kej0 nk k2
=

N
1
X

ej0 nk ej0 nk

k=0

N
1
X

k=0

=N
Es decir el conjunto definido en (5.5.5) es ortogonal bajo el producto interno
(5.5.6).
Con esto, los coeficientes de la representacion (5.5.4) se pueden calcular usando
el lema B.1:

Cn =

hej0 nk , y[k]i
hej0 nk , ej0 nk i

N 1
1 X
y[k]ej0 nk
=
N
k=0

; 0 =

2
N

(5.5.7)

Esta expresion es equivalente a (5.3.19), pero para las funciones discretas.


Es importante verificar que la expresion obtenida en (5.5.7) usada en la representacion (5.5.4) garantiza que la suma es en efecto una funcion real. Para la serie
de Fourier exponencial se verifico que la sumade las armonicas correspondientes a
los terminos n es real pues estos terminos resultan ser conjugados el uno del otro.
Para la serie de Fourier discreta, si observamos la expresion para el coeficiente N `,
tenemos:

104

An
alisis de sistemas lineales bajo excitaciones peri
odicas

CN ` =

Captulo 5

N 1
1 X
y[k]ej0 (N `)k
N

(5.5.8)

N 1
1 X
y[k]ej0 N k ej0 `k
N

(5.5.9)

k=0

k=0

N 1
1 X
y[k]ej0 `k
=
N

(5.5.10)

k=0

N 1
1 X
(y[k]ej0 `k )
N

(5.5.11)

k=0

= (C` )

(5.5.12)

Es decir, el coeficiente de la armonica N ` es el complejo conjugado del coeficiente de la correspondiente `-esima armonica. O, en otras palabras, la magnitud de
los coeficientes C` tiene simetra par respecto a N2 , mientras que su fase (o angulo)
tiene simetra impar con respecto a N2 . La armonica N ` puede ser expresada
como:
ej0 (N `)k = ej0 N k ej0 `k
=e

(5.5.13)

j0 `k

(5.5.14)

Es decir, ambas armonicas ` y N ` correponden en realidad a una misma


frecuencia. Por tanto si sumamos los terminos correspondientes a ellas en la representacion, escribiendo sus coeficientes en forma polar:
C` ej0 `k + CN ` ej0 (N `)k = C` ej0 `k + (C` ) ej0 `k
j` j0 `k

= |C` |e e
+ |C` |e
= 2|C` | cos(0 `k + ` )

(5.5.15)

j` j0 `k

(5.5.16)
(5.5.17)

En base a esto podemos concluir que al representar una se


nal periodica de tiempo
discreto en forma de una Serie de Fourier, en realidad, la estamos describiendo en
terminos de N exponenciales periodicas de la base (5.5.5), en que N es el perodo
de la funcion discreta. Pero estas corresponden en realidad a un valor constante y
k diferentes armonicas, en que k = N2 , si N es par, y k = N 21 si es impar.
La serie de Fourier para una se
nal de tiempo discreto puede ser descrita en un
gr
afico en que aparece |Cn | en funcion de n Z. Este diagrama es conocido como
el espectro de lnea de la se
nal de tiempo discreto.
El problema de convergencia de las Series de Fourier para se
nales de tiempo
discreto tiene un tratamiento mucho mas simple que en el caso de tiempo continuo.

Section 5.5.

105

Serie de Fourier de tiempo discreto

Esto se debe a que las amplitudes de las N armonicas se pueden calcular a partir
de un sistema de ecuaciones linealmente independientes de la forma

y[0]
y[1]
y[2]
..
.

C0
C1
C2
..
.

= WN

CN 1
y[N 1]

(5.5.18)

donde el elemento (i, j) de la matriz WN esta dado por

(i1)(j1)
[WN ]i,j = ej0

(5.5.19)

Las ecuaciones precedentes permiten calcular los coeficientes que describen exactamente la se
nal periodica y[k]. Note que la matriz WN tiene la forma general

WN

1
1
12
..
.

1N 1

1
2
22
..
.

1
3
32
..
.

2N 1

3N 1

1
N
2
N
..
.

(5.5.20)

N 1
N

donde ` = ej0 (`1) para ` = {1; 2; 3...; N }. Dado que los ` 0 s son diferentes entre
s, la matriz WN es una matriz de Vandermonde, y por lo tanto, es no singular.
Con ello, el vector de la derecha en (5.5.18) puede ser despejado, al multiplicar por
la inversa de WN .
Las ideas de Parseval tambien se aplican a se
nales de tiempo discreto, aunque aca
el concepto de energa no tiene la connotacion fsica que tiene en tiempo continuo.
Si la se
nal periodica y[k] tiene la expansion en serie dada por
y[k] =

N
1
X

` f` [k]

(5.5.21)

`=0

donde las funciones f` [k] son elementos de una base ortogonal, entonces
hy[k], y[k]i =

N
1
X

|` |2 hf` [k], f` [k]i

(5.5.22)

`=0

As,
N
1
X
`=0

y[`]2 = N

N
1
X
`=0

|` |2

(5.5.23)

106

5.6

An
alisis de sistemas lineales bajo excitaciones peri
odicas

Captulo 5

Aplicaci
on de las Series de Fourier al an
alisis de sistemas
lineales

Cuando un sistema estable es excitado por una se


nal periodica, su respuesta en
estado estacionario tambien es una se
nal periodica. Esta respuesta, en general no
tiene la misma forma que la se
nal de entrada, ya que el sistema amplifica y desfasa
cada componente armonica de la excitacion, en general en forma distinta.
Para usar cuantitativamente las Series de Fourier en el analisis de un sistema
lineal, debemos calcular la ganancia a modo forzante del sistema para la frecuencia
de cada una de las armonicas de interes, es decir, la respuesta en frecuencia del
sistema para cada una de esas armonicas.
Estos conceptos son comunes tanto a los sistemas de tiempo continuo como a
los sistemas de tiempo discreto. Para apreciar mejor su aplicacion consideraremos
un ejemplo.

Ejemplo 5.6. Un sistema con la EDS dada por

3 y(t) + 72 y(t) + 15y(t) + 54y(t) = 54u(t)

(5.6.1)

es excitado con una se


nal peri
odica de frecuencia angular 1 [rad/s]. Entonces la
amplificaci
on y desfase que experimentan la componente constante o continua y las
primeras nueve arm
onicas, al pasar a traves del sistema, se pueden calcular a partir
de la expresi
on que define la respuesta en frecuencia del sistema

K() =

(j)3

54
+ 7(j)2 + 15(j) + 54

(5.6.2)

donde = 0; 1; 2; 3; ...9 [rad/s].


La respuesta en frecuencia es mostrada en la Figura 5.10.
En la Figura 5.10 se han indicado la magnitud y fase de la respuesta a continua y la respuesta para las frecuencias de la fundamental y de las primeras nueve
arm
onicas. Los valores numericos se muestran en la tabla siguiente.

Section 5.6.

107

Aplicaci
on de las Series de Fourier al an
alisis de sistemas lineales

2.5

1
2

a()

|K()|

2
1.5

1
4

0.5
0

4
6
Frecuencia [rad/s]

10

4
6
Frecuencia [rad/s]

10

Figura 5.10. Respuesta en frecuencia de un sistema de tercer orden de tiempo


continuo.

Frecuencia [rad/s]

Amplificaci
on

Desfase [rad]

1.0000

1.0000

1.1011

-0.2895

2.0000

1.5855

-0.7023

3.0000

2.6833

-2.0344

4.0000

0.9288

-3.2104

5.0000

0.4125

-3.5334

6.0000

0.2301

-3.7083

7.0000

0.1442

-3.8305

8.0000

0.0972

-3.9244

9.0000

0.0688

-4.0000

Al observar los datos obtenidos se aprecia que el sistema privilegia, en amplificaci


on, la tercera arm
onica.
Para ser m
as especficos, supongamos que la excitaci
on u(t) es una se
nal cuadrada, con valor medio cero. Usando Matlab o Maple podemos calcular entonces
la respuesta, y(t). La entrada y la salida son mostradas en la Figura 5.11.
La fuerte presencia de la tercera arm
onica en la salida es claramente apreciada,
as como tambien es f
acilmente apreciable el que la forma de onda de la salida es
muy diferente a la de la entrada.

108

An
alisis de sistemas lineales bajo excitaciones peri
odicas

Entrada y respuesta

Captulo 5

y(t)

2
1
0
1
u(t)
2
3

10
Tiempo [s]

12

14

16

18

20

Figura 5.11. Comportamiento de un sistema con una excitacion periodica.

5.7

Problemas para el lector

Problema 5.1. Determine la serie de Fourier trigonometrica de las siguientes


funciones6 :

(a)

(b)

; < t 0
1
y(t) = +1
;0 < t

y(t + 2) e.t.o.c.
(
t
; 1 < t 1
y(t) =
y(t + 2) e.t.o.c.

(c)
(d)

y(t) = |A cos(t)|
y(t) = max{0, A sin(t)}

(e)

y(t) = 4 sin2 (t)(use identidades trigonometricas)

(f )

y(t) = sin(t) + 6 cos3 (t)(idem)

Para cado caso grafique el espectro de lnea (use |Cn |).

Problema 5.2. Determine la serie de de Fourier exponencial que representa a

6 e.t.o.c.

En todo otro caso.

Section 5.7.

109

Problemas para el lector

cada una de las siguientes funciones:


(a)
(b)
(c)

y(t) = cos(2t) + sin(5t)


(
et
0t<1
y(t) =
y(t + 1) e.t.o.c.
y(t) =

(t nT )

n=

(d)

Todas las funciones del problema anterior.

Problema 5.3. Considere el sistema de primer orden:


d y(t)
+ 10y(t) = 10u(t)
dt
Suponga que u(t) es la se
nal peri
odica de la figura 5.12
2.5
2
1.5
u(t)

1
0.5
0
0.5
1
1.5

6
Tiempo [s]

10

12

Figura 5.12. Tren de pulsos

5.3.1 Determine las tres primeras arm


onicas (n = 1, 2, 3) del desarrollo en serie
de Fourier de u(t).
5.3.2 Determine la respuesta del sistema a la suma de esas tres arm
onicas puesta
en la entrada, es decir, a la serie de Fourier de u(t), pero truncada.
5.3.3 Grafique la salida y(t) obtenida, y comp
arela con la simulaci
on en Matlab
del sistema sometido a la entrada original u(t). Comente.
Problema 5.4. Considere el sistema definido por su ecuaci
on diferencial en que
n y son positivos:

110

An
alisis de sistemas lineales bajo excitaciones peri
odicas

Captulo 5

d 2 y(t)
d y(t)
+ 2n
+ n2 y(t) = n2 u(t)
2
dt
dt
5.4.1 Determine la salida del sistema si la entrada es u(t) = A cos(n t).
5.4.2 Determine la relaci
on de amplitudes entre la salida y la entrada en estado
estacionario cuando n = 10, y = 0.1, 0.05, 0.01.
5.4.3 Simule y grafique para las condiciones anteriores, cuando A = 1.
Problema 5.5. Considere el sistema definido por su ecuaci
on diferencial:
d y(t)
= y(t) + u(t)
dt
Si la entrada del sistema es una sinusoide u(t) = sen(10t)
5.5.1 Determine la salida del sistema y(t), suponiendo condiciones iniciales cero.
5.5.2 Grafique la parte homogenea de la soluci
on correspondiente a los modos naturales, la soluci
on particular correspondiente a la sinusoide de entrada y la
soluci
on total, suma de las dos primeras. Comente.
Problema
[ T2 , T2 ]:

5.6. Considere el conjunto de funciones definidas en el intervalo


B = { 1 , cos(n0 t) , sin(n0 t) }n=1,2,...

0 =

2
T

Y el producto interno definido en el como


Z
hyn (t), ym (t)iT =

T
2

T2

yn (t)ym (t)dt

; yn (t), ym (t) B

Demuestre que el conjunto B es ortogonal y encuentre todos los posibles valores


que toma el producto interno cuando se recorren los elementos de B.
Problema 5.7. Considere la siguiente funci
on peri
odica f (t) definida como:

; |t| < /2
A
f (t) = 0
; /2 |t| < T /2

f (t + T ) ; e.t.o.c.
5.7.1 Determine la serie de Fourier trigonometrica de la funci
on f (t).
5.7.2 Grafique la amplitud de las arm
onicas en funci
on de la frecuencia.
5.7.3 C
omo se ve afectado el gr
afico a medida que crece el valor de T ? Que
pasa cuando T ?

Section 5.7.

111

Problemas para el lector

Problema 5.8. Modulaci


on por ancho de pulso.
Considere la funci
on v(t) definida como:

; 0 < t < < 0.001


5
v(t) = 0
; < t < 0.001

v(t + 0.001) ; e.t.o.c.


5.8.1 Determine la serie de Fourier de v(t), indicando la amplitud de los coeficientes en funci
on del par
ametro .
5.8.2 Si el par
ametro vara lentamente con el tiempo, digamos (t) = sin(2t)
Que se obtiene si se hace pasar v(t) por un sistema con una EDS dada por
d y(t)
+ 100y(t) = 100u(t)
dt

Problema 5.9. Considere la funci


on y(t) = t2 , definida en el intervalo 0 t < T .
5.9.1 C
omo podra extenderse la funci
on y(t) al intervalo [T, T ] de manera que
su serie de Fourier sea de la forma:
y(t) = A0 +

An cos(n t)

n=1

5.9.2 C
omo podra extenderse al intervalo [T, T ] de manera que su serie sea de
la forma:

X
y(t) =
Bn sin(n t) ?
n=1

Problema 5.10. Determine la serie de Fourier discreta de las siguientes funciones


(a)
(b)
(c)
(d)
(e)
(f )

y[k] = sin k
( 3
sin 3k
; k = 0, . . . , 3
y[k] =
y[k + 4] ; e.t.o.c.
(
k
; 6= 1, k = 0, . . . , N 1
y[k] =
y[k + N ] ; e.t.o.c.
y[k] = (1)k

1
y[k] = 1

y[k + 6]
y[k] = k

mod N

; k = 2, . . . , 0
; k = 1, . . . , 3
; e.t.o.c.

112

An
alisis de sistemas lineales bajo excitaciones peri
odicas

Construya el espectro de lnea para cada caso.

Captulo 5

Captulo 6

SISTEMAS LINEALES
SUJETOS A EXCITACIONES

ARBITRARIAS. ANALISIS
VIA FOURIER

6.1

La limitaci
on de las series de Fourier

En el captulo anterior se estudio la representacion de se


nales en un intervalo de
tiempo finito (to , to + T ) a traves de una combinacion lineal de un n
umero (posiblemente infinito) de sinusoides. Este analisis es muy u
til para establecer de una
manera simple, el contenido frecuencial (espectro) de una se
nal periodica, identificando claramente la amplitud y fase de cada una de las armonicas que la forman,
tanto en tiempo discreto como en continuo. En este captulo presentamos la extension para un periodo T = , para estudiar el contenido frecuencial de se
nales no
periodicas ( o de periodo infinito).
El resultado de esta extension, nos permitira incorporar al analisis importantes
se
nales causales como el impulso de Dirac, el escalon, la exponencial real decreciente
y otras arbitrarias como muestra la Figura 6.1. Una clase adicional y experimentalmente muy importante a incluir ahora esta compuesta por las se
nales conocidas en
un intervalo de tiempo finito. Estas se
nales se pueden calificar como periodicas o
no, dependiendo de lo que ocurra fuera del intervalo conocido. La transicion hacia
infinito, del periodo de conocimiento de la se
nal que se incluye en la herramienta
de analisis, es justamente el proceso que permite desarrollar una herramienta capaz
de incorporar las funciones no periodicas al analisis frecuencial.

6.2

La Transformaci
on de Fourier. El caso del tiempo continuo

Si recordamos el captulo anterior (5) una serie de Fourier sirve para representar
una funcion, f (t), mediante suma de sinusoides. Sin embargo, esta serie representa
a la funcion solo dentro del intervalo sobre el cual se calculo, [to , to + T ). Si la
113

114

Sistemas Lineales sujetos a Excitaciones Arbitrarias. An


alisis Va Fourier

Captulo 6

Figura 6.1. Se
nales arbitrarias

se
nal es periodica,y este intervalo corresponde a un n
umero entero de perodos de
la funcion, entonces la serie tambien la representa en el resto del eje real. Esta
idea tambien se puede aplicar para obtener la serie de Fourier para una funcion no
periodica, siempre que la restrinjamos a un intervalo [a, b] de longitud T . Como se
menciono antes, esta serie (periodica) representa a la funcion (no periodica) dentro
del intervalo, y fuera de este solo replica periodicamente la representacion lograda
en [a, b]. Esto puede apreciarse en la figura 6.2.
En esta misma figura 6.2 se muestra que la longitud del intervalo T puede
ampliarse, de manera de ir mejorando la representacion de la funcion a traves de la
serie. Pues bien, lo que interesa en este punto es ver que pasa con la representacion
cuando el intervalo tiene longitud infinita. Es decir, queremos ver que pasa con la
serie de Fourier cuando se utiliza para representar funciones de perodo infinito o
aperiodicas.

Figura 6.2. La funcion restringida a [a, b] y su reconstruccion usando la serie de


Fourier.
La serie de Fourier exponencial para una funcion periodica, de perodo T , tiene
la forma:

Section 6.2.

La Transformaci
on de Fourier. El caso del tiempo continuo

f (t) =

Cn ejn t

115

(6.2.1)

n=

En que
Cn =

1
T

T /2

f (t)ejn t dt

(6.2.2)

2
T

(6.2.3)

T /2

n = n0 = n

La ecuacion (6.2.1) es la que describe la funcion f (t), dentro del intervalo [ T2 , T2 ]


en terminos de las exponenciales periodicas que representan las diferentes armonicas
n . Recordemos que la ecuacion (6.2.3) explicita que las armonicas no son nada
mas que m
ultiplos de la frecuencia fundamental 0 = 2
T .
Ahora bien, cada uno de los coeficientes definidos por la ecuacion (6.2.2) define
a Cn como funcion de la frecuencia n , es decir:
Cn = Fn (n )

(6.2.4)

F () = T Fn (n )

(6.2.5)

Consideremos ahora la funcion

Con esto la serie de Fourier exponencial (6.2.1) de f (t) puede reescribirse como:

f (t) =
=

1 X
F (n )ejn t
T n=

1 X
F (n )ejn t 0
2 n=

Pero si se observa que


0 = n n1 =

(6.2.6)

La serie se reescribe como

1 X
F (n )ejn t
f (t) =
2 n=

Esta u
ltima expresion corresponde a una suma de Riemann 1 , la que, llevada
al lmite cuando el perodo T crece hasta infinito, equivale a 0, con lo que la
serie se transforma en una integral:
1 De

la que puede obtenerse m


as informaci
on en alg
un texto de C
alculo Integral

116

Sistemas Lineales sujetos a Excitaciones Arbitrarias. An


alisis Va Fourier

f (t) =

1
2

F (j)ejt d

Captulo 6

(6.2.7)

El significado de esta u
ltima expresion es conceptualmente muy importante, ya
que nos indica que a medida que el perodo de una funcion periodica aumenta, la
distancia entre la lneas del espectro se reduce progresivamente, y en el lmite,
cuando la funcion tiene perodo infinito y 0, la representacion en frecuencia
de f (t) pasa de ser discreta a ser una representacion continua. As, en vez de
quedar expresada como una suma de sinusoides de frecuencias m
ultiplos de una
fundamental 0 , queda representada por una integral en que participa una funcion,
F (j) definida para en toda la recta real.
Esta funcion F () es la transformada de Fourier de f (t) , y su expresion se
deduce utilizando (6.2.5), (6.2.4) y (6.2.2):
F () = T Cn
Z T /2
=
f (t)ejn t dt
T /2

Que cuando T , y considerando R, se llega a


Z

F () =

f (t)ejt dt

(6.2.8)

Dada la forma de la integral (6.2.8), puede apreciarse que F () en general sera


una funcion en la variable real pero con valores complejos, con parte real e imaginaria, excepto en casos especiales (ver Problema 6.4). Para enfatizarque la transformada de Fourier F () es una funcion compleja, se prefiere denotarla por F (j).
Con esta u
ltima observacion podemos establecer finalmente la existencia del par
transformada y transformada inversa de Fourier seg
un

f (t)ejt dt

F [f (t)] = F (j) =

(6.2.9)

1
[F (j)] = f (t) =
2

F (j)ejt d

(6.2.10)

Para la existencia de la transformada de Fourier es suficiente que la funcion


f (t) sea absolutamente integrable en ] , [, es decir:
Z

| f (t) | dt

<

(6.2.11)

Section 6.2.

La Transformaci
on de Fourier. El caso del tiempo continuo

117

Sin embargo, a
un podemos obtener la transformada de Fourier de funciones que
no cumplen este requisito, por ejemplo, las funciones periodicas.
1
El factor 2
que acompa
na a la integral en (6.2.10), en algunos textos es repartido equitativamente entre ambas integrales, como un factor 12 en la transformada
directa y en la inversa. Preferiremos las expresiones (6.2.9) y (6.2.10), ya que esta
u
ltima puede reescribirse de manera natural, reemplazando la frecuencia angular
en [rad/s] por la frecuencia f en [Hz], tal como se aprecia en la siguiente ecuacion
Z

f (t) =

F (j2f )ej2f t df

Todo el desarrollo realizado para analizar lo que sucede con la serie de Fourier
exponencial cuando el perodo de la funcion se considera tendiendo a infinito, puede
repetirse de manera similar para la serie de Fourier trigonometrica (ver Problema
6.3)
Ejemplo 6.1. Para ilustrar los resultados obtenidos veamos un ejemplo. Consideremos la funci
on f (t) definida en principio peri
odica en el intervalo [ T2 , T2 ]:
(
f (t) =

A
0

; |t| /2 < T /2
; /2 < |t| T /2

Esta corresponde a un pulso de alto A y ancho , centrado en cero, que se repite


en intervalos de longitud T .
Con ayuda de Maple, los coeficientes de la serie exponencial de Fourier se
obtienen
>
>
>
>
>

assume(T>0,A>0);
assume(0<tau,tau<T);
y(t,T) := A * ( Heaviside(t+tau/2) - Heaviside(t-tau/2) );
C(0,T):=1/T*int(y(t,T),t=-T/2..T/2);
C(n,T):=simplify(1/T*int(y(t,T)*exp(-I*2*Pi*n/T*t),t=-T/2..T/2));

C0 =

A
T

Cn =

A seno T

n
T
T

(6.2.12)
n
n 6= 0

(6.2.13)

118

Sistemas Lineales sujetos a Excitaciones Arbitrarias. An


alisis Va Fourier

Captulo 6

La transformada de Fourier de y(t) resulta dada por la expresi


on
Z

F (j) =

Z
y(t)ejt dt =

/2

Aejt dt

(6.2.14)

/2

/2

A
A

= (ej 2 ej 2 )
ejt
j
j
/2

2A
seno
=

2
=

(6.2.15)
(6.2.16)

Que se prefiere escribir como


F (j) = A

seno

(6.2.17)

Si consideramos ahora la ecuaci


on (6.2.13), podemos escribir
n
seno(
)
2
T Cn = A
n
2

(6.2.18)

lim T Cn = F (j)

(6.2.19)

donde n = 2n
T .
As observamos que
n

222
A pesar de su conexion, existen varias diferencias conceptuales entre la Serie
de Fourier y la Transformada de Fourier. La primera destacable es que el espectro
de lnea que aparece asociado a la Serie de Fourier, se convierte, en el caso de la
Transformada de Fourier, en un espectro definido para toda frecuencia. En forma
compacta nos referiremos a este u
ltimo como el espectro continuo de la se
nal.
Una segunda diferencia es que la Serie de Fourier resulta descrita por un conjunto de valores complejos asociados a un conjunto enumerable de frecuencias (la
frecuencia 0 y las frecuencias m
ultiplos de una frecuencia fundamental), esos valores complejos determinan la amplitud y fase de las componentes armonicas. Ese
no es el caso de la Transformada de Fourier para se
nales de tiempo continuo, ya que
la transformada F (j) es una medida de densidad o mas bien de intensidad
relativa (no absoluta) de la participacion de las distintas frecuencias en la representacion de la funcion. Esta cantidad esta definida para todo el eje de los reales,
es decir, para todo , as, la presencia de una frecuencia 1 en una se
nal f (t) esta
dada por
Z
Y1 =

1+
1

F (j)ejt d

(6.2.20)

Section 6.2.

La Transformaci
on de Fourier. El caso del tiempo continuo

119

Esta integral es cero, a menos que F (j) contenga un impulso ( 1 ), en el


Apendice C se demuestra que este impulso acusa la presencia de una componente
sinusoidal en f (t).
Para apreciar esta diferencia desde un angulo distinto, consideremos la analoga
de una viga empotrada, cargada con arena fina y con tres fuerzas puntuales, como
se muestra en la Figura 6.3.
F2

F1

F3
f(x)

Figura 6.3. Viga cargada con arena

La viga tiene un largo L y un ancho A. En la Figura 6.3 la coordenada x


es analoga a la frecuencia angular . En primer lugar se aprecian tres fuerzas
no nulas, que act
uan en puntos especficos de la viga. Ellas son analogas a los
coeficientes de una serie de Fourier. En segundo lugar se observa la carga de arena,
con una distribucion f (x) [N t/m]. Esta distribucion captura la irregularidad de la
distribucicon de la arena a lo largo y a lo ancho de la viga. Se puede deducir que si
f (x) es finita, entonces, esta carga de arena ejerce una fuerza cero en cualquier
punto de la viga. No obstante, es obvio que si la densidad de la arena es (x),
entonces la fuerza total ejercida por la carga de arena es
Z

f (x)(x)Adx

(6.2.21)

La densidad de carga por metro lineal f (x) es entonces analoga a la transformada


de Fourier F (j), en el sentido que esta u
ltima corresponde a una densidad espectral
por ancho de banda.
222
La transformacion de Fourier posee una serie de propiedades que resultan de
mucha utilidad para el calculo de transformadas de funciones a partir de algunas
elementales, para la obtencion de transformadas inversas sin tener que resolver la
integral (6.2.10), y para el analisis de sistemas, como se ve en la seccion siguiente.
Estas propiedades se detallan en el apendice C. Algunas de esas propiedades son
de especial relevancia por sus aplicaciones.

120

6.2.1

Sistemas Lineales sujetos a Excitaciones Arbitrarias. An


alisis Va Fourier

Captulo 6

Parseval y la energa de las se


nales aperi
odicas en tiempo
continuo

Los resultados deducidos por Parseval permiten tambien relacionar directamente las
caractersticas de una se
nal cualquiera con su transformada de Fourier. Los detalles
matematicos pueden ser examinados en el Apendice C.
Si la se
nal (real) f (t) tiene energa finita en el intervalo (, ), y su transformada de Fourier es F (j) entonces, aplicando el Teorema C.1 en la pagina 314, se
tiene que
Z

(f (t)) dt =

1
2

|F (j)|2 d =

|F (j)|2 d

(6.2.22)

Observando el lado derecho de la ecuacion, podemos calcular la fraccion de la


energa total que es aportada por cada intervalo del espectro (k , k+1 ). Para
apreciar esto consideremos el siguiente ejemplo
Ejemplo 6.2. Sea la se
nal f (t) = eat (t), donde a R+ . Entonces, su transformada de Fourier es
1
F (j) =
(6.2.23)
j + a
y su energa total es
Z
Z
1
1
1
2at
W =
e
dt =
d =
(6.2.24)
2 + a2

2a
0
0
Usando Parseval podemos demostrar que la mitad de esa energa es aportada
por el espectro en el intervalo de frecuencia (a, a), como se ve en
Z
1 a
1
1
a
1
W(a,a) =
d
=
arctan
(6.2.25)
=
0 2 + a2
a
a 0
4a

6.2.2

Aplicaci
on a sistemas lineales

Nuestro interes en el estudio de la transformacion de Fourier y sus propiedades,


se origina en su utilidad para analizar las caractersticas de los sistemas lineales.
La definicion hecha en la seccion precedente de la transformada de Fourier resulta
como continuaci
on natural de las series de Fourier, de esta forma la transformada
constituye la prolongacion natural del estudio de propiedades del sistema como la
respuesta en frecuencia, ancho de banda y filtraje, entre otras.
Para apreciar la utilidad del analisis mediante transformada de Fourier, consideremos un sistema lineal de tiempo continuo, definido por su ecuacion diferencial
(EDS) tal como se vio en el captulo 3.
d n y(t)
d n1 y(t)
d m u(t)
d m1 u(t)
+
a
+
.
.
.
+
a
y(t)
=
b
+
b
+ . . . + b0 u(t)
n1
0
m
m1
dt n
dt n1
dt m
dt m1
(6.2.26)

Section 6.2.

La Transformaci
on de Fourier. El caso del tiempo continuo

121

En que u(t) e y(t) representan respectivamente la se


nal de entrada y de salida
del sistema. Note que por generalidad hemos reemplazado n 1 por m en el lado
derecho, aunque seguiremos suponiendo que el sistema es propio, es decir, m n.
Si utilizamos la propiedad que permite obtener una expresion para la transformada de Fourier de la derivada de una funcion, ecuacion (C.1.9), pagina 310,
a cada una de las derivadas de la entrada u(t) y la salida y(t) puede aplicarsele
trasnformacion de Fourier, utilizando
n

d f (t)
F
= (j)n F [f (t)] = (j)n F (j)
dt n
De esta forma, si se aplica transformacion de Fourier2 a ambos lados de la EDS
(6.2.26) se obtiene
(j)n Y (j) + . . . + a0 Y (j) = bm (j)m U (j) + . . . + b0 U (j)

(6.2.27)

luego
Y (j) =

bm (j)m + . . . + b0
B(j)
U (j) =
U (j)
(j)n + . . . + a0
A(j)

(6.2.28)

donde A(j) y B(j) son polinomios en j.


Si ahora definimos la funcion racional en j como
H(j) =

B(j)
bm (j)m + . . . + b0
=
A(j)
(j)n + . . . + a0

(6.2.29)

entonces la salida del sistema lineal puede ser expresada como


Y (j) = H(j)U (j)

(6.2.30)

La funcion H(j) que aparece en la expresion para la salida Y (j) es la que


caracteriza al sistema mismo, ya que depende solo de los coeficientes de la EDS
(6.2.26), y no de la se
nal de entrada U (j). Esta funcion se conoce como funci
on
de transferencia o transferencia de Fourier.
En general, H(j) es una funcion racional en j. Sin embargo, existen casos
en que la entrada u(t) se aplica en forma retardada al sistema. En esos casos,
si el retardo es , la transformada de Fourier U (j) debe ser reemplazada por
U (j)ej (vea la tabla de propiedades C.1 en la pagina 316 ) y la funcion de
transferencia resulta dada por
H(j) =

B(j)
bm (j)m + . . . + b0 j
=
e
A(j)
(j)n + . . . + a0

(6.2.31)

Una discusion adicional sobre la naturaleza de H(j) se desarrolla en la subseccion 6.2.4.


2 Hay

algunos puntos finos en esta deducci


on que ser
an discutidos en la secci
on 6.2.4

122

Sistemas Lineales sujetos a Excitaciones Arbitrarias. An


alisis Va Fourier

Captulo 6

Una interpretacion fundamental para la funci


on de transferencia se puede
construir a partir del Lema 3.1 en la pagina 50. All se establece que la respuesta
de un sistema a una se
nal de entrada arbitraria u(t), puede obtenerse mediante la
convolucion de esta con la respuesta h(t) del sistema a un impulso unitario:
Z
y(t) = u(t) h(t) =
u( )h(t )d
(6.2.32)

Si aplicamos transformacion de Fourier a esta relacion, utilizando el resultado (C.1.13) en la pagina 313 que establece la transformada de la convolucion de
funciones, tenemos que:
F [y(t)] = F [u(t) h(t)]
Y (j) = U (j)F [h(t)]

(6.2.33)
(6.2.34)

Podemos apreciar entonces que la funcion H(j) en la ecuacion (6.2.30) es


exactamente la transformada de Fourier de la respuesta h(t) del sistema (6.2.26)
a un impulso unitario en su entrada.
Dado que la EDS tiene solo coeficientes reales, la funcion de transferencia H(j)

cumple con H(j) = (H(j)) , lo que implica que:


su magnitud es una funcion par en
su fase es una funcion impar en

= |H(j)|
= H(j)

= |H(j)|
= H(j)|

(6.2.35)
(6.2.36)

Para ilustrar la derivacion de la funcion de transferencia a partir de un sistema


fsico, examinemos el siguiente ejemplo.
Ejemplo 6.3. Consideremos el circuito de la figura 6.4, que puede ser visto como
un sistema con entrada el voltaje de la fuente vf (t) y como salida el voltaje en el
condensador vc (t).
R
+
vf (t)

vc (t)

i(t)
Figura 6.4. Circuito RC como sistema de primer orden.
Usando leyes de Kirchoff y la ecuaci
on para la corriente por el condensador,
podemos llegar a una EDS

Section 6.2.

123

La Transformaci
on de Fourier. El caso del tiempo continuo

vR (t) + vC (t) = vf (t)


d vC (t)
+ vC (t) = vf (t)
dt
d vC (t)
1
1
+
vC (t) =
vf (t)di(t)
dt
RC
RC
RC

En estas ecuaciones se puede renombrar vc (t) = y(t) , vf (t) = u(t) ,


con lo que la EDS resulta
d y(t)
+ y(t) = u(t)
dt

; R+

1
RC

=,

(6.2.37)

A continuaci
on calculamos la salida del sistema para diferentes funciones de
entrada u(t)
Si aplicamos transformaci
on de Fourier a (6.2.37) tenemos
>with(inttrans) : assume(alpha>0) :
>eds:= diff(y(t),t)+alpha*y(t)=alpha*u(t) ;
>eq1:=fourier(u(t),t,w)=U(jw) :
>eq2:=fourier(y(t),t,w)=Y(jw) :
>subs({eq1,eq2},fourier(eds,t,w)) ;

jY (j) + Y (j) = U (j)


Donde se puede despejar la salida, ejecutando el siguiente comando Maple a
continuacion de los anteriores
> Y(jw):=solve(%,Y(jw));

Y (j) =

U (j)
j +

(6.2.38)

Con esta expresi


on se puede obtener la salida del sistema para diferentes casos,
con ayuda de la tabla de tranformadas C.2 en la p
agina 317.
Entrada impulso unitario
En primer lugar, podemos calcular casi directamente la respuesta a impulso del
sistema, ya que si u(t) = (t) , entonces U (j) = 1 y por tanto
>U(jw)= fourier(Dirac(t),t,w) :
>H(jw)=subs(%,Y(jw));

124

Sistemas Lineales sujetos a Excitaciones Arbitrarias. An


alisis Va Fourier

Captulo 6

U (j) = 1
Y (j) = H(j) =

j +

Donde se aplica transformaci


on inversa
> h(t) = invfourier(H(jw),w,t);

h(t) = F 1

1
j +

= et (t)
Entrada escal
on unitario
>U(jw)= fourier(Heaviside(t),t,w) :
>Y(jw)=subs(%,Y(jw));
1
U (j) = () +
j

() +
Y (j) =
j +
j
Donde se desarrolla el producto y luego se buscan terminos que correspondan a
transformadas conocidas, ya sea agrupando de manera conveniente o separando en
fracciones parciales.

Y (j) =
() +
j +
j(j + )
1
1
= () +

j (j + )
Ya que, del termino que multiplica al delta Dirac s
olo interesa su valor en = 0,
y el otro se separa en fracciones parciales3 . De esta forma se puede calcular la
transformaci
on inversa de Fourier:
> y(t) = invfourier(Y(jw),w,t);

y(t) = F

1
1
1
F
() +
j
(j + )

= (t) et (t)
3 La

358

forma de hacer esta separaci


on se analiza en m
as detalle en la secci
on D.1.3 en la p
agina

Section 6.2.

6.2.3

La Transformaci
on de Fourier. El caso del tiempo continuo

125

La funci
on de transferencia y la respuesta en frecuencia

Examinemos primeramente la respuesta a una exponencial peri


odica u(t) = ejo t ,
la transformada de Fourier de u(t) es

U (j) = F ejo t = 2( o )
Con lo que la salida ser
a

2( o )
j +

=
2( o )
jo +

y(t) =
ejo t
jo +
Y (j) =

= A(o )ejo t+j(o )


En que

= p
A(o ) =
jo +
o2 + 2
o
(o ) = arctan

Lo anterior muestra que, al pasar a traves del sistema, la exponencial peri


odica,
experimenta un cambio en magnitud (en un factor A(o )) y en fase (una adici
on
igual a (o ).
La u
ltima parte del ejemplo anterior pone de manifiesto la utilidad de conocer
la transformada de la respuesta a impulso, H(j). Observe que,
Y (j) = H(j)U (j)

(6.2.39)

Pero si u(t) = ejo t , entonces


Y (j) = H(j)2( o )
= H(jo )2( o )

(6.2.40)
(6.2.41)

Luego, la salida es
y(t) = H(jo )ejo t

(6.2.42)

As tenemos que H(jo ) representa la ganancia al modo forzante ejo t ,


definida en (3.3.16). Es mas, dada la relacion de las exponenciales periodicas con
las se
nales sinusoidales podemos establecer el siguiente lema

126

Sistemas Lineales sujetos a Excitaciones Arbitrarias. An


alisis Va Fourier

Captulo 6

Lema 6.1. Dado un sistema estable de tiempo continuo con entrada u(t) y salida
y(t). La respuesta del sistema a la entrada se
nal de entrada sinusoidal u(t) =
cos(o t), t, es
y(t) = A(o ) cos(o t + (o ))

(6.2.43)

En que
A(o ) = |H(jo )|
(o ) = H(jo )

(6.2.44)
(6.2.45)

Donde H(j) es la transformada de Fourier de la respuesta a impulso del sistema


h(t).
Demostraci
on
La respuesta a la excitaci
on cos(o t), puede ser calculada como la combinaci
on de
las respuestas a un par de exponenciales peri
odicas
Y (j) = H(j)U (j)

(6.2.46)

Pero si u(t) = 12 (ejo t + ejo t ) , entonces


Y (j) = H(j)(( o ) + ( + o ))
= H(jo )( o ) + H(jo )( + o )

(6.2.47)
(6.2.48)

Luego, la salida es
1
1
H(jo )ejo t + H(jo )ejo t
2
2
1
1
jo t+jH(jo )
= |H(jo )|e
+ |H(jo )|ejo tjH(jo )
2
2
= |H(jo )| cos(o t + H(jo ))

y(t) =

(6.2.49)
(6.2.50)
(6.2.51)
222

Ejemplo 6.4. Para el mismo sistema del ejemplo anterior, descrito por la ecuaci
on
diferencial
d y(t)
+ y(t) = u(t)
; R+
dt
Determinemos la soluci
on si la se
nal de entrada es u(t) = cos(t).
Tal como se hizo antes se aplica transformaci
on de Fourier sobre la EDS, donde
se ha reemplazado la entrada u(t) con lo que se obtiene la transformada de Fourier
de la salida

Section 6.2.

La Transformaci
on de Fourier. El caso del tiempo continuo

127

> U(jw)= fourier(cos(t),t,w) : eq3 ;


simplify(subs(eq3,Y(jw)));

U (j) = (( + 1) + ( 1))

Y (j) =
(( + 1) + ( 1))
j +
Donde la transformaci
on inversa puede calcularse simplificando como antes

( + 1) +
( 1)
j +
j+
( + j)
( j)
=
( + 1) + 2
( 1)
2 + 1
+1
= Aej ( + 1) + Aej ( 1)

Y (j) =

En que

( + j)
=
A = 2
+1
2 + 1

( + j)
1
=
= arctan
2
+1

Por lo tanto la salida puede obtenerse calculando la transformaci


on inversa
A jt+j A jtj
e
+ e
2
2
y(t) = A cos(t )

cos t arctan
=

2 + 1

F 1 [Y (j)] =

Se deja al lector verificar que cuando la entrada es una sinusoide de frecuencia


arbitraria, cos(o t), entonces la salida del sistema ser
a

o
y(t) = p
cos t arctan
(6.2.52)

2 + o2
En la figura 6.5 se muestra la magnitud A(o ) y
angulo de desfase (o ) de la
salida cuando = 10.
Es decir, la salida que se obtiene corresponde a la parte estacionaria de la salida
del sistema, donde no aparecen modos naturales. Esto es coherente, ya que podemos pensar una se
nal no causal como una que comenzo a actuar sobre el sistema en
t = , y por ende no existe el efecto de las condiciones iniciales . Sin embargo,

128

Sistemas Lineales sujetos a Excitaciones Arbitrarias. An


alisis Va Fourier

Captulo 6

0.8
0.5

()

A()

0.6

0.4

0.2

1.5

100

200

300

400

500

600

(a) Magnitud

100

200

300

400

500

600

(b) Angulo

Figura 6.5. Magnitud y angulo de H(j) en el ejemplo ( = 100).

debemos observar que el desarrollo realizado es analogo cuando < 0. Esto nos
advierte que en el caso de sistemas inestables, es decir, con frecuencias naturales
fuera del semiplano izquierdo (que es la zona de estabilidad para sistemas de tiempo continuo), la salida obtenida mediante la transformacion de Fourier resulta ser
acotada, mientras que la salida verdadera del sistema crece hasta infinito. Es decir,
la solucion mediante Fourier para se
nales no causales resulta ciega a la inestabilidad propia del sistema, pero nos permite obtener la componente particular
de la se
nal de salida. Para ilustrar esto observe el siguiente ejemplo, que solo tiene
sentido si el sistema bajo analisis es estable.
Ejemplo 6.5. Consideremos el caso en que la entrada al sistema es u(t) = cos(t)(t).
En este caso, tenemos que la transformada de Fourier de la entrada y de la salida
al sistema son respectivamente
>U(jw) = fourier(Heaviside(t)*cos(t),t,w);
>Y(jw) = subs (%,Y(jw));

(( 1) + ( + 1)) +
2
2 + 1

j
Y (j) =
(( 1) + ( + 1)) +
j + 2
2 + 1
U (j) =

La salida Y (j) puede simplificarse con las mismas consideraciones anteriores,


es decir, evaluando los coeficientes que acompa
nan a los deltas de Dirac en la frecuencia de interes, separando en fracciones parciales y agrupando convenientemente

Section 6.2.

La Transformaci
on de Fourier. El caso del tiempo continuo

129

( 1) +
( + 1) +
j+ 2
j + 2
(j + )( 2 + 1)

( j)
( + j)
(j + 1))
2
1
=
( 1) +
( + 1) + 2

2 + 1 2
j + 2
( + 1)( 2 + 1) 2 + 1 j +

j
2
( + 1) + ( 1) + 2
( + 1) ( 1)
= 2
+1 2
+1 2

2
j

1
2
1
+ 2
+

( + 1) ( 2 + 1) (2 + 1) ( 2 + 1) 2 + 1 j +

Y (j) =

Por tanto, con ayuda de la tabla C.2 tenemos que la salida es

j
1
F
(
+
1)
+
(

1)
+
2 + 1
2
( 2 + 1)

j
1
+ F 1
( + 1) ( 1) +
2
( 2 + 1)

1
F 1
j +


y(t) = 2
cos(t)(t) + seno(t)(t) et (t)
+1
y(t) =

En Maple los c
alculos se pueden hacer mucho m
as r
apido, y dado que en
la transformaci
on inversa aparecen exponenciales complejas, se utiliza la funci
on
evalc, que permite expandir estas mediante la relaci
on de Euler4
>U(jw) = fourier(Heaviside(t)*cos(t),t,w);
>subs(%,Y(jw));
>y(t) = simplify( evalc( invfourier(%,w,t) ) );
222
Una generalizacion de los resultados precedentes se puede extraer examinando la
naturaleza de la funcion de transferencia y la forma en que evolucionan su magnitud
y su fase con la frecuencia . En estas caractersticas, que definen la respuesta en
frecuencia del sistema, se capturan efectos tales como su velocidad, su capacidad
de filtrar y discriminar, etc.
Es com
un que para clasificar las funciones de transferencia de sistemas esta
bles, se use su caracterstica filtrante. Esta
queda determinada por |H(j)|. Para
ejemplificar esta descripcion consideremos primero sistemas que discriminan entre
frecuencias altas y bajas.
4 ej

= cos() + j seno()

130

Sistemas Lineales sujetos a Excitaciones Arbitrarias. An


alisis Va Fourier

|H(j)|

Captulo 6

|H(j)|

Figura 6.6. Sistemas pasa bajos (izquierda) y pasa altos (derecha)

En la Figura 6.6 se observan dos conductas distintas. El sistema descrito por la


caracterstica del lado izquierdo, deja pasar las bajas frecuencias y aten
ua las altas
frecuencias. El sistema caracterizado por la funcion de transferencia del lado derecho
hace lo contrario: deja pasar las altas frecuencias y bloquea las bajas frecuencias.
Una forma de apreciar estos comportamientos distintos es aplicar a ambos sistemas
una misma secuencia de escalones temporales. La transicion brusca de un nivel a
otro requiere la presencia de muy altas frecuencias, en estricto sentido, de frecuencia
infinita. Por otro lado, una vez que se ha llegado a un nuevo nivel, predominan las
frecuencias bajas, en rigor, la frecuencia cero. Los escalones tambien tienen energa
a frecuencias intermedias tal como lo revela la transformada de Fourier del escalon
unitario, estas frecuencias intermedias se originan en el quiebre entre una pendiente
infinita (inicio del escalon) y una pendiente cero (resto del escalon).
Ejemplo 6.6. Considere los siguientes sistemas
1
(j + 1)2
(j)2
H2 (j) =
(j + 1)2
H1 (j) =

Pasa bajos

(6.2.53)

Pasa altos

(6.2.54)

Si a ambos sistemas se aplica una secuencia de escalones, se obtiene el resultado


de la Figura 6.7.
De la Figura 6.7 se observa que la respuesta del filtro pasa bajos, y1 (t), no puede
seguir las transiciones de los escalones, pero alcanza el nivel constante de la entrada
sin error (dado que la ganancia a continua es uno). Por su parte, la respuesta del
filtro pasa altos, y2 (t), es capaz de replicar instant
aneamente los cambios bruscos, sin
embargo presenta respuesta nula una vez que el escal
on alcanza un nivel constante
(dado que la ganancia a continua es cero).
222

Section 6.2.

131

La Transformaci
on de Fourier. El caso del tiempo continuo

Respuesta a escaln

y1(t)

1.5
1
0.5
0

y2(t)

0.5
1
0

10

15
Tiempo [s]

20

25

30

Figura 6.7. Respuesta a escalones de un sistema pasa bajos y un sistema pasa


altos.

La transicion entre una zona de paso y otra de rechazo (y viceversa) que ocurre en
|H(j)| es siempre gradual. Una forma de cuantificar un lmite para esa transicion
es lo que se define como frecuencia de corte. Esta definicion, aunque arbitraria
es
universalmente aceptada. En la Figura 6.6, c es la frecuencia de corte si a = A/ 2.
Aparte del comportamiento pasa bajos y pasa altos podemos reconocer las caractersticas pasa banda y elimina banda. Las caractersticas generales de ambos
sistemas aparecen reflejadas en los graficos de la Figura 6.8.
|H(j)|

|H(j)|

c1

c2

c1

c2

Figura 6.8. Sistemas pasa banda y elimina banda.


El sistema descrito por la caracterstica del lado izquierdo en la Figura 6.8
bloquea las frecuencias bajas y las fecuencias altas, en cambio, deja pasar un rango
de frecuencias intermedias. Por su parte, el sistema descrito por la caracterstica
del lado derecho en la Figura 6.8, bloquea un rango intermedio de frecuencias y
deja pasar tanto las altas como las bajas frecuencias. El comportamiento de estos
sistemas puede ser estudiado tambien usando una secuencia de escalones. Para

132

Sistemas Lineales sujetos a Excitaciones Arbitrarias. An


alisis Va Fourier

Captulo 6

ilustrar las diferentes conductas desarrollamos un ejemplo.


Ejemplo 6.7. Considere los siguientes sistemas
j
(j + 1)2
(j)2 + 1
H4 (j) =
(j + 1)2

H3 (j) =

Pasa banda

(6.2.55)

Elimina banda

(6.2.56)

Cuando a ambos sistemas se aplica una secuencia de escalones se obtiene el


resultado de la Figura 6.9.

Respuesta a escaln

1.5
1

y4(t)

0.5
0

y3(t)

0.5
1
1.5

10

15
Time [s]

20

25

30

Figura 6.9. Respuesta a escalones de un sistema pasa banda y un sistema elimina banda.

De la Figura 6.9 se observa que la respuesta del filtro pasa banda, y3 (t), no
puede seguir las transiciones de los escalones, y presenta respuesta nula una vez
que el escal
on alcanza niveles constantes (tiene ganancia a continua igual a cero).
Por su parte, la respuesta del filtro elimina banda, y4 (t), es capaz de replicar instant
aneamente los cambios bruscos, y de alcanzar, sin error, el valor constante de
la entrada (tiene ganancia a continua igual a uno). Sin embargo, y4 (t) presenta
una anomala justo despues de la transici
on brusca. Esta anomala se debe a que el
sistema bloquea un rango intermedio de frequencias.
En el caso de los sistemas pasa banda y sistemas elimina
banda, existen dos
frecuencias de corte, c1 y c2 (vea Figura 6.8), para a = A/ 2.
Cualquiera que sea la naturaleza filtrante del sistema, las frecuencias de corte
delimitan la(s) banda(s) de paso y la(s) banda(s) de rechazo.

6.2.4

Caso singular en la funci


on de transferencia.

En primer lugar se debe enfatizar que

Section 6.2.

La Transformaci
on de Fourier. El caso del tiempo continuo

133

La funcion de transferencia de un sistema lineal de tiempo continuo esta definida


solo si su respuesta a impulso tiene transformada de Fourier. Esto es equivalente
a exigir que el sistema tenga solo frecuencias naturales en el SPI cerrado, con
la condicion que si algunas de esas frecuencias naturales estan sobre el eje
imaginario, ellas sean simples
Es muy importante notar que el Lemma 6.1 en la pagina 126, que iguala H(j)
con la respuesta en frecuencia, esta formulado para sistemas estables. No podemos extender este resultado a sistemas que tienen frecuencias naturales en el eje
imaginario, aunque sean no repetidas. Veamos a traves de un ejemplo, los resultados
erroneos que surgen si no somos cuidadosos.
Ejemplo 6.8. Un sistema con entrada u(t) y salida y(t), tiene una EDS
dy(t)
= u(t)
(6.2.57)
dt
Observamos que el sistema tiene s
olo una frecuencia natural, y ella est
a ubicada en = 0, es decir, se trata de una frecuencia natural no repetida en el eje
imaginario.
La respuesta en frecuencia, K() est
a dada por la ganancia al modo forzante
ejt , y ella resulta de aplicar (3.3.16) a este caso particular:
K() =

1
j

(6.2.58)

Suponga que u(t) = eat (t), a > 0 y si, err


oneamente, hacemos H(j) =
K(), entonces y(t) se puede calcular de

1
y(t) = F 1 [Y (j)] = F 1 [H(j)U (j)] = F 1
(6.2.59)
j(j + a)
Usando el c
odigo Maple
>with(inttrans):
>assume(a>0);simplify(evalc((invfourier(1/(-w^2+I*a*w),w,t)));
se obtiene

signo (t) 2eat (t)


(6.2.60)
2a
dando origen a una respuesta no causal, ya que la funci
on signo (t) tiene valor
1, t < 0.
Para obtener la respuesta correcta recordemos que la funci
on de transferencia
H(j) es la transformada de Fourier de la respuesta del sistema a un impulso
unitario. Aplicando esta definici
on a nuestro sistema se llega a
y(t) =

134

Sistemas Lineales sujetos a Excitaciones Arbitrarias. An


alisis Va Fourier

H(j) =
Entonces

y(t) = F

1
+ ()
j

1
+ ()
j(j + a)
a

Captulo 6

(6.2.61)

(6.2.62)

Y, usando Maple se obtiene


y(t) =

1 eat (t)
(t)
a

(6.2.63)

que es la respuesta correcta.


222
El ejemplo precedente ilustra y explica el problema. Cuando el sistema tiene
frecuencias naturales en el eje imaginario, los modos naturales asociados no decaen,
y la transformada de Fourier de cada uno de ellos solo existe en el lmite. Esta
condicion es acusada por la presencia de deltas de Dirac en . As, la funcion de
transferencia es una funcion racional mas uno o varios deltas de Dirac en .
La u
ltima pregunta que debemos responder es por que la determinacion de
H(j) usando (6.2.27) no da el resultado correcto. La respuesta esta en que para
pasar de (6.2.27) a (6.2.29) se requiere dividir por un polinomio que se hace cero para
uno o mas valores de , es decir, se realiza una division por cero a esas frecuencias.
Consideremos un ejemplo adicional.
Ejemplo 6.9. Sea un sistema con la EDS
d 2 y(t)
+ 4y(t) = 3u(t)
dt 2

(6.2.64)

Al aplicar transformaci
on de Fourier se obtiene
((j)2 + 4)Y (j) = 3U (j)

(6.2.65)

Observamos que y(t) contiene dos modos naturales complejos, los que combinados generan una se
nal sinusoidal de frecuencia 2 [rad/s]. Esto implica que Y (j)
debe incluir dos impulsos: ( 2) y ( + 2).
Cuando dividimos ambos lados de (6.2.65) por ((j)2 + 4), estamos dividiendo
por cero cuando = 2, exactamente donde ocurren los impulsos. Esta divisi
on
llevara, err
oneamente, a que la funci
on de transferencia sera
3
(j)2 + 4

(6.2.66)

Sin embargo, la respuesta del sistema a u(t) = (t) est


a dada por
h(t) =

3
seno(2t)(t)
2

(6.2.67)

Section 6.3.

135

La Transformaci
on de Fourier. El caso del tiempo discreto

As, el valor correcto de H(j) es


H(j) =

6.3

3
3
+ j (( + 2) ( 2))
2
(j) + 4
2

(6.2.68)

La Transformaci
on de Fourier. El caso del tiempo discreto

Consideremos en esta seccion el caso de las funciones no periodicas, definidas en


tiempo discreto, y como se pueden hacer un desarrollo analogo para estas que permita representar de alguna forma su contenido en frecuencia.
Recordemos en primer lugar las expresiones correspondientes a la representacion
en serie de Fourier de una funcion periodica definida en tiempo discreto, tal como
se vio en el captulo anterior. Sea y[k] una funcion periodica de perodo N , entonces
esta se puede representar mediante una serie de Fourier discreta que no es mas que
una combinacion lineal finita de N exponenciales complejas:

y[k] =

N
1
X

Cn ejo nk ;

donde o =

n=0

2
N

N 1
1 X
Cn =
y[k]ejo nk
N
k=0

Consideremos ahora el caso en que el perodo N de la se


nal crece hasta infinito,
es decir, tenemos una se
nal que ya no es periodica. En este caso se puede hacer
el siguiente desarrollo que es totalmente analogo al caso de la transformacion de
Fourier para funciones de tiempo continuo tal como se vio en la seccion anterior.
Llamemos n = no y definamos la funcion
Y (ejn ) = N Cn

(6.3.1)

Reemplazando en la representacion en serie anterior

y[k] =
=

N 1
1 X
Y (ejn )ejo nk
N n=0

(6.3.2)

N 1
1 X
Y (ejn )ejn k
2 n=0

(6.3.3)

Ya que la frecuencia fundamental en este caso es o = n+1 n = , es decir,


la separacion entre armonicas es igual a la frecuencia fundamental. La sumatoria
anterior corresponde a una suma de Riemann5 que llevada al lmite cuando N
5 An
alogo

al caso de tiempo continuo

136

Sistemas Lineales sujetos a Excitaciones Arbitrarias. An


alisis Va Fourier

Captulo 6

se convierte en una integral en la variable , que pasa a ser continua. Cabe observar
que el lmite superior de la integral es
2
(N 1)
N
= 2

N 1 =
lim N 1

(6.3.4)
(6.3.5)

Por tanto, cuando el perodo de la funcion N se tiene que


y[k] =

1
2

Y (ej )ejk d

(6.3.6)

Cabe recordar que para el caso de las funciones de tiempo discreto existe periodicidad en frecuencia, por tanto la funcion y[k] podra representarse empleando el
intervalo [, ] o cualquier otro de longitud 2.
La ecuacion (6.3.6) nos dice que podemos representar la funcion de tiempo discreto y[k] como una integral que involucra la funcion Y (ej ), que ahora presenta
valores en forma continua en el intervalo [0, 2]. Veamos ahora cual es la expresion
que permite obtener esta funcion. A partir de la definicion hecha en (6.3.1) tenemos
Y (ejn ) = N Cn =

N
1
X

y[k]ejo nk =

N
1
X

k=0

y[k]ejn k

(6.3.7)

k=0

Cuando N aparece la variable continua y es necesario considerar todos


los valores de la funcion, es decir, el tiempo discreto barre todos los enteros. Por
tanto
Y (ej ) =

y[k]ejk

(6.3.8)

k=

Esta funcion es la transformada de Fourier discreta de la funcion y[k] .


Mientras que la expresion (6.3.6) representa la transformaci
on inversa de Fourier discreta.

Fd {y[k]} = Y (ej ) =

y[k]ejk

(6.3.9)

k=

1
Fd 1 Y (ej ) = y[k] =
2
Veamos un ejemplo para ilustrar esto

Z
0

Y (ej )ejk d

(6.3.10)

Section 6.3.

137

La Transformaci
on de Fourier. El caso del tiempo discreto

Ejemplo 6.10. Consideremos como primera se


nal, un delta de Kronecker. Si
calculamos su transformada de Fourier discreta tenemos que esta, se reduce a un
u
nico termino

Y (ej ) =

[k]ejk == K [0]ej0 = 1

(6.3.11)

k=

es decir, se obtiene un espectro plano, en analoga al caso del espectro del delta de
Dirac en tiempo continuo. En la figura 6.10 se muestra el delta de Kronecker y la
transdormada de Fourier calculada, que en este caso resulta tener s
olo parte real.
1.2
1

K[k]

0.8
0.6
0.4
0.2
0
5

0
k

Y(ej)

1.5

0.5

Figura 6.10. Delta de Kronecker y su transformada de Fourier

Ejemplo 6.11. Consideremos ahora la se


nal exponencial
y[k] = k [k]

|| < 1

Su transformada de Fourier discreta es


Y (ej ) =

X
k=

y[k]ejk =

X
k=0

k ejk =

(ej )k

k=0

(6.3.12)

138

Sistemas Lineales sujetos a Excitaciones Arbitrarias. An


alisis Va Fourier

Captulo 6

La expresi
on para Y (ej ) resulta ser una serie geometrica convergente ya que
|e | < 1. Por tanto su suma es
j

1
1 ej
La transformada Y (ej ) puede ser reescrita en forma polar (m
odulo y
angulo)
como
Y (ej ) =

1
1 cos() + j seno()
1
1
=p
|Y (ej )| = p
2
2
(1 cos()) + ( seno())
1 2 cos() + 2

seno()
Y (ej ) = arctan
1 cos()
Y (ej ) =

5.5
1

4.5
0.8
4

3.5
y[k]

Y(ej)

0.6

2.5
0.4
2

1.5

0.2

0
10

0
k

10

0.5

Figura 6.11. Se
nal y[k] = (0.8)k [k] y la magnitud de Y (ej ).
En la figura 6.11 se muestra la se
nal en tiempo discreto y la magnitud de su
transformada de Fourier discreta cuando = 0.8
Ejemplo 6.12. Consideremos ahora un pulso discreto definido seg
un
(
1 ; |k| 5
y[k] =
0 ; |k| > 5
Su transformada de Fourier discreta est
a dada por la expresi
on
Y (ej ) =

5
X
k=5

ejk

Section 6.3.

139

La Transformaci
on de Fourier. El caso del tiempo discreto

Se puede apreciar directamente que es una funci


on real, ya que cada par de exponenciales complejas conjugadas al sumarse se transforman en una funci
on coseno,
es decir:
Y (ej ) = 1 + 2

5
X

cos(k)

k=1

Alternativamente, la transformada se puede calcular calculando la suma de la


progresi
on geometrica de exponenciales:

Y (ej ) =

5
X

ejk = ej(5)

k=5

ej5 ej6
1 ej(11)
=
1 ej
1 ej

(6.3.13)

Esta expresi
on, a priori, no parece ser real, pero si se reescribe convenientemente
tenemos que:

Y (e ) =
=

j5

e ej6 ej 2

(1 ej ) ej 2
ej

11
2

ej

11
2

ej 2 ej 2
seno( 11
2 )
=
seno( 12 )
Note que la ecuaci
on (B.2.35) del Apendice B, establece justamente la propiedad
que permite convertir la suma de cosenos en un cuociente de senos.
En la figura 6.12 se muestran los gr
aficos del pulso en tiempo discreto y de su
transformada de Fourier.
En el Apendice C se incluyen la propiedades mas importantes de la transformacion de Fourier en tiempo discreto (tabla C.3 en la pagina 332), ademas de una
lista de transformadas simples que se pueden utilizar para el calculo de otras mas
complejas (Tabla C.4 en la pagina 333).

6.3.1

Parseval y las se
nales aperi
odicas de tiempo discreto

Los resultados deducidos por Parseval en el Apendice C permiten tambien relacionar


directamente las caractersticas de energade una se
nal cualquiera con su transformada de Fourier discreta. En el caso de se
nales de tiempo discreto, las ideas de
potencia y energa no tienen la connotacion fsica que poseen cuando se usan en
el contexto de las se
nales de tiempo continuo. Sin embargo, son tambien concepto
u
tiles, especialmente si la secuencia de tiempo discreto se origina en el muestreo de
una se
nal de tiempo continuo. Para la se
nal real de tiempo discreto f [k] se define
la energa como

140

Sistemas Lineales sujetos a Excitaciones Arbitrarias. An


alisis Va Fourier

1.5

Captulo 6

12

10

y[k]

Y(ej)

0.5

10

0
k

10

Figura 6.12. Se
nal y[k] y su transformada discreta Y (ej ).

W =

(f [k])

(6.3.14)

k=

Si la se
nal f [k] tiene energa finita en el intervalo (, ), y su transformada
de Fourier es F (ej ) entonces, aplicando el Teorema C.2 en la pagina 330, se tiene
que

X
k=

1
(f [k]) =
2

|F (ej )|2 d

(6.3.15)

Observando el lado derecho de la ecuacion, podemos calcular la fraccion de


la energa total que es aportada por cada intervalo del espectro (k , k+1 ). En
comparacion con el caso continuo, aca el calculo es mucho mas complicado.

6.3.2

Aplicaci
on a sistemas lineales

Consideremos un sistema lineal de tiempo discreto definido por su ecuacion recursiva


(ERS)

y[k] + an1 y[k 1] + . . . + a1 y[k n + 1] + a0 y[k n] =


bm u[k] + bm1 u[k 1] + . . . + b1 u[k m + 1] + b0 u[k m] (6.3.16)
En que m y n son enteros positivos cualesquiera. Si aplicamos trasnformada de
Fourier a ambos lados de la ecuacion tendremos

Section 6.3.

La Transformaci
on de Fourier. El caso del tiempo discreto

141

Y (ej )(1 + an1 ej + . . . + a1 ej(n1) + a0 ejn ) =


U (ej )(bm + bm1 ej + . . . + b1 ej(m1) + b0 ej )

(6.3.17)

Si se factoriza y despeja la transformada de Fourier de la secuencia de salida


tenemos que esta resulta ser la transformada de la entrada U (ej ) multiplicada por
una funcion racional en la variable ej
Y (ej ) =

bm + bm1 ej + . . . + b1 ej(m1) + b0 ej
U (ej )
1 + an1 ej + . . . + a1 ej(n1) + a0 ejn

(6.3.18)

Justamente podemos apreciar que la funcion racional que aparece multiplicando


la entrada depende solo del sistema, ya que solo depende de los coeficientes de la
ERS inicial. Con esta expresion podemos obtener la secuencia de salida del sistema
calculando la transformacion de Fourier inversa.
Un caso particular es cuando la entrada es un delta de Kronecker en el origen,
ya que
u[k] = K [k]

U (ej ) = 1

(6.3.19)

En este caso la salida del sistema sera


Y (ej ) =

bm + bm1 ej + . . . + b1 ej(m1) + b0 ej
= H(ej )
1 + an1 ej + . . . + a1 ej(n1) + a0 ejn

(6.3.20)

es decir, la funcion racional H(ej ) es exactamente la transformada de Fourier de


la respuesta del sistema a un delta de Kronecker en su entrada. De esta forma, la
respuesta a cualquier otra se
nal de entrada se obtiene con la relacion en
Y (ej ) = H(ej )U (ej )

(6.3.21)

Esta ecuacion, corresponde, en el dominio de tiempo discreto, a la convolucion


de las secuencias temporales
y[k] = h[k] u[k] =

u[l]h[k l]

(6.3.22)

l=

Tal como se vio al final del Captulo 4, la secuencia h[k] es la respuesta del
sistema al delta Kronecker.
La funcion H(ej ) es la funci
on de transferencia del sistema de tiempo
discreto, y resulta igual a la ganancia al modo forzante ejk , descrita en (4.3.28).
Esto dice que H(ej ) describe completamente la respuesta en frecuencia del
sistema de tiempo discreto (vea la seccion 5.4).

142

Sistemas Lineales sujetos a Excitaciones Arbitrarias. An


alisis Va Fourier

Captulo 6

Ejemplo 6.13. Consideremos el sistema de tiempo discreto definido por su ecuaci


on
recursiva
y[k] 1.6y[k 1] + 0.63y[k 2] = u[k]
Si aplicamos transformaci
on de Fourier discreta tenemos que
Y (ej ) 1.6ej Y (ej ) + 0.63ej2 Y (ej ) = U (ej )
Y (ej )(1 1.6ej + 0.63ej2 ) = U (ej )
Y (ej )(1 0.9ej )(1 0.7ej ) = U (ej )
As la funci
on de transferencia est
a dada por
H(ej ) =

1
(1

0.9ej )(1

(6.3.23)

0.7ej )

La transformada de la salida queda entonces dada por


Y (ej ) = H(ej )U (ej ) =

U (ej )
(1 0.9ej )(1 0.7ej )

Analizaremos a continuaci
on el comportamiento del sistema para distintas excitaciones.
Excitaci
on delta de Kronecker
En este caso
U (ej ) = 1
Y (ej ) =

1
(1 0.9ej )(1 0.7ej )

Donde la transformada de la salida se debe separar en fracciones parciales para


poder aplicar transformaci
on inversa

1
0.9
Y (e ) =
+
1 0.9ej
1 0.7ej
4.5
3.5
=

1 0.9ej
1 0.7ej
j

1
0.7

1
0.7

1
0.9

Por tanto la salida del sistema ser


a
y[k] = (4.5(0.9)k 3.5(0.7)k )[k]
Note que para esta excitaci
on (delta de Kronecker) y[k] = h[k].

(6.3.24)

Section 6.3.

143

La Transformaci
on de Fourier. El caso del tiempo discreto

Entrada escal
on unitario
u[k] = [k]

X
1
+

( + 2`)
1 ej
`=

X
1
1
Y (ej ) =
+
( + 2`)
(1 0.9ej )(1 0.7ej ) 1 ej

U (ej ) =

`=

La expresi
on de la tranformada de Fourier de la secuencia de salida puede simplificarse separando en fracciones parciales y considerando el valor del termino que
acompa
na a la sumatoria de deltas de Dirac s
olo en las frecuencias en que estos son
distintos de cero, es decir, en = 2`. Sin embargo, notamos que

100
H(ej )=2` = H(1) =
;
` Z
(6.3.25)
3
As
Y (ej ) =

X
1
1
+

( + 2`)
(1 0.9ej )(1 0.7ej )(1 ej ) (1 0.9ej0 )(1 0.7ej0 )
`=

40.5
8.17
+
+
1 0.9ej
1 0.7ej
1

100
3
ej

100

( + 2`)

`=

Por tanto la secuencia de salida es

100
100
40.5
8.17
1
1
3
y[k] = Fd 1
+
F
+
F
+
()
d
d
1 0.9ej
1 0.7ej
1 ej
3
= (40.5(0.9)k + 8.17(0.7)k + 33.3)[k]
En la figura 6.13 se muestran los gr
aficos de las secuencias de salida correspondientes a la respuesta a impulso y a escal
on del sistema.
Entrada exponencial compleja
Ahora u[k] = ejo k y, de la Tabla C.4 en la p
agina 333 tenemos que su transformada
de Fourier es

X
U (ej ) = 2
( o + 2`)
(6.3.26)
`=

Por lo tanto la transformada de Fourier de la respuesta est


a dada por
Y (ej ) = H(ej )U (ej ) = H(ej )

X
`=

(o +2`) = 2H(ejo )

(o +2`)

`=

(6.3.27)

144

Sistemas Lineales sujetos a Excitaciones Arbitrarias. An


alisis Va Fourier

2.5

Captulo 6

35

30

2
25

1.5
20

15

10

0.5
5

10

15

20

25
k

30

35

40

45

50

10

15

20

25
k

30

35

40

45

50

Figura 6.13. Respuesta a impulso y a escalon del ejemplo 6.13

Note que hemos usado la propiedad de periodicidad, en frecuencia, de la funci


on
de transferencia, la que implica que
H(ej(o +2`) ) = H(ejo ) = |H(ejo )|ej((o ))

` Z

(6.3.28)

As, aplicando la transformaci


on inversa, se obtiene
y[k] = |H(ejo )|ej(o k+(o ))

(6.3.29)

222
En el ejemplo precedente se observa el vnculo entre la funcion de transferencia
y la respuesta en frecuencia. Este resultado se generaliza en el siguiente lema.
Lema 6.2. Dado un sistema estable de tiempo discreto con entrada u[k] y salida
y[k]. La respuesta del sistema a la entrada se
nal de entrada sinusoidal u[k] =
cos(o k), t, es
y[k] = A(o ) cos(o k + (o ))

(6.3.30)

En que

A(o ) = H(ejo )
(o ) = H(e

jo

(6.3.31)
(6.3.32)

Donde H(ej ) es la transformada de Fourier de la respuesta a impulso del sistema h[k].

Section 6.3.

145

La Transformaci
on de Fourier. El caso del tiempo discreto

Demostraci
on
La respuesta a la excitaci
on cos(o t), puede ser calculada como la combinaci
on de
las respuestas a un par de exponenciales peri
odicas
Y (ej ) = H(ej )U (ej )

(6.3.33)

Pero si u[k] = 12 (ejo k + ejo k ) , entonces


Y (ej ) = H(ej )(( o ) + ( + o ))
= H(e

jo

)( o ) + H(e

jo

(6.3.34)

)( + o )

(6.3.35)

Luego, la salida es
1
1
H(ejo )ejo k + H(ejo )ejo k
2
2
jo
1
1
jo
jo k+jH(ejo )
= |H(e )|e
+ |H(jo )|ejo kjH(e )
2
2
= |H(ejo )| cos(o k + H(ejo ))

(6.3.36)

y[k] =

(6.3.37)
(6.3.38)
222

La respuesta en frecuencia de los sistemas discretos puede ser caracterizada a


traves de H(ej ). Se aplican en este caso las mismas definiciones que en el caso
de sistemas de tiempo continuo: frecuencias de corte, banda de paso, banda de
rechazo, etc. Existe sin embargo un elemento que agrega complejidad al analisis, y
el es la naturaleza perdiodica de H(ej ). Consideremos un sistema para el que la
magnitud de la respuesta en frecuencia aparece descrita en la Figura 6.14.
1.2
1

|F(ej)|

0.8
0.6
0.4
0.2
0
10

0
Frecuencia

10

Figura 6.14. Respuesta en frecuencia (magnitud) de un sistema de tiempo discreto.


El problema con el grafico de la Figura 6.14 es que genera ambig
uedades respecto
de si se trata de un sistema pasa bajos, pasa banda, etc. El problema se resuelve si

146

Sistemas Lineales sujetos a Excitaciones Arbitrarias. An


alisis Va Fourier

Captulo 6

se considera que cualquiera sea la se


nal procesada por el sistema, ella tambien tiene
un espectro periodico. En consecuencia, la naturaleza filtrante se puede definir
observando H(ej ) solo en [0; ]. En el caso de la Figura 6.14, esto ha sido
indicado con un trazo grueso.

6.3.3

Caso singular en la funci


on de transferencia. El caso de los
sistemas discretos

Para el caso de los sistemas de tiempo discreto conviene recordar que

La funcion de transferencia de un sistema lineal de tiempo discreto esta definida


solo si su respuesta a un delta de Kronecker tiene transformada de Fourier. Esto
es equivalente a exigir que el sistema tenga solo frecuencias naturales en el disco
unitario cerrado, con la condicion que si algunas de esas frecuencias naturales
estan sobre la circunferencia unitaria, ellas sean simples.
Es muy importante notar que el Lemma 6.2 en la pagina 144, que iguala H(ej )
con la respuesta en frecuencia, esta formulado para sistemas estables. No podemos extender este resultado a sistemas que tienen frecuencias naturales sobre la
circunferencia unitaria, aunque sean no repetidas. Veamos a traves de un ejemplo,
los resultados erroneos que surgen si no somos cuidadosos.
Ejemplo 6.14. Un sistema con entrada u[k] y salida y[k], tiene una ERS
y[k] y[k 1] = u[k]

(6.3.39)

Observamos que el sistema tiene s


olo una frecuencia natural, y ella est
a ubicada en = 1, es decir, se trata de una frecuencia natural no repetida sobre la
circunferencia unitaria.
La respuesta en frecuencia, K() est
a dada por la ganancia al modo forzante
ejk , y ella resulta de aplicar (3.3.16) a este caso particular:
K() =

ej
1 ej

(6.3.40)

Suponga que u[k] = ak [k], 1 > a > 0 y si, err


oneamente, hacemos H(ej ) =
K(), entonces y[k] se puede calcular de

y[k] = Fd 1 Y (ej ) = Fd 1 H(ej )U (ej ) = Fd 1

1
e
ej
Y (e ) =

1 a ej 1 ej a
j

ej
(ej 1)(ej a)
(6.3.41)
(6.3.42)

Section 6.3.

La Transformaci
on de Fourier. El caso del tiempo discreto

147

1
signo [k] 2ak [k]
2(1 a)

(6.3.43)

se obtiene
y[k] =

dando origen a una respuesta no causal, ya que la funci


on signo [k] tiene valor
1, k < 0.
Para obtener la respuesta correcta recordemos que la funci
on de transferencia
H(ej ) es la transformada de Fourier de la respuesta del sistema a un delta de
Kronecker. Aplicando esta definici
on a nuestro sistema se llega a
H(ej ) =

X
ej
+

( 2`)
ej 1

(6.3.44)

`=

y, usando la periodicidad de la funci


on ej , se tiene que
"
#

j
j
X
e
1
e
Y (ej ) =

+
( 2`)
1 a ej 1 ej a

(6.3.45)

`=

Entonces

y[k] = Fd 1

1
+ ()
j(j + a)
a

(6.3.46)

Y, usando Maple se obtiene


y[k] =

1 ak
[k]
1a

(6.3.47)

lo que es la respuesta correcta.


222
El ejemplo precedente ilustra y explica el problema. Cuando el sistema tiene
frecuencias naturales sobre la circunferencia unitaria, los modos naturales asociados
no decaen, y la transformada de Fourier de cada uno de ellos solo existe en el lmite.
Esta condicion es acusada por la presencia de deltas de Dirac en . As, la funcion
de transferencia es una funcion racional mas uno o varios deltas de Dirac en .
La explicacion de esta situacion es analoga a la del caso continuo.

148

6.4

Sistemas Lineales sujetos a Excitaciones Arbitrarias. An


alisis Va Fourier

Captulo 6

Problemas para el lector

Problema 6.1. Determine la transformada de Fourier de las siguientes funciones,


ya sea mediante la defici
on o usando tablas y transformadas conocidas.
1. y(t) = [(t + T ) (t T )]t

;T > 0

2. y(t) = (1 2e|t| )2
1
3. y(t) = e
2

t
2

!2

(Recuerde que

eu du =

Problema 6.2. Considere la funci


on

4t(t + 1)
y(t) = 4t(t 1)

; 1 < t < 0
;0 < t < 1
; |t| 1

6.2.1 Grafique la funci


on.
6.2.2 Determine la transformada de Fourier Y (j) de la funci
on y(t).
6.2.3 Cu
al es la serie de Fourier exponencial de y(t) consider
andola solo en el
intervalo [-1,1]?
6.2.4 Grafique por separado la parte real e imaginaria de Y (j) y compare con los
coeficientes obtenidos para la serie de Fourier exponencial. Comente.

Problema 6.3. Demuestre que una funci


on f (t) arbitraria (o de perodo infinito)
puede expresarse en la forma de Integral de Fourier:

f (t) =

[A() cos(t) + B() seno(t)] d


0

En que
Z

A() =

f (t) cos(t)dt

B() =

f (t) seno(t)dt

C
omo se reducen las expresiones si f (t) es par o impar.

Section 6.4.

Problemas para el lector

149

Problema 6.4. Usando la ecuaci


on de Euler para exponenciales complejas:
6.4.1 Demuestre que si y(t) es par, entonces su transformada de Fourier Y (j) es
real.
6.4.2 An
alogamente, demuestre que si y(t) es impar, entonces su transformada de
Fourier Y (j) es imaginaria pura.
Problema 6.5. Considere el sistema de segundo orden definido por
d 2 y(t)
+ 100y(t) = 100u(t)
dt 2
Encuentre la salida del sistema mediante la transformaci
on de Fourier cuando
6.5.1 Encuentre la salida del sistema mediante la transformaci
on de Fourier cuando u(t) = seno(o t)(t), con condiciones iniciales cero.
6.5.2 Encuentre la salida del sistema mediante la transformaci
on de Fourier cuando u(t) = seno(o t).
6.5.3 Grafique y compare las soluciones obtenidas en los puntos anteriores cuando
o 6= 10 y cuando o = 10 . Comente.
Problema 6.6. Suponga que se quiere dise
nar un sistema cuya caracterstica en
frecuencia sea
(
1 ; || < c
H(j) =
(6.4.1)
0 ; || < 0
Es decir, este sistema act
ua como filtro ideal ya que permite el paso de sinusoides de frecuencias menores que c sin afectarlas, mientras que aquellas de
frecuencias mayores no aparecen en la salida.
6.6.1 Grafique H(j)
6.6.2 Determine cu
al debiera ser la respuesta a impulso del sistema.
6.6.3 Que puede comentar respecto del resultado obtenido?

Problema 6.7. Determine la transformada de Fourier discreta de


y[k] = (k + 1)k [k] , con || < 1
y[k] =

2k + 3k
[k]
6k

150

Sistemas Lineales sujetos a Excitaciones Arbitrarias. An


alisis Va Fourier

Captulo 6

y[k] = cos(1 k + ) , con 0 < 1 < 2

Problema 6.8. Considere un pulso de tiempo discreto de amplitud A > 0 y


centrado en k = 0, definido por
(
A ; |k| N
y[k] =
N Z+
0 : |k| > N
6.8.1 Grafique el pulso en tiempo discreto para algunos valores de A y N .
6.8.2 Determine la transformada de Fourier discreta de y[k] ( Sugerencia : use la
ecuaci
on B.2.35).
6.8.3 Grafique la transformada de Fourier discreta para distintos valores de N .
6.8.4 Determine el valor de Y (ej0 ) en funci
on de N .
6.8.5 Analice que sucede para valores extremos de N , es decir, cuando N = 0 y
cuando N .

Problema 6.9. Determine la respuesta a un delta de Kronecker y a un escal


on
unitario de los sistemas de tiempo discreto dados por sus ERS
6.9.1 y[k]-y[k-1]=2u[k-7];

y[-1]=1

6.9.2 y[k]=u[k-1]-0,5u[k-2]+0,2u[k-3]
6.9.3 y[k]-1,1y[k-1]+0,24y[k-2]=u[k-2];

y[-1]=-1; y[-2]=1

Problema 6.10. Tenemos un sistema de tiempo discreto el queremos que su respuesta en frecuencia sea igual a
(
1 ; || < c
H(ej ) =
0 ; c < ||
6.10.1 Determine su respuesta a un delta de Kronecker.
6.10.2 Determine, si es posible, su respuesta a un escal
on de tiempo discreto.
Comente

Captulo 7

SISTEMAS LINEALES
SUJETOS A EXCITACIONES

ARBITRARIAS. ANALISIS
VIA LAPLACE

De los metodos disponibles para el estudio de los sistemas lineales dinamicos, de


tiempo continuo, uno en particular resulta ser especialmente u
til: la Transformada de Laplace. Las principales ventajas de este metodo se pueden resumir en lo
siguiente:
Se pueden tratar sistemas lineales inestables.
Se puede aplicar a una vasta gamas de se
nales no acotadas
Permite incluir las condiciones iniciales del sistema
La EDS es transformada en una expresion algebraica de simple resolucion

7.1

Definici
on de la Transformada

Considere una se
nal de tiempo continuo y(t), definida para 0 t < . La
Transformada de Laplace asociada a y(t), y su transformada inversa estan definidas
como

L [y(t)] = Y (s) =

est y(t)dt

(7.1.1)

1
[Y (s)] = y(t) =
2j

+j

est Y (s)ds

(7.1.2)

151

152

Sistemas Lineales sujetos a Excitaciones Arbitrarias. An


alisis va Laplace

Captulo 7

Y (s) es la transformada de Laplace de y(t). El par transformada y su transformada inversa estan estan bien definidas si existe R, y una constante positiva
k < tales que
|y(t)| < ket ; t 0

(7.1.3)

La region <{s} se conoce como la regi


on de convergencia de la transformada.
Suponemos que el lector ha conocido estas ideas anteriormente en alg
un curso
de Matematicas, a pesar de lo cual se presenta en el Apendice D una revision
de la transformada de Laplace, sus propiedades y como obtener la transformada
de funciones simples. Tambien se incluye una revision del metodo de fracciones
parciales, el cual resulta de utilidad para obtener transformadas de Laplace inversas
para funciones racionales.
En este captulo nos concentraremos en esta transformada como herramienta
para el analisis de los sistemas lineales.

7.2

Aplicaci
on a sistemas lineales: la funci
on de transferencia

Como ya hemos visto, una gran cantidad y variedad de sistemas de interes, pueden
ser modelados en forma lineal. Esto se consigue linealizando la o las ecuaciones
diferenciales que describen el comportamiento del sistema en el tiempo, como se vio
en el Captulo 1, en torno a un punto de equilibrio o mas generalmente, en torno
a un punto de operacion. Para el caso de sistemas de una entrada y una salida, el
proceso de linealizacion desemboca en la obtencion de una ecuaciob diferencial, la
EDS, de la forma eneral
dn1 y(t)
dm
dn y(t)
+
a
+
.
.
.
+
a
y(t)
=
b
u(t) + . . . + b0 u(t)
n1
0
m
dtn
dtn1
dtm

(7.2.1)

Cuando se aplica transformada de Laplace a la EDS, se puede usar una de la


propiedades vistas en el Apendice D, la que nos indica que la transformada de una
derivada se puede expresar como:
`

d y(t)
d n1 y(0 )
`
`1

L
=
s
Y
(s)

s
y(0
)

(7.2.2)
dt `
dt n1
Por tanto, si aplicamos esto a la EDS (7.2.1) tenemos que:
sn Y (s) + an1 sn1 Y (s) + . . . + a0 Y (s)
= bm sm U (s) + . . . + b0 U (s) + f (s, xo )

(7.2.3)

donde f (s, xo ) es una funcion que depende de la variable s y de las n condiciones


iniciales de la salida y(t) y sus derivadas. Es importante destacar que

Section 7.2.

153

Aplicaci
on a sistemas lineales: la funci
on de transferencia

f (s, x0 ) = p(s)T x0
donde p(s) es un vector que contiene polinomios en s y x0 es un vector que contiene
las condiciones iniciales ya mencionadas. Esto estructura es una expresion de la
linealidad del sistema (homogeneidad y superposicion respecto de las condiciones
iniciales).
Ahora si suponemos condiciones iniciales iguales a cero, tenemos que:
Y (s) = H(s)U (s)

(7.2.4)

Donde se define la funcion


H(s) =

B(s)
A(s)

(7.2.5)

Que se forma con los polinomios que contienen los coeficientes de la ecuacion
(7.2.1) original:
A(s) = sn + an1 sn1 + . . . + a0
m

B(s) = bm s + bm1 s

m1

+ . . . + b0

(7.2.6)
(7.2.7)

La funcion racional H(s) es la funci


on de transferencia en el dominio de
Laplace. La representacion (7.2.5) es muy u
til para describir caractersticas y
propiedades de un sistema tales como estabilidad y velocidad, ademas de entregar
informacion en el momento de dise
nar sistemas de control, filtros u otras aplicaciones.
Ejemplo 7.1. Consideremos un sistema descrito por la ecuaci
on diferencial
d 2y
dy
+2
= u(t)
dt 2
dt
Su funci
on de transferencia es
H(s) =

1
s2 + 2s

(7.2.8)

(7.2.9)

A continuacion definiremos algunos conceptos que se encuentran fuertemente


ligados a la definicion de la funcion de transferencia de un sistema. Para esto consideremos la funcion de transferencia definida en (7.2.5),(7.2.6) y (7.2.7). Por simplicidad, asumiremos que los polinomios B(s) y A(s) no se hacen cero simultaneamente
para alg
un valor de la variable compleja s. As, definimos entonces los siguientes
terminos.
(i) Las m races de la ecuacion B(s) = 0 son los ceros del sistema. Ellos hacen
ademas que H(s) = 0

154

Sistemas Lineales sujetos a Excitaciones Arbitrarias. An


alisis va Laplace

Captulo 7

(ii) Las n races de la ecuacion A(s) = 0 son los polos del sistema. Ellos hacen
ademas que H(s)
(iii) Si A(s) = 0 tiene nk races en s = k , decimos que el polo k tiene multiplicidad nk .
(iv) La diferencia de grado entre A(s) y B(s), es decir, mn se denomina el grado
relativo del sistema.
(v) Si m < n decimos que el modelo es estrictamente propio. Esto implica que
el grado relativo del sistema es positivo.
(vi) Si m = n decimos que el modelo es bipropio. Esto implica que el grado
relativo del sistema es cero.
(vii) Si m n decimos que el modelo es propio .
(viii) Si m > n decimos que el modelo es impropio, o que tiene grado relativo
negativo.

Estas definiciones nos ayudaran a apreciar la forma en que se relaciona la salida


de un sistema con su entrada, tal como pone en evidencia la definicion (7.2.5), pero
la simplicidad reside en que la relacion se establece mediante la funcion racional
H(s), es decir, las derivadas han desaparecido. Si bien para llegar a esta relacion
las condiciones iniciales se han supuesto cero, sabemos que en caso de sistemas
estables, el efecto de estas desaparece despues de un tiempo.

La funcion de transferencia de un sistema lineal describe sus propiedades de


entrada-salida en forma algebraica.
En forma similar a aquella que se utilizo en el analisis de Fourier, la funcion de
transferencia puede ser definida en base a la respuesta a impulso, con condiciones
iguales a cero. Si recordamos como se definio al funcion de transferencia H(s) al
aplicar transformada de Laplace a la EDS del sistema definido en (7.2.1), podemos
escribir la salida del sistema seg
un la ecuacion (7.2.4). Se puede apreciar que si a
ambos lados de esta expresion, se aplica transformada de Laplace inversa, tenemos
que (vea la Tabla D.1 en la pagina 356 )

En que,

Y (s) = H(s)U (s) y(t) = h(t) u(t)

(7.2.10)

h(t) = L1 [H(s)]

(7.2.11)

Por lo tanto, podemos afirmar que

Section 7.2.

Aplicaci
on a sistemas lineales: la funci
on de transferencia

155

La funcion de transferencia H(s) de un sistema de tiempo continuo, definida en


(7.2.5), es igual a la transformada de Laplace de la respuesta h(t) del sistema
a un impulso (Delta de Dirac) en la entrada, cuando las condiciones iniciales
cero.
Aunque en la mayora de los casos de interes, la funcion de transferencia es
una funcion racional en s. Sin embargo, cuando el sistema tiene un retardo , la
expresion general para la funcion de transferencia es
H(s) =

7.2.1

B(s) s
e
A(s)

(7.2.12)

Funci
on de transferencia en dominios de Laplace y Fourier

Cuando el sistema tiene frecuencias naturales en el SPI cerrado, con la restriccion


que aquellas frecuencias en el eje imaginario sean simples, las funciones de transferencia en ambos dominios existen. El elemento com
un es conceptual: en ambos
casos, la funci
on de transferencia corresponde a la correspondiente transformada de la respuesta a impulso con condiciones iniciales iguales a cero.
La definicion y la estructura de H(s) parecen ser identicas a la definicion y la estructura de la funcion de transferencia en el dominio de Fourier, bastando hacer
una simple sustitucion de s por j. Sin embargo, esto no es correcto siempre.
La diferencia es que cuando el sistema tiene frecuencias naturales (simples) en el
eje imaginario, la funcion de transferencia en Fourier incluye deltas de Dirac en frecuencia. Esto se origina en el hecho que la respuesta a impulso del sistema contiene
modos naturales que no decaen y para los cuales la transformada de Fourier existe
solo en el lmite. En cambio, para el mismo sistema, la funcion de transferencia
en Laplace no contiene impulsos en frecuencia, debido a que la transformada de
Laplace esta bien definida, bastando escoger <{s} > 0.
Consideremos el sistema con la EDS
d y(t)
d 2 y(t)
+ a1
+ y(t) = u(t)
2
dt
dt

(7.2.13)

donde a0 > 0 y a1 0.
La funcion de transferencia en el dominio de la transformacion de Laplace es
HL (s) =

1
;
s2 + a 1 s + 1

<{s} > 0

(7.2.14)

En cambio, en el caso de Fourier, debemos distinguir dos casos


a1 > 0
En este caso, las frecuencias naturales estan en el SPI abierto, por lo tanto, los
modos naturales son absolutamente integrables y la funcion de transferencia en el

156

Sistemas Lineales sujetos a Excitaciones Arbitrarias. An


alisis va Laplace

Captulo 7

dominio de la transformacion de Fourier es


HF (j) =

(j)2

1
+ a1 j + 1

(7.2.15)

En este caso,
HF (j) = HL (s)|s=j

(7.2.16)

a1 = 0
En este caso, las frecuencias naturales estan en el eje imaginario y los modos naturales combinados corresponden a una sinusoide. Mas especficamente, la respuesta
a impulso, con condiciones iniciales iguales a cero es
h(t) = seno(t)(t)

(7.2.17)

En consecuencia (vea Tabla C.2 en la pagina 317, con o = 1) la funcion de


transferencia en el dominio de la transformacion de Fourier es
HF (j) =

j
1
(( + 1) ( 1)) +
2
(j)2 + 1

(7.2.18)

Se observa que en este caso, no se cumple (7.2.16).


222
La relacion entre transformada de Fourier y transformada de Laplace puede ser
resumida en la siguiente afirmacion

Las transformaciones de Laplace y Fourier son equivalentes, via la relacion s =


j, en aquellos casos en que la transformada de Laplace existe para <{s} > ,
donde < 0.

7.3

Respuesta a impulso y respuesta a escal


on.

Como ya se vio, la funcion de transferencia esta univocamente asociada a la respuesta a impulso del sistema. Por otro lado sabemos que si se aplica un impulso
a la entrada, la respuesta contiene solamente los modos naturales del sistema; esto
nos permite estudiar su comportamiento natural, que es independiente de la se
nal
de entrada, (caractersticas del transiente, velocidad de respuesta, etc. ) a partir
del analisis de la funcion H(s).
Debido a la idealizacion implcita en la definicion de un impulso es mucho mas
frecuente estudiar la dinamica natural de un sistema con la ayuda de la respuesta
a escalon, es decir, cuando U (s) = 1s 1 .
1 Tanto la respuesta a impulso como la respuesta a escal
on pueden obtenerse f
acilmente en
Matlab con las funciones impulse y step, respectivamente

Section 7.3.

157

Respuesta a impulso y respuesta a escal


on.

La definicion (7.2.5) nos permite expresar la respuesta a escal


on unitario del
sistema como:
1
(7.3.1)
s
Lo cual, suponiendo que el sistema no tiene polos en el origen, corresponde a
Y (s) = H(s)

y(t) = y + modos naturales del sistema

(7.3.2)

donde y = H(0), en virtud del Teorema del Valor Final (ver Teorema D.1 en
la pagina 352 ). Si el sistema es estable, entonces los modos naturales decaen
exponencialmente a cero. Luego, para sistemas estables, la respuesta en estado
estacionario esta dada por la constante y . Note que si H(s) tiene uno o mas ceros
en s = 0, entonces y = 0.
Ejemplo 7.2. Consideremos el sistema definido por su ecuaci
on diferencial
d 2 y(t)
d y(t)
+5
+ 4y(t) = 2u(t)
2
dt
dt
Si aplicamos transformada de Laplace a ambos lados, suponiendo condiciones
iniciales iguales a cero, podemos obtener la funci
on de transferencia del sistema
s2 Y (s) + 5sY (s) + 4Y (s) = 2U (s)
H(s) =

Y (s)
2
= 2
U (s)
s + 5s + 4

Tal como se dijo, la respuesta del sistema cuando u(t) es un Delta de Dirac se
obtiene directamente de H(s)
U (s) = L [(t)] = 1
Y (s) = H(s)
2
Y (s) = 2
s + 5s + 4
Donde podemos aplicar transformada inversa separando en fracciones parciales2 ,
o bien con ayuda de Maple
>with(inttrans):
>U(s):=laplace(Dirac(t),t,s);
>Y(s):=2/(s^2+5*s+4)*U(s);
>Y(s):=convert(Y(s),parfrac,s);
>y(t):=invlaplace(Y(s),s,t);
2 Este

m
etodo se detalla en el ap
endice.

158

Sistemas Lineales sujetos a Excitaciones Arbitrarias. An


alisis va Laplace

Captulo 7

2
+ 5s + 4

2
1
1
=
+
3 s+1 s+4

2
1
2
1
y(t) = L1
L1
3
s+1
3
s+4
2 t 2 4t
= e e
3
3

Y (s) =

s2

La respuesta a escal
on unitario se puede obtener de manera similar

U (s) = L [(t)] =
Y (s) =

1
s

2
1

s2 + 5s + 4 s

Donde se aplica transformada inversa


>with(inttrans):
>U(s):=laplace(Heaviside(t),t,s);
>Y(s):=2/(s^2+5*s+4)*U(s);
>y(t):=invlaplace(Y(s),s,t);

2
s(s + 1)(s + 4)
1 2
1
y(t) = et + e4t
2 3
6

Y (s) =

En la figura 7.1 se puede apreciar tanto la respuesta a escal


on recien obtenida
as como la respuesta impulso. Esta figura se gener
o con ayuda de Matlab, que
permite definir un sistema a traves de la funci
on tf, que recibe los coeficientes de la
funci
on de transferencia
>>G=tf([2],[1 5 4]);
>>subplot(2,1,1),impulse(G);
>>subplot(2,1,2),step(G);
222
Es u
til definir tambien un conjunto de parametros que describen ciertas propiedades
de la dinamica del sistema. Para identificar estos parametros a definir consideremos
la funcion de transferencia dada por

Section 7.3.

159

Respuesta a impulso y respuesta a escal


on.
Impulse Response
0.4

Amplitude

0.3
0.2
0.1
0

Time (sec.)
Step Response
0.5

Amplitude

0.4
0.3
0.2
0.1
0

3
Time (sec.)

Figura 7.1. Respuesta a impulso y a escalon del ejemplo 7.2

s + 1
(7.3.3)
s2 + 4s + 9
La respuesta a escalon del sistema se muestra en la figura 7.3. Entonces podemos
definir los siguientes ndices:
G(s) = 9

Respuesta estacionaria, y : el valor final de la respuesta a escalon, siempre y


cuando el sistema tiene sus polos en el SPI abierto.
Tiempo de Subida (Rise time), tr : el instante de tiempo en que la respuesta
a escalon alcanza por primera vez el valor de la respuesta estacionaria y .3
Sobrerespuesta (Overshoot), Mp : el valor maximo que alcanza la respuesta
a escalon, usualmente expresado como el porcentaje en que se sobrepasa la
respuesta estacionaria y .
M
axima contrarespuesta (Undershoot), Mu : el maximo (en valor absoluto)
que la respuesta a escalon alcanza bajo el cero.
3 Esta definici
on vara de autor a autor, por tanto debe tenerse claro de qu
e se est
a hablando
al utilizarla.

160

Sistemas Lineales sujetos a Excitaciones Arbitrarias. An


alisis va Laplace

Captulo 7

Tiempo de asentamiento (Settling time), ts : el tiempo luego del cual la respuesta a escalon queda confinada a una banda de desviacion , alrededor
del respuesta estacionaria. Esta deviacion, , se define generalmente como un
porcentaje de y , del 2% o 5%.

y +M

y+

kr y

Mu
tu

tr

tp

Tiempo

ts

Para el ejemplo en particular la respuesta a escalon se muestra en la figura 7.3


con los ndices definidos ya expresados numericamente en la tabla 7.1.4

7.4

Respuesta a condiciones iniciales y se


nales arbitrarias.

De la misma manera que en la seccion precedente se obtuvo las respuestas a impulso


y a escalon del sistema, la transformada de Laplace permite obtener la respuesta
del sistema cuando la entrada en un tipo mas general de se
nales. Sin embargo, la
ventaja principal que esta transformada, a diferencia de la transformada de Fourier,
permite inclur el efecto de las condiciones iniciales. Veamos para esto el siguiente
ejemplo:
Ejemplo 7.3. Consideremos el sistema definido por su ecuaci
on diferencial
d 2 y(t) d y(t)
+
+ y(t) = u(t)
dt 2
dt
4 Note que para este ejemplo en particular, con el objeto de poder visualizarlo hemos elegido
un valor inusualmente grande para

Section 7.4.

161

Respuesta a condiciones iniciales y se


nales arbitrarias.

Indice

Definicion

Valor en el ejemplo

respuesta estacionaria

tr

tiempo de subida

1.0

Mp

sobre-respuesta

0.5

Mu

max. contra-respuesta

1.5

ts

tiempo de asentamiento

1.8

Tabla 7.1. Indices de la respuesta a escalon

Obtengamos primero la salida del sistema cuando la entrada u(t) es cero, y


tenemos condiciones iniciales y(0 ) = 1 e y 0 (0 ) = 1. Si aplicamos transformada
de Laplace, recordando la propiedad (7.2.2), tenemos que
s2 Y (s) sy(0 ) y 0 (0 ) + sY (s) y(0 ) + Y (s) = 0
s2 Y (s) s 1 + sY (s) 1 + Y (s) = 0
Y (s)(s2 + s + 1) = s + 2
s+2
Y (s) = 2
s +s+1
Donde, para aplicar la inversa, podemos observar que la transformada que aparece
no puede separarse directamente en fracciones parciales, pues sus polos son complejos, pero si pueden llevarse a la forma de la transformada del seno y del cosenos con
un corrimiento en s. Este corrimiento corresponde a una traslaci
on en el tiempo:
Y (s) =

s+2
(s + 12 )2 +

s + 12
=
(s + 12 )2 +

3
4

3
4

(s +

3
2
1 2
2)

3
4

Por tanto, la respuesta a las condiciones iniciales dadas es




1
1
y(t) = e 2 t cos 23 t + 3e 2 t sin 23 t
Esto se grafica en la figura 7.2, donde se aprecia el punto inicial y la pendiente
inicial de la se
nal y(t).
Es importante hacer notar en este ejemplo que las condiciones iniciales que se
insertan en los calculos al aplicar la transformada de Laplace corresponden a las

162

Sistemas Lineales sujetos a Excitaciones Arbitrarias. An


alisis va Laplace

Captulo 7

y(t)

0.5

5
t [seg]

10

Figura 7.2. Respuesta a condiciones iniciales para el ejemplo 7.3

de la se
nal en t = 0 . Es decir, son los valores de la funcion y(t) y de su derivada
justo antes que el sistema comience a evolucionar bajo el efecto de la entrada, que
en el caso del ejemplo es cero. Este alcance es importante ya que existen casos en
que pueden producirse discontinuidades en la salida del sistema en t = 0, lo que
implica que y(0+ ) 6= y(0+ ).
Veamos esto en un ejemplo simpleEjemplo 7.4. Considere la red de la figura 7.3 en que se conecta la batera de 1[V]
en t = 0, y todas las condiciones iniciales son cero.
R
+
vf (t)

C
i(t)

Figura 7.3. Circuito RC


Por ley de voltajes de Kirchoff tenemos
vf (t) = vR (t) + vC (t)
Z
1 t
i( )d
(t) = Ri(t) +
C
y si derivamos a ambos lados,
d i(t)
1
d (t)
=R
+ i(t)
dt
dt
C

vc (t)

Section 7.4.

163

Respuesta a condiciones iniciales y se


nales arbitrarias.

Si aplicamos transformada de Laplace, y consideramos la condici


on inicial igual a
cero
s

1
1
= R sI(s) i(0 ) + I(s)
s
C

y despejando se obtiene
I(s) =

1
sR +

1
C

Si aplicamos el teorema del valor inicial5 , tenemos que


i(0+ ) = lim sI(s) = lim
s

s
sR +

1
C

==

1
R

(7.4.1)

Que evidentemente es diferente a la corriente inicial dada en t = 0 . Esto se


comprueba observando que la transformada inversa de I(s) es discontinua en t = 0
:

1/R
1
i(t) = L1 [I(s)] = L1
= et/RC (t)
(7.4.2)
s + 1/RC
R
222
Consideremos ahora el caso en que la entrada es una se
nal arbitraria.
Ejemplo 7.5. Consideremos el mismo del sistema 7.4, pero en que ahora la entrada
es un pulso definido como
(
1 ; 0 t 10
u(t) =
0 ; t > 10
Y consideremos que las condiciones iniciales son cero, por simplicidad. Notemos
que no habra problemas en considerar el efecto de estas, ya sea incluyendolas en el
desarrollo mediante transformada de Laplace, o bien, dada la linealidad del sistema,
se calcula su efecto en la salida por separado y se suma al efecto de la entrada. La
funci
on de transferencia del sistema, si se aplica transforma de Laplace, es:
H(s) =

Y (s)
1
= 2
U (s)
s +s+1

La transformda de Laplace del pulso u(t) puede obtenerse sin problema, ya que
esta funci
on se expresa en terminos de escalones y se puede utilizar la propiedad de
corrimiento temporal:
L [f (t t0 )(t t0 )] = est0 F (s)
5 Ver

ap
endice

164

Sistemas Lineales sujetos a Excitaciones Arbitrarias. An


alisis va Laplace

Captulo 7

Por tanto, tenemos que


u(t) = (t) (t 10)
1
1
U (s) = e10s
s
s
Luego la transformada de la salida ser
a
Y (s) = H(s)U (s)
=

1 e10s
s(s2 + s + 1)

Note que para obtener la inversa, dado que la exponencial s


olo representa un
corrimiento en el tiempo, podemos concentrarnos s
olo en la parte racional de Y (s),
para luego aplicarle dicha traslaci
on temporal. Es decir, consideremos
s + 12
1
1
s+1
1
F (s) =
=

=
+
s(s2 + s + 1)
s s2 + s + 1
s (s + 12 ) +

3
4

3
1
2

3 (s + 21 ) +

3
4

Aqu se observa que tenemos la forma de la trasnformada de un escal


on, del seno
y del coseno, estas u
ltimas con un corrimiento en la variable s. Este corrimiento
en s corresponde a una exponencial en el tiempo 6 , por lo tanto:



1 1t
12 t
3
2
(t)
f (t) = 1 e
cos 2 t e
sin 23 t
3
Luego la salida es

y(t) = L1 (1 e10s )F (s)


= f (t) f (t 10)



1
12 t
3
= 1e
cos 2 t sin 23 t
(t)
3

1 1 (t10)
12 (t10)
3
3
2
1e
cos 2 (t 10) e
sin 2 (t 10)
(t 10)
3
En la figura 7.4 se muestra el pulso u(t) de entrada y la salida del sistema a esta
excitaci
on.
Para finalizar, veamos un caso en que la transformada de Laplace permite, de
manera similar a la transformada de Fourier, analizar la respuesta de un sistema a
se
nales sinusoidales de diferente frecuencia en su entrada.
6 Ver

apendice

Section 7.4.

165

Respuesta a condiciones iniciales y se


nales arbitrarias.

1.5

u(t) y(t)

0.5

0.5

10
t [seg]

12

14

16

18

20

Figura 7.4. Pulso de entrada y respuesta del sistema del ejemplo 7.5.

Ejemplo 7.6. Nuevamente consideremos el sistema del ejemplo 7.3 definido por
su ecuaci
on diferencial
d 2 y(t) d y(t)
+
+ y(t) = u(t)
dt 2
dt
Supongamos que como entrada al sistema se elige una se
nal sinusoidal de frecuencia , por ejemplo:
u(t) = cos(t)
Con esto y con ayuda de Maple podemos llegar de manera directa a una expresi
on para la transformada de Laplace de la salida y aplicarle transformci
on inversa:
>with(inttrans):
>assume(omega>0):
>U(s):=laplace(cos(omega*t),t,s);
>H(s):=1/(s^2+s+1);
>Y(s):=H(s)*U(s);
>y(t):=invlaplace(Y(s),s,t);

U (s) =
H(s) =
Y (s) =
=
y(t) =

s
+ 2
1
2
s +s+1
1
s

s2 + 2 s2 + s + 1
1 + s 2 s
2 + s 2 s

( 2 + 1 + 4 )(s2 + s + 1) ( 2 + 1 + 4 )(s2 + 2 )
1 2

cos(t) +
sin(t) + { modos naturales}
2
4
2
+ 1 +
+ 1 + 4
s2

166

Sistemas Lineales sujetos a Excitaciones Arbitrarias. An


alisis va Laplace

Captulo 7

Los modos naturales del sistema decaen a cero cuando t , por tanto podemos
concentrarnos s
olo en la componente particular de la salida. Podemos combinar los
componentes seno y coseno en un solo termino:

y(t) =

+ { modos naturales}
cos t arctan
1 2
2 + 1 + 4

Y en esta expresi
on se aprecia como la amplitud y la fase de la se
nal de salida
dependen de la frecuencia . Esto se grafica en la figura 7.5.
1.4
1.2

Magnitud

1
0.8
0.6
0.4
0.2
0

0.5

1.5

0.5

1.5

2.5

3.5

4.5

2.5
3
Frecuencia [rad/s]

3.5

4.5

Fase

50

100

150

200

Figura 7.5. Magnitud y fase de la respuesta en frecuencia del sistema (ejemplo


7.6).

Este gr
afico se obtuvo con el c
odigo Matlab
>H=tf(1,[1 1 1]); w=[0:0.01:5];
>h=freqresp(H,w);hw=h(:);
>subplot(211);plot(w, abs(hw));
>subplot(212);plot(w, unwrap(angle(hw))*180/pi);

Section 7.5.

7.5

167

Estabilidad de las Funciones de Transferencia

Estabilidad de las Funciones de Transferencia

Hasta aqu hemos visto que la respuesta de un sistema que tiene una funcion de
transferencia H(s) es de la forma:
Y (s) = H(s)U (s) +

p X
nk
X
k=1 i=1

ki
(s k )i

(7.5.1)

Donde el valor de cada ki depende de las condiciones iniciales, y donde hempos


asumido que cada polo ubicado en s = k , tiene multiplicidad nk . Esta suposicion
implica a su vez que n1 + n2 + . . . + np = n.
Si recordamos la definicion de un sistema estable tenemos que se define cuando cualquier entrada acotada produce una salida tambien acotada, para cualquier
condicion inicial acotada. Si observamos la ecuacion (7.5.1) podemos afirmar que la
condicion necesaria y suficiente para que el sistema sea estable es que los polos de
este, que aparecen en las fracciones del segundo termino de la ecuacion, den origen
a se
nales que decaigan exponencialmente. Esto se traduce en que los polos del sistema deben tener parte real estrictamente negativa, es decir, deben estar ubicados
sobre el semiplano izquierdo (SPI) abierto del plano complejo s . Es decir,
para sistemas continuos el lmite de estabilidad en un plano complejo s en que se
ubican sus polos es el eje imaginario .
Ejemplo 7.7. Consideremos el sistema del ejemplo 7.1. Los polos de su funci
on de
transferencia est
an ubicados en s = 2 y s = 0. Estos no est
an en el SPI abierto
(0 est
a en el SPI cerrado). Por tanto el sistema no es estable. Se deja al lector el
verificar que una entrada constante, diferente de cero, produce una salida que crece
indefinidamente.

7.5.1

Estabilidad via an
alisis de polinomios

La seccion anterior pone de manifiesto la importancia de conocer la ubicacion de


los polos de un sistema, para establecer si se trata o no de un sistema estable. Sin
embargo, el determinar la ubicacion exacta de las races de la ecuacion
A(s) = sn + an1 sn1 + . . . + a0 = 0

(7.5.2)

puede tornarse un trabajo bastante engorroso ya cuando n 3. Por esto en el


analisis del polinomio A(s), mas que determinar exactamente sus races, lo que nos
interesa es poder asegurar si estas tienen o no parte real estrictamente negativa.
Consideremos el polinomio p(s) definido como
p(s) = sn + an1 sn1 + . . . + a1 s + a0

(7.5.3)

donde ai R.
El problema a estudiar se refiere a determinar si este polinomio tiene o no todas
sus races con parte real estrictamente negativa, o de manera equivalente, si tiene

168

Sistemas Lineales sujetos a Excitaciones Arbitrarias. An


alisis va Laplace

Captulo 7

o no races con parte real mayor o igual que cero. La idea puede naturalmente
ser resuelta calculando las n races de p(s). Sin embargo en muchas aplicaciones
resulta de especial interes estudiar la relacion entre los coeficientes del polinomio
con la ubicacion de sus races.
Los polinomios que tienen todas sus races en el semiplano izquierdo cerrado se
conocen como polinomios Hurwitz. Si sus races tienen parte real estrictamente
negativa, es decir, se ubican sobre el SPI abierto, los denominaremos estrictamente
Hurwitz .
De la ecuacion (7.5.3) podemos observar interesantes propiedades que por supuesto
son validas para los polinomios en general. Las que nos interesan en este caso son
aquellas que nos entregan informacion sobre el signo de la parte real de las races,
como las que se detallan a continuacion
Propiedad 1 El coeficiente an1 cumple con
an1 =

n
X

(7.5.4)

i=1

donde 1 , 2 , . . . n son las races de p(s).


La demostracion de esta propiedad es directa al notar que el polinomio p(s)
puede escribirse como
p(s) =

n
Y

(s i )

(7.5.5)

i=1

entonces, al expandir el producto (7.5.5) y observar el coeficiente que acompa


na a la potencia (n 1)-esima de s, se obtiene (7.5.4).
Propiedad 2 El coeficiente a0 cumple con
a0 = (1)n

n
Y

(7.5.6)

i=1

Esta propiedad tambien se puede demostrar expandiendo el producto (7.5.5)


y observando el termino constante.
Propiedad 3 Si todas las races de p(s) tienen parte real negativa, entonces es
necesario que ai > 0, i {0, 1, . . . , n 1}.
Para demostrar esta propiedad procedemos de la siguiente forma:
a) Las races de p(s) pueden ser reales o complejas, y si son complejas deben
aparecer en pares conjugados (dado que p(s) es un polinomio con coeficientes reales).

Section 7.5.

169

Estabilidad de las Funciones de Transferencia

b) En base a lo anterior, y sin perdida de generalidad, podemos suponer que


existen n1 races reales y n2 pares de races complejas. Por lo tanto
n1 + 2n2 = n.
c) Si todas las races tienen parte real negativa, entonces se pueden expresar
como:
i = |i |
i = 1, 2, . . . , n1

n1 +i = n1 +n2 +i = |i | + ji

i = 1, 2, . . . , n2

(7.5.7)
(7.5.8)

d) De esta forma, tenemos que


p(s) =

n1
Y

(s + |i |)

i=1

n2
Y
(s + |l |)2 + l2

(7.5.9)

l=1

donde, la segunda productoria ha agrupado, en factores cuadraticos, los


pares conjugados.
e) De (7.5.9) se observa que p(s) corresponde al producto de polinomios de
primer y segundo orden, los que tienen todos sus coeficientes reales y
positivos. Como los coeficientes de p(s) son suma de productos de los
coeficientes de estos polinomios de primer y segundo orden, la propiedad
queda demostrada.
Note que esta propiedad es necesaria para que p(s) sea un polinomio estricamente Hurwitz, pero no suficiente, excepto en el caso en que n = 1 y
n = 2.
Propiedad 4 Si alguno de los coeficientes es negativo o cero, entonces una o mas
races de p(s) tiene parte real negativa o cero. Esta propiedad se deduce
directamente de la propiedad anterior.
Ademas de los criterios que nos entregan las proiedades anteriores, uno de los
metodos clasicos para determinar la naturaleza Hurwitz de un polinomio es el algoritmo de Routh, tambien conocido como algoritmo de Routh-Hurwitz, que a
continuacion se explica.
Consideremos un polinomio p(s) de grado n, definido como
p(s) =

n
X

ai si

(7.5.10)

i=0

El algoritmo de Routh se basa en la construccion del siguiente arreglo numerico:


donde los terminos de las dos primeras filas se calculan seg
un
0,i = an+22i ;

i = 1, 2, . . . , m0

(7.5.11)

1,i = an+12i ;

i = 1, 2, . . . , m1

(7.5.12)

170

Sistemas Lineales sujetos a Excitaciones Arbitrarias. An


alisis va Laplace

sn

0,1

0,2

0,3

0,4

...

n1

1,1

1,2

1,3

1,4

...

sn2

2,1

2,2

2,3

2,4

...

n3

3,1

3,2

3,3

3,4

...

sn4
..
.

4,1
..
.

4,2
..
.

4,,3
..
.

4,4
..
.

...

s2

n2,1

n2,2

s1

n1,1

Captulo 7

n,1
Tabla 7.2. Arreglo de Routh

con m0 = (n + 2)/2 y m1 = m0 1 para n par y m1 = m0 para n impar.


Mientras que los terminos de la tercera fila en adelante se calculan seg
un
k,j =

k1,1 k2,j+1 k2,1 k1,j+1


k1,1

k = 2, . . . , n

j = 1, 2, . . . , mj

(7.5.13)
donde mj = max{mj1 , mj2 } 1, mientras que se asigna valor cero al coeficiente
k1,j+1 , cuando no esta definido en el arreglo de Routh 7.2.
Una vez construdo el arreglo de Routh podemos aplicar el siguiente resultado:

Dado un polinomio p(s) como el definido en (7.5.10) y el arreglo asociado a el


7.2, entonces el n
umero de races de p(s) con parte real mayor que cero es igual
a n
umero de cambios de signo en la primera columna del arreglo.

Ejemplo 7.8. Para ilustrar el uso del algoritmo de Routh-Hurwitz consideremos el


siguiente sistema
d y(t)
d 3 y(t) d 2 y(t)
+
+2
+ 3y(t) = u(t)
3
2
dt
dt
dt
Su funci
on de transferencia est
a dada por
H(s) =

1
Y (s)
= 3
2
U (s)
s + s + 2s + 3

Section 7.6.

171

Polos, ceros y la respuesta temporal

Por tanto, para la estabilidad debemos analizar las races del polinomio
p(s) = s3 + s2 + 2s + 3
Si construimos el arreglo de Routh en este caso este queda
s3
s2
s

s0

23
1

= 1

Donde se observa de inmediato que en la primera columna aparece un 1, por


tanto existen races con parte real positiva. Lo que se puede confirmar, por ejemplo,
con ayuda de Matlab. Este permite obtener las races de un polinomio dados sus
coeficientes, mediante la funci
on roots :
>> roots([1 1 2 3])
ans =
0.1378 + 1.5273i
0.1378 - 1.5273i
-1.2757

7.6

Polos, ceros y la respuesta temporal

A continuacion examinaremos algunas propiedades fundamentales de los polos y


ceros de la funcion de transferencia de un sistema, y su influencia sobre las caractersticas de la respuesta de un sistema lineal.
Consideremos una funcion de transferencia de la forma general
Qm
(s i )
(7.6.1)
H(s) = K Qni=1
(s
l )
l=1
donde l C y i C. Si suponemos que no hay valores de l y de i tales que l = i
entonces, 1 , 2 , . . . , m and 1 , 2 , . . . , n son los ceros y los polos de la funcion
4
de transferencia, respectivamente. El grado relativo, antes definido es nr = n m.
Estaremos particularmente interesados en aquellos ceros ubicados en el eje imaginario o en su cercana, y en aquellos polos ubicados en el semiplano derecho. Los
polos y ceros ubicados en estas regiones juegan un rol fundamental en la dinamica
del sistema.
Una clase especial de funcion de transferencia es aquella que tiene todos sus ceros
y sus polos en el semiplano izquierdo (SPI) del plano complejo s . Tradicionalmente
estas se denominan funciones de transferencia de fase mnima . Sin embargo,

172

Sistemas Lineales sujetos a Excitaciones Arbitrarias. An


alisis va Laplace

Captulo 7

de aqu en adelante usaremos este nombre para referirnos simplemente a funciones


de transferencia sin ceros en el semiplano derecho (SPD), que tengan o no polos
en el. Diremos que un cero tiene fase no mnima si se encuentra ubicado en el
SPD cerrado, de otra forma se denominara cero de fase mnima. Si hablamos de
una funci
on de transferencia estable nos referimos a que todos sus polos se
ubican sobre el SPI abierto; si decimos que inestable, es porque al menos uno
de sus polos se encuentra en el SPD cerrado. Los polos en si mismos tambien se
pueden denominar estables o inestables , si se encuentran dentro o fuera del SPI
abierto,respectivamente 7 .
A continuacion examinaremos la influencia sobre la respuesta transiente de un
sistema de los polos y ceros de su funcion de transferencia.

7.6.1

Polos

Como el lector recordara de sus cursos de matematicas, una funcion racional siempre
puede descomponerse en fracciones parciales, tal es el caso tambien de la funcion
de transferencia de un sistema en la variable s. Cada uno de los terminos de esta
expansion contiene ya sea un polo real simple, un par de polos complejos conjugados
o m
ultiples combinaciones de polos repetidos. Por tanto, para conocer el efecto de
los polos en la respuesta transiente de un sistema basta conocer el efecto ocasionado
por los polos de primer y segundo orden y su interaccion.
Un polo de primer orden contribuye a la descomposicion en fracciones parciales,
en general, con un termino de la forma
H1 (s) =

K1
1 s + 1

(7.6.2)

Mientras que un polo de segundo orden contribuye a la expansion con un termino


H2 (s) =

s
n

K2
+ 2

s
n

(7.6.3)

+1

Cada polo genera un termino especfico que coincide justamente con cada uno
de los modos naturales en la respuesta del sistema a un impulso en la entrada.
Estos modos estan presentes tambien en la respuesta a cualquier entrada al sistema
(excepto en casos muy excepcionales cuando hay coincidencia de polos con ceros).
El tipo de modo natural asociado a cada polo de un sistema depende de la ubicacion
de este sobre el plano complejo s , exactamente equivalente a la ubicacion de cada
frecuencia natural sobre un plano complejo, como se vio en el Captulo 3 3. Para
ilustrar esto podemos apreciar en la Figura 7.6 las diferentes respuestas a impulso
de un sistema que tiene por funcion de transferencia:
7 En ocasiones, por abuso de lenguaje, los ceros de fase no m
nima tambi
es se les denomina
ceros inestables, dado que se encuantran al la regi
on del plano s en que los polos son inestables.

Section 7.6.

173

Polos, ceros y la respuesta temporal

p2

p1

p0

p3

p4

Figura 7.6. Respuesta a impulso de diferentes sistemas de acuerdo a la ubicacion


de sus polos en el plano complejo

174

Sistemas Lineales sujetos a Excitaciones Arbitrarias. An


alisis va Laplace

H1 (s) =

Captulo 7

1
sp

para los polos ubicados sobre el eje real, y


H2 (s) =

s (a + bj) s (a bj)

para los polos complejos, que aparecen emparejados con su conjugado.

En realidad, la ubicacion en el plano complejo, y las caractersticas por esta


determinada, de los polos de un sistema estan en directa relacion las frecuencias
naturales que se pueden obtener a partir de la EDS del sistema.
En virtud de estas analogas es que nos referiremos, en general, como polos
r
apidos a aquellos que se encuentran mas alejados del lmite de estabilidad que
los demas polos del sistema. Esto es equivalente que considerar que la respuesta
transiente asociada a estos polos desaparece mas rapido que aquella asociada a los
otros polos, tal como puede apreciarse en la figura 7.6 al comparar la respuesta a
impulso de un sistema con un polo en p2 = 4 con las demas respuestas a impulso
unitario. Por otro lado llamaremos polos dominantes o polos lentos a aquellos que
se encuantran en el SPI abierto, pero mas cercanos al lmite de estabilidad que el
resto de los polos de sistema. Esto equivale a decir que el transiente asociado a los
polos dominantes decae mas lento que los demas modos naturales, como tambien
puede apreciarse en la figura 7.6, para el polo en p1 .
Por ejemplo, si tenemos un sistema cuyos polos estan ubicados en (1; 2
j6; 4; 5 j3), podemos decir que el polo dominante es 1 y los polos rapidos son
los que se encuentran en 5 j3.

7.6.2

Ceros

En general, el efecto de la ubicacion de los polos en la dinamica de un sistema puede


entenderse sin demasiada dificultad dada su directa relacion con la estabilidad y las
caractersticas generales de la respuesta del sistema. De hecho en la literatura sobre
sistemas y su estabilidad se puede encontrar mucha mas informacion que la aqu
detallada.
Por el contrario, a menudo se ha subestimado el efecto de los ceros en el analisis
del comportamiento de un sistema. Sin embargo, en los u
ltimos a
nos se ha vuelto
a dar un vistazo al efecto de los ceros sobre la respuesta de un sistema, que ahora
son reconocidos por su importancia, por ejemplo, al definir criterios de dise
no de
sistemas de control.
Es asi como, mientras que los polos de un sistema estan asociados a la presencia
de sus modos naturales aislados, los ceros reflejan de alg
un modo la interacci
on

Section 7.6.

175

Polos, ceros y la respuesta temporal

entre estos, por ejemplo, en el caso en que la salida de un sistema esta formada por
la suma de dos modos naturales diferentes. Ademas, a pesar que la ubicacion de
los polos determina los modos naturales de un sistema, es la ubicacion de los ceros
la que determina la proporci
on en que los modos aparecen combinados en la salida.
En estas combinaciones los modos naturales toman diferente fuerza, pudiendo ser
su efecto, en algunos casos, casi imperceptible. Veamos esto a traves de un ejemplo.

K
s+1

U (s)

Y (s)

K
s+2

Figura 7.7. Sistema con interaccion aditiva entre dos estados

Ejemplo 7.9. Consideremos el sistema de la figura 7.7, cuya funci


on de transferencia sistema esta dada por

K
K
Y (s) =
+
U (s)
s+1 s+2
(1 + )s + (2 + )
G(s) = K
(s + 1)(s + 2)
Este sistema tiene sus polos en s = 1, 2 y un cero en s = (2+)
1+ . Es decir,
la ubicaci
on est
a directamente relacionada con el peso de cada uno de los modos
naturales en la respuesta del sistema, por ejemplo, a un impulso unitario en la
entrada:
y(t) = K(et + e2t )
Si tomamos un valor peque
no, = 0.1, la funci
on de transferencia es:
G(s) = 1.1K

(s + 1.909)
(s + 1)(s + 2)

En esta puede observarse la cercana del cero al polo en s = 2. La respuesta a


impulso ser
a en este caso:
y(t) = 1.1K(et + 0.1e2t )

176

Sistemas Lineales sujetos a Excitaciones Arbitrarias. An


alisis va Laplace

Captulo 7

En que se aprecia la peque


na magnitud con que aparece el modo natural m
as
r
apido. Es decir, el cero a medida que se acerca al polo en s = 2 produce una
cuasi-cancelaci
on , que ser
a total cuando = 0. En este u
ltimo caso definitivamente no aparece este modo natural en la salida del sistema, ya que el polo ha sido
cancelado , y la funci
on de transferencia se ha reducido a
G(s) =

K
(s + 1)

Invitamos al lector a estudiar el caso an


alogo cuando alcanza valores muy
grandes y su efecto sobre el otro modo natural del sistema. Adem
as puede analizarse
que sucede con el sistema cuando el par
ametro toma valores negativos. Que pasa
si = 1 o = 2 ?
222
Al igual como antes se definieron los polos rapidos y lentos de un sistema, pueden
definirse de manera analoga los ceros r
apidos y lentos.. Ceros rapidos son aquellos
que estan mas alejados del lmite de estabilidad que los polos dominantes del sistema,
por otro lado los ceros lentos son aquellos que se encuentran mas cerca del lmite
de estabilidad que los polos dominantes del sistema. Para apreciar el efecto de los
ceros presentamos el siguiente ejemplo
Ejemplo 7.10. Efecto de los ceros en la respuesta a escal
on Considere un
sistema cuya funci
on de transferencia es
H(s) =

s + c
c(s + 1)(0.5s + 1)

(7.6.4)

Esta estructura de la funci


on de transferencia permite estudiar el efecto de la
ubicaci
on de un cero en la respuesta del sistema sin alterar la ubicaci
on de los polos
ni la ganancia a continua.
En este sistema observamos dos modos naturales: et y e2t . El primero de
estos estar
a casi ausente de la respuesta a medida que c se acerca a 1. Algo
an
alogo sucede para el segundo modo a medida que c se acerca a 2. Esta situaci
on
de cuasi cancelaciones tambien fue mencionada en el ejemplo anterior
La situaci
on m
as general se aprecia en la figura 7.8. En esta, se indica el valos
de c al lado de cada una de las respuestas graficadas. Podemos apreciar que un cero
r
apido, i.e. |c| 1, no afecta significativamente la respuesta transiente. Cuando el
cero es lento y estable obtenemos un gran overshoot, mientras que cuando es lento,
pero inestable, el undershoot es el que crece en magnitud. El efecto de los ceros
puede parecer demasiado crtico en este ejemplo, en que ambos superan el 400%, sin
embargo, el lector puede verificar que puede ser a
un mayor si el cero es m
as cercano
el origen.
222

Section 7.6.

177

Polos, ceros y la respuesta temporal

6
c=0.1

Step response

4
c=0.25

2
c=10
0

c=10

c=0.25
c=0.1

4
6

0.5

1.5

2.5
Tiempo [s]

3.5

4.5

Figura 7.8. Efecto de la ubicacion de los ceros sobre la respuesta a escalon

7.6.3

Respuesta inversa o contrarespuesta (undershoot)

La Figura 7.3 en la pagina 160 sugiere que existen casos en los que, en la presencia
de una excitacion mayor que cero, la respuesta del sistema se hace negativa durante
alg
un lapso no despreciable. Este comportamiento tambien aparece en la Figura
7.8. Un resultado muy fuerte es el siguiente.
Lema 7.1. Considere un sistema lineal estable con funci
on de transferencia H(s),
y con un cero real en s = c, donde c > 0, entonces la respuesta a un escal
on positivo
se hace negativa durante uno o m
as lapsos no despreciables.
Demostraci
on
La respuesta del sistema est
a dada por
Y (s) = H(s)
Entonces

K
H(s) =
s

K
;
s

y(t)est dt;

K>0

<{s} > 0

(7.6.5)

(7.6.6)

Note que la regi


on de convergencia queda determinada, por un lado, por el hecho
que el sistema es estable, por lo cual la transformada de h(t) est
a bien definida para
<{s} 0 y, por otro lado, por el hecho que la respuesta a un escal
on est
a bien
definida para <{s} > 0. En consecuencia la regi
on de convergencia para y(t) es
<{s} > 0.
Si ahora, en la ecuaci
on (7.6.6), hacemos s = c (note que, por ser c > 0, est
a
en la regi
on de convergencia) obtenemos, aplicando el hecho que H(c) = 0
Z
K
H(c) =
y(t)ect dt = 0
(7.6.7)
c
0

178

Sistemas Lineales sujetos a Excitaciones Arbitrarias. An


alisis va Laplace

Captulo 7

Como la integral es cero, y ect > 0, t, necesariamente y(t) debe ser negativa
en uno o m
as lapsos.
El lema precedente justifica la presencia de undershoots, como el sugerido en la
Figura 7.3 en la pagina 160. Sin embargo, este comportamiento inverso se puede
manifestar en formas mas diversas, tal como se ilustra en la Figura 7.9.

Respuesta a escaln

Respuesta a escaln

1.5
1

0.5

0.5

10

15

1
0.5
0
0.5
1
1.5
2

Tiempo [s]

Tiempo [s]

Figura 7.9. Distintas formas de respuesta inversa

7.6.4

Sistema can
onico de segundo orden

Para el caso de un par de polos complejos conjugados, es usual estudiar un sistema


canonico de segundo orden con la funcion de transferencia
H(s) =

s2

n2
+ 2n s + n2

(7.6.8)

Donde (0 < < 1) es conocido como el factor de amortiguamiento y n , como la frecuencia natural no amortiguada. Tambien definimos, para uso futuro, la
frecuencia natural amortiguada, d , como
p
d = n 1 + 2
(7.6.9)
Este sistema tiene dos polos complejos conjugados, s1 y s2 , las cuales estan
definidas por
s1,2 = n jd = n ej()
(7.6.10)
donde es el angulo definido por cos = .
Para este sistema, la transformada de Laplace de su respuesta a escalon unitario
esta dada por
Y (s) =

n2
n2
=
(s2 + 2n s + n2 )s
[(s + n )2 + d2 ] s

(7.6.11)

Section 7.6.

179

Polos, ceros y la respuesta temporal

Realizando una expansion en fracciones parciales se llega a


1
s + n
n

(7.6.12)
s (s + n )2 + d2
(s + n )2 + d2
p

1
1
s + n
d
2
p
=
1

(7.6.13)
s
(s + n )2 + d2
(s + n )2 + d2
1 2

Y (s) =

Aplicando la transformada de Laplace obtenemos


en t
y(t) = 1 p
sin(d t + )
1 2

(7.6.14)

Las caractersticas principales de esta respuesta aparecen in la Figura 7.10. En


esa figura, y = 1 y Td = 2/d .

y+Mp

jd

Td

tr tp

Figura 7.10. Localizacion de los polos y respuesta a escalon unitario de un sistema canonico de segundo orden.

Podemos tambien calcular los indicadores descritos en la Figura 7.3 en la pagina 160.
Tiempo de levantamiento
Para este caso, usamos kr = 1 (refierase a la Figura 7.3 en la pagina 160) obteniendo
en tr
p
sin(d tr + ) = 0
1 2

(7.6.15)

De aqu se llega a
tr =

(7.6.16)

180

Sistemas Lineales sujetos a Excitaciones Arbitrarias. An


alisis va Laplace

Captulo 7

Sobrerespuesta (overshoot)
La maxima sobrerespuesta, Mp , y el instante en el cual este ocurre, tp , pueden ser
calculados derivando y(t), y luego igualando a cero esta derivada.
en t
dy(t)
= p
[n sin(d t + ) + d cos(d tr + )]
dt
1 2

(7.6.17)

As, tenemos que d tp = y el instante en que ocurre la sobrerespuesta, tp , es


tp =

Td
=
d
2

(7.6.18)

A su vez, la magnitud de la sobrerespuesta esta dada por


n


e d
sin( + ) = e 12
M p = y(tp ) 1 = p
1 2

(7.6.19)

Las expresiones de mas arriba sugieren que un valor peque


no para genera un
tiempo de levantamiento peque
no, al costo de una gran sobrerespuesta. Tambien
podemos apreciar que la velocidad de decaimiento y, como consecuencia, el tiempo de asentamiento, estan determinados por el producto n (corresponde a la
magnitud de la parte real de los polos).
222
Aunque este sistema canonico parece ser un caso muy particular, ocurre que
con frecuencia, y en distintas aplicaciones, el sistema bajo estudio esta dominado
por un par de polos complejos conjugados. Aunque las formulas desarrolladas para
calcular los indicadores de la respuesta a escalon no son aplicables a sistemas no
canonicos, los conceptos asociados tiene igual validez.

Section 7.6.

7.6.5

Polos, ceros y la respuesta temporal

181

Ejercicios para el lector

Problema 7.1. Determine la transformada de Laplace de las siguientes funciones


1. y(t) = A cos(t + )
2. y(t) = teat , en

2 t
3. y(t) =

3 + t

0
4. y(t) =

que a > 0
;0 < t < 1
;1 t < 2
;2 t < 3
;t 3

1
2t

Problema 7.2. Para los siguientes sistemas:


1.

d 2 y(t) d y(t)
+
6y(t) = u(t)
dt 2
dt

2.

d 3 y(t)
d 2 y(t) d 2 y(t)
d u(t)
+3
+
+ 3y(t) =
u(t)
3
dt
dt 2
dt 2
dt

3.

d 2 y(t) d y(t)
+
6y(t) = u(t)
dt 2
dt

4.

d y(t)
d 2 y(t)
+ 16
+ 100y(t) = 100u(t)
dt 2
dt

7.2.1 Determine su funci


on de transferencia,
7.2.2 Determine si son o no estables,
7.2.3 Determine y grafique su respuesta a impulso, y
7.2.4 Determine y grafique su respuesta a escal
on.

Problema 7.3. Considere un sistema definido por su ecuaci


on diferencial
d 2 y(t) d y(t)
d u(t)
+
+ y(t) =
+ 3u(t)
2
dt
dt
dt
(i) Determine la funci
on de transferencia del sistema.
(ii) Determine la salida del sistema a entrada cero y condiciones iniciales y(0)

=1
y y(0) = 1. Grafique.

182

Sistemas Lineales sujetos a Excitaciones Arbitrarias. An


alisis va Laplace

Captulo 7

(iii) Determine la salida del sistema si la entrada es u(t) = (t)(t2). Grafique.

Problema 7.4. Para el sistema


d u(t)
d 2 y(t)
d y(t)
+ 10y(t) =
+ u(t)
+7
2
dt
dt
dt
7.4.1 Determine condiciones sobre y de manera que en la respuesta a impulso
aparezca s
olo el modo natural dominante.
7.4.2 Si u(t) = 0, = 1 y = 1 determine la condiciones iniciales de manera que
el la respuesta homogenea s
olo aparezca el modo natural dominante.
7.4.3 Repita los dos puntos anteriores, pero para el modo r
apido del sistema.

Problema 7.5. (i) Determine la funcion de transferencia del circuito de la figura 7.11 considerando como entrada la fuente de voltaje e(t) y como salida el
voltaje en el condensador vC (t)

+
e(t)

vc (t)
L

Figura 7.11. Circuito RLC


(ii) Si R = 1000 [], C = 1000 [F ] y L = 0.1 [H], determine la respuesta a un
escal
on de 5 [V ] en e(t).

Problema 7.6. Se sabe que la respuesta de un sistema lineal a un escal


on unitario
en su entrada (con condiciones iniciales iguales a cero) est
a dada por
g(t) = (2 2e4t + te4t )(t)
Determine la funci
on de transferencia del sistema.
Problema 7.7. Considere el siguiente modelo no lineal
d 2 y(t)
d y(t)
+ [2 + 0.1u(t)2 ]
+ 6y(t) = u(t) + 0.1eu(t)
2
dt
dt
Linealice el sistema en torno a un punto de operaci
on (uQ ,yQ ), determine su
funci
on de transferencia y analice la evoluci
on de los polos cuando uQ [0.5, 0.5].

Section 7.6.

Polos, ceros y la respuesta temporal

183

Problema 7.8. Considere la siguiente funci


on de trasferencia de un sistema
H(s) =

s3

s2 + 13s + 30
+ 4s2 7s 10

(i) Haga un esquema con la ubicaci


on de todos los polos y ceros del sistema en el
plano complejo s, clasific
andolos de acuerdo a su velocidad (lentos y r
apidos).
(ii) Determine la respuesta del sistema si se somete a un impulso unitario en la
entrada.
(iii) Determine la salida del sistema si las condiciones iniciales son y(0) = 1,
y(0)

= 0 e y(0) = 2.

Problema 7.9. Considere la siguiente funci


on de transferencia de un sistema que
depende de un par
ametro K 0
G(s) =

s2

K(s + 1)
s + 1 + K(s + 1)

(i) Determine para que rango de valores del par


ametro K los el sistema es estable.
(ii) Haga un esquema en el plano complejo de c
omo vara la ubicaci
on de los polos
al variar el par
ametro K (por ejemplo, para K = 0, 0.5, 1, 2 ).
(iii) Para cada uno de los valores de K considerados en (ii) determine y grafique
la respuesta del sistema a un escal
on unitario ( cond. inic. = 0 ).

Problema 7.10. Dado el sistema definido por su funci


on de transferencia
G(s) =

s + b2
s2 + bs + b2

(a) Determine la respuesta del sistema si la entrada es un impulso unitario y las


condiciones iniciales son cero.
(b) Determine la respuesta del sistema a un escal
on unitario, con condiciones
iniciales cero.
(c) Determine los par
ametros de la respuesta a escal
on de la Tabla 7.1, y verifquelos
graficando la simulaci
on para algunos valores del par
ametro b.

184

Sistemas Lineales sujetos a Excitaciones Arbitrarias. An


alisis va Laplace

Captulo 7

Problema 7.11. Determine la respuesta e escal


on de los siguientes sistemas
definidos por su funci
on de tranferencia y con condiciones iniciales cero, y grafique
para algunos valores de los par
ametros a, b, c, K > 0

(i)
(ii)
(iii)

K(s + a)
(s + a)(s + K)
K(s + a)(s + b)
G2 (s) =
(s + a)(s + b)(s + K)
K(s + a)(s + b)(s + c)
G3 (s) =
(s + a)(s + b)(s + c)(s + K)
G1 (s) =

Que puede decir del efecto de los ceros sobre la respuesta del sistema ?

Problema 7.12. Una forma de verificar el grado relativo de la funcion de tranferencia de un sistema es a traves de su respuesta a escal
on:
Demuestre que si p(t) es la respuesta a un escal
on de un sistema con funci
on de
transferencia G(s), entonces
dp(t)
=0

dt t=0

grado relativo de G(s) 2

Captulo 8

ANALISIS
DE SISTEMAS EN
TIEMPO DISCRETO
MEDIANTE
ZETA
TRANSFORMACION

De los metodos disponibles para el estudio de los sistemas lineales dinamicos, de


tiempo discreto, uno en particular resulta ser especialmente u
til: la Transformacion
Zeta. Las principales ventajas de este metodo se pueden resumir en lo siguiente:
Se pueden tratar sistemas lineales inestables.
Se puede aplicar a una vasta gamas de se
nales no acotadas
Permite incluir las condiciones iniciales del sistema
La ERS es transformada en una expresion algebraica de simple resolucion

8.1

Definici
on de la Transformada

Dada una se
nal de tiempo discreto f [t], 0 t < . La Transformacion Zeta
asociada a f [t], y su transformacion Zeta inversa estan definidas por

Z [f [t]] = F (z) =

f [t]z t

(8.1.1)

t=0

Z 1 [F (z)] = f [t] =

1
2j

F (z)z t1 dz

(8.1.2)

185

186

An
alisis de Sistemas en tiempo discreto mediante transformaci
on Zeta

Captulo 8

La curva cerrada sobre la que se calcula la transformada Zeta inversa (E.1.2)


es tal que debe encerrar a todas las singularidades de Y (z). La fundamentacion
de estas expresiones se desarrolla en el Apendice E. Tambien se incluyen en ese
apendice las propiedades mas importantes de la Transformacion Zeta.
En este captulo nos concentraremos en el uso de esta transformacion para el
analisis de sistemas lineales de tiempo discreto.

8.2

Aplicaci
on a sistemas lineales: la funci
on de transferencia

Como ya hemos visto, una gran cantidad y variedad de sistemas de interes, pueden
ser modelados en forma lineal. Esto se consigue linealizando la o las ecuaciones de
recursion que describen el comportamiento del sistema en el tiempo, como se vio
en el Captulo 1, en torno a un punto de equilibrio o mas generalmente, en torno
a un punto de operacion. Para el caso de sistemas de una entrada y una salida, el
proceso de linealizacion desemboca en la obtencion de una ecuacion de recursion,
la ERS, de la forma general

y[t] + an1 y[t 1] + . . . + a1 y[t n + 1] + a0 y[t n] =


bm u[t] + bm1 u[t 1] + . . . + b1 u[t m + 1] + b0 u[t m] (8.2.1)
Cuando se aplica transformacion Zeta a la ERS se puede usar una de la propiedades vistas en el Apendice E, la que nos indica que la transformada de una se
nal
atrasada se puede expresar como:
Z [y[t t0 ]] = Y (z)z t0 + y[1]z t0 +1 + . . . + y[t0 + 1]z 1 + y[t0 ]

(8.2.2)

Por tanto, si aplicamos esto a la ERS (8.2.1) tenemos que:

Y (z) + an1 z 1 Y (z) . . . + a1 z n+1 Y (z) + a0 z n Y (z)


= bm U (z) + . . . + b0 z m U (z) + f (z 1 , xo )

(8.2.3)

donde f (z 1 , xo ) es una funcion que depende de la variable z y de las n condiciones


iniciales de la salida y[t], expresadas como y[1], y[2], . . . y[n]. Es importante
destacar que
f (z 1 , x0 ) = [p(z 1 )]T xo

(8.2.4)

donde p(z 1 ) es un vector que contiene polinomios en z 1 y xo es un vector que


contiene las condiciones iniciales ya mencionadas. Esta estructura es una expresion de la linealidad del sistema (homogeneidad y superposicion respecto de las
condiciones iniciales).

Section 8.2.

187

Aplicaci
on a sistemas lineales: la funci
on de transferencia

Nota 8.1. Note tambien que se ha supuesto que u[1] = u[2] = . . . = u[m] = 0.
Esto no es restrictivo, porque siempre es posible encontrar una secuencia de entrada
u[t], no nula t < m, tal que y[t] satisfaga las condiciones iniciales establecidas.
222
Para ilustrar el uso de estas ideas, consideramos un ejemplo en donde analizaremos ademas algunas alternativas en el calculo de la transformacion inversa.
Ejemplo 8.1. Considere un sistema con la ERS
y[t] 0, 7y[t 1] + 0, 1y[t 2] = 0, 8u[t 1]

(8.2.5)

Suponga que u[t] = 1, t 0, y que y[1] = 2 e y[2] = 1. Calcule y[t], t 0.


Soluci
on
Aplicamos T.Z. a la ERS obteniendo

Y (z) 0, 7 z 1 Y (z) + y[1] + 0, 1 z 2 Y (z) + z 1 y[1] + y[2] = 0, 8z 1 U (z)


(8.2.6)
Esto lleva a

Y (z) =

0, 8z 1
(0, 7 0, 1z 1 )y[1] 0, 1y[2]
U (z) +
1
2
1 0, 7z + 0, 1z
1 0, 7z 1 + 0, 1z 2

(8.2.7)

Esto indica que, para este ejemplo

f (z 1 , xo ) = [p(z 1 )]T xo = 0, 7 0, 1z 1

y[1]
y[2]

0, 1

(8.2.8)

Reordenando (para obtener polinomios en z en vez de polinomios en z 1 ) y


aplicando valores numericos se llega a
Y (z) =

0, 8z
1, 5z 2 0, 2z
U
(z)
+
z 2 0, 7z + 0, 1
z 2 0, 7z + 0, 1
|
{z
} |
{z
}
Yu (z)

(8.2.9)

Yx (z)

donde Yu (z) e Yx (z) denotan las transformadas de la respuesta a entrada con condiciones iniciales iguales a cero y de la respuesta a condici
on inicial, con entrada cero,
respectivamente.
As, se obtiene
Yu (z) =

0, 8z
z
4
4
2
=

+
(z 0, 5)(z 0, 2) z 1
3(z 0, 2) 3(z 0, 5) z 1

Aplicando transformaci
on inversa se llega a

(8.2.10)

188

An
alisis de Sistemas en tiempo discreto mediante transformaci
on Zeta

yu [t] =

4
(0, 2)t1 (0, 5)t1 [t 1] + 2[t 1];
3

Captulo 8

t 0

(8.2.11)

3
1
11
1, 5z 2 0, 2z
=
+
(z 0, 5)(z 0, 2)
2 15(z 0, 2) 12(z 0, 5)

(8.2.12)

Por su parte

Yx (z) =

Aplicando transformaci
on inversa se llega a

yx [t] =

3
1
11
K [t] (0, 2)t1 [t 1] + (0, 5)t1 [t 1];
2
15
12

t 0

(8.2.13)

Finalmente, la respuesta completa, y[t], se calcula sumando yu [t] e yx [t].


Una forma alternativa para calcular y[t] es la siguiente

0, 8z
1, 5z 0, 2
Y (z) = z
+
(z 0, 5)(z 0, 2)(z 1) (z 0, 5)(z 0, 2)

5
5
2
=z

+
15(z 0, 2) 6(z 0, 5) z 1
1z
5z
2z
=

+
3(z 0, 2) 6(z 0, 5) z 1

(8.2.14)
(8.2.15)
(8.2.16)

Al aplicar ahora transformaci


on inversa se llega a
1
5
y[t] = 2 + (0, 2)t (0, 5)t ;
3
6

t 0

(8.2.17)

Lo que se ha hecho en esta segunda forma de calcular Z 1 [] es aprovechar


la presencia de un factor z en el numerador. As las fracciones parciales pueden
despues recibir de vuelta ese factor z, de modo que la transformaci
on inversa no
tiene corrimiento en el tiempo1 .
El lector puede comprobar que ambas expresiones arrojan los mismos valores
para y[t].
222
Volvamos ahora a considerar la forma general de la ERS y supongamos condiciones iniciales iguales a cero. Entonces tenemos que:
Y (z) = H(z)U (z)
1 Recuerde

t 0

que, por ejemplo, Z 1

z
za

= at , t 0; sin embargo, Z 1

(8.2.18)
h

1
za

= at1 [t 1],

Section 8.2.

Aplicaci
on a sistemas lineales: la funci
on de transferencia

189

Donde se define la funcion


H(z) =

B(z)
A(z)

(8.2.19)

la que se forma con los polinomios que contienen los coeficientes de la ecuacion
(8.2.1) original:
A(z) = z m (z n + an1 z n1 + . . . + a0 )
n

B(z) = z (bm z

+ bm1 z

m1

+ . . . + z0 )

(8.2.20)
(8.2.21)

La definicion de los polinomios A(z) y B(z) acusa la presencia de una cancelacion. En realidad esto se ha registrado de esa forma para considerar los tres
casos posibles: n < m, n = m y n > m. Para clarificar esto ilustraremos los tres
diferentes casos.
Ejemplo 8.2 (Caso n < m). Sea la ERS
y[t] 0, 8y[t 1] + 0, 4y[t 2] 0, 1y[t 3] = 0, 2u[t 3] 0, 7u[t 4] (8.2.22)
En este caso, n = 3, con an1 = a2 = 0, 8, an2 = a1 = 0, 4 y an3 = a0 =
0, 1 Por otro lado m = 4, con bm = b4 = 0, bm1 = b3 = 0, bm2 = b2 = 0,
bm3 = b1 = 0, 2 y bm4 = b0 = 0, 7
Entonces, la funci
on de transferencia es
H(z) =

z 3 (0, 2z 0, 7)
0, 2z 0, 7
=
4
3
2
3
z (z 0, 8z + 0, 4z 0, 1)
z(z 0, 8z 2 + 0, 4z 0, 1)

(8.2.23)
222

Ejemplo 8.3 (Caso n = m). Sea la ERS


y[t] 0, 8y[t 1] + 0, 4y[t 2] 0, 1y[t 3] = 0, 2u[t 2] 0, 7u[t 3] (8.2.24)
En este caso tamben n = 3, con an1 = a2 = 0, 8, an2 = a1 = 0, 4 y
an3 = a0 = 0, 1 Por otro lado m = 3, con bm = b3 = 0, bm1 = b2 = 0,
bm2 = b1 = 0, 2, y bm3 = b0 = 0, 7
Entonces, la funci
on de transferencia es
H(z) =

z 3 (z 3

0, 2z 0, 7
z 3 (0, 2z 0, 7)
= 3
0, 8z 2 + 0, 4z 0, 1)
z 0, 8z 2 + 0, 4z 0, 1

(8.2.25)
222

190

An
alisis de Sistemas en tiempo discreto mediante transformaci
on Zeta

Captulo 8

Ejemplo 8.4 (Caso n > m). Sea la ERS


y[t] 0, 8y[t 1] + 0, 4y[t 2] 0, 1y[t 3] = 0, 2u[t 1] 0, 7u[t 2] (8.2.26)
En este caso nuevamente n = 3, con an1 = a2 = 0, 8, an2 = a1 = 0, 4 y
an3 = a0 = 0, 1 Por otro lado m = 2, con bm = b2 = 0, bm1 = b1 = 0, 2 y
bm2 = b0 = 0, 7
Entonces, la funci
on de transferencia es
H(z) =

z 2 (z 3

z 3 (0, 2z 0, 7)
z(0, 2z 0, 7)
= 3
0, 8z 2 + 0, 4z 0, 1)
z 0, 8z 2 + 0, 4z 0, 1

(8.2.27)
222

En lo sucesivo, supondremos que los polinomios B(z) y A(z) son coprimos, es


decir, todos los factores comunes en H(z) han sido eliminados por cancelacion.
Los grados de B(z) and A(z) seran redefinidos como m
yn
respectivamente.
La funcion racional H(z) es la funci
on de transferencia en el dominio Zeta.
La representacion (8.2.19) es muy u
til para describir caractersticas y propiedades
de un sistema tales como estabilidad y velocidad, ademas de entregar informacion
en el momento de dise
nar sistemas de control, filtros u otras aplicaciones.
A continuacion repetiremos algunos conceptos ligados a la definicion de la funcion de transferencia de un sistema. Son los mismos que para el caso de la transformacion de Laplace y su reiteracion esta orientada a enfatizar los aspectos comunes
existentes en el dominio del tiempo continuo y en el dominio del tiempo discreto.
As, definimos entonces los siguientes terminos.
(i) Las m
races de la ecuacion B(z) = 0 son los ceros del sistema. Ellos hacen
ademas que H(z) = 0
(ii) Las n
races de la ecuacion A(z) = 0 son los polos del sistema. Ellos hacen
ademas que H(z)
(iii) Si A(z) = 0 tiene nt races en s = t , decimos que el polo t tiene multiplicidad nt .
(iv) La diferencia de grado entre A(z) y B(z), es decir, m
n
se denomina el
grado relativo del sistema.
(v) Si m
<n
decimos que el modelo es estrictamente propio. Esto implica que
el grado relativo del sistema es positivo.
(vi) Si m
= n
decimos que el modelo es bipropio. Esto implica que el grado
relativo del sistema es cero.

Section 8.2.

Aplicaci
on a sistemas lineales: la funci
on de transferencia

191

(vii) Si m
n
decimos que el modelo es propio .
Note que el polinomio A(z) corresponde al polinomio caracterstico de la ERS,
multiplicado por z ` , donde ` N tiene un valor que depende del caso especfico. De
esta forma, el conjunto de los polos de H(z) incluye un conjunto de ` polos en el
origen mas las frecuencias naturales que se pueden calcular de la ERS.
Estas definiciones nos ayudaran a apreciar la forma en que se relaciona la salida
de un sistema con su entrada, tal como pone en evidencia la definicion (8.2.19),
pero la simplicidad reside en que la relacion se establece mediante la funcion racional
H(z), es decir, los desplazamientos temporales han desaparecido. Si bien para llegar
a esta relacion las condiciones iniciales se han supuesto iguales a cero, sabemos
que en caso de sistemas estables, el efecto de la condiciones iniciales se extingue
exponencialmente en tiempo.
En forma similar a aquella que se utilizo en el analisis de Fourier, la funcion de
transferencia puede ser definida en base a la respuesta a impulso, con condiciones
iguales a cero. Si recordamos como se definio la funcion de transferencia H(z) al
aplicar transformacion Zeta a la ERS del sistema (8.2.1), podemos escribir la salida
del sistema seg
un la ecuacion (8.2.18). Se puede apreciar que si a ambos lados de
esta expresion, se aplica transformacion Zeta inversa, tenemos que (vea la Tabla E.1
en la pagina 374)
Y (z) = H(z)U (z) y[t] = h[t] u[t]

(8.2.28)

h[t] = Z 1 [H(z)]

(8.2.29)

En que,
Por lo tanto, podemos afirmar que

La funcion de transferencia H(z) de un sistema de tiempo discreto, definida en


(8.2.19), es igual a la transformada Zeta de la respuesta h[t] del sistema a un
Delta de Kronecter en la entrada, cuando las condiciones iniciales son cero.
A diferencia del caso de tiempo continuo, la funcion de transferencia H(z) es
siempre una funcion racional en z. La adicion de un retardo puro, digamos de to
unidades, implicara la adicion de to polos en el origen.
La relacion entre ERS, respuesta a delta de Kronecter y funcion de transferencia
se describe en la Figura 8.1. A esos vnculos se ha agregado la respuesta a escalon
unitario, con condiciones iniciales iguales a cero.

8.2.1

Funci
on de transferencia en dominios de Fourier y Zeta

Cuando el sistema tiene frecuencias naturales en el disco unitario cerrado, con la


restriccion que aquellas frecuencias sobre la circunferencia unitaria sean simples,

192

An
alisis de Sistemas en tiempo discreto mediante transformaci
on Zeta

Captulo 8

ERS

H(z)

h[k]

g[k]

Figura 8.1. Relaciones entre ERS, respuestas a delta y a escalon, y funcion de


transferencia.

las funciones de transferencia en ambos dominios existen. El elemento com


un es
conceptual: en ambos casos, la funci
on de transferencia es igual a la correspondiente transformada de la respuesta a un delta de Kronecter, con
condiciones iniciales iguales a cero. La definicion y la estructura de H(z) parecen ser identicas a la definicion y la estructura de la funcion de transferencia en
el dominio de Fourier, bastando hacer una simple sustitucion de z por ej . Sin
embargo, esto no es correcto siempre.
La diferencia es que cuando el sistema tiene frecuencias naturales (simples) sobre la circunferencia unitaria, la funcion de transferencia en Fourier incluye deltas
de Dirac en frecuencia. Esto se origina en el hecho que la respuesta a impulso del
sistema contiene modos naturales que no decaen y para los cuales la transformada
de Fourier existe solo en el lmite. En cambio, para el mismo sistema, la funcion de
transferencia en Zeta no contiene impulsos en frecuencia, debido a que la transformada Zeta esta bien definida, bastando escoger el radio de convergencia igual a 1,
es decir, |z| > 1.
Consideremos el sistema con la ERS

3
y[t] ay[t 1] + a2 y[t 2] = a
u[t 1]
(8.2.30)
2
donde 0 < a 1.
La funcion de transferencia en el dominio de la transformacion Zeta es

a 23 z
Hz (z) = 2
;
z az + a2

|z| > 1

(8.2.31)

En cambio, en el caso de Fourier, debemos distinguir dos casos


a<1
En este caso, las frecuencias naturales estan en el disco unitario abierto, por lo tanto,
los modos naturales son absolutamente sumables2 y la funcion de transferencia en
2
PRecuerde que una secuencia f [t], definida t
t=0 |f [t]| < .

es absolutamente sumable si y s
olo si

Section 8.3.

193

Respuesta a impulso y respuesta a escal


on.

el dominio de la Transformada de Fourier Discreta es

HF (e ) =

(ej )2

3 j
2 e
aej

+ a2

(8.2.32)

En este caso,
HF (ej ) = Hz (z)|z=ej

(8.2.33)

De esa forma, H(ej ) es tambien igual la respuesta en frecuencia del sistema.


a=1
En este caso, las frecuencias naturales estan sobre la circunferencia unitaria y los
modos naturales combinados corresponden a una sinusoide. Mas especficamente,
la respuesta a un delta de Kronecter, con condiciones iniciales iguales a cero es
h[t] = seno( t/3)[t]

(8.2.34)

En consecuencia (vea Tabla C.4 en la pagina 333, con o = /3) la funcion de


transferencia en el dominio de la transformacion de Fourier es

!

3 j
X
e
j
j
HF (e ) =
( + o + 2`) ( o + 2`) + j 2 2 j
2
(e ) e + 1
`=

(8.2.35)
Se observa que en este caso, no se cumple (8.2.33).
222
La relacion entre la transformacion de Fourier y transformacion Zeta puede ser
resumida en la siguiente afirmacion

Las transformaciones Zeta y de Fourier son equivalentes, via la relacion z =


ej , en aquellos casos en que la transformada Zeta existe para |z| < , donde
0 < < 1.

8.3

Respuesta a impulso y respuesta a escal


on.

Como ya se vio, la funcion de transferencia esta univocamente asociada a la respuesta a impulso del sistema. Por otro lado sabemos que si se aplica un impulso
a la entrada, la respuesta contiene solamente los modos naturales del sistema; esto
nos permite estudiar su comportamiento natural, que es independiente de la se
nal
de entrada, (caractersticas del transiente, velocidad de respuesta, etc. ) a partir
del analisis de la funcion H(z).

194

An
alisis de Sistemas en tiempo discreto mediante transformaci
on Zeta

Captulo 8

A similitud del caso de sistemas de tiempo continuo, la respuesta a escalon es


tambien usada para describir el sistema, aunque en este caso, ello no se debe a la
dificultad para generar el delta. 3 .
La definicion (8.2.19) nos permite expresar la respuesta a escal
on unitario
del sistema, como:
z
(8.3.1)
z1
Lo cual, suponiendo que el sistema no tiene polos en z = 1, corresponde
Y (z) = H(z)

a
y[t] = y + modos naturales del sistema

(8.3.2)

donde y = H(1), en virtud del Teorema del Valor Final (ver Teorema E.1 en
la pagina 372 ). Si el sistema es estable, entonces los modos naturales decaen
exponencialmente a cero. Luego, para sistemas estables, la respuesta en estado
estacionario esta dada por la constante y . Note que si H(z) tiene uno o mas ceros
en z = 1, entonces y = 0.
Es conveniente recalcar que la respuesta a escalon unitario contiene los modos
naturales del sistema, por lo que revela cuestiones fundamentales del comportamiento dinamico del sistema.
Tambien es conveniente recordar que existe una relacion simple entre la respuesta
a escalon g[t] y la respuesta a delta de Kronecter h[t]. Esta esta dada por
h[t] = g[t] g[t 1]

(8.3.3)

A similitud con el caso de tiempo continuo, se puede definir un conjunto de


parametros, en la respuesta a escalon, que describen ciertas propiedades de la
dinamica del sistema. Sin embargo, en los sistemas de tiempo discreto, los calculos
de algunos de estos parametros se complican por el hecho que la variable independiente es discreta, as el hacer cero una derivada para calcular un maximo o un
mnimo se hace difcil por dos factores: la derivada no esta definida y, por otro
lado, el calculo del instante asociado debe restringirse a valores enteros.
En la figura 8.3 se muestra una respuesta a escalon unitario con condiciones
iniciales iguales a cero. Se observa que se le puede asignar los mismos elementos
caracterizadores que en el caso de tiempo continuo.
Un asunto de interes tiene que ver con el hecho que una se
nal cualquiera f [t] (no
solo la respuesta a escalon o la respuesta a impulso), puede ser igual a cero durante
los primeros d instantes. Ello se explica con el siguiente analisis.
Sea una se
nal f [t] con transformada F (z) dada por
F (z) =

Bf (z)
Af (z)

(8.3.4)

3 Tanto la respuesta a impulso como la respuesta a escal


on pueden obtenerse f
acilmente en
Matlab con las funciones dimpulse y dstep, respectivamente

Section 8.4.

195

Respuesta a condiciones iniciales y excitaciones arbitrarias.

Respuesta a escaln

2
1.5
1
0.5
0
0.5
1

10

15

20

25

30

35

40

45

50

Tiempo

donde Af (z) y Bf (z) son polinomios de la forma


Af (z) = z p + p1 z p1 + . . . + 1 z + 0
q

Bf (z) = q z + q1 z

q1

+ . . . + 1 z + 0 ;

(8.3.5)
q 6= 0

(8.3.6)

para n
umeros enteros no negativos p y q. Observe que dado que Y (z) debe poder
expresarse en serie de potencias no positivas de z, es necesario que p q.
La expansion de F (z) en potencias de z 1 se obtiene dividiendo Bf (z) por Af (z),
esto lleva a
F (z) = q z p+q + (q1 q p1 )z p+q1 + . . .
(8.3.7)
Esta ecuacion demuestra que el primer valor de f [t] distinto de cero ocurre en
el instante t = p q, con f [p q] = q . El resultado principal se puede resumir en
el siguiente lema:
Lema 8.1. Considere una se
nal f [t] y su transformada F (z), cuociente de polinomios en z, con grado relativo d, entonces f [t] = 0 para t = 0, 1, ..d 1
222
Cuando este lema se aplica a la respuesta a escalon unitario, con condiciones
iniciales iguales a cero, se deduce que esta es cero en los primeros d instantes, donde
d es el grado relativo de la funcion de transferencia H(z). En rigor, el Lema 8.1
z
se aplica al producto H(z)U (z), pero en este caso U (z) es z1
, es decir, su grado
relativo es cero, por lo tanto el grado relativo de H(z)U (z) es igual al grado relativo
de H(z).

8.4

Respuesta a condiciones iniciales y excitaciones arbitrarias.

De la misma manera que en la seccion precedente se obtuvo las respuestas a impulso


y a escalon del sistema, la Transformacion Zeta permite obtener la respuesta del
sistema cuando la entrada pertenece a un tipo mas general de se
nales. En esta tarea,
las principales ventajas que tiene esta transformacion, sobre la transformacion de
Fourier, son, por un lado, que se puede aplicar incluso a una amplia gama de

196

An
alisis de Sistemas en tiempo discreto mediante transformaci
on Zeta

Captulo 8

excitaciones no acotadas y, por otro, que permite inclur el efecto de las condiciones
iniciales.
Observemos primero un ejemplo.
Ejemplo 8.5. Considere un sistema con ERS
y[t] + a1 y[t 1] + a2 y[t 2] = b1 u[t 3] + b0 u[t 4]

(8.4.1)

Entonces al aplicar T.Z. (en el marco de la Nota 8.1 en la p


agina 187) se obtiene

Y (z) =

b1 z 3 + b0 z 4
a1 y[1] a2 z 1 y[1] a2 y[2]
U (z) +
1
2
1 + a1 z + a2 z
1 + a1 z 1 + a2 z 2

(8.4.2)

lo cual lleva a
Y (z) =

b1 z + b0
(a1 y[1] + a2 y[2])z 2 a2 y[1]z
U (z) +
+ a1 z + a2 )
z 2 + a1 z + a2
{z
}
{z
} |

z 2 (z 2

(8.4.3)

Yx (z)=Z[Thhxo ,0ii]

Yu (z)=Z[Thh0,u[t]ii]

Este ejemplo permite inducir algunos resultados generales:


(i) Tanto la respuesta a entrada, yu [t] como la respuesta a condiciones iniciales,
yx [t], contienen los modos naturales del sistema.
(ii) El denominador de Yu (z) difiere del de Yx (z), no solo en el denominador de
U (z), sino que ademas en un conjunto de polos en z = 0. Estos no son
frecuencias naturales del sistema, sino que corresponden exactamente al
retardo con que se aplica la excitacion.
(iii) La transformada Yu (z) contiene los polos de U (z); estos explican la presencia de modos forzados, lo cual es consistente con lo planteado en la subseccion 4.3.2 en la pagina 68.
(iv) Si el grado relativo de H(z) es mayor que cero (como ocurre usualmente),
entonces yu [0] = 0.
(v) Salvo para especiales valores de las condiciones iniciales, el grado relativo de
Yx (z) es cero, as yx (0) 6= 0, lo cual lleva, salvo para esos valores especiales, a
que y(0) 6= 0.
Un caso especial de interes es cuando la excitacion u[t] es una sinusoide de
frecuencia o , t 0, es decir, u[t] = 0, 5(ejo t + ejo t ).
Consideremos primero el caso de una excitacion u[t] = ejo t [t], y un sistema
estable, con funcion de transferencia H(z), entonces
U (z) =

z
z ejo

Y (z) = H(z)

z
+ Yx (z)
z ejo

(8.4.4)
(8.4.5)

Section 8.5.

197

Estabilidad de las Funciones de Transferencia

Dado que el sistema es estable, solo el modo forzado permanece, ya que la


frecuencia forzante esta sobre la circunferencia unitaria. As, si denotamos como
0
Yee
(z) la transformada Zeta de la componente estacionaria de la salida, tenemos
que
0
Yee
(z) =

zH(ejo )
;
z ejo

H(ejo ) = |H(ejo )|ejo

(8.4.6)

Si consideramos ahora la excitacion u[t] = ejo t [t], la transformada Zeta de


la componente estacionaria de la salida es
00
Yee
(z) =

zH(ejo )
;
z ejo

H(ejo = |H(ejo )|ejo

(8.4.7)

Si ahora combinamos ambas excitaciones, es decir,u[t] = 0, 5(ejo t + ejo t ), la


transformada Zeta de la componente estacionaria combinada de la salida esta dada
por
0
00
Yee (z) = 0, 5 (Yee
(z) + Yee
(z))

(8.4.8)

jo

(8.4.9)

= |H(e

)| cos(to + o )

Este resultado no es sorprendente, ya que por ser el sistema estable, la relacion


(8.2.33) es valida, y as se cumple que

La funcion de transferencia H(z) de un sistema estable, evaluada en z = ejo


es igual a la ganancia al modo forzante ejo t (ver (4.3.28)).

8.5

Estabilidad de las Funciones de Transferencia

Hasta aqu hemos visto que la respuesta de un sistema que tiene una funcion de
transferencia H(z) es de la forma:
Y (z) = H(z)U (z) +

p X
nt
X
t=1 i=1

ti
(z t )i

(8.5.1)

Donde el valor de cada ti depende de las condiciones iniciales, y donde hemos


supuesto que cada polo ubicado en z = t , tiene multiplicidad nt . Esta suposicion
implica a su vez que n1 + n2 + . . . + np = n, donde n es el orden de la ERS, es decir,
es el n
umero de autovalores del sistema.
Si recordamos la definicion de un sistema estable tenemos que se define cuando cualquier entrada acotada produce una salida tambien acotada, para cualquier
condicion inicial acotada. Si observamos la ecuacion (8.5.1) podemos afirmar que
la condicion necesaria y suficiente para que el sistema sea estable es que los polos
de este, que aparecen en las fracciones del segundo termino de la ecuacion, den

198

An
alisis de Sistemas en tiempo discreto mediante transformaci
on Zeta

Captulo 8

origen a se
nales que decaigan exponencialmente. Esto se traduce en que los polos
del sistema deben tener magnitud estrictamente menor que uno, es decir, deben
estar ubicados sobre el disco unitario abierto del plano complejo z . Es decir,
para sistemas discretos, el lmite de estabilidad en el plano complejo z en que se
ubican sus polos, es la circunferencia unitaria .
Ejemplo 8.6. Consideremos un sistema con funci
on de transferencia
H(z) =

z 3 (z

(z 0, 2)
1)(z 0, 8)

(8.5.2)

Esta funci
on tiene tres polos en el origen, que se originan en los retardos y
en la estructura de la ERS (vea ecuaciones (8.2.20) y (8.2.21) ). Estos polos s
olo
introducen retardos en los modos naturales. Los otros polos de su funci
on de transferencia est
an ubicados en z = 1, y z = 0, 8. Estos u
ltimos polos corresponden a
frecuencias naturales del sistema. Uno de estos, el ubicado en z = 1, no est
a en
el disco unitario abierto, sino que justo sobre el lmite de estabilidad. Por tanto
el sistema no es estable. Se deja al lector el verificar que una entrada constante,
diferente de cero, produce una salida que crece indefinidamente.

8.5.1
8.6

Estabilidad via an
alisis de polinomios
Polos, ceros y la respuesta temporal

A continuacion examinaremos algunas propiedades fundamentales de los polos y


ceros de la funcion de transferencia de un sistema, y su influencia sobre las caractersticas de la respuesta de un sistema lineal.
Consideremos una funcion de transferencia de la forma general
Qm
i=1 (z i )
H(z) = K d Q
(8.6.1)
n
z
l=1 (s l )
donde l C y i C. Si suponemos que no hay valores de l y de i tales que
l = i entonces, 1 , 2 , . . . , m and 1 , 2 , . . . , n son los ceros y los polos de la
funcion de transferencia, respectivamente (a estos u
ltimos hay que agregar los d
polos en el origen).
Estaremos particularmente interesados en aquellos ceros ubicados sobre la circunferencia unitaria o en su cercana, y en aquellos polos al exterior del disco unitario. Los polos y ceros ubicados en estas regiones juegan un rol fundamental en la
dinamica del sistema.
Una clase especial de funcion de transferencia es aquella que tiene todos sus ceros
y sus polos al interior del disco unitario en el plano complejo z . Tradicionalmente
estas se denominan funciones de transferencia de fase mnima . Sin embargo,
a similitud de la nomencaltura usada en sistemas de tiempo continuo, reservaremos
ese nombre para referirnos simplemente a funciones de transferencia sin ceros fuera
del disco unitario, que tengan o no polos en el. Diremos que un cero tiene fase

Section 8.6.

199

Polos, ceros y la respuesta temporal

no mnima si tiene magnitud mayor o, al menos, igual a uno, de otra forma se


denominara cero de fase mnima. Si hablamos de una funci
on de transferencia
estable nos referimos a que todos sus polos se ubican sobre el disco unitario abierto;
si decimos que inestable, es porque al menos uno de sus polos se encuentra fuera
del disco unitario, o sobre el borde de este u
ltimo. Los polos en si mismos tambien
se pueden denominar estables o inestables , si se encuentran dentro o fuera del disco
unitario abierto,respectivamente 4 .
A continuacion examinaremos la influencia sobre la respuesta transiente de un
sistema de los polos y ceros de su funcion de transferencia.

8.6.1

Polos

Las funciones que se originan al aplicar la transformacion Zeta a las ERS de sistemas
lineales, son funciones racionales y siempre pueden descomponerse en fracciones
parciales. Cada uno de los terminos de esta expansion contiene ya sea un polo real
simple, un par de polos complejos conjugados o m
ultiples combinaciones de polos
repetidos. Por tanto, para conocer el efecto de los polos en la respuesta transiente
de un sistema basta conocer el efecto ocasionado por los polos de primer y segundo
orden y su interaccion.
Un polo de primer orden contribuye a la descomposicion en fracciones parciales,
en general, con un termino de la forma
H1 (z) =

K1 (1 a)
za

(8.6.2)

donde K1 es la ganancia a continua.


Mientras que un polo de segundo orden contribuye a la expansion con un termino
H2 (s) = K2

1 2 cos o + 2
z 2 2z cos o + 2

(8.6.3)

donde K2 es la ganancia a continua.


En el Captulo 4 se describio graficamente la relacion entre la ubicacion de
las frecuencias naturales (simples) y los modos naturales. Dado que los polos de
H(z), salvo aquellos ubicados en el origen, son iguales a las frecuencias naturales,
es conveniente repetir la descripcion grafica de esa relacion.
Cada polo genera un termino especfico que coincide justamente con cada uno
de los modos naturales en la respuesta del sistema a un impulso en la entrada.
Estos modos estan presentes tambien en la respuesta a cualquier entrada al sistema
(excepto en casos muy excepcionales cuando hay coincidencia de polos con ceros).
El tipo de modo natural asociado a cada polo de un sistema depende de la ubicacion
de este sobre el plano complejo z , exactamente equivalente a la ubicacion de cada
frecuencia natural sobre un plano complejo, como se vio en el Captulo 4. Para
4 En ocasiones, por abuso de lenguaje, a los ceros de fase no m
nima tambi
en se les denomina
ceros inestables, dado que se encuentran en la regi
on del plano z en que los polos son inestables.

200

An
alisis de Sistemas en tiempo discreto mediante transformaci
on Zeta

Captulo 8

Figura 8.2. Relacion entre la ubicacion de los polos (de multiplicidad uno) y los
modos naturales (caso decreciente).

Section 8.6.

201

Polos, ceros y la respuesta temporal

Figura 8.3. Relacion entre la ubicacion de los polos (de multiplicidad uno) y los
modos naturales (caso no decreciente).

202

An
alisis de Sistemas en tiempo discreto mediante transformaci
on Zeta

Captulo 8

ilustrar esto podemos apreciar en la Figura 8.2 las diferentes respuestas a impulso
de un sistema de un u
nico polo.
En forma analoga a lo que ocurre con los sistemas continuos en el tiempo, nos
referiremos, en general, como polos r
apidos a aquellos que se encuentran mas cercanos al origen del plano z Esto es equivalente que considerar que la respuesta
transiente asociada a estos polos desaparece mas rapido que aquella asociada a los
otros polos, tal como puede apreciarse en la figura 8.2. Por otro lado, llamaremos
polos dominantes o polos lentos a aquellos que se encuantran al interior del disco
unitario, pero mas cercanos al lmite de estabilidad (circunferencia unitaria) que el
resto de los polos de sistema. Esto equivale a decir que el transiente asociado a los
polos dominantes decae mas lentamente que los demas modos naturales.
Por ejemplo, si tenemos un sistema cuyos polos estan ubicados en (0, 5; 0, 6
j0, 6; 0, 2; 0, 2 + j0, 3), podemos decir que los polos dominantes es 0, 6 j0, 6
y el polo mas rapido es el que se encuentra en 0, 2.

8.6.2

Ceros

En general, el efecto de la ubicacion de los polos en la dinamica de un sistema puede


entenderse sin demasiada dificultad dada su directa relacion con la estabilidad y las
caractersticas generales de la respuesta del sistema. De hecho en la literatura
sobre sistemas y su estabilidad se puede encontrar mucha mas informacion que
la aqu detallada. Por el contrario, a menudo se ha subestimado el efecto de los
ceros en el analisis del comportamiento de un sistema. Sin embargo, en los u
ltimos
a
nos se ha vuelto a dar un vistazo al efecto de los ceros sobre la respuesta de
un sistema, que ahora son reconocidos por su importancia, por ejemplo, al definir
criterios de dise
no de sistemas de control. Es asi como, mientras que los polos
de un sistema estan asociados a la presencia de sus modos naturales aislados, los
ceros reflejan de alg
un modo la interacci
on entre estos, por ejemplo, en el caso
en que la salida de un sistema esta formada por la suma de dos modos naturales
diferentes. Ademas, a pesar que la ubicacion de los polos determina los modos
naturales de un sistema, es la ubicacion de los ceros la que determina la proporci
on
en que los modos aparecen combinados en la salida. En estas combinaciones los
modos naturales toman diferente fuerza, pudiendo ser su efecto, en algunos casos,
casi imperceptible. Veamos esto a traves de un ejemplo.

8.6.3

Respuesta inversa o contrarespuesta (undershoot)

La Figura 8.3 en la pagina 195 sugiere que existen casos en los que, en la presencia
de una excitacion mayor que cero, la respuesta del sistema se hace negativa durante alg
un lapso no despreciable. Existe un resultado analogo al Lema 7.1 en la
pagina 177, respecto del rol de algunos ceros que estan ubicados fuera del crculo
unitario.
Lema 8.2. Considere un sistema lineal estable con funci
on de transferencia H(z),
y con un cero real en z = c, donde c > 1, entonces la respuesta a un escal
on positivo

Section 8.6.

203

Polos, ceros y la respuesta temporal

se hace negativa durante uno o m


as lapsos no despreciables.
Demostraci
on
La respuesta del sistema est
a dada por
Y (z) = H(z)
Entonces

Kz
;
z1

K>0

(8.6.4)

X
Kz
H(z)
=
y[t]z t ;
z1
t=0

|z| > 1

(8.6.5)

Note que la regi


on de convergencia queda determinada, por un lado, por el hecho
que el sistema es estable, por lo cual la transformada de h[t] est
a bien definida para
|z| 1 y, por otro lado, por el hecho que la respuesta a un escal
on est
a bien definida
para |z| > 1. En consecuencia la regi
on de
convergencia para y[t] es |z| > 1. Si ahora, en la ecuaci
on (8.6.5), hacemos z = c
(note que, por ser c > 1, est
a en la regi
on de convergencia) obtenemos, aplicando
el hecho que H(c) = 0

X
K
H(c) =
y[t]ct = 0
(8.6.6)
c
t=0
Como la suma es cero, y ct > 0, t, necesariamente y[t] debe ser negativa en
uno o m
as lapsos. y positiva, el resto del tiempo.
El lema precedente justifica la presencia de undershoots, como el sugerido en la
Figura 8.3 en la pagina 195. Sin embargo, este comportamiento inverso se puede
manifestar en formas mas diversas, tal como se ilustra en la Figura 8.4.

Respuesta a escaln

Respuesta a escaln

1.5
1

0.5

0.5

10

Tiempo [s]

15

1
0.5
0
0.5
1
1.5
2

Tiempo [s]

Figura 8.4. Distintas formas de respuesta inversa

Captulo 9

DE
REPRESENTACION
SISTEMAS EN VARIABLES
DE ESTADO.

9.1

Conceptos fundamentales sobre modelos de sistemas.

Uno de los aspectos esenciales que interesa tanto en Ingeniera como en Ciencias
Aplicadas es la rperesentacion de un sistema dado, en alguna forma que lo describa con suficiente detalle y permita analizar sus propiedades fundamentales. Una
descripcion de este tipo se denomina un modelo del sistema.
En la teora de sistemas los modelos juegan un rol fundamental, pues son imprescindibles para analizar, sintetizar y dise
nar todo tipo de sistemas y subsistemas.
Un aspecto de particular relevancia en la Ciencia y la Tecnologa es que un modelo puede ser usado para predecir y estudiar el comportamientoi del sistema bajo
variadas condiciones de excitacion.
Naturalmente un sistema dado puede ser descrito de diferentes formas, dando
lugar a diferentes modelos, seg
un sea el aspecto del sistema que interesa describir
con mayor enfasis. Por ejemplo, si consideramos el caso de un motor electrico,
podramos estar interesados en el proceso que conversion electro-mecanica, o bien,
nos podra interesar su analisis desde el punto de vista de un sistema termico,
o como un sistema mecanico sujeto a vibraciones, o estudiar el comportamiento
cristalografico de los materiales que lo conforman, etc.
En segundo lugar, no existe un u
nico modelo para un sistema, ya que siempre
que se realiza un modelado existe alguna simplificacion implcita de la realidad, la
que es inmensamente compleja en la mayor parte de los casos. Una decision fundamental a la hora de modelar un sistema es elegir cuales son los aspectos esenciales
que queremos capturar en el modelo. Ademas, esta eleccion esta directamente relacionada con el objetivo del modelado.
La teora y herramientas existentes para modelar de sistemas son muy diversas,
y en ellas se combinan leyes de la fsica, la qumica, la termodinamica, ademas de
teora de se
nales, procesamiento de datos, matematicas y herramientas numericas.
204

Section 9.2.

Conceptos fundamentales en variables de estado

205

De hecho, un modelo generalmente no se obtiene de una sola vez, sino que se construye en un proceso iterativo, que considera la calidad de los resultados obtenidos
con el en las diferentes etapas, por ejemplo, para hacer control sobre un sistema o
predecir su comportamiento.
En este captulo, nos interesa introducir una clase especial de modelos, u
til para
describir sistemas din
amicos. Estos sistemas son los que hemos descrito ya a traves
de ecuaciones diferenciales (EDS), para el caso de tiempo continuo, o ecuaciones recursivas (ERS) para el caso de tiempo discreto, y se caracterizan porque las variables
involucradas nos solo se relacionan algebraicamente, sino que ademas interact
uan
en el tiempo, a traves de su efecto acumulado o su razon de cambio.
Adem
as de estos dos tipos de sistemas din
amicos, en el dominio del tiempo
continuo y en el del tiempo discreto, se introducen sistemas hbridos en los que se
establece una relaci
on entre tiempo continuo y discreto a traves del muestreo.
El enfasis se marca en los conceptos, propiedades fundamentales, interpretaciones fsicas y ejemplos. Para un estudio en mayor profundidad de los topicos
aqu presentados se sugiere al lector considerar literatura especializada como, por
ejemplo, las referencias [2], [4], [5], [6], [7], [8], [9].

9.2
9.2.1

Conceptos fundamentales en variables de estado


Introducci
on

Uno de los tipos de modelos utilizados con frecuencia para describir un sistema es
aquel en que se tiene un conjunto de ecuaciones que relaciona sus variables internas.
Estas variables se denominan variables de estado . En cada instante el conjunto
de ellas, que toman un valor determinado, se denomina estado del sistema .
Sin embargo, a menudo usaremos las expresiones variables de estado y estado del
sistemacomo sinonimos.
La definicion dada es mas bien intuitiva y podra coincidir en realidad con
cualquier grupo de variables de un sistema dado. Por esto, para distinguir exactamente un conjunto de variables de estado de un sistema tenemos la siguiente
definicion
Un conjunto de variables de estado de un sistema dado es un conjunto de variables propias del sistema tal que cualquier variable del sistema puede ser expresada
como funci
on del estado presente y de los valores presentes y futuros de las entradas
del sistema.
En esta definicion hemos enfatizado en significado fsico de las variables de estado. Sin embargo, existen tambien definiciones mas abstractas.
El conjunto de variables de estado usualmente se agrupan en forma de un vector
de estado, el cual pertenece al llamado espacio de estado .
La definicion dada implica tambien que si conocemos el estado del sistema en
un instante dado t, entonces se puede calcular la energa que en ese instante el
sistema posee. EN el caso de sistemas fsicos, esta depende siempre de algunas de

206

Representaci
on de sistemas en variables de estado.

Captulo 9

las variables del sistema, tales como velocidad, posicion, presion, voltaje y corriente,
entre otras. Todas estas variables, por la definicion dada, se pueden obtener a partir
del estado del sistema.
Esto sugiere ademas que podemos pensar el estado de un sistema de forma mas
general: las variables de estado pueden ser funci
on (por ejemplo, una combinacion
lineal) de variables del sistema. Esta observacion resulta muy importante pues
establece que el estado del sistema no necesariamente tiene un significado desde
el punto de vista fsico, sin embargo, permite un analisis mas general, independiente
del significado de cada una de las variables de estado elegidas. Ademas, de esta
forma queda en evidencia que la elecci
on de las variables de estado NO es
u
nica para un sistema dado.
Otra observacion importante es que la evolucion del estado en el tiempo, es
decir, su trayectoria, puede ser obtenida a partir del estado presente y el valor
futuro de las entradas del sistema. De esta forma, los modelos de este tipo son
siempre ecuaciones diferenciales de primer orden, en el caso de sistemas continuos,
o ecuaciones recursivas de un paso, para sistemas discretos

9.2.2

Modelos b
asicos en variables de estado.

Si denotamos por x al vector de estado que corresponde a una eleccion en particular


de variables de estado para un sistema dado, entonces la forma general del modelo
en variables de estado es
Para sistemas de tiempo continuo
dx
= F(x(t), u(t), t)
dt
y(t) = G(x(t), u(t), t)

(9.2.1)
(9.2.2)

donde u(t) es el vector de entrada y y(t) es el vector de salida del sistema.


En el caso de sistemas de una entrada y una salida, naturalmente estos vectores se
reducen a entes escalares.
Para sistemas de tiempo discreto

x[t + 1] = Fd (x[t], u[t], t)


y[t] = Gd (x[t], u[t], t)

(9.2.3)
(9.2.4)

Donde, analogamente al caso de tiempo continuo, u[t] en el vector de entradas y


y[t] es el vector de salidas del sistema, y tambien para el caso de sistemas SISO
se reducen a funciones escalares.
Note que en este captulo mantendremos la notacion (t) para denotar se
nales en
el dominio del tiempo continuo, y [t] para se
nales en el dominio del tiempo discreto.

Section 9.2.

207

Conceptos fundamentales en variables de estado

Para ilustrar los conceptos presentados hasta el momento consideremos el siguiente ejemplo
Ejemplo 9.1. En la Figura 9.1, una fuerza externa f (t) se aplica a un sistema
masa-resorte sujeto a un muro por un extremo. La posici
on d(t) se mide con respecto
a la posici
on en que el resorte se encuentra en su largo natural. El movimiento de
la masa es amortiguado por una fuerza de roce viscoso, proporcional a la velocidad
de la masa, v(t).
v(t)
d(t)
K
M

f(t)

roce viscoso

Figura 9.1. Sistema mecanico


Sabemos que para obtener la posici
on y la velocidad de la masa se debe conocer
su valor en alg
un instante inicial. Por tanto el vector de estado debe tener dos
componentes, i.e x(t) = [x1 (t) x2 (t)]T , y la elecci
on natural y obvia en este caso
es:
x1 (t) = d(t)
x2 (t) = v(t) = x 1 (t)

(9.2.5)
(9.2.6)

Con esta elecci


on, se pueden aplicar las leyes de Newton para obtener

f (t) = M

dv(t)
+ Kd(t) + Dv(t) = M x 2 (t) + Kx1 (t) + Dx2 (t)
dt

(9.2.7)

Donde D es el coeficiente de roce viscoso, o constante de proporcionalidad.


De esta forma podemos escribir las ecuaciones de estado del sistema
x 1 (t) = x2 (t)
D
1
K
x2 (t) +
f (t)
x 2 (t) = x1 (t)
M
M
M

(9.2.8)
(9.2.9)

Es f
acil observar que para resolver este sistema de ecuaciones diferenciales de
primer orden, se requiere conocer los valores x1 (0) y x2 (0), as como el valor de la
excitaci
on f (t), t 0.
Podemos apreciar tambien que la energa almacenada en el sistema, w(t), queda
expresada como

208

Representaci
on de sistemas en variables de estado.

Captulo 9

1
1
2
2
K (d(t)) + M (v(t)) = x(t)T x(t)
(9.2.10)
2
2
K M
Donde es una matriz diagonal: = diag 2 , 2 .
Finalmente, la no unicidad de la representaci
on en variables de estado se puede
apreciar si, en vez de la elecci
on hecha en (9.2.8), elegimos un nuevo vector de
estado x(t) que se relaciona con x(t) a traves de una matriz no singular cualquiera
T R22 , i.e.
w(t) =

x(t) = Tx(t)

(9.2.11)

M
as adelante, en la subsecci
on 9.3.3, se dan m
as detalles sobre este tipo de
transformaciones.
222

9.2.3

Se
nales descritas en espacio de estado

Las representaciones en variables de estado ademas de describir sistemas o procesos,


pueden ser tambien muy u
tiles para representar una gran variedad de se
nales. Esto
se logra usando un modelo de la forma
dx(t)
= Ax(t);
dt
x[t + 1] = Aq x[t];

y(t) = Cx(t)

para se
nales de tiempo continuo

y[t] = Cq x[t] para se


nales de tiempo discreto

(9.2.12)
(9.2.13)

Observe que los sistemas en este caso no tienen una se


nal que act
ue como entrada, es decir, son modelos de sistemas homog
eneos o aut
onomos.
Para ilustrar esta forma de representar dada, consideremos el siguiente ejemplo
Ejemplo 9.2. Supongamos una funci
on de tiempo continuo dada por la expresi
on
f (t) = 2 + 4 cos(5t) sin(5t)

(9.2.14)

Esta se
nal, sinusoide m
as una constante, puede interpretarse como la soluci
on
de la ecuaci
on diferencial homogenea
d 3 f (t)
d f (t)
+ 25
= 0;
3
dt
dt

sujeta a f (0) = 6; f(0) = 5 and f(0) = 100

(9.2.15)
Si ahora escogemos como variables de estado x1 (t) = f (t), x2 (t) = f(t) y x3 (t) =
f(t), entonces el modelo el espacio de estado de esta se
nal es

0
1
0
dx(t)
0
1 x(t)
= 0
y(t) = [1 0 0] x(t)
(9.2.16)
dt
0 25 0
222

Section 9.3.

209

Modelos de estado para sistemas continuos

En este tipo de modelos en espacio de estado, las variables definidas no tienen


un significado fsico, sin embargo, esta forma de describir se
nales resulta muy u
til
en diversas aplicaciones de la teora de se
nales.

9.3

Modelos de estado para sistemas continuos

En esta seccion se presentan los modelos en variables de estado para sistemas de


tiempo continuo. El analisis que se realiza esta centrado en sistemas lineales e
invariantes en el tiempo, tal como se ha considerado en los demas captulos.
Naturalmente los sistemas son en general no lineales, tal como se muestra en las
ecuaciones (9.2.1) y (9.2.2), pero pueden ser linealizados, tal como se hizo en el
captulo 1.
Otra restriccion importante es que los sistemas considerados no poseen retardos
puros. Estos daran origen a un vector de estado de dimension infinita. Sin embargo,
en la seccion 9.4 veremos que este tipo de sistemas pueden ser representados en
variables de estado usando un modelo del sistema muestreado.

9.3.1

Linealizaci
on

Dado que nos concentraremos en sistemas invariantes en el tiempo, las ecuaciones


(9.2.1)-(9.2.2) se reducen a
dx
= F(x(t), u(t))
dt
y(t) = G(x(t), u(t))

(9.3.1)
(9.3.2)

Suponemos que el modelo (9.3.1)-(9.3.2) tiene, al menos, un punto de equilibrio


dado por {xQ , uQ , yQ }. Este tro de vectores satisface
0 = F(xQ , uQ )
yQ = G(xQ , uQ )

(9.3.3)
(9.3.4)

Note que el punto de equilibrio queda determinado haciendo las derivadas iguales
a cero.
Si consideramos una vecindad alrededor del punto de equilibrio, podemos aproximar el modelo (9.3.1)-(9.3.2) por una serie de Taylor truncada, de la forma

F
F
(x(t)

x
)
+
(u(t) uQ )
Q
x x=xQ
u x=xQ
u=uQ
u=uQ

G
G
(x(t)

x
)
+
(u(t) uQ )
y(t) G(xQ , uQ ) +
Q
x x=xQ
u x=xQ

x(t)
F(xQ , uQ ) +

u=uQ

u=uQ

(9.3.5)
(9.3.6)

210

Representaci
on de sistemas en variables de estado.

Captulo 9

Las ecuaciones (9.3.5) y (9.3.6) se pueden reescribir por lo tanto como


dx(t)
= Ax(t) + Bu(t)
dt
y(t) = Cx(t) + Du(t)

(9.3.7)
(9.3.8)

Donde
x(t) = x(t) xQ ;

u(t) = u(t) uQ ;

y(t) = y(t) yQ

(9.3.9)

A=

F
;
x x=xQ

B=

F
;
u x=xQ

C=

u=uQ

u=uQ

G
;
x x=xQ
u=uQ

D=

G
u x=xQ

u=uQ

(9.3.10)
Para ilustrar esta forma de obtener un modelo lineal para un sistema no lineal,
se ilustra en el siguiente ejemplo.
Ejemplo 9.3. Considere el levitador electromagnetico que se muestra en la Figura
9.2.
i(t)
R

h(t)

f(t)

+
e(t)

v(t)

mg

Figura 9.2. Levitador electromagnetico


La esfera met
alica est
a sometida a dos fuerzas: su propio peso, mg, y la fuerza
de atracci
on generada por el electroim
an, f (t). La fuerza del electroim
an se regula
a traves de la fuente de voltaje, e(t) > 0, t. La fuerza de atracci
on sobre la esfera,
f (t), depende de la distancia h(t) y de la corriente, i(t). Esta relaci
on se puede
describir aproximadamente por la expresi
on
f (t) =

K1
i(t)
h(t) + K2

Donde K1 y K2 son constantes positivas.

(9.3.11)

Section 9.3.

Modelos de estado para sistemas continuos

211

Usando conocimientos b
asicos de redes electricas y de mec
anica, podemos escribir las siguientes ecuaciones

e(t) = Ri(t) + L

di(t)
dt

dh(t)
dt
K1
dv(t)
f (t) =
i(t) = mg + m
h(t) + K2
dt
v(t) =

(9.3.12)
(9.3.13)
(9.3.14)

A continuaci
on escogemos las variables de estado1 : la corriente i(t), la posici
on
de la esfera h(t), y su velocidad v(t), i.e.

T
T
x(t) = x1 (t) x2 (t) x3 (t) = i(t) h(t) v(t)

(9.3.15)

Entonces, a partir de (9.3.12)-(9.3.14) obtenemos el modelo del sistema como en


(9.2.1)
di(t)
dx1 (t)
R
1
=
= x1 (t) + e(t)
dt
dt
L
L
dh(t)
dx2 (t)
=
= x3 (t)
dt
dt
dv(t)
dx3 (t)
K1
=
=
x1 (t) g
dt
dt
m(x2 (t) + K2 )

(9.3.16)
(9.3.17)
(9.3.18)

Antes de obtener el modelo linealizado, se debe obtener el punto de equilibrio


alrededor del cual se har
a dicha linealizaci
on. La entrada al sistema es el voltaje de
la fuente e(t). Supongamos que el punto de equilibrio se obtiene fijando e(t) = EQ ,
entonces, a partir de este, se puede calcular el estado del sistema en el punto de
equilibrio. Este queda caracterizado por las ecuaciones (9.3.16)-(9.3.18), haciendo
las derivadas iguales a cero, i.e.
R
1
x1Q + EQ = 0
L
L
x3Q = 0
K1
x1Q g = 0
m(x2Q + K2 )

EQ
R
=0
K1
K1 EQ
=
x1Q K2 =
K2
mg
mgR

= x1Q =

(9.3.19)

= x3Q

(9.3.20)

= x2Q

(9.3.21)

De esta forma podemos obtener ahora el modelo linealizado en que las variables
ser
an: la entrada incremental e(t) y el estado incremental x(t) = [x1 (t) x2 (t) x3 (t)]T .
Con esto resulta
1 Note

que esta elecci


on permite cuantificar directamente la energa almacenada en el sistema

212

Representaci
on de sistemas en variables de estado.

dx1 (t)
R
1
= x1 (t) + e(t)
dt
L
L
dx2 (t)
= x3 (t)
dt
dx3 (t)
Rg
Rmg 2
=
x1 (t)
x2 (t)
dt
EQ
K1 EQ

Captulo 9

(9.3.22)
(9.3.23)
(9.3.24)

Si consideramos como salida del sistema la posici


on de la esfera h(t), podemos
comparar las u
ltimas ecuaciones con (9.3.7) y (9.3.8) para obtener
R

L
0
A=
Rg
EQ

0
0
Rmg 2

K1 EQ

1
;


1
L
B = 0;
0


0
CT = 1 ;
0

D=0

(9.3.25)

222
En los desarrollos y ejemplos posteriores se omitira el prefijo , pero el lector
debe tener en mente que los modelos obtenidos de esta forma son modelos lineales
que relacionan el estado incremental, las entradas incrementales y las salidas
incrementales, en torno al punto de equilibrio.

9.3.2

Modelos lineales en el espacio de estado

En esta parte, consideramos el modelo en variables de estado, lineal e invariante en


el tiempo
dx(t)
= Ax(t) + Bu(t)
dt
y(t) = Cx(t) + Du(t)

(9.3.26)
(9.3.27)

Lema 9.1. Dada la ecuaci


on (9.3.26), sujeta a la condici
on inicial x(to ) = xo , su
soluci
on es
Z
x(t) = eA(tto ) xo +

eA(t ) Bu( )d

t to

(9.3.28)

to

Donde la matriz de transici


on eAt satisface
eAt = I +

X
1 k k
A t
k!

k=1

(9.3.29)

Section 9.3.

213

Modelos de estado para sistemas continuos

Demostraci
on
Puede verificarse directamente al reemplazar (9.3.28) en la ecuacion (9.3.26), usando
la regla de Leibnitz para la derivacion de la integral.
222
Con el resultado del Lema 9.1, la solucion de la ecuacion (9.3.27) queda dada
por
Z

y(t) = CeA(tto ) xo + C

eA(t ) Bu( )d + Du(t)

(9.3.30)

to

Din
amica del sistema
Como ya hemos estudiado en captulos anteriores (3, 4), la salida de un sistema tiene
en general dos componentes: una parte no forzada determinada por las condiciones
iniciales y formada por los modos naturales del sistema, y una parte forzada por la
se
nal de entrada al sistema. Esto mismo se extiende al la solucion de la ecuacion
de estado (9.3.26). El estado del sistema tiene por tanto dos partes: la componente
no forzada xu (t), y la componente forzada xf (t), donde
xu (t) = eA(tto ) xo
Z t
xf (t) =
eA(t ) Bu( )d

(9.3.31)
(9.3.32)

to

Para analizar con mayor detalle el modelo en espacio de estado y su solucion,


tomemos el caso en que to = 0 y la entrada u(t) = 0 t 0, i.e. el estado esta
formado solo por su parte no forzada u homog
enea. Entonces
x(t) = eAt xo

(9.3.33)

Supondremos ademas que A Rn y que, por simplicidad, no tiene autovalores


repetidos, sino que son todos diferentes 1 ,2 ,. . . , n , con sus n autovectores v1 ,
v2 , . . . , vn linealmente independientes2 . En este caso podemos afirmar que siempre
existen constantes 1 , 2 , . . . , n tales que
xo =

n
X

` v` ;

` C

(9.3.34)

`=1

Del algebra lineal 3 sabemos que los autovalores de la matriz Ak son k1 , k2 ,. . . ,


con sus correspondientes autovectores v1 , v2 , . . . , vn . Aplicando este resultado
se obtiene

kn

2 Todo
3 Ver

conjunto de n vectores l.i. en n forman una base para


ap
endice F sobre matrices y determinantes.

Rn

214

Representaci
on de sistemas en variables de estado.

x(t) = e

At

xo = I +

n
X
`=1

n
X
X
1 k
k
`
A v` t =
` e` t v`
k! | {z }
k=1

k
` v`

Captulo 9

(9.3.35)

`=1

Esta ecuacion poden de manifiesto que la componente no forzada del vector de


estado es una combinacion lineal de modos de la forma {e` t }, cada uno de los
cuales esta asociado a un autovalor de A.
Esto establece un resultado muy importante
Los frecuencias naturales de un sistema de tiempo continuo son iguales a los
valores propios de la matriz A de su representaci
on en variables de estado. Es decir,
la ecuaci
on caracterstica de un sistema est
a dada por
det(I A) = 0

(9.3.36)

Por lo tanto, la matriz A es la que determina:


la estructura de la respuesta no forzada u homogenea,
la estabilidad (o inestabilidad) del sistema, y
la velocidad de respuesta.
Cuando la matriz A no tiene n valores propios independientes, pueden usarse
las formas de Jordan (ver Apendice F
Estructura de la respuesta homog
enea
En ausencia de se
nal de entrada, hemos visto que el estado del sistema resulta ser
una combinacion de modos naturales. Estos pertenecen al conjunto de funciones
generadas por exponenciales de exponente real o complejo, lo que da origen a se
nales
constantes, exponenciales reales, sinusoides puras o moduladas por exponenciales y
a otros tipos especiales de funciones que surgen cuando existen autovalores repetidos.
Ejemplo 9.4. Para ilustrar la diferentes aparici
on de diferentes tipos de modos
naturales, y su interpretaci
on fsica consideremos el sistema del Ejemplo 9.1. Para
dicho sistema

0
1

A= K
(9.3.37)
D

M
M
Por tanto sus frecuencias naturales son los autovalores de esta matriz, dados
por las soluciones de la ecuaci
on
det(I A) = 2 +

K
D
+
=0
M
M

(9.3.38)

Section 9.3.

215

Modelos de estado para sistemas continuos

i.e.
1,2

D
=

2M

D2
K

4M 2
M

(9.3.39)

Donde se aprecia que


Si no existe amortiguaci
on (D=0), los autovalores del sistema son imaginarios
puros,qy los modos naturales son oscilaciones sostenidas de frecuencia angular
K
. Esto coincide con la interpretaci
on fsica, pues si no existe roce es
o = M
natural pensar que si el resorte no se encuentra en su largo natural o la masa
posee velocidad inicial, esta permanecer
a oscilando indefinidamente, aunque
no exista fuerza externa.

Cuando el sistema est


a debilmente amortiguado ( D2 < 4KM ), los autovalores de la matriz A son complejos conjugados con parte real negativa, por
tanto los modos naturales asociados son sinusoides amortiguadas exponencialmente. Esto coincide tambien con lo que sucede en la pr
actica, pues en caso
de existir una fuerza de roce no muy grande, la masa oscilar
a hasta detenerse
en ealg
un momento en su posici
on de largo natural.
Finalmente, si la amortiguaci
on es muy grande ( D2 > 4KM ), los autovalores
de la matriz ser
an reales y negativos, lo cual indica que los autovalores son dos
exponenciales decrecientes. En este caso, la existencia de una fuerza de roce
importante se traduce en que la masa no lograr
a oscilar sino que es llevada por
la fuerza del resorte hasta su posici
on de equilibrio, y toda la energa contenida
en el sistema se disipa r
apidamente en el roce.
Las tres situaciones se muestran en la Figura 9.3.

Mass displacement [m]

0.4
D=0
D=0.2
D=2

0.2

0.2

0.4

10

15

20

25
Time [s]

30

35

40

45

50

Figura 9.3. Respuesta homogenea del sistema masa-resorte-roce


Para estas simulaciones hechas en Matlab se han usado tres diferentes valores
para la constante de roce viscoso D y, para los otros par
ametros se ha elegido

M = 2 [kg];

K = 0, 1

N
m

d(0) = 0, 3 [m];

and v(0) = 0, 05

hmi
s

(9.3.40)

216

Representaci
on de sistemas en variables de estado.

Captulo 9

0.1

0.08

xo=[0.3 0.05]

0.06

velocidad v(t)

0.04

0.02

0.02

0.04

0.06

D=0
D=0.2
D=2

0.08

0.1

0.5

0.4

0.3

0.2

0.1

0
0.1
distancia d(t)

0.2

0.3

0.4

0.5

Figura 9.4. Trayectorias en el espacio de estado del sistema masa-resorte-roce


En la figura 9.4 se muestra la trayectoria que sigue el estado del sistema. Se ha
considerado la posici
on de la masa d(t) como coordenada horizontal, y la velocidad,
v(t), como coordenada vertical4 .
Note que, excepto en el caso en que no existe roce (D = 0), la masa llegar
a a
detenerse asint
oticamente, es decir, llega al origen del espacio de estado.
222
Estructura de la respuesta forzada
Cuando las condiciones iniciales del sistema son cero, el estado solo tendra su componente forzada. Esta parte del estado tambien incluye modos naturales, pero
ademas contiene ciertos modos forzados o particulares, los cuales como hemos
visto en captulos precedentes, no dependen del sistema, sino que de dependen de
la naturaleza de la se
nal de entrada u(t). En general, los modos forzantes en la
entrada apareceran tambien en el estado. Sin embargo, es importante mencionar
que un caso especial sucede cuando los modos forzantes en la entrada coinciden con
alguno de los modos naturales del sistema.
Estabilidad del sistema
Tal como se menciono antes, la estabilidad de un sistema lineal e invariante puede
ser analizada usando la matriz de estado A.
4 Este

tipo de diagrama tambi


en se conoce como trayectorias en el plano de fase

Section 9.3.

217

Modelos de estado para sistemas continuos

Por definicion, todas las variables de un sistema pueden expresarse como funciones lineales de su estado y su entrada. Cuando la entrada al sistema u(t) es un
vector de funciones temporales acotadas, entonces las variables del sistema seran
acotadas si su estado lo es.
Tenemos entonces el siguiente resultado:
Teorema 9.1. Considere el sistema con la descripci
on en variables de estado
(9.3.26)-(9.3.27) donde los elementos de A, B, C y D est
an acotados. Entonces el
estado del sistema, y por tanto su salida, es acotado para toda entrada acotada si,
y s
olo si, los autovalores de la matriz A tienen parte real estrictamente negativa.
222
Para apreciar la aplicacion de este teorema en la practica, retomemos el sistema
del levitador magnetico del Ejemplo 9.3. Para dicho sistema la matriz A (en el
modelo linealizado) esta dada por la expresion
R

L
0
A=
Rg
EQ

0
0
Rmg 2

K1 EQ

(9.3.41)

y sus autovalores o valores propios son las races de la ecuacion


s
s
!
!

R
Rmg 2
Rmg 2
det(I A) = +

+
L
K1 E Q
K1 EQ

(9.3.42)

Podemos apreciar que, del conjunto de autovalores de la matriz, existe uno que
es real y mayor que cero. Esto implica que el sistema es inestable, lo cual
coincide con el analisis del sistema desde el punto de vista fsico. Si bien existe un
punto de euilibrio para el sistema, al menos teoricamente, dado x2Q en la ecuacion
(9.3.21)), este resulta ser un punto de equilibrio inestable, ya que cualquier peque
na
perturbacion sobre la esfera hara que esta o acelera hasta adherirse al iman, o bien,
cae al suelo.
Velocidad de respuesta y resonancia
Si bien un sistema puede ser estable, es importante considerar tambien otras de sus
propiedades fundamentales.
Como ya hemos visto, en los sistemas estables la parte real de los autovalores
determina la velocidad a la cual los modos naturales decaen a cero. Los modos mas
lentos, que hemos denominado modos dominantes, determinan la velocidad con que
la salida del sistema alcanza el estado estacionario, es decir, determinan la velocidad
de respuesta del sistema. Por ejemplo, un sistema con autovalores dominantes en
1,2 = jo , > 0, tiene modos naturales que pueden expresar como sinusoides

218

Representaci
on de sistemas en variables de estado.

Captulo 9

amortiguadas y(t) = Aet sin(o t + ). Se aprecia que mientras mayor sea , los
modos naturales decaen mas rapido.
Un segundo aspecto, de especial importancia en estructuras flexibles, es la presencia de resonancias en un sistema, que estan asociadas a autovalores complejos.
Desde el punto de vista fsico, la presencia de autovalores complejos tiene relacion
con la existencia de dos tipos de energa. En circuitos electricos, la energa electrostatica de condesadores y la energa electromagnetica en inductores. En sistemas
mecanicos, la energa cinetica de una masa en movimiento y la energa potencial
debida a diferencia de nivel o a la compresion de un resorte. Los principales problemas con este tipo sistemas ocurren cuando la se
nal de entrada contiene energa en
la banda de frecuencias cercana a la frecuencia con que el sistema oscila en forma
natural. En la practica, este problema puede traducirse en oscilaciones de magnitud
que el sistema simplemente no esta preparado para soportar5 . Para ilustrar esta
situacion examinaremos un ejemplo que ilustra el fenomeno
Ejemplo 9.5. Consideremos nuevamente el sistema masa-resorte-roce del Ejemplo
9.1, en que las constantes tienen los valores
M = 1[kg]

D = 13 [Ns/m]

K = 1[textN/m]

(9.3.43)

Con lo cual los autovalores del sistema son las soluciones de


det(I A) = 2 +

D
M

1,2 = 16

+
q

1
2

D
M

35
9

= 2 + 13 + 1 = 0

(9.3.44)

16 j

(9.3.45)

Por tanto, los modos naturales son de la forma e0,1667t cos(t+). Cualquier excitaci
on que posea energa a frecuencias cercanas a = 1[rad/s] har
a que el sistema
entre en resonancia, haciendo que en la salida del sistema aparezcan oscilaciones
de magnitud significativa.
Se desarrolla una simulaci
on del comportamiento del sistema bajo dos excitaciones distintas: en el primer caso, la entrada es una sinusoide de frecuencia = 1
[rad/s], y en el segundo caso, la excitaci
on una se
nal cuadrada de frecuencia fundamental o = 0, 333 [rad/s]. En ambos casos las condiciones iniciales del sistema
son cero. Los resultados se muestran en la Figura 9.5
Figura 9.5. Resonancia en el sistema masa-resorte

Podemos apreciar que, en el primer caso, se genera un fen


omeno de resonancia debido a que la frecuencia de la sinusoide es aproximadamente igual a
5 El colapso del puente Tacoma es uno de m
as conocidos, y el lector podra buscar m
as detalles
al respecto

Section 9.3.

219

Modelos de estado para sistemas continuos

la frecuencia de oscilaci
on de los modos naturales del sistema. En el segundo
caso, tambien aparece un fen
omeno de resonancia; sinembargo, ahora se debe a
la tercera arm
onica de la excitaci
on , ya que la frequencia angular de ella es
3o = 0, 999[rad/s], es decir, coincide casi exactamente con la frecuencia natural
de oscilaci
on del sistema.

9.3.3

Transformaciones de similaridad

Ya hemos dicho que la eleccion de variables de estado para un sistema dado no es


u
nica. Concretamente podemos tener un sistema con entrada u(t), salida y(t) y dos
diferentes elecciones para el vector de estado: x(t) Rn con sus matrices asociadas
(A, B, C, D), y x(t) Rn con sus matrices asociadas (A, B, C, D). Entonces, existe
una matriz no singular T Rnn tal que
x(t) = T x(t) x(t) = T1 x(t)

(9.3.46)

Lema 9.2. Dado un sistema cuyo vector de estado es x(t) y sus matrices son
(A, B, C, D), entonces, dada la matriz de transformaci
on T Rnn no singular,
tenemos un nuevo vector de estado
x(t) = T x(t)

(9.3.47)

Y las matrices de la nueva representaci


on son
A = TAT1

B = TB

C = CT1

D=D

(9.3.48)

Demostraci
on
Dada la transformacion (9.3.47), en que T es no singular y, por tanto, invertible,
tenemos que
x(t) = T1 x(t)

(9.3.49)

Si reemplazamos entonces el vector de estado x(t) en las ecuaciones de estado


del sistema (9.3.26)-(9.3.27), obtenemos

T1 x(t)
= AT1 x(t) + Bu(t)
1

y(t) = CT

x(t) + Du(t)

(9.3.50)
(9.3.51)

Donde, si se multiplica la primera ecuacion por T por el lado izquierdo, se


obtiene

220

Representaci
on de sistemas en variables de estado.

Captulo 9

B
z }| {
z}|{
x(t) = TAT1 x(t) + TB u(t)

(9.3.52)

y(t) = CT
D u(t)
| {z } x(t) + |{z}
C

(9.3.53)

De donde se obtienen las ecuaciones (9.3.48)


222
Diferentes elecciones de las variables de estado pueden o no tener significado
fsico. A veces preferiremos una u otra representacion en beneficio de la simplicidad
matematica, tal como veremos en la seccion 9.6, o bien, la eleccion de las variables
puede estar determinada por la facilidad o dificultad para medirlas en el sistema
real.
Sin embargo, resulta fundamental destacar que existen caractersticas y propiedades
del sistema que permanecen invariantes, cualquiera sea la representacion elegida.
Ejemplo de esto son los autovalores del sistema, ya que
det(I A) = det(TT1 TAT1 )

= det T(I A)T1


= det(T) det(I A) det(T
= det(I A)

(9.3.54)
(9.3.55)
1

(9.3.56)
(9.3.57)

Por tanto, la estabilidad, la naturaleza de la respuesta homogenea y la velocidad


de respuesta del sistema son invariantes respecto a transformaciones de similaridad
del estado
Ejemplo 9.6. Considere la red electrica de la Figura 9.6.
i (t)

i2 (t)

R1
+
vf (t)

L
iL (t)

R2

vC (t)

Figura 9.6. Red electrica


Escogemos el vector de estado como x(t) = [x1 (t) x2 (t)]T = [iL (t) vc (t)]T , y la
entrada es u(t) = vf (t). Usando conocimientos b
asicos de redes electricas, tenemos
que

Section 9.3.

Modelos de estado para sistemas continuos

0
dx(t)
=
1
dt

1
0

L
x(t) +
u(t)

R1 + R2
1

R1 R2 C
R1 C

221

(9.3.58)

Una elecci
on alternativa del vector de estado es x(t) = [x1 (t) x2 (t)]T = [i(t) i2 (t)]T .
Donde puede probarse sin problema que
x(t) =

1 R2
R2 0
|
{z

1
x(t)
1
}

(9.3.59)

222

9.3.4

Espacio de estado y funciones de transferencia

La descripcion de un sistema en un modelo de variables de estado es una descripcion


alternativa a las que hemos visto antes, tales como la ecuacion diferencial del sistema
(EDS) y su funcion de transferencia asociada. En realidad, la descripcion del sistema
en variables de estado tiene mayores alcances tal como veremos en esta subseccion.
Lema 9.3. Dado un sistema lineal en invariante del tiempo con entrada con funci
on
de transferencia
H(s) =

Y(s)
U(s)

(9.3.60)

En que U(s) y Y(s) son las transformadas de Laplace de la entrada u(t) y la salida
y(t). Entonces, esta se relaciona con las matrices (A, B, C, D) de la representaci
on
en variables de estado seg
un la ecuaci
on
H(s) = C(sI A)1 B + D

(9.3.61)

Y los polos de la funci


on de transferencia H(s) pertencen al conjunto de los
autovalores de la matriz A.
Demostraci
on
Por la definicion de funcion de transferencia, hecha en la seccion 7.2, esta es la
transformada de Laplace de la respuesta a impulso (delta de Dirac) del sistema,
con condiciones iniciales iguales a cero.
Si usamos esta definicion, podemos aplicar transformada de Laplace a la ecuacion
(9.3.26). As se tiene que

222

Representaci
on de sistemas en variables de estado.

Captulo 9

z }| {
z }| {
sX(s) x(0 ) = AX(s) + B L [(t)]
(sI A)X(s) = B

(9.3.62)
(9.3.63)

X(s) = (sI A)1 B

(9.3.64)

Si tambien aplicamos transformada de Laplace a la ecuacion (9.3.27) y reemplazamos la expresion para la transformada de Laplace del vector de estado X(s),
tenemos
Y(s) = H(s) = CX(s) + DL [(t)] = C(sI A)1 B + D

(9.3.65)

Lo que demuestra la ecuacion (9.3.61).


Para determinar los polos de la transferencia H(s), podemos reescribir la inversa
de (sI A) usando las propiedades en el Apendice F. De esta forma

H(s) = C

Adj(sI A)
CAdj(sI A)B + D det(sI A)
B+D=
det(sI A)
det(sI A)

(9.3.66)

Lo que pone de manifiesto que todos los polos de H(s) son autovalores de la
matriz A.
222
Es importante, sin embargo, notar que no necesariamente los polos de la
funcion de transferencia son todos los autovalores del sistema, pues la ecuacion
(9.3.61) puede tener cancelaciones encubiertas entre races del numerador (ceros) y
races del denominador (polos) . Esto se ilustra mejor a traves del siguiente ejemplo.
Ejemplo 9.7. Consideremos el sistema


2 1
1
A=
; B=
;
0 3
0, 5

C= 0

1 ;

D=0

(9.3.67)

Entonces

1
0
(s + 2)(s + 3)
0, 5
0, 5(s + 2)
=
=
(s + 2)(s + 3)
(s + 3)

H(s) = C(sI A)1 B =

s+3
0

1
s+2

1
0, 5

(9.3.68)
(9.3.69)

En este caso, la funci


on de transferencia tiene s
olo un polo, a pesar que la matriz
A posee dos autovalores. Se observa que existe una cancelaci
on entre un polo y un
cero en H(s). Este fen
omeno tiene relaci
on directa con las propiedades del sistema
que se estudian en la secci
on 9.6.

Section 9.3.

223

Modelos de estado para sistemas continuos

222
Para establecer un nexo con lo que sucede en la practica, volvamos una vez
mas al levitador magnetico del Ejemplo 9.3. Si consideramos la corriente i(t) como
salida, vemos de inmediato que la funcion de transferencia desde la entrada e(t) a
esta salida tiene solo un polo, a pesar que el vector de estado tiene dimension tres.
La explicacion de esto es que, en nuestro modelo fsico simplificado, la corriente i(t)
no es afectada por la posicion ni por la velocidad vertical de la esfera (note que no
se ha considerado el efecto del cambio de posicion de la esfera en la inductancia del
electroiman).
El resultado fundamental es que la funci
on de transferencia puede no
entregar la misma informaci
on que el modelo en variables de estado para
un sistema dado.
Un problema interesante es obtener una representacion de estado de un sistema
a partir de su funcion de transferencia. El lector debe tener la precaucion de considerar que en este caso un modelo de estado no equvoco, no permite determinar
si hubo o no cancelaciones entre polos y ceros. Por esto, el modelo obtenido se
denomina realizaci
on mnima .
Existen muchos metodos para obtener un modelo en variables de estado a partir
de la funcion de transferencia, uno de ellos es el que se presenta a continuacion.
Consideremos la funcion de transferencia dada por
HT (s) =

Bo (s)
bn1 sn1 + bn2 sn2 + . . . b1 s + b0
+HT () =
+HT () (9.3.70)
Ao (s)
sn + an1 sn1 + . . . + a1 s + a0

En primer lugar, apreciamos que D = HT (), por lo tanto basta concentrarse


en la funcion de transferencia H(s) = HT (s) HT (), que es estrictamente
propia.
Consideremos ahora la variable v` (t) R cuya transformada de Laplace, V` (s),
satisface
V` (s) =

s`1
U (s)
Ao (s)

` {1, 2, . . . , n}

(9.3.71)

Esto implica que


dv`1 (t)
` {2, . . . , n}
dt
n
X
Y (s) =
b`1 V` (s)
v` (t) =

(9.3.72)
(9.3.73)

`=1

U (s) =

n
X
sn
s`1
Ao (s)
U (s) =
U (s) +
a`1
U (s)
Ao (s)
Ao (s)
Ao (s)
`=1
|
{z
}
| {z }
sVn (s)

V` (s)

(9.3.74)

224

Representaci
on de sistemas en variables de estado.

Captulo 9

Ahora escojamos como variables de estado x` (t) = v` (t). La ecuacion anterior


entonces es

0
0
..
.

1
0
..
.

0
1
..
.

0
0
..
.

0
0
..
.

A=
;

a0 a1 a2 an2 an1

C = b0 b1 b2 bn1 ; D = HT ()


0
0


B = ...

0
1

(9.3.75)

(9.3.76)

Ejemplo 9.8. La funci


on de transferencia de un sistema est
a dada por
H(s) =

4s 10
4s 10
= 3
(s + 2)2 (s 1)
s + 3s2 4

(9.3.77)

Entonces una realizaci


on mnima para este sistema es

0 1 0
A = 0 0 1 ;
4 0 3

C = 10 4 0 ;


0
B = 0
1

(9.3.78)

D=0

(9.3.79)

222
Otro resultado importante, cuya prueba se deja al lector como ejercicio, es que
la funci
on de transferencia de un sistema es invariante respecto a transformaciones de similaridad del estado

9.4

Modelos de estado para sistemas discretos y muestreados

En esta seccion se desarrolla la representacion de estado para sistemas de tiempo


discreto, usando como base los resultados ya obtenidos para sistemas de tiempo
continuo.
Antes de comenzar es importante distinguir que un modelo en tiempo discreto
puede originarse de dos formas:
A partir de un sistema intrnsecamente discreto, y generalmente no lineal,
cuyas variables estan definidas solo en intantes de tiempo especficos tk . Estos
pueden originarse, por ejemplo, en el modelamiento de sistemas economicos o
en el modelamiento de procesos estocasticos.
De la discretizaci
on de un sistema de tiempo continuo. En este caso, nos
interesan las variables del sistema en instantes de tiempo especficos, en que
se obtienen sus valores. Esto se denomina muestreo . Los modelos de este

Section 9.4.

225

Modelos de estado para sistemas discretos y muestreados

tipo son muy u


tiles cuando sistemas digitales, tales como microcontroladores,
computadores, controladores logicos programables (PLCs) u otros, deben interactuar con sistemas reales de tiempo continuo, tales como estructuras
mecanicas, valvulas, tanques, circuitos analogos, o con procesos industriales
completos6 . Este tipo de sistemas se denominan sistemas muestreados
Sin embargo, cualquiera que sea el origen del modelo discreto, nos concentraremos en el caso en que este es lineal e invariante en el tiempo, tal como lo
hicimos en el caso de tiempo continuo.

9.4.1

Linealizaci
on de sistemas discretos

El equivalente en tiempo discreto de las ecuaciones (9.2.3)-(9.2.4) esta dado por las
expresiones no lineales
x[t + 1] = Fd (x[t], u[t])

(9.4.1)

y[t] = Gd (x[t], u[t])

(9.4.2)

La linealizacion, en este caso, se realiza de manera analoga que para el caso


continuo. Consideremos primero un punto de equilibrio, dado por {xQ , uQ , yQ },
xQ = Fd (xQ , uQ )
yQ = Gd (xQ , uQ )

(9.4.3)
(9.4.4)

Donde puede apreciarse que el punto de equilibrio queda definido por un conjunto
de valores constantes para el estado del sistema y para su entrada, que deben
satisfacer (9.4.1)- (9.4.2). Esto implica un valor constante tambien en la salida del
sistema. El sistema discreto puede ser entonces linealizado en torno a este punto
de equilibrio, definiendo
x[t] = x[t] xQ ;

u[t] = u[t] uQ ;

y[t] = y[t] yQ

(9.4.5)

Entonces, tenemos el modelo en variables de estado


x[t + 1] = Ad x[t] + Bd u[t]
y[t] = Cd x[t] + Dd u[t]

(9.4.6)
(9.4.7)

Donde

Fd
Ad =
;
x x=xQ
u=uQ

Fd
Bd =
;
u x=xQ
u=uQ

Gd
Cd =
;
x x=xQ
u=uQ

Gd
Dd =
u x=xQ

u=uQ

(9.4.8)

6 La conexi
on requiere de conversores Digital-An
alogo y An
alogo-Digital (DAC y ADC, sus
siglas en ingl
es, respectivamente)

226

9.4.2

Representaci
on de sistemas en variables de estado.

Captulo 9

Sistemas muestreados

Como hemos dicho antes, los modelos de tiempo discreto se obtienen a menudo al
hacer un muestreo7 de las entradas y salidas de un sistema de tiempo continuo.
Cuando alg
un dispositivo digital se utiliza para actuar sobre un sistema de tiempo continuo, la se
nal de actuacion o de comando sobre el solo se define en ciertos
instantes de tiempo especficos, y no para todo el tiempo t. Sin embargo, siempre
necesitaremos una se
nal continua para actuar sobre el sistema (de tiempo continuo). Esta se
nal se obtiene usualmente a traves de un retentor, el cual genera una
se
nal constante por tramos, que mantiene el u
ltimo valor especificado hasta que se
define el siguiente. Este tipo de retentor se denomina retentor de orden cero 8 .
Es importante considerar que existen tambien otras formas de generar la se
nal de
actuacion continua necesaria.
Ademas de la se
nal de actuacion, es necesario medir digitalmente las variables
que nos interesan de un sistema en los instantes de tiempo especficos que se requiera.
Es decir, debemos muestrear las se
nales de salida.
En la Figura 9.7 se describe el proceso de discretizacion de un sistema continuo. Si suponemos un muestreo periodico, con periodo , nos interesa el valor de
las variables solo en los instantes k. En los desarrollos posteriores, iremos gradualmente omitiendo del argumento de las se
nales, usando u(k) = u[t] para la
entrada, y(k) = y[t] para la salida, y x(k) = x[t] para el estado del sistema.

Retentor
u[k]

(Hold)

uS (t)

Sistema de
Tiempo Continuo

Muestreo
y(t)

(Sample)

y[k]

Figura 9.7. Esquema de un sistema muestreado


Si consideramos el modelo en variables de estado, lineal, invariante y de tiempo
continuo definido en (9.3.26)-(9.3.27), con estado inicial x(k0 ) = x0 , entonces
podemos usar la ecuacion (9.3.28) para calcular el valor del estado en el proximo
instante de muestreo:
Z
x(k0 + ) = eA(k0 +k0 ) x(k0 ) +

k0 +

eA(k0 + ) B u( )d

(9.4.9)

k0

Es mas, si se usa un retentor de orden cero, sabemos que u( ) = u(k0 ) para


k0 < k0 + , con lo que obtenemos
7 Sampling,
8 Zero

en ingl
es
Order Hold o ZOH, en ingl
es

Section 9.4.

227

Modelos de estado para sistemas discretos y muestreados

Z
x(k0 + ) = e

x(k0 ) +

eA d B u(k0 )

(9.4.10)

Y, si conocemos el estado y la entrada en un instante k0 , la salida del sistema


queda definida por la ecuacion (9.3.27)
y(k0 ) = C x(k0 ) + D u(k0 )

(9.4.11)

Podemos concluir entonces que, dado un sistema de tiempo continuo con un


modelo en variables de estado con matrices {A, B, C, D}, si muestreamos sus entradas y salidas cada segundos, entonces, el sistema muestreado equivalente queda
descrito por el modelo de tiempo discreto en espacio de estado:
x(k + ) = Ad x(k) + Bd u(k)
y(k) = Cd x(k) + Dd u(k)

(9.4.12)
(9.4.13)

Donde
Z
Ad = e

Bd =

eA d B

Cd = C ;

Dd = D

(9.4.14)

Existen diferentes metodos para obtener la matriz Ad definida en (9.4.14), pero


una forma simple es calcularla empleando la transformada de Laplace, de manera
que

Ad = eA = L1 (sI A)1 t=

(9.4.15)

Veamos a continuacion un ejemplo para aclarar e ilustrar las ideas presentadas


hasta el momento.
Ejemplo 9.9. Consideremos el sistema mec
anico del Ejemplo 9.1 en la p
agina 207,
que fue descrito en variables de estado seg
un las ecuaciones:

0
1
0
x 1 (t)
x1 (t)
=
+
(9.4.16)
1 f (t)
K
D
x 2 (t)
x2 (t)
M
M
M
donde f (t) es la fuerza externa, y donde podemos escoger como salida del sistema
ya sea la posici
on de la masa, x1 (t), o su velocidad, x2 (t).
Para simplificar las expresiones, supongamos algunos valores para los par
ametros
del sistema. Se fija la masa M = 1 [kg], la constante de roce viscoso D = 1, 2 [Ns/m]
y la constante del resorte K = 0, 32 [N/m].
La matriz Ad se obtiene usando (9.4.15), aplicando transformada de Laplace
inversa

228

Representaci
on de sistemas en variables de estado.

1 #
1

s + 1.2

"
1

Ad = L

s
0, 32

Captulo 9

t=

2e0,4 e0,8
2.5(e0,4 e0,8 )
=
0, 8(e0,4 e0,8 ) e0,4 + 2e0,8
(9.4.17)

Y la matriz Bd se obtiene integrando en (9.4.14)



0
2.5(e0,4 e0,8 )
Bd =
d
0,4
0,8
1
e
+
2e
0

0,4
0,8
6.25e
+ 3.125e
+ 3.125
Bd =
(9.4.18)
2.5(e0,4 e0,8 )
Z

2e0,4 e0,8
0, 8(e0,4 e0,8 )

Note que ambas matrices, Ad y Bd son funciones de . Por tanto, el perodo


de muestreo , tiene una clara influencia sobre el comportamiento del sistema
muestreado, tal como veremos en las siguientes subsecciones.

9.4.3

Modelos de estado lineales

Concentremonos ahora en el modelo en variables de estado, lineal e invariante en el


tiempo
x[t + 1] = Ad x[t] + Bd u[t]
y[t] = Cd x[t] + Dd u[t]

(9.4.19)
(9.4.20)

Este puede corresponder a un modelo linealizado como (9.4.6)-(9.4.7), o a un


sistema muestreado como (9.4.12)-(9.4.13) donde se ha omitido del argumento
temporal.
Lema 9.4. Dado el sistema de tiempo discreto definido en las ecuaciones (9.4.19)
y (9.4.20), sujeto a la condici
on inicial x[to ] = xo , su soluci
on est
a dada por
(tto )1

x[t] = Ad

(tto )

xo +

Ad (tto )i1 Bd u[i + to ]

t to

(9.4.21)

i=0

donde Ad (tto ) es la matriz de transici


on discreta.
Demostraci
on
A partir de la ecuacion (9.4.19), usando la condicion inicial se pueden determinar
el valor futuro del estado en todo momento. As:
x[to + 1] = Ad x[to ] + Bd u[to ]

(9.4.22)

Section 9.4.

229

Modelos de estado para sistemas discretos y muestreados

En consecuencia,
x[to + 2] = Ad x[to + 1] + Bd u[to + 1]

= Ad Ad x[to ] + Bd u[to ] + Bd u[to + 1]


= Ad 2 x[to ] + Ad Bd u[to ] + Bd u[to + 1]

(9.4.23)
(9.4.24)
(9.4.25)

De esta forma, por induccion, tenemos que


x[to + 3] = Ad 3 x[to ] + Ad 2 Bd u[to ] + Ad Bd u[to + 1] + Bd u[to + 2]
..
.
x[to + `] = Ad ` x[to ] +

`1
X

Ad `1+i Bd u[to + i]

` 0

(9.4.26)

(9.4.27)

i=0

Este u
ltima ecuacion coincide con la ecuacion (9.4.21) al hacer ` = t to .
222
Con el resultado del lema anterior, podemos encontrar la solucion a la ecuacion
(9.4.20), pues la salida del sistema queda determinada en todo momento por el
vector de estado

y[t] = Cd Ad

(tto )

(tto )1

xo + Cd

Ad (tto )i1 Bd u[to + i] + Dd u[t] (9.4.28)

i=0

Din
amica del sistema
El vector de estado que se obtiene al resolver las ecuaciones del sistema, analogamente
al caso de tiempo continuo, tiene dos componentes: la componente no forzada,
xu [t], y la forzada, xf [t], donde
xu [t] = Ad (tto ) xo

(9.4.29)

(tto )1

xf [t] =

Ad (tto )i1 Bd u[to + i]

(9.4.30)

i=0

Para simplificar el analisis del modelo y su solucion, aprovecharemos la invarianza en el tiempo, considerando el caso en que to = 0 and u[t] = 0 t 0, i.e. el
estado tiene solo su parte no forzada. En este caso
x[t] = Ad t xo
nn

(9.4.31)

Por simplicidad asumiremos que Ad R


tiene n autovalores distintos ` , con
n autovectores linealmente independientes v` , entonces siempre existe un conjunto
de n constantes ` tales que

230

Representaci
on de sistemas en variables de estado.

xo =

n
X

` v`

; ` C

Captulo 9

(9.4.32)

`=1

Del algebra lineal9 , sabemos que los autovalores la matriz Ad t son `t , para
t N, con sus correspondientes autovectores v` . Si se aplica esto, se obtiene

x[t] = Ad t xo = Ad t

n
X

` v` =

`=1

x[t] =

n
X

n
X
`=1

` Ad t v`
| {z }

(9.4.33)

`t v`

` `t v`

(9.4.34)

`=1

Esta ecuacion pone de manifiesto que la componente no forzada del estado es una
combinacion lineal de modos naturales del sistema, {` t }, en que cada uno esta
asociado con un autovalor de Ad , que son las frecuencias naturales del sistema.
Esto nos indica que, al igual que en el caso de los modelos de tiempo continuo, la
matriz Ad determina:
la estructura de la respuesta no forzada,
la estabilidad (o inestabilidad) del sistema, y
la velocidad de la respuesta.
Estructura de la respuesta no forzada
Cuando la entrada a un sistema es cero, el estado evoluciona como una combinacion
de modos naturales. Estos modos los cuales pertenecen a una clase definida de
funciones que ya hemos ya estudiado (ver subseccion 4.3.1 ) son las potencias de
los autovalores como se aprecia en la ecuacion (9.4.34), sean estos reales o complejos.
Estas funciones de tiempo discreto estan relacionadas con constantes, exponenciales
reales, sinusoides puras o moduladas por exponenciales, y otras funciones especiales
que aparecen cuando hay autovalores repetidos.
Para ilustrar estas ideas consideremos el sistema muestreado que vimos en el
Ejemplo 9.9. Si = 1, las matrices de la representacion de estado son:

Ad =

0, 8913 0, 5525
0, 1768 0, 2283

Bd =

0, 3397
0, 5525

(9.4.35)

De donde se desprende que los autovalores son las soluciones de la ecuacion


9 Ver

ap
endice F

Section 9.4.

231

Modelos de estado para sistemas discretos y muestreados

det(I Ad ) = det

0, 8913
0, 1768

0, 5525
0, 2283

= ( 0, 6703)( 0, 4493) = 0

(9.4.36)
(9.4.37)

i.e. 1 = 0, 6703, 2 = 0, 4493 y la respuesta no forzada es


xu [t] = C1 (0, 6702)t + C2 (0, 4493)t

(9.4.38)

donde C1 y C2 dependen solo del estado inicial. Podemos apreciar que cuando t
tiende a infinito, xu [t] se hace cero, ya que |1,2 | < 1. Ademas, estos autovalores son
n
umeros reales positivos, por tanto los modos naturales no son oscilatorios. Esto
es esperable pues en el Ejemplo 9.9 se eligieron los parametros de manera que el
sistema masa-resorte resulta sobre amortiguado.
Estructura de la respuesta forzada
Si se considera la ecuacion (9.4.21), cuando la condicion inicial es cero, el estado
solo exhibe su componente forzada. Sin embargo, esta incluye los modos naturales
ademas de otros modos forzados o particulares, los cuales dependen del tipo de
se
nal en la entrada u[t]. En general, los modos forzantes en la entrada tambien
aparecen en la salida del sistema, excepto en el caso que alguna de ellos coincida
con alguno un modo natural del sistema.
Estabilidad
La estabilidad de un sistema lineal, de tiempo discreto e invariante en el tiempo
tambien puede ser analizada a traves de la matriz Ad . Ya hemos establecido que
todas las variables del sistema se pueden expresar como funciones lineales del estado
y la entrada. Cuando la entrada u[t] es un vector acotado en el tiempo, entonces
las variables del sistema permaneceran acotadas si y solo si el estado esta acotado.
Tenemos entonces el siguiente resultado:
Teorema 9.2. Dado un sistema descrito en variables de estado por las ecuaciones
(9.4.19)-(9.4.20), donde Ad , Bd , Cd y Dd tienen elementos acotados. Entonces, el
estado del sistema estar
a acotado para toda entrada acotada si y s
olo si los autovalores de la matriz Ad se encuentran en el interior del disco unitario, i.e. |` | < 1 ; `.
Velocidad de respuesta y resonancia
Recordemos que los modos naturales de un sistema de tiempo discreto son las
potencias de los autovalores ` . Estos autovalores siempre pueden expresarse como
un n
umero complejo en su forma exponencial, por lo tanto, un modo natural puede
escribirse como:
t

(` )t = |` | ej` = |` |t ej` t

; donde ` = `

(9.4.39)

232

Representaci
on de sistemas en variables de estado.

Captulo 9

Por lo tanto, tenemos que


0 < |` | < determina la velocidad con la que el modo decae a cero, en
el caso de sistemas estables (|` | < 1), o crece hasta infinito, para sistema
inestables (|` | > 1)
< ` determina la frecuencia con que oscila el modo natural, medida
en radianes.
A pesar que los modos naturales de un sistema estable decaen a cero, ellos
determinan la respuesta transiente del sistema.
Para apreciar esto, generalmente se utiliza la respuesta a escal
on del sistema,
con condiciones iniciales cero.
Ejemplo 9.10. Consideremos el sistema dicreto de primer orden
x[t + 1] = ` x[t] + u[t]
y[t] = (1 ` )x[t]

(9.4.40)
(9.4.41)

Para obtener la respuesta a escal


on, usamos la ecuaci
on (9.4.28), donde xo = 0
y u[t] = 1, t 0.

y[t] = Cd

t1
X

!
Ad

ti1

Bd

i=0

= (1 ` )

t1
X
i=0

= 1 `t

!
`ti1

= (1 ` )`t1

(9.4.42)
1 `t
1 `1

(9.4.43)
(9.4.44)

La salida, y[t] = yh [t] + yp [t] se muestra en la Figura 9.8, para diferentes valores
del u
nico autovalor ` . El transiente est
a dado por yh [t] = `t , mientras que la
respuesta estacionaria es yp [t] = 1.
En la ecuacion (9.4.39) apreciamos que los autovalores de un sistema determinan
la amortiguacion de su respuesta transiente, sin embargo, tambien determinan su
frecuencia de oscilacion (cuando los autovalores tienen parte imaginaria no nula).
El problema que puede surgir cuando existen estos modos resonantes es el mismo
que se menciono en el caso de sistemas de tiempo continuo: cuando la entrada el
sistema contiene una sinusoide u otra se
nal con energa en la banda de frecuencias
cercana a la frecuencia de oscilacion natural del sistema. A pesar que la salida
del sistema permanece acotada, ella puede alcanzar amplitudes demasiado grandes
para el sistema fsico..

Section 9.4.

233

Modelos de estado para sistemas discretos y muestreados

y[k]

0.8
0.6
= 0.2
= 0.6
= 0.8

0.4
0.2
0

5
6
tiempo discreto k

10

Figura 9.8. Respuesta a escalon del sistema para diferentes autovalores.

Ejemplo 9.11. Consideremos el sistema discreto con representaci


on de estado


1.2796 0, 81873
1
x[t + 1] =
x[t] +
u[t]
1
0
0

y[t] = 0 0, 5391 x[t]

(9.4.45)
(9.4.46)

Los autovalores, que se obtienen a partir de Ad , son

1,2 = 0, 6398 j0, 6398 = 0, 9048 ej 4

(9.4.47)

Y los modos naturales asociados, presentes en la respuesta transiente, son


t
1,2
= 0, 9048t ej 4 t = 0, 9048t cos 4 t j sin 4 t

(9.4.48)

Los modos naturales est


an levemente amortiguados, ya que |1,2 | es cercano a
1, y muestra una oscilaci
on de frecuencia 4 .
En los gr
aficos de la Figura 9.9 se muestra el efecto de resonancia
en la salida
del sistema. En la parte superior, se ha considerado u[t] = sin 4 t , es decir, la
entrada tiene la misma frecuencia que los modos naturales. En la parte inferior, en

tanto, la entrada es una se


nal cuadrada de frecuencia 12
. En este u
ltimo caso, la
tercera arm
onica de la entrada tiene la misma frecuencia que los modos naturales.
Efecto del perodo de muestreo .
Si se observan las ecuaciones (9.4.14), podemos notar que las matrices Ad y Bd
dependen de la eleccion del perodo de muestreo . Esta eleccion tendra un efecto
directo sobre la posicion de los polos del sistema.
Lema 9.5. Consideremos un sistema de tiempo continuo cuyos autovalores son
{i , . . . , n }. Si este sistema es muestreado con un perodo de muestreo , entonces
sus autovalores son
{1 , . . . , ` }

; en que ` = e`

(9.4.49)

234

Representaci
on de sistemas en variables de estado.

Captulo 9

5
y[k]
u[k]

10

15

20
25
tiempo discreto k

30

35

40

10

15

20
25
tiempo discreto k

30

35

40

3
y[k]
u[k]

2
1
0
1
2
3

Figura 9.9. Resonancia en la salida del sistema.

Demostraci
on
Si se observa la ecuacion (9.4.15), suponiendo que la matriz del sistema de tiempo
continuo A ha sido diagonalizada, tenemos que
Ad = ediag{1 ,...,n } = diag{e1 , . . . , en }

(9.4.50)

Donde {1 , . . . , n } son los autovalores del sistema de tiempo continuo que se


muestrea. Entonces, los autovalores de Ad son las soluciones de
det(sIn Ad ) = (s e1 ) . . . (s en )

(9.4.51)

222
En la Figura 9.10 se muestra la respuesta del sistema muestreado del Ejemplo
9.9, considerando x1 [t] como la salida del sistema, cuando inicialmente xo = [1 0]T ,
para diferentes valores de . Se debe notar que el eje horizontal corresponde a los
instantes discretos t, por tanto los instantes de tiempo reales son k [seg.]
En base a lo anterior se puede conclur que un aspecto fundamental que se debe
considerar cuando se muestrea un sistema de tiempo continuo es la eleccion del
perodo de muestreo, de manera que sea los suficientemente peque
no para reflejar
fielmente las se
nales que se muestrean. Para ejemplificar una mala eleccion de ,
supongamos una se
nal f (t) = A sin(o t) que es muestreada cada segundos, con
= 2`/, ` N. Entonces, la se
nal discreta resultante es f [t] = 0, t Z, es
decir, una constante.

Section 9.4.

235

Modelos de estado para sistemas discretos y muestreados


Tiempo de muestreo =0.5

x1[k]

0.5

8
10
12
Tiempo de muestreo =1

14

16

18

20

8
10
12
Tiempo de muestreo =2

14

16

18

20

14

16

18

20

x1[k]

0.5

x1[k]

0.5

10
12
tiempo discreto k

Figura 9.10. Efecto del muestreo en los modos naturales

Sistemas muestreados y retardos


Se menciono en la seccion 9.3 que los modelos en variables de estado no pueden
ser usado para describir sistemas de tiempo continuo que tengan retardos, pues dan
origen a un sistema de dimension infinita. Sin embargo, como tambien se menciono
entonces, este problema se puede evitar muestreando las se
nales. Esto se ilustra a
traves del siguiente ejemplo.
Ejemplo 9.12. Considere el sistema termico que se bosqueja en la Figura 9.11.
u(t)

Heat Source

y(t)
Temperature Sensor

flow direction

Figura 9.11. Sistema termico con retardo.


La temperatura medida en el caudal, y(t), depende de la potencia que entregue
al fludo la fuente de calor. Esta es controlado por una se
nal de control u(t). Los
cambios en u(t) producen cambios en la temperatura y(t), pero con un retardo de
tiempo no despreciable. El sistema linealizado se representa mediante la funci
on de

236

Representaci
on de sistemas en variables de estado.

Captulo 9

transferencia:
Y (s)
e s K
= H(s) =
(9.4.52)
U (s)
s+
Donde U (s) e Y (s) son las transformadas de Laplace de u(t) e y(t) respectivamente.
Supongamos luego que las se
nales de entrada y salida son muestreadas cada
[s]. El retardo , tambien en segundos, es funci
on de la velocidad del flujo y podemos
suponer, por simplicidad, que es un m
ultiplo del intervalo de muestreo , i.e.,
= m, m Z+ . Este retardo se convierte en un factor z m en el denominador
de la funci
on de transferencia en el dominio de la transformada Zeta. Es decir, el
retardo se convierte en un conjunto de m polos en el origen. Adem
as, en base a
la ecuaci
on (9.4.49), el autovalor del sistema continuo en s = se transforman
en un autovalor del sistema discreto en z = e . La funci
on de transferencia
resultante es
Y [z]
K 1 e
= H[z] =
U [z]
z m (z e )
Que puede expresarse mediante el modelo de estado discreto

(9.4.53)

x1 [t + 1] = x2 [t]
x2 [t + 1] = x3 [t]
..
..
.
.
xm [t + 1] = xm+1 [t]

xm+1 [t + 1] = e

xm+1 [t] +

(9.4.54)
(9.4.55)

(9.4.56)
K
(1

y[t] = x1 [t]

)u[t]

(9.4.57)
(9.4.58)

A
un m
as, podemos interpretar las variables de estado xm+1 [t], . . . , x1 [t] como la
temperatura en puntos equiespaciados entre el calefactor y el sensor de temperatura
(suponiendo un caudal de velocidad constante).
222
Cuando el retardo no es m
ultiplo exacto del perodo de muestreo , en la
funcion de transferencia aparece un polo y un cero adicionales. Mas detalles al
respecto pueden consultarse en el Captulo 4 o la literatura, por ejemplo, en [3].

9.4.4

Transformaciones de similaridad

Las transformaciones del estado para sistemas discretos se aplican de la misma


manera que para sistemas de tiempo continuo a traves de las transformaciones de
similaridad (ver subseccion 9.3.3). As, muchas de las propiedades del sistema,
como la ubicacion de las frecuencias naturales o autovalores, la controlabilidad y la
observabilidad tambien permancen invariantes.

Section 9.4.

9.4.5

Modelos de estado para sistemas discretos y muestreados

237

Espacio de estado y funciones de transferencia

Para los sistemas de tiempo discreto la relacion entre los modelos en variables de
estado y aquellos mediante funciones de transferencia es basicamente la misma que
en el caso de tiempo continuo (ver subseccion 9.3.4). Como ya se menciono, el
modelo en variables de estado de un sistema lineal, invariante en el tiempo es una
descripcion alternativa a la funcion de transferencia, aunque en algunas ocasiones
entrega mayor informacion sobre el sistema.
Para un sistema de tiempo discreto, lineal e invariante, con entrada u[t] Rm
y salida y[t] Rp , la funcion de transferencia, H[z] Cpm , esta definida por la
ecuacion
Y[z] = H[z]U[z];

where [H[z]]ij =

Yi [z]
Uj [z]

(9.4.59)

Es decir, el elemento (i, j) en la matriz H[z] es la transformada Zeta de la respuesta


en la i-esima salida cuando se aplica un delta de Kronecker de amplitud unitaria en
la j-esima entrada, con condiciones iniciales cero y las demas entradas tambien se
mantienen iguales a cero t 0.
Por otro lado, si se aplica transformada Zeta a modelo en variables de estado de
tiempo discreto (9.4.19)-(9.4.20), con condiciones iniciales cero, tenemos
X[z] = (zI Ad )1 Bd U[z]
Y[z] = Cd X[z] + Dd U[z]

(9.4.60)
(9.4.61)

Cd (zI Ad )1 Bd + Dd = H[z]

(9.4.62)

que se reduce a

En adelante, nos concentraremos en los sistemas escalares o SISO, i.e. m = p =


1, Bd , Cd T son vectores columna, y Dd = H[]. Podemos apreciar que en este
caso H[z] es un cuociente de polinomios en la variable z, i.e.
H[z] =

Cd Adj(zI Ad ) Bd + Dd det(zI Ad )
det(zI Ad )

(9.4.63)

donde Adj() denota la matriz adjunta de la matriz ().


Tenemos que, analogamente al caso de tiempo continuo, los polos de la funcion
de transferencia son los autovalores de la ma matriz Ad . Sin embargo, en general no
es cierto que el conjunto de polos de la funcion de transferencia sea igual al conjunto
de autovalores de dicha matriz. Es importante entender que los modelos mediante
funciones de transferencia pueden esconder cancelaciones entre polos y ceros, con
las consecuencias que se describen en la subsecciones 9.6.1 y 9.6.2.
El resultado central para sistemas de tiempo discreto es el mismo que para el
caso de sistemas de tiempo continuo : la funci
on de transferencia puede no

238

Representaci
on de sistemas en variables de estado.

Captulo 9

aportar la misma informaci


on que el modelo en variables de estado para
un mismo sistema.
Una forma de obtener el modelo en variables de estado a partir de la funcion de
transferencia es el mismo que el propuesto en la seccion 9.3.4, aplicando transformada Zeta en lugar de la transformada de Laplace, y usando el hecho que
F [z] = Z [f [t]] zF [z] = Z [f [t + 1]]

(9.4.64)

Ejemplo 9.13. La funci


on de transferencia de un sistema est
a dada por
H[z] =

2z 2 z + 1
1.8z + 0, 04
= 2
+2
(z 0, 8)(z 0, 6)
z 1.4z + 0, 48

(9.4.65)

Entonces una realizaci


on mnima para este sistema est
a dada por las matrices


0
1
0
Ad =
; Bd =
0, 48 1.4
1

Cd = 0, 04 1.8 ; Dd = 2

(9.4.66)
(9.4.67)

En modelos de tiempo discreto tambien sucede que la funci


on de transferencia del sistema es invariante respecto a transformaciones de similaridad.

9.5

Modelos de estado para sistema interconectados

Para construir modelos en espacio de estados para sistemas complejos es posible, y a


menudo muy u
til, describirlos como la interconeccion de sistemas mas simples. Esta
interconexion es usualmente la combinacion de tres tipos basicos de estructuras:
conexion en serie, en paralelo y en realimentacion. En cada uno de esos caso lo que
nos interesa es obtener el modelo en variables de estado para el sistema completo
resultante.
En los siguientes analisis se usaran dos sistemas, definidos mediante las ecuaciones

Sistema 1:

Sistema 2:

dx1 (t)
= A1 x1 (t) + B1 u1 (t)
dt
y1 (t) = C1 x1 (t) + D1 u1 (t)

dx2 (t)
= A2 x2 (t) + B2 u2 (t)
dt
y2 (t) = C2 x2 (t) + D2 u2 (t)

(9.5.1)
(9.5.2)

(9.5.3)
(9.5.4)

Section 9.5.

239

Modelos de estado para sistema interconectados

Conexi
on en serie
La interconexion de sistemas que se muestra en la Figura 9.12 se denomina conexion
en serie o en cascada. Para obtener el modelo de estado deseado, se observa en
primer lugar que y2 (t) = u1 (t). Ademas, el sistema completo tiene como entrada
u(t) = u2 (t), y como salida y(t) = y1 (t). Con esto se obtiene

x 1 (t)
A1 B1 C2 x1 (t)
B1 D 2
=
+
u(t)
x 2 (t)
0
A2
x2 (t)
B2

x1 (t)
y(t) = C1 D1 C2
+ D1 D2 u(t)
x2 (t)

u(t)

x2(t)
u2(t)

u1(t)

x1(t)

y1(t)

(9.5.5)
(9.5.6)

y(t)

y2(t)
Figura 9.12. Conexion en serie

Conexi
on en paralelo
La interconexion de sistemas que se muestra en la Figura 9.13 se denomina conexion
en paralelo. Para obtener el modelo de estado deseado se observa que la entrada
es u(t) = u1 (t) = u2 (t) y que la salida para el sistema en su conjunto es y(t) =
y1 (t) + y2 (t). As se obtiene


x1 (t)
B1
A1 0
x 1 (t)
+
u(t)
=
B2
x 2 (t)
0 A2 x2 (t)

x1 (t)
y(t) = C1 C2
+ D1 + D2 u(t)
x2 (t)

(9.5.7)
(9.5.8)

Conexi
on en realimentaci
on
La interconexion de sistemas que se muestra en la Figura 9.14 se denomina conexion
en realimentacion o feedback (con realimentacion negativa unitaria), y aparece normalmente asociada a la estructura basica del lazo de control realimentado, donde
S1 es la planta y S2 es el controlador. Para obtener el modelo en variables de
estado del sistema en su conjunto, podemos apreciar que la entrada al sistema
completo satisface la ecuacion u(t) = u2 (t) + y1 (t), y que la salida del sistema es

240

Representaci
on de sistemas en variables de estado.

u1(t)

Captulo 9

y1(t)

x1(t)

u(t)

y(t)

+
u2(t)

x2(t)

y2(t)

Figura 9.13. Conexion en paralelo

y(t) = y1 (t). Ademas, suponemos que el sistema S1 (la planta) es estrictamente


propia, i.e., D1 = 0. De esta forma se obtiene


x 1 (t)
A1 B1 D2 C1
=
x 2 (t)
B2 C1

x1 (t)
y(t) = C1 0
x2 (t)

B1 C2
A2

x1 (t)
B1 D2
+
u(t)
x2 (t)
B2

(9.5.9)

(9.5.10)

u(t)

u2(t)
+

x2(t)

y2(t)

x1(t)

y1(t)

y(t)

u1(t)

Figura 9.14. Conexion en realimentacion (feedback )

Es importante mencinar que estos mismos resultados se aplican, cambiando lo


que corresponda, al caso de sistemas de tiempo discreto interconectados.
Para mas detalles, el lector interesado puede consultar la literatura, como por
ejemplo, [10].

Section 9.6.

9.6
9.6.1

Propiedades de los sistemas

241

Propiedades de los sistemas


Controlabilidad, Alcanzabilidad y Estabilizabilidad

Una cuestion muy importante que nos interesa en sistemas de control es cuando es
posible o no llevar el vector de estado a una punto especfico del espacio de estado,
a traves de las se
nales de entrada al sistema. Debemos recordar que el estado
de un sistema a menudo esta formado por variables internas de este, tales como
temperatura, presion, el nivel de alg
un estanque u otras, que en pueden ser crticas
e interesa mantenerlas controladas entre algunos valores especficos. En esta seccion
se revisan conceptos relacionados con este objetivo.
Controlabilidad
El concepto de controlabilidad se refiere a determinar si, a partir de una condici
on
inicial x0 , es posible o no llevar el vector de estado al origen, x = 0, en un tiempo
finito, usando la entrada u(t).
Ejemplo 9.14. Si observamos el modelo definido en (9.6.1), podemos apreciar que
la entrada u(t) no tiene efecto alguno sobre el estado x2 (t).

1
0 1 x1 (t)
x 1 (t)
u(t)
+
=
0
0 0 x2 (t)
x 2 (t)

(9.6.1)

Dado un estado inicial [x1 (0), x2 (0)]T , la entrada u(t) puede ser elegida para
llevar x1 (t) a cero, mientras que x2 (t) no sufre ning
un cambio. Diremos que este
sistema no es completamente controlable.
Formalmente, tenemos la siguiente definicion:
Definici
on 9.1. Un estado xo se dice controlable si existe un intervalo de tiempo
finito [0, T ] y una entrada {u(t), t [0, T ]} tal que x(T ) = 0. Si todos los estados
son controlables, entonces se dice que el sistema es completamente controlable.
Alcanzabilidad
Un concepto relacionado con la controlabilidad es la alcanzabilidad, usado en
ocasiones para sistemas de tiempo discreto. Formalmente se define como:
Definici
on 9.2. Un estado x 6= 0 se dice alcanzable, desde el origen, si dado
x(0) = 0, existe un intervalo de tiempo finito [0, T ] y una entrada {u(t), t [0, T ]}
tal que x(T ) = x. Si todos los estados del sistema son alcanzables se dice que el
sistema es completamente alcanzable.
Para sistemas de tiempo continuo, lineales e invariantes, no hay distincion entre
completa controlabilidad y alcanzabilidad. Sin embargo, el ejemplo siguiente ilustra
una diferencia entre estas propiedades para sistemas de tiempo discreto.

242

Representaci
on de sistemas en variables de estado.

Captulo 9

Ejemplo 9.15. Considere el sistema y la salida

x[t + 1] =

0, 5
1
x[t]
0, 25 0, 5
|
{z
}

= x[t] =

0, 5
0, 25

1
0, 5

x[0]

(9.6.2)

Ad

Podemos apreciar que el sistema es completamente controlable, pues x[t] = 0,


t 2 y x[0] R2 . Esto implica que cualquier estado inicial es controlable. Sin
embargo, ning
un estado diferente de cero es alcanzable desde el origen, ya que si
x[0] = 0, entonces x[t] = 0, t N.
Dada esta distincion entre controlabilidad y alcanzabilidad para sistemas discretos, en adelante usaremos el termino controlabilidad para referirnos al mas fuerte de
ambos conceptos. Generalmente, en el contexto de sistemas lineales e invariantes
en el tiempo se habla indistintamente de controlabilidad y alcanzabilidad.
Test de controlabilidad
Dado que no siempre es posible, a priori, determinar si un sistema es o no controlable, se presenta a continuacion una manera sistematica para determinar la
completa controlabilidad de un sistema.
Teorema 9.3. Considere el modelo de estado lineal e invariante en el tiempo, donde
A Rnn :

x(t)
= Ax(t) + Bu(t)
y(t) = Cx(t) + Du(t)

(9.6.3)
(9.6.4)

i) El conjunto de todos los estados controlables es el espacio rango de la matriz


de controlabilidad c [A, B] donde
4
c [A, B] = B

AB

A2 B . . .

An1 B

(9.6.5)

ii) El modelo es completamente controlable si y s


olo si c [A, B] tiene rango fila
completo.
Ejemplo 9.16. Considere el modelo en variables de estado dado por (9.6.1), con
matrices de estado


0 1
1
A=
;
B=
(9.6.6)
0 0
0
La matriz de controlabilidad del sistema es

1 0
c [A, B] = [B, AB] =
0 0

(9.6.7)

Section 9.6.

243

Propiedades de los sistemas

Claramente, el rango c [A, B] = 1, por tanto el sistema no es completamente


controlable.
222
El criterio para determinar la controlabilidad para sistemas de tiempo continuo
se aplica de igual forma para la alcanzabilidad en sistemas de tiempo discreto.
A continuacion, veremos que la controlabilidad de un sistema no depende de la
eleccion de las variables de estado. Si consideramos una transformacion de similaridad definida en la subseccion 9.3.3 y observamos que, para cualquier potencia de
la matriz A, A ` = T1 A` T , entonces
c [ A, B ] = T1 c [A, B]

(9.6.8)

lo que implica que c [ A, B ] y c [A, B] tienen el mismo rango.


El lector puede revisar que los modelos en variables de estado usados para describir se
nales, en la subseccion 9.2.3 corresponden a estados no controlables. De
hecho, cualquier modelo de estado en que B = 0 es completamente incontrolable .
P
erdida de controlabilidad
La falta de controlabilidad en un sistema en ocasiones puede originarse en la estructura misma del sistema, sin embargo, en otras ocasiones depende del valor numerico
de ciertos parametros. Esto se ilustra a traves del siguiente ejemplo.
Ejemplo 9.17. Considere el circuito electr
onico que se muestra en la Figura 9.15.
R1

iR1(t)

Op.Amp.
v+ (t)

v (t)

R3

C1

vi (t)

C3

R2

vC3(t)

vo (t)

Figura 9.15. Circuito electronico.


En primer lugar, nos interesa obtener una descripci
on en variables de estado
para el circuito. Se eligen como variables de estado x1 (t) = iR1 (t) y x2 (t) = vC3 (t).
Usando algunas leyes elementales en la parte izquierda del circuito, tenemos que

iC1 = C1

d
(vi v+ );
dt

Lo que permite obtener

iR1 =

vi v+
;
R1

iR2 =

v+
;
R2

iC1 = iR2 iR1

(9.6.9)

244

Representaci
on de sistemas en variables de estado.

diR1 (t)
(R1 + R2 )
1
=
iR1 (t) +
vi (t)
dt
C1 R1 R2
C1 R1 R2
v+ (t) = R1 iR1 (t) + vi (t)

Captulo 9

(9.6.10)
(9.6.11)

Y de manera similar, en el lado derecho del circuito, podemos plantear


dvC3 (t)
1
1
=
vC3 (t) +
v (t)
dt
R3 C3
R3 C3
vo (t) = vC3 (t)

(9.6.12)
(9.6.13)

El amplificador operacional asegura (idealmente) que v+ (t) = v (t), por tanto,


podemos combinar las ecuaciones (9.6.10) y (9.6.13), obteniendo

1
(R1 + R2 )
diR1 (t)

0
dt C1 R1 R2
iR1 (t)
C1 R1 R2
dv (t) =
vi (t)
1
R1
1 vC3 (t) +
C3

C3 R3
R 3 C3
R3 C3
dt

iR1 (t)
vo (t) = 0 1
vC3 (t)

(9.6.14)

(9.6.15)

La matriz de controlabilidad est


a dada por:

c [A, B] = B

1
R1 R2 C1
AB =

1
R3 C3

(R1 + R2 )

(R1 R2 C1 )2

(R2 C1 + R3 C3 )
(R3 C3 )2 R2 C1

(9.6.16)

y
det (c [A, B]) =

R2
(R1 C1 + R3 C3 )
(R1 R2 R3 C1 C2 )2

(9.6.17)

donde se observa que el sistema es completamente controlable si y s


olo si R1 C1 6=
R3 C3
Esta condici
on tiene una interpretaci
on muy importante desde el punto de vista
de la funci
on de transferencia del sistema. Si se aplica transformada de Laplace
a las ecuaciones (9.6.10)-(9.6.13), la funci
on de transferencia desde vi (t) a vo (t)
(recordando que V+ (s) = V (s) ) est
a dada por

1
1
s+
Vo (s) V+ (s)
Vo (s)
R1 C1
R3 C3

=
=

(9.6.18)
1
R1 + R2
Vi (s)
V (s) Vi (s)
s+
s+
R3 C3
R1 R2 C1

Section 9.6.

245

Propiedades de los sistemas

Donde se aprecia que la perdida de la completa controlabilidad cuando R1 C1 =


R3 C3 (obtenida a partir de (9.6.17)), se traduce en una cancelaci
on de un cero
con un polo en la funci
on de transferencia, i.e., el cero de la mitad izquierda del
circuito en la Figura 9.15 se cancela con el polo de la otra parte del circuito. Este
hecho ser
a analizado con mayor detalle en la secci
on 9.6.3.
222
Gramiano de controlabilidad
El test de controlabilidad da una respuesta afirmativa o negativa sobre la (completa)
controlabilidad del modelo de un sistema. Sin embargo, saber que un sistema es
completamente controlable no nos dice nada respecto al grado de controlabilidad,
es decir, que tan difcil o facil es controlar un estado del sistema. Para sistemas
estables se puede cuantificar el esfuerzo de control a traves de la energa involucrada
en la se
nal de entrada u(t) aplicada desde t = para alcanzar el estado x(0) = x0
en t = 0:
Z

J(u) =

u(t)T u(t)dt

ku(t)k dt =

(9.6.19)

Puede demostrarse que la mnima energa de control es


J(uopt ) = xT0 P1 x0 0

(9.6.20)

donde
Z

P=

eAt BBT eA t dt

(9.6.21)

La matriz P Rn se denomina gramiano de controlabilidad10 , y mide la


controlabilidad del vector de estado x(0). Para apreciar por que esta matriz proporciona una medida de controlabilidad relativa, podemos recurrir a los resultados
del apendice F. Supongamos que los autovalores de P son 1 , 2 ,. . ., n y que los
autovectores asociados son v1 , v2 , . . ., vn , respectivamente. Entonces
P=

n
X

i vi P1 =

i=1

n
X

1
i vi

(9.6.22)

i=1

Ademas, dado que los autovectores son ortogonales, existen i R, i = 1, 2, ...n


tal que
x0 =

n
X

i vi

(9.6.23)

i=1
10 Note que P es una matriz sim
etrica, por lo tanto sus n autovalores son reales y no repetidos,
y sus autovectores son ortogonales

246

Representaci
on de sistemas en variables de estado.

Captulo 9

As, sin perdida de generalidad (9.6.20) se puede re-escribir como


J(uopt ) =

xT0 P1 x0

n
X

i 1
i

(9.6.24)

i=1

De (9.6.24) se observa que si x0 esta alineado con v` , donde ` es muy peque


no,
entonces el costo (energa) de llevar el estado desde el origen, en t = , hasta
x0 en t = 0, es muy grande y diremos que ese estado en particular es difcilmente
controlable.
Es importante destacar que la existencia de la integral en la ecuacion (9.6.21)
esta garantizada pues los autovalores de la matriz A tiene parte real negativa, pues
el sistema es estable.
El gramiano de controlabilidad P definido en (9.6.21) satisface la ecuacion de
Lyapunov
AP + PAT + BBT = 0

(9.6.25)

En el caso de sistemas de tiempo discreto, tenemos las siguienes ecuaciones para


el gramiano de controlabilidad:

Ad t Bd Bd T (Ad T )t

(9.6.26)

Ad Pd Ad T Pd + Bd Bd T = 0

(9.6.27)

Pd =

t=0

el que satisface

La suma definida (9.6.26) existe si y solo si el sistema de tiempo discreto es


estable, lo que es equivalente a requerir que sus autovalores se encuentran dentro
del disco unitario.
Ejemplo 9.18. Podemos analizar el modelo del Ejemplo 9.17 en la p
agina 243,
donde el circuito electr
onico se describi
o por el modelo de estado (9.6.14)-(9.6.15).
Si queremos apreciar la informaci
on dada por el gramiano de controlabilidad, definido
en (9.6.21), cuando el modelo est
a cerca de perder la completa controlabilidad, podemos considerar valores para los par
ametros que aseguren R1 C1 R3 C3 .
Si elegimos11
R1 = R2 = R3 = 1[K];

C1 = 0.9[mF ];

C3 = 1[F ]

(9.6.28)

El modelo entonces est


a dewscrito por
11 Note

que hemos utilizado unidades especiales, donde mF corresponde a 103 [F] y K a 103
[]. Esto hace que el tiempo sea medido en segundos, la corriente en mili-Amp`
eres y la tensi
on,
en Volts.

Section 9.6.

247

Propiedades de los sistemas

20

10
iR1 (t)
9
0
i R1 (t)
=
+ 9 vi (t)
1 1 vC3 (t)
1
v C3 (t)

iR1 (t)
vo (t) = 0 1
vC3 (t)

(9.6.29)
(9.6.30)

En este caso, algunos estados, es decir ciertas combinaciones de valores de valores para iR1 y vC3 , son m
as dificiles de alcanzar que otros. Para verificar esto
podemos calcular el gramiano de controlabilidad definido en (9.6.21), resolviendo:
0 = AP + PAT + BBT
20


p11 p12
p
9
0
0=
+ 11
p21
1 1 p21 p22
lo cual lleva a

0.2778 0.2586
P=
0.2586 0.2414

p12
p22

20
9
0

1
+
1

10
9

(9.6.31)

= 10

10

(9.6.32)

1.4616 1.5660

1.5660 1.6820

(9.6.33)

Los autovalores de P son 1 = 0.0003 y 2 = 0.0.5188 con los correspondientes


autovectores v1 = [0.6818 0.7315]T y v2 = [0.7315 0.6818]T .
As podemos calcular, usando la ecuaci
on (9.6.20), la mnima energa de control
necesaria para llevar el estado x(t), from 0 in t = , to x0 in t = 0. Suponemos
que x0 is colineal con los autovectores
x0 = v1 J(uopt ) = 3141.7
x0 = v2 J(uopt ) = 1.9274

(9.6.34)
(9.6.35)

Podemos as verificar que la energa de control para alcanzar x0 = v1 es tres

ordenes de magnitud mayor que la energa necesaria para alcanzar x0 = v2 .


Tambien, si substitutimos los valores numericos de los par
ametros en la ecuaci
on
(9.6.18), vemos que la funci
on de transferencia resulta dada por

s + 1 + 91
Vo (s)
1

=
Vi (s)
(s + 1)
s + 20
9

(9.6.36)

donde observamos una cuasi-cancelaci


on de un polo con un cero.
222
La idea de gramiano ha sido extendida para inclur el caso de sistemas inestables,
como el lector interesado puede conocer consultando [11].

248

Representaci
on de sistemas en variables de estado.

Captulo 9

Descomposici
on can
onica y estabilizabilidad
En el caso que un sistema no sea completamente controlable, este puede decomponerse un subsistema controlable y uno completamente incontrolable de la siguiente
forma
Lema 9.6. Considere un sistema para el cual rank{c [A, B]} = t < n, entonces
existe una transformaci
on de similaridad T tal que x = T1 x,
A = T1 AT;

B = T1 B

(9.6.37)

y A, B tiene la forma

Ac
A=
0

A12
;
Anc


Bc
B=
0

(9.6.38)

donde Ac tiene dimensi


on k y (Ac , Bc ) es completamente controlable.
222
Este resultado establece cuales estados pueden y cuales no pueden ser llevados a
cero. Para apreciar mejor este hecho, el estado y la salida se expresna en la forma:


x c
Ac
=
x nc
0

y = Cc


A12
xc
Bc
+
u
0
Anc xnc

xc
+ Du
Cnc
xnc

(9.6.39)
(9.6.40)

El subespacio controlable del modelo en variables de estado esta compuesto


por todos los estados generados como combinacion de los estados en xc . La estabilida de este subespacio esta determinada por la ubicaion de los autovalores de la
matriz Ac .
Por otra parte, el subespacio no controlable esta formado por todos los
estados generador como combinacion lineal de los estados en xnc . La estabilidad de
este subespacio queda determinada por los autovalores de la matriz Anc .
De esta forma, la entrada no tiene efecto alguno sobre el subespacio no controlable, por lo que podramos esperar que este subespacio fuera al menos estable, de
manera que sus estados decaigan naturalmente al origen. En este caso el modelo
en variables de estado se denomina estabilizable .
Una consecuencia clave de la descripcion dada por (9.6.39)-(9.6.40) es el hecho
que la funcion de transferencia queda dada por
H(s) = Cc (sI Ac )1 Bc + D

(9.6.41)

La ecuacion (9.6.41) dice que los autovalores del subespacio no controlable no


pertenecenal conjunto de polos de la funcion de transferencia. Esto implica que
existe una cancelacion de los polos correspondientes a las races de det(sI Anc ).

Section 9.6.

249

Propiedades de los sistemas

Forma can
onica controlable
Lema 9.7. Considere un modelo de estado completamente controlable para un sistema SISO. Entonces, existe una transformaci
on de similaridad tal que el modelo
de estado se puede expresar en la forma can
onica controlable:

0 0 ... 0
0
1
1 0 . . . 0
0


2
(9.6.42)
A0 = 0 1 . . . 0
B0 = 0

.. .. . .
..
..
..
. .
.
. .
.
0

...

n1

donde n + n1 n1 + + 1 + 0 = det(I A) es el polinomio caracterstico


de A.
222
Lema 9.8. Considere un modelo de estado completamente controlable para un sistema SISO. Entonces, existe una transformaci
on de similaridad que convierte el
modelo de estado en la forma can
onica del controlador:

n1
1

A00 = 0
..
.
0

n2
0
1
..
.

...
...
...
..
.

1
0
0
..
.

...

0
0

..
.
0


1
0


B00 = 0
..
.
0

(9.6.43)

donde
n + n1 n1 + + 1 + 0 = det(I A) es el polinomio caracterstico de
A.
222

9.6.2

Observabilidad, Reconstructibilidad y Detectabilidad

Si pensamos en el modelo de estado de un sistema dado, podemos suponer que si se


observa la salida de un sistema durante un intervalo de tiempo, entonces podramos
obtener informacion sobre el estado. La propiedad asociada a esta idea se denomina
observabilidad (o reconstructibilidad).
Observabilidad
La observabilidad de un sistema se refiere a que se puede decir de su estado a partir
de mediciones de su salida.
Ejemplo 9.19. Si consideramos el sistema definido por el modelo en variables de
estado

250

Representaci
on de sistemas en variables de estado.


x 1 (t)
1
=
x 2 (t)
1

0
x1 (t)
1 x2 (t)

y(t) = 1

x1 (t)
0
x2 (t)

Captulo 9

(9.6.44)

Podemos apreciar que y(t) queda determinada por x1 (t), mientras que la otra
variable de estado x2 (t) no tiene influencia alguna sobre la salida. Por tanto el
sistema no es completamente observable.
Se puede formalizar la definicion de observabilidad de la siguiente forma:
Definici
on 9.3. El estado xo 6= 0 se dice no observable si dado x(0) = xo , y
u(t) = 0 para t 0, entonces y(t) = 0 para t 0, i.e., no se aprecia efecto alguno
de xo sobre la salida del sistema.
El sistema se dice completamente observable si no existe estado inicial, diferente de cero, que sea no observable.
Reconstructibilidad
Existe otro concepto relacionado estrechamente al de la observabilidad, que se denomina reconstructibilidad. Este se refiere a lo qye se puede decir de x(K),
habiendo observado valores pasados de la salida y[t], durante 0 t K.
Para sistemas de tiempo continuo, lineales e invariantes, no es necesario hacer distincion entre observabilidad y reconstructibilidad. Sin embargo, el siguiente
ejemplo ilustra que para sistemas de tiempo discreto, estos conceptos son diferentes.
Ejemplo 9.20. Considere el modelo en espacio de estado
x[t + 1] = 0
y[t] = 0

x[0] = xo

(9.6.45)
(9.6.46)

Este sistema es claramente recostruible para todo K 1, ya que sabemos que


x[K] = 0 para K 1. Sin embargo, es comlpetamente no observable pues y[t] = 0,
t sin importar xo .
Dada la diferencia entre observabilidad y reconstructibilidad, en adelante usaremos el termino observabilidad para referirnos al mas fuerte de ambos conceptos.
Test de observabilidad
Un test de observabilidad para un sistema se establece en el siguiente teorema..
Teorema 9.4. Considere el sistema en variables de estado, continuo, lineal e invariante en el tiempo, donde A Rnn

x(t)
= Ax(t) + Bu(t)

(9.6.47)

y(t) = Cx(t) + Du(t)

(9.6.48)

Section 9.6.

251

Propiedades de los sistemas

i) El conjunto de estados no observables es igual al subespacio nulo de la matriz


de observabilidad o [A, C] donde

C
CA
..
.

o [A, C] =

n1
CA

(9.6.49)

ii) El sistema es completamente observable si y solo si o [A, C] tiene rango


columna completo n.
Ejemplo 9.21. Considere el siguiente modelo en espacio de estado:

3
A=
1

2
;
0


1
B=
;
0

C= 1

(9.6.50)

La matriz de observabilidad est


a dada por

o [A, C] =


C
1
=
CA
4

1
2

(9.6.51)

Entonces el rango de o [A, C] = 2, lo que dice que el sistema es completamente


observable.
Ejemplo 9.22. Si observamos el modelo definido en (9.6.44), tenemos

1
A=
1

0
;
1

C= 1

(9.6.52)

La matriz de observabilidad es:

o [A, C] =

1 0
1 0

(9.6.53)

Se obtiene el rango de o [A, C] = 1 < 2 y el sistema no es completamente


observable.
222
Este resultado puede aplicarse de igual forma a sistemas de tiempo discreto.
La observabilidad (o no observabilidad) de un sistema es una propiedad que no
depende de la eleccion de las variables de estado. Puede demostrarse que el rango
de la matriz de observabilidad definida en la ecuacion 9.6.49 no cambia cuando se
aplica una transformacion de similaridad T (ver subseccion 9.3.3).

252

Representaci
on de sistemas en variables de estado.

Captulo 9

P
erdida de observabilidad
La falta de observabilidad de un sistema puede deberse a caractersticas propias de
su estructura. Sin embargo, tambien es posible que la observabilidad de un modelo
se vea afectada por valores numericos particulares en algunos de sus parametros,
de manera analoga a lo que sucede con la controlabilidad, tal como se analizo en
la subseccion 9.6.1. Es esperable que los parametros afecten la completa observabilidad de un modelo de una manera similar. Para esto se propone el siguiente
ejemplo, que es el dual del Ejemplo 9.17 en la pagina 243.
Ejemplo 9.23. Consideremos el circuito electr
onico de la Figura 9.16, que es el
mismo de la Figura 9.15, donde se han intercambiado las redes electricas a la derecha
e izquierda del amplificador operacional. Por tanto, podemos utilizar ecuaciones
similares para obtener un modelo de estado del sistema. Como variables de estado
se han escogido x1 (t) = vC3 (t) y x2 (t) = iR1 (t).
Op.Amp.
R3

v+ (t)

iR1(t)
+

R1

v (t)

vi (t)

vC3(t)

C3
C1

R2

vo (t)

Figura 9.16. Circuito electronico.


Para la parte izquierda del circuito, tenemos
dvC3 (t)
1
1
=
vC3 (t) +
vi (t)
dt
R 3 C3
R 3 C3
v+ (t) = vC3 (t)

(9.6.54)
(9.6.55)

Y para la parte derecha, tenemos


diR1 (t)
(R1 + R2 )
1
=
iR1 (t) +
v (t)
dt
C1 R1 R2
C1 R1 R2
vo (t) = R1 iR1 (t) + v (t)

(9.6.56)
(9.6.57)

El amplificado operacional, conectado como un seguidor de voltaje, asegura (idealmente) que v+ (t) = v (t), por tanto podemos combinar los modeloes de estado dados
por las ecuaciones (9.6.54) a (9.6.57):

Section 9.6.

253

Propiedades de los sistemas


1
dvC3 (t)

R C
dt =
3 3
di (t)
1
R1
dt
C1 R1 R2

vo (t) = 1

1
0
vC3 (t)

+ R3 C3 vi (t)

(R1 + R2 )

iR1 (t)
0
C1 R 1 R 2

v (t)
C3

R1

iR1 (t)

(9.6.58)

(9.6.59)

La matriz de observabilidad es

C
=
c [C, A] =

CA

1
1
1

R3 C3
R2 C1

R1

R1 + R2

(9.6.60)

R2 C1

Para determinar la completa observabilida es necesario determinar si esta matriz


tiene o no rango completo, por ejemplo, calculando el determinante:
det (c [C, A]) =

1
(R1 C1 + R3 C3 )
R3 C3 C1

(9.6.61)

donde podemos conclur que el modelo del sistema es completamente observable si y


s
olo si R1 C1 6= R3 C3 , que es la misma condici
on que se obtuvo en el Ejemplo 9.17
en la p
agina 243.
Aplicando transformada de Laplace a las ecuaciones (9.6.56)-(9.6.55) obtenemos
la funci
on de transferencia de Vi (s) a Vo (s).

1
1
s+
Vo (s)
V+ (s) Vo (s)
R1 C1
R
C3
3

=
=
R1 + R2
1
Vi (s)
Vi (s) V (s)
s+
s+
R1 R2 C1
R3 C3

(9.6.62)

La condici
on R1 C1 = R3 C3 produce una perdida de la completa observabilidad,
que se traduce en una cancelaci
on de un polo con un cero en la funci
on de
transferencia, i.e., el polo del lado izquierdo del circuito en la Figure 9.16 se cancela
con el cero del lado derecho. Existe un diferencia entre las funciones de transferencia
en (9.6.62) y (9.6.18). El resultado final es el mismo, pero el orden de la cancelaci
on
es diferentes en cada caso. La cancelaci
on cero-polo se relaciona con la perdida
de completa observabilidad y la cancelaci
on polo-cero se relaciona con la perdida
de completa controlabilidad. Estos conceptos ser
an discutidos en mayor detalle en
la secci
on 9.6.3.

254

Representaci
on de sistemas en variables de estado.

Captulo 9

Gramiano de observabilidad
El test de observabilidad planteado en el Teorema 9.4 en la pagina 250 permite
determinar si un sistema es o no es completamente observable. sin embargo, en
ocasiones puede ser de interes determinar el grado de observabilidad para un modelo
en particular. Para esto, para sistemas estables, podemos cuantificarla energa en
la se
nal de salida y(t), cuando no hay entrada (u(t) = 0) y el estado es x(0) = x0
at t = 0
Z
Z
E(x0 ) =
ky(t)k2 dt =
y(t)T y(t)dt
(9.6.63)
0

Puede probarse que la energa en la salida es


Z

E(xo ) =

ky(t)k2 dt = xo T Qxo

(9.6.64)

donde
Z
Q=

eA t CT C eAt dt

(9.6.65)

La matriz Q se denomina gramiano de observabilidad, y cuantifica la observabilidad del vector de estado x(0). Si esta matriz es peque
na, significa que tenemos
una debil contribucion del estado inicial x0 en la energa de la salida y(t). De
hecho, podemos apreciar el efecto de cada una de las variables de estado haciendo,
por ejemplo, xo = [0, . . . , 0, 1, 0, . . . , 0]T .
Note que la existencia de la integral definida en (9.6.65) queda garantizada pues
el sistema es estable, lo que asegura que los autovalores de la matriz A tienen parte
real negativa.
Ademas, el gramiano de observabilidad Q definido en (9.6.65) satisface la ecuacion
de Lyapunov
AT Q + QA + CT C = 0

(9.6.66)

Para sistemas estables de tiempo discreto, el gramiano de controlabilidad queda


definido por

(Ad T )t Cd T Cd Ad t

(9.6.67)

Ad T Qd Ad Qd + Cd T Cd = 0

(9.6.68)

Qd =

t=0

Which satisfies

Section 9.6.

255

Propiedades de los sistemas

Ejemplo 9.24. Consideramos el modelo del Ejemplo 9.23, descrito por el modelo
de estado (9.6.58)-(9.6.59), para apreciar la utilidad del gramiano de observabilidad
(9.6.65), en especial cuando el modelo est
a pr
oximo a perder la completa observabilidad, i.e., cuando R1 C1 R3 C3 .
Suponiendo los mismos valores para las componentes que en el Ejemplo 9.18 en
la p
agina 246, para R1 , R2 , R3 , C1 y C3 tenemos:



v C3 (t)
1
0
vC3 (t)
1
+
v (t)
=
20
10
i
(t)
0 i

i R1 (t)
R1
9
9

vC3 (t)
1
1
vo (t) =
iR1 (t)

(9.6.69)
(9.6.70)

En este sistema ciertas combinaciones del estado (en t = 0) tendr


an poco efecto
en la salida. Para verificar esto podemos calcular el gramiano de observabilidad
definido en (9.6.21), resolviendo:
0 = AT Q + QA + CT C


10
1
q11 q12
q
9
0=
+ 11
q
q
q21
0 20
21
22
9

q12
q22

1
10
9

(9.6.71)

0
1
1
+
1
20
9

(9.6.72)

, lo cual arroja

0.2414
Q=
0.2328

0.2328
0.2250

(9.6.73)

Los autovalores de Q son 1 = 0.0003 y 2 = 0.4661 con los correspondientes


autovectores v1 = [0.6946 0.7194]T y v2 = [0.7194 0.6946]T .
Ahora podemos evaluar el efecto de ciertos estados iniciales en la salida del
sistema. Consideraremos x0 = v1 y x0 = v2 para calcular la energa, tal como se
define en la ecuaci
on (9.6.64):
x0 = v1 E(x0 ) = 0.000287
x0 = v2 E(x0 ) = 0.4661

(9.6.74)
(9.6.75)

donde se observa que la comparaci


on arroja tres
ordenes de magnitud de diferencia.
Estos indica que ciertos estados son apenas observables en la salida.
Espe problema de observabilidad tambien puede ser apreciado en la funci
on de
transferencia

s + 1 + 19
Vo (s)
1

=
(9.6.76)
20
Vi (s)
(s + 1)
s+ 9
donde hay una cuasi-cancelaci
on entre un polo y un cero.

256

Representaci
on de sistemas en variables de estado.

Captulo 9

Principio de Dualidad
Podemos notar un paralelo notable entre los resultados del Teorema 9.3 en la
pagina 242 y del Teorema 9.4 en la pagina 250, y tambien en las definiciones de los
gramianos (9.6.21) y (9.6.65). Esto se conoce como el principio de dualidad , y
puede formalizarse de la siguiente forma:
Teorema 9.5 (Dualidad). Considere el modelo en variables de estado descrito
por la 4-tupla (A, B, C, D). Entonces el sistema es completamente controlable si y
solo si el sistema dual (AT , CT , BT , DT ) es completamente observable.
Descomposici
on can
onica y detectabilidad
El teorema anterior puede ser a menudo utilizado para extender un resultado sobre
controlabilidad a un resultado sobre la observabilidad y vice versa. El dual del
Lema 9.6 en la pagina 248 es :
Lema 9.9. Si rango{o [A, C]} = k < n, existe una transformaci
on de similaridad
T tal que x = T1 x, A = T1 AT, C = CT, entonces C y A toman la forma

Ao
0
A=
C = Co 0
(9.6.77)
A21 Ano
donde Ao tiene dimensi
on k y el par (Co , Ao ) is completamente observable.
Este resultado tiene una relevanacia similar al de la propiedad de controlabilidad
y su descomposicion asociada. Para apreciar esto, aplicamos el dual del Lema 9.6
en la pagina 248 para expresar el estado (transformado) y las ecuaciones de salida
en la forma particionada que se muestra a continuacion:


x o (t)
Ao
=
x no (t)
A21

y(t) = Co

0
xo (t)
Bo
+
u(t)
Ano xno (t)
Bno

xo (t)
+ Du(t)
0
xno (t)

(9.6.78)
(9.6.79)

La descripcion anterior pone en evidencia el problema que puede surgir cuando


se intenta controlar un sistema usando solo su salida, pues en esta no aparece
informacion alguna sobre el estado xno .
El subespacio observable de un modelo es el espacio formado por todos los
estados que se generan como combinaciones lineales de los estados en xo . La estabilidad de este subespacio queda determinada por la ubicacion de los autovalores
de la matriz Ao .
El subespacio no observable de un modelo, es el espacio formado por todos
los estados generados como combinacion lineal de los estados en xno . La estabilidad
de este subespacio queda determinada por los autovalores de la matriz Ano .
Si el subespacio no observable es estable, decimos que el sistema es detectable.

Section 9.6.

257

Propiedades de los sistemas

Una consecuencia clave de la descripcion (9.6.78)-(9.6.79) es el hecho que la


funcion de transferencia esta dada por
H(s) = Co (sI Ao )1 Bo + D

(9.6.80)

La ecuacion (9.6.80) establece que los autovalores del subespacio no observable


no pertenecen al conjunto de polos de la funcion de transferencia del sistema. Esto
implica que existe una cancelacion de todos los polos correspondientes a las races
de det(sI Ano ).
Forma can
onica observable
Tambien existen las formas canonicas duales a las presentadas en los Lemas 9.7
en la pagina 249 y 9.8 en la pagina 249. Por ejemplo, el dual del Lema 9.8 en la
pagina 249 es
Lema 9.10. Considere un sistema escalar o SISO, completamente observable. Entonces existe una transformaci
on de similaridad tal que lleva al modelo a la forma
can
onica observable:

n1 1
bn1
..

..
..
.

.
.

x(t)

= .
(9.6.81)
x(t) + . u(t)
.
..

1
.
0
0
0
b0

y(t) = 1 0 . . . 0 x(t) + Du(t)


(9.6.82)

9.6.3

Descomposici
on Can
onica

Podemos analizar a
un mas la estructura de los sistemas dinamicos, considerando
aquellos que son solo parcialmente observables y controlables. Estos pueden ser
separados en subsistemas completamente controlables y completamente observables.
Los dos resultados de los Lemas 9.6 y 9.9 pueden combinarse para aquellos
sistemas que no son ni completamente observables ni completamente controlables.
Podemos apreciar esto en el siguiente Teorema.
Teorema 9.6 (Descomposici
on Can
onica). Considere un sistema descrito por
un modelo en espacio de estado. Entonces, siempre existe una transformaci
on de
similaridad T tal que el modelo transformado, con su nuevo vector de estado x =
T1 x toma la forma:

Aco
A21
A=
0
0

0
A22
0
0

A13
A23
A33
A34

0
A24
;
0
A44


B1
B2

B=
0 ;
0

C = C1

0 C2

(9.6.83)

258

Representaci
on de sistemas en variables de estado.

Captulo 9

donde
i) El subsistema [Aco , B1 , C1 ] es tanto completamente controlable como comletamente observable, y tiene la misma funci
on de transferencia que el sistema
original (ver Lema 9.11).
ii) El subsistema

Aco
A21


0
B1
,
, C1
A22
B2

(9.6.84)

es completamente controlable.
iii) El subsistema

Aco
0


A13
B1
,
, C1
0
A33

C2

(9.6.85)

es completamente observable.
222
La descomposicon canonica descrito en el Teorema 9.6 tiene una importante
consecuencia para la funcion de transferencia del modelo, ya que esta solo refleja el
subespacio completamente observable y completamente controlable.
Lema 9.11. Considere la matriz de transferencia H(s) dada por
Y(s) = H(s)U(s)

(9.6.86)

H = C(sI A)1 B + D = C1 (sI Aco )1 B1 + D

(9.6.87)

Entonces

donde C1 , Aco y B1 son las de las ecuaciones (9.6.83). Esta descripci


on de estado
es una realizaci
on mnima de la funci
on de transferencia.
222
Si M es una matriz cuadrada y denotamos {M} el conjunto de autovalores de
M, entonces
{A} = {Aco } {A22 } {A33 } {A44 }
donde
{A}
{Aco }
{A22 }
{A33 }
{A44 }

Autovalores
Autovalores
Autovalores
Autovalores
Autovalores

del
del
del
del
del

sistema
subsistema
subsistema
subsistema
subsistema

controlable y observable
controlable pero no observable
no controlable pero observable
no controlable y no observable

(9.6.88)

Section 9.7.

259

Observadores

Observamos que la controlabilidad de un sistema dado depende de la estructura


de sus puertas de entrada, i.e., donde se aplican, en el sistema, las entradas manipulables. Por tanto, los estados de un subsistema pueden ser no controlables desde
una entrada dada, pero completamente controlables desde otra. Esta distincion es
de fundamental importancia en el dise
no de sistemas de control, ya que no todas
las entradas de una planta pueden ser manipuladas (considere, por ejemplo, las
perturbaciones), y puede que sea imposible usarlas para llevar las variables de la
planta a ciertas ubicaciones del espacio de estado.
Analogamente, la observabilidad de un sistema depende de que salidas se consideren. Algunos estados pueden ser no observables desde una salida dada, pero
puede ser completamente observables desde otra. Esto tambien tiene un significado
importante en un sistema de control por realimentacion, ya que algunos estados de
la planta puede que no aparezcan en la selida que es medida y retroalimentada.
Sin embargo, puede que estos estados esten presentes en variables internas crticas
importantes para el problema de control.

9.7
9.7.1

Observadores
Conceptos b
asicos

Cuando las variables de estado de un sistema deben ser medidas para monitoreo,
control u otros propositos, existen importantes aspectos tanto tecnicos como economicos
a considerar. Un observador es un estimador de las variables de estado en base a un
modelo del sistema, mediciones de la salida de la planta y(t) y de su entrada u(t).
Este problema es una generalizacion de como medir indirectamente las variables de
un sistema usando un modelo de un sistema y otras variables mas faciles de medir.

9.7.2

Din
amica del observador

Supongamos que un sistema tiene un modelo de estado dado por las ecuaciones
(9.3.26)-(9.3.27) con D = 0 (sistema estrictamente propio). Entonces, la estructura
general de un observador clasico para el estado del sistema es la que se muestra en
la Figura 9.17, donde la matriz J es la ganancia del observador.
u(t)

y(t)
Sistema

(sI-A)
+

-1

^ (t)
x

Figura 9.17. Observador del estado clasico


La ecuacion del observador es entonces

260

Representaci
on de sistemas en variables de estado.

Captulo 9

d
x(t)
= A
x(t) + Bu(t) + J(y(t) C
x(t))
(9.7.1)
dt
Una pregunta natural es: si conocemos el modelo exacto del sistema y su entrada,
porque es necesario entonces usar la salida?. La respuesta es que se requiere usar
la medici
on de la salida porque no conocemos el estado inicial del sistema.
Esto se puede apreciar a partir de la ecuacion para el error de estimacion del estado
x
(t) = x(t)
x(t). La ecuacion se obtiene restando (9.7.1) de (9.3.26). Esto conduce
a
d
x(t)
= (A JC)
x(t)
(9.7.2)
dt
En esta ecuacion observamos que el error de estimacion converge a cero, en
caso de ser inicialmente distinto de cero, si y solo si todos los autovalores de la
matriz A JC tienen parte real negativa, i.e., si el polinomio del observador
E(s) = det(sI A + JC) es estrictamente Hurwitz.
Discusi
on
La ecuacion (9.7.2) es valida solo si el modelo es un representacion exacta del
sistema bajo analisis. Errores de modelado tendran consecuencias sobre el
observador, tales como error de estimacion diferente de cero.
Si el par (A, C) es completamente observable, entonces los autovalores de
A JC pueden situarse arbitrariamente sobre region de estabilidad del plano
complejo. Por tanto, la velocidad de convergencia de la estimacion es consecuencia de una eleccion en el dise
no del observador. Estos autovalores se
conocen como los polos del observador.
Si el par (A, C) es detectable, entonces el observador asegura error estacionario cero asitoticamente, a pesar que no todos los autovalores de la matriz
A JC pueden situarse a gusto.
Si el sistema no es completamente observable, y el subespacio no observable
contiene modos inestables, entonces el error de estimacion no converge.
Para ilustrar el uso de un observador se retoma el Ejemplo 9.8.
Ejemplo 9.25. Supongamos que queremos para el modelo de estado del Ejemplo
9.8, queremos que los polos del observador se ubiquen en s = 4, s = 6 y s = 8.
Entonces debemos calcular la ganancia del observador J, por ejemplo, usando alg
un
software como Matlab. De esta forma se obtiene

J = 4.5247

7.5617

4.1543

(9.7.3)

Para apreciar la din


amica del observador, asumiremos que el estado inicial del
sistema es x(0) = [1 2 1]T y que la entrada del sistema es una se
nal cuadrada

Section 9.7.

261

Observadores

de amplitud 1, y frecuencia igual a 1 [rad/s]. El observador se inicia con x


(0) = 0.
Entonces, la norma del error de estimaci
on, ||
x(t)|| evoluciona como se muestra en
la Figura 9.18
12

Norma del error

10
8
6
4
2
0
0

0.2

0.4

0.6

0.8

1.2

1.4

1.6

1.8

Tiempo [s]

Figura 9.18. Error de estimacion del estado


Es importante notar que, en este ejemplo, la planta es inestable, lo que significa
que tanto el estado como su estimaci
on crecen indefinidamente. Sin emnargo, bajo
el supuesto de un modelo exacto, el error de estimaci
on converge a cero.
222
Para darle una interpretacion fsica a la filosofa del uso de observadores, se
presenta a continuacion un ejemplo aplicado:
Ejemplo 9.26. La Figura 9.19 muestra el esquema de un sistema rotacional en que
la entrada es el torque (t). La potencia en el sistema se transmite a traves de un
sistema de engranajes en dos ruedas de radios r1 y r2 y momentos de inercia I1 e
I2 , respectivamente. La rotaci
on de ambos ejes es amortiguada por un roce viscoso
con coeficientes D1 y D2 , y existe un resorte de torsi
on no despreciable en el eje
2 que tambien ha sido modelado. La carga en el sistema se ha includo como un
momento de inercia I3 . Lo que nos interesa es estimar la velocidad 3 de la carga
want to estimate the load speed en base a la medici
on de velocidad en el eje 1 1, 1 .
D1

1
I
1 1 1
r1

D2

K2

r2
I2

2 2
2

3
3

I3

Figura 9.19. Sistema rotacional


En primer lugar, es necesario obtener el modelo de estado del sistema, para lo
cual consideramos el mnimo conjunto de variables del sistemas que cuatifican la energa almacenada en el. El sistema tiene cuatro componentes capaces de almacenar

262

Representaci
on de sistemas en variables de estado.

Captulo 9

energa: tres momentos angulares y un resorte. Sin embargo, la energa almacenada


en I1 e I2 puede calcularse tanto a partir de 1 como de 2 ,i.e., necesitamos solo
una de estas velocidades, ya que satisfacen la relaci
on
1 (t)
r2
= ; and 1 (t)1 (t) = 2 (t)2 (t)
(9.7.4)
2 (t)
r1
Entonces, una elecci
on de variables, motivada por la realidad fsica, puede ser
x1 (t) = 1 (t)
x2 (t) = 2 (t) 3 (t)

(9.7.5)
(9.7.6)

x3 (t) = 3 (t)

(9.7.7)

A partir de leyes elementales tenemos


d 1 (t)
+ 1 (t)
(9.7.8)
dt
r2
d 2 (t)
2 (t) = 1 (t) = D2 2 (t) + I2
+ K2 (2 (t) 3 (t))
(9.7.9)
r1
dt
d 3 (t)
0 = K2 (3 (t) 2 (t)) + I3
(9.7.10)
dt
Dado que escogimos 1 (t) como la variable medible del sistema, o sea, como
salida, obtenemos finalmente el modelo
(t) = D1 1 (t) + I1

2
r1 r2 K2
r1 D2 + r22 D1
2

2
r 2 I2 + r 2 I1
r
1
2
1 I2 + r2 I1

dx(t)
r1
=
0

dt
r2

K2
0
I3
{z
|

r22
0
r2 I + r2 I
1 2

2 1

(t)

1 x(t) +
0

0
0
|
{z
}
}

(9.7.11)

1 (t) = 1 0 0 x(t)
| {z }

(9.7.12)

Para evaluar las propiedades de observabilidad de este sistema, se escogen los


siguientes valores numericos para los par
ametros:

N ms
r1 = 0, 25[m]; r2 = r3 = 0, 50[m]; D1 = D2 = 10
rad

2
Nm
N ms
N ms2
K2 = 30
; I1 = 2.39
; I2 = I3 = 38.29
rad
rad
rad

(9.7.13)
(9.7.14)

Section 9.7.

263

Observadores

Con estos valores tenemos que

1.045 1.254
0
A = 0, 5
0
0, 784

0
1 ;
0

0, 084
B= 0
0

(9.7.15)

A continuaci
on utilizamos el test presentado en 9.6.2, con lo que se obtiene la
matriz de observabilidad

C
1.0000
0
0
0
o = CA = 1.0450 1.2540
(9.7.16)
2
0, 4650
1.3104 1.2540
CA
A partir de esta expresi
on podemos observar que la matriz o tiene rango completo, por tanto el sistema es completamente observable desde la salida 1 (t).
Una vez que tenemos la estimaci
on del vector de estado, x
(t), la estimaci
on del
estado
3 (t) para 3 , se obtiene a partir de

3 (t) = [0 0 1] x
(t)
| {z }

(9.7.17)

K3 T

donde
3 (t) puede obtenerse a partir de (9.7.1). Esto da por resultado
d
3 (t)
d
x(t)
= K3 T
= K3 T (A JC)
x(t) + K3 T B (t) + K3 T J1 (t)
| {z }
dt
dt

(9.7.18)

9.7.3

Observadores y ruido de medici


on.

En los analisis teoricos previos hemos asumido que tanto la entrada al sistema,
u(t), como su salida, y(t), estan disponibles sin error. En general, suponer esto
es correcto respecto a la entrada, ya que el mismo dispositivo que genera u(t) es
normalmente usado para estimar el estado. Sin embargo, este supuesto no es valido
para el caso de la salida y(t), ya que la medicion de esta variable sera siempre en
presencia de ruido. Para analizar el efecto de este error, denotemos por ym (t) la
medicion con ruido, i.e., ym (t) = y(t) + v(t), donde v(t) es el ruido de medicion
aditivo. Por tanto, el error de medicion satisface la ecuacion
d
x(t)
= (A JC)
x(t) + Jv(t)
dt

(9.7.19)

Entonces tenemos que

X(s)
= (sI A + JC)1 x
(0) + (sI A + JC)1 JV (s)

(9.7.20)

Por tanto, el error sera peque


no si la funcion de transferencia (sI A + JC)1 J
es capaz de filtrar el ruido.
Consideremos el siguiente ejemplo.

264

Representaci
on de sistemas en variables de estado.

Ejemplo 9.27. Un sistema es modelado por las ecuaciones de estado

2 1
1
; B=
; C = 1 1 ; D = 0
A=
1 3
0, 5

Captulo 9

(9.7.21)

Supongamos que queremos estimar una variable del sistema z(t) = T x(t),
donde T = [1 1]. Entonces, una estimaci
on de esta variable es z(t), que se
obtiene como
z(t) = T x
(t)

(9.7.22)

Entonces, la parte ruidosa en la estimaci


on de z(t) es zv (t), cuya transformada
de Laplace satisface
Zv (s) = Hv (s)V (s);

where Hv (s) = T (sI A + JC)1 J

(9.7.23)

A continuaci
on consideramos dos elecciones diferentes del polinomio del observador E(s). Estas son
E1 (s) = (s + 0, 5)(s + 0, 75)

and E2 (s) = (s + 10)(s + 20)

(9.7.24)

El lector puede apreciar que esto se traduce en observadores que tendr


an diferente
velocidad, siendo el primero mucho m
as lento que el segundo. Con estas elecciones
calculamos las ganancias del observador, J1 y J2 , y las correspondientes funciones
de transferencias de los filtros
1.875s + 5.625
s2 + 1.25s + 0, 375
144s + 432
H2 (s) = T (sI A + J2 C)1 J2 = 2
s + 30s + 200
H1 (s) = T (sI A + J1 C)1 J1 =

(9.7.25)
(9.7.26)

Para comparar ambos casos se puede obtener y graficar la respuesta en frecuencia


de cada filtro. Esto se muestra en la Figura 9.20.
40

Magnitud [dB]

20

|H2(j)|

0
20

|H1(j)|

40
60
1
10

10

10
Frecuencia [rad/s]

10

10

Figura 9.20. Caracterstica de filtraje de los observadores

Section 9.7.

Observadores

265

A partir de la Figura 9.20 podemos concluir que para ruido de alta frecuencia,
el filtro m
as lento resulta tener mayor inmunidad al ruido que el r
apido.
222
Este ejemplo muestra el compromiso que existe entre la velocidad de convergencia del observador y su inmunidad al ruido. Una forma sistematica de encarar este
problema es usar la teora de filtro optimos, como los filtros de Kalman-Bucy. El
lector interesado puede consultar, por ejemplo,la referencia [1].

Captulo 10

MODELOS

10.1

Ideas generales

Una de las tareas mas interesantes y complejas en el analisis de sistemas es la de


construir modelos para describir cuantitativamente lo que ocurre en el sistema bajo
analisis.
Un modelo es siempre una representacion aproximada de la realidad y, en sus
aspectos esenciales, se relaciona ntimamente con el proposito que nos mueve a
obtener el modelo. Por ejemplo, un motor electrico puede tener distintos modelos
seg
un cual es el interes del analista: un modelo electromecanico, un modelo termico,
un modelo que describa los fenomenos vibratorios y de esfuerzos, etc.
En cualquier caso, una vez definido el proposito del modelo, este debe capturar
los rasgos esenciales que hacen del sistema un ente particular y diferente de los
demas, tanto cualitativa como cuantitativamente.
Es importante se
nalar que el objetivo esencial de un modelo es tener
un mecanismo que permita predecir el comportamiento del sistema bajo
condiciones de excitaci
on distintas a las observadas. En otras palabras el
modelo es un mecanismo de inferencia y prediccion.
El problema que queremos resolver aqu se puede definir de la siguiente forma:

Dada una historia de datos del sistema (datos de entrada y salida, en tiempo
continuo o discreto), determinar un modelo matematico que pueda replicar en
la forma mas precisa posible (bajo alg
un criterio de optimalidad) la historia de
datos disponibles y otras historias de datos que se puedan obtener del mismo
sistema, para validar el modelo obtenido.
Note que exite un mecanismo generador de los datos, es decir, el sistema cuyo
comportamiento queremos modelar. Ademas la historia de datos del sistema debe
ser tal que permita observar los rasgos de interes del sistema. Por ejemplo, si el
sistema que deseamos modelar es una red RC, no nos servira recolectar datos del
sistema cuando las fuentes que alimentan la red son constantes, porque en ese caso
sera imposible calcular los parametros de cualquier modelo dinamico.
266

Section 10.2.

Modelado de sistemas de tiempo continuo. Teora b


asica.

267

Otra idea que aparece en la definicion del problema es que la construccion del
mejor modelo tiene asociado un criterio de calidad optima.
En la determinacion de un modelo existen pues, tres elementos
1. La seleccion de una clase de modelos, M. Por ejemplo, una ecuacion diferencial
de cierto orden.
2. Un experimento que permite recolectar datos. Por ejemplo, el aplicar una excitacion de amplio espectro al sistema.
3. Un criterio de optimizacion que permite seleccionar uno de los miembros de la
clase elegida en base a los datos experimentales. Por ejemplo, el minimizar la
suma (o integral) de los errores cuadraticos.
La clase de modelos se elige, en primera instancia, usando citerios fenomenologicos.
Por ejemplo, si el comportamiento del sistema a modelar esta dominado por 3 componentes dinamicos, una clase razonable es el conjunto de las ecuaciones diferenciales de tercer orden.
En muchos casos, el experimento no puede ser dise
nado de acuerdo a las necesidades del analista, sino que se debe usar datos provenientes de la operacion normal
del sistema a modelar. Ademas, es com
un que se desee o necesite ir refinando el
modelo en forma recursiva (e incluso en tiempo real, es decir, se va refinando el
calculo a medida que se van obteniendo nuevos datos).
Tambien es crucial notar que el que se use un procedimiento de optimizacion solo
se garantiza, en el mejor de los casos, que se encontrara el modelo optimo dentro de
la clase elegida. Si el mecanismo generador de los datos no pertenece a la clase de
modelos elegida, como suele suceder, entonces siempre habra un error de modelado,
sin importar cuan informativo sea el experimento para recolectar datos.
Los metodos mas robustos que se conocen para construir modelos son aquellos
que usan un criterio de optimizacion cuadratica. En ellos concentraremos nuestra
atencion en lo que sigue.

10.2

Modelado de sistemas de tiempo continuo. Teora b


asica.

Para motivar la discusion y el tratamiento teorico del tema, consideramos el siguiente ejemplo.
Ejemplo 10.1. Suponga que la clase de modelos elegida, M, est
a definida por
ym (t) = (u(t))3

(10.2.1)

donde u(t) es la entrada del sistema a modelar.


Suponga adem
as que se realiza un experimento recolector de datos en el sistema
a modelar. Como resultado del mismo se obtienen datos1 de entrada y salida, u(t)
1 Note

que se trata de datos experimentales de la planta

268

Modelos

Captulo 10

e y(t), en el intervalo [0; tf ]. Entonces el mejor valor de ,


, en (10.2.1) se puede
calcular minimizando un funcional de costo J() dado por
Z

tf

J() =

2
(y( ) (u( ))3 d

(10.2.2)

entonces

= arg min J()

(10.2.3)

La minimizaci
on se realiza derivando J() respecto de y haciendo esa derivada
igual a cero. Esto lleva a
Z

tf

1 Z
(u( ))6 d

tf

y( )(u( ))3 d

(10.2.4)

Note que si el sistema a modelar perteneciese a la clase de modelos elegida, es


decir, si existe o tal que y(t) = o (u(t))3 , entonces
= o , siempre que u(t) 6= 0
en alg
un lapso no cero en el intervalo [0; tf ].
La ecuaci
on (10.2.4) arroja una estimaci
on del par
ametro una vez que se han
recogido los datos. Existe una formulaci
on alternativa donde
evoluciona a medida
que se obtienen m
as datos, tal como se demuestra a continuaci
on.
Para hacer el tratamiento m
as simple haremos las siguientes substituciones
Z
p(t) =

1
(u( ))6 d

(10.2.5)

0
3

(t) = (u(t))

(10.2.6)

Entonces, si reemplazamos tf por t en (10.2.4) tenemos que


Z

(t) = p(t)

y( )( ) d

(10.2.7)

Luego, al derivar (10.2.5), se obtiene


1

dp(t)
d (p(t))
2
= (p(t)(t))
dt
dt

= ((t))

(10.2.8)

Al derivar (10.2.7) y al usar (10.2.8) se obtiene


(t)
d
= p(t)(t) (y(t)
(t)(t))
|
{z
}
dt

(10.2.9)

e(t)

donde e(t) es el error que se comete al predecir la salida y(t) usando el modelo y la
entrada observada de la planta.

Section 10.2.

269

Modelado de sistemas de tiempo continuo. Teora b


asica.

Las ecuaciones (10.2.8) y (10.2.9) permiten calcular


(t) en tiempo real, como
se puede verificar en la simulaci
on implementada en el esquema SIMULINK de la
Figura 10.1. En esa figura, el sistema a modelar, o mecanismo generador de datos
aparece enmascarado. El lector puede verificar, al observar e(t) en el oscilloscopio,
que ese sistema pertenece a la clase M.
u(t)

y(t)
SISTEMA
e

(u(1))^3

e (t)

p (0)

\phi (t)
K

1/s

p (t)

1/s

alfa
alfa (t)

alfa (0)

Antes de empezar la simulacin, defina el SISTEMA (haga un doble click en el bloque y edite) y asigne los
valores iniciales p(0) y alfa(0) en los bloques de integracin correspondientes

Figura 10.1. Estimacion por mnimos cuadraticos


Note adem
as que, para que este programa SIMULINK funcione se debe asignar
una condici
on distinta de cero a p(0) (en el bloque integrador correspondiente). Se
invita al lector a observar el efecto de distintas elecciones para p(0). En cambio, el
valor inicial
(0) puede ser cualquier valor, incluyendo cero.
222
Es importante repetir que, en el ejemplo precedente, se plantearon dos formas de
calcular un valor estimado para el parametro . En la primera, dada por la ecuacion
(10.2.4), se requiere conocer previamente un conjunto de datos en un lapso no cero.
En cambio, en la forma construida por las ecuaciones (10.2.8) y (10.2.9), el valor
estimado se va construyendo a medida que los datos se van obteniendo.
Formularemos a continuacion el metodo general para sistemas de tiempo continuo.
La clase de modelos a usar, M, esta definida por
ym (t) = m (t)T

(10.2.10)

donde (t)m es un vector, llamado vector de regresion,. Los elementos de m (t)

270

Modelos

Captulo 10

son conocidos como regresores. Existen tres grandes lneas en la construccion del
vector de regresion:
En base a la entrada de la planta y la salida del modelo. Este enfoque es la
base de los llamados m
etodos de error de predicci
on, reconocidos por su
sigla inglesa PEM (prediction error methods).
En base a la entrada del modelo, la que resulta de medir la entrada a la planta2
y a la salida del modelo. Esta eleccion genera los metodos conocidos como de
errores en la variables
En base a la entrada de la planta y la salida de la planta. Esta eleccion es
la base del metodo clasico de estimaci
on por errores cuadr
aticos. Es
conocido por la sigla inglesa LSE (least squares errors). Ese el metodo mas
robusto y mas usado, y es el que usaremos en este texto. Distinguiremos esta
eleccion de las otras dos reemplazando m (t) por (t) en la derivacion de las
ecuaciones del metodo.
Por su parte, el vector Rp contiene los parametros 1 , 2 , . . . , p que distinguen cada elemento en M.
Note que la expresion es bastante general, ya que la u
nica restriccion es que el
modelo sea lineal en los parametros a estimar, y no necesariamente debe ser lineal
en los datos. Por ejemplo
p
ym (t) = a u(t) + b u(t) + c cos(u(t)) + d
(10.2.11)
Entonces, el modelo (10.2.11) puede ser puesto en la forma (10.2.10) con las
siguientes asociaciones
p
(t) = [ u(t) u(t) cos(u(t)) 1]T
(10.2.12)
= [a b c d ]T

(10.2.13)

Veremos ademas en una seccion siguiente que (10.2.10) puede describir sistemas
dinamicos.
Para modelar un sistema con entrada u(t) y salida y(t), como miembro de la
clase M, debemos encontrar un estimado optimo, , para de modo que se minimice
Z
J( ) =

tf

(y( ) ( )T )2 d

(10.2.14)

El producto ( )T corresponde a una estimacion de la salida del sistema a


( )T
modelar, utilizando el elemento generico de la clase M. La diferencia y( )
es conocida como el error de prediccion (no confundir con los metodos PEM). El
metodo de estimacion cuadratica permite determinar cual de los elementos de M
2 Hay

una diferencia entre ambos debido al ruido de medici


on

Section 10.2.

Modelado de sistemas de tiempo continuo. Teora b


asica.

271

es el que arroja la prediccion con menor error cuadratico acumulado. Esto es equivalente a seleccionar el optimo .
La minimizacion de (10.2.14) se hace a traves del procedimiento tradicional:
derivando respecto de la incognita y luego haciendo esa derivada igual a cero. Como
se trata de la derivada de una funcion escalar respecto de un vector, la derivada
corresponde al gradiente . As el mejor estimado esta dado por
= arg minp J( )

(10.2.15)

El procedimiento descrito lleva a


Z tf
dJ( )
J( ) =
= 2
( )(y( ) ( )T ) d
d
0
Al hacer cero el gradiente se obtiene el estimado dado por
Z
=

tf

1 Z
( )T d
( )

(10.2.16)

tf

( )y( ) d

(10.2.17)

Para demostrar que la expresion (10.2.17) minimiza el funcional, se debe calcular


la segunda derivada (o Hessiano) de J( ), la que debe ser una matriz positiva
definida (ver Apendice F). Esto da
Z tf
d 2 J( )
( )T d
HJ ( ) =
=
2
( )
(10.2.18)
d 2
0
Entonces el Hessiano HJ ( ) es positivo definido si el vector ( ) cumple algunas
condiciones muy poco exigentes3 en [0; tf ].
La expresion (10.2.17) proporciona una forma de construir el modelo, estimando
, una vez que se han acumulado los datos en un lapso [0; tf ]. Tal como se ilustro
en el Ejemplo 10.1, es posible construir un estimado, (t), que vaya evolucionando a
medida que se van considerando nuevos datos. Esto aparece resuelto en el siguiente
teorema.
Teorema 10.1. Considere la clase M definida por (10.2.10), el funcional en (10.2.14)
y un experimento que permite construir ( ) para [0; t]. Entonces el estimador

optimo, (t) se puede obtener a traves de

dP(t)
(t)
(t)T P(t)
= P(t)
dt
d(t)
(t)(y(t) (t)(t)) = P(t)
(t)e(t)
= P(t)
dt
3 Cuya

deducci
on escapa al marco de este texto.

(10.2.19)
(10.2.20)

272

Modelos

Captulo 10

Demostraci
on
Definamos previamente la matriz P(t) Rpp de la forma
Z

P(t) =

1
( )
( )T d

(10.2.21)

y la matriz
Z
1

Q(t) = P(t)

( )T d
( )

(10.2.22)

entonces
dP(t)Q(t)
dP(t)
dQ(t)
=0=
Q(t) + P(t)
dt
dt
dt

(10.2.23)

dP(t)
dQ(t)
(t)
(t)T P(t)
= P(t)
P(t) = P(t)
dt
dt

(10.2.24)

Esto lleva a

donde hemos usado el hecho que


Q(t)
(t)T
= (t)
dt

(10.2.25)

Por otro lado, al usar (10.2.17)


Z
(t) = P(t)

tf

( )y( ) d

(10.2.26)

con lo cual, al derivar se obtiene


Z
d
dP(t) tf
(t)y(t)
=
( )y( ) d + P(t)
dt
dt
0
Z tf
dQ(t)
(t)y(t)
= P(t)
P(t)
( )y( ) d +P(t)
dt
0
{z
}
|

(10.2.27)
(10.2.28)

(t)

lo que lleva a (10.2.20) al usar (10.2.25).


El Teorema 10.1 establece un procedimiento a traves del cual la estimacion de
los parametros del modelo se va obteniendo a medida que se dispone de nueva
informacion.

Section 10.3.

10.3

273

Modelado de sistemas de tiempo continuo. Modelos lineales.

Modelado de sistemas de tiempo continuo. Modelos lineales.

La teora desarrollada en la seccion precedente se aplica a cualquier clase de modelos


M, con la u
nica condicion que los miembros de esa clase sean lineales en el vector de
parametros, es decir, tengan la forma (10.2.10). Esto no excluye modelos que son
no lineales en la entrada y la salida, tal como se ilustra en el Ejemplo 10.1. Sin embargo, en esta seccion enfocaremos nuestra atencion en modelos dinamicos lineales
de tiempo continuo. Con este objetivo definiremos la clase M por la ecuacion diferencial (3.2.1), la que reproducimos a continuacion (reemplazando y(t) por ym (t)).
dn ym (t)
dn1 ym (t)
dn1
dn2
+an1
+. . .+a0 ym (t) = bn1 n1 u(t)+bn2 n2 u(t)+. . .+b0 u(t)
n
n1
dt
dt
dt
dt
(10.3.1)
Antes de desarrollar la metodologa general, examinaremos un ejemplo muy
simple, para adquirir perspectiva
Ejemplo 10.2. La clase M es elegida como en (10.3.1), con n = 1, es decir
dym (t)
+ a0 ym (t) = b0 u(t)
(10.3.2)
dt
La primera opci
on para contruir la forma (10.2.10) en este caso es (note la
sustituci
on de ym (t) por y(t) en el vector (t))
(t) =

hR
t

u( )d
0

T
= b0 a0

Rt
0

y( )d

iT

(10.3.3)
(10.3.4)

Sin embargo, esta forma de selecci


on del vector de regresi
on (t) no es razonable,
porque basta que las se
nales tengan un valor medio distinto de cero (por peque
no
que sea) para que el vector (t) crezca sin lmites.
Intentaremos otro enfoque, usando el operador de Heaviside (definido en (3.2.8).
El modelo (10.3.2) puede ser re-escrito como
0 = ( + a0 )ym (t) + b0 u(t)

(10.3.5)

Supongamos se define un polinomio operador m


onico estable E() = + e0
(e0 > 0), entonces (10.3.5) se puede escribir como
0=

b0
+ a0
ym (t) +
u(t)
E()
E()

(10.3.6)

Sumando ym (t) a ambos lados se obtiene


ym (t) = ym (t)

+ a0
b0
ym (t)
u(t)
ym (t) +
u(t) = (e0 a0 )
+ b0
E()
E()
E()
E()

(10.3.7)

274

Modelos

Captulo 10

As, una elecci


on natural es

(t) =

T
y(t)
E()
T
e0 a0

u(t)
E()

= b0

(10.3.8)
(10.3.9)

Note que hemos reemplazado ym (t) por y(t) en el vector de regresi


on, as el
vector de regresi
on resulta dependiente s
olo de los datos de entrada y salida del
sistema a modelar, lo cual es consistente con la idea del metodo LSE.
222
El Ejemplo 10.2 permite inducir una metodologa general.
Definamos
A() = n + an1 n1 + . . . a0

(10.3.10)

n1

(10.3.11)

B() = bn1
n

+ bn2

E() = + en1

n1

n2

+ . . . b0

+ . . . e0

(10.3.12)

donde E() es un polinomio operador estable.


Entonces el modelo (10.3.1) se puede escribir como
0=

A()
B()
ym +
u(t)
E()
E()

(10.3.13)

Si ahora sumamos ym (t) a ambos lados se obtiene


E() A()
B()
ym +
u(t)
E()
E()
Entonces la eleccion de (t) consistente con el metodo LSE es
n1

u(t) n2 u(t)
u(t) n1 y(t) n2 y(t)
(t) =

E()
E()
E()
E()
E()
ym (t) =

(10.3.14)

T
y(t)
E()
(10.3.15)

y el vector de parametros es

= bn1

bn2

b0

en1 an1

en2 an2

T
e0 a0
(10.3.16)

Ejemplo 10.3. Supongamos que la clase M es el conjunto de ecuaciones diferenciales de tercer orden, lineales y de coeficientes constantes, entonces

2 u(t) u(t) u(t) 2 y(t) y(t) y(t)


(t) =
E()
E() E()
E()
E() E()

T
= b2 b1 b0 e2 a2 e1 a1 e0 a0

T
(10.3.17)
(10.3.18)

Section 10.4.

Modelado de sistemas de tiempo discreto. Teora b


asica.

275

donde E() es cualquier polinomio de tercer grado cuyas races tenga parte real
menor que cero.
222

10.4

Modelado de sistemas de tiempo discreto. Teora b


asica.

La construccion de modelos para sistemas de tiempo continuo es de gran interes


conceptual. Sin embargo, la implementacion de las ecuaciones de esa construccion
requiere el uso de una maquina digital, en cuyo caso necesariamente se debe usar
una discretizacion y ello hade de mayor relvancia la construiccion de sistemas de
tiempo discreto.
Al igual que en el caso de tiempo continuo, usaremos un ejemplo para motivar
la discusion.
Ejemplo 10.4. Suponga que la clase de modelos elegida, M, est
a definida por
ym [k] = (u[k])3

(10.4.1)

donde u[k] es la entrada del sistema a modelar.


Suponga adem
as que se realiza un experimento recolector de datos en el sistema
a modelar. Como resultado del mismo se obtienen datos4 de entrada y salida, u[k]
e y[k], en el intervalo [0; N ]. Entonces el mejor valor de , ,
en (10.4.1) se puede
calcular minimizando un funcional de costo J() dado por
J() =

N
X

2
(y[`] (u[`])3

(10.4.2)

`=1

entonces

= arg min J()


R

(10.4.3)

La minimizaci
on se realiza derivando J() respecto de y haciendo esa derivada
igual a cero. Esto lleva a
"

N
X
`=1

#1
(u[`])6

N
X

y[`](u[`])3

(10.4.4)

`=1

Note que si el sistema a modelar perteneciese a la clase de modelos elegida, es


decir, si existe o tal que y[k] = o (u[k])3 , entonces
= o , siempre que u[k] 6= 0
en alg
un lapso no cero en el intervalo [0; N ].
La ecuaci
on (10.4.4) arroja una estimaci
on del par
ametro una vez que se han
recogido los datos. Existe una formulaci
on alternativa donde
evoluciona a medida
que se obtienen m
as datos, tal como se demuestra a continuaci
on.
4 Note

que se trata de datos experimentales de la planta

276

Modelos

Captulo 10

Para hacer el tratamiento m


as simple haremos las siguientes substituciones
"
p[k] =

N
X

#1
6

(u[`])

(10.4.5)

`=1
3

[k] = (u[k])

(10.4.6)

Entonces, si reemplazamos N por k en (10.4.4) tenemos que

[k] = p[k]

k
X

y[`][`]

(10.4.7)

`=1

Luego, al usar (10.4.5), se obtiene


p[k] =

p[k 1]
= p[k 1] p[k 1][k]2 p[k]
1 + p[k 1][k]2

(10.4.8)

Combinando (10.2.7) y (10.2.8) se obtiene

[k] =
[k 1] + p[k][k] (y[k]
[k 1][k])
|
{z
}

(10.4.9)

e[k]

donde e[k] es el error que se comete al predecir la salida y[k] usando el modelo y la
entrada observada de la planta.
Las ecuaciones (10.4.8) y (10.4.9) permiten calcular
[k] en tiempo real, como
se puede verificar en la simulaci
on implementada en el esquema SIMULINK de la
Figura 10.2. En esa figura, el sistema a modelar, o mecanismo generador de datos
aparece enmascarado. El lector puede verificar, al observar e[k] en el oscilloscopio,
que ese sistema pertenece a la clase M.
Note adem
as que, para que este programa SIMULINK funcione se debe asignar
una condici
on distinta de cero a p[0] (en el bloque de retardo correspondiente). Se
invita al lector a observar el efecto de distintas elecciones para p[0]. En cambio, el
valor inicial
[0] puede ser cualquier valor, incluyendo cero.
222
Es importante repetir que, en el ejemplo precedente, se plantearon dos formas de
calcular un valor estimado para el parametro . En la primera, dada por la ecuacion
(10.4.4), se requiere conocer previamente un conjunto de datos en un lapso no cero.
En cambio, en la forma construida por las ecuaciones (10.4.8) y (10.4.9), el valor
estimado se va construyendo a medida que los datos se van obteniendo.
Formularemos a continuacion el metodo general sistemas de tiempo discreto.
La clase de modelos a usar, M, esta definida por
ym [k] = m [k]T

(10.4.10)

Section 10.4.

277

Modelado de sistemas de tiempo discreto. Teora b


asica.

u[k]

y[k]

SISTEMA

p [0]
e [k]

z
p [k]
u(1)/(1+u(1)*u(2)^2)

(u(1))^3
\phi [k]

p
alfa [0]
1
z
alfa
alfa [k]

Antes de empezar la simulacin, defina el SISTEMA (haga un doble click en el bloque y edite) y asigne los
valores iniciales p[0] y alfa[0] en los bloques de retardo correspondientes

Figura 10.2. Estimacion por mnimos cuadraticos


donde m [k] es un vector, llamado vector de regresion,. Los elementos de m [k] son
conocidos como regresores. Existen tres grandes lneas en la construccion del vector
de regresion, y ellas son las mismas que en el caso continuo:
m
etodos de error de predicci
on, (PEM) (prediction error methods).
metodo de errores en la variables
Metodo clasico de estimaci
on por errores cuadr
aticos (LSE)(least squares
errors). Distinguiremos esta eleccion de las otras dos reemplazando m [k] por
[k] en la derivacion de las ecuaciones del metodo.
Por su parte, el vector Rp contiene los parametros 1 , 2 , . . . , p que distinguen cada elemento en M.
Note que la expresion es bastante general, ya que la u
nica restriccion es que el
modelo sea lineal en los parametros a estimar, y no necesariamente debe ser lineal
en los datos. Por ejemplo
p
ym [k] = a u[k] + b u[k] + c cos(u[k]) + d
(10.4.11)
Entonces, el modelo (10.4.11) puede ser puesto en la forma (10.4.10) con las
siguientes asociaciones
p
[k] = [ u[k] u[k] cos(u[k]) 1]T
(10.4.12)
= [a b c d ]T

(10.4.13)

278

Modelos

Captulo 10

Veremos ademas en una seccion siguiente que (10.4.10) puede describir sistemas
dinamicos.
Para modelar un sistema con entrada u[k] y salida y[k], como miembro de la clase
M, debemos encontrar un estimado optimo, , para de modo que se minimice
J( ) =

N
X

(y[`] [`]T )2

(10.4.14)

El producto [`]T corresponde a una estimacion de la salida del sistema a


modelar, utilizando el elemento generico de la clase M. La diferencia y[`] [`]T
es conocida como el error de prediccion (no confundir con los metodos PEM). El
metodo de estimacion cuadratica permite determinar cual de los elementos de M
es el que arroja la prediccion con menor error cuadratico acumulado. Esto es equivalente a seleccionar el optimo .
La minimizacion de (10.4.14) se hace a traves del procedimiento tradicional:
derivando respecto de la incognita y luego haciendo esa derivada igual a cero. Como
se trata de la derivada de una funcion escalar respecto de un vector, la derivada
corresponde al gradiente . As el mejor estimado esta dado por
= arg minp J( )

(10.4.15)

El procedimiento descrito lleva a


N

J( ) =

X
dJ( )
= 2
[`](y[`] [`]T )
d

(10.4.16)

`=1

Al hacer cero el gradiente se obtiene el estimado dado por


"
=

N
X

#1
T

[`]
[`]

`=1

N
X

[`]y[`]

(10.4.17)

`=1

Para demostrar que la expresion (10.4.17) minimiza el funcional, se debe calcular


la segunda derivada (o Hessiano) de J( ), la que debe ser una matriz positiva
definida (ver Apendice F). Esto da
N

HJ ( ) =

X
d 2 J( )
[`]T
=2
[`]
2
d

(10.4.18)

k=1

Entonces el Hessiano HJ ( ) es positivo definido si el vector [`] cumple algunas


condiciones muy poco exigentes5 en 0 < ` N .
La expresion (10.4.17) proporciona una forma de construir el modelo, estimando
, una vez que se han acumulado los datos en un lapso [0; tf ]. Tal como se ilustro
5 Cuya

deducci
on escapa al marco de este texto.

Section 10.4.

Modelado de sistemas de tiempo discreto. Teora b


asica.

279

en el Ejemplo 10.4, es posible construir un estimado, [k], que vaya evolucionando a


medida que se van considerando nuevos datos. Esto aparece resuelto en el siguiente
teorema.
Teorema 10.2. Considere la clase M definida por (10.4.10), el funcional en (10.4.14)
y un experimento que permite construir [`] para 0 < ` N . Entonces el estimador

optimo, [k] se puede obtener a traves de

[k]
[k]T P[k 1]
P[k 1]
T
[k]
1 + [k] P[k 1]

[k](y[k] [k] [k]) = P[k]


[k]e[k]
[k] = [k 1] + P[k]

P[k] = P[k 1]

(10.4.19)
(10.4.20)

Demostraci
on
Definamos previamente la matriz P[k] Rpp de la forma
"
P[k] =

k
X

#1
T

[`]
[`]

(10.4.21)

`=1

y la matriz
1

Q[k] = P[k]

k
X

[`]T = Q[k 1] + [k]


[k]T
[`]

(10.4.22)

`=1

entonces podemos aplicar el lema de inversi


on de matrices para obtener P[k](=
Q[k]1 ) en funci
on de P[k 1](= Q[k 1]1 ), lo cual lleva a (10.4.19).
Por otro lado, al usar (10.4.17) se tiene que
P[k]1[k] =

k
X

[`]y[`]

(10.4.23)

[`]y[`]

(10.4.24)

`=1

P[k 1]1[k 1] =

k1
X
`=1

lo cual lleva a
[`]y[`]
[k] = P[k]P[k 1]1[k 1] + P[k]

(10.4.25)

de donde, al usar (10.4.19), se obtiene (10.4.20).


222
El Teorema 10.2 establece un procedimiento a traves del cual la estimacion de
los parametros del modelo se va obteniendo a medida que se dispone de nueva
informacion.

280

10.5

Modelos

Captulo 10

Modelado de sistemas de tiempo discreto. Modelos lineales.

La teora desarrollada en la seccion precedente se aplica a cualquier clase de modelos


M, con la u
nica condicion que los miembros de esa clase sean lineales en el vector de
parametros, es decir, tengan la forma (10.4.10). Esto no excluye modelos que son
no lineales en la entrada y la salida, tal como se ilustra en el Ejemplo 10.4. Sin embargo, en esta seccion enfocaremos nuestra atencion en modelos dinamicos lineales
de tiempo discreto. Con este objetivo definiremos la clase M por la ecuacion diferencial (4.2.1), la que reproducimos a continuacion (reemplazando y[k] por ym [k]).

ym [k] + an1 ym [k 1] + . . . + a1 ym [k n + 1] + a0 ym [k n] =
bm u[k] + bm1 u[k 1] + . . . + b1 u[k m + 1] + b0 u[k m] (10.5.1)
Antes de desarrollar la metodologa general, examinaremos un ejemplo muy
simple, para adquirir perspectiva
Ejemplo 10.5. La clase M es elegida como en (10.5.1), con n = 1, es decir
ym [k] + a0 ym [k 1] = b0 u[k]

(10.5.2)

La primera opci
on para contruir la forma (10.4.10) en este caso es (note la
sustituci
on de ym [k] por y[k] en el vector [k])

T
[k] = u[k] ym [k 1]

T
= b0 a0

(10.5.3)
(10.5.4)

A diferencia del caso de tiempo continuo, esta forma de selecci


on del vector de
regresi
on [k] es razonable y la metodologa de la secci
on anterior puede ser aplicada
sin mayores dificultades.
222
El Ejemplo 10.5 permite inducir una metodologa general, ya que podemos expresar la ecuacion (10.5.1) como
ym [k] = [k]T [k]

[k] = u[k] u[k 1]

[k] = bm

bm1

...

(10.5.5)
. . . u[k m]
b0

an1

ym [k 1]
an2

. . . a0

ym [k 2]

...

ym [k n]
(10.5.6)
(10.5.7)

Apendice A

SERIES DE TAYLOR

A.1

Serie de Taylor en una variable

Considere una funcion g(x), donde x R y sea xQ un valor arbitrario en R, tal que
g(x) es continua en x = xQ .
Suponga ademas que g(x) es infinitamente diferenciable en x = xQ , es decir,
todas las derivadas de g(x) en x = xQ son continuas.
Entonces la funcion g(x) se puede expandir en serie de potencias de (x xQ ),
es decir, admite la siguiente representacion en una serie de Taylor

d x
1 d 2 x
1 d 3 x
2
g(x) = g(xQ ) +
(x xQ ) +
(x xQ ) +
(x xQ )3 + . . .
dt Q
2! dt 2 Q
3! dt 3 Q

X
i=0

(A.1.1)

1 d i x
(x xQ )i
i! dt i Q

(A.1.2)

n
donde ddt nx Q denota la derivada n-esima de g respecto de x y evaluada en x = xQ .
A partir de esta expansion, podemos construir aproximaciones de primer, segundo, tercer orden, etc. truncando la serie despues de la potencia de primer, segundo,
tercer grado, etc., respectivamente. Por ejemplo, la aproximacion de primer orden
es

g1 (x) = k0 + k1 (x xQ );

k0 = g(xQ );

d g
k1 =
dx Q

(A.1.3)

Esta aproximacion de primer orden se puede apreciar graficamente, como se


muestra en la Figura A.1.

dg
En esta figura m = k1 = dx
. Se observa que, en la medida que nos alejamos
Q

del punto de operacion, el error de modelado lineal aumenta.


281

282

Series de Taylor

g(x)

Ap
endice A

g1 (x)
m

g(xQ )

xQ

Figura A.1. Aproximacion de primer orden para funcion no lineal de una variable.

A.2

Serie de Taylor en dos variables

La misma idea resumida en la seccion anterior se puede extender al caso de una


funcion g(x1 , x2 ), con x1 R, x2 R.
Sea (x1Q , x2Q ) un par arbitrario tal que g(x1 , x2 ) es continua e infinitamente
diferenciable en x1 = x1Q , x2 = x2Q . Entonces g puede expandirse en serie de
potencias de (x1 x1Q ) y (x2 x1Q )

g
g
1 2 g
g(x1Q , yQ ) +
(x1 x1Q )2 +
(x1 x1Q ) +
(x2 x2Q ) +
x1 Q
x2 Q
2 x21 Q

1 2 g
2 f
2
(x

x
)
+
(x1 x1Q )(x2 x2Q ) + . . . (A.2.1)
2
2Q
2 x2
x1 x2
2 Q

donde el termino general de la expansion es

1 i+j g
(x1 x1Q )i (x2 x2Q )j
i!j! xi1 xj2
Q

(A.2.2)

En forma analoga al caso de una variable, podemos truncar esta serie para tener
aproximaciones de primer, segundo, tercer, etc. orden. Por ejemplo, la aproximacion de primer orden esta dada por

Section A.3.

283

El caso general

g1 (x1 , x2 ) = k0 + k11 (x1 x1Q ) + k12 (x2 x2Q )


k0 = g(x1Q , x2Q )

d g
k11 =
dx1 Q

d g
k12 =
dx2 Q

A.3

(A.2.3)
(A.2.4)
(A.2.5)
(A.2.6)

El caso general

La idea desarrollada en las dos secciones anteriores se puede generalizar al caso de


una funcion g(x1 , x2 , . . . , xn ) con x1 R, x2 R, . . ., xn R.
Sea (x1Q , x2Q , . . . , xnQ ) una n-tupla tal que g(x1 , x2 , . . . , xn ) es continua e infinitamente diferenciable en x1 = x1Q , x2 = x2Q , . . ., xn = xnQ . Entonces la expansion
en serie de Taylor esta dada por

g(x1 , x2 , . . . , xn ) = g(x1Q , x2Q , . . . , xnQ )

X
1
ni g

i1 ,i2 ,...,in

(x1 x1Q )i1 (x2 x2Q )i2 . . . (xn xnQ )in

i
i
i
1
2
n
i
!i
!

i
!

x
1
2
n
1
2
n
Q
=0
(A.3.1)

donde ni = i1 + i2 + . . . + in .
La aproximacion de primer orden, por truncamiento de la serie es entonces

g1 (x1 , x2 , . . . , xn ) = k0 +

n
X

k1i (xi xiQ )

(A.3.2)

i=1

k0 = g(x1Q , x2Q , . . . , xnQ )

d g
k1i =
dxi

(A.3.3)
(A.3.4)

(A.3.5)
Es importante se
nalar que los desarrollos precedentes siguen siendo validos
aunque las variable x1 , x2 , . . ., xn sean funciones de una variable temporal u otra
variable independiente.

A.4

Algunas reglas pr
acticas para la expansi
on en serie

La teora general precedente permite construir algunas reglas basicas para expandir
funciones complicadas en serie de potencias.

284

Series de Taylor

Ap
endice A

R1 Considere las funciones no lineales g(x) y h(x) y un punto de operacion com


un
dado por xQ , entonces las aproximaciones de primer orden para las funciones
que se indican son

d g(x)
(x xQ )
dx Q

d h(x)

[R1.2]
h1 (x) = h(xQ ) +
(x xQ )
dx Q

!
d g(x)
d h(x)
\
[R1.3]g(x) + h(x)1 = g(xQ ) + h(xQ ) +
+
(x xQ )
dx Q
dx Q

d
g(x)
d
h(x)
\ = g(xQ )h(xQ ) + h(xQ )
+ g(xQ )

(x xQ )
[R1.4] g(x)h(x)
1

dx Q
dx Q
[R1.1]

g1 (x) = g(xQ ) +

d ` x(t)
dt `

R2 La aproximacion de primer orden de g(x) =


cion x = xQ , g(xQ ) = 0 es
g1 (x) =

en torno al punto de opera-

d ` (x(t) xQ )
dt `
h

R3 La aproximacion de primer orden de g(x) =


h `
ik1
de operacion x = xQ , d dtx(t)
= 0 es
`
g1 (x) = 0

d ` x(t)
dt `

(A.4.1)
ik

, k > 1 en torno al punto

(A.4.2)

Apendice B

BASES MATEMATICAS
PARA LAS SERIES DE
FOURIER

B.1

Espacios vectoriales y bases ortogonales

En esta seccion se revisan los conceptos basicos de los espacios vectoriales, incluyendo definiciones y propiedades. Se introducen ademas las ideas de ortogonalidad y
bases, ideas matematicas abstractas de mucha utilidad para fundamentar el analisis
mediante series de Fourier y otros topicos dentro de la teora de sistemas como es,
por ejemplo, la construccion de modelos y la estimacion de se
nales utilizando el
enfoque de mnimos cuadrados.
Definici
on B.1. Un espacio vectorial V es un conjunto de objetos ~v1 , ~v2 , . . . ,
llamados vectores, donde se definen dos operaciones: suma de dos vectores, y
multiplicaci
on por un escalar y que satisfacen las siguientes propiedades:
1. Si ~vi V y ~vj V, entonces ~vi + ~vj V
2. Si ~vi V y ~vj V, entonces ~vi + ~vj = ~vj + ~vi
3. Si ~vi , ~vj , ~vk son vectores cualesquiera de V, entonces ~vi + (~vj + ~vk ) = (~vi +
~vj ) + ~vk
4. Existe un vector ~0 V, tal que para todo ~vi V se cumple ~vi + ~0 = ~vi
5. Para cada ~vi V existe un vector ~vi V, tal que ~vi + (~vi ) = ~0
6. Si ~vi V y es un escalar, entonces ~vi V
7. Si ~vi y ~vj est
an en V y es un escalar, entonces (~vi + ~vj ) = ~vi + ~vj
8. Si y son escalares y ~vi V, entonces ( + )~vi = ~vi + ~vi
285

286

Bases matem
aticas para las Series de Fourier

Ap
endice B

9. Si y son escalares y ~vi V, entonces (~vi ) = ()~vi


10. Existe el escalar 1 tal que 1~vi = ~vi , para todo ~vi V
Existe un sinn
umero de conjuntos de elementos que son ejemplo de espacios
vectoriales, de entre los cuales se deja al lector verificar que los siguientes cumplen
las propiedades recien enumeradas:
El espacio Rn en que los escalares son n
umeros reales,
El espacio Cn en que los escalares pueden ser n
umeros reales o bien complejos,
El conjunto de funciones reales seccionalmente continuas1 en un intervalo [a, b],
en que los escalares son n
umeros reales.

Definici
on B.2. Dado un conjunto de vectores G = {~v1 , . . . , ~vn } V, diremos que
el espacio generado por G, es el conjunto de todos los vectores de la forma:
~v = 1~v1 + . . . + n~vn
Es decir, ~v es una combinaci
on lineal de ~v1 , . . . , ~vn .
Se deja al lector probar que el subespacio generado por el subconjunto de vectores
G V tambien cumple las propiedades de un espacio vectorial.
Definici
on B.3. Un conjunto de vectores ~v1 , . . . , ~vn se dice linealmente independiente, si la ecuaci
on:
1~v1 + . . . + n~vn = 0
se cumple s
olo para los escalares 1 = 2 = . . . = n = 0. En caso contrario se
dice que los vectores son linealmente dependientes.
La independencia lineal en un conjunto de vectores es una propiedad muy importante pues nos permite afirmar que ninguno de los vectores del conjunto puede
expresarse como una combinacion lineal de los demas vectores. Esta demostracion
se deja al lector.
Definici
on B.4. Dado un espacio vectorial V, diremos que un conjunto de vectores
B = {~v1 , . . . , ~vn } es base de V si:
1. {~v1 , . . . , ~vn } es linealmente independiente, y
1 Es

decir, que poseen a lo m


as un n
umero finito de puntos de discontinuidad.

Section B.1.

Espacios vectoriales y bases ortogonales

287

2. {~v1 , . . . , ~vn } genera todo el espacio V.


En este caso diremos que el espacio vectorial V tiene dimensi
on igual a n. Por
ejemplo, el espacio de vectores en el plano tiene dimension n = 2, en el espacio
n = 3, mientras que existen otros espacios como por ejemplo el de funciones que
pueden tener dimension infinita.

Definici
on B.5. Dados dos vectores cualesquiera ~vi y ~vj en un espacio vectorial V con escalares en C, entonces diremos que h~vi , ~vj i es un producto interno,
producto escalar o producto punto si cumple las siguientes propiedades:
1. h~vi , ~vj i es un escalar
2. h~vi , ~vj + ~vk i = h~vi , ~vj i + h~vi , ~vk i
3. h~vi , ~vi i > 0 si ~vi 6= ~0
4. h~vi , ~vj i = h~vj , ~vi i , en que () denota el complejo conjugado de ()
Este producto ademas induce una norma en el espacio vectorial V:
p
~vi = h~vi , ~vi i
Recordamos que una norma se define como sigue:

Definici
on B.6. Una norma en un espacio vectorial es una funci
on que va
del espacio V a R que cumple con :


1. ~vi 0 y ~vi = 0 si y s
olo si ~vi = ~0


2. ~vi = ||~vi en que || es el valor absoluto o m
odulo del escalar


3. ~vi + ~vj ~vi + ~vi ( desigualdad triangular) .
Con la norma inducida de esta forma con el producto interno en el espacio
vectorial podemos introducir la idea de distancia entre dos vectores:

d(~vi , ~vj ) = ~vi ~vj

Definici
on B.7. Un espacio vectorial donde se ha definido una norma, es decir,
se tiene una medida de distancia y longitud se denomina espacio euclideano

288

Bases matem
aticas para las Series de Fourier

Ap
endice B

Ademas puede definirse el coseno del


angulo entre dos vectores como
h~vi , ~vj i

cos (~vi , ~vj ) =
~vi ~vj

Definici
on B.8. De la definici
on del
angulo entre dos vectores es claro que podemos decir que dos vectores son ortogonales bajo el producto interno h, i, si este
producto es igual a cero. Es decir:
~vi ~vj h~vi , ~vj i = 0

Lema B.1. Supongamos un espacio vectorial V de dimension n, en que se tiene


una base de vectores:
B = {~v1 , ~v2 , . . . , ~vn }

(B.1.1)

Si los vectores de la base B son ortogonales entre si bajo un producto interno


h, i, es decir:
(
0
; si i 6= j
(B.1.2)
h~vi , ~vj i =
> 0 ; si i = j
Entonces, un vector arbitrario ~u V se representa como una combinaci
on lineal
de los vectores de la base B de la forma:
~u = 1~v1 + 2~v2 + . . . + n~vn

(B.1.3)

en que cada coeficiente se calcula:


i =

h~vi , ~ui
h~vi , ~vi i

(B.1.4)

Demostraci
on
La representacion (B.1.3) se deduce de inmediato del hecho de tener un conjunto
de n vectores linealmente independientes en un espacio vectorial V de dimension n.
Lo central que nos ata
ne en este caso es el calculo de los coeficientes (B.1.4).
Tomemos la ecuacion (B.1.3), y apliquemosle producto interno con alguno de
los vectores de la base (B.1.1):
h~vi , ~ui = h~vi , 1~v1 + 2~v2 + . . . + n~vn i

(B.1.5)

Section B.2.

289

Convergencia de las Series de Fourier

Si aplicamos la linealidad del producto interno


h~vi , ~ui = 1 h~vi , ~v1 i + 2 h~vi , ~v2 i + . . . + n h~vi , ~vn i

(B.1.6)

Y dada la ortogonalidad del conjunto B, los productos de la derecha son cero a


excepcion del que coinciden los ndices i :
h~u, ~vi i = i h~vi , ~vi i

(B.1.7)

De donde se demuestra el resultado (B.1.4).

222

Lema B.2. Desigualdad de Cauchy-Schwartz


Si vi y vj son dos vectores arbitrarios en un espacio euclideano, es decir, un
espacio vectorial con norma inducida por un producto interno, entonces
hvi , vj i2 hvi , vi i hvj , vj i

(B.1.8)

Demostraci
on
Primero se observa que esta desigualdad es inmediata si cualquiera de los vectores,
vi o vj , es el vector cero. As es suficiente considerar el caso en ambos son no nulos.
Consideremos un vector (vi vj ), cuya norma es no negativa
0 h(vi vj ), (vi vj )i
2

(B.1.9)
2

= hvi , vi i 2hvi , vj i + hvj , vj i

(B.1.10)

De donde

2hvi , vj i 2 hvi , vi i + 2 hvj , vj i


p
p
Ahora, si tomamos = hvj , vj i y = hvi , vi i entonces

2 hvj , vj i hvi , vi ihvi , vj i 2hvi , vi ihvj , vj i

hvi , vj i hvj , vj i hvi , vi i

(B.1.11)

(B.1.12)
(B.1.13)

Donde elevando al cuadrado se tiene la desigualdad a demostrar.


222

B.2
B.2.1

Convergencia de las Series de Fourier


Convergencia de sucesiones y series

A continuacion se hace un breve repaso sobre convergencia de sucesiones y series de


funciones.

290

Bases matem
aticas para las Series de Fourier

Ap
endice B

Definici
on B.9. Se dice que una sucesi
on de funciones {fk (x)} de funciones, cada
una definida en un intervalo I = [a, b], converge (puntualmente) en I, si
lim fk (x0 )

existe x0 I

(B.2.1)

Definici
on B.10. Se dice que una sucesi
on {fk (x)} de funciones, definidas en un
intervalo I = [a, b], converge uniformemente a una funci
on f (x) en el intervalo
I si
> 0 K > 0

tal que

k > K |f (x) fk (x)| <

axb

(B.2.2)

Estas dos definiciones sobre la convergencia de sucesiones son aplicables totalmente a series de funciones, ya que estas u
ltimas no son mas que sucesiones de
sumas parciales. Es decir, si se tiene una serie de funciones de la forma
S(x) =

fn (x)

(B.2.3)

n=1

Sus propiedades de convergencia estan dadas por la convergencia de la sucesion


{Sk (x)}, que es la suma parcial k-esima
Sk (x) =

k
X

fn (x)

(B.2.4)

n=1

Definici
on B.11. Se dice que una serie de funciones
S(x) =

fn (x)

(B.2.5)

n=1

converge absolutamente si la serie de los valores absolutos de su termino general


converge, es decir, si

|fn (x)|

(B.2.6)

n=1

converge. Note que por comparaci


on de los terminos generales, si una serie converge
absolutamente, entonces tambien converge en el sentido usual2

2 Sentido

usual significa que la serie (B.2.5) converge

Section B.2.

291

Convergencia de las Series de Fourier

Lema B.3. M -Test de Weiertrass


Si tenemos una serie convergente de n
umeros reales positivos

Mk

(B.2.7)

k=1

Y una serie de funciones en un intervalo I = [a, b]

fk (x)

(B.2.8)

k=1

Tales que
|fk (x)| Mk

(B.2.9)

Para cada k y para cada x I , entonces la serie de funciones


converge uniforme y absolutamente en el intervalo I.

P
k=1

fk (x)

Demostraci
on
Por comparacion entre los terminos de la serie numerica y la de funciones, se sigue
que para cada x0 en el intervalo I, la serie converge absolutamente. As la serie
converge puntualmente a una funcion lmite f (x) en a x b. Ahora

fk (x) =
fk (x)
f (x)

k=1

(B.2.10)

k=n+1

k=n+1

|fk (x)|

(B.2.11)

Mk

(B.2.12)

k=n+1

n
X

k=1

k=1

Mk

Mk

(B.2.13)

Donde en el lado derecho la expresion tiende a cero cuando n . Ya que esta


convergencia no depende del x que se elija en I, es uniforme.

B.2.2

Convergencia de las Series de Fourier

Para estudiar la convergencia de la serie de Fourier de una funcion, a continuacion


se desarrollan algunos lemas que permiten determinar que la norma del vector de
error en (t) = y(t) yn (t) tiende asintoticamente a cero, cuando n .
Lema B.4. Desigualdad de Parseval

292

Bases matem
aticas para las Series de Fourier

Ap
endice B

Si y(t) es una funci


on per
odica y A0 , A1 , ...An y B1 , ...Bn son (algunos de los)
coeficientes de su representaci
on en serie de Fourier entonces
1
T

T
2

y (t)dt

T2

A20

1 X 2
+
Ak + Bk2
2

(B.2.14)

k=1

Demostraci
on
La norma al cuadrado del error que se comete, que se representa en la figura 5.8 a
la derecha, es:

en (t)2 = hen (t), en (t)i


= hen (t), y(t) yn (t)i
= hen (t), y(t)i hen (t), yn (t)i
Pero seg
un (5.3.15) el segundo termino es cero, y usando (5.3.16)

en (t)2 = hen (t), y(t)i


= hy(t), y(t)i hyn (t), y(t)i
+
* n
X

k fk (t), y(t)
= y(t)

2
= y(t)

k=1
n
X

k hfk (t), y(t)i

(B.2.15)
(B.2.16)
(B.2.17)

(B.2.18)
(B.2.19)
(B.2.20)
(B.2.21)

k=1

que puede reescribirse como


n
X

2
en (t)2 = y(t)2
k2 fk (t)

(B.2.22)

k=1

Si recordamos que la norma siempre es positiva o cero y se expresa mediante


integrales, y si calculamos la norma cuadratica de cada fk (t) de la base (5.3.1)
obtenemos
Z

T
2

T2

Z
e2n (t)dt

T
2

"
2

y (t)dt

T2

A20

#
n
X
2 T
2 T
T +
Ak + Bk
0
2
2

(B.2.23)

k=1

Con esto se obtiene la desigualdad de Parseval:


1
T

T
2

T2

y 2 (t)dt A20 +

1 X 2
Ak + Bk2
2

(B.2.24)

k=1

222

Section B.2.

293

Convergencia de las Series de Fourier

Corollario B.1. De la ecuaci


on (B.2.14), se deduce adem
as que
2
lim Ak = lim
k
k T
2
lim Bk = lim
k
k T

T
2

T2

T
2

T2

y(t) cos(k0 t)dt = 0

(B.2.25)

y(t) sin(k0 t)dt = 0

(B.2.26)

Demostraci
on
Directa de la desigualdad de Parseval, ya que si la integral del lado izquierdo existe,
entonces la serie del lado derecho, cuyo termino general es no-negativo, esta acotada
superiormente. Esto permite afirmar que converge, lo que a su vez implica que el
termino general se hace cero cuando n , por tanto, los coeficientes Ak y Bk se
hacen cero cuando k .
222
Lema B.5. La aproximaci
on o serie de Fourier truncada yn (t) de una funci
on
peri
odica y(t) de perodo T , puede escribirse como
2
T

yn (t) =

T
2

y(t + s)

T2

sin(0 (n + 12 )s)

ds
2 sin 20 s

; 0 =

2
T

(B.2.27)

Demostraci
on
La aproximacion n-esima puede escribirse utilizando las ecuaciones (5.3.4)
n
X

yn (t) = A0 +
1
=
T
+

T
2

n
X

2
T
2
T

"

(B.2.29)

T
2

2
cos(k0 t)
T
"
y( )

T2

(B.2.28)

y( )d

T2

k=1

[Ak cos(k0 t) + Bk sin(k0 t)]

k=1

T
2

T2

"
y( )

1
+
2
1
+
2

T
2

2
y( ) cos(k0 )d + sin(k0 t)
T
T
2

n
X

T
2

T2

#
y( ) sin(k0 )d
(B.2.30)
#

{cos(k0 t) cos(k0 ) + sin(k0 t) sin(k0 )} d

k=1
n
X

#
cos(k0 ( t)) d

k=1

Pero se puede utilizar la siguiente identidad trigonometrica

(B.2.31)
(B.2.32)

294

sin

k+

1
2

Bases matem
aticas para las Series de Fourier

Ap
endice B

s
1
0
0 s sin
k
0 s = 2 sin
cos (k0 s)
2
2

(B.2.33)

Y si se hace la suma desde 1 hasta n, obtenemos

n
s
s X
1
0
0
sin
n+
0 s sin
= 2 sin
cos (k0 s)
2
2
2

(B.2.34)

k=1

O bien,

n
sin n + 21 0 s
1 X
1

+
cos (k0 s) =
2
2 sin 2 0 s
k=1

(B.2.35)

Reemplazando en la integral se obtiene


2
yn (t) =
T

T
2

y( )

sin

T2

n + 21 0 ( t)

d
2 sin 20 ( t)

(B.2.36)

Si se considera t fijo y se hace el cambio s = t se obtiene


2
yn (t) =
T

T
2

y(t + s)

T2 t

sin

n + 12 0 s

ds
2 sin 20 s

(B.2.37)

En esta expresion, si la funcion y(t) tiene perodo T , entonces puede probarse


que la funcion en el integrando tambien es periodica en s, con perodo T . Esto se
deja como ejercicio al lector. Por lo tanto la integral puede calcularse en cualquier
intervalo de longitud T , en particular, en [ T2 , T2 ].
222
Lema B.6. Convergencia puntual.
Supongamos que y(t) es una funci
on peri
odica en (, ), de perodo T , entonces para cada t0 se cumple que
lim yn (t0 ) =

t0 .

y(t+
0 ) + y(t0 )
2

(B.2.38)

En que y(t+
mites por la derecha y por la izquierda de y(t) en
0 ) e y(t0 ) son los l

Demostraci
on
Primero, y como resultado previo, observemos que si integramos a ambos lados de
la ecuacion (B.2.35), obtenemos

Section B.2.

295

Convergencia de las Series de Fourier

T
2

T2

sin n + 21 0 s
T
1

=
2
2 sin 2 0 s

(B.2.39)

Ahora definamos la funcion


g(t) =

y(t+ ) + y(t )
2

(B.2.40)

Esta coincide con y(t) solo en sus puntos de continuidad y ademas hereda su
periodicidad. Podemos observar tambien que si t0 es una discontinuidad de y(t), lo
es tambien de g(t) y

y(t+
g(t+
0 ) + y(t0 )
0 ) + g(t0 )
=
(B.2.41)
2
2
Consideremos lo que sucede con el error en (t0 ), entre g(t) y su representacion
en serie de Fourier, a medida que n tiende a infinito. Si usamos la igualdad recien
mencionada y la expresion (B.2.27) para la n-esima suma parcial, el error puede
escribirse

g(t0 ) =

en (t0 ) = g(t0 ) gn (t0 )


(B.2.42)
T
Z T2
Z
2
sin(0 (n + 12 )s)
sin(0 (n + 12 )s)
2
2
0 ds

ds
g(t0 )
g(t0 + s)
=
T T2
T T2
2 sin 2 s
2 sin 20 s
(B.2.43)
Z T2
1
sin(0 (n + 2 )s)
2

ds
=
[g(t0 ) g(t0 + s)]
(B.2.44)
T T2
2 sin 20 s
#


Z T2 "
1
2
g(t0 ) g(t0 + s)
1
20 s
=
sin

n
+
s ds (B.2.45)
0
1
T T2
2
sin 12 0 s
2 0 s
La expresion entre corchetes dentro de la integral es seccionalmente continua
en el intervalo [ T2 , T2 ], siempre y cuando t0 sea un punto de continuidad de g(t),
lo que permite afirmar que el primer cuociente de la expresion entre corchetes se
transforma en la derivada cuando s 0. En estos puntos, usando la ecuacion
(B.2.26), se deduce que
lim en (t0 ) = 0

(B.2.46)

O, lo que es lo mismo,
lim gn (t0 ) = g(t0 ) =

g(t+
0 ) + g(t0 )
2

(B.2.47)

296

Bases matem
aticas para las Series de Fourier

Ap
endice B

Ya que, en este caso t0 se ha supuesto un punto de continuidad, es decir, g(t+


0)=
= g(t0 ).
En aquellos puntos (finitos) de discontinuidad de g(t), podemos definir la funcion

g(t
0)

G(t) = g(t + t0 ) g(t0 )

(B.2.48)

Si separamos esta funcion en sus partes par e impar

G(t) + G(t)
2
g(t + t0 ) + g(t + t0 ) 2g(t0 )
=
2
G(t) G(t)
Gimpar (t) =
2
g(t + t0 ) g(t + t0 )
=
2
Gpar (t) =

(B.2.49)
(B.2.50)
(B.2.51)
(B.2.52)

La serie de Fourier de Gimpar (t) converge a cero en t = 0, pues es una serie


senoidal. Mientras que Gpar (t) es continua en t = 0 (cuya prueba se deja al lector),
por tanto su serie de Fourier converge a Gpar (0) = G(0). Con esto podemos afirmar
que la serie de Fourier de G(t) converge a cero en t = 0 y en consecuencia
lim Gn (0) = 0

lim gn (t0 ) = g(t0 )

(B.2.53)

Es decir, la serie de Fourier de g(t) en t = t0 converge a g(t0 ), tambien en el


caso de los puntos de discontinuidad.
Ahora dada la definicion de g(t) en (B.2.40), su expresion en serie de Fourier
coincide con la de y(t), por tanto la convergencia puntual debe ser la misma. En
consecuencia, el lema queda demostrado.
222

Lema B.7. Convergencia uniforme


Supongamos que y(t) es una funci
on continua en (, ), de perodo T , cuya
primera derivada y 0 (t) es seccionalmente continua. Entonces, su serie de Fourier
converge uniformemente a y(t) en cualquier intervalo [a, b]. Es decir,

> 0 N > 0

n > N |y(t) yn (t)| < t [a, b]

(B.2.54)

Section B.2.

Convergencia de las Series de Fourier

297

Demostraci
on
Sean
A0 +
A00 +

X
n=1

[An cos(n0 t) + Bn sin(n0 t)]

(B.2.55)

[A0n cos(n0 t) + Bn0 sin(n0 t)]

(B.2.56)

n=1

Las series de Fourier de y(t) e y 0 (t), respectivamente. Entonces, dada la periodicidad de y(t), tenemos que

A00

1
=
T

T
2

y 0 (t)dt

(B.2.57)

T2

1
[y(T /2) y(T /2)]
T
=0

(B.2.58)
(B.2.59)

Mientras que para n > 0 tenemos

A0n

2
=
T

T
2

T2

y 0 (t) cos(n0 t)dt

#
"
Z T2
T2
2

=
y(t) sin(n0 t)dt
y(t) cos(n0 t) T + n0
T
2
T2
Z T2
2
= n0
y(t) sin(n0 t)dt
T T2

= n0 Bn
Z T2
2
Bn0 =
y 0 (t) sin(n0 t)dt
T T2
"
#
Z T2
T2
2

=
y(t) sin(n0 t) T n0
y(t) cos(n0 t)dt
T
2
T2
Z T2
2
= n0
y(t) sin(n0 t)dt
T T2
= n0 An

(B.2.60)
(B.2.61)
(B.2.62)
(B.2.63)
(B.2.64)
(B.2.65)
(B.2.66)
(B.2.67)

298

Bases matem
aticas para las Series de Fourier

Ap
endice B

Utilizando la desigualdad de Parseval (B.2.14), podemos afirmar que


2
q


X
X
2
2
0 2
02
n0 An + Bn
An + Bn =

(B.2.68)

n=1

n=1

1
T

T
2

y 0 (t)2 dt <

(B.2.69)

T2

p
Si se observa el termino general {n0 A2n + Bn2 } de la segunda serie, se aprecia
que pertenece al conjuto de todas las sucesiones cuadrado sumables, al igual que
la sucesion {1/(n0 )}. En ambas sucesiones n = 1, 2, . . . . En consecuencia el
producto de estas sucesiones tambien es cuadrado sumable, por tanto
X
q

q
X
1
2
2
n0 An + Bn
=
An 2 + Bn 2
n
0
n=1
n=1

(B.2.70)

Tambien converge.
Si ahora usamos la desigualdad de Cauchy-Schwartz (B.1.8)
|h(An , Bn ); (cos(n0 t), sin(n0 t))i| k(An , Bn )k k(cos(n0 t), sin(n0 t))k
(B.2.71)
q
q
An cos(n0 t) + Bn sin(n0 t) An 2 + Bn 2 cos2 (n0 t) + sin2 (n0 t)
(B.2.72)
q
= An 2 + Bn 2
(B.2.73)
Con esto se puede comparar la serie
|A0 | +

|An cos(n0 t) + Bn sin(n0 t)|

(B.2.74)

n=1

con la serie convergente de constantes positivas


|A0 | +

q
X

An 2 + Bn 2

(B.2.75)

n=1

el M -test de Weierstrass (vea el Lema B.3) asegura por tanto que


A0 +

[An cos(n0 t) + Bn sin(n0 t)]

(B.2.76)

n=1

converge uniformemente en cualquier intervalo cerrado. Pero, por el lema de convergencia puntual antes visto, sabemos que esta serie converge a y(t) punto a punto.
222

Section B.2.

299

Convergencia de las Series de Fourier

Con los resultados hasta aqu obtenidos estamos en condiciones ya de demostrar


que la norma del error que se comete al representar en serie de Fourier una funcion
seccionalmente continua tiende asintoticamente a cero.
Lema B.8. Sea y(t) una funci
on definida en (, ), de periodo T , seccionalmente continua y con primera derivada seccionalmente continua. Entonces, si yn (t)
es la n-esima suma parcial de su representaci
on en serie de Fourier, la norma del
error en (t) = y(t) yn (t) es tal que
lim ken (t)k = 0

(B.2.77)

Demostraci
on
Es directa de (B.2.54), ya que si tomamos y(t) en el intervalo [ T2 , T2 ], y denotamos
por {t1 , t1 , . . . , tm } los puntos en que y(t) es discontinua dentro de el, entonces, dado
un > 0, para cada uno de los m+1 subintervalos ( T2 , t1 ), . . . , (tk , tk+1 ), . . . , (tm , T2 )
existe una constante Nk tal que
n > Nk |y(t) yn (t)| <
|en (t)| < t (tk , tk+1 )

(B.2.78)
(B.2.79)

Si elegimos N = max{Nk }k=1,...,m+1 podemos asegurar que


n > N |en (t)| < t {[ T2 , T2 ] {t1 , . . . , tk+1 }}

(B.2.80)

Por tanto
Z
ken (t)k2 =

T
2

T2

t1

=
T2

en 2 (t)dt

(B.2.81)
Z

en 2 (t)dt + . . . +

tk+1

Z
en 2 (t)dt + . . . +

tk

T
2

en 2 (t)2 dt

(B.2.82)

tm

< 2 (t1 ( T2 )) + . . . + 2 (tk+1 tk ) + . . . + 2 ( T2 tm ) = 2 T


(B.2.83)
Con esto podemos afirmar, que dado un peque
no siempre es posible escoger N
suficientemente grando de manera que |en (t)| < T , y por tanto converge a cero.
222
Corollario B.2. Identidad de Parseval
Si y(t) es una funci
on per
odica y A0 , A1 , ...An y B1 , ...Bn son los coeficientes
de su representaci
on en serie de Fourier, entonces
1
T

T
2

T2

y 2 (t)dt = A20 +

1 X 2
Ak + Bk2
2
k=1

(B.2.84)

300

Bases matem
aticas para las Series de Fourier

Ap
endice B

Demostraci
on
Es directa de la ecuacion (B.2.23), donde como consecuencia del lema anterior
(B.2.77), la norma del error, ademas de ser positiva, tiende asintoticamente a cero.
Por tanto la desigualdad (B.2.14) se transforma en la identidad (B.2.84).

La serie de Fourier es solo una representacion de la funcion y(t), en el sentido que


converge al mismo valor que y(t) en los puntos que esta funcion es continua, y en
aquellos en que hay discontinuidades o saltos, la serie converge al promedio de
los lmites laterales. Note que estas diferencias entre la se
nal y su representacion
en serie de Fourier no son detectadas por la funcion de error minimizada, la cual
puede de todos modos alcanzar el valor mnimo (cero).

Apendice C

DE
LA TRANSFORMACION
FOURIER

C.1
C.1.1

Transformaci
on de Fourier en tiempo continuo
Definici
on de la Transformada

Dada una funcion y(t) en el intervalo ] , [ , su transformada de Fourier


Y (j) y su transformada de Fourier inversa quedan definidas por las ecuaciones

y(t)ejt dt

F [y(t)] = Y (j) =

(C.1.1)

F 1 [Y (j)] = y(t) =

1
2

Y (j)ejt d

(C.1.2)

Para que la transformada exista es suficiente que la funcion y(t) sea absolutamente integrable en el intervalo < t < , es decir:
Z

y(t) dt <

Existen funciones que a pesar de no cumplir con esta condicion, es posible calcular su transformada de Fourier.
Veamos a manera de ejemplo como se puede obtener la transformada de Fourier
del delta de Dirac, a partir de la transformada de un pulso como el del ejemplo 6.1
(pag. 117).
Ejemplo C.1. Consideremos un pulso centrado en el cero, de ancho y altura
1/, es decir, una funci
on
301

302

La transformaci
on de Fourier

1
y (t) =
0

Ap
endice C

; |t| /2
; |t| > /2

Esta funci
on est
abien definida t ] , [, y el
area del pulso es unitaria
> 0. Su transformada de Fourier por tanto puede obtenerse, en base al ejemplo
6.1 ya mencionado, o por la definici
on (C.1.1) ser
a
Z

/2

1 jt
e
dt
/2

1 j
2 ej 2
=
e
j

sin
2
=

Y (j) =

Puede apreciarse que a medida que 0, la funci


on se transforma en un pulso
mas alto y angosto, siendo esta funci
on una de las aproximaciones asint
oticas del
Delta de Dirac, pues es cero en todo instante, excepto t = 0, y su integral es unitaria.
En tanto, su trasnformada de Fourier se hace cada vez m
as plana. Estas ideas
se pueden apreciar en la figura C.1.
16

14

0.8
12

0.6
10

0.4

0.2
4

0.8 0.6 0.4 0.2 0

40

0.2

0.4

0.6
t

(a) Pulso y (t)

0.8

30

20

10

10

20
w

0.2

(b) Espectro Y (j)

1
.
Figura C.1. Pulso y su transformada para = 1, 41 , 16

Analticamente tenemos que en el lmite, cuando 0 :

30

40

Section C.1.

y (t)

Y (j) =

C.1.2

303

Transformaci
on de Fourier en tiempo continuo

sin(
2 )

(t)

Y (j) = 1

Propiedades de la Transformada de Fourier

Existen diversas propiedades de la transformada de Fourier que resultan de mucha


utilidad en el analisis frecuencial de se
nales y su relacion con los sistemas lineales,
que ademas permiten ontener la transformada de Fourier de una funcion a partir
de algunas mas basicas.
Lema C.1. Simetra.
Sea y(t) una funci
on definida t, cuya transformada de Fourier es Y (j), entonces si consideramos la funci
on Y (t), en el dominio del tiempo ahora, su transformada de Fourier es
F{Y (t)} = 2y(j)

(C.1.3)

Demostraci
on
Es directa de reemplazar Y (t) en la definici
on de la transformada y recordando la
ecuaci
on que define a y(t) como transformada inversa de Y (j)
Z

Y (t)ejt dt

Z
1
= 2
Y (t)ejt() dt
2

F{Y (t)} =

= 2y(j)
222
Ejemplo C.2. Consideremos una funci
on constante y(t) = C. Esta funci
on no es
absolutamente integrable, sin embargo, su transformada de Fourier puede obtenerse
en base a la transformada del Delta de Dirac:
F [y(t)] = F [C]
= C F [1]
= C 2()
= C 2()
Veamos ahora como se ve afectada la transformada de Fourier de una se
nal
cuando esta es desplazada en el tiempo, que puede ser el caso en que existe, por
ejemplo, retardo.

304

La transformaci
on de Fourier

Ap
endice C

Lema C.2. Desplazamiento en el tiempo.


Si tenemos una funci
on y(t) definida para < t < , cuya transformada de
Fourier es Y (j), entonces la transformada de Fourier de y(t t0 ) es
F{y(t t0 )} = ejt0 Y (j)

(C.1.4)

Demostraci
on
Aplicando la definici
on de la Transformada de Fourier, para la funci
on y(t) desplazada en el tiempo, tenemos que
Z

y(t t0 )ejt dt
Z
jt0
=e
y(t t0 )ej(tt0 ) dt

F{y(t t0 )} =

Donde si se define t = t t0 se puede reescribir la integral como


Z

jt0
F{y(t t0 )} = e
y(t )ejt dt

= ejt0 Y (j)
222
Ejemplo C.3. Si se aplica este lema al ejemplo 6.1, obtenemos que si el pulso de
amplitud A no est
a centrado en el origen, sino que se ha desplazado a la derecha,
ubic
andose en el intervalo [0, ] su transformada de Fourier ser
a

sin 2

F{y[0, ] (t)} = ejw 2 A

Si analizamos en que cambia realmente la transformada de Fourier del pulso


al desplazarlo en el tiempo, podemos apreciar que solo el angulo de Y (j) es el
que se ve afectado, ya que su modulo permanece invariante. Esto era esperable
ya que la ubicacion del instante t = 0, cuando estamos considerando una funcion
definida para < t < , es arbitraria afectando solo las fases relativas de sus
componentes en frecuencia.
Veamos que pasa en la contraparte del lema de desplazamiento en el tiempo,
pero en el dominio de la frecuencia .
Lema C.3. Desplazamiento en la frecuencia.
Si tenemos, al igual que antes, una funci
on y(t) definida en toda la recta real,
es decir, para < t < , cuya transformada de Fourier es Y (j), entonces
F{eat y(t)} = Y (j a)

;a C

(C.1.5)

Section C.1.

305

Transformaci
on de Fourier en tiempo continuo

Demostraci
on
Si aplicamos la definici
on de la transformada a la funci
on y(t) multiplicada por la
exponencial peri
odica ej0 t tenemos que
Z
F{eat y(t)} =

eat y(t)ejt dt
y(t)e(ja)t dt

En que se puede definir j = j a


Z
F{eat y(t)} =

y(t)ej t dt

= Y (j )
= Y (j a)
222
Ejemplo C.4. Con este lema podemos obtener la transformada de Fourier de una
exponencial peri
odica, considerando en la ecuaci
on (C.1.5) a = j0 :
j0 t
j0 t
F e
=F e
1
= 2(j j0 )
= 2( 0 )
Ya que el delta de Dirac es diferente de cero s
olo en el punto en que su argumento
es igual a cero.
A partir de esta transformada, utilizando la ecuaci
on de Euler, se pueden obtener
sin problema la del coseno y del seno:

ej0 t + ej0 t
2

1 j0 t
=
F e
+ F ej0 t
2
= [( + 0 ) + ( 0 )]

F [cos(0 t)] = F

ej0 t ej0 t
F [sin(0 t)] = F
2j

j
=
F ej0 t + F ej0 t
2
= j [( + 0 ) ( 0 )]

306

La transformaci
on de Fourier

Ap
endice C

Este lema tiene importantes aplicaciones en el analisis de se


nales que se modulan
en frecuencia y aquellas que son periodicas, como puede apreciarse en los siguientes
corolarios.
Corollario C.1. Modulaci
on.
Si tenemos una se
nal y(t) definida para todo t R, cuyo espectro (transformada
de Fourier) es Y (j), entonces
F{cos(0 t)y(t)} =

1
[Y (j j0 ) + Y (j + j0 )]
2

(C.1.6)

Demostraci
on
Esta es directa del lema anterior utilizando la ecuaci
on de Euler, es decir, escribiendo cos(0 t) con exponenciales peri
odicas. Esto es

F{cos(0 t)y(t)} = F

1 j0 t
(e
+ ej0 t )y(t)
2

1
F{ej0 t y(t)} + F{ej0 t y(t)}
2
1
= (Y (j j0 ) + Y (j + j0 ))
2
=

222
Se deja al lector la demostracion del corolario que se obtiene por analoga en el
caso que en vez de cos(0 t) se utiliza sin(0 t).
Ejemplo C.5. En ambos casos de modulaci
on planteados, cosenoidal y senoidal,
al hacer el producto de una se
nal con una sinusoide se logra desplazar el espectro,
o contenido de frecuencias de la se
nal. Esto permite llevar, por ejemplo, se
nales de
contenido de baja frecuencia (como la voz humana, en la banda de 0 4[kHz]), a
bandas de frecuencia para transmisi
on radial (por ejemplo 1[MHz]).
Esta idea se muestra en la figura C.2
|F {y(t)}|

4[kHz]

|F{y(t)cos(2106 t)}|

1[M Hz]

Figura C.2. Espectro de una se


nal de frecuencias audible y espectro de la se
nal
modulada.

Corollario C.2. Funciones Peri


odicas.

Section C.1.

307

Transformaci
on de Fourier en tiempo continuo

Si tenemos una se
nal peri
odica yT (t), en un intervalo de longitud T , esta no
es una funci
on absolutamente integrable y su transformada de Fourier no puede
obtenerse a traves de la definici
on (C.1.1). Sin embargo, sabemos ya que una se
nal
peri
odica podemos representarla mediante una Serie de Fourier (representaci
on en
el tiempo) ya sea trigonometrica o con exponenciales peri
odicas. En los desarrollos
realizados adem
as ya hemos encontrado las expresiones para las transformadas de
Fourier de una constante, del coseno, del seno y de una exponencial peri
odica, por
tanto, la transformada de Fourier de una se
al peri
odica se puede obtener:
"

F [yT (t)] = F

#
jn t

Cn e

n=

En que n = n2/T , y por linealidad


F [yT (t)] =
=

X
n=

Cn F ejn t
Cn ( + n )

n=

Ejemplo C.6. Consideremos el tren de pulsos de la figura C.3 definido por

; 0 |t| 2
+1
y(t) = 1
; 2 < |t|

y(t + 2) ; |t| >


y(t)
1

t
1

Figura C.3. Tren de pulsos


La integral del valor absoluto de la funci
on claramente diverge, y si intentamos
obtener la transformada de Fourier de esta funci
on utilizando la definici
on (C.1.1),
llegamos a una expresi
on difcil de simplificar. En cambio, la funci
on y(t) puede
expresarse mediante su serie de Fourier, que en este caso ser
a cosenoidal, pues y(t)
es par:

308

La transformaci
on de Fourier

y(t) =

Ap
endice C

An cos(nt)

n=1

An =

y(t) cos(nt)dt

Calculando los coeficientes Bn , se obtiene

y(t) =

n
X
4
sin
cos(nt)
n
2
n=1

Luego,
Y (j) =
=

n
X
4
sin
[( + n) + ( n)]
n
2
n=1

n
X
4
sin
( + n)
n
2
n=
n6=0

Es decir, los coeficientes An se transforman en las amplitudes de los deltas de


Dirac en el espectro Y (j), como se puede apreciar en la figura C.4

1.2

0.6

0.8

0.4

0.6

0.4

0.2

0.2

10

10

0.2

0.4

0.2

(a) Coeficientes An

(b) Espectro Y (j)

Figura C.4.

10

Section C.1.

309

Transformaci
on de Fourier en tiempo continuo

Lema C.4. Escalamiento.


Sea y(t) una funci
on definita para t ] , [, y a una constante real distinta
de cero, entonces
F{y(at)} =

1
Y (j )
|a|
a

(C.1.7)

Demostraci
on
Si reemplazamos la funci
on escalada y(at) en la definici
on de la integral, podemos
ah definir una nueva variable t = at, pero se debe tener en cuenta que el signo de
a determina si los lmites de la integral se mantienen o se deben intercambiar:
Z

F{y(at)} =

y(at)ejt dt

t dt

y(t )ej a

a
Z
=

t dt

y(t )ej a
a

; si a > 0
; si a < 0

Dado que el cambio de orden en los lmites de la integral es un cambio de signo,


ambas expresiones pueden juntarse en una sola:
F{y(at)} =

signo(a)
a

y(t )ej a t dt

Que es lo mismo que


F{y(at)} =

1
Y (j )
|a|
a
222

A partir de este lema puede verificarse directamente que


F{y(t)} = Y (j)

(C.1.8)

A continuacion veamos algunas propiedades de la transformada de Fourier que


tienen directa relacion con la aplicacion de esta en la solucion de las ecuaciones diferenciales y el analisis de sistemas, que se refieren a la transformada de la derivada,
de la integral y de la convolucion de funciones.
Lema C.5. Derivaci
on en t.
Sea y(t) una funci
on definida en toda la recta real talque y(t) 0 cuando
t , y cuya transformada de Fourier es Y (j) . Entonces, la transformada de
Fourier de la derivada de y(t) con respecto al tiempo es

310

La transformaci
on de Fourier

d y(t)
F
= jY (j)
dt

Ap
endice C

(C.1.9)

Demostraci
on
Si se aplica la definici
on de la transformada de Fourier a la derivada
integra por partes, se obtiene:
Z
d y(t)
d y(t) jt
F
=
e
dt
dt
dt
Z

= y(t)ejt
+ j

d y(t)
dt ,

y se

y(t)ejt dt

Y dada la condici
on asint
otica sobre y(t) cuando t , s
olo sobrevive el segundo
termino

Z
d y(t)
F
= j
y(t)ejt dt
dt

= jY (j)
222
Es importante hacer notar que este lema no garantiza la existencia de la transformada de la derivada temporal de y(t), sino que, en caso de existir, su expresion
puede obtenerse utilizando (C.1.9). Para las derivadas de orden superior en tanto,
tenemos el siguiente corolario, que se debe utilizar con la misma precaucion antes
mencionada:
Corollario C.3. Derivadas de orden superior
Para una funci
on y(t) definida como en el lema anterior, tenemos que
n

d y(t)
F
= (j)n Y (j)
(C.1.10)
dt n
Demostraci
on
Se deja al lector, pues es directa por inducci
on, aplicando recursivamente el lema
anterior.
222
Lema C.6. Transformada de la integral.
Sea y(t) una funci
on definida en todos los reales, cuya transformada de Fourier
es Y (j). Entonces, la transformada de su integral definida es
Z t

1
Y (j) + Y (0)()
(C.1.11)
F
y( )d =
j

Section C.1.

311

Transformaci
on de Fourier en tiempo continuo

Demostraci
on
Para demostrar esta propiedad debemos en primer lugar observar que si definimos
1 (t) como la integral definida de y(t), entonces
d 1 (t)
d
=
dt
dt

y( )d

= y(t)
Pero tambien se cumple, para cualquier constante real k, que
d
(1 (t) + k) = y(t)
dt
Por tanto, aplicando Fourier y la ecuaci
on (C.1.9)
j (1 (j) + 2k()) = Y (j)
Luego, ya tenemos una forma para la transformada de la derivada, que es
1
Y (j) 2k()
(C.1.12)
j
Por tanto nos resta encontrar el valor de k. Para esto consideremos nuevamente
la integral indefinida 1 (t)
1 (j) =

1 (t) =

y( )d

Z
y( )d +

y( )d

Z t

y( )d

y(x)dx

Donde se ha cambiando la variable x = , en la segunda integral.


Si definimos
Z

2 (t) =

y(x)dx

2 (j) =

1
Y (j) 2k()
j

Es su transformada de Fourier, seg


un la forma (C.1.12). Entonces podemos
retomar la funci
on 1 (t), y aplicarle transformada de Fourier

312

La transformaci
on de Fourier

Ap
endice C

y( )d 2 (t)
Z

1 (j) = 2
y( )d () 2 (j)

1
1
Y (j) 2k() = 2
y( )d ()
Y (j) 2k()
j
j

1 (t) =

Donde si se observa que () = (), se puede despejar la constante k:


Z
1
y( )d
2
Z

1
y( )ej d
=
2

=0
1
= Y (0)
2

k=

Por tanto
1 (j) =

1
Y (j) + Y (0)()
j
222

Ejemplo C.7. El lema anterior puede utilizarse para obtener la transformada del
escal
on unitario (t) o funci
on de Heaviside, a partir de la transformada del delta
de Dirac.
Dada la definici
on del Delta Dirac y de la funci
on de Heaviside, tenemos que
(
0
( )d =
1

;t < 0
;t > 0

= (t)
Por tanto,
Z

( )d

F [(t)] = F

1
=
F [(t)] + () F [(t)]|=0
j
1
=
+ ()
j

Section C.1.

313

Transformaci
on de Fourier en tiempo continuo

Lema C.7. Convoluci


on en el tiempo.
Sean y1 (t) e y2 (t), dos funciones definidas para < t < , cuyas transformadas de Fourier son Y1 (j) e Y2 (j), respectivamente. Entonces, la transformada
de Fourier de la convoluci
on entre ellas es
F{y1 (t) y2 (t)} = Y1 (j)Y2 (j)

(C.1.13)

Recordando que la convoluci


on se define como:
Z
y1 (t) y2 (t) =
y1 ( )y2 (t )d

(C.1.14)

Demostraci
on
Insertando la expresi
on de la convoluci
on en la transformada se obtiene
Z

F{y1 (t) y2 (t)} =

y1 ( )y2 (t )d

ejt dt

donde si se intercambia el orden de integraci


on
Z

F{y1 (t) y2 (t)} =

y1 ( )

y2 (t )ejt dt d

Que usando la ecuaci


on (C.1.4) es igual a
Z

y1 ( ) ej Y2 (j) d

Z
= Y2 (j)
y1 ( )ej d

F{y1 (t) y2 (t)} =

= Y2 (j)Y1 (j)
222
Veamos a continuacion cual es la transformada de Fourier de un producto de
funciones que puede resultar u
til para el calculo de la transformada de Fourier de
alguna funcion mas complicada.
Lema C.8. Producto de funciones.
Sean y1 (t) e y2 (t) funciones definidas para < t < , cuyas transformadas
de Fourier son Y1 (j) e Y2 (j), respectivamente. Entonces, la transformada de
Fourier del producto entre ellas es
F{y1 (t)y2 (t)} =

1
Y1 (j) Y2 (j)
2

(C.1.15)

314

La transformaci
on de Fourier

Ap
endice C

Demostraci
on
Consideremos la transformada de Fourier inversa de la convoluci
on de funciones
en
Z
1
Y1 (j) Y2 (j)ejt d
2

Z Z
1
=
Y1 (j)Y2 (j j)d ejt d
2

F 1 {Y1 (j) Y2 (j)} =

Intercambiando el orden de integraci


on
F

1
{Y1 (j) Y2 (j)} =
2

Y1 (j)

Y2 (j j)e

jt

d d

Donde si se define j j = j
F

1
{Y1 (j) Y2 (j)} =
2
= 2

(j +j)t

Y1 (j)
Y2 (j )e
d d

Z
Z
1
1
jt
j t

Y1 (j)e d
Y2 (j )e
d
2
2

= 2y1 (t)y2 (t)


Con lo que el lema queda demostrado.
222

Teorema C.1 (Teorema de Parseval. El caso de tiempo continuo). Sean


Y1 (j) y Y2 (j) las tranformadas de Fourier de las funciones (reales) y1 (t) e y2 (t)
respectivamente, definidas t ] , [. En tonces tenemos que
Z
Z
1
y1 (t)y2 (t)dt =
Y1 (j)Y2 (j)d
(C.1.16)
2

Demostraci
on
Esto se demuestra con ayuda del lema de convoluci
on en el tiempo (C.1.13). Seg
un
este tenemos que
y1 (t) y2 (t) = F 1 [Y1 (j)Y2 (j)]
Z

1
y1 ( )y2 (t )d =
Y1 (j)Y2 (j)ejt d
2

Section C.1.

Transformaci
on de Fourier en tiempo continuo

315

Si evaluamos en t = 0, queda
Z

y1 ( )y2 ( )d =

1
2

Y1 (j)Y2 (j)d

Donde si se reemplaza al lado izquierdo por t, y usamos la ecuaci


on (C.1.8)
que establece que F [y2 (t)] = Y2 (j), entonces queda demostrado el lema.
222
Corollario C.4. Un caso especial del lema anterior es cuando se considera y1 (t) =
y2 (t) = y(t), con lo que la ecuaci
on (C.1.16) se transforma en
Z
Z
1
2
Y (j)Y (j)d
{y(t)} dt =
2

Pero dado que Y (j) es el complejo conjugado de Y (j), el integrando a la


derecha es la norma cuadrado de la transformada, es decir
Z
Z
1
2
2
{y(t)} dt =
|Y (j)| d
(C.1.17)
2

En la tabla C.1 se muestra un resumen de las propiedades hasta aqu revisadas


y que sirven para el calculo de la transformada de Fourier de las funciones mas
comunes, como las que se muestran en la tabla C.2

316

La transformaci
on de Fourier

f (t)
l
X

F [f (t)]
l
X

ai yi (t)

i=1

Descripcion

ai Yi (j)

Linealidad

i=1

dy(t)
dt

jY (j)

Derivacion

dk y(t)
dtk

(j)k Y (j)

Derivadas superiores

1
Y (j) + Y (0)()
j

Integracion

y(t )

ej Y (j)

Retardo

y(at)

1
Y j
|a|
a

Escalamiento temporal

y(t)

Y (j)

Inversion temporal

Y1 (j)Y2 (j)

Convolucion

eat y1 (t)

Y1 (j a)

Desplazamiento en frecuencia

y(t) cos(o t)

1
{Y (j jo ) + Y (j + jo )}
2

Modulacion (cosenoidal)

y(t) sin(o t)

1
{Y (j jo ) Y (j + jo )}
j2

Modulacion (senoidal)

Y (t)

2y(j)

Simetra

y( )d

Ap
endice C

y1 ( )y2 (t )d

y1 (t)y2 (t)

1
2

Y1 (j)Y2 (j j)d

Producto en el tiempo

Tabla C.1. Propiedades de la transformada de Fourier.

Section C.1.

317

Transformaci
on de Fourier en tiempo continuo

f (t)

t R

F [f (t)]

2()

D (t)

(t)

() +

(t) (t to )

1
j

1 ejto
j

et (t)

<{} R+

1
j

tet (t)

<{} R+

1
(j )2

e|t|

R+

2
+ 2

cos(o t)

(( + o ) + ( o ))

sin(o t)

j (( + o ) ( o ))

cos(o t)(t)

j
(( + o ) + ( o )) +
2
2 + o2

sin(o t)(t)

j
o
(( + o ) ( o )) +
2
2
+ o2

et cos(o t)(t)

R+

j +
(j + )2 + o2

et sin(o t)(t)

R+

o
(j + )2 + o2

Tabla C.2. Tabla de tranformadas de Fourier

318

C.2
C.2.1

La transformaci
on de Fourier

Ap
endice C

Transformada de Fourier en tiempo discreto


Definici
on de la transformada

Dada una funcion definida en tiempo discreto y[k] , en que k Z , su transformada


de Fourier discreta Y (ej ) y su transformada de Fourier discreta inversa quedan
definidas por las ecuaciones

Fd {y(t)} = Y (ej ) =

y[k]ejk

(C.2.1)

k=

Fd

1
Y (e ) = y[k] =
2

Y (j)ejk d

(C.2.2)

La transformada Y (ej ) definida en (C.2.1) resulta ser periodica, de perodo


2, por tanto la integral que define la transformada inversa (C.2.2), puede calcular
en cualquier intervalo de longitud 2. De hecho, algunos textos la definen en el
intervalo [, ]
Para que la transformada exista es suficiente que la funcion y[k] sea absolutamente sumable en el intervalo < k < , es decir:

y[k] <
k=

Si bien existen funciones que no cumplen con esta condicion, a pesar de ello
poseen transformada de Fourier discreta.
A continuacion se muestran algunos ejemplos para ver como se obtiene la transformada de Fourier discreta para un delta de Kronecker, para una secuencia constante y para una exponencial decreciente discreta.
Ejemplo C.8. Consideremos primero la secuencia
(
1
y[k] = K [k] =
0

;k = 0
; k 6= 0

Es decir, un delta de Kronecker . Esta secuencia es absolutamente sumable,


por tanto se cumple la condici
ojn suficiente para la existencia de su transformada
discreta. Si calculamos esta usando la definici
on tenemos que la serie infinita se
traduce en un solo termino

Section C.2.

319

Transformada de Fourier en tiempo discreto

Y (ej ) =

K [k]ejk

k=

= K [0]ej0
=1
Es decir, su transformada de Fourier discreta es constante. Podemos interpretar
esto de manera an
aloga al delta de Dirac en tiempo continuo, cuya transformada
tambien es constante y representa un espectro plano, o igual contenido de frecuencias
en todo el espectro.
Ejemplo C.9. Consideremos ahora el caso opuesto en que tenemos una secuencia
constante que se escoge de amplitud uno por simplicidad. Es decir, la secuencia que
nos interesa es
y[k] = 1
k Z
Esta secuencia no es absolutamente sumable, ya que

k=

Sin embargo, si usamos la definici


on de la transformada tenemos que

Y (ej ) =

1 ejk

k=

En que la serie al lado derecho podemos interpretarla como una representaci


on
en serie exponencial de Fourier de alguna funci
on peri
odica, en que el coeficiente
es Ck = 1 , para todo k. Si recordamos, el coeficiente Ck en una serie de Fourier
exponencial para una funci
on peri
odica f () se calcula como

Ck =

1
T

T
2

f ()ej T

T2

Con lo que la funci


on se expresa como
f () =

Ck ej T

k=

De aqu podemos observar que el perodo de la funci


on peri
odica debe ser T = 2,
y para que la integral que define a Ck sea unitaria basta que la funci
on, dentro del
intervalo [, ] sea un delta Dirac de amplitud 2, centrado en = 0.

320

La transformaci
on de Fourier

Ap
endice C

Es decir, la transformada de Fourier discreta de la secuencia constante y[k] = 1


es igual a

X
Y (ej ) = 2
( 2n)
n=

Esto se puede comprobar calculando la transformada de Fourier discreta inversa,


mediante la integral (C.2.2), que dada la periodicidad basta calcularla en cualquier
intervalo de longitud 2
Z
1
y[k] =
Y (ej )ejk d
2
Z

X
1
=
2
( 2n)ejk d
2
n=
Z
()ejk d
=

=1

k Z

Ejemplo C.10. Consideremos ahora la se


nal
y[k] = k [k]

|| < 1

Su transformada de Fourier discreta ser


a

Y (ej ) =
=

X
k=0

k ejk
(ej )k

k=0

Que resulta ser una serie geometrica convergente ya que |ej | < 1. Por tanto
su suma es
Y (ej ) =

C.2.2

1
1 ej

Propiedades de la transformada de Fourier discreta

A continuacion se detallan una serie de propiedades de la transformada de Fourier


discreta que resultan u
tiles para la obtencion de algunas transformadas y para el
analisis de sistemas.

Section C.2.

321

Transformada de Fourier en tiempo discreto

Lema C.9. Linealidad


La transformada de Fourier discreta es una transformaci
on lineal, es decir, si
y1 [k] e y2 [k] son dos secuencias definidas k Z, cuyas transformadas de Fourier
son Y1 (ej ) e Y2 (ej ) respectivamente, entonces
Fd {y1 [k] + y2 [k]} = Y1 (ej ) + Y2 (ej )

(C.2.3)

Demostraci
on
Es directa de la definicion de la transformada (C.2.1), ya que

Fd {y1 [k] + y2 [k]} =

(y1 [k] + y2 [k])ejk

k=

y1 [k]e

jk

k=

y2 [k]ejk

k=

= Y1 (e ) + Y2 (e )
222
Lema C.10. Corrimiento en el tiempo.
Sea y[k] una secuencia de tiempo discreto definida k Z, cuya transformada
de Fourier es Y (ej ) , y sea k0 un n
umero entero, entonces
Fd {y[k k0 ]} = ejk0 Y (ej )

k0 Z

(C.2.4)

Demostraci
on
Consideremos la definicion de la transformada (C.2.1), y tomemos k0 Z, entonces

Fd {y[k k0 ]} =

y[k k0 ]ejk

k=

Sea k k0 = l, entonces k = l + k0 y reemplazando en la sumatoria


Fd {y[k k0 ]} =

y[l]ej(l+k0 )

l=

= ejk0

y[l]ejl

l=

=e

jk0

Y (ej )

322

La transformaci
on de Fourier

Ap
endice C

222
Lema C.11. Corrimiento en frecuencia.
Sea y[k] una secuencia de tiempo discreto definida k Z, con transformada
Y (ej ) , y sea 0 < 0 < 2 un n
umero real, entonces consideremos la transformada
de la secuencia original multiplicada por una exponencial peri
odica

Fd ej0 k y[k] = Y (ej(0 ) )

(C.2.5)

Demostraci
on
Para demostrar la propiedad anterior podemos considerar directamente la definicion
(C.2.1)

Fd ej0 k y[k] =
ej0 k y[k]ejk

k=

y[k]ej(0 )k

k=

Sea 0 = , entonces reemplazando

Fd ej0 k y[k] =
y[k]ejk
k=

= Y (ej )
= Y (ej(0 ) )

Note que si la frecuencia 0


/ ]0, 2[ , es decir, se encuentra fuera de la banda
que hemos considerado hasta ahora, siempre puede escribirse de la forma
0 = 0 + 2n
En que 0 ]0, 2[ y n Z, con lo que
ej0 = ej(0 +2n) = ej0 e2n = ej0
Recordemos que es justamente por esto que a la exponencial periodica ej() le
hemos denominado tambien exponencial periodica.
222
Para ilustrar esto veamos un ejemplo
Ejemplo C.11. Considere la secuencia de tiempo discreto

Section C.2.

Transformada de Fourier en tiempo discreto

323

2
y[k] = cos
k
10
Para calcular su transformada de Fourier discreta, en vez de usar la definici
on
podemos utilizar la propiedad (C.2.5), ya que el coseno puede escribirse en terminos
de exponenciales

2
2
ej 10 k + ej 10 k
2
k =
10
2
Ambas exponenciales peri
odicas las podemos pensar como la secuencia constante
y0 [k] = 1 multiplicada por la respectiva exponencial peri
odica. Es as como bajo este
punto de vista la transformada de Fourier discreta se puede obtener en unos pocos
pasos

y[k] = cos

Fd cos

2
k
10

1 n j 2 k o 1 n j 2 k o
Fd e 10
+ Fd e 10
2
2

X
X
1
1
2
2
= 2
+ 2n) + 2
+ 2n)
(
( +
2 n=
10
2 n=
10
=

X
n=

X
2
2
+ 2n) +
+ 2n)
( +
10
10
n=

Si restringimos la expresi
on de la transformada a la banda que nos ha interesado,
es decir, [0, 2], tenemos que en ella s
olo existen dos de los deltas de Dirac

18
2
2

k
) + (
)
Fd cos
= (

10
10
10
0<<2
En la figura C.5, se muestra la secuencia peri
odica discreta y su espectro, es
decir, su transformada de Fourier discreta, formada por los dos deltas de Dirac en
el intervalo [0, 2].
Como consecuencia del lema anterior, que expresa el corrimiento en frecuencia
que sufre el espectro de una secuencia discreta al ser multiplicado por una exponencial periodica tenemos el siguiente corolario. Este determina el efecto que tiene
sobre la transformada de Fourier discreta el modular una secuencia por alguna
sinusoidal.
Corollario C.5. Sea y[k] una secuencia discreta definida para < k < con
transformada Y (ej ), y 0 < 0 < 2 un n
umero real. Entonces
i
1h
Y (ej(+0 + Y (ej(0 )
(C.2.6)
Fd {cos(0 k)y[k]} =
2
h
i
j
Fd {sin(0 k)y[k]} =
Y (ej(+0 Y (ej(0 )
(C.2.7)
2

324

La transformaci
on de Fourier

Ap
endice C

1.5

1.8
1

1.6

1.4
0.5

Y(ej)

y[k]

1.2

0.8
0.5

0.6

0.4
1

0.2

1.5
15

10

0
k

10

15

Figura C.5. Se
nal cosenoidal y[k] y su transformada discreta.

Demostraci
on
Como se menciono anteriormente resulta de la aplicacion del lema anterior, ya
que tanto cos(0 k) como sin(0 k) pueden escribirse en terminos de exponenciales
periodicas.
Consideremos la ecuacion (C.2.6):

ej0 k + ej0 k
y[k]
2
1

1 j0 k
= Fd e
y[k] + Fd ej0 k y[k]
2
2
i
1h
j(0
=
Y (e
+ Y (ej(+0 )
2

Fd {cos(0 k)y[k]} = Fd

La demostracion de (C.2.7) resulta analoga, por lo tanto se deja como ejercicio


para el lector.
222

Lema C.12. Inversi


on temporal.
Sea y[k] una secuencia de tiempo discreto definida k Z, con transformada Y (ej ). Consideremos la transformada de la secuencia original invertida en el
tiempo, es decir
Fd {y[k]} = Y (ej )

(C.2.8)

Section C.2.

Transformada de Fourier en tiempo discreto

325

Demostraci
on
Para demostrar la propiedad usamos la ecuacion (C.2.1), que define la transformada
de Fourier discreta de una secuencia

Fd {y[k]} =

y[k]ejk

k=

Sea l = k, entonces
Fd {y[k]} =
=

X
l=

y[l]ej(l)
y[l]ej()l

l=

= Y (ej )
222
Corollario C.6. Note que si la secuencia y[k] est
a compuesta s
olo por valores
reales, entonces
Fd {y[k]} = Y (ej )
(C.2.9)
En que () denota al complejo conjugado de ()
Demostraci
on
Se deja como ejercicio al lector.

222

En base a las propiedades ya anlizadas estamos en condiciones de ver el siguiente


ejemplo.
Ejemplo C.12. Veamos como obtener ahora la transformada de Fourier discreta
de un escal
on unitario en tiempo discrto, es decir, de la secuencia
(
0 ;k < 0
y[k] = [k] =
1 ;k 0
Para esto podemos apreciar que si definimos la secuencia
x[k] = [k] [k 1]
(
1 ;k = 0
=
0 ; k 6= 0

326

La transformaci
on de Fourier

Ap
endice C

Es decir, resulta ser un delta de Kronecker. Esto tambien es v


alido, sin embargo,
si al escal
on [k] se le suma alguna constante, es decir
x[k] = [k] + C
x[k] x[k 1] = K [k]
Si aplicamos transformada de Fourier discreta a ambas ecuaciones anteriores y
utilizamos la propiedad de corrimiento en k

X(ej ) = Fd {[k]} + C2

( 2n)

n=

X(ej ) ej X(ej ) = 1
De ambas ecuaciones se puede eliminar X(ej ) y despejar la transformada que
nos interesa

X
1
Fd {[k]} =

C2
( 2n)
1 ej
n=
Donde hemos obtenida la forma de la transformada del escal
on unitario discreto.
Para obtener el valor de la constante C, podemos escribir el mismo escal
on como
[k] = 1 [k] + K [k]
Donde podemos aplicar la transformada utilizando la forma de Fd {[k]} obtenida, la propiedad de simetra temporal, y las transformadas del delta de Kronecker y
la constante, antes obtenidas.
1
C S() = S()
1 ej

1
C S() + 1
1 ej

En que
S() = 2

( 2n)

n=

Donde podemos apreciar que S() es simetrica respecto a = 0, por lo tanto


C 2S() = S() +

1
1
+
+1
1 ej
1 ej
|
{z
}
0

C 2S() = S()
1
C=
2

Section C.2.

Transformada de Fourier en tiempo discreto

327

Luego, la transformada de Fourier discreta del escal


on [k] es
Fd {[k]} =

X
1
+

( 2n)
1 ej
n=

Lema C.13. Sea y[k] una secuencia de tiempo discreto definida k Z, cuya
transformada es Y (ej ). Consideremos ahora la secuencia k y[k], su transformada,
s
olo en el caso que exista, es igual a
Fd {k y[k]} = j

d Y (ej )
d

(C.2.10)

Demostraci
on
Se debe tener cuidado al aplicar esta propiedad, pues no garantiza la existencia
de la transformada de k y[k].
En caso de existir, podemos aplicar la transformada de Fourier inversa, usando
la ecuacion (C.2.2) :

Z 2
1
d Y (ej )
d Y (ej ) jk
1
Fd
=
e d
j
j
d
2 0
d
Donde se puede integrar por partes, eligiendo convientemente :

Z 2
j
d Y (ej )
d Y (ej )
Fd 1 j
=
ejk
d
d
2 0
d
2 j Z 2
j jk
j
=
e Y (e )
Y (ej )jkejk d
2 |
0
{z
} 2 0
j 2
=
k
2
=k

1
2
|

0
2

Y (ej )ejk d

Y (ej )ejk d
{z
}
y[k]

222
Ejemplo C.13. Calculemos la transformada de Fourier discreta de la secuencia
y[k] = kk [k]

|| < 1

Podemos aplicar la propiedad recien vista dado que conocemos la transformada


de k [k]. De esta forma, tenemos que:

328

La transformaci
on de Fourier

Fd

d Fd k [k]
k [k] = j
d

1
d
=j
d 1 ej
1
=j
(jej )
(1 ej )2
ej
=
(1 ej )2
k

1.8

4.5

1.6

1.4

3.5

3
Y(ej)

y[k]

1.2

2.5

0.8

0.6

1.5

0.4

0.2

0.5

0
5

Ap
endice C

10
k

15

20

25

Figura C.6. Secuencia y[k] = k(0.8)k [k] y la magnitud de su TFD.


En la figura C.6 se muestra la secuencia discreta y el m
odulo de su transformada
discreta, cuando = 0.8

Lema C.14. Convoluci


on en tiempo discreto
Sean y1 [k] e y2 [k] dos secuencias definidas k Z, cuyas transformadas de
Fourier son Y1 (ej ) e Y2 (ej ) respectivamente, entonces la transformada de Fourier
discreta de la convoluci
on es :
Fd {y1 [k] y2 [k]} = Y1 (ej )Y2 (ej )

(C.2.11)

Demostraci
on
Recordemos en primer lugar que la convolucion de dos secuencias de tiempo discreto
y1 [k] e y2 [k] se define como :

Section C.2.

329

Transformada de Fourier en tiempo discreto

y1 [k] y2 [k] =

y1 [l]y2 [k l]

l=

Usando esta expresion en la definicion (C.2.1) tenemos que :



!

X
X
y1 [l]y2 [k l] ejk
Fd {y1 [k] y2 [k]} =
l=

k=

Donde se pueden intercambiar las sumatorias y usar la propiedad de corrimiento


en el tiempo discreto k :

Fd {y1 [k] y2 [k]} =


=

y1 [l]

l=

!
jk

y2 [k l]e

k=

y1 [l]ejl Y2 (ej )

l=

= Y2 (ej )

y1 [l]ejl

l=
j

= Y2 (e )Y1 (ej )
222
Lema C.15. Producto en el tiempo discreto
Sean y1 [k] e y2 [k] dos secuencias definidas k Z, cuyas transformadas de
Fourier son Y1 (ej ) e Y2 (ej ) respectivamente, entonces la transformada de Fourier
discreta del producto de ellas es :
1
Fd {y1 [k]y2 [k]} =
2

Y1 (ej )Y2 (ej() )d

(C.2.12)

Demostraci
on
Reemplazando el producto de las secuencias en la definicion (C.2.1) tenemos que :
Fd {y1 [k]y2 [k]} =

y1 [k]y2 [k]ejk

k=

Aqui podemos escribir una de las secuencias seg


un la ecuacion (C.2.2) que la
expresa como la transformada de Fourier inversa. Con esto e intercambiando de
orden la sumatoria con la integral que aparece tenemos que :

330

La transformaci
on de Fourier

Ap
endice C

Z 2

X
1
Y1 (ej )ejk d y2 [k]ejk
2 0
k=
!

Z 2
X
jk
1
j
jk
=
Y1 (e )
e y2 [k] e
d
2 0

Fd {y1 [k]y2 [k]} =

k=

Donde si usamos la propiedad de corrimiento en frecuencia tenemos que


Z 2
1
Fd {y1 [k]y2 [k]} =
Y1 (ej )Y1 (ej() )d
2 0
222
Teorema C.2 (Teorema de Parseval. El caso de tiempo discreto). Sean
y1 [k] e y2 [k] dos secuencias reales definidas k Z, cuyas transformadas de Fourier
son Y1 (ej ) e Y2 (ej ) respectivamente, entonces se cumple que:

X
k=

1
y1 [k]y2 [k] =
2

2
0

Y1 (ej )Y2 (ej )d

(C.2.13)

En que () denota el complejo conjugado de ().


Demostraci
on
En el lado izquierdo de la ecuaci
on (C.2.13) podemos reemplazar y1 [k], utilizando
la definici
on de la transformada de Fourier discreta inversa dada por la expresi
on
(C.2.2) :

X
k=

Z 2

X
1
j jk
y1 [k]y2 [k] =
Y1 (e )e d y2 [k]
2 0
k=

Aqui podemos intercambiar el orden entre la integral y la sumatoria, para luego


formar una expresi
on que corresponda a la transformada de y2 [k] como se aprecia
a continuaci
on :

X
k=

y1 [k]y2 [k]

1
=
2
1
=
2
1
=
2

Y1 (e )
0

Y1 (e )
0

Z
0

!
y2 [k]ejk

k=

!
y2 [k]e

k=
2

Y1 (ej )Y2 (ej )d

jk

Section C.2.

Transformada de Fourier en tiempo discreto

331
222

Corollario C.7. Si y[k] es una secuencia discreta definida k Z, con transformada Y (ej ), entonces se cumple que:

X
k=

| y[k] |2 =

1
2

| Y (ej ) |2 d

(C.2.14)

Demostraci
on
Es directa de la ecuaci
on (C.2.13) ya que
y[k] y [k] = | y[k] |2
Y (ej )Y (ej ) = | Y (ej ) |2
222

332

La transformaci
on de Fourier

Fd {y[k]} = Y (ej )

y[k] , k Z
l
X

l
X

i yi [k]

i=1

i Yi (ej )

Ap
endice C

Descripcion
Linealidad

i=1

y[k]

Y (ej )

Inversion temporal

y[k k0 ] , k0 Z

ejk0 Y (ej )

Corrimiento temporal

ej0 k y[k]

Y (ej(0 ) )

Corrimiento en frecuencia

cos(0 k)y[k]
sin(0 k)y[k]

i
1h
Y (ej(+0 ) + Y (ej(0 )
2
i
jh
Y (ej(+0 ) Y (ej(0 )
2

ky[k]

l=

y1 [k]y2 [k]

y1 [k]y2 [k]

k=

X
k=

| y[k] |2

1
2

1
2

Modulacion senoidal

d Y (ej )
d

Y1 (ej )Y2 (ej )

y1 [l]y2 [k l]

Modulacion cosenoidal

Y1 (ej )Y2 (ej() )d

Convolucion
Producto en el tiempo

2
0

1
2

Y1 (ej )Y2 (ej )d


2

| Y (ej ) |2 d

Teorema de Parseval
Teorema de Parseval

Tabla C.3. Propiedades de la transformada de Fourier discreta.

Section C.2.

333

Transformada de Fourier en tiempo discreto

y[k]

Fd {y[k]} = Y (ej )

t R
K [k]

K [k k0 ]

ejk0

1 (k Z)

( 2n)

n=

[k]

X
1
+

( 2n)
1 ej
n=

k [k] (|| < 1)

1
1 ej
1
(1 ej )2

X
2
( 0 + 2n)

(k + 1)k [k] (|| < 1)


ej0 k

n=

cos(0 k)

[( + 0 + 2n) + ( 0 + 2n)]

n=

sin(0 k)

[( + 0 + 2n) ( 0 + 2n)]

n=

cos(0 k + )

X
j

e
( + 0 + 2n) + ej ( 0 + 2n)
n=

sin(c k)
k

Y0 (ej(+2n) )

n=

(
1 ; || < c
Y0 (e ) =
0 ; c < ||
2N +1

sin
21
sin 2
j

(
0
y[k] =
1

; |k| N
; |k| > N

kk [k] (|| < 1)

ej
(1 ej )2

Tabla C.4. Tabla de tranformadas de Fourier discretas

334

C.2.3

La transformaci
on de Fourier

Ap
endice C

Aspecto pr
actico: la transformada r
apida de Fourier

En las aplicaciones, en particular en el procesamiento digital de se


nales, no se conoce
la se
nal en forma analtica, sino que como una secuencia finita de valores numericos.
Lo mismo ocurre en otras aplicaciones, como en el procesameinto de imagenes, en
donde la variable independiente puede ser una (o mas) coordenada(s) espacial(es).
Dado que la informacion es una secuencia, la descripcion de la se
nal en el dominio
de la frecuencia solo puede ser lograda a traves de la Transformada discreta de
Fourier. Sin embargo, el calculo de esta solo puede ser aproximado, puesto que la
se
nal esta definida por un n
umero finito de valores.
De esta forma, un problema central en la calidad de la aproximacion guarda
relacion con la medida en que la se
nal truncada representa las caractersticas espectrales de la se
nal a analizar. En este caso, estamos obteniendo una serie de Fourier
discreta que representa al tramo considerado de la secuencia y[k]. Recordemos que
seg
un lo visto en el captulo anterior sobre series, al calcular la serie de Fourier
discreta de una secuencia de largo N , obtenemos una representacion en terminos de
N exponenciales complejas de frecuencias 0 < 2, que resulta ser periodica. De
esta forma, dada una secuencia y[k] de longitud N , que puede provenir de una se
nal
de tiempo continuo muestreada cada [seg], es decir, y[k] = y(t = k), podemos
representarla como una suma de exponenciales complejas
y[k] =

N
1
X

Cn ejo nk ;

donde o =

n=0

2
N

(C.2.15)

donde
Cn =

N 1
1 X
y[k]ejo nk
N

(C.2.16)

k=0

Usualmente se define

WN = ejo = ej N

(C.2.17)

y la funcion
Hn = N C n =

N
1
X

y[k]WNnk

(C.2.18)

k=0

Con lo que la funcion se puede describir en terminos de los Hn seg


un
y[k] =

N 1
1 X
Hn WNnk
N n=0

(C.2.19)

A este par de ecuaciones, (C.2.18) y (C.2.19) se le denomina en muchos libros


como la Transformacion de Fourier Discreta1 y su inversa, por tanto debe tenerse
1 Discrete

Fourier Transform o DFT

Section C.2.

335

Transformada de Fourier en tiempo discreto

precaucion al consultar la literatura para evitar confusion con la denominacion que


hemos usado en este texto.
Si se observa la ecuacion (C.2.18) esta puede entenderse como un producto
matricial en que el vector Hn es igual al producto de la matriz {WN }n,k = {WNnk }
por el vector y[k]. Es decir


0(N 1)
WN00
WN01
...
WN
H0
y[0]
1(N 1)
H1
y[1]
WN10
WN11
...
WN

.. =
..
.
.
.
..

..
..
.

.
.
.

.
(N
1)0
(N
1)1
(N
1)(N
1)
y[N 1]
HN 1
W
W
... W
N

(C.2.20)
Hacer el producto matricial el lado derecho de la ecuacion anterior implica N 2
multiplicaciones complejas, ademas de las sumas respectivas para el calculo de cada
Hn . Tambien se requieren algunas operaciones mas para el calculo de las potencias
de WN . Es decir, podemos apreciar que el calculo de la DFT es un proceso O(N 2 )
2
.
Sin embargo, la matriz involucrada en (C.2.20) esta formada por potencias de
2
WN = ej N , por tanto todos sus componentes son alguna de las races N -esimas de
la unidad, distribuida en torno a la circunferencia unitaria. Esta simetra de hecho
es el camino para reducir el n
umero de calculos necesarios para el calculo de la
DFT. Los algoritmos que hacen uso de estas simetras se comenzaron a desarrollar
mas fuertemente a partir de mediados de los a
nos 60 y reciben el nombre generico
de transformada r
apida de Fourier o FFT por su denominacion en ingles3 .
Para maximizar el aprovechamiento de las simetras es conveniente elegir secuencias y[k] cuyo largo se una potencia de 2, es decir:
N = 2v

para algun v Z+

(C.2.21)

Esto no implica perder generalidad, pues en los casos en que no pueden tomarse
mas valores de la secuencia original podemos completar con ceros hasta la potencia
de 2 mas cercana (aunque ello significa la introduccion de un grado variable de
inexactitud).
Consideremos la forma en que se calcula el coeficiente Hn , seg
un la ecuacion
(C.2.18). Si tenemos una secuencia de longitud N par, podemos separarla en una
que contenga los valores de y[k] cuando k es par y otra para los k impares. Es decir:

Hn =

N
1
X

y[k]WNnk

(C.2.22)

k=0
N/21

X
r=0

2 Del

N/21
n(2r)
y[2r]WN

n(2r+1)

y[2r + 1]WN

(C.2.23)

r=0

orden de N 2 , es decir, si se duplica N el n


umero de c
alculos se cuadruplica !
Fourier Transform.

3 Fast

336

La transformaci
on de Fourier

Ap
endice C

Pero podemos apreciar que las nuevas secuencias, y[2r] e y[2r+1], son secuencias
de largo N/2, por lo que podra escribirse las sumatorias como la serie de Fourier
discreta modificada que les corresponde. Justamente esto sucede en forma natural
al observar que
n(2r)

WN

nr
= ej N n(2r) = ej N/2 nr = WN/2

(C.2.24)

Es decir, en la sumatoria aparecen las armonicas para secuencias de longitud


N/2. Con esta observacion la expresion para Hn queda
N/21

Hn =

N/21
n(2r)
y[2r]WN

r=0

=
=

r=0
Hnpar

WNn

(C.2.25)

r=0

N/21

n(2r)

y[2r + 1]WN

N/21
nr
y[2r]WN/2

WNn

nr
y[2r + 1]WN/2

(C.2.26)

r=0

+ WNn Hnimpar

(C.2.27)

Como antes mencionamos, para calcular los terminos Hn para una secuencia de
longitud N por el metodo directo, se requieren del aproximadamente N 2 multiplicaciones complejas en el producto matricial (C.2.20). Analogamente para calcular
cada uno de los terminos Hnpar y Hnimpar , que corresponden a secuencias de largo
N/2, requeriremos (N/2)2 multiplicaciones complejas para cada uno. Y para poder
formar cada uno de los N terminos Hn requerimos una u
nica multiplicacion compleja mas, seg
un (C.2.27).
Es importante hacer notar que dado que las secuencias y[2r] e y[2r + 1] son N/2
nr
periodicas en r, sus armonicas WN/2
, tambien lo son:
(l+N/2)

WN/2

l
= ej N/2 (l+N/2) = ej N/2 l ej2 = ej N/2 l = WN/2

(C.2.28)

Aplicando este nuevo enfoque para la secuencia de largo N necesitamos

N +2

N
2

2
N2

N 2

(C.2.29)

Sin embargo, y he aqu la facilidad que entrega el suponer que N es una potencia
de 2, las secuencias y[2r] e y[2r +1], tienen longitud par (N/2 tambien sera potencia
de 2), por tanto podemos aplicarles este mismo metodo. Es decir, cada una puede
separarse en dos subsecuencias de longitud N/4. Con esto el n
umero de calculos
necesarios seran

2 !
2
N
N
N
N +2
+2
=N +N +4
(C.2.30)
2
4
4

Section C.2.

337

Transformada de Fourier en tiempo discreto

Y as sucesivamente con las secuencias de largo N/4, que pueden subdividirse


en subsecuencias de largo N/8.
En general una secuencia de largo N = 2v , podemos subdividiras v = log2 N
veces en subsecuencias de longitud menor. Y en cada etapa se realizan N multiplicaciones complejas. Por tanto podemos afirmar que este algoritmo es del orden
de N log2 N . En la figura C.7 se muestra una comparacion del n
umero de multiplicaciones necesarias para calcular los terminos Hn de esta serie directamento
o mediante este nuevo algoritmo denominado FFT. Para una secuencia de largo
N = 1024 = 210 con el primer metodo requerimos 1048576 multiplicaciones, mientras que usando la transformada rapida se requieren solo 10240, es decir, 2 ordenes
de magnitud menor.
2500

2000

1500

1000

500

10

15

20

25
N

30

35

40

45

50

Figura C.7. Comparacion N 2 (x) y N log2 N (*)


Veamos a continuacion un ejemplo para ilustrar el uso de la transformada rapida
Ejemplo C.14. Considermos una secuancia discreta de longitud N = 8, cuyos
valores denominaremos y0 , y1 , y2 , y3 , y4 , y5 , y6 e y7 . Entonces usando la ecuaci
on
(C.2.27) tenemos que
Hn = Hnp + W8n Hni
En que Hnp y Hni son la serie formada por las subsecuencias pares e impares de
la secuencia original.

338

La transformaci
on de Fourier

Ap
endice C

Esto se representa en la figura C.8, donde sobre las lineas de flujo se coloca el
factor que une a los datos

H0p

W80

H1p

H0
H1

W81

H2p

H2

W82

H3p

H3

W83

H0i

W84

H1i

W85

H2i

W86

H3i

W87

H4
H5
H6
H7

Figura C.8. Primera etapa de la FFT para N = 8


Note en la figura se ha hecho uso de la periodicidad de Hnp y Hni ya que, por
ejemplo,
H4 = H4i + W84 H4p
Pero, por la periodicidad
H4p = H0p
H4i = H0i
Por lo tanto,
H4 = H0i + W84 H0p
De manera an
aloga, para calcular los terminos de Hnp y Hni podemos aplicar la
misma idea
Hnp = Hnpp + W82n Hnpi
Hni = Hnip + W82n Hnii
Donde ahora las series Hnpp , Hnpi , Hnip y Hnii est
an formadas por subsecuencias
de largo 2, y tambien son peri
odicas de perodo 2. Como se ve en el esquema de la
figura C.9

Section C.2.

339

Transformada de Fourier en tiempo discreto

H0pp
H1pp
H0pi
H1pi
H0ip
H1ip
H0ii
H1ii

H0

W80

W80

W82

W81

W84
W86

H2

W82

H3

W83

W80

W84

W82

W85

W84
W86

H1

W86
W87

H4
H5
H6
H7

Figura C.9. Primera y segunda etapa de la FFT para N = 8

Finalmente al subdividir nuevamente las secuencias quedan terminos individuales que corresponden a los 8 valores de la secuencia original considerada:
Hnpp = Hnppp + W84n Hnppi = y0 + W84n y1
Hnpi = Hnpip + W84n Hnpii = y2 + W84n y3
Hnip = Hnipp + W84n Hnipi = y4 + W84n y4
Hnii = Hniip + W84n Hniii = y6 + W84n y7
Estos productos calculos se agregan al esquema anterior, tal como se muestra
en la figura C.10, donde podemos apreciar claramente que en cada etapa se realizan 8 multiplicaciones complejas, totalizando un total de 24. En caso de haber
hecho los c
alculos de manera directa hubiera resultado necesario ralizar 82 = 64
multiplicaciones.

340

La transformaci
on de Fourier

y0
y1
y2
y3
y4
y5
y6
y7

W80
W84
W80
W84
W80
W84
W80
W84

Ap
endice C

H0

W80

W80

W82

W81

W84
W86

H2

W82

H3

W83

W80

W84

W82

W85

W84
W86

Figura C.10. Las tres etapas de la FFT para N = 8

H1

W86
W87

H4
H5
H6
H7

Apendice D

LA TRANSFORMADA DE
LAPLACE

D.1
D.1.1

Transformada de Laplace
Definici
on de la Transformada

Sea una se
nal de tiempo continuo y(t), 0 t < , entonces la Transformada de
Laplace asociada a y(t), y su transformada inversa estan definidas como
Z

L [y(t)] = Y (s) =

est y(t)dt

(D.1.1)

L1 [Y (s)] = y(t) =

1
2j

+j

est Y (s)ds

(D.1.2)

Y (s) es la transformada de Laplace de y(t). El par transformada y su inversa


estan bien definidas si existe R y una constante positiva k < tales que
|y(t)| < ket ; t 0

(D.1.3)

La region <{s} se conoce como la regi


on de convergencia de la transformada.
Asumimos que el lector ha conocido estas ideas anteriormente en alg
un curso de
matematicas, o bien puede consultar alg
un texto de ecuaciones diferenciales como
ref. a Blanchard??.
Ahora nos concentraremos en la importancia de esta transformada para el analisis
de sistemas, por ejemplo, para determinar respuestas a condiciones inicialesy a diferentes se
nales de entrada.
Lema D.1. Sea H(s) una funci
on racional estrictamente propia1 de la variable s
1 El orden del polinomio del numerador es estriciamente menor que el orden del polinomio en
el denominador

341

342

La transformada de Laplace

Ap
endice D

con regi
on de convergencia <{s} > . SI denotamos como h(t) a su correspondiente funci
on temporal, i.e.
H(s) = L [h(t)]

(D.1.4)

Entonces, para cualquier z0 talque <{z0 } > , tenemos


Z
h(t)ez0 t dt = lim H(s)
sz0

(D.1.5)

Demostraci
on
De la definici
on de la transformada de Laplace tenemos que, para todo s en la regi
on
de convergencia de la transformada, i.e. en <{s} >
Z
H(s) =
h(t)est dt
(D.1.6)
0

Por lo tanto se tiene que z0 est


a en la regi
on de convergencia de la transformada.
222
Corollario D.1. En la ecuaci
on D.1.5 se observa que como condici
on necesaria
para la convergencia de la integral del lado izquierdo se debe cumplir que
lim h(t)est = 0

(D.1.7)

Resultado que ser


a usado posteriormente.
Ilustramos esto con un ejemplo:
Ejemplo D.1. Considere la se
nal
y(t) = e+2t

t0

(D.1.8)

Entonces, su transformada de Laplace puede calcularse resolviendo la integral (D.1.1)


o usando Maple :
> y(t):=exp(2*t);
> with(inttrans):
Y(s) := laplace(y(t),t,s);
Dentro de Maple existe el paquete inttrans, que define la transformada de
Laplace y de Fourier, junto a sus inversas, adem
as de otras transformaciones integrales. Las lneas de comando antes mostradas entregan como resultado
Y (s) =
Ahora considere

1
s2

para

<{s} > 2

(D.1.9)

Section D.1.

343

Transformada de Laplace

Z
ez0 t y(t)dt

I(z0 ) =

(D.1.10)

Claramente para z0 = 3, tenemos


Z

Z
3t 2t

I(3) =

et dt = 1

e dt =

(D.1.11)

Note que esto se podra haberse obtenido como consecuencia de lema D.1 ya que
Y (3) =

1
=1
32

(D.1.12)

Sin embargo, si tomamos z0 = 1, entonces Y (1) = 1. Entonces claramente


I(z0 ) es . Esto est
a de acuerdo con el lema D.1 ya que z0 = 1 no est
a en el
interior de la regi
on de convergencia de la transformada.
222

D.1.2

Propiedades de la Transformada de Laplace

La transformada de Laplace tiene propiedades muy u


tiles, las cuales se resumen en
la Tabla D.2 en la pagina 357. En esta seccion se demuestran algunas de estas.
Lema D.2. Linealidad
Sean y1 (t) e y2 (t) funciones continuas en (0, +), cuyas transformadas de
Laplace son Y1 (s) e Y2 (s), respectivamente. Entonces
L [y1 (t) + y2 (t)] = Y1 (s) + Y2 (s)

, C

(D.1.13)

Demostraci
on
Esta propiedad es directa dado que la transformada de Laplace esta definida mediante la integral (D.1.1) :
Z

(y1 (t) + y2 (t))est dt


Z
Z
=
y1 (t)dt +
y2 (t)dt

L [y1 (t) + y2 (t)] =

= Y1 (s) + Y2 (s)
222

344

La transformada de Laplace

Lema D.3. Derivada en t.


Sea y(t) una funci
on continua en (0, +) y sup
ongamos que
por tramos, entonces

d y(t)
dt

d y(t)
L
= sY (s) y(0 )
dt

Ap
endice D

es continua

(D.1.14)

Demostraci
on
Seg
un la definici
on tenemos:

Z
d y(t)
d y st
e dt
L
=
dt
0 dt
En esta si se integra por partes,
Z

= e y(t) + s
y(t)est dt
0
0

st
= lim e y(t) y(0 ) + sL [y(t)]
st

Si utilizamos el resultado (D.1.7) de la p


agina 342 obtenemos la expresi
on esperada:

d y(t
L
= sY (s) y(0 )
(D.1.15)
dt
222
Maple tambien es capaz de reconocer esta y otras propiedades, mediante los
comandos:
> with(inttrans):
laplace(diff(y(t),t),t,s);
s laplace(y(t), t, s) y(0)
Corollario D.2. Derivadas de orden superior.
Si se extiende este resultado, aplicando este lema recursivamente a las derivadas
de orden superior puede demostrarse que

d n1 y(0 )
d n y(t)
= sn Y (s) sn1 y(0 )
n
dt
dt n1

n Z+

(D.1.16)

donde Y (s) = L [y(t)]. Este resultado ser


a usado repetidamente para convertir
ecuaciones diferenciales en ecuaciones algebraicas en la variable s. Adem
as en la
ecuaci
on (D.1.16) se incluyen las condiciones iniciales de la funci
on y sus derivadas.

Section D.1.

345

Transformada de Laplace

Ilustramos esto en el siguiente ejemplo, en que cada paso del desarrollo se acompa
na por los comandos en Maple correspondientes.
Ejemplo D.2. Considere la ecuaci
on diferencial
> edo :=

diff(theta(t),t,t)+2*diff(theta(t),t)=v_a(t)

d 2
d
+2
= va (t)
(D.1.17)
dt 2
dt
Si tomamos transformada de Laplace a ambos lados de la ecuaci
on y aplicamos
D.1.16 se obtiene
> EDO := laplace(edo,t,s);
) = Va (s)
s2 (s) + 2s(s) (s + 2)(0 ) (0
(D.1.18)

Suponiendo condiciones iniciales (0 ) = 0, (0 ) = 0 y que la entrada es un


escal
on unitario en t = 0. Entonces
> theta(0):=0;
D(theta)(0):=0;
v_a(t):=Heaviside(t);
Theta(s):=solve(EDO,laplace(theta(t),t,s));

1
(s) =
Va (s)
s2 + 2s

1
1
=
s2 + 2s s
Expandiendo en fracciones parciales obtenemos
> Theta(s):=convert(Theta(s),parfrac,s);
(s) =

1
1
1
+

4(s + 2) 2s2
4s

(D.1.19)

Aqu, aplicando los resultados de la Tabla D.2 (p


agina 357 ), la salida para t 0
es
> theta(t):=invlaplace(Theta(s),s,t);
(t) =

1
1 2t 1
e
+ t
4
2
4

(D.1.20)

346

La transformada de Laplace

Ap
endice D

Lema D.4. Integral en t


Sea y(t) una funci
on continua en el intervalo (0, +) , con transformada de
Laplace L [y(t)] = Y (s), entonces
Z t

1
L
y( )d = Y (s)
(D.1.21)
s
0
Demostraci
on
Si reemplazamos la integral en la definicion de la transfomada (D.1.1), podemos
hacer una integral por partes:
Z

y( )d e|st
{zdt}
{z
} dv

y( )d =
0

est
=
y( )d

s 0
0
Z
1
=0+
y(t)est dt
s 0
t

y(t)
0

est
dt
s

222
Lema D.5. Derivada en s.
Sea y(t) una funci
on continua con L [y(t)] = Y (s), entonces
L [tn y(t)] = (1)n

d n Y (s)
ds n

Demostraci
on
Este resultado se establece derivando ambos lados de la ecuaci
on
Z

Y (s) =

y(t)est dt

y as` obtenemos
dY (s)
=
ds


y(t)est dt
s

ty(t)est dt

= L [t y(t)]

(D.1.22)

Section D.1.

347

Transformada de Laplace

Y el lema se obtiene aplicando esto repetidamente aunque, en rigor, para intercambiar derivada con integral se requieren ciertas propiedades de regularidad.
222
Este lema puede resultar u
til para obtener la transformada de Laplace de funciones que aparecen multiplicadas por la variable t, como en el siguiente ejemplo.
Ejemplo D.3. Consideremos la funci
on y(t) = t2 y obtengamos su transformada
de Laplace.Seg
un la definici
on
Z
2
t2 est dt
L t =
0

Y para resolver se puede integrar por partes dos veces. Sin embargo, si se aplica
el lema D.5 tenemos

d2
L t2 1 = (1)2 2 L [1]
ds
d2 1
=
ds 2 s
1
d
2
=
ds
s
2
= 3
s
La propiedad en si y el ejemplo pueden realizarse en Maple , mediante los
siguientes comandos
>laplace(t*y(t),t,s);

laplace(y(t), t, s)
s

> y(t):= t^2;


laplace(y(t),t,s);
1
s3
Se deja al lector como ejercicio encontrar una expresi
on (no recursiva) para
L [tn ], usando el metodo de inducci
on.
2

Lema D.6. Desplazamiento en t.


Sea y(t a), a > 0 una versi
on desplazada de la funci
on y(t). Si (t a) es la
funci
on escal
on unitario que comienza en a, entonces
L [y(t a)(t a)] = esa Y (s)

(D.1.23)

348

La transformada de Laplace

Ap
endice D

Demostraci
on
Dado que la funci
on escal
on unitario es igual a 0 antes de a y 1 despues, la transformada de Laplace puede calcularse con la definici
on
Z

L [u(t a)y(t a)] =

Z0

(t a)y(t a)est dt
y(t a)est dt

Za

y(t)es(t+a) dt
Z

= esa
y(t)est dt
=

0
sa

= e

Y (s)

De donde se obtiene el resultado deseado.


222
Note que
L [y(t a)t a] 6= L [y(t a)(t)]
Por lo tanto la transformada de Laplace del lado derecho no puede obtenerse
con ayuda del lema D.6, sino en base a la definicion o usando otras propiedades.
Ejemplo D.4. Para ver una aplicaci
on de este lema obtengamos la transformada
de Laplace de un pulso p(t).

p(t) =

1
0

; si 0 t < a
; si t a

Esta se
nal puede escribirse usando la funci
on de Heaviside o escal
on unitario
(t) sin necesidad de definirla por tramos. En Maple
> assume(a>0);
p(t):=Heaviside(t)-Heaviside(t-a);

p(t) = (t) (t a)
Y usando la propiedad (D.1.23), o calculano con Maple , se obtiene
> P(s):=laplace(p(t),t,s);

Section D.1.

349

Transformada de Laplace

1 1 as
e
s s

1
= 1 esa
s

P (s) =

Este ejemplo puede extenderse a cualquier funcion que este definida por tramos,
cuya transformada de otra forma se tendra que calcular separando la integral
(D.1.1) de la definicion.
Se deja al lector obtener una expresion para f (t)p(t) en que p(t) es el pulso del
ejemplo anterior, y f (t) es alguna funcion continua en el intervalo 0 < t < a. A
continuacion se presenta otro resultado relacionado con el desplazamiento temporal
de una funcion.
Lema D.7. Funci
on peri
odica.
Tomemos una funci
on perodica
y(t) =

yT (t nT )

(D.1.24)

n=0

en que yT (t) es cero fuera del intervalo [0, T ], es decir, yT (t) = [(t) (t
T )]y(t). Entonces la transformada de Laplace de y(t) es
L [y(t)] =

1
YT (s)
1 esT

(D.1.25)

en que YT (s) = L [yT (t)].


Demostraci
on
Si se utiliza el resultado del lema D.6, al aplicar transformada de Laplace a la
ecuaci
on (D.1.24) tenemos por linealidad

L [y(t)] =

enT s YT (s)

n=0

Y (s) = YT (s)

enT s

n=0

y si recordamos la suma de una serie geometrica,

1 limn enT s
Y (s) = YT (s)
1 esT

350

La transformada de Laplace

Ap
endice D

y dentro de la regi
on de convergencia limn enT s 0
Y (s) =

1
YT (s)
1 esT
222

Lema D.8. Corrimiento en s


Sea y(t) una funci
on continua en el intervalo (0, +) , con transformada de
Laplace L [y(t)] = Y (s), entonces

L eat y(t) = Y (s a)

(D.1.26)

Demostraci
on
De la definicion (D.1.1), tenemos que

L eat y(t) =

Z0

eat y(t)est dt
y(t)e(sa)t dt

= Y (s a)
222
Lema D.9. Convoluci
on
Sean y1 (t) e y2 (t) funciones continuas en (0, +), talque son iguales a cero para
t < 0, cuyas transformadas de Laplace son Y1 (s) e Y2 (s), respectivamente. Entonces
la transformada de la convoluci
on entre y1 (t) e y2 (t) es:
L [y1 (t) y2 (t)] = Y1 (s)Y2 (s)

(D.1.27)

En que
Z
y1 (t) y2 (t) =

y1 ( )y2 (t )d

(D.1.28)

Demostraci
on
Si las se
nales son causales, es decir, su valor es cero t < 0, entonces podemos
reescribirlas

Section D.1.

351

Transformada de Laplace

y1 (t) = (t)y1 (t)


y2 (t) = (t)y2 (t)
Con esto, la convolucion es equivalente a
Z
y1 ( )( )y2 (t )(t )d
y1 (t) y2 (t) =

Si reemplazamos esta forma en la definicion (D.1.1), podemos cambiar el orden


de las integrales:
Z
L [y1 (t) y2 (t)] =

0
Z

y1 ( )( )y2 (t )(t )d est dt


Z

st
y1 ( )( )
[y2 (t )(t )] e dt d

Donde se puede aplicar la propiedad de corrimiento en t:


Z

y1 ( )( )es Y2 (s)d
Z
= Y2 (s)
y1 ( )es d

L [y1 (t) y2 (t)] =

= Y2 (s)Y1 (s)
222
Lema D.10. Producto en t
Sean y1 (t) e y2 (t) funciones continuas en (0, +), cuyas transformadas de
Laplace son Y1 (s) e Y2 (s), respectivamente. Entonces la transformada del producto
entre y1 (t) e y2 (t) es:
1
L [y1 (t)y2 (t)] =
2j

+j

Y1 ()Y2 (s )d

(D.1.29)

Demostraci
on
Si reemplazamos el producto de las funciones dentro de la definicion de la transformada, podemos demostrar la propiedad escribiendo una de ellas como la transformada inversa de su transformada de Laplace:

352

La transformada de Laplace

Z
L [y1 (t)y2 (t)] =

0
Z

=
0

Ap
endice D

y1 (t)y2 (t)est dt

Z +j
1
t
Y1 ()e d y2 (t)est dt
2j j

Intercambiando el orden de las integrales y usando la propiedad de corrimiento


s tenemos que

L [y1 (t)y2 (t)] =


=

1
2j
1
2j

+j

Y1 ()
j
+j

et y2 (t)est dt d

Y1 ()Y2 (s )d
j

222

Teorema D.1. . [Teorema del Valor Final y Teorema del Valor Inicial]
Existen dos resultados que permiten obtener relaciones entre comportamientos
asint
oticos de la funci
on y(t) y su tranformada Y (s). Estos se conocen como el
teorema del Valor Inicial y teorema del Valor Final.

(i) lim+ y(t) = lim sY (s)

(D.1.30)

(ii) lim y(t) = lim sY (s)

(D.1.31)

t0

s
s0

Las ecuaciones anteriores son v


alidas s
olo en caso que ambos lmites existan.

Demostraci
on
Las demostraciones se basan en resultados anteriores
(i) Teorema del Valor Inicial.
Supongamos primero que y(t) es continua en t = 0, i.e. y(0 ) = y(0+ ) = y = 0.
Si usamos la ecuaci
on (D.1.14) tenemos
Z

d y(t) st
e dt = sY (s) y(0 )
dt

Section D.1.

353

Transformada de Laplace

pero la integral del lado izquierdo puede acotarse y usar la ecuaci


on (D.1.3)
Z

d y(t) st
e dt
dt

Z0

=k

d y(t) st

dt e dt
ket est dt

(s)t

s + 0

y dado que la integral existe en la regi


on de convergencia <{s}
Z

y si s entonces

k
s

d y(t) st
k
e dt
dt
s
0, de donde se obtiene
lim sY (s) = lim y(t)

t0+

Ahora si la funci
on y(t) no es continua, podemos definir

y(t) = y(t) y(0+ ) y(0 )

(D.1.32)

que si es continua. Si aplicamos transformada de Laplace a la derivada de y(t)


Z

d y(t) st
e dt = sY (s) y(0 )
dt

pero y(0 ) = y(0 ) es continua y aplicando Laplace a (D.1.32)


Z

h
d y(t) st
y(0+ ) y(0 ) i
e dt = s Y (s)
y(0 )
dt
s
= sY (s) y(0+ )

y nuevamente el lado izquierdo se hace cero cuando s .


222
(ii) Teorema del Valor Final.
Seg
un la ecuaci
on (D.1.14)
Z

d y(t)
dt = sY (s) y(0 )
dt

(D.1.33)

354

La transformada de Laplace

si tomamos lmite cuando s 0 a ambos lados de la ecuaci


on,

d y(t) st
lim
e dt = lim sY (s) y(0 )
s0
s0
dt
0

Ap
endice D

(D.1.34)

Podemos intercambiar lmite e integral suponiendo ciertas condiciones de regularidad:


Z

d y(t)
lim est dt = lim sY (s) y(0 )
(D.1.35)
s0
s0
dt
0
Z
d y(t)
dt = lim sY (s) y(0 )
(D.1.36)
s0
dt
0
lim y(t) y(0 ) = lim sY (s) y(0 )
(D.1.37)
t

s0

lim y(t) = lim sY (s)

s0

(D.1.38)
222

Ejemplo D.5. Debe tenerse precauci


on de utilizar estos teoremas en caso solo
en que ambos limites existan tanto en el tiempo como en la variable compleja s.
Consideremos por ejemplo la transformada de Laplace de cos(0 t)
L [cos(0 t)] =

s2

s
+ 02

si utilizamos el teorema del valor final

lim

s0

s2
=0
s2 + 02

cuando en realidad sabemos que


lim cos(0 t) = @

222
Ejemplo D.6. Una distinci
on importante de hacer es que en el caso en que la
respuesta de un sistema sea discontinua en t = 0 el teorema del Valor Inicial entrega
el valor de la salida en t = 0+ el que puede no coincidir con la condici
on inicial
dada. Veamos esto en un ejemplo simple en que tenemos un circuito como el de la
figura D.1 en que se conecta la batera de 1[V] en t = 0, y todas las condiciones
iniciales son cero.
Por ley de voltajes de Kirchoff tenemos
vf (t) = vR (t) + vC (t)
Z
1 t
i( )d
(t) = Ri(t) +
C

Section D.1.

355

Transformada de Laplace

R
+
vf (t)

vc (t)

i(t)
Figura D.1. Circuito RC

y si derivamos a ambos lados,


d i(t)
1
d (t)
=R
+ i(t)
dt
dt
C
Si aplicamos transformada de Laplace, y consideramos la condici
on inicial igual a
cero
s

1
1
= R sI(s) i(0 ) + I(s)
s
C

y despejando se obtiene
I(s) =

1
sR +

1
C

por tanto si aplicamos el teorema del valor inicial


i(0+ ) = lim sI(s)
s

s
s sR +
1
=
R
= lim

1
C

que evidentemente es diferente a la corriente inicial t = 0 . Esto se comprueba


observando que la transformada inversa de I(s) es discontinua en t = 0
i(t) = L1 [I(s)]

1/R
1
=L
s + 1/RC
1
= et/RC (t)
R

356

La transformada de Laplace

Ap
endice D

La transformada de Laplace es una herramienta muy u


til en el estudio de sistemas dinamicos ya que pemite convertir las ecuaciones diferenciales, en el
tiempo t, a ecuaciones algebraicas en la variable s.

f (t)
l
X

L [f (t)]
l
X

ai yi (t)

i=1

dk y(t)
dtk

sY (s) y(0 )
k

s Y (s)

Pk
i=1

ki

di1 y(t)
dti1 t=0

donde Y (s) = L [y(t)]


donde Y (s) = L [y(t)]

1
Y (s)
s

y( )d
0

Fi (s) = L [fi (t)]

i=1

dy(t)
dt

ai Yi (s)

Comentarios

dY (s)
ds

ty(t)

tk y(t)

(1)k

dk Y (s)
dsk

y(t )(t )

es Y (s)

eat y(t)

Y (s a)

k {1, 2, 3, . . .}
(t) :

escalon unitario

y1 ( )y2 (t )d
y1 (t)y2 (t)
lim y(t)

lim y(t)

t0+

Y1 (s)Y2 (s)
1
2j

y1 (t) = y2 (t) = 0 t < 0

+j

Y1 ()Y2 (s )d

Convolucion compleja

lim sY (s)

s0

y() debe estar bien definida

lim sY (s)

Tabla D.1. Propiedades de la transformada de Laplace

Section D.1.

357

Transformada de Laplace

f (t)

(t 0)

L [f (t)]

Region de Convergencia

1
s

>0

D (t)

|| <

(t )

es
s

>0

1
s2

>0

n!

tn

n Z+

et

1
s

> <{}

tet

1
(s )2

> <{}

s
s2 + o2

>0

o
+ o2

>0

cos(o t)
sin(o t)
et sin(o t + )

sn+1

s2

(sin )s + o2 cos sin


(s )2 + o2

>0

> <{}

2o s
+ o2 )2

>0

t cos(o t)

s2 o2
(s2 + o2 )2

>0

(t) (t )

1 es
s

|| <

t sin(o t)

(s2

Tabla D.2. Transformadas de Laplace de algunas funciones simples

358

D.1.3

La transformada de Laplace

Ap
endice D

Descomposici
on en fracciones parciales

Las ecuaciones (D.1.1) y (D.1.2) dan una forma de describir se


nales y sistemas en
el dominio de la variable s y poder volver al dominio del tiempo. Sin embargo,
la ecuacion (D.1.2) pocas veces se usa para obtener la transformada de Laplace
inversa de una funcion. La transformada de Laplace de muchas de las se
nales que
nos interesan son funciones racionales en s, por lo tanto, generalmente se usa la
descomposicion en fracciones parciales para obtener su transformada inversa, por
comparacion con transformadas conocidas.
Tomemos una funcion racional en s, en que se conocen las races del polinomio
denominador, que llamaremos polos del sistema. En caso de no ser una funcion
estrictamente propia, siempre puede realizarse la division de los polinomios de forma
de tener un polinomio en s mas una funcion estrictamente propia.
Ejemplo D.7. Supongamos, para empezar, una funci
on con un polinomio denominador de segundo orden
As + B
(D.1.39)
s2 + Cs + D
No es simple determinar a priori la transformada inversa de esta expresi
on,
pero si se pueden determinar las races del denominador. Supongamos que estas
son s = 1 y s = 2 , con 1 6= 2 . El metodo de fracciones parciales pretende
expresar una funci
on racional como suma de funciones racionales m
as simples, que
en nuestro caso nos permite identificar desde una tabla su tranformada de Laplace
inversa.
As + B

Y1 (s) =
=
+
(D.1.40)
(s + 1 )(s + 2 )
s + 1
s + 2
H1 (s) =

Es decir, buscamos los coeficientes y . Para determinar estos lo primero que


puede hacerse es realizar la suma al lado derecho de (D.1.40) e igualar el polinomio
denominador resultante con el de la ecuaci
on (D.1.39)
As + B = ( + )s + 2 + 1

(D.1.41)

Estos polinomios son iguales si y s


olo si sus coeficientes son iguales:
+ = A
2 + 1 1 = B

(D.1.42)

Este sistema de ecuaciones puede resolverse obteniendo funalmente


A1 B
1 2
A2 + B
=
1 2

(D.1.43)

Section D.1.

359

Transformada de Laplace

Finalmente teniendo estos valores de las constantes puede verse en la tabla D.2
la tranformada inversa

1
y1 (t) = L
+
= e1 t + e2 t
(D.1.44)
s + 1
s + 2
222
En el ejemplo anterior al descomponer la funcion racional (D.1.39) en dos fracciones (D.1.40), para encontrar las constantes se resolvio el sistema (D.1.42) de dos
ecuaciones y dos incognitas. Sin embargo, si el polinomio denominador es de orden
N el metodo desemboca en resolver un sistema de N ecuaciones y N inc
ognitas !.
Es por esto que en el siguiente ejemplo se muestra un metodo mas practico.
Ejemplo D.8. Consideremos el sistema
2s + 1
(D.1.45)
s3 + 3s2 4s
Del polinomio denominador pueden calcularse los polos del sistema. Estos se
ubican en s = 0, 4, 1, Por lo cual interesa descomponerlo en la forma
Y2 (s) =

s3

2s + 1

= +
+
2
+ 3s 4s
s
s+4 s1

(D.1.46)

Si multiplicamos por s ambos lados de la ecuaci


on
s2

s
s
2s + 1
=+
+
+ 3s 4
s+4 s1

Y ahora si hacemos s = 0 se obtiene directamente la primera constante

1
=
4

Ahora para el segundo termino de (D.1.46) podemos multiplicar por (s + 4) para


reemplazar luego por la segunda raz s = 4

"
#
2s + 1
(s + 4)
(s + 4)
++
=

s(s 1)
s
s1
s=4

s=4

7
=
20
De manera an
aloga pueden encontrarse la tercera constante, multiplicando por
(s 1) y reemplazando s = 1

#
"
2s + 1
(s 1) (s 1)
+
+
=

s(s + 4)
s
s+4
s=1

3
=
5

s=1

360

La transformada de Laplace

Ap
endice D

Como puede verse este metodo de multiplicar por cada uno de los polinomios
factores del denominador, para luego reemplazar la variable s por la respectiva raz,
permite llegar de manera mucho m
as directa a los coeficientes de la descomposici
on
(D.1.46). Con ayuda de la tabla D.2 se obtiene finalmente
1
3
7
20
1 4
+
+ 5
y2 (t) = L
s
s+4 s1
7
1
3
= e4t + et
(D.1.47)
4 20
5
222
Se deja al lector verificar que la funci
on obtenida es la misma que se obtiene si
se aplica el metodo del ejemplo D.7.
Cabe destacar que en el ejemplo D.8 se ha aprovechado que al multiplicar por
cada factor del denominador (s ) y reemplazar por s = todos los terminos
de la descomposicion en fracciones parciales se hacen cero, excepto el coeficiente
1
correspondiente a s
. Sin embargo, en caso de existir races repetidas, aparecera
una indefinicion al reeplazar (s = ).
Ejemplo D.9. En el caso de races repetidas, la descomposici
on en fracciones
parciales no toma la forma (D.1.40), sino que se descompone como
Y3 (s) =

As + B

=
+
(s )2
s (s )2

(D.1.48)

Note que en esta expresi


on solamente el coeficiente puede ser obtenido como
en el ejemplo D.8, Porque no puede obtenerse el coeficiente ? C
omo podra
obtenerse ?
Una manera simple de llegar a la forma (D.1.48) es forzando a que aparezca
el termino (s ) en el numerador, separar y luego simplificar como se muestra a
continuacion
A(s ) + (A + B)
(s + )2
A
A + B
=
+
s (s + )2

Y3 (s) =

(D.1.49)

Con lo cual puede obtenerse de la tabla D.2


y3 (t) = Aet + (A + B)tet

(D.1.50)
222

Cuando las races del polinomio denominador son n


umeros complejos, el metodo
visto en los ejemplos D.7,D.8 y D.9 puede aplicarse de igual forma. Los coeficientes
que se obtienen en este caso son complejos, pero ademas, dado que el polinomio denominador tiene coeficientes reales, las races complejas aparecen siempre en pares

Section D.1.

361

Transformada de Laplace

complejos conjugados2 , los coeficientes de la expansion en fracciones parciales tambien son complejos conjugados. Esto asegura que las funciones exponenciales complejas que se obtienen en (D.1.44) son iguales a sinusoidales multiplicadas por exponenciales reales. Se deja al lector como ejercicio esta demostracion.
Ejemplo D.10. Cuando el denominador de una funci
on racional de la forma
(D.1.39) tiene races complejas se suele escribir como
Y4 (s) =

As + B
;
s2 + 2n s + n2

0<1

(D.1.51)

Expresi
on en que se denomina factor de amortiguaci
on. Dado que en la tabla
D.2 tenemos s
olo expresiones en que el denominador es una suma de cuadrados,
podemos escribir la funci
on de la forma
Y4 (s) =

As + B
p
(s + n )2 + (n 1 2 )2

(D.1.52)

Y en el numerador de esta expresi


on puede construrse el termino (s + n ) para
luego separar en dos terminos
A(s + n ) + (An + B)
D(s)
A(s + n ) (An + B)
=
+
D(s)
D(s)

Y4 (s) =

p
A(s + n ) (An + B) (n 1 2 )
p
=
+
D(s)
D(s)
(0 1 2 )

(D.1.53)

en que el denominador es
D(s) = (s + n )2 + (n

1 2 )2

(D.1.54)

Y aplicando transformada de Laplace inversa se llega a


y4 (t) = Aen t cos n

1 2t +

p
(An + B) n t
p
e
sin n 1 2 t (D.1.55)
2
(n 1 )
222

Con estos ejemplos y un poco de practica no debiera resultar difcil obtener


transformadas de Laplace inversa de funciones racionales. En realidad hoy en da
cualquier software es capaz de obtener la expansion en fraccines parciales de una
funcion racional3 , e incluso transformadas inversas de Laplace, por lo tanto, estos
calculos pueden dejarse para el computador cuando resulten demasiado engorrosos.

como resultado del Teorema Fundamental del Algebra


el comando residue de MATLAB

2 Esto
3 Use

362

La transformada de Laplace

Ap
endice D

Por ejemplo, si usamos Maple para obtener la transformada de Laplace inversa


de la funcion racional (D.1.39), tenemos las siguientes lneas de comando que arrojan
el resultado que se aprecia mas adelante
> H(s) := (A*s+B)/(s^2+C*s+D):
h(t) := invlaplace(H(s),s,t);

1
1
e 2 Ct DA cos( 12 4 D C 2 t)
1 e 2 Ct C 3 B cos( 21 4 D C 2 t)
+4
h(t) =
2
(4 D C 2 ) D
4 D C2

1
1
12 Ct 2

Ct
e
C A cos( 2 4 D C 2 t) e 2 AC sin( 12 4 D C 2 t)

4 D C2
4 D C2

1
1
e 2 Ct CB cos( 12 4 D C 2 t)
e 2 Ct B sin( 12 4 D C 2 t)

2
+2
4 D C2
4 D C2

12 Ct
CB cos( 12 4 D C 2 t)
1 e
+
2
D
Es importante notar que Maple , en este caso, ha supuesto que el termino
4DC 2 es estrictamente positivo, es decir, que las races del polinomio denominador
son reales y distintas. En consecuencia, si bien el uso de software puede ayudar
bastante en un desarrollo matematico, lo fundamental es entender e interpretar lo
resultados que se obtienen.

Section D.1.

363

Transformada de Laplace

Y (s)

y(t) = L1 [Y (s)] ; t 0

D (t)

e s , > 0

D (t )

1
s

(t)

1
, n {2, 3, . . .}
sn

tn1
(n 1)!

k
s+

ket

e s
, > 0
s+

e(t ) (t )

a1 s + a0
(s + 1 )(s + 2 )

C1 e1 t + C2 e2 t
C1 =

a1 s + a0
(s + )2

1 a1 a0
1 2

; C2 =

a1 et + (a0 a1 )tet
h
i
et C1 cos(0 t) + C2 sen(0 t)

a1 s + a0
(s + )2 + 02

C1 = a1 ; C2 =
k
s(s + )
a1 s + a0

s (s + )2 + 02

2 a1 +a0
1 2

a0 a1
0

k
1 et
a
h

i
t
1

e
C
cos(
t)
+
C
sin(
t)
1
0
2
0
2

a0
+ 0

C1 = a0 ; C2 =

a0 a1 (2 +02 )
0

Tabla D.3. Transformadas inversas de Laplace u


tiles

Apendice E

LA TRANSFORMACION
ZETA

E.1

Definici
on de la Transformaci
on

Dada una se
nal de tiempo discreto f [k], 0 k < . La transformacion Zeta, y
la transformacion Zeta inversa, estan definidas por

Z [f [k]] = F (z) =

f [k]z k

(E.1.1)

k=0

1
[F (z)] = f [k] =
2j

I
f (z)z k1 dz

(E.1.2)

La curva cerrada sobre la que se calcula la transformada Zeta inversa (E.1.2)


se elige de forma que para todos los valores de z sobre , la sumatoria en (E.1.1)
converge. Esto implica que depende de f [k], tal como se determina, en forma
constructiva, a continuacion.
La transformacion Zeta es la contraparte discreta de la Transformacion de
Laplace. Su justificacion surge de la necesidad de cubrir un rango mas amplio
de se
nales que el que puede ser tratado usando al transformacion de Fourier. En el
caso de la transformacion Zeta la transicion se puede describir como

X
k=

f [`]ej`

X
f [`]
k=0

|z|`

ej` ;

|z| >

(E.1.3)

Donde podemos definir z = |z|ej , y donde se denomina radio de convergencia


de la transformacion.
Observe que, por un lado, hemos reducido la sumatoria al intervalo k N y
que por otro, hemos dividido la funcion f [`] por |z|` . Una eleccion adecuada de
puede hacer que en muchos casos en que la sumatoria de la izquierda no converge,
364

Section E.1.

365

Definici
on de la Transformaci
on

la suma de la derecha s lo haga. Por ejemplo, la se


nal f [k] = (1, 5)k [k] no tiene
transformada de Fourier, pero si tiene transformada Zeta, para ello, basta elegir
|z| > 1, 5.
Para obtener (E.1.2), que describe la formula de la Transformacion Zeta inversa,
podemos recurrir a la idea de ortogonalidad. Si ambos lados de la ecuacion (E.1.1)
son multiplicados por z k = |z|k ejk , y luego integramos en el intervalo [0; 2], se
obtiene
Z

F (z)z k d =

f [k]|z|k`

ej(k`) d

(E.1.4)

`=0

Por otra parte, sabemos que las exponenciales periodicas 1, ej , ej2 , ej3 , . . .
forman un conjunto de funciones ortogonales, ya que
(
Z 2
0
k 6= `
jk j`
j(`k)
e
he , e i =
d =
(E.1.5)
2 k = `
0
Con este resultado, (E.1.4) se simplifica a
f [k] =

1
2

F (z)z k d

(E.1.6)

Finalmente podemos reemplazar la integral con respecto a por una integral


respecto de z. Primero notamos que
dz
d |z|ej
1
=
= jz = d =
dz
d
d
jz

(E.1.7)

Luego, reemplazando la expresion para d en (E.1.6) se llega a la ecuacion


(E.1.2). Note que como recorre el intervalo [0; 2], nuestra primera interpretacion
de en (E.1.2) es la de una circunferencia de radio mayor que . La teora de
variables complejas permite demostrar que es suficiente que sea una curva cerrada
que encierre completamente la circunferencia de radio mayor que .
Ilustremos el calculo de la transformada Zeta y su inversa mediante un par de
ejemplos:
Ejemplo E.1. Considere la se
nal
y[k] = k [k]

(E.1.8)

Entonces, su transformada Zeta est


a dada por la serie geometrica:

X
1 (z 1 )k
Z k [k] =
k z k =
(z 1 )k = lim
k 1 (z 1 )
k=0

k=0

Donde la expresi
on al lado derecho converge si y s
olo si

(E.1.9)

366

La Transformaci
on Zeta

|z 1 | < 1 |z| > ||

Ap
endice E

(E.1.10)

Entonces, en esta regi


on tenemos que

Z k [k] =

z
1
=
1 z 1
z

(E.1.11)
222

E.2

Propiedades de la Transformada Zeta

La transformada Zeta posee una serie de propiedades, las cuales se resumen en la


Tabla E.1 en la pagina 374. En esta seccion se revisan algunas de ellas.
Lema E.1. Linealidad
Sean y1 [k] e y2 [k] dos secuencias discretas definidas para k [0, +), cuyas
transformadas Zeta son Y1 (z) e Y2 (z), respectivamente. Entonces
Z [y1 [k] + y2 [k]] = Y1 (z) + Y2 (z)

, C

(E.2.1)

Demostraci
on
Esta propiedad se demuestra sin problema ya dado que la transformada Zeta se
define mediante la integral (E.1.1) :

L [y1 [k] + y2 [k]] =

(y1 [k] + y2 [k])z k

k=0

y1 [k]z

k=0

y2 [k]z k

k=0

= Y1 (z) + Y2 (z)
Se debe hacer notar que en este caso la region de convergencia de la combinacion
lineal de las transformadas es la intersecci
on de la region de convergencia de cada
una por separado.
222

Lema E.2. Escalamiento en z.


Sea y[k] una secuencia de tiempo discreto en que k (0, +), y sup
ongamos
que tenemos a C, entonces
z

Z ak y[k] = Y
a

(E.2.2)

Section E.2.

367

Propiedades de la Transformada Zeta

Demostraci
on
Seg
un la definicion tenemos:

z k
z
X

X
Z ak y[k] =
ak y[k]z k =
y[k]
=Y
a
a
k=0

(E.2.3)

k=0

En este caso la region de convergencia de la nueva transformada tambien resulta


escalada.
222

Ejemplo E.2. Consideremos la transformada Zeta calculada para la secuencia del


ejemplo E.1, que establece
y1 [k] = k [k] Y1 (z) =

z
z

; || < 1

Si ahora consideramos la secuencia


y2 [k] = k y1 [k] = [k]
Su transformada Zeta, aplicando (E.2.2) es
z
1
= Y1 (z)
z
=
z
z
=
z1

Y2 (z) = Y1

Que converge si y solo si |z| > 1.


Ejemplo E.3. Consideremos ahora la secuencia que corresponde a una oscilaci
on
de amplitud creciente o decreciente dependiendo del par
ametro r.
y[k] = rk cos(0 k)
Su transformada Zeta puede obtenerse escribiendo el coseno en terminos de
exponenciales complejas
y[k] =

1 j0 k
(re ) + (rej0 )k )
2

Usando el teorema, tenemos que

368

La Transformaci
on Zeta

Ap
endice E

1 j0 k
Z (re ) + Z (rej0 )k )
2

1
z
z
=
+
2 z rej0
z rej0

1
z(2z 2r cos 0 )
=
2 z 2 z2r cos 0 + r2
z(z r cos 0 )
= 2
z z2r cos 0 + r2

Y (z) =

Lema E.3. Conjugaci


on.
Sea y[k] una secuencia discreta en que 0 k < cuya transformada Zeta es
Y (z). Entonces, la transformada Zeta de la secuencia conjugada es
Z [y [k]] = Y (z )

(E.2.4)

Demostraci
on
Directa de la definicion (E.1.1)

Z [y [k]] =

y [k]z k

k=0

!
y[k](z )k

= {Y (z )}

k=0

222
Lema E.4. Desplazamientos en k.
Sea y[k] una secuencia discreta en que 0 k < cuya transformada Zeta es
Y (z). Entonces, dado un entero k0 > 0, tenemos los siguientes resultados para la
transformada Zeta de la secuencia y[k] desplazada
Z [y[k k0 ]] = Y (z)z k0 + y[1]z k0 +1 + . . . + y[k0 + 1]z 1 + y[k0 ] (E.2.5)

Z [y[k + k0 ]] = Y (z)z k0 y[0]z k0 + y[1]z k0 1 + . . . + y[k0 1]z


(E.2.6)
Demostraci
on
Consideremos primero el caso en que la secuencia ha sido retrasada en k0 , es decir, la
ecuacion (E.2.5). Si usamos la definicion de la transformada (E.1.1), y la escribimos
por extension, tenemos que

Section E.2.

369

Propiedades de la Transformada Zeta

Z [y[k k0 ]] =

y[k k0 ]z k

k=0

= y[k0 ] + y[k0 + 1]z 1 + . . . + y[1]z k0 +1 +

y[k k0 ]z k

k=k0

Si definimos en la sumatoria l = k k0 , entonces tenemos que k = l + k0 . Por


tanto si reordenamos al lado derecho de la u
ltima igualdad tendremos que

Z [y[k k0 ]] =

y[l]z (l+k0 ) + y[1]z k0 +1 + . . . + y[k0 + 1]z 1 + y[k0 ]

l=0

=z

k0

!
y[l]z

+ y[1]z k0 +1 + . . . + y[k0 + 1]z 1 + y[k0 ]

l=0

Donde la ecuacion (E.2.5) queda demostrada.


Consideremos ahora el caso en que la secuencia y[k] es adelantada en k0 . Reemplazando en la definicion tenemos que

Z [y[k + k0 ]] =
=

y[k + k0 ]z k

k=0

y[l]z (lk0 )

l=k0

"

=z

k0

y[l]z

y[0] + y[1]z 1 + . . . + y[k0 1]z k0 +1

l=0

y[l]z l y[0]z k0 + y[1]z k0 1 + . . . + y[k0 1]z

l=0

Lo cual demuestra la segunda ecuacion del lema, (E.2.6).


222
Es importante observar que si la secuencia y[k], retrasada en k0 , ademas se
multiplica por un escalon unitario, tambien desplazado en k0 , entonces tendremos
que
Z [y[k k0 ][k k0 ]] = Y (z)z k0
Ya que, en este caso, todas las condiciones iniciales seran iguales a cero.

(E.2.7)

370

La Transformaci
on Zeta

Ap
endice E

Ejemplo E.4. Determine la transformada Zeta inversa de


Y (z) =

z k0
z

Esta transformada se puede reescribir de manera de poder aplicar la ecuaci


on
(E.2.7)
z
z
y[k] = k(k0 +1) [k (k0 + 1)]
Y (z) = z (k0 +1)

Lema E.5. Derivaci


on en z
Sea y[k] una secuencia en tiempo discreto para k (0, +) , con transformada
Zeta Z [y[k]] = Y (z), entonces
Z [k y[k]] = z

d Y (z)
dz

(E.2.8)

Demostraci
on
De la definicion (E.1.1), tenemos que

Z [k y[k]] =
=

ky[k]z k

k=0

ky[k]z k

k=0

= z

(k)y[k]z k1

k=0

d Y (z)
= z
dz
222
Ejemplo E.5. Consideremos el caso en que la secuencia discreta a la cual queremos
calcularle su transformada Zeta es una rampa de tiempo discreto, es decir:
y[k] = k[k]
Seg
un (E.2.8) su transformada ser
a

Section E.2.

371

Propiedades de la Transformada Zeta

d
z
Z [k[k]] = z
dz z 1
(z 1) z
= z
(z 1)2
z
=
(z 1)2

Lema E.6. Convoluci


on
Sean y1 [k] e y2 [k] dos secuencias discretas causales, es decir, iguales a cero para
k < 0. Supongamos que sus transformadas Zeta son Y1 (z) e Y2 (z), respectivamente.
Entonces la transformada de la convoluci
on discreta entre y1 [k] e y2 [k] es:
L [y1 [k] y2 [k]] = Y1 (z)Y2 (z)

(E.2.9)

En que
y1 [k] y2 [k] =

k
X

y1 [l]y2 [k l]

(E.2.10)

l=0

Demostraci
on
Si las se
nales son causales, es decir, su valor es cero k < 0, entonces podemos
reescribirlas
y1 [k] = [k]y1 [k]
y2 [k] = [k]y2 [k]
Con esto, la convolucion es equivalente a

y1 [k] y2 [k] =

y1 [l][l]y2 [k l][k l]

l=

Si reemplazamos esta forma en la definicion (E.1.1), podemos cambiar el orden


de las sumatorias:

L [y1 [k] y2 [k]] =

k=0

X
l=

!
y1 [l][l]y2 [k l][k l] z k

l=

y1 [l][l]

X
k=0

!
y2 [k l][k l]z

372

La Transformaci
on Zeta

Ap
endice E

Donde se puede aplicar la propiedad de corrimiento en k (E.2.7) y reducir la


sumatoria eliminando el [l]:

L [y1 [k] y2 [k]] =

y1 [l][l]z l Y2 (z)

l=

= Y2 (z)

y1 [l]z l

l=0

= Y2 (z)Y1 (z)
222
Teorema E.1 (Teorema del Valor Final y Teorema del Valor Inicial).
Existen dos resultados que relacionan el comportamiento asint
otico de la funci
on
y[k] y su tranformada Y (z). Estos se conocen como el teorema del Valor Inicial y
teorema del Valor Final en tiempo discreto.
lim Y (z) = y[0]

(E.2.11)

lim (z 1)Y (z) = lim y[k]

(E.2.12)

z
z1

Las ecuaciones anteriores son v


alidas s
olo en el caso que los lmites existen,
tanto en k como en z.
Demostraci
on
La ecuaci
on (E.2.11) se demuestra f
acilmente observando la definici
on de la transformada Zeta de la secuencia y[k] escrita por extensi
on

Y (z) =

y[k]z k

k=0

= y[0] + y[1]z 1 + . . . + y[k]z k + . . .


La cual, si se lleva al lmite z se reduce a un solo termino
lim Y (z) = lim y[0] + lim y[1]z 1 + . . . + lim y[k]z k + . . .
z
z
z
{z
}
|
{z
}
|

= y[0]
Con lo que se demuestra el Teorema del Valor Inicial.

Section E.2.

373

Propiedades de la Transformada Zeta

Para demostrar la ecuaci


on (E.2.12) consideremos la transformada Zeta de la
secuencia adelantada en una unidad menos la secuencia original
Z [y[k + 1] y[k]] = Z [y[k + 1]] Z [y[k]]
= zY (z) zy[0] Y (z) = (z 1)Y (z) zy[0]
Por otro lado, si aplicamos la definici
on tendremos que

Z [y[k + 1] y[k]] = lim

k
X
(y[l + 1] y[l])z l
l=0

Si igualamos ambas expresiones y hacemos posteriormente tender z 1 , tendremos que


(
)
k
X
l
lim {(z 1)Y (z) zy[0]} = lim lim
(y[l + 1] y[l])z
z1

z1

lim {(z 1)Y (z)} y[0] = lim

z1

l=0

k
X

(y[l + 1] y[l])

l=0

lim {(z 1)Y (z)} y[0] = lim (y[k + 1]) y[0]

z1

Donde el u
ltimo paso al lado derecho se justifica ya que la sumatoria corresponde
a una serie telescopica. De esta forma se demuestra el Teorema del Valor Final, o
valor de equilibrio.

La transformada Zeta es muy u


til en el estudio de sistemas dinamicos de tiempo discreto, ya que pemite convertir las ecuaciones recursivas, que definen al
sistema en el tiempo k, a ecuaciones algebraicas en la variable z.

374

La Transformaci
on Zeta

y[k]
l
X

Y (z) = Z [y[k]]
l
X

ai yi [k]

i=1

Ap
endice E

Comentarios

ai Yi (z)

i=1

k y[k]

C, <{} > 0

y [k]

Y (z )

Conjugacion

y[k k0 ]

z k0 Y (z) + y[1]z k0 +1 + . . . + y[k0 ]

k0 Z+

y[k + k0 ]

z k0 Y (z) (y[0]z k0 + . . . + y[k0 1]z

k0 Z+

y[k k0 ][k k0 ]

z k0 Y (z)

k0 Z+

ky[k]
k
X

y1 [l]y2 [k l]

dY (z)
dz

Y1 (z)Y2 (z)

Convolucion en k

lim Y (z)

T. del Valor Inicial

lim (z 1)Y (z)

T. del Valor Final

l=0

y[0]
lim y[k]

z1

Tabla E.1. Propiedades de la transformada Zeta

Section E.2.

y[k]

375

Propiedades de la Transformada Zeta

Y (z) = Z [y[k]]

Region de Convergencia

K [k]

z C

z
z1

|z| > 1

z
(z 1)2

|z| > 1

z
z

|z| > ||

ej0 k

z
z ej0

|z| > 1

cos(0 k)

z(z cos 0 )
z 2 2z cos 0 + 1

|z| > 1

sin(0 k)

z sin 0
z 2 2z cos 0 + 1

|z| > 1

k cos(0 k)

z(z cos 0 )
z 2 2z cos 0 + 2

|z| > ||

k sin(0 k)

z sin 0
z 2 2z cos 0 + 2

|z| > ||

cos(0 k + )

z 2 cos z cos cos 0 + sin sin 0


z 2 2z cos 0 + 1

|z| > 1

1 (z 1 )N
1 z 1

|z| > 0

(
k
0

(k 0)

;0 k < N
;k N

Tabla E.2. Transformada Zeta de algunas funciones simples

Apendice F

MATRICES. DEFINICIONES Y
PROPIEDADES

En este apendice se establecen las bases metamaticas necesarias para algunos de los
desarrollos presentados en los captulos del libro. Estos se refieren principalmente
a las definiciones de algunos tipos especiales de matrices y a sus propiedades asociadas. Tambien se presentan otras propiedades u
tiles para simplificar desarrollos o
trabajar, por ejemplo, con matrices definidas por bloques.

F.1

Conceptos B
asicos

Intuitivamente se puede decir que una matriz no es mas que un arreglo rectangular
de filas y columnas, cuyos elementos puedes ser n
umero, funciones u otros objetos
matematicos, entre los cuales se encuentren definidos la suma y la multiplicacion.
De esta forma entre las matrices se pueden definir algunas operaciones basicas, como
la suma, la resta y el producto por un escalar, y otras en que se deben hacer ciertas
definiciones especiales, como la multiplicacion (y su operacion inversa, la division).
Sin embargo, puede ser bueno formalizar lo que entenderemos en el presente
apendice por matriz:
Definici
on F.1. Una matriz es un arreglo de n m objetos pertenecientes a un
cuerpo K, dispuestos rectangularmente en n filas y m columnas.
Definici
on F.2. Cada uno de los objetos que forman parte de la matriz se denominan elementos de la matriz, y se denotan por aij en que el subndice representa
su ubicaci
on dentro del arreglo: aij es el elemento que se encuantra sobre la i-esima
fila y en la j-esima columna.
Una matriz se denotara por A = {aij } y se puede representar como el arreglo
rectangular de n
umeros, entre parentesis redondos o de corchetes:
376

Section F.1.

377

Conceptos B
asicos

A = {aij }

i=1...n ; j=1...m

a11

a21

..
.

an1

a11

...

a22

...

..
.

..

an2

...

a1m
a11


a2m
a21
=

..
..

.
.



an1
anm

a11

...

a22

...

..
.

..

an2

...

a1m

a2m

..
.

anm
(F.1.1)

En que todos los elementos de la matriz pertenecen al cuerpo, es decir:


aij K

i {1, . . . , n}, j {1, . . . , m}

(F.1.2)

El conjunto K sera por lo general el conjunto de los n


umeros reales R o de los
n
umeros complejos C.
Recordemos que
Definici
on F.3. Un conjunto K, junto a dos operaciones denominadas suma y
multiplicacion se denominan un cuerpo, si y solo si
1. El conjunto K con la operaci
on suma o adicion (+) cumplen las siguientes
propiedades:
Para todo a, b, c K se tiene que
(a)

a+bK

, existe cerradura.

(b)

a + (b + c) = (a + b) + c

, es decir, existe asociatividad.

(c)

0 K tal que a + 0 = 0 + a = a
neutro aditivo.

(d)

a, (a) K talque a+(a) = a+a = 0, es decir, existe el inverso


aditivo.

(e)

a+b=b+a

, es decir, existe el cero o elemento

, es decir, existe conmutatividad.

2. El conjunto K con la operaci


on multiplicacion () satisfacen las siguientes
propiedades:
Para todo a, b, c K se tiene que
(a)

abK

(b)

a (b c) = (a b) c

(c)

, es decir, existe cerradura.


, es decir, existe asociatividad.

1 K tal que a 1 = 1 a = a
neutro multiplicativo.

, es decir, existe el uno o elemento

378

Matrices. Definiciones y Propiedades

Ap
endice F

(d)

0 K tal que a 0 = 0 a = 0
absorvente del cero.

(e)

a, a1 K talque a a1 = a1 a = 1, es decir, existe el inverso


multiplicativo.

(f )
(g)

ab=ba

, es decir, existe la propiedad

, es decir, existe conmutatividad.

a (b + c) = a b + a c , es decir, existe la distributividad de la


multiplicaci
on respecto a la adici
on.

Tipos de Matrices
Definici
on F.4. Una matriz formada por n filas y 1 columna se denomina vector
columna
En base a esta definicion podemos decir tambien que una matriz de n m esta
formada por m vectores columna, de n elementos cada uno.
Definici
on F.5. Una matriz formada por 1 fila y m columnas se denomina vector
fila
Analogamente a lo anterior, en base a esta definicion podemos decir que una
matriz de n m esta formada por n vectores fila, de m elementos cada uno.
En general, cuando se defina un vector de dimension p nos referiremos a un
vector columan formado por p elementos.
Definici
on F.6. Dada una matriz A = {aij } de dimensiones n m, la matriz
B = {ij}, de dimensiones m n, es la traspuesta de A, si y solo si bij = aji i, j.
Es decir B es una matriz cuyas columnas son las filas de A, y se denota por AT
Ejemplo F.1. Dada la matriz A

A=

0
5

(F.1.3)

su traspuesta es

T
A = 0

(F.1.4)

Section F.1.

Conceptos B
asicos

Definici
on F.7. Una matriz se demomina
n
umero de filas que de columnas.

379
cuadrada si y solo si tiene igual

Definici
on F.8. Una matriz A = {aij } se denomina diagonal si y solo si es
cuadrada y aij = 0 i 6= j , es decir, todos los elementos fuera de la diagonal
principal de la matriz son cero.
Notar que de la definicion se desprende que si A es diagonal, entonces A = AT
Definici
on F.9. Una matriz A = {aij } se denomina triangular superior si y
solo si es cuadrada y aij = 0 i > j , es decir, todos los elementos bajo la diagonal
principal de la matriz son cero.
Definici
on F.10. Una matriz A = {aij } se denomina triangular inferior si y
solo si es cuadrada y aij = 0 i < j , es decir, todos los elementos sobre la diagonal
principal de la matriz son cero.
Notar que de si A es una matriz triangular superior, entonces AT es triangular
inferior, y vice-versa.
Rango de una matriz
Previo a esta seccion se sugiere al lector revisar en el apendice B, la seccion correspondiente a espacios vectoriales en que se definen los conceptos de combinacion
lineal y vectores linealmente independientes.
Definici
on F.11. Se define como rango columna de una matriz A al m
aximo
n
umero de columnas linealmente independientes.
Analogamente,
Definici
on F.12. Se define como rango fila de una matriz A al m
aximo n
umero
de filas linealmente independientes.
En base a estas definiciones, tenemos que
Definici
on F.13. Se define como rango de una matriz A al mnimo entre su rango
fila y su rango columna.
Finalmente,
Definici
on F.14. Una matriz se dice que es de rango completo si su rango es
igual su n
umero de filas o a su n
umero de columnas.
Determinante de una matriz
Para las matrices cuadradas se puede definir el calculo de su determinante, que tiene
directa relacion con el rango de la matriz, la existencia de su inversa, as como con
sus autovectores y autovalores, que se revisan mas adelante.
Una definicion formal puede ser

380

Matrices. Definiciones y Propiedades

Ap
endice F

Definici
on F.15. Dada una matriz A cuadrada, es decir, de dimensiones n n,
su determinante es un escalar asociado a la matriz que se denota por
|A| = det(A)

(F.1.5)

Para explicar como se calcula el determinante de una matriz, en primer lugar se


define para el caso de una matriz de 2 2.
Definici
on F.16. Sea A una matriz de 2 2, es decir,

a11

A=

a21

a12

a22

aij K

(F.1.6)

|A| = det(A) = a11 a22 a21 a12

(F.1.7)

Entonces,

Ejemplo F.2.
Para matrices formadas por un u
nico elemento, su determinante es ese mismo
elemento:
" #!
det

aij

= aij

(F.1.8)

Para expresar el determinante de una matriz cuadrada de dimension n > 2,


revisaremos primero algunas definiciones necesarias:
Definici
on F.17. Dada una matriz A de n n, entonces se define Mij como el
ij-esimo menor de A, y que es una matriz de (n 1) (n 1) que se obtiene al
elimina la i-esima fila y la j-esima columna de A
Ejemplo F.3.
Definici
on F.18. Dada una matriz A de n n, entonces se define Cij como el
ij-esimo cofactor de A, y que est
a dado por
Cij = (1)i+j det(Mij )

(F.1.9)

En que Mij es el ij-esimo menor de A.


Ejemplo F.4.
Con estas nuevas definiciones estamos en condiciones de definir el determinante
de una matriz de n n:

Section F.1.

381

Conceptos B
asicos

Definici
on F.19. Dada una matriz de n n, entonces su determinante se puede
calcular desarrollando a traves de su i-esima fila:
det(A) = ai1 Ai1 + ai2 Ai2 + . . . + ain Ain
n
X
=
aik Aik

(F.1.10)
(F.1.11)

k=1

O bien, a traves de su j-esima columna


det(A) = a1j A1j + a2j A2j + . . . + anj Anj
n
X
=
akj Akj

(F.1.12)
(F.1.13)

k=1

En ambos casos, Aij es el ij-esimo cofactor de la matriz A, por lo cual este


metodo se denomina desarrollo mediante cofactores.
Ejemplo F.5. Para matrices de 33, si se desarrolla por la primera fila, el metodo
se reduce a:

a11

a21

a31

a12
a22
a32

a13

a22

=
a

11
a23

a32

a33

a21
a23

a12

a31
a33

a21
a23

+ a13

a31
a33

a22

a32

(F.1.14)

Es importante notar que para que el calculo del determinante de la matriz A,


en la Definicion F.19, para reducir el n
umero de calculos necesarios es conveniente
elegir la fila o la columna de la matriz que contenga el mayor n
umero de ceros.
Ejemplo F.6. Si la matriz A tiene una fila o una columna formada solo por ceros,
entonces det(A) = 0.
Ejemplo F.7. Si la matriz A de nn es diagonal o triangular(superior o inferior),
entonces det(A) = a11 a12 . . . ann
Operaciones con matrices: suma, producto escalar.
Las matrices como espacio vectorial.
Producto matricial e inversa de una matriz.
Lema de Inversion Matricial.
Autovalores, Autovectores y diagonalizacion.
Formas Cuadraticas y Matrices definidas positivas

BIBLIOGRAPHY

[1] B.D.O. Anderson and John Moore. Optimal filtering. Prentice Hall, Englewood
Cliffs, N.J., 1979.
[2] R.C. Dorf and R. Bishop. Modern Control Systems. Prentice Hall, Englewood
Cliffs, New Jersey, 9th edition, 1997.
[3] G.F. Franklin and J.D. Powel. Digital Control of Dynamics Systems. AddisonWesley, second edition, 1990.
[4] Graham C. Goodwin, Stefan Graebe, and Mario E. Salgado. Control System
Design. Prentice Hall, New Jersey, 2001.
[5] K. Ogata. State Space Analisys of Control Systems. Prentice-Hall, Inc., Englewood Cliffs, New Jersey, 1967.
[6] H.H. Rosenbrock. State Space and Multivariable Theory. John Wiley and Sons,
New York, 1970.
[7] D.G. Schultz and J.L. Melsa. State Function and Linear Control Systems. McGraw Hill Book Company, New York, 1967.
[8] D.W. Wiberg. Theory and Problems of State Space and Linear Systems. McGraw
Hill Book Company, New York, 1971.
[9] Lotfi A. Zadeh and Charles A. Desoer. Linear System Theory: the state space
approach. McGraw Hill Book Company, New York, 1963.
[10] K. Zhou. Essentials of Robust Control. Prentice Hall, Englewood Cliffs, New
Jersey, 1998.
[11] K. Zhou, G. Salomon, and E. Wu. Balanced realization and model reduction for
unstable systems. International Journal of Robust and Nonlinear Control, 9:183
198, 1999.

382

Indice de nombres

Bode, xi
Euler, 24, 29
Heaviside, 20
Hurwitz, 96
Kalman, R.E., xi
Nyquist, xi
Routh, xi, 96
Taylor, 113

383

Indice de materias

angulo de desfase, 83, 99


angulo entre vectores, 288
alcanzabilidad, 241
descomposicion canonica, 247
test de, 242
amplitud, 83, 99
aperiodicas
se
nales, 113
armonicas, 89
autovalores, 37, 230
cancelacion, 176
cuasi-cancelacion, 176
causalidad, 56
ceros, 174, 202
de fase no mnima, 172, 199
rapidos, 176
circunferencia unitaria, 198
cofactor, 380
completamente observable, 250
condiciones iniciales, 1, 57
constante de tiempo, 23
constantes indeterminadas, 36, 62
contrarespuesta, 177, 202
controlabilidad, 241
perdida de, 243
test de, 242
convolucion, 49, 75
crculo unitario, 63
delta de Dirac, 20
delta de Kronecker, 25
384

desfase, 89
desigualdad triangular, 287
Desplazamiento en el tiempo, 304
Desplazamiento en frecuencia, 304
detectabilidad, 256
determinante, 380
disco unitario, 63
discretizacion, 57, 224
distancia, 287
dualidad, 256
ecuacion caracterstica, 36, 61
ecuacion de recursion, 56
ecuacion diferencial del sistema, 32
elimina banda, 131
entrada, 1
error, 93
errores en las variables, 270, 277
escalon
respuesta a, 156, 193
escalon unitario, 20
espacios de estado, 204
espectro continuo, 118
espectro de lnea, 89, 104
espectro en frecuencia, 89
estabilidad, 63, 167, 197
estabilizable
sistema, 248
estado, 204
del sistema, 205
observable, 250
variables de, 205
trayectoria, 206

385

Indice de materias

estado inicial, 3
estado, espacio de , 205
estado, vector de, 205
exponencial, 22, 27
creciente, 22, 27
exponencial imaginaria, 24
factor de amortiguamiento, 178
fase, 83, 99
fase mnima, 171
fase mnima , 198
forma canonica
controlable, 248
del controlador, 249
fracciones parciales, 358
frecuencia, 83, 99
frecuencia angular, 83, 99
frecuencia de corte, 131
frecuencia fundamental, 88
frecuencia natural
amortiguada , 178
dominante, 39, 67
no amortiguada, 178
frecuencias de corte, 132
frecuencias naturales, 37, 63
funcion muestreo, 21
funcion de transferencia, 121, 152, 153,
186, 190
bipropia, 154, 190
ceros, 153, 190
con retardo, 155
estrictamente propia, 154, 190
grado relativo, 154, 171, 190
impropia, 154
multiplicidad, 154
polos, 154
propia, 154, 191
funcion de transferencia
polos, 190
funcion de transferencia estable, 172,
199
ganancia, 40, 67
ganancia a continua, 40, 67

gradiente, 271, 278


gramiano
controlabilidad, 245
gramiano de controlabilidad, 245
Heaviside
operador, 34
homogeneidad, 5
homogenea
respuesta, 213
Hurwitz
polinomio, 168
impulso
respuesta a, 156, 193
impulso unitario, 20, 25
independencia lineal, 88
integrador, 6
laplace, 151
linealizacion, 8
Lyapunov
ecuaciones, 246
lmite de estabilidad, 167, 198
matriz
cuadrada, 379
de transicion, 212
diagonal, 379
triangular inferior, 379
triangular superior, 379
cofactor, 380
definicion, 376
determinante, 380
elementos, 376
menor, 380
rango, 379
traspuesta, 378
matriz de transicion, 228
matriz de transicion
discreta, 228
menor, 380
modelo, 4, 4, 204
linealizado, 8
peque
na se
nal, 13

386
validacion, 266
modelos, 266
modo forzante, 40, 67
ganancia a, 67
modo natural
dominante, 39, 67
modos
forzados, 231
naturales, 231
particulares, 231
modos forzados, 40, 67
modos naturales, 37, 63, 199, 230
muestreo, 205, 224, 226, 228
norma, 287
norma inducida, 287
observabilidad, 250
forma canonica, 257
operador, 3
operador adelanto, 58
ortogonalidad, 88
Parseval, 97, 120, 139
pasa altos, 129
pasa bajos, 129
pasa banda, 131
PEM, 270, 277
perodo, 83, 99
plano de fase, 216
polinomio caracterstico, 61
polo
multiplicidad, 190
polos, 172, 199, 221, 358
dominantes, 174, 202
lentos, 174, 202
rapidos, 174, 202
prediccion
error de, 268, 270, 276, 278
primera diferencia, 12
promedio movil, 57
Propiedades transformada de Fourier,
316
Propiedades transformada de Fourier
discreta., 332

Indice de materias

Propiedades transformada de Laplace,


356
Propiedades transformada Zeta, 373
punto de equilibrio, 10, 12
punto de operacion, 8, 13
radio de convergencia, 364
rampa unitaria, 22, 26
rango, 379
realizacion mnima, 223, 258
regresion
vector de, 269, 277
regresores, 270, 277
resonancia, 87, 232
respuesta
a escalon, 232
forzada, 231
respuesta a (t), 48
respuesta a [t], 74
respuesta a (t), 46
respuesta a [t], 71
respuesta en frecuencia, 84, 99, 106,
193
respuesta estacionaria, 46, 71
respuesta homogenea, 35, 60
respuesta inversa, 177, 202
respuesta natural, 230
respuesta no forzada, 230
respuesta particular, 35, 62
respuesta transitoria, 46, 71
respuestas, 2
retardo, 155, 196, 209, 235
retentor, 226
de orden cero, 226
Routh
algoritmo, 169
Serie de Fourier, 88
serie de Fourier, 82
exponencial, 96
serie de Taylor, 281
se
nal causal, 50, 75
se
nal incremental, 13
se
nales, 1, 20

387

Indice de materias

de tiempo discreto, 25
se
nales de prueba, 20
similaridad, 219, 236
sinuosoide
aperiodica, 28
sinusoidal, 83, 98
sinusoide, 24
amortiguada, 25
amplitud, 24
desfase, 24
discreta, 28
amortiguada, 29
frecuencia, 24
frecuencia angular, 24
formula de Euler, 24
perodo, 24
sistema
algebraico, 4, 6
dinamico, 2
dual, 256
hbrido, 205
sistema, 1
sistemas
muestreados, 225, 226
sistemas lineales, 5
solucion homogenea, 35, 60
solucion particular, 35, 62
subespacio
alcanzable, 248
no alcanzable, 248
observable, 256
no observable, 256
superposicion, 5
Tabla de transformadas de Fourier, 317
Tabla de transformadas de Fourier discretas, 333
Tabla transformada Zeta, 373
Tabla transformadas de Laplace, 356
Tabla transformadas de Laplace inversas, 356
transferencia
funcion de, 152, 186
transformaciones del estado, 219, 236

transformacion Zeta, 185


Transformada de Fourier, 116
transformada de Fourier, 113, 116, 301
transformada de Fourier discreta, 136,
318
transformada de fourier discreta, 136
transformada de Fourier discreta inversa, 136, 318
transformada de Fourier inversa, 116,
301
Transformada de Laplace, 152
inversa, 152
region de convergencia, 152, 341
transformada rapida de Fourier, 335
undershoot, 177, 202
valores caractersticos, 37
valores propios, 37
variables de estado, 204
velocidad, 39, 66