Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Apuntes de Ingenieria Electronica - Regulacion Automatica
Apuntes de Ingenieria Electronica - Regulacion Automatica
on Autom
atica
Ingeniera Electr
onica
Javier Aracil
Fabio Gomez-Estern
Contenido
1 Introducci
on a los sistemas de control.
1.1
1.2
1.3
Idea de realimentacion. . . . . . . . . . . . . . . . . . . . . . . . .
1.4
1.5
Sensibilidad y realimentacion. . . . . . . . . . . . . . . . . . . . .
1.6
1.7
Se
nales y sistemas. . . . . . . . . . . . . . . . . . . . . . . . . . .
11
1.8
Servomecanismos y reguladores. . . . . . . . . . . . . . . . . . . .
13
1.9
15
1.9.1
17
2 Introducci
on a los sistemas realimentados
19
2.1
Servomecanismo de posicion . . . . . . . . . . . . . . . . . . . . .
19
2.2
21
2.3
22
Contenido
ii
3 Sistemas din
amicos lineales
3.1
28
Transformacion de Laplace . . . . . . . . . . . . . . . . . . . . . .
28
3.1.1
Definicion . . . . . . . . . . . . . . . . . . . . . . . . . . .
28
3.1.2
Resumen de Propiedades . . . . . . . . . . . . . . . . . . .
29
3.1.3
Calculo de antitransformadas . . . . . . . . . . . . . . . .
33
3.2
38
3.3
39
3.3.1
Sistemas estaticos. . . . . . . . . . . . . . . . . . . . . . .
39
3.3.2
Sistemas dinamicos . . . . . . . . . . . . . . . . . . . . . .
40
42
3.4.1
Respuesta impulsional. . . . . . . . . . . . . . . . . . . . .
42
3.4.2
Funcion de transferencia. . . . . . . . . . . . . . . . . . . .
44
46
3.4
3.5
4 Interpretaciones de la funci
on de transferencia
50
4.1
Transformacion de Fourier . . . . . . . . . . . . . . . . . . . . . .
50
4.2
54
5 Sistemas din
amicos lineales de primer orden
56
5.1
Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
56
5.2
57
5.2.1
Se
nal de entrada nula . . . . . . . . . . . . . . . . . . . . .
57
5.2.2
Se
nal de entrada no nula . . . . . . . . . . . . . . . . . . .
59
5.2.3
Respuestas a se
nales de entrada especiales . . . . . . . . .
61
Contenido
5.2.4
iii
Respuesta armonica . . . . . . . . . . . . . . . . . . . . . .
69
5.3
. . . . . . . . . . . . . . .
72
5.4
77
6 Sistemas din
amicos lineales de segundo orden y de orden y superior
79
6.1
Definicion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.1.1
82
6.1.2
91
6.1.3
92
7 Representaci
on gr
afica de la funci
on de transferencia
7.1
7.2
7.3
79
98
98
7.1.1
98
7.1.2
Diagrama de Nyquist . . . . . . . . . . . . . . . . . . . . .
99
7.1.3
7.1.4
7.2.2
7.2.3
7.2.4
7.2.5
Contenido
iv
7.4
Crculos M y N . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
7.5
7.5.2
7.5.3
7.5.4
122
8.1
Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
8.2
8.3
8.2.1
8.2.2
9 Compensaci
on de sistemas realimentados
143
9.1
Introduccion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
9.2
9.3
9.4
9.5
9.6
9.7
Contenido
10 Representaci
on matem
atica de sistemas
10.1 Introduccion
162
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
. . . . . . . . . . . . . . . . . . . . . 187
191
Contenido
vi
242
Contenido
vii
. . . . . . . . . . . . . 248
. . . . . . . . . . . . . . . . . 270
283
. . . . . . . . . . . . . . . . . . . . 289
Contenido
viii
331
Contenido
ix
15 M
etodos Variacionales en Control Optimo
368
. . . . . . . . . . . . . . . . . . . 373
393
417
Contenido
452
18.1 Nocion de se
nal aleatoria . . . . . . . . . . . . . . . . . . . . . . . 452
18.1.1 Descripcion estadstica de las se
nales aleatorias . . . . . . 453
18.2 Transmision de se
nales aleatorias a traves de sistemas lineales: descripcion interna . . . . . . . . . . . . . . . . . . . . . . . . . . . 456
18.3 El problema de la observacion: Filtro de Kalman . . . . . . . . . 458
18.3.1 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 464
18.4 Metodo LQG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 466
Tema 1
Introducci
on a los sistemas de
control.
1.1
Noci
on de control autom
atico.
flechas que se han denotado por u1 , u2 ... y que representan las distintas acciones
que se pueden ejercer sobre el proceso; se denominaran en lo que sigue se
nales
de control, mando, o entrada. A la derecha del bloque se han representado otras
flechas, como saliendo del mismo, que se han denotado por y1 , y2 , ... y que representan los productos que produce el proceso. Tanto las acciones sobre el sistema
como los productos del mismo generalmente varan con el tiempo, por lo que se
hablara de secuencias temporales, o mas formalmente de se
nales; sobre el caracter
de estas se
nales se volvera mas adelante.
u1
u2
un
q
q
q
Sistema
a
controlar
y1
y2
ym
q
q
q
tomar las se
nales de mando del mismo. Es decir, volviendo al ejemplo trivial
de la conduccion del automovil, la decision de las maniobras que debe efectuar
el conductor (sobre el volante, sobre el freno, sobre el acelerador...) para que el
funcionamiento del automovil sea el adecuado.
1.2
1.3
Idea de realimentaci
on.
El conocimiento del modelo matematico del sistema sobre el que se debe tomar
una decision para gobernar su funcionamiento, no es suficiente para la toma de
esta decision. Se requiere ademas informacion sobre lo que, de una forma intuitiva
de momento se puede denominar estado actual del mismo.
Es facil encontrar ejemplos que ilustren este punto. Supongase, por ejemplo,
un automovil que debe hacer el recorrido Sevilla - Cadiz. Supongase que se
dispone de un modelo matematico del funcionamiento del automovil as como
un trazado minucioso de la autopista que une las dos ciudades Parece posible,
en principio, concebir un programa de ordenador extraordinariamente detallado
que permitiese realizar la toma de decisiones sobre la conduccion del automovil.
Un programa que sera algo as como una secuencia de instrucciones del tipo:
avanzar en lnea recta 150 m, realizar un giro a la derecha, con radio de giro de
1 km.,.... Sin embargo parece claro que en principio no quepa augurar un feliz
resultado a la empresa. Este tipo de programa dara lugar a un control en en
el que no se tiene informacion externa sobre la situacion actual, situacion que
recibe el la denominacion de se denomina control en bucle abierto. Pese a sus
limitaciones, tiene su aplicacion en ciertos contextos, por ejemplo una lavadora
automatica basada en secuencias de trabajo prefijadas en el tiempo.
El conductor del automovil no hace sino desde su posicion de gobierno, introducir en su sistema de decision neuronal, especialmente por medio de sus ojos,
informacion sobre el estado actual del automovil, permitiendo de esta forma el
que la toma de decision respecto a la condicion del mismo, adquiera un grado de
eficacia realmente fiable.
Este ejemplo, pese a su aparente artificiosidad es similar al que se presenta
cuando se trata de enviar una capsula a la luna. Debe notarse que la necesidad
de la realimentacion surge como consecuencia de la aparicion de perturbaciones
aleatorias que modifican el funcionamiento del sistema de acuerdo con un plan
previsto, o sencillamente por la imperfeccion del modelo del sistema que le impide
una prediccion exacta, a largo plazo, del funcionamiento del mismo.
Desde un punto de vista general, cabe decir que los sistemas con realimentacion
son aquellos en los que la adopcion de decisiones cara al futuro esta completamente influenciada por los efectos de las previamente adoptadas. Dicho con otras
palabras, son los sistemas en los que si la accion que se lleva a efecto persigue
una determinada meta, es la diferencia entre la precision alcanzada en la aproximacion a esta meta, y ella misma, la que determina las acciones posteriores. Este
tipo de actuaciones son las que se denominan control en bucle cerrado o control
por realimentacion.
En la figura 1.2 se representa en forma de diagrama de bloques lo anterior.
En dicha figura se representa por un lado el Sistema, cuya variable de Salida
pretendemos controlar de forma que siga a la Entrada. Para ello se dispone de
un Elemento de medici
on, que nos proporciona el valor de la se
nal de salida y
posteriormente una vez comparada con la se
nal de entrada se toma la decision
correspondiente para actuar sobre el sistema.
Conviene recordar que, en general, los sistemas fsicos poseen memoria del
Entrada
-
Toma de
decision
Salida
-
Planta
Elemento
de
medicion
1.4
Realimentaci
on, retardos y oscilaci
on.
Perturbaciones
Referencia
-
Ojos
(Sentidos)
- Conducci
on
Coche
Posicion
-
1.5
Sensibilidad y realimentaci
on.
Perturbaciones
Ref.
? ? ?
Ojos
(Sentidos)
on
-Transmisi
oral
-Conducci
on
Coche
Posicion
-
Una peque
na variacion de cualquiera de los grifos influye sensiblemente en
la temperatura del agua.
Es claro que en tales condiciones se produciran oscilaciones de la temperatura del
agua, puesto que sera enormemente difcil ajustar la misma. Ello es debido a que
cualquier accion que se tome tarda un cierto tiempo en detectarse (en la espalda
del que se ducha que es el organo de medida), y por lo tanto este posiblemente se
pase en la correccion. El sistema se convierte entonces en un sistema inestable, y
la correccion de ese tipo de inestabilidad constituye uno de los primeros problemas
con los que se enfrenta el dise
nador de sistemas realimentados. Ello se pondra
ampliamente de manifiesto a lo largo de este curso.
1.6
Las Matem
aticas y el control autom
atico.
10
Modelo
Matematico
6
Ley de
Control
Abstraccion
Implementacion
Sistema
Fsico
Sistema
de Control
11
1.7
Se
nales y sistemas.
12
perturbaciones
Seales de
entrada
u(t)
Seales de
salida
y(t)
Excitacin
Constante
velocidad
13
1.8
Servomecanismos y reguladores.
y
amplificador
motor
14
Kc
Kp
c
Ti
+ V
Kt
+ Vt
+
Vr
15
1.9
Bosquejo hist
orico del control autom
atico.
16
Caldera
vapor
eje de la mquina.
vlvula
Cilindro
Transmisin
vlvula
Mquina
de vapor
bolas
17
1.9.1
Control, inform
atica y telecomunicaciones.
A menudo se confunden las disciplinas de control automatico e informatica, habiendo visiones superficiales que consideran el control como una aplicacion de las
tecnologas de la informacion y comunicaciones. La raz de esto se halla en las
siguientes razones:
El sistema de decision que dise
nan los ingenieros de control para el gobierno
de los sistemas fsicos es un procesador de se
nales, y por tanto un procesador
de informacion, como son las computadoras.
nos 70 del siglo pasado y pos El advenimiento del microprocesador en los a
teriormente de los mas compactos microcontroladores, ha alterado significativamente los metodos del control automatico, de modo que apenas se
hace control sin la intervencion de las computadoras: tanto en la fase del
analisis matematico como en la concepcion de los instrumentos encargados
18
Tema 2
Introducci
on a los sistemas
realimentados
2.1
Servomecanismo de posici
on
f
y(t)
u(t)
amplificador
19
20
e(t)
u(t)
amplificador
y(t)
d2 y
dy
+f
= u(t)
2
dt
dt
siendo en este caso y(t) el angulo girado por el motor, J la inercia del conjunto
motor-carga, y f el coeficiente de friccion viscosa del mismo conjunto.
Para que un sistema de control realimentado act
ue aceptablemente, necesita
satisfacer unas determinadas especificaciones de funcionamiento, tanto para su
regimen permanente como para su transitorio que, normalmente, no se consigue
con los elementos que consituyen el bucle de control.
Hay veces en que un simple aumento de la ganancia estatica es suficiente
para lograr precision, sin que se afecte demasiado a las caractersticas en estado
transitorio. No obstante, como lo normal es que estas se vean empeoradas con una
actuacion de este tipo, o en el mejor de los casos, no se consigan exactamente las
21
2.2
Acci
on proporcional m
as derivada (PD).
d2 y
dy
dr
dy
+
f
=
Kr
Ky
+
K
K
d
d
dt2
dt
dt
dt
d2 y
dy
dr
+
(f
+
K
)
+
Ky
=
Kr
+
K
d
d
dt2
dt
dt
(2.2)
22
2.3
Acci
on proporcional m
as integral (PI).
En este caso, la se
nal de mando es la suma de un termino proporcional y otro
integral, de la se
nal de error.
u(t) = K e + Ki
Z t
0
e dt
23
(a)
t
e
(b)
f
de
dt
(c)
t
e+
de
dt
(d)
g
y
t
y
r
(e)
t
Figura 2.3: Compensacion con PD.
24
respuesta a Kr
(a)
respuesta a Kd dr
dt
t
y
respuesta a Kr + Kd dr
dt
r
(b)
t
Figura 2.4: Respuesta temporal con red PD.
Ki
+
R
+
G(s)
K
25
Z t
d2 y
dy
+
f
+
P
=
Ke
+
K
e dt
e
i
dt2
dt
0
Z t
d2 r
dr
d2 e
de
Pe + J 2 + f
= J 2 + f + K e + Ki
e dt
dt
dt
dt
dt
0
d2 r
=0
dt2
con lo cual,
Pe = K ep + Ki
d2 e
=0
dt2
Z
0
e dt
26
Como Pe es finito, la u
nica formaR de que se cumpla la ecuacion anterior es
que ep = 0 ya que en caso contrario, 0 edt . En consecuencia, el sistema
reacciona eliminando el error en regimen permanente (ep ).
Por lo dicho, una red PI mejora considerablemente el regimen permanente, no
solo de una manera cuantitativa, sino esencialmente cualitativa por cuanto que
cambia el tipo del sistema, es decir, no es que el sistema se mejore, sino que se
convierte en otro, de caractersticas distintas.
La interpretacion fsica del fenomeno es muy simple. La aplicacion del par
externo Pe , tiende a separar la posicion del eje de salida del valor en que la
ha fijado la se
nal de referencia (figura 2.6.a). Ello trae consigo la aparicion del
consiguiente error (figura 2.6.b).
Si la se
nal de actuacion sobre el sistema es proporcional al error, mas su
integral, se aplica una se
nal tal como la que se muestra en la figura 2.6.d. El
fenomeno que se produce entonces puede interpretarse diciendo que el par del
motor empezara a crecer hasta que vence al que se aplica exteriormente. La
evolucion del error y de la se
nal de salida se muestran en las figuras 2.6.e y 2.6.f.
Observese como es el elemento integrador el que mantiene la se
nal sobre el motor
para que este venza al par exterior.
27
a)
e
b)
z
t
R
edt
c)
e+
edt
d)
edt
e)
z
t
f)
Tema 3
Sistemas din
amicos lineales
3.1
Transformaci
on de Laplace
3.1.1
Definici
on
El metodo de la transformada de Laplace es un metodo opcional que puede utilizarse con ventaja para la resolucion de ecuaciones diferenciales lineales. La
transformada de Laplace se define como:
L [f (t)] = F (s) =
Z
0
f (t)est dt
f (t) es una funcion del tiempo tal que f (t) = 0 para t < 0, s = + jw una
variable compleja y L un simbolo operacional. La existencia de la transformada
F (s) esta condicionada a la convergencia de la integral.
Si existe una constante real y positiva tal que para > c , et | f (t) |
tiende a cero cuando t , mientras que para < c tiende a infinito. El
valor c recibe el nombre de abscisa de convergencia. La integral converge, y por
tanto existe la transformada de Laplace, si la parte real de s, () es mayor que la
28
29
abscisa de convergencia c .
En termino de los polos de la funcion F (s), la abscisa de convergencia c ,
corresponde a la parte real del polo mas alejado hacia la derecha en el plano s.
A la funcion f (t) se la conoce como la anti-transformada de Laplace, F (s) y
se expresa as,
f (t) = L1 [F (s)]
En la tabla siguiente se tienen las transformadas de Laplace de las funciones
mas usuales en automatica.
Tabla de Transformadas de Laplace
Se
nal
Impulso
Escalon
Rampa
Parabola
Rampa de orden n
Decrecimiento exponencial
Onda sinusoidal
Onda cosenoidal
Sinusoide con decrecimiento exponencial
Cosenoide con decrecimiento exponencial
3.1.2
f (t)
(t)
1 (t 0)
t(t 0)
2
t (t 0)
tn (t 0)
et
sent
cost
t
e sent
et cost
F (s)
1
1
s
1
2
s
2
s3
n!
sn
1
(s+)
(s2 + 2 )
s
(s2 + 2 )
((s+)2 + 2 )
s+
((s+)2 + 2 )
Resumen de Propiedades
F1 (s)+
1. Linealidad: Si F1 (s) y F2 (s) son las transformadas de f1 (t) y f2 (t),
F2 (s) es la transformada de Laplace de f1 (t) + f2 (t), seg
un se desprende de
la definicion.
2. Derivaci
on real: Si L [f (t)] = F (s), entonces
"
df (t)
= sF (s) f (0)
L
dt
30
R
1
est dt = est y dv = est dt
s
u = f (t) ; du = f (t) dt ; v =
Z
u dv = uv
vdu
F (s) =
"
st
f (t) e
f (t)est
dt =
s
f (0) 1 Z 0
+
f (t) est dt,
s
s 0
1
est f 0 (t)dt =
s
pero
luego:
L [f 0 (t)] = sF (s) f (0) c.q.d.
3. Integraci
on real: Si L [f (t)] = F (s),
L
Z t
F (s)
f ( ) d =
+
s
Si en la expresion F (s) =
R
0
f (0) dt
s
u = est ; du = sest dt
Z
v=
f (t) dt;
dv = f (t)dt
se tiene que,
F (s) =
Z
0
st
Z
st
f (t)e dt = e
f (t)dt
f (0)dt + s
Z Z
0
Z
0
Z
st
se
f (t)dt est dt ;
f (t)dt dt =
y como
31
Z Z
f (t)dt e
Z
st
dt = L
F (s)
f (t)dt =
+
s
f (t)dt =
f (0)dt
c.q.d.
s
s0
Sabemos que
Z
0
s0
pero lim
s0
Z
0
haciendo que s 0
(3.1)
s0
f 0 (t)est dt =
Z
0
f 0 (t)dt = lim
Z t
t 0
s0
s0
f 0 ( )d =
32
lim
s 0
t0
6. Integral de Convolucion:
Sean
F1 (s) = L [f1 (t)]
El producto de ambas,
F1 (s) F2 (s) =
=
Z
0
f1 (t)e
Z Z
0
st
dt
Z
0
f2 ( )es d =
(3.2)
f1 (t)f2 ( )es(t+ ) dt d
v =
u = t+
t,
J(
) =
u, v
t
u
t
v
1 1
=
=1
0
1
(3.3)
33
F1 (s) F2 (s) =
=
Z Z u
Z0 Z0 u
0
f1 (u v) f2 (v)esu dv du =
f1 (u v) f2 (v)dv esu du
luego
F1 (s) F2 (s) = L
Z u
0
f1 (u v) f2 (v) dv
3.1.3
Calculo de antitransformadas
Con el calculo de antitransformadas se pretende determinar a partir de la transformada de Laplace F(s) la correspondiente antitransformada; es decir,
f (t) = L1 [F (s)]
La transformada posee s
olo polos reales y simples
Supongase que el denominador de la funcion de la que se quiere hallar la antitransformada, F (s), es de la forma
d(s) = (s + p1 )(s + p2 ) . . . (s + pn )
de modo que los diferentes pi son reales y diferentes entre si. En tal caso la
funcion F (s) admite una descomposicion en fracciones simples de la forma
F (s) =
n(s)
a1
a2
an
=
+
+ ... +
d(s)
s + p1 s + p2
s + pn
los coeficientes ai reciben la denominacion de residuos de F (s) en s = pi . Multiplicando los dos miembros de la expresion anterior por (s+pi ) y haciendo s = pi
se tiene
34
"
n(s)(s + pi )
ai =
d(s)
#
s=pi
ai
=
= ai epi t
(s + pi )
se tiene que
f (t) = a1 ep1 t + a2 ep2 t + . . . an epn t
En esta expresion se pone de manifiesto que a cada pi se asocia una funcion
(una trayectoria o un comportamiento) de la forma epi t . Estas funciones reciben
la denominacion de modos naturales del sistema. Se dice que un modo natural es
asintoticamente estable si pi 0.
Ejemplo Sea la transformada de Laplace
F (s) =
(s + 3)
(s + 1)(s + 2)
(s + 3)
a1 =
(s + 2)
"
(s + 3)
a2 =
(s + 1)
=2
s=1
= 1
s=2
luego
f (t) = 2et e2t t 0
F (s) =
35
n(s)
1 s + 2
a3
an
=
+
+ ... +
d(s)
(s + p1 )(s + p1 ) s + p3
s + pn
(1 s + 2 )s=p1
n(s)(s + p1 )(s + p1 )
=
d(s)
#
s=pi
L1
"
L1
= et sent
((s + )2 + 2 )
#
s+
= et cost
((s + )2 + 2 )
En concreto, si se supone:
p1 = a + j y p1 = a j
se tendra
1 s + 2
1 s + 2
=
=
(s + p1 )(s + p1 )
(s + a + j)(s + a j)
"
#
"
#
s+a
(2 1 a)
1
+
((s + a)2 + 2 )
((s + )2 + 2 )
Ejemplo
Sea la transformada de Laplace
F (s) =
(s + 1)
s(s2 + 2s + 2)
36
"
(s + 1)
a3 =
2
(s + 2s + 2)
=
s=0
1
2
Por tanto,
11 1
s
2
2 s 2 s + 2s + 2
11 1
s
=
2 s 2 (s + 1)2 + 1
11 1
s+1
1
1
=
+
2
2 s 2 (s + 1) + 1 2 (s + 1)2 + 1
F (s) =
De donde se tiene,
f (t) =
1 1 t
1
e cost + et sent t 0
2 2
2
F (s) =
n(s)
br
br1
b1
a2
an
=
+
+ ... +
+
+ ... +
r
r1
d(s)
(s + p1 )
(s + p1 )
s + p1 s + p2
s + pn
n(s)(s + p1 )r
bi =
d(s)
#
s=p1
Observese que
r
r1
an (s + p1 )r
a2 (s + p1 )r
+. . .+
+
s + p2
s + pn
37
d
[(s + p1 )r F (s)] = br1 + 2br2 (s + p1 ) . . . + (r 1)b1 (s + p1 )r2 +
ds
"
"
d a2 (s + p1 )r
d an (s + p1 )r
+ ... +
ds
s + p2
ds
s + pn
1 d2
[(s + p1 )r F (s)]s=p1
2 ds2
En general se tendra
brj
1 dj
=
[(s + p1 )r F (s)]s=p1
j
j! ds
Ejemplo
Sea
F (s) =
s2 + s + 2
(s + 1)3
que se desconpone
F (s) =
b3
b2
b1
+
+
3
2
(s + 1)
(s + 1)
(s + 1)
Se tendra
b3 = [s2 + s + 2]s=1 = 2
b2 = [2s + 1]s=1 = 1
b1 = 1
Por tanto
F (s) =
2
1
1
+
(s + 1)3 (s + 1)2 (s + 1)
De donde se tiene,
f (t) = (t2 t + 1)et
3.2
38
Noci
on de sistema din
amico.
39
u(t)
y(t)
3.3
Se ha indicado en la seccion 3.2, que un sistema esta formado por las relaciones
matematicas que ligan las se
nales u(t) e y(t) que lo definen. En esta seccion se
van a considerar algunas formas matematicas de las relaciones que ligan a las
se
nales u(t) e y(t) en tipos de sistemas com
unmente encontrados en la practica.
Sin embargo, en el resto de estos apuntes solo se estudiara una de las clases
consideradas en esta seccion. Una posible primera clasificacion elemental de las
relaciones que ligan a las se
nales de entrada y salida de los sistemas, es en sistemas
estaticos y sistemas dinamicos.
3.3.1
Sistemas est
aticos.
(3.4)
en donde, para los casos de interes practico F{.} es una funcion uniforme. Los
sistemas que admiten esta forma de representacion reciben el nombre de sistemas
40
3.3.2
Sistemas din
amicos
Normalmente las relaciones que ligan las magnitudes fsicas que definen un sistema no son ecuaciones algebraicas, que conducen a sistemas estaticos, sino ecuaciones diferenciales. Ello es debido a que la mayor parte de las leyes de la fsica
se expresan por medio de esta clase de ecuaciones.
Aqu se consideraran exclusivamente las ecuaciones diferenciales de la forma,
dn y
dy
dn u
+
...
+
a
+
a
(t)y
=
b
(t)
+ ... + bn (t)u
n1
n
0
dtn
dt
dtn
(3.5)
41
3.4
42
Descripci
on externa de los sistemas din
amicos.
(3.7)
3.4.1
Respuesta impulsional.
Una forma de escribir la solucion a una ecuacion diferencial como la de la expresion (3.5) es la siguiente:
y(t) =
Z t
h(t, )u( )d
(3.8)
en donde h(t, ) recibe el nombre de respuesta impulsional del sistema. La expresion (3.8) es una forma de descripcion externa de un sistema dinamico ya que
corresponde al caso de una funcion lneal.
La respuesta impulsional de un sistema puede tener las siguientes propiedades:
43
para
t<
y(t) =
Z t
ea(t ) b u( )d
44
y(t)
3.4.2
Funci
on de transferencia.
Para los sistemas lineales estacionarios existe una forma de descripcion externa
muy empleada en la practica: la funcion (matriz) de transferencia. Se puede
45
Z
0
h( )e s d
(3.9)
(3.10)
46
3.5
Un sistema de control realimentado se representa esquematicamente como se indica en la figura 3.3. Sobre este esquema vamos a recordar una serie de conceptos
que consideramos de interes.
r(t) +
e
-@
@
6m
u
K
y(t)
-
H(s)
G(s)
47
M (s)
= H(s)
Y (s)
En este caso H(s) es la funcion de transferencia de la cadena de realimentacion.
Se llama bucle abierto, al conjunto de elementos que constituyen todo
el sistema, si este se abriese por el punto m(t), es decir, como si la se
nal
de entrada fuese e(t) y la de salida m(t). La funcion de transferencia del
conjunto as dispuesto sera
M (s)
= KG(s)H(s)
E(s)
Se llama bucle cerrado, al sistema conectado como se indica en la figura
3.3. Las se
nales y(t) y r(t) se relacionan por la conocida formula, facil de
deducir,
Y (s)
KG(s)
=
R(s)
1 + KG(s)H(s)
Observese que, en este caso, la se
nal de actuacion sobre el sistema es proporcional a la se
nal de error. Se trata pues de un control proporcional (P).
El valor de la ganancia K del amplificador sera, por tanto, un parametro
susceptible de ser variado de acuerdo con las necesidades del problema.
En lo que sigue se supondra siempre que la cadena de realimentacion es
unitaria, con lo que el esquema fundamental quedara de la forma que se
indica en figura 3.4 y quedando la funcion de transferencia en bucle cerrado
reducida a
Y (s)
KG(s)
=
R(s)
1 + KG(s)
Naturalmente en este caso cadena de acci
on y bucle abierto son dos conceptos coincidentes.
Por el hecho de introducir una compensacion sobre el bucle antes mencionado,
el esquema se modifica de alguna manera, como se muestra mas adelante. Se
distinguen dos tipos de compensacion:
48
r(t) +
e
@
-@
@
6m
y(t)
-
G(s)
u0
r(t) +
e
6m
Gr (s)
u
K
y(t)
G(s)
49
r(t) +
e
-@
-@
@
@
@
@
6
6m
u
K
y(t)
-
Gr (s)
G(s)
amplificador para que el nivel de potencia a que trabaje sea el del error, es decir,
bajo.
Tema 4
Interpretaciones de la funci
on de
transferencia
4.1
Transformaci
on de Fourier
Dada una funcion del tiempo periodica fT (t) de periodo T , se puede desarrollar
en serie de Fourier, de la forma:
fT (t) = a0 +
n=1
donde wn =
2n
y los coeficientes vienen dados por:
T
2 Z T /2
an =
fT (t)cos wn tdt
T T /2
bn =
2 Z T /2
fT (t)sen wn tdt
T T /2
n = 0, 1, 2, ...
n = 1, 2, ...
51
que lo integran; ahora bien, tomando como parametros, por agrupacion de las
componentes en seno y coseno de igual frecuencia los valores:
cn =
n = tag 1
a2n + b2n
bn
an
fT (t) = a0 +
cn sen(wn t + n )
n=1
Una vez que se ha mostrado como fT (t) queda completamente definida con
a0 , cn y n , pueden considerarse las relaciones,
cos =
ej + ej
;
2
sen =
ej ej
2j
an cos wn t + bn sen wn t = an
=
ejwn t + ejwn t
ejwn t ejwn t
+ bn
=
2
2j
52
an + jbn
1 Z T /2
=
fT (t)ejwn t dt
2
T T /2
n
n
Es decir an jb
tiene una expresion identica a an +jb
sin mas que cambiar wn
2
2
por wn , esto es, n por -n, luego sustituyendo en el desarrollo en serie, puede
escribirse
#
"Z
T /2
1 X
jwn t
fT (t)e
dt ejwn t
fT (t) =
T n= T /2
La cantidad entre corchetes representa una funcion compleja que tiene como
parametro el valor imaginario j wn , toda vez que el tiempo desaparece al integrar.
Esta funcion recibe el nombre de Transformada de Fourier de la funcion temporal
periodica fT (t):
F (jwn ) =
Z T /2
T /2
fT (t)ejwn t dt
1 X
F (jwn )ejwn t
T n=
wn =
luego
2n
;
T
wn+1 wn =
2
= wn
T
1 X
fT (t) =
F (jwn )ejwn t wn
2 n=
f (t)ejwt dt
f (t) =
53
1 Z
F (jw)ejwt dw
2
Supuesto que la integral de Fourier sea convergente, para lo cual debe cumplirse
la condicion de convergencia absoluta
Z
| f (t) | dt <
f (t) =
eat t > 0
(a > 0)
0 t<0
| f (t) | dt =
Z t
0
"
at
eat
dt =
a
=
0
1
<
a
y la transformada:
F (jw) =
f (t)e
jwt
dt =
Z
0
e(a+jw)t dt =
1
a + jw
Sin embargo, y aunque en muchos casos la Transformada de Fourier es suficiente, en otros casos de interes tales como funciones de tipo polinomico en t no
son convergentes; por ejemplo, para el escalon unitario
(
f (t) = u0 (t) =
1
0
t>0
t<0
la convergencia resulta:
Z
| u0 (t) | dt =
Z
0
dt =
54
y la transformada,
F (jw) =
Z
0
"
jwt
ejwt
dt =
jw
#
0
4.2
Funci
on de transferencia en el dominio de la
frecuencia
u(t)
|H|A
A
t
55
sometido a una se
nal sinusoidal, de pulsacion w y de amplitud unitaria. Es
sabido que esta se
nal se puede representar en forma compleja u(t) = ejwt . La
respuesta del sistema, en regimen estacionario, a la anterior se
nal de entrada es
la solucion particular de la anterior ecuacion diferencial la cual se comprueba
facilmente que es,
y(t) =
b
ejwt
(jw) + a
Esta notable propiedad de la funcion de transferencia es la que ha justificado el amplio uso de la misma en el analisis y dise
no de servomecanismos y
reguladores elementales. Notese que esta propiedad lleva implcito un metodo
experimental de medida de la funcion de transferencia de un sistema dinamico.
Este metodo consiste, sencillamente, en la aplicacion de se
nales sinusoidales de
distintas frecuencias, y en la medida, para cada una de ellas, de la atenuacion y
del desfase que sufren al atravesar el sistema. La medida de la atenuacion y del
desfase suministran el modulo y el argumento de H(jw) para el valor de w correspondiente. Existen unos equipos comerciales, denominados servoanalizadores,
concebidos para realizar esta funcion de medicion de los sistemas dinamicos.
No debe, sin embargo, olvidarse que H(s) suministra informacion tanto sobre
el comportamiento en el dominio del tiempo (empleando las tablas de la transformada de Laplace) como de la frecuencia (gracias a la propiedad expuesta). De
ah que la denominacion representaci
on frecuencial no sea del todo apropiada, o
en cualquier caso debe tomarse de forma matizada.
Tema 5
Sistemas din
amicos lineales de
primer orden
5.1
Introducci
on
(5.1)
57
u(t)
y(t)
5.2
Soluci
on de la ecuaci
on diferencial de primer
orden
5.2.1
Se
nal de entrada nula
En el supuesto de que la se
nal de entrada u(t) sea nula para todo t, la ecuacion
diferencial de primer orden se convierte en
dy
= ay
dt
y(0) =
(5.2)
58
u(t)
dy(t)
dt
y(t)
t
59
5.2.2
Se
nal de entrada no nula
(5.3)
60
y(t)
yh (0) + w(0) =
dyh
dw
+ ayh +
+ aw = v
dt
dt
w(0) = yh (0)
es decir,
w(0) = 0
(5.5)
61
Es decir, la se
nal w(t) constituye la respuesta del sistema ante la se
nal de entrada
u(t) a partir del reposo.
La discusion anterior permite interpretar la expresion (5.4) diciendo que la
respuesta y(t) de un sistema dinamico lineal a una se
nal de entrada u(t) a partir
de un valor inicial y(0) puede considerarse como la suma de la respuesta del
sistema, a partir del valor inicial y(0), ante una se
nal de entrada nula mas la
respuesta del sistema a la se
nal de entrada u(t) a partir del reposo. Es facil ver
que w(t) viene dada por,
at
w(t) = e
Z t
o
ea v()d
(5.6)
En efecto, en primer lugar es inmediato ver que w(0) = 0. Ademas sustituyendo la expresion (5.6) en la (5.5) se tiene que,
Z t
dw
d Z t a
= a eat
ea v()d + eat
e v() d = a w + v
dt
dt o
o
y(t) = e
at
+e
Z t
o
ea b u() d
(5.7)
5.2.3
Respuestas a se
nales de entrada especiales
62
Se
nal de entrada en escal
on
Se dice que un sistema se somete a una se
nal de entrada en escalon en el
instante inicial t = 0, si en dicho instante se somete el sistema a una variacion
brusca de la se
nal de entrada permaneciendo esta en un valor u(t) = constante.
En la figura 5.5 se representa una se
nal de entrada de esta forma. Si se supone
y(0) = , u = 1, y teniendo en cuenta la expresion (5.7), se tendra,
"
y(t) = e
at
b
b
+ (eat 1) = eat + (1 eat )
a
a
(5.8)
t
Figura 5.6: Respuesta al escalon
63
dy
+ y = Ku
dt
(5.9)
y(t) = K(1 e )
(5.10)
U (s) =
1
s
se tiene que la de la se
nal de salida sera,
Y (s) =
K
A
B
= +
s(1 + s)
s
1 + s
K
A=
=K
(1 + s) s=0
K
B =
= K
s s= 1
64
y(t)/K
0.637
0.6
0.5
0.4
0.3
0.2
0.1
0.0
0.0
0.4
0.8
1.2
1.6
2.0
1/
2.4
2.8
3.2
3.6
4.0
(5.11)
dy
K
(0) =
dt
(5.12)
haciendo t = 0 se tiene,
65
tg =
1
2
0.632
e
3
K
0.64K
66
3
3>2
at
Z t
o
wb
d =
a
1
eat
t +
a
a
(5.13)
esta u
ltima expresion introduciendo la ganancia K y la constante de tiempo
67
, puede escribirse,
y(t) = wK(t + e )
(5.14)
t
Figura 5.11: Entrada en rampa
U (s) =
con lo que ,
Y (s) =
s2
K
A1 A2
B
= 2 +
+
+ s)
s
s
1 + s
s2 (1
siendo,
"
A1
1
K
=
0! (1 + 2s)
"
A2
= wK
s=0
K
1 d
=
1! ds (1 + s)
B =
K
s2
= K
s=0
s= 1
= K 2
68
(5.15)
(5.16)
u(t)
y(t)
u(t1 ) y(t1 )
K
K
e
3
(5.17)
69
5.2.4
Respuesta arm
onica
Si la se
nal de entrada es sinusoidal, es decir, u = sent y suponiendo = 0, se
tiene que la respuesta del sistema, de acuerdo con la expresion (5.7), viene dada
por
"
at
y(t) = e
wb
b
+ 2
(a senw t w coswt)
2
2
a +w
a + w2
(5.18)
yrp (t) =
a2
70
b
(a senwt w coswt)
+ w2
(5.19)
a2
a
+ w2
sen =
w
+ w2
a2
(5.20)
(5.21)
tag = w/a = w
b
K
Y = 2
=
2
a +w
1 + 2 w2
(5.22)
siendo,
(5.23)
La expresion (5.21) puede interpretarse diciendo que la respuesta de un sistema lineal a una se
nal sinusoidal, es otra se
nal sinusoidal de la misma frecuencia
cuya amplitud ha variado en una relacion Y , y que ha adquirido un desfase .
Tanto la relacion de amplitudes Y como el desfase , son funcion de la frecuencia
angular w de la entrada. En la figura 5.14 se representa Y () y ().
Otra forma de representar graficamente la respuesta en frecuencia de un sistema lineal es por medio de un diagrama polar en el que se representa vectores
cuyos modulos y argumentos son respectivamente Y () y (). Haciendo variar
se obtiene un lugar geometrico, en el que es el parametro. En la figura 5.15
se representa la respuesta en frecuencia correspondiente a un sistema lineal de
primer orden. El lugar esta graduado en frecuencias reducidas (normalizadas)
u = .
Existen otras formas de representar graficamente la respuesta en frecuencia
de un sistema lineal que seran estudiadas mas adelante.
Filtrado con un sistema lineal.
Si la se
nal de entrada a un sistema lineal es una se
nal arbitraria, la reproduccion de la misma a la salida sera muy fiel si la constante de tiempo del sistema
es suficientemente peque
na. Es decir, si la constante de tiempo del sistema es
Relacion de Amplitudes
0.9
0.8
71
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0.0
0.0
0.2
0.4
0.6
0.8
1.0
1.2
1.4
1.6
1.8
2.0
0.2
0.4
0.6
0.8
1.0
1.2
1.4
1.6
1.8
2.0
-10
Fase(grados)
-30
-50
-70
-90
-110
-130
0.0
=0
72
pequeo
a)
grande
b)
5.3
ectrico LR.
Circuito el
El circuito representado en la figura 5.17 esta regido por una ecuacion diferencial de la forma
L dI
E
+I =
R dt
R
73
considerando la se
nal de entrada, la tension aplicada al sistema y la se
nal de
salida a la intensidad que recorre el circuito, se tiene un sistema de primer
orden. La ganancia estatica es 1/R y la constante de tiempo es L/R.
L
dq
+ q = CE
dt
C
E
E(t)
R, C
q(t)
74
Temperatura (u)
75
dy
= ky
dt
es decir,
1 dy
+y =0
k dt
Se trata de un sistema lineal de primer orden autonomo de constante de
tiempo 1/k. El parametro k se denomina por los qumicos constante de
velocidad de la reaccion, y en la practica presenta una gran dependencia de
la temperatura.
Dinam
ometro.
Se trata de medir la fuerza u por el desplazamiento y que imprime a un
dinamometro de coeficiente de elasticidad k y de coeficiente de viscosidad
, figura 5.20.
dy
dt
76
M dCr
+ Cr = Ce
Q dt
Ce
M
Cr
Cr
77
P = k I
Por otra parte la intensidad I de inducido y la tension que alimenta al
inducido u (se
nal de entrada), estan relacionadas por la siguiente ecuacion.
u = RI + L
dI
+ K
dt
d
+ B
dt
+ (B + kK ) = k u
dt
R
R
5.4
y(t) = y(0) +
Z t
0
78
(bu ay)dt
(5.24)
(5.25)
Los valores de f determinados para cada instante de tiempo t se van acumulando (integrando) dando con ello lugar a la variable de salida y.
En la figura 5.23 se tiene representado un esquema en el que se distinguen la
parte estatica del integrador. La parte estatica puede ser no lineal, sin que por
ello se alteren las anteriores consideraciones.
Esta manera de interpretar el funcionamiento de un sistema lineal de primer
orden, es mas intuitiva desde un punto de vista fsico por cuanto que en la naturaleza es mas facil interpretar los procesos en terminos de integraciones que de
diferenciaciones. De hecho la integracion (acumulacion) es un proceso normal del
que es muy sencillo encontrar ejemplos, mientras que la diferenciacion es enormemente mas artificiosa. No debe olvidarse sin embargo, que la resolucion de una
ecuacion diferencial es mas simple que la de una ecuacion integral, y es por ello
que en cualquier caso el planteo por ecuaciones diferenciales es mas frecuente que
el que aqu se presenta.
1
S
Tema 6
Sistemas din
amicos lineales de
segundo orden y de orden y
superior
6.1
Definici
on
Se define un sistema lineal de segundo orden como el regido por una ecuacion
diferencial de la forma,
d2 y
dy
du
+ a1
+ a2 y = b0
+ b1 u
2
dt
dt
dt
(6.1)
80
(6.3)
(6.4)
Otra forma frecuente de escribir la ecuacion diferencial de un sistema de segundo orden es la siguiente,
d2 y
dy
+
2
+ n2 y = n2 k u(t)
n
dt2
dt
(6.5)
n =
1
a2
k=
n2
a1
2n
81
(6.6)
p2 + p1
c2 =
(6.7)
(6.8)
p1 p2
(6.9)
Para comprobar este resultado basta proceder por sustitucion, lo que se invita
a hacer al lector. Mas adelante se estudiara el procedimiento general que permite
este tipo de descomposiciones.
Empleando el calculo matricial, las expresiones 6.7, 6.8 y 6.9 pueden escribirse
de la forma siguiente,
x = Ax + Bu
y = Cx
(6.10)
en donde
"
A=
p1 0
0 p2
"
B=
1
1
C = [c1 c2 ]
(6.11)
82
observacion que tener presente que la diferencia basica que existe entre el algebra
de los n
umeros reales y la de las matrices, es que esta u
ltima no es conmutativa.
La respuesta de un sistema de segundo orden ante una se
nal de entrada u(t),
a partir del estado x(t), vendra dada por,
y(t) = CeAt +
Z t
0
eA B u() d
(6.12)
6.1.1
y(t) = C eAt
eA B u()d
(6.13)
At
ep1 t 0
0 ep2 t
(6.15)
83
"
B u() d =
pu1 (1 ep1 t )
pu2 (1 ep2 t )
(6.16)
u
u
(1 ep1 t ) + C2 (1 ep2 t )
p1
p2
"
(6.17)
#
u
u
y=
(1 ep2 t )
(1 ep1 t ) +
p1 (p2 p1 )
(p1 p2 )p2
y(t) =
ep1 t
ep2 t
p1 p2 (p2 p1 )p1
p2 (p1 p2 )
(6.18)
p1 = n n 2 1
p2 = n + n 2 1
(6.19)
Observese que,
p1 p2 = n2
= n2
p2 p1 = 2n
2 1
(6.20)
Este mismo resultado se puede alcanzar con mayor sencillez operativa empleando la transformada de Laplace. En efecto, teniendo en cuenta que la transformada de Laplace de una entrada en escalon es U (s) = 1/s, se tiene que, de
acuerdo con la expresion 5.2, la transformada de Laplace de la salida y(t) resulta
Y (s) =
1
s
n2
s2 + 2n s + n2
u(t)
y(t)
a)
n t
u(t)
y(t)
b)
n t
1.38
y(t)
u(t)
c)
n t
3.3
Figura 6.1: Respuesta sistema de segundo orden
84
85
t1
g
1 2
factor de amortiguamiento
En el estudio de la respuesta a una se
nal de entrada en escalon de un sistema
de segundo orden pueden distinguirse tres casos seg
un que el factor de amortiguamiento sea mayor, menor o igual que uno.
1. Factor de amortiguamiento mayor que la unidad
A partir de la expresion 6.18 teniendo en cuenta las expresiones 6.20 se tiene
que,
h
i1
2
y(t) = 1 + 2( 2 2 1 1)
e( 1)n t
h
i1
2
+ 2( 2 + 2 1 1)
(6.21)
e(+ 1)n t
Esta expresion suministra la forma analtica de la respuesta de un sistema
de segundo orden, con factor de amortiguamiento mayor que la unidad, a
una entrada en escalon. En la figura 6.1 se representa la forma general de
esta respuesta; desde un punto de vista cualitativo la caracterstica esencial
de esta respuesta es su caracter de lentitud en alcanzar el valor y = 1.
2. Factor de amortiguamiento menor que la unidad
Si el factor de amortiguamiento es menor que la unidad, es decir, < 1,
entonces sucede que las raices p1 y p2 son complejas. En la figura 6.2 se
representa la situacion de las raices p1 y p2 en el plano complejo.
La consideracion del angulo , tal como se ha indicado en la figura 6.2
permite escribir,
(6.22)
cos =
sen = 1 2
Escribiendo las expresiones 6.19 y 6.20, empleando en las mismas el angulo
, se tiene:
p1 = n ej
p2 p1 = 2n jsen
(6.23)
86
Im
jn 1 2
n
Re
jn 1 2
e
2jsen
y(t) = 1 +
(6.24)
en t
y(t) = 1 +
sen(
1 2 t )
n
2
1
(6.25)
87
1 2
(6.26)
n 1 2
(6.27)
Instante de tiempo al cual se produce el primer pico de oscilacion del sistema, puede obtenerse, de una forma analtica, derivando y(t) con relacion
al tiempo, e igualando esta derivada a cero. En efecto, se tiene:
dy(t)
n en t
2 t)+ en t cos(
=
sen(
1
1 2 t) = 0
n
n
n
dt
1 2
(6.28)
Esta derivada se anulara cuando,
n
1 2 t = 0, , 2, ..
n 1 2
(6.29)
e/ 1
sen( )
ymax (t) = 1 +
1 2
(6.30)
sen =
ymax (t) = 1 + e
1 2
(6.31)
1 2
(6.32)
88
SO = 100 e
(6.33)
1 2
"
1
et
p (p + )
(6.34)
lim
et
1 tp
1
=
p (p + )
p2
(6.35)
89
(6.36)
100
Sobreoscilacion
80
60
40
20
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
90
2.0
1.8
=0.1
1.6
1.4
y(t)
1.2
0.5
0.7
1.0
1.0
1.2
1.5
2.0
0.8
0.6
5.0
0.4
0.2
0.0
0.0
1.2
2.4
3.6
4.8
6.0
nt
7.2
8.4
9.6
10.8
12.0
6.1.2
91
Si se aplica una se
nal sinusoidal a un sistema de segundo orden, es decir, si u(t) =
Vo sent, la determinacion de la se
nal de salida y(t) se puede hacer procediendo
en forma similar a como se hizo en el apartado anterior. Aqu sin embargo
se procedera exclusivamente a estudiar el regimen transitorio que resulta de la
aplicacion de la se
nal sinusoidal. Es decir, se va a determinar exclusivamente la
solucion particular de la completa cuando en la expresion 6.2 se hace u = Vo sent.
Se tiene que y(t) sera de la forma,
y(t) = Yo sen(t + )
(6.37)
siendo
Vo
Yo = q
(a2 )2 + a21 2
h
= tg1 a1 /(a2 2 )
(6.38)
(6.39)
Q=
1
1 2
(6.40)
92
1 2 2
(6.41)
RELACION DE AMPLITUDES
3
0.2
0.3
0.4
0.5
1
5.0
0
0.0
2.0
0.5
1.0
0.707
1.0
1.5
PULSACION /n
2.0
2.5
6.1.3
Una vez estudiado los sistemas de primero y segundo orden, conviene recordar
los resultados correspondientes a sistemas de orden n. Supongase que el modelo
93
0.
0.1
0. 0.3
5
0.
70
7 0.4
1.
0
2.
0
-30
-60
DESFASE
5.
=5.
-90
2.0
-120
-150
-180
0.0
0.1
0.5
1.0
0.7 1.0
07
0.5
0 0.
0.2 .3 4
1.5
2.0
2.5
PULSACION /n
3.0
3.5
4.0
94
dn y
dn1 y
dy
dm u
+
a
+
+
a
+
a
y
=
b
+ + bm u
1
n1
n
o
dtn
dtn1
dt
dtm
(6.42)
(6.44)
Y (s) =
Q(s)
Q(s)
=
P (s)
(s p1 )n1 (s p2 )n2 . . . (s pq )np
(6.45)
1
cik =
(ni k)!
!
i
dnik h
ni
(s pi ) Y (s)
nik
ds
s=pi
95
(6.47)
Si todos los polos son simples, es decir, si todos los valores de ni son igual a
la unidad, entonces la expresion 6.46 se escribe
Y (s) =
q
X
i=1
ci1
s pi
(6.48)
(6.49)
expresiones que no son sino particularizaciones para ni = 1 de las correspondientes expresiones 6.46 y 6.47.
En el caso de polos simples, los residuos pueden determinarse de forma grafica
sobre el plano complejo. Para ello, en primer lugar, considerese que Y (s) puede
escribirse
Y (s) =
k m
i=1 (s zi )
n
i1 (s pi )
(6.50)
(6.51)
Qm
Y (s) = Qni=1
i=1
m
n
X
| s zi | X
6 (
iz
ip )
| s pi |
i=1
i=1
96
(6.52)
es decir, puesto que Y (s), de acuerdo con la expresion 6.52, se determina como
el cociente de dos expresiones complejas, cada una de las cuales es a su vez el
producto de terminos elementales de la forma (s pi ) el modulo de Y (s) sera el
cociente de los productos de los respectivos modulos, mientras que el argumento
sera la diferencia de las sumas de los correspondientes argumentos.
Interesa por tanto, representar en el plano complejo, los componentes elementales (s zi ) y (s pi ) con el fin de determinar sus modulos y argumentos para
poder realizar con ellos las operaciones de multiplicacion y adicion a las que se
acaba de aludir.
En la figura 6.1.3 se muestra la representacion grafica del vector asociado a
(s zi ) y a (s pi ). En el caso de (si zi ) se tiene un vector que va desde el
cero, zi al punto s, y analogamente para pi .
Im
s Pi
Pi
s
s Zi
Zi
Re
ci = (s pi ) Y (s) |s=pi
k(s pi ) m
i=1 (s zi )
=
ni=1 (s pi )
s=pi
97
Tema 7
Representaci
on gr
afica de la
funci
on de transferencia
Es usual emplear representaciones graficas de la funcion de transferencia. Ello es
especialmente patente en los metodos clasicos, en los que se trabaja en el dominio
de la frecuencia. Vamos a ver algunas de las formas de representacion graficas
mas usuales.
7.1
7.1.1
Diagramas m
as comunes
Diagrama de polos y ceros: caso racional
K(s + c1 ) . . . (s + cm )
(s + p1 ) . . . (s + pn )
98
99
Im
K
Re
7.1.2
Diagrama de Nyquist
Re
= 100
=1
= 10
7.1.3
100
log
Arg G(j)
log
-180
101
7.1.4
Diagrama de Black
-180
-90
0
Arg G(j)
7.2
Diagrama de Bode
102
j
j
ci
1+
1+
...
k
pj
c1
c2
!
G(j) =
j
j
1+
...
(j)N 1 +
p1
p2
(7.1)
ci
pj
1
1
! + . . .
+20 log
+ 20 log
N
(j)
j
1+
p1
(7.2)
j
+ ...
c1
1
1
! + ...
+ 20 arg
N
(j)
j
1+
p1
(7.3)
7.2.1
103
K>1
Amplitud(dB)
20logK
K<1
-20logK
K(numero positivo)
Fase(grados)
0.0
-90.0
K(numero negativo)
-180.0
(rad/s)
7.2.2
1
j
viene dada por una recta de pendiente -20 decibelios por decada (o -6 decibelios
por octava) y con un desfase constante igual a -90 grados
7.2.3
j
p
104
Amplitud (dB)
20
0
-20dB/dec
-20
-40
Fase(grados)
90
-90
-180 -1
10
10
10
10
(rad/s)
p
En tal caso se tendra que
1
20 log |
1+
j
p
| 20 log 1 = 0dB
p
en cuyo caso
20 log |
1
j
1+
p
| 20 log |
| = 20 log
j
p
p
Por tanto, la representacion grafica del modulo de G presenta dos asntotas. Para
valores bajos de la asntota es sencillamente la recta horizontal trazada en 0
dB; mientras que para valores altos de la frecuencia la asntota es una recta de
pendiente -20 dB/decada. Estas dos asntotas se cortan en el punto = p.
Para completar la curva podemos considerar dos puntos interesantes:
105
Amplitud(dB)
20
0
1dB
-20
3dB
1dB
-40
Fase(grados)
-45
-90 -1
10
10
10
10
(rad/s)
7.2.4
106
Amplitud(dB)
40
20
+20dB/dec
0
-20
Fase(grados)
90
45
0 -1
10
10
10
10
(rad/s)
7.2.5
j
+1
p
conduce, por consideraciones analogas a las que se han hecho para un sistema de
primer orden (asociado a un polo), tiene la forma que se muestra en la figura 7.9.
Combinando todo lo que se acaba de ver, y teniendo en cuenta las expresiones
(7.2 y (7.3), se puede obtener la representacion grafica de la funcion de transferencia del sistema cuya funcion de transferencia viene dada por la expresion
(7.1).
7.3
Un sistema con un cero con parte real positiva recibe la denominacion de sistema
de fase no mnima, mientras que si todos ceros tienen parte real negativa recibe
la denominacion de sistema de fase mnima. En los sistemas de fase no mnima
el valor que toma la fase es mayor, para un mismo valor de la frecuencia, que
107
Amplitud(dB)
40
+20dB/dec
20
1dB
3dB
1dB
Fase(grados)
90.0
67.5
45.0
22.5
0.0 -1
10
10
10
10
(rad/s)
Im
G2 (s)
G1 (s)
0
Re
Re
sz
s+p
(7.4)
G2 (s) =
s+z
s+p
(7.5)
108
180
90
G1(j)
-1
10
10
10
10
G2(j)
-90
7.4
Crculos M y N
109
(1 + j0)
A
1+G
Re
AP =
(1 + x)2 + y 2
2
OP
x + y2
M=
=q
AP
(1 + x)2 + y 2
Elevando al cuadrado esta expresion, y tras algunas manipulaciones algebraicas,
se tiene
M2
M2
y 2 + x2 + 2x 2
= 2
M 1
M 1
110
M2
M2 1
!2
se tiene
M2
M2
y 2 + x2 + 2x 2
+
M 1
M2 1
!2
M2
M2 1
!2
M2
M2 1
de donde se concluye
M2
y + x+ 2
M 1
2
!2
M2
M2 1
Esta expresion indica que el lugar geometrico en el plano complejo de los puntos
para los que el modulo de T (j) es constante viene dado por un crculo de centro
c=
y de radio
M2
M2 1
r = 2
M 1
La familia de crculos correspondientes a diferentes valores de M se tiene en
la figura 7.14. Esta figura admite una facil interpretacion. Si en ella se dibuja
la funcion de transferencia en bucle abierto G(j) entonces leyendo esta misma
curva en el sistema de coordenadas curvilneas definido por los crculos M se
tiene el modulo de la funcion de transferencia en bucle cerrado T (j). Por lo que
respecta a las fases, se puede proceder de manera analoga a como se ha hecho
con los modulos. En este caso se tiene que, de acuerdo con la expresion (7.6)
111
Im
Re
1 + j0
1+G
112
1/2
= = = arctan
1+G
2
y
siendo
G
2 tan()
De este modo se tiene definida otra familia de crculos, los crculos N , en los que
se puede leer la fase del sistema en bucle cerrado si se dibuja en coordenadas
polares la funcion de transferencia en bucle abierto.
y=
7.5
Relaci
on entre las constantes de error y los
polos y ceros.
Sea G(s) la funcion de transferencia en bucle abierto de un sistema con realimentacion unitaria. La funcion de transferencia en bucle cerrado correspondiente
Td (s) sera:
Td (s) =
Y (s)
G(s)
=
R(s)
1 + G(s)
(7.7)
y la relacion entre la se
nal de error y la referencia vendra dada por
1
E(s)
=
R(s)
1 + G(s)
(7.8)
Supongase que los polos de Td (s) se denotan por pi y que los ceros se hacen
por ci . En tal caso se tiene:
Td (s) =
113
k(s + c1 ) (s + c2 ) (s + cm )
(s + p1 ) (s + p2 ) (s + pn )
(7.9)
(7.10)
7.5.1
Seguimiento de posici
on.
eo
+ e1 + e2 s + ...
s
(7.11)
Es decir que
sE(s) = eo + e1 s + e2 s2 + ...
(7.12)
Por lo tanto aplicando el teorema de valor final, el valor del error en regimen
permanente erp sera:
1
= eo
1 + G(s)
(7.13)
(7.14)
eo =
1
1 + kp
114
(7.15)
(7.16)
(7.17)
Y (s)
E(s)
=1
R(s)
R(s)
(7.18)
(7.19)
kp =
Y (0) / R(0)
1 Y (0) / R(0)
(7.20)
(7.21)
115
m
j=1 Cj = producto de ceros
nj=1 Pj = producto de polos
Llevando (7.21) a (7.20) se tiene la siguiente expresion en donde kp esta expresada en funcion de los polos y ceros.
kp =
k m
j=1 Cj
n
j=1 Pj km
j=1 Cj
(7.22)
(7.23)
(7.24)
1=
k c1 ......cm
p1 p2 ......pn
(7.25)
Esta expresion muestra la relacion existente entre los polos ceros y la constante
k de un sistema en bucle cerrado para que el error de seguimiento en posicion sea
nulo.
La constante de posicion kp es adimensional.
7.5.2
116
Seguimiento de velocidad.
E(s) =
1/s2
e1
=
+ e2 + ....
1 + G(s)
s
(7.26)
Aplicando el teorema del valor final se tendra que el error en regimen permanente a una rampa sera
s0
1
s0 s + sG(s)
1
= lim
= e1
s0 sG(s)
= lim
(7.27)
1
kv
(7.28)
d Y (s)
ds R(s)
= e1 =
s=0
117
1
kv
(7.29)
Y (s)
R(s)
=
s=0
Y (0)
=1
R(0)
d
ds
(Y (s)/R(s))
(Y (s)/R(s))s=0
s=0
d
Y (s)
=
ln
ds
R(s)
(7.30)
s=0
1
d
=
(ln k + ln(s + c1 ) + .. ln(s + p1 ) ..)
kv
ds
s=0
(7.31)
kv
i=1 pi
j=1 cj
(7.32)
Por consiguiente 1/kv es igual a la suma de los inversos de los polos menos la
suma de los inversos de los ceros, todo en bucle cerrado.
Si se quiere que el error de seguimiento en velocidad sea nulo se requerira que
kv tienda a infinito, en cuyo caso se tendra que
n
X
1
j=1
pj
m
X
1
j=1
cj
118
(7.33)
Ejemplo.
Sea un sistema de segundo orden cuya funcion de transferencia en forma normalizada se escribe
n2
Y (s)
= 2
R(s)
s + 2n s + n2
Este sistema presenta un error de seguimiento en posicion igual a cero, es decir
Y (0)/R(0) = 1. Por lo tanto interesa calcular kv en funcion de los parametros
n y. Los polos de la anterior funcion de transferencia seran p1,2 = n
jn 1 2 y por lo tanto aplicando la expresion (7.32) se tendra que
kv =
n
2
(7.34)
kv
7.5.3
Seguimiento de aceleraci
on
e2
+ e3 + s e4 + ...
s
(7.35)
119
e2 =
1
ka
d2
Y (s)
ln
2
ds
R(s)
(Y /R)
(Y /R)1
=
Y /R
Y /R
!2
2
2
ka
kv j=1 pj
j=1 cj
7.5.4
(7.36)
120
Esta expresion, considerada como cociente de dos polinomios, puede desarrollarse en serie, de la forma siguiente:
bo sm + + bm1 s + bm
Y (s)
= n
R(s)
s + a1 sn1 + + an1 s + an
= co + c1 s + c2 s2 +
La determinacion de los coeficientes ci del desarrollo en serie, puede hacerse
facilmente multiplicando ese desarrollo en serie por el denominador de la funcion
de transferencia, e igualando coeficientes entre ambos miembros. Con ello se
obtiene que
co =
c1 =
bm
an
(7.37)
bm1 co an1
bm
(7.38)
121
c1 =
bm1 an1
bm
(7.39)
(7.40)
Tema 8
Estabilidad de los sistemas
din
amicos
8.1
Introducci
on
122
123
8.2
124
Si se adopta la forma de descripcion externa dada por la integral de convolucion, es decir, si la relacion entre la se
nal de entrada u(t) y la se
nal de salida
y(t) esta dada por una expresion de la forma,
y(t) =
Z t
h(t, ) u( ) d
(8.1)
| h(t, ) | d k <
(8.2)
Demostraci
on
1. Suficiencia
Se trata de demostrar que si se cumple la condicion (8.2), entonces ante
una se
nal de entrada acotada, | u(t) |< k1 para todo t, la se
nal de salida
y(t) es tambien acotada. En efecto, se tiene:
| y(t) |=|
Z t
h(t, ) u( )d |
k1
Z t
Z t
| h(t, ) | u( ) | d
| h(t, ) | d kk1
2. Necesidad
Se trata de demostrar que si las se
nales de entrada u(t) y de salida y(t) son
acotadas, entonces siempre se cumple la expresion 8.2. Ello es equivalente
a demostrar que si no se cumple la expresion 8.2 entonces pueden existir
se
nales de salida y(t) que no esten acotadas aunque lo este la se
nal de
entrada u(t).
Supongase que la expresion (8.2) no se cumple, es decir
125
| h(t1 , ) | d =
0 si x = 0
1 si x > 0
1 si x < 0
sgn x =
Z t1
h(t1 , ) u( ) d =
Z t1
| h(t1 , ) | d =
y(t) =
Z t
0
h(t ) u( ) d
(8.3)
| h( ) | d < k <
(8.4)
Para sistemas invariantes en el tiempo, la forma de descripcion externa usualmente empleada es la funcion de transferencia. Interesa enunciar un criterio de
126
127
Ejemplo 2
Seg
un la definicion anterior un oscilador simple es un sistema inestable. En
efecto, considerese el sistema cuya funcion de transferencia es G(s) = 1/(1+
s2 ) que corresponde a un oscilador. La respuesta impulsional correspondiente es g(t) = sen t, la cual se representa en la figura 8.1 (a). Supongase
ahora que se aplica a dicho sistema una se
nal de entrada periodica rectangular, de amplitud unidad y de periodo el mismo del oscilador, tal como la
de la figura 8.1 (b). La se
nal de salida viene dada por la expresion 8.3.
Supongase ahora que en la expresion 8.3 se hace t = 0. El producto de
se
nales g( ) u( ) esta representado en la figura 8.1 (c). Es claro que y(0)
es precisamente el area cubierta por dicha curva, cuando tiende a infinito.
Por lo tanto y(0) = . Es decir, el sistema es inestable.
A este mismo resultado se llega inmediantamente considerando los polos de
la funcion de transferencia, que resultan estar situados en el eje imaginario.
Para sistemas multivariables se generalizan inmediatamente los anteriores resultados diciendo que un sistema multivariable definido por una matriz de transferencia G(s) sera estable si cada uno de sus elementos satisface el anterior teorema.
Sea la funcion de transferencia de la forma:
H(s) =
b(s)
b0 sm + b1 sm1 + + bm
=
n
n1
s + a1 s
+ + an
a(s)
(8.5)
Figura 8.1:
Para determinar si H(s) es estable o no, es necesario:
1. comprobar si m < n;
2. determinar si las raices de a(s) estan situadas en el semiplano abierto negativo.
Para comprobar si las raices de un determinado polinomio se encuentran en el
semiplano abierto negativo, se aplica el criterio de Routh-Hurwitz que se estudia
en el apartado siguiente.
8.2.1
128
Criterio de Routh-Hurwitz
(8.6)
Para determinar si el anterior polinomio tiene raices con parte real negativa
se procede como sigue:
1. Si alg
un coeficiente del polinomio es negativo o cero, entonces existe al
menos una raiz en el semiplano cerrado derecho. El sistema es, por lo
tanto, inestable.
2. En el caso de que no se cumplan los supuestos de 1), se procede a construir
la siguiente tabla:
n + 1 1 a2 a4 . . .
n
a1 a3 a5 . . .
n 1 1 2 3
(8.7)
n 2 1 2 3
. . . . . .
1
1
en donde la generacion de las distintas filas se hace como sigue, a partir de
los elementos de las dos anteriores
1 =
129
a1 a2 a3 1
a1
(8.8)
2 =
a1 a4 a5 1
a1
14/5
36/14
3 2
1 0
2
0
como hay dos cambios de signo en la primera columna existiran dos raices en
el semiplano derecho. Por consiguiente el sistema es inestable.
En la practica el criterio de Routh-Hurwitz se aplica para determinar si el
sistema es estable o no y, en general, no interesa saber el n
umero de raices en el
130
4 1
2 3
3 1
2
2 0 3
1 23
0 3
Una vez construida la tabla se determina el lmite de aquellos elementos en la
primera columna en los que aparezca , cuando 0. El elemento correspondiente a la fila 1 tiene el siguiente lmite,
lim
2 3
=
131
3
Se presentan dos cambios de signo en la primera columna, y por consiguiente
el sistema tiene dos raices en el semiplano derecho, y es inestable.
El segundo caso particular mas arriba enunciado, es decir, el caso en que
se presente toda una fila de ceros, indica que el polinomio tiene, al menos, un
factor par. Es decir, que existe un par de raices reales simetricas con respecto
al eje imaginario, que existen dos raices imaginarias puras conjugadas, o que
existen cuatro raices complejas situadas simetricamente con relacion al origen.
Cuando esto sucede se procede a formar una ecuacion subsidiaria a partir de los
coeficientes de la fila anterior a aquella en la que todos los elementos sean nulos.
La expresion as obtenida resulta ser el factor par del polinomio. Para obtener
la fila siguiente, en la tabla de Routh, se procede a derivar esta expresion una
vez con respecto a s y situar sus coeficientes en la fila cuyos elementos se haban
anulado. A partir de esta sustitucion se prosigue la construccion de la tabla de
Routh normalmente. Un ejemplo ayudara a fijar ideas.
Ejemplo
Considerese el siguiente polinomio: s4 + 3s3 + 3s2 + 3s + 2
Si se construye la tabla de Routh correspondiente al llegar a la fila 1, se
encuentra que todos los elementos son ceros. En efecto
4
3
2
1
1
3
2
0
3 2
3 0
2
0
132
1
3
2
4
2
3 0
3 0
2
0
8.2.2
133
Matriz de Hurwitz
El criterio de Routh-Hurwitz, objeto del apartado anterior, en realidad fue desarrollado originalmente por Routh. Sin embargo es completamente analogo al
desarrollado por Hurwitz, al que se va a dedicar este apartado.
Sea un polinomio a(s) tal como:
a(s) = sn + a1 sn1 + + an1 s + an
(8.9)
H=
a1 a3
1 a2
0 a1
0 1
.. ..
. .
0 0
a5
a4
a3
a2
..
.
...
...
...
...
0
0
0
0
..
.
0
0
0
0
..
.
. . . an2 an
(8.10)
H2 = det
a1 a3
1 a2
H3
a1 a3 a5
= det 1 a2 a4
0 a1 a3
(8.11)
Hn = det H
Si en la tabla de Routh los elementos de la primera columna se denotan por 1 ,
1 , 1 . . . p1 , entonces es posible demostrar, despues de algunas manipulaciones
134
algebricas, que,
H1 = 1
H2 = 1 1
H3 = 1 1 1
(8.12)
8.3
Criterio de Nyquist
j
C
F (C)
Z=3
P =1
ReF (s)
135
G(s)
1 + G(s)
136
H(s)
-
ImH(s)
H(s)
C
H(C)
1 + H(s)
R=
1
ReH(s)
137
Veamos ahora como se construye la funcion G(s). Para ello basta observar que
el contorno de Nyquist se compone de tres partes. La recta OA que corresponde
al eje imaginario del plano complejo y que, por tanto, corresponde a la funcion de
transferencia G(j) para valoreS positivos de . La recta BO correspondiente a
la parte negativa del eje imaginario. Y, por u
ltimo, a la curva que une AB, que
se encuentra situada en el infinito del semiplano positivo del plano s. Por tanto,
al recorrer OA, se esta recorriendo G(j) para valores de de cero a infinito.
Analogamente, al recorrer BO se esta recorriendo G(j) desde menos infinito a
cero. Por u
ltimo, al recorrer de A a B se esta en valores de s con modulo infinito.
En este u
ltimo caso, si G(j) es tal que elgrado del polinomio del numerador es
menor que el del denominador, esta funcion tomara el valor cero.
Aplicando el teorema de Cauchy, para el caso F (s) = 1 + G(s), se puede decir
que un sistema realimentado, con realimentacion unitaria, es estable si y solo si
G(C) rodea al punto crtico s = 1, en el sentido de las agujas del reloj, un
n
umero de veces igual al n
umero de polos inestables de la funcion de tranferencia
G(s).
Conviene observar que la parte de G(C) correspondiente al semieje imaginario
[0, j] es, en realidad, la representacion polar de la funcion de transferencia G(s).
As mismo, la parte correspondiente al semieje imaginario negativo [j, 0] es
simetrica con relacion a esa representacion polar. Por lo que respecta a la parte
correspondiente al semicrculo de radio infinito (y eventualmente a un semicrculo
infinitesimal que rodee al origen) es evidente que si la funcion de transferencia es
tal que el grado del numerador es inferior a del denominador, se reduce a un punto.
Por todo ello, el trazado de G(C) es inmediato conociendo la representacion polar
de la funcion de transferencia G(j).
Por ejemplo, en 8.6a se tiene la representacion de la funcion de transferencia
G(s) =
1
(1 + s)
1
s(1 + s)
138
ImH(s)
<0
=
=
ReH(s)
>0
Figura 8.6: Diagrama polar y contorno G(C) para un sistema de primer orden
ImH(s)
H(C0 )
R=
R=
C0
=
=
ReH(s)
Figura 8.7: Contorno de Nyquist y G(C) para un sistema con un polo en el origen
139
s+1
s
s( 1)
10
(8.13)
En este caso se tiene que el sistema presenta un polo inestable. En la figura 8.8
se tiene el trazado G(C) correspondiente.
Im
>0
Re
<0
0
140
Im
180o
Re
141
Regla pr
actica de Nyquist
Un sistema realimentado es estable en el caso en el que recorriendo el trazado
polar de la funcion de transferencia en el sentido de las crecientes el punto
crtico -1 quede a la izquierda.
8.3.1
Seg
un se acaba de enunciar en la regla practica del criterio de Nyquist se tiene que
la estabilidad depende de la posicion del punto crtico con relacion al trazado polar
de la funcion de transferencia (figura 8.10). Este hecho sugiere la conveniencia
de introducir una medida de la distancia de G(C) a este punto crtico, por lo que
se define grado de estabilidad del sistema realimentado por
El margen de ganancia Gm = 20 log10 A1 , siendo A la ganancia correspondiente a la fase de 180 grados;
El margen de fase m , que es el desfase del punto correspondiente a la
ganancia unidad.
ImH(j)
1
m
ReH(j)
1
142
Tema 9
Compensaci
on de sistemas
realimentados
9.1
Introducci
on.
Un sistema de control realimentado se representa esquematicamente como se indica en la figura 9.1. Sobre este esquema vamos a recordar una serie de conceptos
que consideramos de interes.
r(t) +
e
-@
@
6m
y(t)
-
H(s)
G(s)
143
144
145
Y (s)
KG(s)
=
R(s)
1 + KG(s)
Naturalmente en este caso cadena de acci
on y bucle abierto son dos conceptos coincidentes.
r(t) +
e
-@
@
6m
y(t)
-
G(s)
Por u
ltimo, en algunas ocasiones se recurrira a alg
un servosistema fsico,
concretamente al conocido servomecanismo elemental de posicion, que responde en bucle abierto a una ecuacion diferencial lineal de la forma
J
d2 y
dy
+f
= u(t)
2
dt
dt
siendo en este caso y(t) un angulo (), J la inercia del conjunto motor-carga
y f el coeficiente de friccion viscosa del mismo conjunto.
Para que un sistema de control realimentado act
ue aceptablemente, necesita
satisfacer unas determinadas especificaciones de funcionamiento, tanto para su
regimen permanente como para su transitorio que, normalmente, no se consigue
con los elementos que consituyen el bucle de control.
Hay veces en que un simple aumento de la ganancia estatica es suficiente
para lograr precision, sin que se afecte demasiado a las caractersticas en estado
146
transitorio. No obstante, como lo normal es que estas se vean empeoradas con una
actuacion de este tipo, o en el mejor de los casos, no se consigan exactamente las
que se pretende que tenga el sistema, es por lo que se desarrollaran a continuacion
los procedimientos de compensacion que se han dado en llamar Clasicos en razon
de ser los primeros que se utilizaron.
Por el hecho de introducir una compensacion sobre el bucle antes mencionado,
el esquema se modifica de alguna manera, como se muestra mas adelante. Se
distinguen dos tipos de compensacion:
Compensacion en serie: Cuando el elemento corrector se coloca en cascada,
en la cadena de accion; y
Compensacion por realimentaci
on: Cuando el elemento corrector constituye
una segunda cadena de realimentacion, en el bucle de control.
Los esquemas basicos para uno y otro caso se muestran, respectivamente, en
las figuras 9.3 y 9.4.
r(t) +
e
-
6m
Gr (s)
u0
u
K
G(s)
y(t)
r(t) +
e
-
6m
6
147
u
K
Gr (s)
G(s)
y(t)
9.2
An
alisis en el dominio de la frecuencia de la
red PD
Amplitud(dB)
148
+20dB/dec
1/
(rad/s)
Fase(grados)
-260
-310
-360
1/
149
Amplitud(dB)
Compensada
0 dB
Fase(grados)
Sin compensar
Compensada
MF2
-180
MF1
Sin compensar
(rad/s)
Amplitud(dB)
60
30
0
-360
-270
-180
Fase(grados)
-90
150
100
Sin compensar
Amplitud(dB)
50
Compensado
-50
-100
-300
-240
-180
Fase(grados)
-120
-60
9.3
An
alisis en el dominio de la frecuencia de la
red PI
En este caso, la se
nal de mando es la suma de un termino proporcional y otro
integral, de la se
nal de error.
u(t) = K e + Ki
Z t
0
e dt
151
Amplitud(dB)
-20dB/dec
1/
Fase(grados)
-45
-90
1/
(rad/s)
Amplitud(dB)
152
Compensado
0 dB
Sin compensar
Fase(grados)
Sin compensar
MF1
-180
MF2
Compensado
(rad/s)
Amplitud(dB)
50
25
0
-100
-80
-60
-40
Fase(grados)
-20
153
9.4
Acci
on proporcional, integral y diferencial
(PID)
Gr(s) = K (1 +
Z t
0
e dt + Kd
de
dt
1
K
+ 2 s) =
(1 + 1 s + 1 2 s2 )
1 s
1 s
Amplitud(dB)
154
-20dB/dec
20dB/dec
1/
(rad/s)
Fase(grados)
90
-90
1/
(rad/s)
100
Amplitud(dB)
50
-50
-100
-300
-240
-180
Fase(grados)
-120
-60
9.5
155
Compensaci
on por avance de fase
1 + s
;
1 + s
<1
1
1
<
Amplitud(dB)
|20log|
0 dB
1/
(rad/s)
1/at
1/
(rad/s)
1/at
Fase(grados)
-300
-330
-360
156
son practicamente los mismos que los que produce una red PD. La diferencia entre
ambas redes radica en el termino (1 + s) cuyo efecto sobre el ancho de banda y
sobre el margen de fase es practicamente despreciable si se elige convenientemente
el valor de 1/ . Este valor, como es natural, debe elegirse notablemente superior
al de la frecuencia para la cual la ganancia es 0dB, con objeto de que su efecto
sea despreciable. Los criterios que presidiran la eleccion de estos valores se veran
mas adelante, al considerar los metodos de dise
no. Lo que aqu interesa resaltar
es el caracter de aproximacion a la red PD que presenta la red de adelanto de
fase.
Amplitud(dB)
Compensado
0 dB
Fase(grados)
Sin compensar
Compensado
MF2
-180
Sin compensar
-1
10
10
10
(rad/s)
10
10
1
R jwC
R+
1
jwC
R
1 + jwCR
eo
e0
e0
R
eo R + R0 + jwCRR0
0
0
ei = 0 Z + e0 = 0 (Z + R ) = 0 (
+R)= 0
R
R
R 1 + jwCR
R
1 + jwCR
157
R0
ei
es
e0
R0 (1 + jwCR)
R0
1 + jwCR
=
=
.
RR0
0
0
0
ei
R + R + jwCRR
R + R 1 + jwC. R+R
0
y llamando
R0
R+R0
G0 r(s) =
= y = CR queda
1 + jw
e0
=
ei
1 + jw
Gr(s) =
1 0
es
1 + jw
G r(s) =
=
ei
1 + jw
9.6
w = wm =
1 1
1
=
158
el valor de = m es maximo,
wm (1 )
wm (1 )
1
tan m =
=
=
2 2
1 + wm
1+1
2
y de aqu
1
1
tan m
1
2
q
sen m =
=
=
=
2
2
1 + tan m
1+
4 + 1 + 2 2
1 + (1)
4
relacion esta mas manejable que la anterior y que da el valor de para el margen
de fase apetecido, m . El valor de se deducira de la expresion
s
1 1
1
wm =
=
= wm
9.7
M
etodo pr
actico
159
50
m1
Amplitud(dB)
Mm
m2
Sin compensar
-50
Compensada
-150
-300
-240
-180
Fase(grados)
-120
-60
G(s) =
K
s(1 + s)(1 + 0.0125s)
1
R
=
= 100
E
0.01
1
0.0125
= 80
160
1
= 0.82 de donde 0.1
1+
luego
1
wm = = 18 rad/seg
1
= wm = 5.7 rad/seg.
1
wm
w2 =
= = 57 rad/seg.
w1 =
1
s
1 + 5.7
1 + s
= 0.1
1
1 + s
1 + 57 s
o Gr(s) =
1 + 0.1754s
1 + 0.01754s
1
s)
100(1 + 5.7
s(1 + s)(1 + 0.0125s)(1 +
1
s)
57
Con este ejemplo se han ilustrado los pasos necesarios para la colocacion de
una red de avance de fase, de forma que su aprovechamiento sea el maximo
posible.
Amplitud(dB)
0dB
161
1
m
-10dB
-1
10
10
10
(rad/s)
Figura 9.18:
10
10
Tema 10
Representaci
on matem
atica de
sistemas
10.1
Introducci
on
10.1.1
Generalidades
El objeto de los Sistemas de Control es la concepcion de unos ingenios que conectados a un proceso real sean capaces de gobernarlo de manera autonoma, es decir,
sin la intervencion (o con una intervencion mnima) del ser humano. Dado un
determinado proceso industrial, o un cierto ingenio como un barco o un avion,
se trata de dise
nar un aparato que le suministre las se
nales de mando oportunas
para que su funcionamiento sea el requerido.
El sistema de control, a partir de la informacion que le suministra el proceso
a controlar, determina que acciones deberan tomarse para que el funcionamiento
de este sea el requerido. El funcionamiento requerido de un determinado proceso
implica un comportamiento dinamico. Por lo tanto el estudio del comportamiento
dinamico de los procesos, o en general de los objetos fsicos, tiene un interes
primordial en Automatica.
Por otra parte, en cierta medida, se puede considerar a un sistema de control
como un sistema de toma de decisiones. Es decir, el sistema de control toma
las decisiones de las acciones a tomar sobre el proceso para que su evolucion sea
la requerida. Para esta toma de decisiones se requiere que el sistema de control
162
163
10.2
Descripci
on interna de los sistemas din
amicos
164
(10.1)
165
(10.2)
10.2.1
166
Son aquellos en que el estado solo puede formar un conjunto finito de valores.
Igualmente las se
nales de entrada y salida solo pueden tomar sus valores de un
conjunto finito. En tal caso las funciones de transicion y de lectura pueden ser
tabuladas. Estos sistemas se estudian en cursos sobre sistemas logicos o sobre
teora de automatas y aqu se mencionan a ttulo de ejemplo y para mostrar la
profunda unidad del concepto de sistema dinamico.
Ejemplo
1/0
2
0/0
1/0
0/0
0/1
1/1
3
Figura 10.1: Diagrama de estados
Considerese el sistema representado por el diagrama de la figura 10.1. En el
es claro que,
X = {1, 2, 3}
U = {0, 1}
Y = {0, 1}
U e Y son secuencias de 1 y 0.
En cuanto a y pueden representarse en forma tabular como sigue,
0
1 1
2 1
3 1
1
1
3
2
167
0
0
1
0
1
0
1
0
10.2.2
Sistemas din
amicos lineales en tiempo continuo
Una amplia clase de sistemas dinamicos lineales en tiempo continuo admite una
representacion matematica de la forma
x = A(t)x + B(t)u
y = C(t)x + D(t)u
(10.3)
(10.4)
168
Obtenci
on de la representaci
on por variables de estado
Todo sistema dinamico descrito por ecuaciones diferenciales de la forma de la
expresion (3.5) admite una representacion por variables de estado de la forma de
las expresiones 10.3. Aqu se discutira exclusivamente el caso de que la ecuacion
diferencial sea de coeficientes constantes, y que u(t) e y(t) sean escalares(sistemas
con una entrada y una salida).
Para un sistema dinamico dado, existen infinitas formas de representacion de
la descripcion interna. Es decir, existen infinitas ternas(A, B, C) que caracterizan
a un mismo sistema. Todos estas ternas estan ligadas entre s por unas relaciones
algebraicas que se estudiaran mas adelante en esta seccion.
Se estudiaran a continuacion las formas mas usuales de representacion interna
de los sistemas dinamicos lineales.
Forma can
onica de control
Sea el sistema descrito por la ecuacion diferencial,
dn y
dn1 y
+
a
+ ... + an y = u
1
dtn
dtn1
(10.5)
Se definen,
xi =
di1 y
dti1
i = 1, ...n
(10.6)
169
x 1 = x2
x 2 = x3
.. .. ..
. . .
x n = an x1 ... a1 xn + u
y = x1
(10.7)
A=
x1 x2 xn
0
1
0
0
0
1
.
.
.
.
.
.
.
.
.
0
0
0
an an1 an2
. . .
. . .
BT =
C=
0
0
.
.
.
. . . 1
. . . a1
0 0 1
1 0 0
(10.8)
(10.9)
(10.10)
Para el caso en que la ecuacion (10.5) tome la forma mas general siguiente:
dn1 y
dn1 u
dn y
+ a1 n1 + ... + an y = b1 n1 + ... + bn u
dtn
dt
dt
(10.11)
n(s)
b1 sn1 + b2 sn2 + ... + bn
=
n
n1
s + a1 s
+ ... + an
d(s)
(10.12)
170
1
d
(10.13)
es decir
d(s)v(s) = u(s)
Por otra parte,
n(s)v(s) = y(s)
(10.14)
x2 = x 1 = v
...
x2 = x 1 = v n1
(10.15)
se tiene que el par (A, B) para ese sistema sera el dado por la expresiones (10.810.9). Ademas, llevando (10.15) a (10.14) se tiene
y = bn v + bn1 v + ... + b2 v n2 + b1 v n1
= bn x1 + bn1 x2 + ... + b2 xn1 + b1 xn
= [bn bn1 ... b2 b1 ]x
Por tanto, las expresiones (10.8) y (10.9) son igualmente validas pero la (10.10)
toma la forma mas general,
C=
bn bn1 b1
(10.16)
171
+
+
b1
u +
x n
b2
xn
xn1
bn1
x2
bn
x1
a1
a2
an1
+
+
an
172
Ejemplo
Sea el sistema descrito por la ecuacion diferencial,
d3 y
d2 y
dy
du
+
4
+ 3 + 2y = 3u + 2
3
2
dt
dt
dt
dt
Las matrices A, B y C en la forma canonica de control seran las siguientes:
0
1
0
0
1
A= 0
2 3 4
B= 0
C=
3 2 0
Forma can
onica de observaci
on
La obtencion de la forma canonica de observacion ilustra otro metodo general de
obtencion de la representacion por variables de estado de un sistema dinamico.
Consiste este procedimiento en determinar, en primer lugar, el diagrama interno de bloques para luego asignar a la salida de cada integrador una variable de
estado y as construir las matrices A, B y C.
Sea la ecuacion diferencial con coeficientes constantes,
dn y
dn1 y
dn1 u
+
a
+
...
+
a
y
=
b
+ ... + bn u
1
n
1
dtn
dtn1
dtn1
(10.17)
y=
1
1
1
(b1 u a1 y) + ... + n1 (bn1 u an1 y) + n (bn u an y)
D
D
D
(10.18)
173
bn
b1
bn1
x 1
x1
x 2
x2
x n1
R x
n1
x n
xn
y
an
an1
a1
x 1 = an xn + bn u
x 2 = an1 xn + x1 + bn1 u
...
x n1 = a2 xn + xn2 + b2 u
x n = a1 xn + xn1 + b1 u
y = xn
Las anteriores ecuaciones pueden escribirse en forma compacta empleando la
notacion matricial en cuyo caso se tienen dos ecuaciones como las 10.3 (Ao = ATc )
con,
A=
0
1
0
.
.
0
0
0
0
1
.
.
0
0
174
0 ...
an
0 ... an1
.
.
1
.
. .
.
0 ...
a2
0 1
a1
(10.19)
B T = (bn bn1 . . . b1 )
(10.20)
C = (0 0 . . . 1)
(10.21)
Ejemplo
Sea el sistema descrito por la ecuacion diferencial,
d3 y
d2 y
dy
du
+
4
+ 3 + 2y = 3u + 2
3
2
dt
dt
dt
dt
cuya forma canonica de control se determino anteriormente. En su forma
canonica de observacion las matrices A, B y C seran:
0 0 2
A = 1 0 3
0 1 4
B= 2
0
C=
0 0 1
175
Representaciones equivalentes
Se ha visto en el apartado anterior como un mismo sistema admita distintas
representaciones. Se van a estudiar en este apartado las formas equivalentes de
representacion de un mismo sistema. Para ello interesa introducir los conceptos
de equivalencia y de similaridad.
Dos sistemas dinamicos se dicen equivalentes si ante la misma se
nal de entrada
responden con la misma se
nal de salida. Dos sistemas seran equivalentes si tienen
la misma representacion externa. El concepto de equivalencia entre sistemas tiene
una cierta sutileza que se pone de manifiesto en el ejemplo siguiente.
Ejemplo
Sean dos sistemas dinamicos cuyas funciones de transferencia son las siguientes:
T1 (s) =
1
s+1
T2 (s) =
s2
s+2
s+2
=
+ 3s + 2
(s + 1)(s + 2)
Las dos funciones de transferencia representan al mismo sistema. Sin embargo observese que si se obtienen las descripciones interna de cada una de estas
funciones de transferencia, se obtendran distintas dimensiones para el vector de
estado.
Un concepto mas restrictivo que el de equivalencia entre sistemas, es el de
similaridad. Dos sistemas se dicen similares si ademas de ser equivalentes, dan
lugar a realizaciones con la misma dimension para el vector de estados. Por
ejemplo, si a partir de una cierta funcion de transferencia se obtienen las formas
canonicas de control y observacion, estas dos formas de representacion constituyen
dos formas similares.
Sean (A1 , B1 , C1 ) y (A2 , B2 , C2 ) dos representaciones por variables de estado
de un mismo sistema. Es facil ver que existe una transformacion no singular T
tal que
A2 = T A1 T 1
B2 = T B 1
C2 = C1 T 1
En efecto si,
x = A1 x + B1 u
(10.22)
176
y = C1 x
y x = T x, (T no singular), se tiene que,
T1 x = A1 T 1 x + B1 u
lo que premultiplicado por T resulta
x = T A1 T 1 x + T B1 u
y = C1 T 1 x
de donde resultan las expresiones (10.22).
Ejemplo
En el sistema dinamico cuyas formas canonicas de control y de observacion se
han determinado anteriormente se comprueba que,
5 12 3
T = 12 11 2
3 12 0
cumple las anteriores relaciones.
La equivalencia entre sistemas esta relacionada con la descripcion externa
de los mismos, mientras que la similaridad lo esta con la descripcion interna.
La equivalencia entre sistemas para el caso de una entrada y una salida, puede
parecer un concepto trivial. No lo es cuando se aplica a sistemas multivariables
La similaridad entre sistemas, o entre dos formas de representacion de un
mismo sistema, es un concepto extraordinariamente fecundo como se vera en
lo que sigue. De hecho, en el estudio de los sistemas diferenciales lineales por
variables de estado, lo que se va buscando es la forma de representacion que
mas convenga al problema que se esta tratando de resolver, y por medio de
transformaciones de similaridad como las descritas por las ecuaciones (10.22),
determinar estas formas de representacion.
Debe notarse que la transformacion de similaridad en representaciones de
sistemas dinamicos equivale a una transformacion lineal del vector de estados, es
decir a un cambio de bases en la representacion del mismo.
10.2.3
177
Funci
on de transici
on de los sistemas din
amicos lineales
x = Ax + Bu
y = Cx
(10.23)
en el caso en que las matrices (A, B, C) no dependan del tiempo, es decir esten
formadas por n
umeros.
Se trata de resolver, de una manera general, las anteriores ecuaciones diferenciales, en particular la primera, para ver que conduce a una funcion de transicion
entre estados de la forma definida al principio de esta seccion. (recuerdese la
expresion 10.1). Para resolver la ecuacion 10.23 se va a emplear el metodo de
Laplace seg
un el cual se puede escribir,
sX(s) x(0) = AX(s) + BU (s)
de donde se puede despejar X(s),
(sI A)X(s) = x(0) + BU (s)
Llamando (s) = (sI A)1 se tiene,
X(s) = (s)x(0) + (s)BU (s)
(10.24)
Z t
0
(t )Bu( )d
(10.25)
178
(s)
Para el caso de sistemas que varen con el tiempo la expresion (10.25) toma
la forma mas general,
Z t
0
(10.26)
(s) =
1
sa
es decir
(t) = eat
El anterior resultado se puede generalizar por una dimension del vector de
estado arbitraria (aunque finita) y hacer,
179
(t) = eAt
(10.27)
en donde
(t) = eAt = I + At + ... +
Ak tk
+ ...
k!
(10.28)
Ejemplo
Sea un sistema dinamico cuya matriz A es la siguiente
A=
1 1
0 1
Se trata de determinar la matriz de transicion (t) por los dos metodos indicados mas arriba.
1. Para emplear el desarrollo en serie (10.28) se tendra que,
A =
Luego
1 2
0 1
; A =
P k
t
k k
k!
X
A
t
eAt =
=
k!
k=0
1 3
0 1
P
; A =
tk
(k1)!
P tk
k!
1 k
0 1
et tet
0 et
180
(s) = (sI A)
s 1 1
0
s1
#1
1
=
4
"
s1
1
0
s1
(t) = L1 [(s)] =
et tet
0 et
Z t
t0
(10.29)
y(t) =
Z t
(10.30)
Comparando las expresiones (10.30) y (3.8) se tiene que la respuesta impulsional del sistema en funcion de F , G y H se puede escribir,
h(t1 , ) = C(t)(t1 , )B( )
(10.31)
Por otra parte, y para sistemas invariantes en el tiempo, a partir de las expresiones (28) y (15) se puede escribir
H(s) =
Y (s)
= C(sI A)1 B
U (s)
(10.32)
181
El problema inverso del anterior, es decir, el problema de determinar las matrices A, B y C a partir de la matriz de transferencia, ya ha sido considerado
anteriormente, en la seccion 10.2.2, para el caso de sistemas con una entrada y
una salida. Para sistemas multivariables el problema puede adquirir una notable
complejidad adicional si se trata de obtener una representacion con una dimension
del vector de estado mnima. Este problema recibe el nombre de problema de
realizacion y se estudiara mas adelante.
10.2.4
Sistemas din
amicos lineales en tiempo discreto
(10.33)
(10.34)
(10.35)
(10.36)
182
(0) = I
(k + 1) = (k)
Es claro que a partir de (10.35) se puede escribir
x(n) = (n k)x(k) +
n1
X
(n j 1)Bu(j)
j=k
H(z) =
10.2.5
Y (z)
= C(zI A)1 B
U (z)
(10.37)
183
x = Ax + Bu
y = Cx
Supongase que el anterior sistema se somete a una se
nal de entrada escalonada,
es decir a una se
nal de entrada tal que,
u(t) = u(kT )
para
kT t (k + 1)T
x(t) = (t t0 )x(t0 ) +
Z t
t0
(t )Bu( )d
Si se hace t0 = kT y t = T (k + 1) se tendra,
Z (k+1)T
kT
x(k + 1 T ) = (T )x(kT ) +
Llamando,
()Bd u(kT )
()Bd ;
(T ) =
184
(10.38)
A=
0 1
0 1
B=
0
1
C = (2 1)
"
Por tanto,
s 1
0 s+1
#1
1
s(s + 1)
"
s+1 1
0
s
1
s(s + 1)
1
(s + 1)
(t) =
luego
185
1 1 et
0
et
1 0.428
0 0.572
!
!
Z 1
1 1 e
0
0
d =
C = (2
!
Z 1
1 e
0
d =
0.572
0.428
1)
10.2.6
(10.39)
186
x = f (x , u , t)
Por otra parte la trayectoria real sera la indicada por (10.39). Si las variaciones
de la trayectoria real con relacion a la nominal son peque
nas se podra escribir,
f
( x)
= f (x, u, t) f (x , u , t) =
x
"
x = x
u = u
f
x +
u
x = x
u = u
u (10.40)
x 1
x 2
f1
x
1
=
f2
x1
f1
x2
f2
x2
x1 (t)
x2 (t)
x1 =
x2 =
u = u (t)
x1
x2
Ejemplo
Sea el sistema no-lineal descrito por
x 1 = x2
x 2 = au bx22
f1
u
u
+
f2
x1 = x1 (t)
u
x2 = x2 (t)
u = u (t)
187
c1
c2
q1
q2
h
V, c
q
t2
2
= t
1
=
( + b2 t2 )
a
x1 =
x2
u
10.2.7
x 1
x 2
0
1
0 2bt
x1
x2
0
a
Dep
osito mezclador
188
(10.41)
d[c(t)v(t)]
= c1 (t)q1 (t) + c2 (t)q2 (t) c(t)q(t)
dt
(10.42)
q(t) = k h(t) = k
v(t)
a
(10.43)
189
Las variaciones de las distintas variables con respecto a los valores tomados
en regimen estacionario se denotaran mediante un tilde sobre la variable correspondiente. Es decir,
q(t) = q(t) q0
representa la variacion del caudal q respecto al valor estacionario q0 . Analogamente
se definen el resto de las variables
v(t) = v(t) v0
q1 (t) = q10 + q1 (t)
q2 (t) = q20 + q2 (t)
c(t) = c0 + c(t)
Si las variaciones son suficientemente peque
nas, entonces la expresion no lineal (14.7) se puede linealizar en torno al valor correspondiente por regimen estacionario, de acuerdo con
q
k v(t)
q(t) q0 =
|v=v0 (v(t) v0 )
a v(t)
Es decir
k
q(t) =
2v0
v0
v(t)
a
(10.44)
De este modo la relacion entre la variacion q(t) del caudal con respecto al valor
en regimen estacionario, y la correspondiente al volumen v(t), queda linealizada.
Llevando las definiciones de las variaciones v(t), q1 (t), q2 (t) y c(t) a las expresiones
(14.5) y (14.6) y tendiendo en cuenta la definicion del regimen estacionario y
(14.8) se tiene que
d
v (t)
1 q0
= q1 (t) + q2 (t)
v(t)
dt
2 v0
d
v (t)
1 c 0 q0
d
c(t)
v0 + c0
= c1 q1 (t) + c2 q2 (t)
v(t) q0 c(t)
dt
dt
2 v0
=
v0
q0
190
Si se escribe
x1
x2
u1
u2
y1
y2
=
=
=
=
=
=
y
=
v
c
q1
q2
q
c
v0
q0
se tiene que las ecuaciones del sistema dinamico linealizado pueden escribirse de
la forma siguiente:
x 1
x 2
1
2
=
1
0
x + c1 c0
1
v0
1
c2 c0 u
v0
Tema 11
Controlabilidad y observabilidad
de sistemas din
amicos
11.1
Introducci
on
192
11.2
11.2.1
Estados alcanzables
193
x=0
u1
u2
Ax
u3
11.2.2
Estados controlables
194
u1
Cx
x=0
u2
u3
11.2.3
Estados conectados
195
x1
x2
u
R
11.3
11.3.1
196
Ejemplos de introducci
on
Sistema controlable.
Sea el sistema de posicionamiento de un cilindro, de inercia unitaria, sometido
a un par u(t), suponiendo que el rozamiento sea despreciable. Este sistema
representa una version idealizada del problema del posicionamiento de un
satelite en un plano. Sus ecuaciones se pueden escribir
"
x =
0 1
0 0
"
x+
0
1
es decir:
"
A=
0 1
0 0
"
B=
0
1
se tiene:
"
(sI A)1 =
s 1
0
s
#1
1
s2
"
s 1
0 s
s
=
1
s2
1
s
por tanto
"
(t) =
1 t
0 1
"
(T ) =
1 T
0 1
Z (k+1)T
kt
((k + 1)T ) Bd
= kT
=
Z T
0
(t )B = d
= T
=
Z T
0
()Bd
Z T
0
(t )Bd =
#
# "
Z T"
0
1
0
0 1
d =
197
#
Z T"
"
d =
T 2 /2
T
1 T
0 1
"
xk +
T 2 /2
T
( + T )
T 2 /2
198
+ T
T /2
T = 2 + 2T
2 + T = 0
En consecuencia, no es posible transferir un estado arbitrario del espacio
de estados, en un solo paso, al origen. Veamos que sucede si en lugar de
considerar un solo paso, consideramos dos; es decir una secuencia de se
nales
sucesivas uo , u1 . En tal caso se tendra:
x2 = A2 x0 + ABu0 + Bu1
es decir
x2,1 = + 2T + (3T 2 /2)u0 + (T 2 /2)u1
x2,2 = + T u0 + T u1
Si, como en el caso anterior, se pretende llevar un estado arbitrario [] al
origen; es decir
para x2,1 = x2,2 = 0
(3T 2 /2) u0 + (T 2 /2)u1 = 2T
T u0 + T u1 =
Se trata de resolver este sistema de ecuaciones en uo y u1 . Para que ese
sistema lineal de ecuaciones tenga solucion se requiere que el determinante
de la matriz de la parte izquierda del sistema sea no singular, lo que efectivamente sucede en este caso.
"
det
3T 2 /2 T 2 /2
T
T
T3 T3
= T 3 6= 0
=3
2
2
199
Por tanto, para una posicion arbitraria del estado [] existe una secuencia
de se
nales de actuacion sobre el sistema uo u1 que transfiere ese estado arbitrario al origen. En tal caso estamos autorizados para decir que el sistema
es controlable al origen, de acuerdo con la definicion que hemos introducido
mas arriba.
Sistema no controlable.
Consideremos ahora el sistema definido por las ecuaciones:
"
1 1
0 2
"
xk +
1
1
uk
200
x2 = A2 x0 + ABu0 + Bu1
es decir
x2,1 = + 3 + 2u0 + u1
x2,2 = 4 + 2u0 + u1
De nuevo queremos transferir el estado [] al origen; es decir, se quiere que
x2,1 = x2,2 = 0. En tal caso se tiene que los valores tomados por la se
nal de
entrada uo y u1 deberan satisfacer el sistema de ecuaciones lineales:
2u0 + u1 = 3
2u0 + u1 = 4
Pero este sistema de ecuaciones carece de solucion, puesto que:
"
det
2 1
2 1
=0
x3 =
+ 7 + 4u0 + 2u1 + u2
8 + 4u0 + 2u1 + u2
201
.
.
.
u0
u1
...
un1
Para que este sistema de ecuaciones tenga solucion, de modo que dado un
estado inicial arbitrario xo se pueda determinar una secuenciauo u1 u2 . . . un1 se
requiere que la matriz C sea de rango completo.
11.3.2
202
x1
x2
203
se
nal de entrada u(t) que debe aplicarse en el intervalo (0, ), se calcula facilmente
de acuerdo con
u(t) =
d
x1 (t)
dt
para
t [0, ]
x1
seg
11.3.3
Criterio de controlabilidad
Para sistemas estacionarios, que son los que se consideraran en estos apuntes,
existe un criterio muy simple que permite establecer si un cierto sistema dinamico
es controlable o no. Este criterio se basa en unas propiedades algebraicas del par
(A, B). Este criterio se establece con el siguiente teorema.
Teorema
Un sistema
es controlable si y solo si
rango C = n
.
. .
en donde C B ..AB .......An1 B y n = dim X.
204
At1
x(0) +
Z t1
0
eA(t ) Bu( ) d
(11.1)
Se toma seg
un la definicion de controlabilidad, x(t1 ) = 0.
Luego,
0 = eAt1 x(0) +
Z t1
0
eA(t1 ) Bu( ) d
Z t1
eA Bu( ) d
X
Ai ti
i=0
i!
n1
X
i ( )Ai
i=0
luego
x(0) =
n1
X
i=0
AB
Z t1
0
i ( )u( ) d
(11.2)
205
Z t1
0
i ( )u( ) d
n1
X
Ai Bi
(11.3)
i=0
es decir:
x(0) =
B AB AB
... A
n1
0
1
..
.
n1
Puesto que x(0) es arbitrario la anterior expresion implica que debe ser
posible representar cualquier vector como una combinacion lineal de las
columnas de C. Luego, seg
un la definicion de controlabilidad, que el sistema
sea controlable implicara (es necesario) que rango C = n.
2. Suficiencia
Se trata de demostrar que si el rango de C es n, entonces el sistema es
controlable, es decir, existe una se
nal de entrada que lo transfiere al origen.
Formalmente,
rango C = n sistema controlable
Sea
rango C = n
Si se aplica al sistema una se
nal
u(t) = u0 (t) + u1 (1) (t) + + un1 (n1) (t)
(11.4)
(k) (t ) f ( ) d =
x(0) = C
u0
u1
..
.
un1
dk f (t)
dtk
206
11.3.4
Ejemplos de controlabilidad
Se presentan en este apartado algunos ejemplos de aplicacion del criterio de controlabilidad que, ademas ayuden a captar el sentido fsico de este concepto.
Ejemplo 1
Sea el sistema de la figura 11.6, al que corresponden las ecuaciones:
x1
-1
u
+1
x2
-2
x 1 = x1 + u
x 2 = x1 2x2 + u
207
es decir
"
A=
1 0
1 2
"
B=
1
1
C=
1 1
1 1
det C = 0
1
2
x(t) =
1 x(t) +
"
1 1
0 0
u(t)
s1
208
x2 (0)
x1 (0)
s1
s1
x
2 (s)
s1
x
1 (s)
1
2
u
1 (s)
u
2 (s)
209
g
[x(t) u(t)]
L
"
x 1
x 2
"
0 1
g 0
# "
x1 (t)
x2 (t)
"
+ g
0
1
u(t)
C=g
0 1
1
0
11.4
11.4.1
Sea el sistema
d(s)y = n(s)u
210
Entonces
es controlable si y solo si los polinomios n(s) y d(s) no tienen
factores comunes.
Se puede dar un razonamiento intuitivo a lo anterior: si n(s) y d(s) tienen un
P
P
factor com
un, entonces existe un , equivalente (externamente) a , y tal que
es de orden menor que n.
11.4.2
Transformaci
on de la matriz de Controlabilidad
A = T AT 1
luego
C=T C
11.4.3
rango
.
. .
B ..AB .......Anr B = n
211
Lema
Si k es un entero tal que
rango
.
. .
.
. .
B ..AB .......Ak1 B = rango B ..AB .......Ak B = p
entonces
rango
.
. .
B ..AB .......Ae B = p para todo e k 1
Demostraci
on
El hecho de que
rango
.
. .
B ..AB .......Ak1 B = rango
.
. .
B ..AB .......Ak B
11.4.4
212
11.5
Descomposici
on del espacio de estados en
sus partes controlables y no controlables
P
El hecho de que el espacio de estados X de un sistema dinamico no sea controlable, no implica que alg
un subespacio de X no lo pueda ser. Es decir, el hecho
de que todas las componentes del vector de estados no puedan ser transferidas al
origen en un tiempo finito, por aplicacion de una se
nal de control conveniente, no
implica que determinadas de estos componentes no puedan ser transferidas. El
problema de la descomposicion del espacio de estado en sus partes controlables
y no controlables, reside, precisamente, en la determinacion de que componentes
del vector de estados son controlables. Con ello se subdivide el espacio de estados en dos subespacios, el uno de estados controlables y el otro el de estados no
controlables.
Sea el sistema
x = Ax + Bu
y = Cx
Cuya matriz de controlabilidad sera:
C = B AB ... An1 B
213
tal que
rango C = n1 < n
En tal caso existe una transformacion no singular T tal que
TC =
C1
0
..
C
.
1
..
..
C . I
. T
.
0 ..
C = TC =
=
=
C1
0
B AB An1 B
(11.5)
B=
B1
B2
214
(11.6)
A=
A11 A12
A21 A22
(11.7)
AC =
A11 A12
A21 A22
C1
0
A11 C1
A21 C1
AB A2 B ... An B
(11.8)
(11.9)
A =
n1
X
i A
i=0
De lo anterior se desprende:
los n 1 primeros bloques en que se ha particionado AC en (7) son tales
que tienen las (n n1 ) u
ltimas filas nulas.
n1
215
A=
A11 A12
0 A22
B=
B1
0
La funcion de transferencia de
depende exclusivamente de (A11 B 1 , c1 ) ya
que, por definicion de F de T , esta se obtiene considerando condiciones iniciales
nulas y para x2 (0) = 0 se tendra x2 (t) = 0 para todo valor de t > 0. Es decir,
a partirse condiciones iniciales nulas los estados no controlables permanecen en
reposo.
Ejemplo
Sea el sistema
1 0
0
1
2 B= 1
A= 1 1
1 0 1
1
216
x1
1 u
x1 = A11 x1 + A12 x2 + B
C1
C2
x2
2
x2 = A22 x2
1 1
1
1
C= 1 0
1 0 1
Para determinar T se hace
1 1
1 1 0 0
1
1 1
1 0 0
1 0 1 0
(C I) = 1 0
0 1 0 1 1 0
1 0 1 0 0 1
0
1 0
1 0 1
1
1 1
1 0 0
0
1
0
1
1 0
0
0 0
0 1 1
Luego
217
1 0 0
T =
1 1 0
0 1 1
Para determinar T 1 se hace
1 0 0 1 0 0
1 0 0 1 0 0
(T I) = 1 1 0 0 1 0 0 1 0 1 1 0
0 1 1 0 0 1
0 1 1 0 0 1
1 0 0
1
0 0
0
1
0
1
1 0
0 0 1 1 1 1
Luego
T 1
1
0 0
1 0
= 1
1 1 1
A partir de T y T 1 se tendra
A = T A T 1
1
0 2
=
1 1 2
0
0 1
B=TB= 0
0
Es decir
1
0 0
1
x = 1 1 2 x + 0 u
0
0 1
0
El subsistema controlable sera
d
dt
11.6
x1
x2
1
0
1 1
x1
x2
218
1
0
11.6.1
Introducci
on a la observabilidad
x1 (k + 1) = x1 (k) + x2 (k)
x2 (k + 1) = 2x2 (k)
x(k + 1) = Ax(k)
y(k) = x1 (k)
"
A=
C=
1 1
0 2
1 0
y(0) = x1 (0)
y(1) = x1 (0) + x2 (0)
x1 (0) = y(0)
x2 (0) = y(1) y(0)
2. Sistema no observable
Sea A como antes pero
y(k) = x2 (k)
C=
0 1
entonces se tendra
y(0) = x2 (0)
y(0) = Cx(0) = 2x2 (0)
219
220
luego
x2 (0) = y(0) =
1
y(1)
2
xk+1 = Axk
yk = Cxk
xk = Ak x0 y(k) = CAk x0
y0 = Cx0
y1 = CAx0
..
. =
yn1 = CAn1 x0
y0
y1
..
.
C
CA
..
.
x0
CAn1
yn1
O=
C
CA
...
CAn1
11.6.2
Observabilidad
P
Definici
on Un sistema
se dice observable en el instante t0 , si y solo si para
todo estado x(t0 )X, existe un tiempo t > t0 tal que el conocimiento de u(t0 , t),
de y(t0 , t) y de (A, C) basta para determinar x(t0 ).
11.6.3
221
Reconstructibilidad
P
Definici
on Un sistema se dice reconstructible en t0 , si y solo si x(t0 ) X, t <
t0 tal que el conocimiento de u[t, t0 ], de y[t, t0 ] y de (A, C) basta para determinar
x(t0 ).
De las anteriores definiciones se desprenden los siguientes problemas:
Problema de observacion: El estado actual x(t) debe determinarse a partir de
las entradas y salidas futuras u( ), y( ) : t.
Problema de la reconstrucci
on El estado actual x(t) debe determinarse a partir
de las entradas y salidas pasadas u( ), y( ) : : t.
Por la propia definicion de invariancia en el tiempo es claro que para sistemas
invariantes en el tiempo ambos problemas son equivalentes, es decir,
Observabilidad reconstructibilidad
En lo que sigue se considerara u
nicamente el problema de la observacion.
11.6.4
Criterio de observabilidad
es observable si y solo si
rango O = n
y n = dim x.
222
n1
X
i (t)CAi x(0)
(11.10)
i=0
(AK )T C T
O T = C AK = 0
De (8) se tiene que para todo estado inicial x(t0 ) = KKR, la salida sera
y(t) = 0
lo que significa que existen estados iniciales x(t0 ) 6= 0 (todos los que de la
forma K) los cuales no pueden determinarse (distinguirse por observacion
de la se
nal de salida y(t) ante una entrada nula u[t0 , t1 ] = 0. Ello esta en
P
contradiccion con la hipotesis de que
sea observable.
2. Suficiencia
Se trata de demostrar que si el rango O = n entonces el sistema es observable, o lo que es lo mismo, por contradiccion, que el hecho de que el sistema
sea no observable, implica que el rango O < n.
P
Supongase que
no es observable. Entonces deben existir al menos dos
estados x1 y x2 tales que x1 6= x2 y x1 indistinguible de x2 . Es decir
CeAT x1 CeAT x2
Sea x0 = x1 x2 ; entonces la respuesta de
y(t) = CeAT x0 0
223
(11.11)
Cx0 = 0
CAx0 = 0
..
.
CAn1 x0 = 0
es decir
C
CA
..
.
x0 = 0
CAn1
Ox0 = 0
lo que implica rango O < n, ya que x0 6= 0. Por lo tanto que el sistema
sea no observable implica que rango O < n.
11.7
Sistemas continuos
Sea el cilindro con inercia unitaria, y sin rozamiento que hemos visto en los
ejemplos de introduccion.
224
x =
0 1
0 0
"
x+
0
1
es decir:
"
A=
0 1
0 0
"
B=
0
1
y = [1 0]x
Si se deja evolucionar libremente, a partir de unas condiciones iniciales
x1 (0), x2 (0) el cilindro girar a velocidad constante. Si se registra la salida
en el perodo (0, T ) se obtendra una recta inclinada como la de la figura
11.10. De este registro se puede obtener facilmente:
y
x1 (0)
x2 (0)
x =
0 1
0 0
"
x+
0
1
225
11.8
P
erdida de observabilidad por muestreo
A=
0 1
a2 0
"
b=
0
a2
y = x1
y = x2
Este sistema es claramente observable
c=
1 0
O=
1 0
0 1
226
sI A =
s 1
a2 s
1
= 2
s + a2
s
s2 + a2
=
a2
2
s + a2
"
1
+
s a2
s
2
s + a2
s 1
a2 s
luego
1
cos (aT )
sin(aT )
(t) =
a
a sin(aT ) cos (aT )
se tendra
O=
1
cos (aT )
1
sin(aT )
a
sin(aT ) = 0 T =
k
a
(k entero)
Por tanto, para determinados valores del perodo del muestreo T el sistema
pierde su observabilidad.
11.8.1
227
11.9
Descomposici
on del espacio de estados en
sus partes observables y no-observables
De manera completamente similar a como se hizo en la seccion 4 se puede descomponer el espacio de estados en sus partes observable y no-observable. Al
igual que se hizo all supongase = (A, b, c).
Si
rango O = n1 < n
entonces existe una transformacion no singular T tal que
O1 T
T T OT = . . .
O1
Si se hace x = T
.
O T ..
1
..
..
T
. I
. T
.
0 ..
228
A11 0
A21 A22
A=
B=
C=
B1
B2
C1 0
x 2 = A21 x1 + A22 x2 + B 2 u
y = C 1 x1
Esta forma de escribir el sistema puede representarse como se hace en el diagrama de bloques de la figura 11.12, en donde es aparente que solo el subespacio
x1 es observable, es decir, solo este subespacio influye sobre la salida. Ademas,
es evidente que la funcion de transferencia del sistema considerado depende exclusivamente de la terna (A11 , B1 , C1 ), es decir, que un sistema con esta u
ltima
terna tiene la misma funcion de transferencia que el sistema original.
1 u
x
1 = A11 x
1 + B
C1
229
x2 = A21 x1 + A22 x2 + B2 u
11.10
Descomposici
on can
onica del espacio de
estados
Por aplicacion sucesiva de las transformaciones indicadas en las secciones de descomposicion en partes obs. y control. o no, se pueden extraer las partes controlable y observable de un sistema dinamico lineal.
El resultado se puede enunciar como sigue:
Sea = (A, B, C). Si rango OC = n1 < n entonces existe = (A, B, C) tal
que:
1.
2.
A11 0 A13
B1
B=
B2
0
C=
C1 0 C3
230
1 0 0
1
A= 1 1 2 B= 1 C= 1 1 1
1 0 1
1
La matriz de controlabilidad es
1 1 1
C= 1 0 1
1 0 1
cuyo rango es 2. Por lo tanto la dimension del subespacio controlable es 2.
1 1
1 1 0 0
1
0
1 0 1 0
(C I) =
1 0 1 0 0 1
1
1 1
1 0 0
0 1 0 1 1 0
0
1 0
1 0 1
1
1 1
1 0 0
0 1 0 1 1 0
0
0 0
0 1 1
luego
1 0 0
T =
1 1 0
0 1 1
y
T 1
1
0 0
1 0
= 1
1 1 1
Por lo tanto
A = T AT 1
1
0 0
= 1 1 2
0
0 1
B = TB = 0
0
C = CT 1 =
1 0 1
Ac =
1
0
1 1
Bc =
Cc =
1
0
1 0
Oc =
1 0
1 0
231
232
cuyo rango es 1.
Una atenta observacion de (Ac , Bc , Cc ) pone de manifiesto que, casualmente,
no es necesario aplicar el algoritmo de descomposicion puesto que ya es aparente.
En efecto el subsistema observable de (Ac , Bc , Cc ) es
Am = 1
bm = 1
cm = 1
La parte observable y controlable de un sistema recibe el nombre de realizacion
mnima del mismo.
En general la terna (Ac , Bc , Cc ) necesitara ser sometida al algoritmo de descomposicion para la extraccion de su parte observable.
Se va a comprobar que la funcion de transferencia de (Am , Bm , Cm ) es la
misma que la de (A, B, C). En primer lugar se calcula (sI A)1 . para ello se
aplica el algoritmo de Leverrier (Wiherg, pag. 102).
1 0 0
A= 1 1 2
1 0 1
F1 = I
a1 =
r AF1 /1 = 1
0 0 0
F2 = AF1 + a1 I = 1 0 2
a2 = rAF2 /2 = 1
1 0 2
1 0
0
F3 = AF2 + a2 I = 1 1 2
rAF3 /3 = 1
a3 =
1
0
1
luego
(sI A)1
233
s2 1
0
0
1
2s 2
=
s 1 s2 1
(s)
2
s + 1
0
s 2s + 1
siendo (s) = s3 s2 s + 1.
Es facil ver que
(s2 1)
s2 1
1
=
=
3
2
2
s s s+1
(s 1)(s 1)
s1
11.11
Formas can
onicas
234
tuitiva. Aqu se introduciran estas formas canonicas bajo una optica algebraica
que permita tanto su generalizacion comoda a sistemas multivariables como su
aplicacion practica.
Formas can
onicas de control
d(s)y = n(s)u
Sea la nueva variable v tal que
d(s)v = u
luego
d(s)y = n(s)d(s)v
es decir
y = n(s)v
Sea
x1 = v
x2 = x 1
..
..
.
.
xn = x n1
= v
..
.
= v (n1)
d(s)v = u x n = an x1 an1 x2 + u
x 1
x 2
x 3
..
.
x n1
an
1
0
0
1
0
0
an 1 an1
... 0
... 0
... 1
... a1
x n
235
x1
x2
...
...
...
xn
0
0
...
...
...
1
Sistemas monovariables
Sea el sistema = (A, B, C), cuya matriz de controlabilidad es
C = B AB ... An1 B
0
0
0
..
.
A=
1
0
0
..
.
0
1
0
..
.
...
...
...
0
0
1
..
.
B =
C=
0 0 0 ... 1
236
b1 sn1 + b2 sn2 + + bn
G(s) = n
s + a1 sn1 + a2 sn2 + + an
Al par (A, b) corresponde una matriz de controlabilidad C cuya forma es:
0
0
..
.
C=
0
0
..
.
0
0
..
.
..
.
0
1
..
.
1
1
..
.
n2
(11.12)
0 1
1 1 n3
1 1 2 n2 n1
i =
an an1
0
0
..
.
o
... a1
.
..
i2
i1
siendo o = 1. Es decir C puede construirse a partir del conocimiento de los
coeficientes del denominador de G(s) o del polinomio caracterstico de A.
Es facil ver tambien que
an1 an2
an2 an3
...
a1
1
1
0
... a1 1
... 1 0
...
...
0
0
(11.13)
= I.
237
3. Se hace Tc1 = CC
Como siempre se requiere Tc y Tc1 el segundo procedimiento evita una inversion de matrices.
Ejemplo
Sea el sistema dinamico cuya terna (A, B, C) es la siguiente:
1 1 0
1
A = 0 1 1 B = 1
2 3 1
1
C=
0 1 2
1 2 4
C = 1 2 2
1 4 14
238
y el polinomio caracterstico de A es
(A) = s3 3s2 + 6s 2
Luego (expresion (2))
6 3 1
= 3 1 0
1
0 0
Tc1 = CC
4 1 1
= 2 1 1
4 7 1
0, 1667 0, 1667
0
0
0, 1667
Tc = 0, 1667
0, 5
0, 6667 0, 1667
La forma canonica de control es x = T x
A = Tc ATc1
0 1 0
= 0 0 1
2 6 3
B = Tc B = 0
1
C = CTC1 =
10 13 1
Observese que para determinar A y B basta con conocer el polinomio caracterstico de A; por lo tanto no se necesita emplear las expresiones anteriores,
ni se requiere el conocimiento de Tc , ni de Tc1 . Para lo que si es indispensable
la determinacion de Tc1 es para calcular C. Pero, observese, que solo para este
u
ltimo caso se necesita conocer Tc1 , de modo que puede evitarse el determinar
Tc , evitando as el tener que invertir la matriz Tc1 . Es decir, la determinacion de
la terna (A, B, C) a partir de la (A, B, C), puede hacerse sin tener que recurrir
239
G(s) =
s2 + 13s 10
s3 3s2 + 6s 2
Por lo tanto, la determinacion de la terna (A, B, C) suministra un metodo indirecto para determinar la funcion de transferencia asociada a una terna (A, B, C).
11.11.1
Forma can
onica de observaci
on
Sistemas monovariables
En forma completamente similar a como se hizo en la forma canonica de control
se puede determinar la transformacion T0 tal que x = T0 x.
A=
B =
0
1
0
..
.
0 ... 0 an
0 ... 0 an1
1 ... 0 an2
.. .. ..
..
. . .
.
0 0 ... 1 a1
C=
0 0 ... 1
Seg
un se vio la terna (A, B, C) recibe el nombre de forma canonica de observacion.
Si x = T0 x se tendra
T0 = O O
240
an1 an2
an2 an3
...a1
1
1
0
... a1
... 1
... 0
... 0
1
0
0
0
Se puede concebir un procedimiento para obtener la forma canonica de observacion similar al desarrollo en la forma canonica de control. Para determinar T0
se procede como sigue:
1. A partir de (A, C) se determina O.
1
3. Se hace T0 = O O.
Ejemplo
Sea el sistema considerado en el ejemplo de la forma canonica de control. Se
trata de determinar su forma canonica de observacion.
Se tiene
6 3 1
= 3 1 0
1
0 0
0 1 2
O= 4 7 1
6 14 6
luego
241
6 1 3
1
4 5
T0 = O O =
4
0
1
2
T01
Es decir
A = T0 AT01
0 0 2
= 1 0 6
0 1 3
10
B = T0 B = 13
1
C = CT01 =
0 0 1
Tema 12
Sntesis de sistemas de control
por variables de estado
12.1
Ley de Control
242
243
x
B
x
C
a) Sistema en bucle
abierto
A
x
B
x
C
A
REGULADOR
b)Sistema en bucle
cerrado
244
nentes del vector de estado se pueden identificar con magnitudes fsicas medibles
y que son estas magnitudes las que definen las se
nales que se realimentan. El
caso en que la anterior identificacion no sea posible se discutira mas adelante.
En lo que sigue se consideraran leyes de control lineales de la forma
u = k (r (k1 x1 + k2 x2 + + kn xu )) = k (r K x)
(12.1)
siendo
K = (k1 k2 ... ku )
La representacion grafica de una ley de control lineal para sistemas monovariables se tiene en la figura 12.2.
x
B
PLANTA
REGULADOR
245
si se hace
u = k (r Kx)
se tendra :
en bucle cerrado
x = Ax + kB (r Kx)
= (A kBK)x + Bkr
y = Cx
(12.2)
(12.3)
(12.4)
Para aclarar el efecto de la ley de control lineal se puede recurrir a dos interpretaciones. Estas interpretaciones se hacen, sin perdida de generalidad, para
n = 2.
12.1.1
Interpretaci
on por diagramas
(12.5)
(12.6)
(12.7)
246
se tendra el sistema cuyo diagrama se tiene en la figura 12.3 b), que a su vez
puede simplificarse al de la figura 12.3 c).
De la figura 12.3 c) se desprende facilmente que la funcion de transferencia en
bucle cerrado sera
Y (s)
k
= 2
R(s)
s + (a1 + kk2 )s + (a2 + kk1 )
12.1.2
(12.8)
Interpretaci
on algebraica
El sistema dinamico
y + a1 y + a2 y = u
(12.9)
A=
0
1
a2 a1
B=
C=
0
1
1 0
x =
0
1
a2 a1
0
1
kk1 kk2
x+kr
x2
1
s
x1
1
s
247
a1
a)
a2
K k1
K k2
x2
1
s
x1
1
s
a1
b)
a2
x2
1
s
1
s
x1
(a1 + Kk2 )
c)
(a2 + Kk1 )
x =
0
1
a2 kk1 a1 kk2
y=
1 0
x+
248
0
k
12.1.3
Determinaci
on de la ley de control
Sistemas monovariables
Se supondra k = 1. En caso contrario los coeficientes de la ley de control vendran
afectados por la constante k. Es decir la ley de control que se adopta es de la
forma
u = r Kx
siendo
K = (k1 k2 ... kn )
Supongase que A (en bucle abierto) tiene un polinomio caracterstico.
249
(A) = sn + a1 sn1 + + an
(12.10)
Y supongase que se quiere tener en bucle cerrado una matriz A tal que
(A ) = sn + 1 sn1 + + n
(12.11)
(12.12)
A = A BK =
0
0
..
.
1
0
..
.
0
1
..
.
...
...
0
0
..
.
0
0
0
...
n n1 n2
1
5. Determinar K = K CC 1 .
250
1
0
2
1
0 B= 2
A = 0 1
1
0 1
1
Se pide la ley de control para que el sistema realimentado tenga un polinomio
caracterstico.
(A ) = (s2 + s + 1) (s + 10)
Procediendo como se indica mas arriba se tiene
1. Se calcula el polinomio caracterstico de A.
(A) = (s2 3) (s + 1)
= s3 + s2 3s 3
Observese que el sistema es inestable.
2. Se determina C .
1 =
3 3 1
2 =
luego
3 3 1
0 = 1
1
1 =4
1
251
0
0
1
1 1
C=
0
1 1
4
3. Se determina C que resulta ser:
1
3 3
2
2
2
C=
1
0 3
cuya inversa es
C 1
0, 5
0, 75
1
0 0, 333
= 0, 333
1, 667 0, 25 0.6667
12.2
Observadores
Seg
un se ha visto en la seccion 1 de la ley de control es funcion de las variables de
estado del sistema. En consecuencia, para realizar fsicamente una ley de control
es necesario disponer de unas se
nales que reproduzcan a las componentes del vector de estado. Sin embargo al introducir la nocion de estado se ha visto que este
es un concepto abstracto sin, en principio, ninguna realidad fsica subyacente.
252
Es decir, que si bien en determinados casos sera posible identificar a los componentes del vector de estados con magnitudes fsicas medibles, este no sera el caso
mas general. En el caso en que las variables de estado puedan identificarse con
magnitudes fsicas medibles se dira que el vector de estado es accesible.
En el caso contrario, es decir en el caso de que el vector de estado no sea accesible, para poder aplicar una ley de control hay que recurrir a un camino indirecto
para obtener el estado. Consiste en dise
nar un sistema dinamico, denominado
observador, tal que alimentado por las se
nales accesibles (de entrada y/o salida)
suministre a su salida unas se
nales, que se denotan por x, que reproduzcan la
evolucion del estado del sistema original.
En otra seccion , se ha definido el problema de la observacion, como un problema de reconstruccion del estado a partir de las se
nales de entrada y de salida.
En consecuencia, el observador, como sistema dinamico, no es sino una solucion
mecanizada del problema de la observacion. En consecuencia, el problema no
tendra solucion mas que cuando el sistema sea observable; es decir, sera posible
sintetizar un observador solamente para un sistema observable.
Planteado as, el problema de la sntesis de un observador, tiene una gran
generalidad. En lo que sigue se concretaran las soluciones de mayor interes.
12.2.1
Sistemas monovariables
(12.13)
253
A
SISTEMA ORIGINAL
R
A
OBSERVADOR
254
inicial.
2. Es muy sensible a los errores en la estimacion de los parametros que intervienen en A y B. En particular si alg
un auto valor de A es positivo, el mas
mnimo error (siempre existente en la practica) en la evaluacion del mismo,
o en la sntesis del observador, produce la inestabilidad del conjunto.
Observador asint
otico
Con el observador asintotico se pretende tener la garanta de que, aunque se
produzcan problemas del tipo de los aludidos al final de la seccion anterior siempre
cumplira la condicion siguiente
lim (
x x) = 0
(12.14)
es decir que la se
nal de salida del observador x converge al estado real del
sistema x, al menos para t .
El que se cumpla la propiedad de la expresion 12.14 se consigue muy facilmente
con una ligera modificacion del observador en bucle abierto (figura 12.4) para
convertirlo en un observador en bucle cerrado. La modificacion parte de una idea
muy simple que consiste en comparar la se
nal de salida y(t) del sistema real con
la se
nal de salida y que se obtiene a partir de la se
nal x de salida, del observador
de acuerdo con la expresion:
y = C x
El error entre y e y se emplea para corregir el funcionamiento del conjunto.
Una solucion que explota la anterior idea es la de la figura 12.5. Este observador recibe el nombre de observador de Luenberger.
Observese en la figura 12.5 que:
x = A
x + L(y C x) + Bu
es decir
(12.15)
SISTEMA
ORIGINAL
255
A
+
`
-
C
R
A
OBSERVADOR
256
x = (A LC)
x + Ly + Bu
(12.16)
x = x x
(12.17)
x = (A LC) x
(12.18)
Si se define
es decir x converge a x.
El problema de la sntesis de un observador se reduce a una conveniente
eleccion de L para que (A LC) tenga unos autovalores apropiados.
Se discuten a continuacion dos posibles soluciones al problema.
Observador asint
otico del mismo orden
Seg
un se ha visto , todo sistema observable puede escribirse en la forma canonica
de observacion:
x =
0 0 ... 0 an
1 0 ... 0 an1
0 1 ... 0 an2
...
0 0 ... 1 a1
y=
bn
bn1
x+ . u
0 0 ... 1
b1
(12.19)
257
Si se hace
LT = (l1 l2 ... ln )
(12.20)
Se tiene
A LC =
0
1
0
...
0
0
0
1
...
0
...
...
...
...
...
0 an l1
0 an1 l2
0 an2 l3
...
...
1 a1 ln
(12.21)
Observador asint
otico de orden mnimo
En el observador del mismo orden no se ha tenido en cuenta que en la forma
canonica de observacion y = xn , y por lo tanto la se
nal de salida (que es obviamente accesible) reproduce el elemento xn del vector de estado. En consecuencia
es posible concebir, en principio, un observador cuya salida sean las (n 1) componentes restantes de x. Este observador recibe el nombre de observador mnimo,
pues su orden es n 1.
Supongase que se tiene el par (A, B) correspondiente a un sistema del que
se quiere construir un observador. Para fijar ideas supongase n = 3. En la
ecuacion que rige el comportamiento dinamico del sistema, se pueden particionar
los bloques que se indican en la expresion siguiente:
x 1
x 2
x 3
.
a11 a12 .. a13
.
a21 a22 .. a23
.
.
a31 a32 .. a33
x1
x2
x3
b1
b2
b3
258
Para dise
nar el observador de orden mnimo se adopta una expresion como
la anterior haciendo y = x3 . Llamando x1 y x2 a las observaciones del estado,
obtenidas del observador, se tiene que la ecuacion dinamica del mismo puede
escribirse como sigue:
1
x
2
x
a11 a12
a21 a22
x1
x2
a13
a23
y+
b1
b2
T1 =
1
0
..
.
0 ... 0 n1
1 ... 0 n2
..
.
..
. . ..
.
0 0 ... 1 1
0 0 ... 0
1
(12.22)
1
T1 =
1
0
..
.
0 ... 0 n1
1 ... 0 n2
..
.
..
. . ..
.
0 0 ... 1 1
0 0 ... 0
1
259
(12.23)
Se tendra
A =
0
1
0
..
.
0 ... 0 n1
1
0 ... 0 n2 2
1 ... 0 n3 3
..
..
..
..
.
.
.
.
0 0 ... 1 1 n1
0 0 ... 0
1
n
B =
bn n1 b1
bn1 n2 b1
..
.
b2 1 b1
b1
(12.24)
d
dt
x1
x2
..
.
xn1
0 0 ... 0 n1
1 0 ... 0 n2
0 1 ... 0 n3
...
0 0 ... 1 1
1
2
..
.
260
x
x2
..
.
(12.25)
xn1
y + b.u
n1
lo que permite dise
nar un observador de orden mnimo con la estructura de
la figura 12.6. En este diagrama la transformacion T es la que permite obtener
la forma canonica de observacion. Los parametros i son los coeficientes del
polinomio caracterstico del observador.
y
n
y=x
OBSERVADOR
ASINTOTICO
MINIMO
T11
T 1
261
u
nicos criterios analticos que se han publicado para la eleccion de estos coeficientes, lo han sido dentro del marco de la teora del control optimo.
Es de resaltar, por u
ltimo, el caracter asintotico del observador mnimo. Se
invita al lector a que compruebe por s mismo directamente este punto.
Ejemplo
Sea el sistema cuya forma canonica de observacion se determino en el ejemplo
de sistemas monovariables en forma canonica de observacion.
Supongase que se quiere dise
nar un observador tal que sus autovalores sean
1 = 4 2 = 5
es decir, el polinomio caracterstico del observador sera
(obs.) = (s + 4) (s + 5) = s2 + 9s + 20
seg
un (23) y (24) se tiene
1 0 20
T1 = 0 1 9
0 0
1
T11
1 0 20
= 0 1 9
0 0 1
A = T1 Ao T11
0 20 238
= 1 9 94
0
1
12
30
B = T1 bo = 22
262
=
x
0 20
1 9
x +
238
94
y+
30
22
x1
02241 0, 0862 5, 1371
1 1
0, 2069
4, 9304 x2
x = To T1 x = 0, 1379
0, 0690
0, 1039
1, 9658
y
12.3
OBSERVADOR
LEY DE
CONTROL
x = Ax + Bu
y = Cx
263
(12.26)
(12.27)
(12.28)
(12.29)
(12.30)
La evolucion del sistema en bucle cerrado vendra regida por las ecuaciones
(12.26), (12.29) y (12.30).
Llevando (12.30) a (12.26) y a (12.29) se tiene
x = A x B k x + Br
x = A
x LC(
x x) + Br Bk
x
(12.31)
(12.32)
(12.33)
(12.34)
264
x
x
A BK BK
0
A LC
y=
C 0
x
x
x
x
B
0
(12.35)
265
A =
0 1
0 0
B =
0
1
C =
x2
1
s
1 0
x1
1
s
a2 a1
Ao =
0 0
1 0
Bo =
1
0
Co =
0 1
La ley de control, en estas bases del vector de estado, vendra dada por
Ko =
a1 a2
r +
x2
1
s
266
1
s
x1
a1
a2
T1 =
1
0 1
T11
1
0 1
y, por lo tanto,
A=
T1 Ao T11
2
1
B = T 1 Bo =
1
0
267
x
1
1
s
x
2
k = Ko T 1 =
a1 a1 + a2
a1
x
1
1
s
1
s2
268
a1 + a2
OBSERVADOR
s + 1
s + 2
k, 1 , 2 > 0
1 < 2
(12.36)
y que resulta ser lo que en los metodos clasicos se conoce como una red de avance
de fase.
De este modo se ha conseguido resolver el problema de la sntesis de un controlador sin ninguna preconcepcion con relacion a su estructura. Si se quiere dar un
paso mas, supongamos que en bucle cerrado se pretende tener un comportamiento
caracterizado por
c (s) = s2 + 2n s + n2
en donde 2n = a1 y
n2 = a2 . Un valor razonable para el coeficiente de amortiguamiento es = 1/ 2, en cuyo caso se tiene que los distintos parametros de
la red de avance (12.36) vienen dado por
k = ( 2 + )
!
3 + 2
1 =
2 +
2 = + 2
269
Conviene observar que la teora clasica del control no ha sido capaz de proporcionar formulas explcita como las anteriores, a
un para un ejemplo tan simple
como el anterior. Los metodos clasicos estan basados en aproximaciones graficas
y reglas practicas, lo que constituye una clase de matematicas aplicadas relativamente anticuadas. Sin embargo, estos comentarios no descalifican los metodos
clasicos, que como se vera mas adelante, contin
uan teniendo un gran interes, ya
que suministran ndices de robustez que poseen un gran interes practico.
r
a1
x
1
1
s
a1 + a2
OBSERVADOR
12.3.1
270
M
etodo pr
actico de sntesis
Problema
Dado un sistema de control monovariable cuya funcion de transferencia en
bucle abierto sea
G(s) =
b1 sn1 + b2 sn2 + + bn
sn + a1 sn1 + + an
Ac =
0
0
0
0
an an1
0 ... 0
1 ... 0
...
0 ... 1
... a1
BcT =
Cc =
1
0
0 0 ... 1
bn bn1 ... b1
an n an1 n1 a1 1
271
Ao =
BoT =
0 0 ... 0 an
1 0 ... 0 an1
0 1 ... 0 an2
...
0 0 ... 1 a1
Co =
bn bn1 ... b1
0 0 ... 1
T =
1
0
..
.
C
CA
..
.
C An2
CAn1
T1 =
1
0
..
.
0 ... 0 n1
1 ... 0 n2
..
.
..
. .... ..
.
0 0 ... 1 1
0 0 ... 0
1
en donde
sn1 + 1 sn2 + + n1
es el polinomio deseado para el observador.
Observese que
1
T
=
1
0
..
.
0 ... 0 n1
1 ... 0 n2
..
.
..
. ... ..
.
0 0 ... 1 1
0 0 ... 0
272
Se tiene que
A = T1 Ao T1 =
0
1
0
..
.
0 ... 0 n1 1
0 ... 0 n2 2
1 ... 0 n3 3
..
..
..
..
.
.
.
.
0 0 ... 1
1
n1
0 0 ... 0
1
n
B = T 1 Bo
C=
0 0 ... 1
es decir que y = xn .
El observador tiene como matriz dinamica el bloque (n 1) (n 1)
superior izquierdo de A y esta excitado por u a traves de los (n1) primeros
elementos de B y de y a traves de (1 ... n1 )
1 = A11 x1 + A12 y + B u
x
siendo A11 : (n 1) (n 1) y estando B formado por los n 1 primeros
elementos de B.
a x (correspondientes a la forma
5. Se obtiene la matriz de transformacion de x
canonica de control en que se ha determinado la ley de control
x = T 1 T11 x
6. A partir de todo lo anterior la matriz del compensador es inmediata
u = K x + r
+r
u = KT 1 T11 x
273
Ejemplo
Sea el sistema cuya funcion de transferencia en bucle abierto es
s+2
s(s + 1)
G(s) =
Gd (s) =
s+2
s2 + 2s + 3
Ac =
0 1
0 1
BcT =
2.
K=
3.
Ao =
0 0
1 1
!
T
Bo =
3 1
0 1
Cc =
2 1
2 1
Co =
0 1
siendo
T =
1 1
1 0
2 1
0 1
1/2 1
1
1
2 2
2 1
T1 =
y por lo tanto
1 3
0 1
T11
1 3
0 1
A=
T1 Ao T1 1
B = T 1 Bo =
C=
0 1
274
3 6
1
2
1
1
1
1
= 2 2 x
x = T 1 T11 x
1
2
6.
+r
u = KT 1 T11 x
=
3 1
Es decir
U (s) =
u 6y
1
1
2 2 s + 3 + r
1
2
y
U (s)
s+9
Y (s) + R(s)
2(s + 3) 2(s + 3)
(12.37)
U (s)
(2s + 7)
(s + 9)
= Y (s)
+ R(s)
2(s + 3)
2(s + 3)
275
s(s + 1)
s+2
se tiene
s+9
(2s + 7) s(s + 1)
Y (s)
+
2(s + 3) 2(s + 3)
(s + 2)
= R(s)
Es decir
Y
2(s + 2)(s + 3)
s+2
(s) = 3
=
R
2s + 10s2 + 18s + 18
s2 + 2s + 3
Debe notarse que el observador no aparece de ninguna forma en la funcion de
transferencia en bucle cerrado.
12.3.2
v +
276
s+2
s(s+1)
s+9
2(s+3)
1
2(s+3)
Figura 12.13: Diagrama de bloques simplificado del sistema controlado por variables de estado con observador
v +
T (s)
h(s)
q(s)
k(s)
q(s)
Figura 12.14: Diagrama de bloques simplificado del sistema controlado por variables de estado con observador
277
1
d(s)
N (s)
(12.38)
Y (s) = n(s)Z(s)
(12.39)
1
(k(s)U (s) + h(s)Y (s))
q(s)
1
= R(s)
(k(s)d(s) + h(s)n(s)) Z(s)
q(s)
U (s) = R(s)
(12.40)
(12.41)
(12.42)
(12.43)
278
(12.44)
luego,
Y (s)
n(s)
=
R(s)
d(s) + f (s)
(12.45)
Esta expresion indica que la funcion de transferencia Td (s) debe tener el mismo
numerador que T (s) y, al mismo tiempo, indica como se puede modificar el denominador. Esta modificacion se hacer por adicion de f (s), cuyo significado es
ahora claro.
El anterior desarrollo lleva implcito un metodo de sntesis. Los pasos de este
metodo son:
1. A partir de d(s) y del denominador de Td (s) se determina f (s).
2. Por consideraciones fsicas se adopta q(s), (equivale a obs (s)).
3. Se determina (s) = q(s)f (s) y se resuelve la ecuacion polinomial (12.42),
con lo que se obtienen h(s) y k(s).
Debe notarse que el problema es trivial si (n(s)) = 0, es decir si n(s) es una
constante n0 . En efecto, en tal caso la expresion (12.42) se convierte en
(s) = k(s)d(s) + h(s) n0
Para la determinacion de k(s) y h(s) se divide (s) por d(s). El cociente de
dicha division es k(s) y el resto h(s) n0
El problema queda reducido, por lo tanto, a la resolucion de la ecuacion
polinomial (12.42).
M
etodo del sistema de ecuaciones lineales
Sea la expresion (12.42) en la que a partir de n(s), d(s) y (s) se trata de determinar h(s) y k(s).
279
grado (n) = m n 1
grado (d) = n
Los grados de h(s) y k(s) seran
grado (h) = n 1grado (k) = m 1
La determinacion de h(s) y k(s) se hace considerando como incognitas sus
coeficientes y obteniendo las ecuaciones que resultan de igualar coeficientes de
terminos de igual exponente de s en la expresion (12.42). Con ello se obtiene
un sistema de ecuaciones lineales que admite solucion, y esta es u
nica, si los
polinomios n(s) y d(s) son primos entre s (no tienen factores comunes).
Considerese, sin perdida de generalidad, n = 3 y m = 2, es decir,
d(s) = s3 + d1 s2 + d2 s + d3
n(s) = n0 s2 + n1 s + n2
h(s) = h0 s2 + h1 s + h2
k(s) = k0 s + k1
(s) = 0 s4 + 1 s3 + 3 s + 4
Se tendra,
280
n2 0 0 d3 0
h2
h1
n1 n2 0 d2 d3
n0 n1 n2 d1 d2 h0 =
0 n0 n1 1 d1
k1
0 0 n0 0 1
k0
4
3
2
1
0
es decir
MC =
(12.46)
281
Ejemplo
Sea el sistema considerado en el ejemplo 2 del apartado anterior y cuyas funciones
de transferencia en bucle abierto y en bucle cerrado son las siguientes.
T (s) =
Td (s) =
s2
s3
s+2
+ 2s + 3s
s+2
+ 3s2 + s + 2
Se tiene que
n(s) = s + 2
d(s) = s3 + 2s2 + 3s
h(s) = h0 s2 + h1 s + h2
El sistema de ecuaciones (44) resulta ser
2
1
0
0
0
0
2
1
0
0
0
0
2
1
0
0
3
2
1
0
0
0
3
2
1
h2
h1
h0
k1
k0
2
2
1
0
1
282
h2 = 1 h1 = 0 h0 = 14/6 k1 = 1/3 k0 = 1
lo cual coincide con lo obtenido por el metodo anterior.
Debe resaltarse que para aplicar este metodo se requiere el concurso de un
computador, cosa que con el anterior, aunque aparentemente mas complejo, no
suceda.
Tema 13
Sistemas no lineales
13.1
M
etodo del primer arm
onico
Los metodos clasicos de sistemas realimentados lineales estan basados en el empleo de la funcion de transferencia, que posee una interpretacion en el dominio
de la frecuencia de gran interes para el analisis y la concepcion de esos sistemas
realimentados. Sin embargo, el concepto de funcion de transferencia esta basado
en la propiedad de linealidad (suma de causas produce suma de efectos) que no
poseen, por su propia naturaleza los sistemas no lineales.
Sin embargo, como vamos a ver en lo que sigue, es posible aplicar una version
ampliada del metodo de la respuesta en frecuencia a sistemas no lineales mediante el metodo de la funcion descriptiva. Con este metodo, como vamos a ver,
es posible adaptar los metodos de dise
no de sistemas lineales en el dominio de
la frecuencia, empleando los diagramas de Bode y similares, al caso de los sistemas no lineales, si bien en este u
ltimo caso los resultados son exclusivamente
aproximados.
13.1.1
Ejemplo introductorio
Sistemas no lineales
284
ecuacion es la siguiente:
x + (x2 1)x + x = 0
(13.1)
vamos a emplear esta ecuacion como ejemplo introductorio al metodo del primer
armonico. Para ello, vamos a suponer que existe un ciclo lmite de amplitud y
frecuencia no determinadas, y vamos a ver que restricciones impone la ecuacion
anterior a esta amplitud y frecuencia.
Elemento no lineal (xx
2)
Elemento Lineal
s
0
x
-
s2 s+1
(.)2
(s) = 2
v
s s + 1
Sistemas no lineales
285
= A cos t
por consiguiente, la salida del bloque no lineal de la figura 13.1 viene dada por
v = x2 x = A2 sen 2 tA cos t
A3
=
(1 cos 2t) cos t
2
A3
=
( cos t cos 3t)
4
(13.3)
(13.4)
(13.5)
cos
cos
cos
cos
cos
Sistemas no lineales
286
x
-
A2
s
4
s2 s+1
(13.7)
(13.9)
Sistemas no lineales
287
(13.10)
A2
1+
j = 0
(13.11)
(j)2 (j) + 1 4
que conduce a
4((j)2 (j) + 1) + A2 j = 0
cuya parte real es
4 2 + 4 = 0
cuya solucion conduce a = 1, y cuya parte imaginaria es
4 + A2 = 0
por lo que A = 2. Por tanto el sistema admite una solucion en forma de oscilacion
con amplitud A = 2 y frecuencia = 1.
Conviene observar que la expresion (13.11) escrita en forma de Laplace toma
la forma
A2 s
1+ 2
=0
s s + 1 4
que es la ecuacion caracterstica en bucle cerrado del sistema de la figura 13.2.
Los autovalores de esta ecuacion son
1,2
1
= (A2 4)
8
1 2 2
(A 4)2 1
64
(13.12)
Sistemas no lineales
288
Elemento no lineal
r(t) = 0
+
x(t)
v = f (x)
Elemento lineal
v(t)
G(s)
y(t)
r(t) = 0
+
x(t)
G1 (s)
v(t)
u(t)
Gp (s)
y(t)
G2 (s)
Sistemas no lineales
13.1.2
289
Principios del m
etodo
13.1.3
Transformaci
on de Fourier
v(t) = a0 +
n=1
1Z
a0 =
v(t)d(t) n = 0, 1, 2, ...
El termino independiente es el valor medio de la se
nal en un perodo. Para una
se
nal sin componente de continua este valor es cero; es decir a0 = 0 (recuerdese
el supuesto 4 de 13.1.2).
1Z
an =
v(t) cos (nt)d(t)
n = 0, 1, 2, ...
(13.13)
1Z
v(t) sen (nt)d(t)
n = 0, 1, 2, ...
(13.14)
bn =
Casos de interes:
Sistemas no lineales
290
v(x)
v(x)
x+
x
x
x
v(x)
v(x + )
a)
b)
Figura 13.5: Se
nales impar (a) y alternada (b)
En el supuesto de que se considere u
nicamente la componente fundamental del
desarrollo en serie, y recordando que a0 = 0, se tiene que la expresion se convierte
en
v(t) = v1 (t) = a1 cos (t) + b1 sen (t) = M sen (t + )
(13.15)
En la figura 13.6 se representa un elemento no lineal y su representacion mediante
Asen(t)
w(t)
N.L.
Asen(t)
N (A, )
M sen(t + )
M (A, ) =
a21
b21
(A, ) = tag
a1
b1
Sistemas no lineales
291
Con los anteriores elementos ya estamos en posicion de definir la funcion descriptiva de un elemento no lineal como el cociente complejo entre la componente
fundamental del elemento no lineal y la se
nal sinusoidal de entrada A sen t; es
decir
M ej(t+)
M j
1
N (A, ) =
=
e = (b1 + ja1 )
(13.16)
jt
Ae
A
A
Es decir, la funcion descriptiva N (A, ) es una funcion compleja cuyo modulo
y argumento representan la amplificacion y el desfase del primer armonico de la
salida v(t) de un sistema no lineal ante una entrada sinusoidal de amplitud A y
frecuencia .
El concepto de funcion descriptiva puede, por tanto, ser considerado como
una ampliacion de la nocion de respuesta frecuencial de los sistema lineales. Las
diferencias entre ambos conceptos se limitan a que la funcion descriptiva de un
elemento no lineal depende de la amplitud, mientras que la funcion de transferencia de un elemento lineal no depende de ella. Sin embargo, con vistas a
las aplicaciones al dise
no de sistemas realimentados pueden tratarse de forma
analoga.
En general, por tanto, la funcion descriptiva depende de la frecuencia y la
amplitud de la se
nal de entrada. Existen, sin embargo, algunos casos especiales.
Cuando la no linealidad es uniforme (es decir, su caracterstica es una funcion que
asigna a cada valor de la se
nal de entrada un u
nico valor de la se
nal de salida)
la funcion descriptiva N es real e independiente de la frecuencia de entrada. El
caracter real de N se debe a que a1 = 0, debido a que la se
nal de salida del
elemento no lineal es impar, y en ese caso, como hemos recordado antes, todos
los terminos ai se anulan. Ademas, la salida es siempre alternada, por lo que
los terminos pares desaparecen. Por tanto ante una no-linealidad uniforme se
tendraa
v(t) = b1 sen t + b3 sen 3t + b5 sen 5t + ...
13.2
Sistemas no lineales
13.2.1
292
Saturaci
on
saturacion
v(t)
salida no saturada
salida saturada
k
0
ka
a
ka
A
x(t)
/2
entrada
sinusoidal
v(t) =
siendo = sen
kA sen (t) 0 t
ka
t /2
(a/A)
Sistemas no lineales
293
4 Z /2
=
v(t) sen td(t)
0
4Z
4 Z /2
=
kA sen 2 td(t) +
ka sen td(t)
0
(13.17)
a
a2
2kA
+
1 2
=
A
A
por consiguiente, la funcion descriptiva resulta ser
b1
2k
a
a2
N (A) =
=
+
1 2
A
A
A
(13.18)
Rango lineal
1.0
N(A)/k
0.8
0.6
0.4
0.2
0.0
10
A/a
13.2.2
Rel
e
Sistemas no lineales
294
2.0
a infinito
encendido
1.6
x
-M
N(A)/M
M
1.2
0.8
0.4
a cero
apagado
0.0
10
A
4M
A
(13.20)
13.2.3
Holgura
Sistemas no lineales
295
Engranaje secundario
angulo
salida
Engranaje primario
C
B
-b
A
0
angulo
entrada
v(t) = (A b)k
t
2
v(t) = A( sen t + b)k t 3
2
3
v(t) = (A b)k
t 2
2
v(t) = A( sen t b)k 2 t 5
2
!
4kb b
1
a1 =
A
b1 =
Ak
sen
v
!u
u
t
2b
2b
1
1
A
A
!2
2b
1
A
Sistemas no lineales
296
v
k(A b)
v(t)
3/2
-b
b
/2
k(A b)
-A
A
x(t)
/2
entrada sinusoidal
3/2
2
Sistemas no lineales
297
a1
b1
En las figuras 13.12 y 13.13 se representan la amplitud y desfase, respectivamente,
de la funcion descriptiva de una holgura. Observese que en este caso la funcion
6
N (A) = tan1
1.0
Amplitud
0.8
0.6
0.4
0.2
0.0
0.0
0.2
0.4
0.6
0.8
1.0
b/A
13.2.4
Determinaci
on experimental de la funci
on descriptiva
Sistemas no lineales
298
Desfase
-30
-60
-90
0.0
0.2
0.4
0.6
0.8
1.0
b/A
13.3
An
alisis de sistemas no lineales mediante
la funci
on descriptiva
Sistemas no lineales
299
G(s)
-
H(s)
G(s)H(s)
plano s
-1
13.3.1
Una ampliaci
on del criterio de Nyquist
Sea el sistema lineal de la figura 13.14, cuya ecuacion caracterstica resulta ser
1 + G(s)H(s) = 0
(13.21)
Sistemas no lineales
300
Im
0 +
G(s)
G(s)H(s)
-1
Re
H(s)
1/k
x(t)
N (A, )
Elemento lineal
v(t)
G(j)
y(t)
1
(13.23)
k
Es facil ver que en este caso el criterio de Nyquist se aplica igual que en el caso
anterior (de la figura 13.15) con la diferencia de que ahora N representa el n
umero
de veces que el contorno de Nyquist de GH rodea al punto 1/k, lo que se ilustra
en la figura 13.16.
G(s)H(s) =
13.3.2
Sistemas no lineales
301
1
N (A, )
(13.26)
(13.27)
Sistemas no lineales
302
G(j)
Im
Re
A
1/N (A)
13.3.3
Funci
on descriptiva independiente de la frecuencia
1
N (A)
(13.28)
13.3.4
Funci
on descriptiva dependiente de la frecuencia
Sistemas no lineales
303
1/N (A, )
Im
G(j)
4
A
3
2
Re
Figura 13.19: Determinacion de ciclos lmite con funciones descriptivas dependientes de la frecuencia.
A1
A2
A3
A4
-1
G(j)N (A, )
Sistemas no lineales
304
Im
G(j)
L2
L1
1/N (A, )
Re
L01
L1
13.3.5
Con los ciclos lmites sucede lo mismo que con los equilibrios: que pueden ser
estables o inestables. Las soluciones de la ecuacion (13.27) deben someterse a
un analisis de estabilidad, para determinar cuales de ellas son estables y cuales
no. El criterio de Nyquist ampliado que hemos visto en la seccion 13.3.1, permite
analizar esa estabilidad. Considerese la figura 13.21 en la que se muestran las
intersecciones entre la funcion de transferencia de la parte lineal y la inversa
de la funcion descriptiva de la parte no lineal. Estas dos curvas presentan dos
puntos de interseccion, L1 y L2 , por lo que el sistema presenta dos ciclos lmites.
Observese que el valor de A correspondiente al punto L1 es menor que el de A
correspondiente a L2 . Supongase que la funcion de transferencia de la parte lineal
G(j) no posee polos inestables.
Vamos a analizar primero la estabilidad del ciclo lmite correspondiente al
punto L1 . Considerese que el sistema se encuentra inicialmente operando en el
punto L1 , con un ciclo lmite de amplitud A1 y cuya frecuencia en 1 . Debido a
una peque
na perturbacion, la amplitud de la se
nal de entrada al sistema no lineal
se incrementa ligeramente, y el punto de operacion del sistema se mueve de L1 a
L01 . Puesto que el nuevo punto L01 se encuentra a la derecha de la curva G(j), de
acuerdo con el criterio de Nyquist ampliado que se ha visto en la seccion 13.3.1,
el sistema es inestable, en este punto de operacion, y las amplitudes del sistema
tienden a crecer. Por consiguiente, el punto de operacion seguira creciendo a lo
largo de curva 1/N (A, ) hasta el punto L2 . Por otra parte, si el sistema se
perturba de modo que la amplitud A decrece, entonces el punto de operacion se
movera al punto L001 . En este caso el punto L001 queda a la izquierda de G(j) y
Sistemas no lineales
305
(13.29)
(13.30)
agrupando los terminos correspondientes a sus partes real e imaginaria. Por otra
parte, la soluciono(13.29) debe satisfacer tambien la anterior ecuacion dando lugar
a:
X(A + A, + + j) + jY (A + A, + + j) = 0
(13.31)
Desarrollando en serie de Taylor esta expresion, y tomando u
u
nicamente los
terminos de primer orden en A, y , se tiene:
X
+
Y
+
X
Y
A
= 0
A
Y
X
A +
= 0
A
Eliminando :
!2
Y
+
!2
!
Y
X
Y
X
=
Sistemas no lineales
306
Para que la oscilacion sea estable es necesario que y A sean del mismo
signo, lo que exige que:
X Y
Y X
A
A
>0
(13.32)
Q U
P V
A
A
>0
>0
d
dA
Este producto vectorial permite la interpretacion geometrica que se muestra en
la figura 13.21. De acuerdo con ella, un ciclo limite sera estable si recorriendo
G(j) en el sentido de las crecientes, en el punto de corte con C(A), se deja a
la izquierda el sentido de las A crecientes, en la curva de C(A) = 1/N (A).
figura: Criterio de estabilidad de ciclos llimite.
De este modo se ha demostrado con rigor el resultado que previamente se
haba obtenido por consideraciones un tanto laxas con respecto al criterio de
Nyquist.
Sistemas no lineales
307
r=0 +
G(s)
-
Sistemas no lineales
308
K
s(s + 2)(s + 5)
10 y una
Sistemas no lineales
309
Im
G2 (j)
A
P0
P P
Re
13.3.6
Fiabilidad del an
alisis mediante funciones descriptivas
Sistemas no lineales
310
a)
Figura 13.24:
b)
Sistemas no lineales
311
13.4
13.4.1
Teora de Lyapunov
13.4.2
Un ejemplo introductorio
Sea el sistema de la figura 13.25, constituido por una masa (m = 1), que se
desplaza sobre una lnea recta, y que esta unida a una pared por medio de un
resorte y de un amortiguamiento. Se supone que el resorte y el amortiguamiento
son no lineales. El resorte ejerce una fuerza k(x) que depende del desplazamiento
x de la masa de la posicion de equilibrio. La forma de k(x) se representa en la
figura 13.26. El amortiguador ejerce una fuerza proporcional al valor instantaneo
de la velocidad dx/dt de la masa, de manera que el factor de proporcionalidad
este dado por h(x). El balance de fuerzas sobre el sistema conduce a la siguiente
ecuacion.
d2 x
dx
+ h(x) + k(x) = 0
(13.33)
2
dt
dt
Esta ecuacion puede escribirse, empleando las variables de estado x1 = x y
x2 = dx/dt, como sigue,
x 1 = x2
x 2 = k(x1 ) x2 h(x1 )
(13.34)
La energa total del sistema V esta formada por la energa cinetica de la masa
en movimiento y la energa potencial almacenada en el resorte, y viene dada por,
V (x1 , x2 ) =
x22 Z x1
+
k(x1 )dx
2
0
(13.35)
Sistemas no lineales
312
x
k(x)
h(x)
(13.36)
lo que, dicho en palabras, significa que la energa del sistema es siempre positiva
excepto cuando el sistema esta en reposo.
Interesa ahora averiguar como evoluciona la energa del sistema con el tiempo.
Para ello se determina la derivada total de V con respecto al tiempo que resulta
ser,
dV
V dx1
V dx2
=
+
(13.37)
dt
x1 dt
x2 dt
de donde se obtiene, teniendo presente 13.34 y 13.35,
dV
= k(x1 )x2 + x2 [k(x1 ) x2 h(x1 )] = x22 h(x1 )
dt
(13.38)
Se supondra que h(x) > 0 para todo x. Fsicamente, ello representa un amortiguamiento positivo, es decir, que la fuerza que ejerce el amortiguador se opone
siempre al movimiento.
En consecuencia, dV /dt es negativa, excepto en los puntos en donde la velocidad sea nula en los cuales dV /dt es, a su vez, nula. En consecuencia, la energa del
sistema no puede aumentar ni puede permanecer constante excepto en el estado
de equilibrio; por consiguiente, la energa debe siempre decrecer hasta alcanzar el
estado de equilibrio, en donde permanece constantemente igual a cero. Observese
que lo que sucede es que el sistema pierde progresivamente su energa, suma de
la cinematica y la potencial, en un proceso disipativo debido al amortiguamiento
Sistemas no lineales
313
k(x)
V3
V2
V1
V3 > V 2 > V 1
Sistemas no lineales
314
13.4.3
Noci
on de estabilidad en el sentido de Lyapunov
Sistemas no lineales
315
para alg
un t0 y para todo t > t0 .
La anterior definicion indica que si el sistema se encuentra en el estado de
equilibrio y no se le aplica ninguna se
nal de entrada, permanece indefinidamente en dicho estado. Formalmente, un estado de equilibrio es una solucion
del sistema de ecuaciones,
xe = (t, t0 )xe
(13.41)
(13.42)
13.4.4
Teorema de Lyapunov
Sistemas no lineales
316
V (x) = k
x0
Sistemas no lineales
317
Demostraci
on
Una funcion V (x) tal que satisfaga las condiciones del teorema anterior, recibe
la denominacion de funcion de Lyapunov.
La existencia de una funcion de Lyapunov garantiza la estabilidad de un
sistema. En efecto, considerese el espacio bidimensional que se muestra en la
figura 13.28. Considerese ademas, sin perdida de generalidad, que el origen es un
estado de equilibrio, cuya estabilidad se quiere analizar. Para que el sistema sea
estable, debe demostrarse que dado un cierto > 0, entonces existe > 0 tal que
(k x0 k< ) (k (t, t0 , x0 , 0) k< )
(13.43)
para todo t > t0 . Sea tal como se muestra en la figura 13.28. Puesto que existe
una funcion de Lyapunov V (x), esta funcion sera tal que V (x) > 0 para todo
x 6= 0.
Considerese el contorno de V (x) = k, para todo x . Se elige un valor de
tal que sea la menor distancia entre el estado de equilibrio y la curva V (x) = k.
Considerese cualquier x0 situado en el interior del circulo definido por el radio .
Se tendra que V (x0 ) < k.
El anterior teorema puede modificarse para el caso de la estabilidad asintotica,
sencillamente cambiando la condicion de que V (x) sea semidefinida negativa,
por la de que sea definida negativa. La demostracion del teorema, con esta
modificacion, es muy simple.
Ejemplo
Considerese el sistema no-lineal descrito por ,
x 1 = x2 x1 (x21 + x22 )
x 2 = x1 x2 (x21 + x22 )
Si se adopta
V (x) = x21 + x22
Se tendra
Sistemas no lineales
13.4.5
318
Aplicaci
on del m
etodo de Lyapunov a sistemas lineales
Supongase un sistema caracterizado por la terna (A, b, c). Se trata de establecer criterios que permitan discernir si un sistema sera estable o no a partir del
conocimiento de las matrices que constituyen la anterior terna.
Para un sistema lineal, la transicion entre estados puede descomponerse en
una transicion con entrada nula, y una transicion a partir del estado nulo, de
acuerdo con la siguiente expresion:
x(t) = (t1 , t0 , x0 , u) = (t1 , t0 , x0 , 0) + (t1 , t0 , 0, u)
(13.44)
(13.45)
(13.46)
La estabilidad en el sentido de Lyapunov tal como se ha definido anteriormente, exige que |x(t)| < k, para todo t. De la observacion de la expresion
13.46, se tiene que el que |x(t)| < k es equivalente a que k eAt k< k, en donde
k eAt k representa la norma de la matriz eAt .
Por otra parte se sabe que A se puede escribir,
A = P A P 1
(13.47)
Sistemas no lineales
319
(13.49)
y(t) =
Z t
t0
g(t, ) u( ) d
(13.50)
Por otra parte, la respuesta de un sistema a una entrada nula, viene dada por
la solucion del sistema de ecuaciones diferenciales siguiente,
x = Ax
(13.51)
Sistemas no lineales
320
(13.52)
Para estudiar las aplicaciones del metodo de Lyapunov al estudio de la estabilidad de sistemas lineales, estacionarios, conviene introducir previamente la
nocion de matriz definida positiva.
Una matriz Q se dice definida positiva si la forma cuadratica xT Qx es positiva
definida. Se escribe entonces Q > 0.
De forma analoga se define una matriz semidefinida positiva, definida negativa
y semidefinida negativa (y se escribe Q 0, Q < 0, y Q 0, respectivamente).
Para determinar si una matriz Q es definida positiva , se aplica el criterio de
Sylvester, el cual establece que la matriz Q es definida positiva si se cumple que
q11 > 0,
det
q11 q12
q21 q22
> 0,
= Ax(t)
(13.53)
(13.54)
Sistemas no lineales
321
Demostraci
on
1. Necesidad
Supongase que 13.53 es asintoticamente estable. Entonces para cualquier
P > 0 se define Q como,
Q=
Z
0
eA P eA d
A Q + QA =
=
Z
Z0
0
AT eA P eA + eA P eA A d
d eA P eA = P
Sistemas no lineales
322
0 2
1 1
q11 q12
q12 q22
q11 q12
q12 q22
0
1
2 1
1
0
0 1
7
4
por lo tanto,
q12 =
Q=
1
4
q22 =
7/4 1/4
1/4 3/4
3
4
Sistemas no lineales
y V viene dada por,
323
V = x21 x22
V = x22
13.5
Construcci
on de funciones de Lyapunov con
formas cuadr
aticas
f (0) = 0
(13.55)
n
X
fij (xj )
(13.56)
j=1
n
X
fij (xj )
j=1
xj
xj
Sistemas no lineales
324
lo cual significa que cada funcion fij (es decir, cada caracterstica no lineal del
sistema) tiene en el origen una pendiente no nula. Todas las caractersticas que
se han visto hasta ahora cumplen esta propiedad. En consecuencia, la expresion
(13.55) puede escribirse
x = F (x)x
(13.57)
siendo
F (x) =
fij (xj )
xj
QT = Q
= xT F T (x)Q + QF (x) x
De donde se concluye que si Q es definida positiva y si P , definida por
Ejemplo
Sea el sistema representado en la figura 13.29. Este sistema esta formado por
una parte lineal y un bloque no lineal, que posee la caracterstica h. Se supone
que la referencia es u = 0, y que la caracterstica es tal que h(0) = 0. Se trata de
estudiar su estabilidad.
Sistemas no lineales
u +
325
+
-
x2
x1
y
z = h(y)
Figura 13.29:
Para ello, en primer lugar se escribe su descripcion interna
x 1 = x1 + 5x2
x 2 = h(x1 ) x2 + u
que, a su vez, se puede reescribir de la forma (13.57).
x 1
x 2
!
!
1
5
0
x1
= h(x1 )
+
u
x2
1
1
x1
siendo
(13.58)
1
5
F (x) = h(x1 )
1
x1
Puesto que u = 0 la expresion (13.58) es de la forma (13.57).
(13.59)
x1 x2
q1 0
0 q2
x1
x2
2q1
q2
h(x1 )
5q1
x1
h(x1 )
q2
5q1
x1
2q2
La estabilidad del sistema (13.57) estara garantizada siempre que P (x) sea definida
positiva. Para ello se requiere que
q1 > 0
Sistemas no lineales
326
h(x)
Figura 13.30:
h(x1 )
4q1 q2 q2
5q1
x1
!2
>0
h(x1 ) 5
1
x1
4
!2
>0
que conduce a
9
h(x1 )
1
>
>
4
x1
4
Esta desigualdad se puede interpretar graficamente como se hace en la figura
13.30. De acuerdo con esta figura la caracterstica del sistema no lineal H debe
estar comprendida entre las rectas de pendientes 9/4 y 1/4. Si la caracterstica
H cumple esta condicion el sistema tiene garantizada su estabilidad.
Sistemas no lineales
13.5.1
327
M
etodo de Krasovkii
V (x) = kxk
2 = f T (x)f (x) 0
(13.61)
f
x
x
!T
f (x) + f T (x)
f
x
x
f
x
(13.62)
y
P (x) = [F T (x) + F (x)]
(13.63)
Ejemplo
Sea el sistema dinamico
x 1 = ax1 + x2
x 2 = x1 x2 x32
tal que a > 1. Su u
nico equilibrio en x = 0.
Sistemas no lineales
328
F (x) =
a
1
1 1 3x22
y recordando (13.63)
P (x) =
2a
2
2 2 + 6x22
Ejemplo
Sea el sistema dinamico de la figura 13.5.1, en el que se tienen dos se
nales de
entrada u1 y u2 , dos se
nales de salida y1 y y2 , y dos no linealidades cuyas caractersticas vienen dadas por g1 y g2 . Se trata de estudiar la estabilidad de este
sistema.
Las ecuaciones del sistema dinamico correspondiente resultan ser
x 1 = g1 (x1 ) + g2 (x2 ) + u1
x 2 = x1 ax2 + u2
Se supone que u1 = u2 = 0 con lo que el sistema anterior se convierte en un
sistema autonomo. Se supone ademas que g1 (x1 ) = 0 y g2 (x2 ) = 0. Recordando
la expresion (13.62) se tiene
g1
F (x) = x1
1
g2
x2
a
Sistemas no lineales
329
u1 = 0
+
+
y1
x1
-
z1 = g1 (y1 )
z2 = g2 (y2 )
u2 = 0
x2
+
+
y2
P (x) =
g2
g1
2
1+
x2
x1 !
g2
1+
2a
x2
g1
> 0,
x1
g2
g1
1+
3. 4a
x1
x2
!2
> 0.
Sistemas no lineales
330
pendiente siempre
positiva
x1
g1
a x
1
Estable
Inestable
-1
g2 (x2 )
x2
Tema 14
Introducci
on a la optimizaci
on de
sistemas din
amicos
14.1
Introducci
on
332
14.2
Optimizaci
on Est
atica.
14.2.1
Minimizaci
on de funciones
Sea D un subconjunto de n
umeros reales x, dado por D = {x | x0 < x < x1 } y
sea f una funcion real tal que f : D R. Se dice que f tiene un mnimo local
(relativo) en x si existe un entorno N de x tal que
f = f (x) f (x ) 0, x N
en tal caso se tiene,
x = (x x ) > 0, f > 0, =
f
>0
x
f
<0
x
Estos conceptos se ilustran en la figura 14.1. Es sabido que la condicion necesaria
para tener un mnimo es:
df
=0
dx
Mientras que la suficiente es:
d2 f
>0
dx2
x = (x x ) < 0, f > 0, =
333
xo x x
x1
df
dx
d2 f
dx2
x
Figura 14.2: Derivadas sucesivas en un mnimo
334
"
f
f
=
x
xi
2f
H=
xi xj
2f
H=
xi xj
Restricciones o Ligaduras
Supongase que se trata de minimizar f (x) con la condicion adicional de que el
mnimo este localizado en el subespacio definido por g(x) = 0
g : Rn Rm
Metodo particular: eliminar m de las variables x1 , ..., xn en g(x) = 0 y sustituir
en f (x). Se tiene entonces una funcion de (n m) variables que se resuelve como
mas arriba. Esto no siempre es posible. En tal caso se emplea el metodo de los
multiplicadores de Lagrange.
335
f
f
dx1 +
dx2 = 0
x1
x2
f
g
dx2
x
x
= 1 = 1
f
g
dx1
x2
x2
f
x1
f
x2
g
x1
g
x2
deben ser proporcionales para un valor de x(t) candidato al mnimo (o maximo).
Sea esta constante de proporcionalidad
f
f
x1
x2
=
=
g
g
x1
x2
Si se define la lagrangiana
L(x, ) = f (x) + g(x)
se tiene que
L
=0
x
es equivalente a (14.1), mientras que:
L
=g=0
(14.1)
336
Ejemplo
Determinar un punto, en un espacio tridimensional, que minimice la funcion
f (x1 , x2 , x3 ) = x21 + x22 + x23
y que este situado en la interseccion de la superficies
x3 = x1 x2 + 5
x1 + x2 + x3 = 1
Se define la lagrangiana
L = x21 + x22 + x23 + 1 (x1 x2 + 5 x3 ) + 2 (x1 + x2 + x3 1)
lo que conduce a las ecuaciones para el mnimo
L
x1
L
x2
L
x3
L
1
L
2
= 2x1 + 1 x2 + 2 = 0
= 2x2 + 1 x1 + 2 = 0
= 2x3 1 + 2 = 0
= x1 x2 + 5 x3 = 0
= x1 + x2 + x3 1 = 0
La solucion esta formada por los dos equilibrios (2, 2, 1) y (2, 2, 1).
14.3
Introducci
on al control
optimo
(14.2)
337
Z T
0
(14.3)
(14.4)
La se
nal u (t) recibe la denominacion de se
nal de control optima. Esta se
nal
constituye una prescripcion del conjunto de valores que debe tomar la se
nal de
entrada (de control) u durante el intervalo [0, T ].
En algunos problemas interesa en lugar de disponer de la se
nal de control
14.3.1
338
Ejemplos
El problema del control optimo esta formado basicamente por un sistema dinamico
de la forma (14.2) y por un criterio a optimizar de forma (14.3). Vamos a dedicar
esta seccion a presentar algunos ejemplos de criterios de funcionamiento de la
forma (14.3).
Problema del tiempo mnimo
Se da el tiempo t = 0 y el estado inicial x(0) = x0 . El estado final se requiere
que se encuentre en una cierta region S X T . S es el conjunto objetivo (si el
estado final esta fijado de antemano, el conjunto S es una recta).
El objetivo del problema es transferir el estado del sistema desde x0 a S en
un tiempo mnimo. El criterio de funcionamiento es:
J = T
=
Z T
0
dt
Z T
t0
u2 (t)dt
Z T
t0
uT (t)u(t)dt
Para permitir mayor generalidad se puede considerar una matriz definida positiva
R de modo que
Z
J=
t0
uT (t)Ru(t)dt
Normalmente R es diagonal (si es definida positiva todos sus elementos son positivos). Los distintos valores de diag(R) representan el peso relativo que se asigna
a cada variable de control en el gasto de energa.
339
J=
| u(t) | dt
(siendo u la tasa de flujo del combustible - empuje del cohete), (o del vehculo
espacial que se esta maniobrando). Si existen varios propulsores
J=
Z T
0
En general
J=
Z T
0
xT (t)Qx(t)dt
340
Z T
0
xT (t)Qx(t)dt
J = x (T )Hx(T ) +
Z T
0
J=
Z
0
J = y (T )Hy(T ) +
Z T
0
[y T (t)Qy(t) + uT (t)Ru(t)]dt
J = e (T )He(T ) +
siendo e = x r.
Z T
0
c1
341
c2
q1
q2
h
V, c
q
14.3.2
(14.5)
d[c(t)v(t)]
= c1 (t)q1 (t) + c2 (t)q2 (t) c(t)q(t)
dt
(14.6)
q(t) = k h(t) = k
v(t)
a
(14.7)
342
343
k v(t)
q(t) q0 =
|v=v0 (v(t) v0 )
a v(t)
Es decir
k v0
q(t) =
v(t)
(14.8)
2v0 a
De este modo la relacion entre la variacion q(t) del caudal con respecto al valor
en regimen estacionario, y la correspondiente al volumen v(t), queda linealizada.
Llevando las definiciones de las variaciones v(t), q1 (t), q2 (t) y c(t) a las expresiones
(14.5) y (14.6) y tendiendo en cuenta la definicion del regimen estacionario y
(14.8) se tiene que
d
v (t)
1 q0
v(t)
= q1 (t) + q2 (t)
dt
2 v0
d
c(t)
d
v (t)
1 c 0 q0
v0 + c0
= c1 q1 (t) + c2 q2 (t)
v(t) q0 c(t)
dt
dt
2 v0
v0
=
q0
Si se escribe
x1
x2
u1
u2
y1
y2
=
=
=
=
=
=
v
c
q1
q2
q
c
v0
q0
se tiene que las ecuaciones del sistema dinamico linealizado pueden escribirse de
la forma siguiente:
=
x 1
x 2
1
2
=
1
0
x + c1 c0
1
v0
1
c2 c0 u
v0
344
Z
0
(xT Qx + uT Ru)dt
Q=
q1 0
0 q2
R=
r1 0
0 r2
q2
100
q1
0.01
Q=
0.01 0
0 100
0.5
r2
r1
2
y por tanto
R=
2 0
0 0.5
14.4
345
(14.9)
Z T
0
(14.10)
346
14.5
C
alculo de variaciones
El calculo de variaciones es la rama de las matematicas que se ocupa de determinar las trayectorias que minimizan o maximizan un funcional. Conviene que
dediquemos alg
un espacio al concepto de funcional.
14.5.1
Sea X una clase de funciones x(t) definidas en el intervalo [0,t]. Si a toda funcion
x(t) X se asocia, de acuerdo con una regla, un n
umero J se dice que en la clase
X esta definido el funcional J y se escribe J = J[x(t)]. La clase X se denomina
campo de definicion del funcional. Para nosotros, la clase de funciones X sera la
347
clase de se
nales x(t) definidas en el intervalo [0, T ]. En la figura 14.5 se ilustra
como a cada se
nal x(t) definida en [0, T ] corresponde un valor de J, que es un
n
umero real.
Ejemplo
Sea X = C[0, T ] el conjunto de todas las funciones contnua x(t) definidas en el
intervalo [0, 1] y sea el funcional
J[x(t)] =
Z 1
0
x(t)dt
o si x(t) = e , se tiene
J[x(t)] =
Z 1
0
ex dt = e 1
Ejemplo
Sea X = C1 [a, b] la clase de funciones x(t) que tiene derivada contnua x en el
intervalo [a, b]. Entonces la funcional
J[x(t)] =
Z b
a
1 + x 2 dt
348
x
M (1, 1)
Figura 14.4: se
nales x(t) = t y x1 (t) = t2 .
1. J[cx(t)] = cJ[x(t)],
2. J[x1 (t) + x2 (t)] = J[x1 (t)] + J[x2 (t)],
en donde c es una constante cualquiera y x1 (t) X y x2 (t) X. Por ejemplo, el
funcional
Z b
J[x(t)] = (x + x)dt
a
es lineal.
Interesa introducir conceptos que permitan formalizar la proximidad entre
se
nales. Se dice que las se
nales x(t) y x1 (t) definidas en el intervalo [a, b] son
cercanas con proximidad de orden nulo si el valor de |x(t) x1 (t)|, que mide la
distancia entre ellas para cada valor de t, es peque
no en todo el intervalo [a, b].
Desde un punto de vista geometrico esto significa que las dos se
nales toman
valores cercanos en cada instante de tiempo del intervalo considerado.
Analogamente, se define la distancia entre dos se
nales x(t) y x1 (t) (a t b)
como el n
umero no negativo igual al maximo del modulo |x1 (t) x(t)|; es decir,
= [x1 (t), x(t)] = max |x1 (t) x(t)|
atb
Ejemplo
Determinar la distancia entre las se
nales x(t) = t y x1 (t) = t2 (figura 14.4). De
acuerdo con la definicion
= max |t2 t|
0t1
= max (t t2 )
0t1
349
Se denomina variaci
on o incremento x(t) del argumento x(t) de un funcional
J[x(t)] a la diferencia entre dos se
nales x(t) y x0 (t) pertenecientes a la clase X
de funciones considerada; es decir
x(t) = x(t) x0 (t)
Se define el entorno de orden n de una se
nal x = x1 (t) como el conjunto de
las se
nales x = x(t) cuyas distancias de orden n a la se
nal x1 (t) son menores que
; es decir
n = n [x1 (t), x(t)] <
Definido el concepto de entorno de una se
nal, es posible introducir el de continuidad de un funcional. Un funcional J[x(t)] definida en la clase de funciones
X se llama contnua en x = x0 (t) si para todo > 0 existe > 0 tal que la desigualdad J[x(t)] J[x0 (t)] < se satisface para todas las se
nales que satisfacen
n = n [x(t), x0 (t)] <
Sea J[x(t)] un funcional, se define el incremento de J[x(t)] como
J = J[x(t)] = J[x(t) + x(t)] J[x(t)]
siendo
x(t) = x(t) x(t) x(t) X, x(t) X
350
(14.11)
Ejemplo
Sea el funcional
J[x(t)] =
Z b
xdt
Z b
a
Z b
a
(x + x)dt
Z b
a
xdt
xdt
Ejemplo
Sea el funcional
J[x(t)] =
Z b
a
x2 dt
Se tiene que
J =
=
=
Z b
a
Z b
a
(x + x) dt
2xxdt +
Z b
a
Z b
a
x2 dt
(x)2 dt
351
(x) dt =
Z b
a
|x|2 dt
( max |x|)2
Z b
atb
dt
= (b a)||x||2
= [(b a)||x||]||x||
y para ||x|| 0, se tiene que
(b a)||x|| 0
Es decir, el incremento J del funcional es la suma de G[x, x] y un termino de
segundo orden con relacion a ||x||. Recordando la expresion (14.11) se tiene que
el funcional considerado es diferenciable para todo x(t) y su variacion es
J = 2
Z b
a
xxdt
2
Un funcional J[x(t)] se dice que alcanza su m
aximo para la se
nal x = x0 (t)
si los valores que toma el funcional para cualquier se
nal proxima a x0 (t) no son
mayores que J[x0 (t)]; es decir si
J = J[x(t)] J[x0 (t)] 0
Si J 0 x(t) 6= x0 (t) y J = 0 solo para x = x0 (t), se dice que se alcanza
un m
aximo estricto para x = x0 (t). Para todas las se
nales proximas a x = x0 (t)
se tiene que J 0.
Ejemplo
Sea el funcional
J[x(t)] =
Z 1
0
(x2 + t2 )dt
Z 1
0
(x2 + t2 )dt
Z 1
0
t2 dt =
Z 1
0
x2 dt 0
352
L(x, x,
t)dt
J
x
J(x)
14.5.2
Ecuaciones de Euler
353
xo (t)
x1 (t)
x (t)
T
Figura 14.6: Ilustracion de la variacion x(t) de una funcion x(t).
Problema
Determinar los valores de x(t), en el periodo [0, T ] que minimicen (o maximicen) el funcional
J=
Z T
0
L(x, x,
t)dt
x(T ) = b
Z T
0
[L(x + x, x + x,
t) L(x, x,
t)]dt
se
tendra
L(x + x, x + x,
t) L(x, x,
t) =
L
L
x +
x + R(x, x,
x, x,
t)
x
x
Z T
L
0
354
Z T
L
x +
x dt +
R(x, x,
x, x,
t)dt
x
x
0
Esta expresion tiene la misma forma que (14.11). En efecto, el primer termino
del segundo miembro es lineal en x, x.
El segundo, esta formado por terminos
de orden superior al primero. Por tanto, se tendra que la variacion de primer
orden de J vendra dada por
Z T"
L
J(x, x) =
L
x +
x dt
x
x
(14.12)
Z T"
L
d L
L
xdt +
x |T0
x dt x
x
Z T"
L
0
d L
xdt
x dt x
(14.13)
una variacion x(t). Si existe un valor de x (t) tal que para este valor de x(t) el
funcional J toma un valor mnimo (o maximo), entonces sucedera que
J(x, x) = 0
este resultado es analogo a la condicion necesaria para la minimizacion (o maximizacion) de funciones ordinarias y se conoce como la condici
on necesaria fundamental del calculo de variaciones. Llevando este resultado a (14.13) se tiene la
variacion de primer orden de J. Es decir,
Z T"
L
0
d L
xdt = 0
x dt x
Puesto que la anterior expresion debe satisfacerse para cualquier variacion x(t)
de x(t), ello solo sera posible si
d L
L
=0
x dt x
La solucion de esta ecuacion diferencial en x es x (t). Esta ecuacion recibe la
denominacion de ecuaci
on de Euler.
355
x(T ) = b
A partir de estas dos ecuaciones se pueden determinar las dos constantes que
aparecen en la solucion de la ecuacion de Euler.
En el desarrollo anterior se ha considerado que x era un escalar. Los resultados
obtenidos se generalizan con toda facilidad para el caso en que x sea un conjunto
de n se
nales. El funcional a optimizar es de la forma
J(x) =
Z T
0
L(x, x,
t)dt
(14.14)
L
d L
=0
xi dt xi
para i = 1, 2, ..., n.
Observese que se tiene un conjunto de n ecuaciones diferenciales. Su solucion
comportara 2n constantes, para cuya determinacion se necesitaran 2n ecuaciones,
que vendran dadas por las condiciones de contorno.
En el caso de funcionales que implican n funciones independientes se tienen
n ecuaciones de Euler; cada ecuacion es, en general, una ecuacion diferencial
356
Ejemplo
Determinar las trayectorias optimas que minimicen los funcionales siguientes:
a) sea el funcional
J=
Z b
a
es decir
L = 2x1 x2 2x21 + x1 2 x2 2
se tiene,
L
x1
L
x2
L
x1
L
x2
= 2x2 4x1
= 2x1
= 2x1
= 2x2
Las ecuaciones de Euler en este caso dan lugar al siguiente sistema de ecuaciones
diferenciales:
d2 x1
2x2 4x1 2 2 = 0
dt
2
d x2
2x1 + 2 2 = 0
dt
357
x1 (t) =
d2 x2
dt2
Z b
a
1 + x 2 dt
(14.15)
L(x, x)
= 1 + x 2
358
x
B
A
L
=0
x
L
x
=
x
1 + x 2
por lo tanto, la ecuacion de Euler, en este caso, se reduce a:
d
x
=0
dt 1 + x 2
ecuacion diferencial que, a su vez, se reduce a
d2 x
=0
dt2
cuya integracion conduce a
x (t) = c1 t + c2
que, aplicando las condiciones de contorno, se convierte en
x(t) =
con lo que queda demostrado lo que ya sabamos: que la distancia mnima entre
dos puntos es una recta.
Restricciones o ligaduras
Supongase que existen unas determinadas ligaduras (o restricciones) en las trayectorias posibles de x(t). Es decir, de todas las trayectorias posibles que unan el
359
estado inicial con el estado final, solo son admisibles aquellas que, ademas, satisfagan una ecuacion de la forma
g(x, x,
t) = 0
(14.16)
En este caso se tiene un problema de optimizacion con restricciones. En el estudio de los maximos y mnimos de funciones ordinarias se aplicaba el metodo de
Lagrange para resolver el problema. En el estudio de la optimizacion funcional, se
aplica igualmente una generalizacion del metodo de Lagrange. La demostracion
de esta generalizacion no se hara aqu, pero sin embargo s se enunciara el metodo.
Supongase que se trata de optimizar un funcional tal como el de la expresion
(14.14), en donde x(t) esta sometido a las restricciones dadas por la expresion
(14.16). Entonces se puede formar el funcional (funcional aumentado)
J0 =
Z T
0
[L(x, x)
+ g(x, x)]
dt
en donde el multiplicador de Lagrange (t) es una funcion del tiempo. El problema queda reducido a optimizar el nuevo funcional J 0 con relacion a x y a
.
El metodo se generaliza facilmente para el caso en que x sea un vector, y el
n
umero de restricciones sea un n
umero finito m.
14.5.3
Z T
0
L(x, x,
t)dt
de manera que x(0) tome un valor previamente determinado, y x(t) sea tal que se
encuentre sobre una determinada trayectoria. Es decir, ni x(T ) ni T estan fijados
de antemano, sino que ambos estan ligados por una determinada expresion.
360
x(0)
x (T )
x(T
f )T
xf
T + T
361
Z T +T
0
L(x + x, x + x,
t)dt
Z T
0
L(x, x,
t)dt
Z T +T
T
L(x+x, x+
x,
t)dt+
Z T
0
[L(x+x, x+
x,
t)L(x, x,
t)]dt (14.17)
#
Z T"
L
L
x +
x dt
[L(x + x, x + x,
t) L(x, x,
t)]dt
=
0
En donde el signo
= denota la aproximacion de primer orden. Integrando por
partes el segundo termino del segundo miembro de la anterior expresion, se tiene,
Z T
0
#
Z T"
L
d
L
L
[L(x + x, x + x,
t) L(x, x,
t)]dt
xdt +
x |T0
=
0
dt x
L
[L(x + x, x + x,
t) L(x, x,
t)]dt
x |T0
=
x
(14.19)
362
(14.20)
)T + x(T )
= x + x(T
o sea,
x(T ) = xf x(T
)T
(14.21)
L
|T [xf x(T
)T ] + L(x, x,
t) |T T
x
L
L
t) x
|T T = 0
|T xf + L(x, x,
x
x
(14.22)
363
x(0)
0
Figura 14.10: Trayectorias con el tiempo final T fijo y el estado final x(T ) libre.
x(T )
x(0)
Figura 14.11: Trayectorias con el estado final x(T ) fijo y el tiempo final T libre.
364
L
L(x, x,
t) x
|T = 0
x
L
L(x, x,
t) + (y x)
|T T = 0
x
y 0 (T )
y(t)
x(0)
T + T
Figura 14.12: Trayectorias con el estado final definido sobre la curva y(t).
Descripcion
Condiciones
del problema de contorno
Notas
1. T, x(T )
fijos
x (t0 ) = x0
x (T ) = xf
2n condiciones para
2n constantes
de integracion
2. T fijo y
x (t0 ) = x0
L
=0
x T
2n condiciones para
2n constantes
x (t0 ) = x0
x" (T ) = xf
2n + 1 condiciones para
2n constantes
x(T ) libre
3. T libre y
x(T ) fijo
L
L(x, x)
x
x
4. T y x(T )
libres, pero
ligadas por
x(T ) = (T )
x (t0 ) = x0
x" (T ) = (T )
de integracion
=0
de integracion y T
L
L(x, x)
+ (y x)
=0
2n + 1 condiciones para
2n constantes
de integracion y T .
365
366
Ejemplo 3
Considerese una variante del ejemplo 2, en la que se trata de determinar la trayectoria mnima entre el origen y la recta y(t) = 2 t (figura 14.13). Del ejemplo
y
2
t
1+
x (T )2
+q
x (T )
1 + x (T )2
[y(T
) x (T )] = 0
c1
1 + c21 q
1 + c21
[1 + c1 ] = 0
De donde se obtiene
c1 = 1
por lo que la trayectoria mnima viene dada por
x = t
367
Tema 15
M
etodos Variacionales en
Control Optimo
15.1
Aplicaci
on del c
alculo de variaciones a la
resoluci
on del problema del Control Optimo
(15.1)
Z T
0
L(x, u)dt
(15.2)
Se trata de determinar la se
nal de control optima u (t) en el intervalo (0, T ).
Se pueden presentar dos casos, seg
un que se pueda o no dejar explcita u en
la expresion (15.1).
15.1.1
Se puede eliminar u
369
Z T
0
L(x, g(x, x,
t), t)dt
Z T
J=
L0 (x, x,
t)dt
(15.3)
(15.4)
Ejemplo 1
Sea el sistema descrito por la ecuacion:
x = x + u
se trata de determinar u(t) que minimice
J=
Z 1
0
(x2 + u2 )dt
Z 1
0
Z 1
0
es decir,
L = 2x2 + 2xx + (x)
2
Recordando la ecuacion de Euler:
L
d L
=0
x dt x
En este caso se tiene
L
= 4x + 2x
x
L
d L
dx
d2 x
= 2x + 2x
=2 +2 2
x
dt x
dt
dt
Por lo tanto la ecuacion de Euler resulta ser
d2 x
2x = 0
dt2
370
x(t) = C1 e 2t + C2 e 2t
x(t)
= 2C1 e 2t + 2C2 e 2t
Por tanto la trayectoria optima de la se
nal de mando es:
u(t) = x(t) + x(t)
= C1 (1 2)e 2t + C2 (1 + 2)e 2t
Las constantes C1 y C2 se determinan en funcion de los estados inicial y final del
sistema.
Suponiendo x(0) = 1; x(1) = 0; se tiene
C1 = 1.0628 C2 = 0.0628
Ejemplo 2
Para un integrador simple x = u encontrar la entrada de control u(t) que conduzca
al sistema desde cierto estado inicial x(0) al estado final x(t) de manera que se
minimice la integral,
Z
J=
(x2 + u2 )dt
L
L
= 2x
= 2x
x
x
371
=0
x T =1
lo que se traduce en
x(1)
=0
Por lo tanto las condiciones en los extremos son
x(0) = 1 x(1)
=0
lo que conduce a
1 = C1 + C2
C1
0 =
+ C2 e
e
Es decir, C1 = 0.88 y C2 = 0.12. El valor de J resulta ser 0.761.
372
L x
=0
x T
pues T , en T es nulo y xf no.
Por lo tanto,
L x(T
)
L
(T ) = 0
x
lo que conduce a
x(T
)=0
Se sabe por lo tanto que
x(0) = 1 x(T ) = 0 x(T
)=0
Se tienen, por tanto, tres ecuaciones con tres incognitas C1 , C2 y T . Las anteriores
ecuaciones se convierten en
1 = C1 + C2
0 = C1 eT + C2 eT
0 = C1 eT + C2 eT
Es facil ver que la solucion del anterior sistema de ecuaciones es
T =
C1 = 1
C2 = 0
ci
nendonos a valores de t > 0, es decir suponiendo que el sistema evoluciona en
el sentido de los tiempos crecientes
Luego
x(t) = et
u(t) = et (0 t < )
En este caso J = 1.
15.1.2
373
No se puede eliminar u
Z T
0
L0 (x, x,
u, )dt
en donde
L0 (x, x,
u, ) = L(x, u) [f (x, u) x]
(15.5)
d
[L + (f x)]
[L + (f x)]
=0
x
dt x
d
[L + (f x)]
(x)
=0
x
dt x
[L + f ] =
x
(15.6)
d
[L + (f x)]
[L + (f x)]
=0
u
dt u
como L + (f x)
no depende de u,
se tendra
[L + f ] = 0
u
(15.7)
374
(15.8)
El problema queda reducido a resolver el anterior conjunto de ecuaciones diferenciales para determinar u (t). Un metodo sistematico para hacerlo es el siguiente:
1. Formar la funcion de Hamilton o Hamiltoniana
H(x, u, ) = L(x, u) + f (x, u)
2. Resolver la ecuacion algebraica
H(x, u, )
=0
u
que permite obtener u (x, ).
3. Formar la hamiltoniana minimizada, llevando u a H, con lo que se tiene,
H (x, u , )
4. Resolver el sistema de ecuaciones diferenciales,
H
H
=
x
con las condiciones de contorno x(0) y x(t).
x =
(15.12)
Se da el sistema
x = f (x, u)
Se da el criterio
J=
Paso 1
Se forma la Hamiltoniana
H(x, u, ) = L(x, u) + f (x, u)
Paso 2
Paso 3
Paso 4
RT
0
L(x, u)dt
H
=
x
con las condiciones de contorno correspondientes.
Se obtiene x (t) y (t).
Paso 5
375
376
Ejemplo 3
Para el sistema
x = 2x + u
con el ndice
1Z 1 2
J=
u dt
2 0
determinar la se
nal de control optima u(t) tal que conduzca al sistema de x(0) =
1 a x(1) = 0. La resolucion del problema se descompone en los siguientes pasos:
1. Se forma la hamiltoniana, que resulta ser
H=
u2
+ (u 2x)
2
2. Se minimiza la hamiltoniana
H
=u+
u
luego,
u =
3. Se forma la hamiltoniana minimizada
2
2 2x
2
2
= 2x
2
H =
(15.13)
(15.14)
4. Se tiene
H
H
= 2x;
= 2
x
de donde se tienen las ecuaciones diferenciales (4)
2x = x
2 =
(15.15)
(15.16)
2 = 0
= k1 e2t
(15.17)
(15.18)
377
es decir,
x + 2x = k1 e2t
que constituye la solucion general de la homogenea xg = k2 e2t .
La solucion particular de la completa toma la forma xp = Ae2t . en donde,
2Ae2t + 2Ae2t = k1 e2t
luego
k1
4
La solucion de las ecuaciones diferenciales anteriores, sera de la forma,
A=
x=
k1 2t
e + k2 e2t
4
Eliminando k2 se tiene
k1 =
1
4
4
e 1 e4
luego,
=
e4 (1
4
e2t
e4 )
5. Por lo tanto,
u =
e4 (1
4
e2t
4
e )
Ejemplo 4
Sea la planta
x1 = x2
x2 = u
y el ndice de funcionamiento
J=
1Z 2 2
u dt
2 0
(15.19)
(15.20)
378
condiciones de contorno
x1 (0) = x2 (0) = 1
x1 (2) = x2 (2) = 0
1. Se forma la hamiltoniana
1
H = u2 + 1 x2 + 2 u
2
2. Se resuelve la ecuacion en u
H
=0
u
2H
=1
2u
por lo que u minimiza la Hamiltoniana.
3. Se forma la Hamiltoniana optimizada
1
1
H (x , , t) = 22 + 1 x2 22 = 1 x2 22
2
2
4. Se forman las ecuaciones de estado
x1 =
x2 =
y las de coestado
H
= x2
1
H
= 2
2
H
1 =
=0
x1
H
2 =
= 1
x2
379
(3) x2 = 2 x2 = k1 t k2 x2 (t) =
(4) x1 = x2 x1 =
k1 t2
k2 t + k3
2
Es decir
t2
k2 t + k3
2
t3
t2
x1 = k1 k2 + k3 t + k4
6
2
Para t = 0 x1 = x2 = 1, luego k3 = 1, k4 = 1.
x2 = k 1
Para t = 2 x1 = x2 = 0, se tiene k1 = 3 k2 = 72 .
Luego
ademas
3t2 7t
+1
2
2
t3 7t2
=
+t+1
2
4
x2 =
(15.21)
x1
(15.22)
7
2
7
(5) u = 2 = 3t
2
1 = 3 2 = 3t +
380
Ejemplo 5
Se trata de regular la temperatura de una habitacion con el consumo mnimo de
energa posible. Si (t) es la temperatura en la habitacion, a es la temperatura
ambiental fuera de la habitacion (que se supondra constante) y u(t) es la tasa
de calor que se inyecta en la habitacion, se sabe que el proceso viene descrito
mediante la ecuacion
= a( a ) + bu
(15.23)
en donde a y b son dos constantes que dependen del aislamiento de la habitacion.
Se define el estado como
x(t) = (t) a ,
(15.24)
(15.25)
1Z T 2
u (t)dt
2 0
(15.26)
Se tiene, por tanto, definido un problema de control optimo mediante las expresiones (15.25) y (15.26). Para su resolucion se procede mediante los cuatro pasos
anteriores.
1. Se forma la Hamiltoniana
H=
u2
+ (ax + bu)
2
(15.27)
H
= u + b
u
(15.28)
u2
+ (ax b2 )
2
(15.29)
381
(15.30)
= a
(15.31)
(15.32)
x = ax b2 (T )ea(T t)
(15.33)
s + a (s + a)(s a)
!
x(0)
b2
1/2
1/2
aT
=
(T )e
+
s+a
a
s+a sa
X(s) =
(15.34)
De modo que
b2
(T )eaT sinhat
(15.35)
a
Las expresiones (15.32) y (15.35) nos dan (t) y x (t) en funcion de el
estado inicial x(0) y el valor final de (T ).
x (t) = x(0)eat
Supongamos que la temperatura inicial de la habitacion es igual a la temperatura exterior a = 100 . Se hace
x(0) = 0
(15.36)
382
b2
(T )(1 e2aT )
2a
(15.38)
20a
b2 (1 e2aT )
(15.39)
(15.40)
(15.41)
(15.42)
(15.43)
Recordando que
eaT eaT
2
Por u
ltimo, la tasa optima de inyeccion de calor en la habitacion viene dada
por (15.29), es decir
10aeat
(15.44)
u (t) =
sinhaT
y la trayectoria optima para el estado viene dada por
sinhaT =
x (t) = 10
sinhat
sinhaT
(15.45)
15.1.3
Introducci
on de un t
ermino de control terminal
383
del valor alcanzado por el estado en el instante final x(T ) y eventualmente del
propio tiempo final T . Es decir, sea un ndice de funcionamiento de la forma
J=
Z T
0
(15.46)
J =
Z t
=
es decir
J=
Z T
0
dS
L+
dt
dt
(15.47)
dS
(15.48)
Ldt +
Z t
0
(15.49)
Observese que puesto que x(0) y el instante inicial 0 estan fijados de antemano,
la minimizacion del ndice (15.49) es equivalente a la minimizacion del ndice
(15.47). (Normalmente S(x(0), 0) = 0)
Observese que la expresion (15.47) puede escribirse tambien:
J=
Z T"
0
S
S
L+
x +
dt
x
t
(15.50)
Por lo que esta sera la forma que se adoptara para el ndice de funcionamiento en
lo que sigue. Por tanto, el problema de control con termino de control terminal
se puede plantear, como se ha hecho hasta ahora modificando la funcion L(x, u)
para convertirla en
Z
J0 =
La (x, x,
u, t)dt
(15.51)
S
S
x +
+ (f x)
= L+
x
t
(15.52)
(15.53)
384
d
[La + (f x)]
[La + (f x)]
=0
x
dt x
(15.54)
2S
S
S
2S
x
+
L+
x +
+ (f x)
=
[L + f ] +
x
x
t
x
x2
xt
Por otra parte se tiene
"
S
S
S
L+
x +
+ (f x)
=
x
x
t
x
(15.55)
d S
dt x
teniendo en cuenta que
"
"
"
dS
S
d S
S
=
=
x +
dt x
x dt
x x
t
[L + f ] =
x
que resulta ser la misma expresion que se tena en (15.6). Es decir, la ecuacion
de Euler con relacion a x es la misma se tenga o no termino de control terminal.
Es inmediato comprobar que sucede lo mismo con las ecuaciones de Euler con
relacion a u y a dadas en las expresiones (15.7 y 15.8).
El tiempo final T y el estado que se alcance en dicho instante x(T ) pueden
estar fijados de antemano o no. En este segundo caso, que por otra parte es el
mas frecuente en los problemas con termino de control terminal, hay que recurrir
a las condiciones de transversalidad. Vamos, ademas, a aprovechar esta oportunidad para establecer la condiciones de transversalidad en el planteamiento
hamiltoniano.
385
Recordando la expresion (14.22) se tiene que las condiciones de transversabilidad para este caso vienen dadas por la expresion
"
L0
L0
T = 0
xf + L0 x
x T
x T
(15.56)
x
x
Por lo que la expresion (15.56) se convierte en
"
#
"
! #
S
S
S
f
x + L +
x +
+ (f x)
x T |T = 0
x
t
x
"
S
S
xf + L + f +
x
t
T
T = 0
#
#
"
f
T = 0
x + H +
t T
T
(15.57)
H
=
x
Si la dimension del vector de estado es n, entonces la resolucion del anterior
sistema de ecuaciones diferenciales implica la determinacion de 2n constantes.
Estas constantes se determinaran con ayuda de las condiciones de contorno. Estas
condiciones son:
1. Estado inicial x(0) que permite el establecimiento de n ecuaciones.
2. Condiciones finales generalizadas que vienen dadas por la ecuacion
"
#
#
"
x + H +
T = 0
t T
T
386
!
S
H +
=0
t T
2. Estado final libre y tiempo final T determinado.
En tal caso se tiene que T = 0, por lo que la anterior ecuacion implicara
que
!
S
|T = 0
(15.58)
x
lo que permite establecer n ecuaciones suplementarias para determinar las
n constantes restantes.
Si S = 0, se tiene i (T ) = 0.
Las dos situaciones anteriormente consideradas constituyen los dos casos extremos
que se pueden dar. Supongase, que ni el estado final ni el instante final T estan
dados de antemano, pero s la trayectoria y(t) en la que debe encontrarse el
estado final. En tal caso, las condiciones de contorno en el extremo final pueden
escribirse
(T )xf + H [x(T ), (T ), T ]T = 0
(15.59)
Es inmediato ver que dx = y(T )dt, y puesto que dt es arbitrario, es necesario que
(T )y(T
) + H0 (T ) + y(t)
S
S
|T +
|T = 0
x
x
(15.60)
Esta ecuacion, junto con el hecho de que x(T ) = y(T ) especifica completamente
la solucion.
Ejemplo 6
Sea el sistema:
x = u(t)
(15.61)
387
1Z T 2
u dt
2 0
Se pide la se
nal de control, para el caso x(0) = 0 y x(0)
=0
La descripcion interna del sistema (15.61) viene dada por
x 1 = x2
x 2 = u(t)
con las condiciones iniciales x(0) = 0 y x(0)
= 0.
Se construye la Hamiltoniana
u2
H = L + 1 f1 + 2 f2 =
+ 1 x2 + 2 u
2
Minimizandola con respecto a u se tiene
H
=0
u
Es decir
u + 2 = 0
por lo que la se
nal de control optima sera
u = 2
Por tanto, la hamiltoniana optima vendra dada por
H =
22
+ 1 x2
2
(15.62)
388
es decir
1 = 0
2 = 1
y, por tanto,
1 = k1
2 = k1 t + k2
!
S
i
=0
xi
T
Por tanto
!
S
1
= 0 1 (T ) = 1 1 = 1
x1
T
S
2
x2
= 0
2 (T ) = 0 2 (t) = T + t
Se tiene que la se
nal de control optimo es
u (t) = T t
Por tanto la se
nal de control optima es tal que la fuerza aplicada debe de crecer
linealmente con el tiempo, hasta anularse para t = T .
Este problema puede resolverse tambien aplicando directamente las ecuaciones
de Euler, puesto que estamos en el caso en el que se puede eliminar u que se vio
en 15.1.2. En efecto, el ndice (15.62) del problema puede escribirse, eliminado u,
e incorporando al integrando el termino de control terminal (recordando lo que
se hizo en (15.48)), de la forma
J=
Z T
1 2
x 2 x2 dt
2
Por tanto se tiene un problema de Euler con
1
L = x 22 + x2
2
con condiciones iniciales x1 (0) = x2 (0) = 0. Para determinar las ecuaciones de
Euler se tiene que
0
L
= 1
x2
L
= x 2
x 2
389
=0
x2 dt x 2
se convierte en
x2 = 0
2
390
=
x = x
(15.63)
De la segunda se tiene
x + x =
es decir, de ambas,
x + x = k1 et
cuya solucion es
k1 t
e
2
Las condiciones de transversalidad son (puesto que el estado final es completamente libre y T = 1)
x(t) = k2 et
[
como S = x(t) se tiene
S
]|T =1 = 0
x
(15.64)
S
=
x
(15.65)
(1)
=
e
e
u = (t) = et = e(t1)
e
391
Ejemplo 8
En este ejemplo vamos a considerar una variante del ejemplo de la regulacion
de la temperatura en una habitacion que se ha visto al final de la seccion anterior. Vamos a suponer que se trata de que la temperatura final alcanzada por la
habitacion no sea exactamente de 10o (es decir que el estado final x(T ) no sea
exactamente 10), sino que se trata de minimizar el ndice
1
1Z T 2
u (t)dt + (x(T ) 10)2
J=
2 0
2
en donde es un factor de ponderacion entre los dos terminos que aparecen en el
ndice de funcionamiento. El primer termino de J mide el coste de la actuacion,
y es el mismo que se tena en la expresion (15.26). El segundo termino es una
expresion cuadratica que mide la desviacion del estado final x(T ) del valor 10.
De acuerdo con este termino se trata de penalizar el hecho de que x(T ) no sea
igual a 10, pero sin pretender que este sea exactamente el valor alcanzado.
Por tanto, el ndice J esta formado por dos terminos. El primero penaliza el
coste de la actuacion. Mientras que el segundo se refiere a la meta que se persigue
mediante el funcionamiento del sistema: que el estado final alcance un valor lo
mas cercano posible a 10. Estos dos terminos se suman afectando a uno de ellos
(en este caso al primero) mediante un factor de peso que mide la importancia
relativa que se asigne al comportamiento deseado (primer termino) o al coste de
alcanzarlo (segundo termino). Es decir, si se adopta un valor para muy grande,
entonces la solucion optima cumplira preferentemente la meta de que x(T ) toma
un valor proximo a 10, dando poca importancia al coste necesario para alcanzar
esta meta. Por el contrario, si es peque
no practicamente lo u
nico que se tiene
presente es el coste y nos encontramos con un problema analogo al discutido
anteriormente.
Para la resolucion del problema se procede en este caso como anteriormente,
pero sin embargo en este caso se tiene un termino de control terminal y el estado
final x(T ) no esta dado. Se trata, por tanto, de un problema de control optimo
con termino de control terminal, estado final libre y tiempo final T determinado.
Las condiciones de contorno en T vienen dadas, en ese caso, por la expresion
(15.58), que, en este caso, conduce a
(T ) =
S
|T = (x(T ) 10)
x
(15.66)
392
(T )
+ 10
(15.67)
20a
2a +
e2aT )
b2 (1
(15.68)
10aeat
aeaT + b2 sinhaT
(15.69)
Por u
ltimo, mediante la expresion (15.29) se tiene
u (t) =
10abeat
aeaT + b2 sinhaT
(15.70)
10b2 sinhat
aeaT + b2 sinhaT
(15.71)
Tema 16
Principio del Mnimo de
Pontriagin
16.1
Introducci
on
Al aplicar los metodos variacionales (ecuacion de Euler) a la resolucion del problema del control optimo, se pueden presentar los siguientes tipos de dificultades:
1. Los metodos variacionales suministran los maximos y mnimos relativos de
J(u) y no los absolutos;
2. Las ecuaciones de Euler son, normalmente, no lineales lo que frecuentemente
imposibilita la obtencion de la solucion de forma explcita;
nales de control estan aco3. Normalmente, los valores admisibles para las se
tados, lo que hace imposible la determinacion de la se
nal de control optimo
por metodos variacionales.
Al estudiar en el apartado anterior el problema del control optimo, se ha considerado que los valores posibles tomados por la se
nal de entrada no estaban acotados.
Es decir, que U = IR. Este caso, obviamente, no es el mas general, sino que debe
considerarse el caso en que la region de las se
nales de control admisibles este
acotada; es decir, U este acotada.
Esta u
ltima circunstancia, especialmente, tuvo una importancia decisiva para
el desarrollo de nuevas ideas en la teora del control optimo. Las limitaciones que
393
394
Figura 16.1:
Seg
un se vera mas abajo, para obtener comportamientos optimos con respecto
a determinados criterios se requiere que se mantengan las se
nales de control en
sus valores extremos. Esto sucede especialmente en los problemas de control en
tiempo mnimo.
En 1956, los matematicos rusos Pontriagin, Boltianskii y Gamkrelidge estudiaron el problema de la optimizacion dinamica para el caso en que la region
de se
nales de control admisibles U estuviese acotada, y establecieron el famoso
principio del mnimo (en el trabajo original del maximo) al que se ha unido el
nombre del primero de estos tres autores.
El principio del mnimo de Pontriagin constituye una generalizacion de los
resultados alcanzados con ayuda del calculo variacional para resolver el problema
del control optimo. La diferencia esencial entre los resultados alcanzados con
ayuda del calculo variacional y aquellos que se obtienen con ayuda del principio
del mnimo de Pontriagin, reside en que en este u
ltimo caso se puede definir un
espacio de funciones admisibles U(t) para las se
nales de control u(t). Al mismo
tiempo las se
nales u(t) de control admisibles pueden presentar discontinuidades
395
en un n
umero finito de puntos; con ello se abre la posibilidad de estudiar el control
por conmutacion, que tanto interes tiene en determinadas aplicaciones practicas,
como se vera mas adelante.
Recordando el problema del control optimo, se tiene un sistema cuya evolucion
viene dada por
x = f (x, u)
(16.1)
siendo conocido x(0).
Las se
nales de control admisibles deben pertenecer a un conjunto cerrado U,
es decir,
u(t) U
(16.2)
El estado y el instante al final del proceso estan definidos por un conjunto de
pares (x(T ), T ) B.
El criterio a optimizar es de la forma
J=
Z T
0
(16.3)
(16.4)
El principio del mnimo de Pontriagin permite establecer las condiciones necesarias para que una se
nal de control admisible de lugar a un control optimo.
Sea u(t) una se
nal de control admisible y x(t) la trayectoria correspondiente, de
manera que x(t) este definida por
x = f (x, u)
(16.5)
x(0) = 0
(16.6)
Por otra parte, se definen las ecuaciones adjuntas o de coestado como sigue:
d
f
L
=
dt
x
x
(16.7)
Por u
ltimo, recordando las expresiones (15.57) las condiciones finales dan lugar a
(T )xf H(T )T =
S
S
xf +
T
x
t
(16.8)
Con todo los elementos anteriores se puede enunciar el principio del mnimo de
Pontriagin como sigue:
Teorema (Principio del mnimo de Pontriagin).
396
Supuesto que existe un vector adjunto (t) tal que satisfaga las ecuaciones adjuntas (16.7) y las condiciones finales (16.8) para todo vector
(xf , T ) tangente a B en el punto (x(T ), T ), entonces la condicion
necesaria para la existencia de un mnimo es que en todo punto
t (0, T ) la funcion hamiltoniana H(x, u, ) alcance su mnimo con
relacion a u.
De acuerdo con el principio de Pontriagin la eleccion del control optimo u es muy
simple: en cada instante de tiempo, u debe seleccionarse de manera que garantice
el mnimo posible de la hamiltoniana H, teniendo en cuenta las restricciones
(limitaciones) impuestas sobre los valores admisibles de u.
La funcion hamiltoniana permite evaluar variaciones del criterio J debido a
variaciones admisibles e infinitesimales de la se
nal de control u(t). La variacion
del hamiltoniano H debida a una variacion u se denota por H, y se escribe,
H =
L
f
+
u
u
u
(16.9)
Lema
Sea una trayectoria nominal (o de referencia) x(t) de un sistema
dinamico, generada por una se
nal de mando u(t).
La variacion del criterio J debida a una variacion admisible u de
la se
nal de control optimo u (que determinara una variacion de la
trayectoria x) viene dada por
J =
Z T
0
H(t)dt
(16.10)
397
Debido a la variacion de la se
nal de control u se produce una variacion de la
trayectoria x que vendra dada por la ecuacion diferencial siguiente:
x + x = f (x + x, u + u)
es decir
f
f
x +
u
x
u
Por las razones que se pondran de manifiesto mas abajo interesa calcular la
variacion con el tiempo de x. Se tiene
x =
d(x)
d
d(x)
=
x +
dt
dt
dt !
!
L f
f
f
=
x +
x +
u
x x
x
u
L
f
= x + u
x
u
Pasando al primer miembro el primer termino del segundo miembro, y sumando
a ambos miembros L
u se tiene, recordando (16.9).
u
d(x) L
L
f
L
+
x +
u = u +
u
dt
x
u
u!
u
L
f
+
u
=
u u
= H
Observese que en H se indica la variacion de H debida exclusivamente a la
variacion de u, supuestos x y constantes. Integrando la anterior expresion
entre 0 y T , y recordando que x(0) = 0 se tiene
(T )x(T ) +
Z T
L
0
Z T
L
x +
u dt =
Hdt
x
u
0
(16.11)
Por otra parte, de acuerdo con la figura 16.2, se puede aproximar el desplazamiento xf entre la trayectoria nominal y la trayectoria perturbada con la siguiente expresion, (que es la misma que la (14.21))
x(T ) = xf x(T
)T
(16.12)
(16.13)
398
x (T )
x(T
f )T
xf
T + T
Figura 16.2:
Recordando las condiciones finales (16.8), se tiene, en el caso en que S = 0,
(T )xf = H(T )T
(16.14)
(16.15)
(16.16)
(T )x(T
) = H(T ) L(T )
(16.17)
(16.18)
Z T
L
0
L
x +
u dt + L(T )T
x
u
Z T +T
T
(16.19)
(16.20)
Z T
L
0
L
x +
u dt + (T )x(T )
x
u
(16.21)
399
lo que seg
un (16.11) conduce a:
J =
Z T
0
Hdt
(16.22)
Z T
0
(16.23)
u(t) + u(t) U
x(t) + x(t) corta a B
La condicion de mnimo de la expresion (16.25) se convierte en
H(t) 0
(16.26)
400
para todo 0 < t < T . En efecto, para demostrar la expresion (16.26) se procede
por contradiccion. Supongase que existe un valor de u y uno del tiempo t1 tales
que
H(x (t1 ), u (t1 ), (t1 )) > H(x (t1 ), u, (t1 ))
(16.27)
es decir, que H(
u) en t1 es menor que H(u ) optima. Entonces es posible concebir
una se
nal u(t) tal que coincide con u (t) para todo valor de t excepto en un
peque
no entorno de t1 en el que toma el valor u(t1 ) = u (figura 16.3). Puesto que
u
t1
t1
Figura 16.3:
H es continua con relacion a x, y (en la medida en que lo son L y f ) se tendra
que en un entorno de t1 se podra determinar un valor de 0 tal que
H(x (t), u (t), (t)) H(x (t), u(t), (t)) < 0
(16.28)
Z T
0
(16.29)
401
402
Ho
Ho
uo
uo
Solucion interior
Solucion de contorno
Figura 16.4:
Se da el sistema
x = f (x, u)
Se da el criterio
J=
| u | Mi
Paso 1
Se forma la Hamiltoniana
H(x, u, ) = L(x, u) + f (x, u)
Paso 2
Paso 3
Paso 4
Paso 5
RT
0
L(x, u)dt
403
404
Debe notarse que el principio del mnimo representa exclusivamente una condicion
necesaria, es decir, que una vez obtenido el valor debe comprobarse que efectivamente corresponde a un mnimo.
En algunos libros, y especialmente en el original de Pontriagin, el principio del
mnimo se denomina del maximo. En u
ltimo extremo ello no es sino un problema
de signos en la hamiltoniana que debe ser optimizada.
Ejemplo 1
Se trata de trazar una curva x(t), 0 t T , que se inicie en x(0) = 0, cuya
pendiente en cada punto no sea mayor que 1 y que maximice el valor de x(t) en
t = T.
El problema puede formularse representando la curva mediante el sistema
dinamico:
x = u(t)
Este curva debe ser tal que x(0) = 0, y ademas se pide que u(t) 1. Puesto que
se pretende maximizar x(T ) el criterio sera:
J = x(T )
Se trata, por tanto, de un problema de control optimo con un termino de control
terminal tal que S(x(T ), T ) = x(T ). Aplicando el metodo que se acaba de presentar, se tendra que en este caso L(x, u) = 0 y f (x, u) = u por lo que la funcion
hamiltoniana sera:
H = u
Conviene notar que en la funcion hamiltoniana no aparece el termino relativo al
control terminal (al estado final). De la expresion de H se desprende que para
< 0 el valor optimo de u es y para > 0 es u = 1.
Las ecuaciones de Hamilton resultan ser:
H
=u
H
=
=0
x
x =
(16.30)
(16.31)
405
x(t)
x1 (t)
T
Ejemplo 2: Control
optimo de un sistema lineal
Sea el sistema
x = 2x + u
con el ndice
Z T
0
x2 dt
406
H
>0
+1
<0
+1
u
Figura 16.6:
Si se emplea la funcion sgn (se lee signo) se escribe,
u = sgn ()
La hamiltoniana optima sera
H = x2 sgn () 2x
La ecuacion adjunta es:
= 2x + 2
Ejemplo 3: Control
optimo de un sistema de dimensi
on dos
Sea el sistema (planta) con ecuaciones de estado
x1 = x2
x2 = x1 + u
Se trata de minimizar el criterio de funcionamiento
1Z T 2
(x1 + u2 )dt
J=
2 0
407
-1
-2
-2
408
u (t)
2 (t)
=
=
=
=
x2
x2 2
x1
1
16.2
Control
optimo por conmutaci
on
16.2.1
Supongase un movil sin rozamiento, cuyo movimiento esta controlado por una
fuerza u que esta acotada (|u| < 1). La ecuacion dinamica del movimiento es
d2 y
=u
dt2
que admite la representacion por variables de estado:
x1 = x2
x2 = u
y = x1
409
Z T
0
dt = T
(16.32)
(16.33)
H
1 =
=0
x1
H
2 =
= 1
x2
cuya integracion conduce a
1 = k1
2 = k1 t + k2
Se observa que 2 es monotona (creciente o decreciente, seg
un los signos de k1 y
k2 ), por lo que cambiara de signo, a lo sumo, una sola vez. Por lo tanto u, o bien
tomara solo uno de los valores +1 o 1 hasta alcanzar el origen, o cambiara una
sola vez de valor antes de alcanzarlo.
410
x1
a)
A
B
u = +1
x2
t
x1
u = 1
b)
Figura 16.9:
La u
nica trayectoria que pasa por el origen es AO, luego sera por esta trayectoria por la que debera alcanzarse el origen.
Para u = 1 se demuestra analogamente que las trayectorias vienen dadas
411
por
x2 = 2x1 + c4
lo que se representa graficamente en la figura 16.9b. Las mismas consideraciones
hechas anteriormente para la trayectoria AO valen aqu para la trayectoria BO.
Los resultados anteriores pueden resumirse en la figura 16.10.
x2
u = 1
B
x1
A
u = +1
Figura 16.10:
Del examen de esta figura se desprende que,
1. Si el estado inicial se encuentra sobre AO(BO) se aplica u = +1(u = 1)
y no se produce ninguna conmutacion.
2. Si el estado inicial se encuentra por debajo (por encima) de BOA se aplica
u = +1(u = 1) hasta que el estado, recorriendo la parabola correspondiente, alcance la lnea BO(AO) en cuyo caso se conmutara la se
nal de
mando haciendo u = 1(u = +1).
De acuerdo con lo anterior la curva de conmutacion vendra dada por
1
x 1 = x2 | x2 |
2
de manera que la ley de control sera,
u = sgn ()
412
1
= x1 x2 | x2 |
2
yr = 0 +
+1
u0
1
s
-1
+
+
1
s
x1
| x2 |
1
2
x2
x2
+1
16.2.2
Determinar la ley de control optima que transfiera al modulo lunar (figura 16.12)
desde una posicion inicial (z(0), z(0),
(16.34)
413
ku
Mg
z
x2 = g +
(16.35)
Z t
0
udt
M
M (T ) M (0)
=
M
M (0)
es muy peque
na, de modo que la expresion (16.35) puede considerarse correcta
en primera aproximacion. El criterio a minimizar es
J=
Z T
0
udt
por lo que
H = u + 1 x2 + 2
es decir
ku
g +
M
k2
H = 1 x2 2 g + u 1 +
R
M (0) 0t udt
u = 0 si
k2
1+
R
M (0) 0t udt
>0
u = Q si
414
k2
1+
R
M (0) 0t udt
<0
k2
1+
R
M (0) 0t udt
cambie una vez como maximo, y por lo tanto u solo toma los valores 0 y Q una
sola vez en la trayectoria optima.
Cuando u = 0 (caida libre del modelo), las ecuaciones dinamicas toman la
forma:
x1 = x2
x2 = g
de donde se tiene
x2 = gt + x2 (0) = gt + z(0)
(16.36)
t2
+ z(0) + z(0)t
2
De la ecuacion (16.36) despejamos el tiempo
x1 = g
t=
(16.37)
z(0)
x2
g
z 2 (0) x22
2g
2g
es decir,
x22 = z 2 (0) + 2g(z(0) x1 )
esta expresion da la familia de trayectorias en el plano de estado, en funcion de
las condiciones iniciales z(0), z(0).
415
x2
z(0)
x1
z(0)
u=0
Figura 16.13:
En la figura 16.13 se representan las trayectorias correspondientes
Cuando u = Q
x 1 = x2
x 2 = g +
kQ
kQ
=
g
Rt
M (0) Qt
M (0) 0 udt
M (0)
Qt
Qt
t2
1
ln 1
g + k ln M (0)t
x1 z(0) = z(0)t
+k
Q
M (0)
M (0)
2
En el u
ltimo paso se ha tenido en cuenta que
Z
ln xdx = x ln x x
Las trayectorias en el plano de fase corresponden a curvas de la forma que se
indica en la figura 16.14.
La u
nica trayectoria que pasa por el origen es la AB, y es por lo tanto la curva
de conmutacion, como la se
nal u solo cambiaba de valor una vez en la trayectoria
z(0)
416
z(0)
B
x1
CHOQUE
A
u=Q
x2
Figura 16.14:
optima, cualquier trayectoria del movil correspondera a una caida libre si se
encuentra por encima de la trayectoria AB. Las ecuaciones parametricas de la
trayectoria AB corresponden a
g
kM (0)
Q
z = 2 k =
ln 1
2
Q
M (0)
!
Q
z = g + k ln 1
M (0)
x2
u=Q
Zo
d
na
k=0
ho
ec
Choque
con
velocidad
x1
Zona de caida libre
qu
e
Linea de
conmutacion
Figura 16.15:
En la figura 16.15 se representa la evolucion conjunta de las representadas en
las figuras 16.13 y 16.14.
Tema 17
Principio de optimalidad de
Bellman
17.1
Introducci
on
417
418
A
Figura 17.1: Principio de optimalidad: si la trayectoria AB es ooptima, tambien
lo es la CB.
Ejemplo
Se trata de determinar la trayectoria optima de A a P , en 6 etapas. Los tramos
de cada porcion de la primera trayectoria estan penalizados con un costo que se
representa en la figura 17.2 con un n
umero sobre el correspondiente tramo. El
criterio de optimalidad es el minimizar el costo total del recorrido.
Se considera en primer lugar la quinta y la sexta etapa (figura 17.3). En cada
uno de los nudos se escribe un n
umero rodeado por un circulo que representa
el coste mnimo del recorrido desde dicho nudo a P , supuesto por la trayectoria
optima.
Es evidente que desde N y O, al no haber opcion el correspondiente n
umero
sera el costo de la trayectoria. Lo mismo sucedera desde K y M , desde los que
las u
nicas trayectorias posibles son KN P y M OP , de costos 8 y 9 respectivamente. Sin embargo desde L dos trayectorias son posibles, la IN P y la LOP de
costos 7 y 8 respectivamente. Por lo tanto la optima sera la LN P y se encerrara
un 7 en el circulo correspondiente. Observese que a lo largo de la trayectoria
optima la diferencia entre los n
umeros encirclados es igual al costo del tramo
correspondiente. De la misma manera se puede estudiar la 4 etapa (figura 17.4).
Debe notarse que en este paso ya se obtiene un notable beneficio de los calculos
anteriores y que al, por ejemplo, calcular la trayectoria optima desde H, se tiene
en cuenta las trayectorias optimas desde K y desde L, y no se tiene que volver a
calcular todo el trayecto. De hecho lo que se hace es decidir entre HK y HL de
419
G
6
4
D
B
2
1
A
7
I
C
3
O
6
M
F
5
9
J
8
K
5
N
P
3
O
M
Figura 17.3: Las dos u
ltimas etapas para llegar a P .
420
14
G
12
H
8
K
5
N
P
14
I
18
3
O
J
Figura 17.4: Las tres u
ltimas etapas para llegar a P .
421
manera que la suma del costo correspondiente al nuevo tramo y el costo optimo
a K o a L (n
umero encirclado), sea mnimo.
Procediendo de esta manera se llega a cubrir todo el diagrama con los costos
mnimos desde los correspondientes nudos. De la figura 17.5 y de los anteriormente expuestos, se deduce que la trayectoria optima es la ABEHKN P .
14
G
18
16
17
12
H
14
8
K
5
N
P
17
C
14
I
15
F
18
3
O
17.1.1
3
X
| 5x(k) 3 |
(17.2)
t=0
Para una mejor comprension del metodo se empleara un diagrama sobre un plano
x y, en donde en el eje y se representa el estado del sistema (17.1) y en el eje
x el ndice k (figura 17.6).
En dicho diagrama se tienen unos circulos correspondientes a los distintos
pares (x, k) y unas flechas que los unen. Estas u
ltimas llevan asociados n
umeros
que representan el costo de la transicion de un punto a otro, y se calculan seg
un
(17.2). Este costo depende exclusivamente del estado previo.
A
2
13
7
11
9
7
x(t)
422
B
t
a continuacion. Estos n
umeros representan Ji (x).
En primer lugar, considerese k = 3, y J1 . Para los dos valores posibles de x,
x = 0 y x = 1 que conducen a B, los valores de J1 correspondientes son:
J1 (0) = 3
J1 (1) = 2
Puesto que no hay diferentes rutas desde los dos puntos no se requiere minimizacion.
Sea ahora k = 2. Los puntos en los que se puede iniciar el proceso son en este
caso x = 0, 1, 2. Para x = 0, 2 no existe problemas de adopcion de ruta pero para
x = 1 si es posible aplicar u = 0 o u = 1.
En tal caso se tiene,
J2 (1, 2) = min[2 + J1 ] = 4
u
(17.3)
(17.4)
(17.5)
423
A
2
13
11
9
7
x(t)
B
t
17.1.2
Programaci
on din
amica en tiempo discreto y Principio de Optimalidad
TX
1
(17.6)
t0
424
funcion V (x, t) toma, en esos problemas, el valor que se representa en las figuras
17.5 y 17.6 en el interior de un peque
no crculo.
Para la aplicacion de la programacion dinamica, conviene observar, en primer
lugar, que el criterio (17.6) es aditivo. Debido precisamente a este caracter aditivo
y aplicando el principio de optimalidad de Bellman se tiene que
V (x, t) =
min
u(t),u(t+1),...
"T 1
X
min
u(t+1),u(t+2),...
TX
1
t+1
es decir, el valor de V es el mnimo de la suma del primer paso que se toma desde
(x, t) mas el valor optimo desde el resultado de ese primer paso. Recuerdese como
se calculaban los n
umeros encirclados en los dos ejemplos anteriores. La anterior
expresion se puede escribir
V (x, t) = min [L(x(t), u(t), t) + V (f (x, u, t), t + 1)]
uU
Conviene resaltar que este metodo nos ha conducido de manera natural a que
la solucion toma la forma de una ley de control, y no de una se
nal de control
como suceda en la solucion del control optimo mediante metodos variacionales.
17.2
Programaci
on din
amica y ecuaci
on de Hamilton-Jacobi-Bellman
425
Z T
0
(17.8)
siendo
u U (x(T ), T ) B
(17.9)
(x, t)
A
t
C
t + t
426
Demostraci
on
Se procede por contradiccion. Supongase que existe un u tal que de un valor
menor para
Z
T
t+t
L(x, u, )d + S(x(T ))
u( ) =
u ( ),
u ( ),
para
para
t t + t
t + t T
(17.10)
Z t+t
t
<
L(x , u , )d +
Z t+t
t
Z T
t+t
Z T
L(x , u , )d +
L(x , u , )d + S(x (T ))
t+t
L(x , u , )d + S(x (T ))
(17.11)
427
"Z
T
t
L(x( ), u( )) d + S(x(T ), T )
con:
u[t,T ] = {u( )|t < T }
es decir, u[t,T ] es el conjunto de todas las acciones de control posibles en el intervalo
[t, T ].
Recordando la figura 17.8, tenemos que si el valor del funcional J para la
trayectoria optima que se inicia en (x, t) se representa por V (x, t), entonces el
valor de J para la trayectoria CB, vendra dado por V (x + x, t + t). Es decir,
V (x + x, t + t) es el coste mnimo del proceso para el intervalo (t + t, T ).
Ademas, por el principio de la optimalidad sabemos que si la trayectoria AB es
optima, tambien lo sera la trayectoria CB. Todo ello permite escribir
"Z
V (x, t) = min
u[t,T ]
t+t
"Z
u[t+t,T ]
t+t
##
es decir,
"Z
V (x(t), t) = min
u[t,T ]
t+t
t
(17.13)
En esta u
ltima expresion se ha tenido en cuenta el que el valor mnimo V a
partir del estado x(t+t) en el tiempo t+t viene dado por V (x(t+t), t+t).
Conviene observar que empleando el principio de optimalidad, el problema a determinar el control optimo sobre el intervalo [t, T ] se ha reducido al de determinar
el control optimo sobre el intervalo reducido [t, t + t].
Aplicando el teorema de la media al primer miembro del segundo termino de
(17.13), se tendra
Z t+t
t
Ldt ' Lt
(17.14)
es decir,
V (x, t) = min[Lt + V (x + x, t + t)]
u( )
(17.15)
siendo u( ) la se
nal optima en el intervalo t t + t. Desarrollando en serie
V (x + x, t + t) en torno a (x, t) (en el supuesto de que tanto V como f sean
428
V
V
x +
t + ...
x
t
(17.16)
V
V
en donde
representa el vector gradiente de V con relacion a x, y
representa
x
t
la derivada parcial de V con relacion a t.
Llevando (17.16) a (17.15), y despreciando variaciones de orden superior, se
tiene
"
#
V
V
V (x, t) = min Lt + V (x, t) +
x +
t
(17.17)
u( )
x
t
V
t no estan afectados por la minimizacion (puesto que
t
no dependen de u( )) por lo que la expresion anterior se puede escribir:
Los terminos V (x, t) y
"
V
V
min Lt +
x +
t = 0
u( )
x
t
(17.18)
"
V
V
x +
=0
min L(x, u, t) +
u(t)
x
t
(17.19)
V (x, t)
u(x, t) = arg min L(x, u, t) +
f (x, u, t)
u(x,t)
x
(17.20)
V
, x, t
u =
x
(17.21)
V
V
f (x, , t) +
=0
x
t
(17.22)
429
(17.23)
sobre B.
Observando la expresion (17.22) y recordando la definicion hamiltoniana parece
apropiado escribir
H(x, , t) = L(x, , t) +
V
f (x, , t)
x
(17.24)
V
=0
t
(17.25)
V
u =
, x, t = k(x, t)
x
(17.26)
V
H x, u,
x
V
.
x
=L+
V
f
x
(17.27)
V
, t con relacion a u U para obtener
2. Minimizar H x, u,
x
u =u
V
x,
x
(17.28)
430
V
x,
x
V
= H x, u ,
x
(17.29)
V
x,
x
V
=0
t
(17.30)
431
Se da el sistema
x = f (x, u)
Se da el criterio
J=
Paso 1
Se forma la Hamiltoniana
!
V
V
, t = L(x, u) +
f (x, u)
H x, u,
x
x
RT
0
Paso 2
Se determina u = u
minimice H x, u,
V
x,
, t admisible tal que
! x
V
, t con respecto a u U
x
Paso 3
Se determina
m!
nima
!la Hamiltoniana
V
V
H x,
, t = H x, u ,
,t
x
x
Paso 4
Se resuelve
el!sistema de ecuaciones en derivadas parciales
V
V
H x,
,t +
=0
x
t
con las condiciones de contorno V (x, T ) = S(x(T ), T ).
Se obtiene V (x, t).
Paso 5
Se determina u (x)
En general, la aplicacion del metodo anterior presenta dos dificultades que limitan
grandemente su empleo. En primer lugar, es generalmente imposible resolver
la ecuacion de Hamilton-Jacobi a
un para problemas sencillos, puesto que no se
conoce una tecnica general de resolucion para ese tipo de ecuaciones en derivadas
parciales. Por otra parte, a
un si la ecuacion de Hamilton-Jacobi puede resolverse,
la ley de control obtenida es normalmente muy dificil de realizar fsicamente.
Las anteriores razones hacen que, desde un punto de vista practico, sea mas
interesante el principio de Pontriagin que la ecuacion de Hamilton-Jacobi-Bellman
432
en la resolucion del problema de control. Sin embargo, existe un caso para el que
el metodo de Hamilton-Jacobi-Bellman es el idoneo. Es el de la determinacion
de la ley de control para un sistema dinamico lineal invariante en el tiempo,
cuando el criterio de funcionamiento es cuadratico. Este problema es de por
s lo suficientemente interesante como para justificar el estudio del metodo de
Hamilton-Jacobi-Bellman.
Ejemplo 1
Determinar la ley de control optimo para el sistema
x = u
con el ndice
Z T
J=
(x2 + u2 )dt
1. Se forma la hamiltoniana
H = x 2 + u2 +
V
u
x
2. Se minimiza la hamiltoniana
H
V
= 2u +
=0
u
x
lo que da
u =
1 V
2 x
V
x
!2
V
x
!2
=0
433
k + 1 k 2 = 0
17.2.1
Relaci
on entre la programaci
on din
amica y la formulaci
on Hamiltoniana del problema de control
optimo
V
V (x, t)
+ min L(x, u, t) +
f (x, u, t) = 0
u(t)
t
x
(17.31)
L(x, u, t) +
f (x, u, t) = 0
L V f
+
=0
u
x u
434
La segunda de estas expresiones caracteriza la ley u(x, t) que minimiza al hamiltoniano. En tal caso la primera de ella equivale a (17.31).
V
Interesa calcular como evoluciona el vector
a lo largo de una trayectoria
t
optima. Derivando con respecto al tiempo se tiene
d V
2V
2V
=
+ 2 f (x, u)
dt t
tx
x
(17.32)
dt t
x x
x
Esta expresion es precisamente la ecuacion adjunta o de coestado del metodo
de Hamilton. Por tanto, a lo largo de una trayectoria optima se puede identificar
V
= (t)
t
con lo que se pone de manifiesto la equivalencia de ambos planteamientos. Esta
equivalencia resulta mas notable cuando se tiene en cuenta la diferencia de planteamientos de los que se ha partido.
17.3
17.3.1
Breve rese
na hist
orica
435
Z T
0
xT Qxdt + xT (T )Sx(T )
436
17.3.2
Problema LQR
(17.33)
xT Qxdt + xT (T )Sx(T )
(17.34)
Z T
0
uT Rudt
(17.35)
Z T
0
J2 =
Z T
0
437
Haciendo
(17.37)
H
=0
u
se obtiene
V
+ 2Ru = 0
x
(17.38)
1
V
u = R1 B T
2
x
(17.39)
BT
por lo tanto u (x, t) esta dado por
V T
1 V T
V
Ax
BR1 B T
x
4 x
x
(17.40)
(17.41)
(17.42)
(17.43)
438
siendo P (t) una matriz real simetrica. Llevando (17.43) a la ecuacion de HamiltonJacobi-Bellman (17.41) se tiene:
xT P x + 2xT P Ax xT P BR1 B T P x + xT Qx = 0
o lo que es lo mismo
xT P + 2P A P BR1 B T P + Q x = 0
(17.44)
(17.45)
2
2
2
2
y comprobar que
M
MT
Ms =
+
2
2
es simetrica y
M
MT
Ma =
2
2
antisimetrica. De (17.45) se tiene que
xT M x = xT Ms x + xT Ma x
(17.46)
M + MT
2
439
M + MT
x
2
(17.47)
P (T ) = S
que recibe la denominacion de ecuacion de Riccati. La resolucion de esta ecuacion
permite obtener P (t), o, lo que es lo mismo
V (x, t) = xT P (t)x
La ecuacion (17.47) es simetrica, como tambien lo es la matriz S que define las
condiciones de contorno, por lo que tambien lo sera la solucion P (t). Esta simetra
sirve para simplificar el calculo de P (t). En efecto, a primera vista puede parecer
que la expresion (17.47) representa un conjunto de n2 ecuaciones diferenciales,
ya que P (t) es una matriz n n. Sin embargo, debido a la simetra de P (t) el
n
umero de ecuaciones es en realidad de n(n + 1)/2.
Otra propiedad importante de P (t) es su caracter definido positivo. Ello se
debe a que para todo u(t) 6= 0 el valor de J (el coste del proceso) debe ser positivo,
y por tanto as debe ser V (x, t) = xT P (t)x, lo que impone el caracter definido
positivo de P (t).
Una vez determinado V (x, t) se procede a determinar la ley de control optima,
que resulta ser:
1
V
u (x, t) = R1 B T
= R1 B T P x
(17.48)
2
x
El resultado ha sido pues, una ley de control lineal, que se ha obtenido a partir
de la imposicion de un criterio de mnima varianza en las variables de estado y
en el esfuerzo de control.
Para encontrar la solucion de la ecuaci
on de Riccati sera necesario imponer
condiciones de contorno en P , que se obtendran de los terminos de control terminal:
Si J posee terminos de control terminal, entonces P (T ) = S.
Si no existen dichos terminos, entonces P (T ) = 0.
440
(17.49)
(17.50)
Debe observarse en las expresiones anteriores que la ley de control optimo que
se ha determinado es una ley de control lineal. Este es un resultado que ya se
haba obtenido, a partir de otros supuestos, al estudiar el control de sistemas
lineales para su estabilizacion. La estructura que se obtiene aqu, que es la que se
representa en la figura 17.9, es la misma que se encontro all. Esta identidad de
estructuras constituye uno de los puntos mas sobresalientes de la moderna teora
del control.
Ejemplo 2
Ejemplo
Supongase el sistema dinamico
x = u
441
Z T
0
(x2 + u2 )dt
Ejemplo 3
Determinar los coeficientes de la ley de control para el sistema
x = 3x + u
siendo
J=
Z
0
P
= 1.359
0.1
luego
u = 1.359x
442
Ejemplo 3
Determinar los coeficientes de la ley de Control para el sistema
"
0
1
2 1
x =
si
J=
"
T
A P =
"
PA =
Z
0
P BR
"
x+
0
2
(x21 + u2 )dt
2p12
2p22
p11 p12 p12 p22
2p12 p11 p12
2p22 p12 p22
"
B P =
"
Q=
La ecuacion de Riccati
AT P + P A P B R1 B T P + Q = 0
da lugar a tres ecuaciones,
2p12 2p12 4p212 + 1 = 0
(17.51)
(17.52)
(17.53)
De (17.51) se tiene
4p212 + 4p12 1 = 0
cuya u
nica solucion positiva es
p12 = 0.20710
llevada a (17.53) se tiene
4p222 + 2p22 2p12 = 0
cuya u
nica solucion positiva es
p22 = 0.15311
443
"
P =
0.64016 0.20710
0.20710 0.15311
Kc = R1 B T P = [0.41420 0.30622]
"
u = [0.41420 0.306322]
x1
x2
R1 B T P
(17.54)
ecuacion que rige la evolucion del estado en bucle cerrado. Es facil ver que la
funcion
V (x) = xT P x
(17.55)
es una funcion de Liapunov para este sistema. En efecto, en primer lugar se tiene
que puesto que P es definida positiva, V (x) lo sera a su vez. Por otra parte se
tiene que
dV
= (x T P x + xT P x)
(17.56)
dt
444
(17.57)
es decir que dV /dt < 0 para todo x. Es decir V (x) cumple las propiedades que
definen una funcion de Liapunov y, por lo tanto, el sistema es estable. Puesto
que P BR1 B T P es definida no negativa entonces para que dV /dt < 0 la matriz
Q tiene que ser definida positiva. Es decir, si Q es definida positiva entonces la
estabilidad asintotica esta garantizada.
La aplicacion del anterior resultado requiere algunas matizaciones. En particular, conviene resaltar el hecho de que se requiere que Q sea positiva definida.
Considerese el sistema
x = x + u
con el ndice de funcionamiento
1Z 2
J=
u dt
2 0
(17.58)
445
(17.59)
La observabilidad del par (A, D) implica que el sistema dado por las ecuaciones
(17.33) y (17.59) es completamente observable.
446
Ejemplo
Sea el sistema
"
x =
0 1
0 0
"
x+
0
1
A=
0 1
0 0
Z
0
"
B=
0
1
(x21 + u2 )dt
"
Q=
1 0
0 0
R = [2]
1
2
2
2
x
1
u (t) = [0 1]
= x1 2x2
x2
2 2 2
2
que se puede comprobar que efectivamente da lugar a un sistema estable.
17.4
Ecuaci
on de Riccati en el dominio de la
frecuencia
447
Sea el sistema
x(t)
= Ax(t) + Bu(t)
donde u es de dimension 1, sometido al criterio de funcionamiento:
J=
Z
0
(17.60)
P se obtiene de la ecuaci
on de Riccati:
AT P + P A P BR1 B T P + Q = 0
Reordenando esta ecuacion y teniendo en cuenta que R = 1:
P A AT P = Q P BB T P
Sumando y restando P s al primer miembro se tiene:
P (sI A) + (sI AT )P = Q P BB T P
Recordando la matriz de transicion entre estados (s) = (sI A)1 y la expresion
(17.60) se tiene:
P 1 (s) + (T )1 (s)P = Q kcT kc
Premultiplicando por B T T (s) y postmultiplicando por (s)B:
B T T (s)P 1 (s)(s) B + B T T (s)(T )1 (s) P (s)B =
|
B T T (s)[Q
{z
{z
I
T
kc kc ](s)B
T
B T T (s) P
B +B
|{z}
| {zP} (s)B =
kcT
kc
448
(s)
(17.61)
(17.62)
entonces:
F (s)F (s) = (s)(s)
y por tanto:
F (s) = (s)
llegamos a la expresion que nos da la funcion de transferencia del sistema con la
realimentacion de las variables de estado:
G(s) = (s) 1
Debe observarse que mediante la factorizacion (17.62) se resuelve la ecuacion de
Riccati, aunque lo que se obtiene ahora es G(s), lo cual es equivalente a determinar
kc , ya que ambas vienen relacionadas por la expresion G(s) = kc B. Por tanto,
la factorizacion (17.62) equivale a la resolucion de la ecuacion de Riccati. Con
otras palabras, la factorizacion (17.62) permite resolver la ecuacion de Riccati en
el dominio de Laplace.
Ejemplo
En este ejemplo se va a mostrar el empleo de la ecuacion de Riccati en el dominio
de la frecuencia para la determinacion de la ley de control. Sea el sistema
x = x + u
449
Z
0
(3x2 + u2 )dt
1
s+1
3
3 + (1 s)(1 + s)
=
(1 s)(1 + s)
(1 s)(1 + s)
(2 s)(2 + s)
= (s)(s)
(1 s)(1 + s)
es decir
(s) =
2+s
1+s
En consecuencia
2+s
1
1=
1+s
s+1
por lo que se obtiene el mismo valor para k que se obtuvo anteriormente.
G(s) = (s) 1 =
450
sucede lo mismo para sistemas de dimension mayor, por lo que el segundo metodo
es el habitualmente empleado para determinar la ley de control, ya que para el
u
nico problema para el que se requieren metodos numericos elaborados que es la
factorizacion, se dispone de soluciones informaticamente deficientes.
2
Por otra parte, de la expresion (17.61) se deduce que los reguladores LQR
presentan una robustez excelente. En efecto, si factorizamos Q de la forma Q =
H T H y hacemos s = j en (17.61) se obtiene:
k1 + G(j)k2 = 1 + kH(j)Bk2
de donde:
k1 + G(j)k > 1
Si interpretamos esta condicion en el plano polar, la curva de G(j) no puede
entrar dentro de un circulo de centro 1 y radio 1, por lo que aseguramos un
margen de fase mayor de 60 grados y un margen de ganancia infinito.
17.5
Resoluci
on del problema LQR
451
Se da el sistema
x(t)
= Ax(t) + Bu(t)
y el criterio de funcionamiento
J=
u (t) = Kc x(t)
siendo
Kc = R1 B T P
Ecuacin de Riccati
AT P + P A P BR1 B T P + Q = 0
Valor optimo de J
J = 12 xT (t)P x(t)
R
0
Tema 18
Estimaci
on del estado
18.1
Noci
on de se
nal aleatoria
Se define una variable aleatoria como aquella que, como resultado de un ensayo,
toma un cierto valor imprevisible exactamente y dentro de un conjunto de valores
permitidos. Para caracterizar completamente una variable aleatoria es necesario
definir el conjunto de valores posibles, as como la probabilidad de cada uno de
ellos. Esta caracterstica reciben el nombre de ley de distribucion. Estos conceptos
se suponen conocidos y se recuerdan aqu a ttulo de revision.
Supongase una variable aleatoria que vara con el tiempo, como, por ejemplo,
el error de medida de una cierta magnitud que se dibuja continuamente en un
registrador grafico. El resultado de una prueba o ensayo es una medida que es
funcion del tiempo. Una variable aleatoria de esta naturaleza se llama una se
nal
aleatoria o proceso estocastico.
Una se
nal aleatoria se define, en consecuencia, como una variable funcion del
tiempo, tal que, para cada valor del argumento, o para cada conjunto de valores,
se comporta como una variable aleatoria (18.1).
Para un cierto valor de t, el valor de la se
nal aleatoria x(t) es una variable
aleatoria, para la que se puede definir una ley de distribucion. Estas leyes de
distribucion reciben el nombre de distribuciones unidimensionales y se especifican
por medio de la funcion de densidad de probabilidad unidimensional p1 (x; t), que
en principio depende de t.
452
453
0
t1
t1
t1
t
Figura 18.1: Se
nal aleatoria
De la misma manera y teniendo presente dos instantes de tiempo t1 y t2 se
definen las distribuciones bidimensionales y la correspondiente funcion de densidad de probabilidad p2 (x1 , x2 ; t1 , t2 ) Lo anterior se puede generalizar para n
instantes de tiempo, en cuyo caso se tiene la funcion de densidad de probabilidad
pn (x1 , ..., xn ; t1 ..., tn ). Un proceso estocastico se dice estacionario si
p1 (x, t) = p1 (x)
p2 (x1 , x2 ; t1 , t2 ) = p2 (x1 , x2 ; t2 t1 )
En realidad la estacionaridad as definida no es la mas general que cabe concebir
pero sin embargo es suficiente a los efectos aqu interesan. Para un proceso estacionario sus caractersticas estadsticas son invariantes por traslacion temporal.
18.1.1
Descripci
on estadstica de las se
nales aleatorias
(18.1)
(18.2)
454
Z Z
Por u
ltimo, la funcion de autocorrelacion se define como
E[x(t)x( )] =
Z Z
,
T
el
455
x(t)
a)
+1
0
2 3
-1
Rxx ( )
b)
Figura 18.2: Se
nal aleatoria binaria
De lo anterior se deduce
E[x(t)x(t + )] = a2
T | |
| |
| |
+ a2
a2
T
2T
2T
es decir
xx ( ) = a
| |
1
T
Esta se
nal constituye una aproximacion a una se
nal de gran interes, que es la
se
nal blanca, que por definicion es aquella cuya funcion de autocorrelacion es un
impulso de Dirac, es decir,
bb = A(t)
Esta se
nal no se presenta nunca en la practica con las propiedades teoricamente
exigidas. Solo se tienen aproximaciones de las cuales la se
nal binaria considerada
constituye una de las mas interesantes.
Una propiedad interesante de la funcion de autocorrelacion de un proceso
estacionario es
xx ( ) = xx ( )
Interesa definir tambien la funcion de la intercorrelacion, o de correlacion cruzada,
entre dos se
nales aleatorias:
1 ZT
x(t)y(t + )dt
E[x(t)y(t + )] = xy ( ) = lim
t 2T T
18.2
456
Transmisi
on de se
nales aleatorias a trav
es
de sistemas lineales: descripci
on interna
= Ax(t) + Bw(t)
(18.3)
(18.4)
E[(x(t0 ) x0 )(x(t0 ) x0 )T ] = P0
(18.5)
E[x(t0 )w (t)] = 0 t
(18.6)
Z t
t0
(t )Bw( )d
(18.7)
Por tanto, se tiene que la evolucion de la media de x(t) vendra dada por:
E[x(t)] = E[(t)x(t0 )] + E
= (t)E[x(t0 )] +
Z t
Z t
t0
t0
(t )Bw( )d
(t )BE[w( )]d
= (t)
x0
(18.8)
Por otra parte, para determinar la matriz de covarianza del vector x(t) vamos a
estudiar, en primer lugar la evolucion de:
P 0 (t) = E[x(t)xT (t)]
Derivando esta expresion con relacion al tiempo se obtiene:
T
P 0 (t) = E[x(t)x
(18.9)
457
+ E Bw(t) (t)x(t0 ) +
+ E
(t)x(t0 ) +
Z t
t0
Z t
t0
T #
(t )Bw( )d
(t )Bw( )d w (t)B
t0
BE[w(t)wT ( )]B T T (t )d
t0
Z t
t0
BQ(t )B T T (t )d
(18.10)
Z t
t0
(t )BQ( t)B T d
(18.11)
(18.12)
Para el paso de (18.11) a (18.12) hay que tener presente, por una parte que los
terminos segundo y cuarto se anulan de acuerdo con (18.6). Por otra parte, por
lo que respecta a los terminos tercero y quinto, hay que tener presente que la
funcion aqu es simetrica y que (0) = I. La funcion simetrica tiene las
siguientes propiedades:
(t ) = ( t)
Rb
a
458
(
f ( )( t)d =
0
f (t)
si t < a o si t > b
si a < t < b
En tal caso, si el valor de t coincide con uno de los lmites de integracion, por
ejemplo t = b, se tiene que
Z b
f (b)
2
a
puesto que el area unidad que cubre la funcion se distribuye la mitad a la
derecha de t = y la otra mitad a su izquierda. Observese que de acuerdo con
los lmites de integracion, los miembros tercero y quinto de (18.11) aportan solo
1/2.
f ( )( b)d =
(18.13)
En efecto, definiendo x(t) = x(t) x(t) (es decir, x es la diferencia entre el valor
de la variable x y su media) la evolucion de x viene dada por
d
x
= A
x + Bw(t)
dt
ya que la de x(t) se rige por (18.3) y la de xT (t) por xT(t) = A
xT (t). Por tanto, la
expresion (18.13) tiene la misma forma que la (18.9), y la ecuacion de evolucion
de x es identica a (18.3). En consecuencia P (t) satisface la ecuacion diferencial:
P (t) = AP (t) + P (t)AT + BQB T
(18.14)
P (t0 ) = P0
que rige la evolucion de la covarianza de la salida del sistema lineal (18.3) cuando
se excita con una se
nal aleatoria blanca de intensidad Q.
18.3
El problema de la observaci
on: Filtro de
Kalman
459
(18.15)
460
y(t)
y(t) y(t)
C
Ko
+
u(t)
(18.17)
461
(18.18)
A partir de las caractersticas de los ruidos v y w se tiene que el ruido blanco que
act
ua sobre el sistema lineal anterior posee la covarianza:
E[(w(t) Ko v(t))(w( ) Ko v( ))T ] = (Q + Ko RKoT )(t )
(18.19)
De acuerdo con (18.14) la covarianza P (t) del error x vendra dada por
d
P (t) = (A Ko C)P (t) + P (t)(A Ko C)T + Q + Ko RKoT
dt
(18.20)
(18.22)
Llevando este valor de Ko a (18.22) se tiene que P (t) satisface la ecuacion diferencial:
P (t) = P (t)AT + AP (t) + Q(t) P (t)C T R1 CP (t)
(18.23)
con las condiciones iniciales P (t0 ) = P0 .
Si comparamos las expresiones (??) y (18.23) con las (17.50) y (17.50) del
captulo anterior se comprueba que la solucion del filtro optimo es dual de la del
problema del control. Esta dualidad se puede resumir en el cuadro siguiente:
462
Problema de la
Estimacion
BT
CT
Ro
Qo
Ko
AT
Problema del
Control
C
B
Rc
Qc
Kc
A
(18.24)
donde el u
nico parametro desconocido es la matriz P , que se halla resolviendo la
ecuaci
on de Riccati para la observacion
AP + P AT + Q P C T R1 CP = 0
(18.25)
463
Resumen del Filtro de Kalman
Se da el sistema
x(t)
Se tiene
E[w(t)] = 0
E[v(t)] = 0
E[w(t)wT (t )] = Q( )
E[v(t)v T (t )] = R( )
d
x
= A
x + Bu + Ko (y C x)
dt
Ganancia de Kalman
Ko = P C T R1
Propagacion de la
covarianza del error
Error cuadraatico
de la estimacion
tr P
464
w
u
v
R
-1
18.3.1
Ejemplo
465
w
u
v
R
-1
+
Ko
-1
466
18.4
M
etodo LQG
467
Ro = RoT 0
El objetivo es determinar la se
nal de control u de forma que la siguiente funcional
sea mnima:
Z
(xT Qc x + uT Rc u) dt
J=
0
con:
Qc = QTc 0 ,
Rc = RcT 0
El teorema de separaci
on establece que el optimo global se tiene dividiendo el
problema en dos subproblemas:
1. Un problema de control optimo, del que se obtiene la regulacion por realimentacion de variables de estado:
u = Kc x
siendo
Kc = Rc1 B T Pc
Pc se determina a partir de la ecuacion de Riccati:
AT Pc + Pc A Pc BR1 B T Pc + Qc = 0
2. Un problema de filtrado optimo, mediante el filtro de Kalman:
d
x
= A
x + B u + Ko (y C x)
dt
donde
Ko = Po C T Ro1
y Po se obtiene de
APo + Po AT + Qo Po C T Ro1 CPo = 0
El problema, por lo tanto, queda descompuesto en dos partes.
468
1. Resolucion del problema del control, prescindiendo en el sistema de perturbaciones, para obtener la Ley de control Kc .
2. Filtrado de Kalman para obtener x.
El esquema de regulacion que se obtiene uniendo estos dos problemas aparece en
la figura 18.6 y el compensador resultante es el que se muestra en la figura 18.7.
u(t)
z(t)
Planta
y(t)
Ley de
Control
x
(t)
Filtro de
Kalman
0 +
u(t)
469
x(t)
x(t)
y(t)
A
Planta
B
Kc
x
(t)
x
(t)
+
Ko
-
Observador
Figura 18.7: Estructura del regulador del problema del control estocastico