Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Cabie PDF
Cabie PDF
Ingenierı́a Electrónica
Javier Aracil
Fabio Gómez-Estern
Contenido
i
Contenido ii
3.1.1 Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
5.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
6.1 Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
7.5 Relación entre las constantes de error y los polos y ceros. . . . . . 112
Bajo cierto punto de vista se puede considerar que en todo proceso industrial
intervienen por una parte la información (órdenes) y por otra la potencia. Bajo
este mismo punto de vista cabe considerar el funcionamiento de un proceso como
la adopción de las acciones necesarias frente al mismo (señales de mando o control)
para la conveniente dosificación de la energı́a en los distintos puntos del proceso
para que el funcionamiento del conjunto sea el conveniente.
1
Introducción a los sistemas de control. 2
flechas que se han denotado por u1 , u2 ... y que representan las distintas acciones
que se pueden ejercer sobre el proceso; se denominarán en lo que sigue señales
de control, mando, o entrada. A la derecha del bloque se han representado otras
flechas, como saliendo del mismo, que se han denotado por y1 , y2 , ... y que repre-
sentan los productos que produce el proceso. Tanto las acciones sobre el sistema
como los productos del mismo generalmente varı́an con el tiempo, por lo que se
hablará de secuencias temporales, o más formalmente de señales; sobre el carácter
de estas señales se volverá más adelante.
u1 - - y1
u2 - Sistema - y2
q a q
q q
q
controlar q
un - - ym
tomar las señales de mando del mismo. Es decir, volviendo al ejemplo trivial
de la conducción del automóvil, la decisión de las maniobras que debe efectuar
el conductor (sobre el volante, sobre el freno, sobre el acelerador...) para que el
funcionamiento del automóvil sea el adecuado.
La toma de decisión sobre la señal que debe aplicarse al sistema implica que
existan distintas alternativas. Es decir, que existan distintas acciones posibles
cada una de las cuales darı́a un resultado distinto. El problema se reduce al de
elegir entre estas señales, aquellas cuyo resultado sea el apetecido.
El conocimiento del modelo matemático del sistema sobre el que se debe tomar
una decisión para gobernar su funcionamiento, no es suficiente para la toma de
esta decisión. Se requiere además información sobre lo que, de una forma intuitiva
de momento se puede denominar estado actual del mismo.
Es fácil encontrar ejemplos que ilustren este punto. Supóngase, por ejemplo,
un automóvil que debe hacer el recorrido Sevilla - Cádiz. Supóngase que se
dispone de un modelo matemático del funcionamiento del automóvil ası́ como
Introducción a los sistemas de control. 5
un trazado minucioso de la autopista que une las dos ciudades Parece posible,
en principio, concebir un programa de ordenador extraordinariamente detallado
que permitiese realizar la toma de decisiones sobre la conducción del automóvil.
Un programa que serı́a algo ası́ como una secuencia de instrucciones del tipo:
avanzar en lı́nea recta 150 m, realizar un giro a la derecha, con radio de giro de
1 km.,.... Sin embargo parece claro que en principio no quepa augurar un feliz
resultado a la empresa. Este tipo de programa darı́a lugar a un control en en
el que no se tiene información externa sobre la situación actual, situación que
recibe el la denominación de se denomina control en bucle abierto. Pese a sus
limitaciones, tiene su aplicación en ciertos contextos, por ejemplo una lavadora
automática basada en secuencias de trabajo prefijadas en el tiempo.
Desde un punto de vista general, cabe decir que los sistemas con realimentación
son aquéllos en los que la adopción de decisiones cara al futuro está completa-
mente influenciada por los efectos de las previamente adoptadas. Dicho con otras
palabras, son los sistemas en los que si la acción que se lleva a efecto persigue
una determinada meta, es la diferencia entre la precisión alcanzada en la aproxi-
mación a esta meta, y ella misma, la que determina las acciones posteriores. Este
tipo de actuaciones son las que se denominan control en bucle cerrado o control
por realimentación.
Conviene recordar que, en general, los sistemas fı́sicos poseen memoria del
Introducción a los sistemas de control. 6
Entrada Salida
- Toma de - Planta -
decisión
6
Elemento
de ¾
medición
pasado; por ello la salida del sistema en un instante dado no es función exclusiva-
mente de la entrada en ese mismo instante: depende de toda la historia pasada de
las entradas. Por esta razón la estructura realimentación es un objeto complejo
en cuanto a su comprensión y diseño.
Con el fin de ilustrar de una manera intuitiva este hecho, considérese a un con-
ductor que conduce un automóvil, proceso que se puede interpretar con un bucle
de realimentación tal como el de la figura 1.3. Entre la detección de un obstáculo,
y la acción correctora consiguiente (girar el volante, actuar sobre los frenos...), se
produce un cierto retardo que el conductor experimentado tiene perfectamente
asimilado, y no constituye un obstáculo para una conducción normal.
Supóngase que se trata de mantener el coche en lı́nea recta sobre una superficie
completamente llana, sin ningún obstáculo. Sobre el automóvil sólo actúan las
pequeñas perturbaciones (baches) del terreno y el conductor puede conseguir su
Introducción a los sistemas de control. 7
Perturbaciones
? ? ?
Referencia Posición
- Ojos - Conducción - -
(Sentidos) Coche
Supóngase ahora que el conductor debe realizar su cometido con los ojos
cerrados, llevando a su lado un copiloto que es el que le va transmitiendo las
indicaciones respecto a las desviaciones de la lı́nea recta que se trata de seguir.
El circuito de realimentación se modifica, en este caso, al de la figura 1.4, con
ello lo que se ha introducido es de una manera artificiosa un notable retardo en
el bucle de realimentación. Es fácil comprender, que en este segundo caso, y
debido precisamente al retraso que se introduce en el bucle de realimentación, la
conducción será fuertemente oscilante.
Perturbaciones
? ? ?
Ref. Ojos Posición
- -Transmisión -Conducción - Coche -
(Sentidos) oral
6
Por el contrario, si se puede actuar sobre los grifos durante todo el proceso,
entonces se tiene un sistema en bucle cerrado en el que la persona que se ducha
puede tomar las decisiones oportunas, y actuar sobre el sistema a través de los
grifos, para corregir cualquier perturbación que se pueda producir. El sistema,
en conjunto, ha atenuado las posibles perturbaciones exteriores, por lo tanto ha
disminuido su sensibilidad sobre las mismas.
Este ejemplo ayuda también a poner de manifiesto uno de los problemas más
importantes que se pueden producir como consecuencia de la introducción de la
realimentación. Considérese que:
Por otra parte, cabe considerar que la ingenierı́a puede describirse como una
mezcla de sentido común y ciencia. Se trata de recurrir a planteamientos teóricos
que permitan profundizar en los problemas que se estén tratando, pero sin perder
de vista que en último extremo de lo que se trata es de conseguir algo que funcione.
Estas consideraciones previas deben hacerse por cuanto que, como es lógico
según lo que se ha visto en los apartados anteriores, las matemáticas juegan un
papel fundamental en la moderna teorı́a del control automático. Tan es ası́ que
en algún sentido puede considerarse la teorı́a del control automático como una
rama de las matemáticas aplicadas.
-
Modelo Ley de
Matemático - Control
6 6
Abstracción Implementación
? ?
Sistema Sistema
Fı́sico de Control
Se entiende por señal, en un sentido amplio, toda magnitud fı́sica que evolu-
ciona en el tiempo. En un sentido más restringido se requiere además que
esta señal tenga cierto contenido informacional, es decir que sea significativa en
cierto aspecto, los tipos de señales generalmente empleados en sistemas de Con-
trol son tensiones o corrientes eléctricas, desplazamientos mecánicos y presiones
neumáticas o hidráulicas, si bien en principio no hay ningún incoveniente en in-
cluir otro tipo de señales. Se empleará aquı́ la notación habitualmente empleada
en matemáticas para referirse a una magnitud fı́sica X que, en cada instante t,
toma un cierto valor.
potencia perturbaciones
Señales de Señales de
entrada salida
u(t) y(t)
Intensidad de
inducido
Excitación
Constante
velocidad
+ e y
amplificador motor
u
-
Ta
a
Kp
K Kc c
b
Ti
Kt
+ V -
+ Vt -
Vr
+ -
Caldera
ω :velocidad del eje.
vapor
eje de la máquina.
válvula
Cilindro
ωc + válvula Máquina ω
Transmisión
de vapor
-
bolas
ω
f
y(t)
u(t) amplificador
19
Introducción a los sistemas realimentados 20
f
r(t) + e(t) u(t) y(t)
K amplificador
-
En la figura 2.1 se puede hacer la hipótesis de que el par del motor es propor-
cional a la señal eléctrica de alimentación del amplificador u(t). Con este supuesto
se puede escribir que la posición del motor y(t) viene dada por la ecuación difer-
encial:
d2 y dy
J 2
+f = u(t)
dt dt
siendo en este caso y(t) el ángulo girado por el motor, J la inercia del conjunto
motor-carga, y f el coeficiente de fricción viscosa del mismo conjunto.
Tiene lugar cuando la señal de mando del sistema es la suma de los términos, pro-
porcional y derivado de la señal de error. En este caso se dice que la compensación
es del tipo PD.
d2 y dy dr dy
J + f = Kr − Ky + Kd − K d
dt2 dt dt dt
d2 y dy dr
J + (f + K d ) + Ky = Kr + K d (2.2)
dt2 dt dt
La ecuación 2.1 muestra que el sistema es excitado ahora por la señal de error
y por un impulso. La consecuencia inmediata es que el efecto corrector (inversión
del par motor) se aplica antes que cuando el control era sólo proporcional, como se
muestra en la figuras 2.3.a y 2.3.b. En efecto, con control proporcional solamente,
Introducción a los sistemas realimentados 22
Por otro lado, también en la ecuación 2.2 se aprecia que la parte no homogenea
de la ecuación diferencial no es un escalón, sino un escalón más un impulso. Ello
determina que el sistema responda más rápidamente ya que no sólo es sensitivo
a la referencia, sino que también lo es a su variación. Todo se pone de manifiesto
observando las figuras 2.4.
1. Disminución de la sobreoscilación
2. Disminución del tiempo de subida
y y
r
(a)
t
(b)
f t
de
dt
(c)
t
de
e+ dt
(d)
g t
y y
r
(e)
t
y respuesta a Kr
r
(a)
respuesta a Kd dr
dt
respuesta a Kr + Kd dr
dt
r
(b)
R
Ki
+
+ e θ
G(s)
− K +
Interesa ver con cierto detenimiento lo que ocurre cuando la acción de mando
es del tipo PI. Para ello, en primer lugar, se establecen las ecuaciones que rigen
la evolución del sistema y que resultan ser
Z t
d2 y dy
J + f + Pe = Ke + K i e dt
dt2 dt 0
Eliminado y se tiene
Z t
d2 r d2 e dr de
Pe + J 2 − J 2 + f −f = Ke + Ki e dt
dt dt dt dt 0
Z t
d2 r dr d2 e de
Pe + J 2 + f = J 2 + f + K e + Ki e dt
dt dt dt dt 0
dr d2 r
=0 y =0
dt dt2
de d2 e
=0 y =0
dt dt2
con lo cual, Z ∞
Pe = K ep + Ki e dt
0
Introducción a los sistemas realimentados 26
θ a)
b)
z
t
R
edt
c)
R
e+ edt
d)
R
edt
e)
e z
t
θ
f)
3.1.1 Definición
Z ∞
L [f (t)] = F (s) = f (t)e−st dt
0
f (t) es una función del tiempo tal que f (t) = 0 para t < 0, s = σ + jw una
variable compleja y L un simbolo operacional. La existencia de la transformada
F (s) está condicionada a la convergencia de la integral.
Si existe una constante real y positiva σ tal que para σ > σc , e−σt | f (t) |
tiende a cero cuando t → ∞, mientras que para σ < σc tiende a infinito. El
valor σc recibe el nombre de abscisa de convergencia. La integral converge, y por
tanto existe la transformada de Laplace, si la parte real de s, (σ) es mayor que la
28
Sistemas dinámicos lineales 29
abscisa de convergencia σc .
R∞
En efecto, como F (s) = 0 f (t) e−st , realizamos la integración por partes
haciendo
Z
0 1
u = f (t) ; du = f (t) dt ; v = e−st dt = − e−st y dv = e−st dt
s
Z Z
u dv = uv − vdu
Z ∞ " #∞ Z ∞
−st f (t)e−st 1
f (t) e dt = − − − e−st f 0 (t)dt =⇒
0 s 0 0 s
f (0) 1 Z ∞ 0 Z ∞
F (s) = + f (t) e−st dt, pero f 0 (t) e−st dt = L [f 0 (t)]
s s 0 0
luego:
u = e−st ; du = −se−st dt
Z
v= f (t) dt; dv = f (t)dt
se tiene que,
Z ∞ · Z ¸∞ Z ∞ ·Z ¸
st −st −st
F (s) = f (t)e dt = e f (t)dt − −se f (t)dt dt =
0 0 0
Z Z ∞ ·Z ¸
=− f (0)dt + s f (t)dt e−st dt ;
0
Sistemas dinámicos lineales 31
Z ∞ ·Z ¸ ·Z ¸
−st
y como f (t)dt e dt = L f (t)dt =⇒
0
·Z ¸ R
F (s) f (0)dt
L f (t)dt = + c.q.d.
s s
4. Teorema del valor final:
Hay veces en que hechas las operaciones precisas con la ecuación trans-
formada, interesa conocer el valor de la función f (t) cuando t → ∞, que
en el caso de un servosistema, corresponderı́a al régimen permanente. El
procedimiento consistirı́a en hallar la antitransformada y hacer que t → ∞.
El procedimiento es laborioso y resulta mucho más cómodo verificar el valor
de la variable sobre la propia ecuación transformada.
Supondremos que existe L [f (t)] y L [f 0 (t)] y demostraremos que,
Sabemos que
Z ∞
f 0 (t)e−st dt = sF (s) − f (0) haciendo que s → 0
0
Z ∞
lim f 0 (t)e−st dt = lim [sF (s) − f (0)] (3.1)
s→0 0 s→0
Z ∞ Z ∞ Z t
pero lim f 0 (t)e−st dt = f 0 (t)dt = lim f 0 (τ )dτ =
s→0 0 0 t→∞ 0
Z ∞
lim f 0 (t)e−st dt = lim [sF (s) − f (0)]
s→∞ 0 s→∞
6. Integral de Convolución:
Sean
F1 (s) = L [f1 (t)] y F2 (s) = L [f2 (t)]
El producto de ambas,
Z ∞ Z ∞
−st
F1 (s) ∗ F2 (s) = f1 (t)e dt f2 (τ )e−sτ dτ =
0 0
(3.2)
Z ∞ Z ∞
= f1 (t)f2 (τ )e−s(t+τ ) dt dτ (3.3)
0 0
t = u−v v = τ
τ = v u = t+τ
Z ∞ Z u
F1 (s) ∗ F2 (s) = f1 (u − v) f2 (v)e−su dv du =
Z0∞ ·Z0 u ¸
= f1 (u − v) f2 (v)dv e−su du
0 0
luego
·Z u ¸
F1 (s) ∗ F2 (s) = L f1 (u − v) f2 (v) dv
0
d(s) = (s + p1 )(s + p2 ) . . . (s + pn )
de modo que los diferentes pi son reales y diferentes entre si. En tal caso la
función F (s) admite una descomposición en fracciones simples de la forma
n(s) a1 a2 an
F (s) = = + + ... +
d(s) s + p1 s + p2 s + pn
los coeficientes ai reciben la denominación de residuos de F (s) en s = −pi . Multi-
plicando los dos miembros de la expresión anterior por (s+pi ) y haciendo s = −pi
se tiene
Sistemas dinámicos lineales 34
" #
n(s)(s + pi )
ai =
d(s) s=−pi
" #
−1 ai
L = = ai e−pi t
(s + pi )
se tiene que
n(s) α1 s + α2 a3 an
F (s) = = + + ... +
d(s) (s + p1 )(s + p̄1 ) s + p3 s + pn
" #
n(s)(s + p1 )(s + p̄1 )
(α1 s + α2 )s=−p1 =
d(s) s=−pi
p1 = a + jω y p¯1 = a − jω
se tendrá
α1 s + α2 α1 s + α2
= =
(s + p1 )(s + p̄1 ) (s + a + jω)(s + a − jω)
" # " #
s+a (α2 − α1 a) ω
α1 +
((s + a)2 + ω 2 ) ω ((s + α)2 + ω 2 )
Ejemplo
Se tiene: " #
(s + 1) 1
a3 = 2
=
(s + 2s + 2) s=0
2
Por tanto,
11 1 s
F (s) = − 2
2 s 2 s + 2s + 2
11 1 s
= −
2 s 2 (s + 1)2 + 1
11 1 s+1 1 1
= − +
2 s 2 (s + 1) + 1 2 (s + 1)2 + 1
2
De donde se tiene,
1 1 −t 1
f (t) = − e cosωt + e−t senωt t ≥ 0
2 2 2
Supóngase que una de las raices del polinomio del denominador de la transformada
de Laplace es múltiple. Por ejemplo, supóngase que la raiz p1 tiene multiplicidad
r. En tal caso el denominador admitirá la descomposición:
d(s) = (s + p1 )r (s + p2 ) . . . (s + pn )
n(s) br br−1 b1 a2 an
F (s) = = r
+ r−1
+ ... + + + ... +
d(s) (s + p1 ) (s + p1 ) s + p1 s + p2 s + pn
Obsérvese que
r r−1 a2 (s + p1 )r an (s + p1 )r
(s+p1 ) F (s) = br +br−1 (s+p1 )+. . .+b1 (s+p1 ) + +. . .+
s + p2 s + pn
derivando esta expresión con respecto a s se tiene
Sistemas dinámicos lineales 37
d
[(s + p1 )r F (s)] = br−1 + 2br−2 (s + p1 ) . . . + (r − 1)b1 (s + p1 )r−2 +
ds
" # " #
d a2 (s + p1 )r d an (s + p1 )r
+ ... +
ds s + p2 ds s + pn
y haciendo en esta expresión s = −p1 se tiene
d
[(s + p1 )r F (s)]s=−pi = br−1
ds
Derivando de nuevo con respecto a s y procediendo análogamente se tiene
1 d2
br−2 = [(s + p1 )r F (s)]s=−p1
2 ds2
En general se tendrá
1 dj
br−j = j
[(s + p1 )r F (s)]s=−p1
j! ds
Ejemplo
Sea
s2 + s + 2
F (s) =
(s + 1)3
que se desconpone
b3 b2 b1
F (s) = 3
+ 2
+
(s + 1) (s + 1) (s + 1)
Se tendrá
b3 = [s2 + s + 2]s=−1 = 2
b2 = [2s + 1]s=−1 = −1
b1 = 1
Por tanto
2 1 1
F (s) = − +
(s + 1)3 (s + 1)2 (s + 1)
De donde se tiene,
f (t) = (t2 − t + 1)e−t
Sistemas dinámicos lineales 38
En automática los objetos fı́sicos que intervienen son tales que las magnitudes
fı́sicas que a ellos se asocian se pueden clasificar en dos grupos:
1. magnitudes cuyo valor puede ser variado directamente desde el exterior del
objeto fı́sico, que reciben el nombre de señales de entrada, de control, de
mando o estı́mulos; y
2. magnitudes cuyo valor puede ser medido pero cuya variación es indirecta,
a través de las señales de entrada, y que reciben el nombre de señales de
salida, de observación o respuestas.
Para denotar a las señales de entrada se emplea u(t), y para las señales de salida
se emplea y(t), siendo, en general, u(t) e y(t) vectores.
P
Se entiende por sistema el objeto abstracto formado por las relaciones que
ligan las señales u(t) e y(t). Un sistema se presenta en forma esquemática como se
hace en la figura 3.1, representación que recibe el nombre de diagrama funcional
del sistema. Definido ası́ un sistema representa una formalización del uso vulgar
de este término.
Las señales u(t) e y(t) pueden registrarse o bien de una manera contı́nua en el
Sistemas dinámicos lineales 39
Σ
u(t) y(t)
tiempo, o bien de una forma discontı́nua, es decir tomando medidas cada cierto
intervalo de tiempo. En el primer caso se tienen los llamados sistemas en tiempo
contı́nuo y en el segundo los sistemas en tiempo discreto. Estos últimos tienen
un particular interés práctico cuando se emplean computadores puesto que estas
máquinas trabajan de una forma discreta.
Se ha indicado en la sección 3.2, que un sistema está formado por las relaciones
matemáticas que ligan las señales u(t) e y(t) que lo definen. En esta sección se
van a considerar algunas formas matemáticas de las relaciones que ligan a las
señales u(t) e y(t) en tipos de sistemas comúnmente encontrados en la práctica.
Sin embargo, en el resto de estos apuntes sólo se estudiará una de las clases
consideradas en esta sección. Una posible primera clasificación elemental de las
relaciones que ligan a las señales de entrada y salida de los sistemas, es en sistemas
estáticos y sistemas dinámicos.
El caso más simple de relación entre las señales u(t) e y(t) es aquél en que ésta se
reduce a una ecuación algébrica. Por una consideración elemental de realizabili-
dad fı́sica es claro que en tal caso se podrá escribir:
en donde, para los casos de interés práctico F{.} es una función uniforme. Los
sistemas que admiten esta forma de representación reciben el nombre de sistemas
Sistemas dinámicos lineales 40
estáticos, y son aquéllos en los que el valor que toma la señal de salida y(t), en un
cierto tiempo t depende exclusivamente del valor tomado por la señal de entrada
u(t) en dicho instante de tiempo t, y no de los valores tomados por u(t) en el
pasado.
Normalmente las relaciones que ligan las magnitudes fı́sicas que definen un sis-
tema no son ecuaciones algebraicas, que conducen a sistemas estáticos, sino ecua-
ciones diferenciales. Ello es debido a que la mayor parte de las leyes de la fı́sica
se expresan por medio de esta clase de ecuaciones.
Los sistemas descritos por las ecuaciones en diferencias finitas son sistemas en
tiempo discreto, en los que la escala de tiempos toma sólo una serie de valores
discretos. Esta forma de relación se presenta en aquellas aplicaciones en las que
se emplean computadores.
Por último cabe recordar como otra forma de relación entre las señales de
entrada y salida de un sistema la que ofrecen los diagramas de estados de los
circuitos lógicos secuenciales (o, más general, de los autómatas). En dichos dia-
gramas se tenı́a representada la evolución de las señales de entrada u(t) y de salida
y(t) de un sistema cuya caracterı́stica adicional es que las señales de entrada y
de salida sólo podrı́an tomar sus valores de un conjunto finito.
Puesto que las señales que definen un sistema dinámico son las de entrada u(t) y
las de salida y(t) interesa disponer de una relación explicita directa entre ambas.
Esta relación la suministra la descripción externa que se define por una función
de entrada-salida F tal que hace corresponder al conjunto de valores tomados por
la señal de entrada u en un cierto intervalo (t0 , t), el valor tomado por la salida
y(t) en el instante t. Formalmente se puede escribir,
F (α1 u1 [t0 , t] + α2 u2 [t0 , t]) = α1 F (u1 [t0 , t]) + α2 F (u2 [t0 , t])
lim h(t, τ ) = 0
t→∞
Ejemplo:
dy
+ ay = bu
dt
Z t
y(t) = e−a(t−τ ) b u(τ )dτ
−∞
u(t) = δ(t1 )
y(t) = h(t, t1 )
Sistemas dinámicos lineales 44
y(t)
si el sistema no es estacionario o
y(t) = h(t − t1 )
si el sistema es estacionario.
Para los sistemas lineales estacionarios existe una forma de descripción externa
muy empleada en la práctica: la función (matriz) de transferencia. Se puede
Sistemas dinámicos lineales 45
Ejemplo:
d2 y dy
+ a1 + a2 y = bu
dt2 dt
Y (s) b
= H(s) = 2
U (s) s + a1 s + a2
r(t) + º·
e u y(t)
-@
@¡¡ - K - G(s) -
¡
¡
¹¸@
@
− 6m
H(s) ¾
Y (s)
= KG(s)
E(s)
M (s)
= H(s)
Y (s)
M (s)
= KG(s)H(s)
E(s)
Y (s) KG(s)
=
R(s) 1 + KG(s)H(s)
Y (s) KG(s)
=
R(s) 1 + KG(s)
Naturalmente en este caso cadena de acción y bucle abierto son dos concep-
tos coincidentes.
r(t) + º·
e u y(t)
-@
@¡¡ - K - G(s) -
¡@
¡
¹¸@
− 6m
r(t) + º·
e º· u y(t)
-@ ¡ -@
@¡ @¡¡ - K - G(s) -
¡¡@
¹¸@ ¡@
¡
¹¸@
− 6m 6
Gr (s) ¾
amplificador para que el nivel de potencia a que trabaje sea el del error, es decir,
bajo.
Tema 4
Interpretaciones de la función de
transferencia
Dada una función del tiempo periódica fT (t) de periodo T , se puede desarrollar
en serie de Fourier, de la forma:
∞
X
fT (t) = a0 + (an cos wn t + bn sen wn t)
n=1
2πn
donde wn = y los coeficientes vienen dados por:
T
2 Z T /2
an = fT (t)cos wn tdt n = 0, 1, 2, ...
T −T /2
2 Z T /2
bn = fT (t)sen wn tdt n = 1, 2, ...
T −T /2
50
Interpretaciones de la función de transferencia 51
que lo integran; ahora bien, tomando como parámetros, por agrupación de las
componentes en seno y coseno de igual frecuencia los valores:
à !
q bn
cn = a2n + b2n ϕn = tag −1
an
Por lo tanto, para definir fT (t) basta con especificar la amplitud y el desfase
que corresponde a cada frecuencia fundamental:
∞
X
fT (t) = a0 + cn sen(wn t + ϕn )
n=1
Una vez que se ha mostrado como fT (t) queda completamente definida con
a0 , cn y ϕn , pueden considerarse las relaciones,
an − jbn 1 Z T /2
= fT (t)e−jwn t dt
2 T −T /2
Interpretaciones de la función de transferencia 52
an + jbn 1 Z T /2
= fT (t)ejwn t dt
2 T −T /2
Es decir an −jb
2
n
tiene una expresión idéntica a an +jb
2
n
sin más que cambiar wn
por − wn , esto es, n por -n, luego sustituyendo en el desarrollo en serie, puede
escribirse
∞
"Z #
1 X T /2
−jwn t
fT (t) = fT (t)e dt ejwn t
T n=−∞ −T /2
La cantidad entre corchetes representa una función compleja que tiene como
parámetro el valor imaginario j wn , toda vez que el tiempo desaparece al integrar.
Esta función recibe el nombre de Transformada de Fourier de la función temporal
periódica fT (t):
Z T /2
F (jwn ) = fT (t)e−jwn t dt
−T /2
2πn 2π
wn = ; wn+1 − wn = = ∆wn
T T
luego
∞
1 X
fT (t) = F (jwn )ejwn t ∆wn
2π n=−∞
Z ∞
F (jw) = f (t)e−jwt dt
−∞
Interpretaciones de la función de transferencia 53
1 Z∞
f (t) = F (jw)ejwt dw
2π −∞
Supuesto que la integral de Fourier sea convergente, para lo cual debe cumplirse
la condición de convergencia absoluta
Z ∞
| f (t) | dt < ∞
−∞
(
e−at t > 0
f (t) = (a > 0)
0 t<0
Z ∞ Z t " #∞
−at −e−at 1
| f (t) | dt = e dt = = <∞
−∞ 0 a 0
a
y la transformada:
Z ∞ Z ∞
−jwt 1
F (jw) = f (t)e dt = e−(a+jw)t dt =
−∞ 0 a + jw
(
1 t>0
f (t) = u0 (t) =
0 t<0
la convergencia resulta:
Z ∞ Z ∞
| u0 (t) | dt = dt = ∞
−∞ 0
Interpretaciones de la función de transferencia 54
y la transformada,
Z ∞ " #∞
−jwt e−jwt
F (jw) = e dt = −
0 jw 0
H(jω) =| H | 6 ϕ
y(t)
ϕ
u(t)
|H|A
A
t t
Ejemplo:
dy
+ ay = bu
dt
Interpretaciones de la función de transferencia 55
b
y(t) = ejwt
(jw) + a
No debe, sin embargo, olvidarse que H(s) suministra información tanto sobre
el comportamiento en el dominio del tiempo (empleando las tablas de la trans-
formada de Laplace) como de la frecuencia (gracias a la propiedad expuesta). De
ahı́ que la denominación representación frecuencial no sea del todo apropiada, o
en cualquier caso debe tomarse de forma matizada.
Tema 5
5.1 Introducción
dy
+ ay = bu (5.1)
dt
56
Sistemas dinámicos lineales de primer orden 57
u(t) y(t)
En el supuesto de que la señal de entrada u(t) sea nula para todo t, la ecuación
diferencial de primer orden se convierte en
dy
= −ay y(0) = ξ (5.2)
dt
dy
= −a dt
y
u(t)
dy(t)
dt
y(t)
yh (t) = ξe−at
Las figuras 5.3 y 5.4 muestran la forma general de la evolución de yh (t) según
que a sea, respectivamente, negativa o positiva. Estas figuras muestran cómo
se comporta un sistema en ausencia de excitación. Aparece una clara distinción
entre dos formas de comportamiento que permiten una primera clasificación de
los sistemas en estables o inestables, según que la evolución libre de los mismos
tienda a una estado de reposo o no.
y(t)
dy
+ ay = v (5.3)
dt
Sistemas dinámicos lineales de primer orden 60
y(t)
d(yh + w)
+ a(yh + w) = v yh (0) + w(0) = ξ
dt
es decir,
dyh dw
+ ayh + + aw = v w(0) = ξ − yh (0)
dt dt
dw
+aw =v w(0) = 0 (5.5)
dt
Es decir, la señal w(t) constituye la respuesta del sistema ante la señal de entrada
u(t) a partir del reposo.
Z t
−at
w(t) = e eaζ v(ζ)dζ (5.6)
o
Z t
dw d Z t aζ
= −a e−at eaζ v(ζ)dζ + e−at e v(ζ) dζ = −a w + v
dt o dt o
" #
−at b b
y(t) = e ξ + (eat − 1) = e−at ξ + (1 − e−at ) (5.8)
a a
t
y(t) = K(1 − e− τ ) (5.10)
1
U (s) =
s
K A B
Y (s) = = +
s(1 + τ s) s 1 + τs
¯ ¯
K ¯¯ K¯
A= ¯ =K y B = ¯¯ = −Kτ
(1 + τ s) ¯s=0 s s=− τ1
0.9
0.8
0.7
0.637
0.6
y(t)/K
0.5
0.4
0.3
0.2
0.1
0.0
0.0 0.4 0.8 1.2 1.6 2.0 2.4 2.8 3.2 3.6 4.0
1/τ
dy K −t
= e τ (5.11)
dt τ
haciendo t = 0 se tiene,
dy K
(0) = (5.12)
dt τ
lo cual puede interpretarse tal como se hace en la figura 5.8. Recuérdese
que se ha hecho u = 1.
Sistemas dinámicos lineales de primer orden 65
K
tgα =
K τ
1 2
1− ≈ 0.632 ≈
e 3
del valor final (figura 5.9)
0.64K
τ2
τ3
τ3>τ2
τ , puede escribirse,
t
y(t) = wK(t − τ + τ e− τ ) (5.14)
u
u = ωt
ω
U (s) =
s2
con lo que ,
ωK A1 A2 B
Y (s) = = 2 + +
s2 (1 + τ s) s s 1 + τs
siendo,
" #
1 ωK
A1 = = wK
0! (1 + 2s) s=0
" #
1 d ωK
A2 = = −τ ωK
1! ds (1 + τ s) s=0
· ¸
ωK
B = = ωKτ 2
s2 s=− τ1
u(t)
y(t)
ωτ
u(t1 − τ ) y(t1 )
τ
Kωτ Kωτ
y(τ ) = ≈ (5.17)
e 3
es decir, que el sistema ha respondido sólo en un tercio del valor alcanzado
por la señal de entrada. En la figura 5.12 se interpreta este resultado.
Sistemas dinámicos lineales de primer orden 69
" #
−at wb b
y(t) = e ξ+ 2 2
− 2 (a senw t − w coswt) (5.18)
a +w a + w2
b
yrp (t) = (a senwt − w coswt) (5.19)
a2 + w2
a w
cosϕ = √ senϕ = − √ (5.20)
a2 + w2 a2
+ w2
siendo,
Relacion de Amplitudes
0.8
Sistemas dinámicos lineales de primer orden 71
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0.0
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0
ω
-10
-30
Fase(grados)
-50
-70
-90
-110
-130
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0
ω
ω=∞ ω=0
ϕ
menor que las más rápidas variaciones que se produzcan en esta señal de entrada.
Lo que a su vez se puede interpretar en el dominio de la frecuencia diciendo que
la constante de tiempo sea lo suficientemente pequeña como para que el ancho de
banda sea lo suficientemente grande para permitir el paso de todos los armónicos
de la señal de entrada, (recordar la figura 5.13). La figura 5.16 ilustra este hecho.
τ pequeño
a)
τ grande
b)
L dI E
+I =
R dt R
Sistemas dinámicos lineales de primer orden 73
dq
RC + q = CE
dt
La ganancia estática es C, puesto que Q/E es, en régimen permanente, la
capacidad del condensador. La constante de tiempo es RC.
C
E E(t) q(t)
q R, C
• Termómetro de mercurio.
Sistemas dinámicos lineales de primer orden 74
dy dQ
=C
dt dt
Por otra parte el flujo de calorı́as que entra en el mercurio se aporta funda-
mentalmente por conducción. De acuerdo con la ley de Newton es aproxi-
madamente proporcional a la diferencia de temperatura entre el medio y el
mercurio.
dQ
= k(u − y)
dt
Se concluye de las dos ecuaciones anteriores que un termómetro de mercurio
puede considerarse como un sistema lineal de primer orden. Obsérvese que,
como corresponde a un sistema de medición, la ganancia estática es k = 1.
Temperatura (u)
• Reacción quı́mica.
Supóngase la descomposición espontánea de una molécula A en dos moléculas
B y C:
A → B+C
dy
− = ky
dt
es decir,
1 dy
+y =0
k dt
Se trata de un sistema lineal de primer orden autónomo de constante de
tiempo 1/k. El parámetro k se denomina por los quı́micos constante de
velocidad de la reacción, y en la práctica presenta una gran dependencia de
la temperatura.
• Dinamómetro.
Se trata de medir la fuerza u por el desplazamiento y que imprime a un
dinamómetro de coeficiente de elasticidad k y de coeficiente de viscosidad
α, figura 5.20.
dy
u = ky + α
dt
Por lo tanto un dinamómetro es un sistema de medida lineal de primer
orden.
Sistemas dinámicos lineales de primer orden 76
Ce Q dt = Cr Q dt + M dCr
es decir,
M dCr
+ Cr = Ce
Q dt
Ce
Cr
Cr
P = kφ I
dI
u = RI + L + Kω
dt
De acuerdo con las leyes de la Mecánica el par motor P y la velocidad de
salida del motor ω, están ligados por la ecuación,
dω
P =J + Bω
dt
R L
Φ
ω
J B
dω φ φ
J + (B + kK )ω = k u
dt R R
es decir, considerando como señal de entrada la tensión aplicada al inducido
y como señal de salida la velocidad de giro del motor, se tiene un sistema
de primer orden.
Z t
y(t) = y(0) + (bu − ay)dt (5.24)
0
f = bu − ay (5.25)
u + 1 y
K τS
-
6.1 Definición
Se define un sistema lineal de segundo orden como el regido por una ecuación
diferencial de la forma,
d2 y dy du
2
+ a1 + a2 y = b0 + b1 u (6.1)
dt dt dt
79
Sistemas dinámicos lineales de segundo orden y de orden y superior 80
r2 + a1 r + a2 = 0 (6.3)
la cual se puede escribir también, en el supuesto de que sus raices sean −p1 y
−p2 , de la forma siguiente,
(r + p1 ) (r + p2 ) = 0 (6.4)
d2 y dy
+ 2 δ ω n + ωn2 y = ωn2 k u(t) (6.5)
dt2 dt
Esta forma es especialmente útil cuando se trata con sistemas cuyas raices de
la ecuación caracterı́stica son complejas. Los parámetros que intervienen en esta
forma reciben una denominación especial.
Las relaciones que ligan a los parámetros de la forma (6.2) con los de la forma
(6.5) son las siguientes.
Sistemas dinámicos lineales de segundo orden y de orden y superior 81
s
1 β a1
ωn = k= δ= (6.6)
a2 ωn2 2ωn
ẋ1 = −p1 x1 + u
ẋ2 = −p2 x2 + u (6.7)
y = c1 x1 + c2 x2 (6.8)
siendo
β β
c1 = y c2 = (6.9)
p2 + p1 p1 − p2
Para comprobar este resultado basta proceder por sustitución, lo que se invita
a hacer al lector. Más adelante se estudiará el procedimiento general que permite
este tipo de descomposiciones.
Empleando el cálculo matricial, las expresiones 6.7, 6.8 y 6.9 pueden escribirse
de la forma siguiente,
ẋ = Ax + Bu (6.10)
y = Cx
en donde
" # " #
−p1 0 1
A= B= C = [c1 c2 ] (6.11)
0 −p2 1
observación que tener presente que la diferencia básica que existe entre el álgebra
de los números reales y la de las matrices, es que esta última no es conmutativa.
· Z t ¸
y(t) = CeAt ξ + e−Aζ B u(ζ) dζ (6.12)
0
" #
−At ep1 t 0
e = (6.15)
0 ep2 t
Sistemas dinámicos lineales de segundo orden y de orden y superior 83
Z t " #
−Aζ − pu1 (1 − ep1 t )
e B u(ζ) dζ = (6.16)
0 − pu2 (1 − ep2 t )
u u
y(t) = C1 (1 − e−p1 t ) + C2 (1 − e−p2 t ) (6.17)
p1 p2
" #
βu βu
y= (1 − e−p1 t ) + (1 − e−p2 t )
p1 (p2 − p1 ) (p1 − p2 )p2
β β β
y(t) = − e−p1 t − e−p2 t (6.18)
p1 p2 (p2 − p1 )p1 p2 (p1 − p2 )
Obsérvese que,
√
p1 p2 = ωn2 β = ωn2 p2 − p1 = 2ωn δ2 − 1 (6.20)
Este mismo resultado se puede alcanzar con mayor sencillez operativa emple-
ando la transformada de Laplace. En efecto, teniendo en cuenta que la trans-
formada de Laplace de una entrada en escalón es U (s) = 1/s, se tiene que, de
acuerdo con la expresión 5.2, la transformada de Laplace de la salida y(t) resulta
1 ωn2
Y (s) =
s s2 + 2δωn s + ωn2
Sistemas dinámicos lineales de segundo orden y de orden y superior 84
1 u(t)
y(t)
a)
ωn t
1 u(t)
y(t)
b)
ωn t
1.38
y(t)
1 u(t)
c)
ωn t
3.3
e−δωn t
y(t) = 1 − √ sen (ω0 t + ϕ)
1 − δ2
siendo, √
√ 1 − δ2
ω0 = ωn 1− δ2 ϕ= t−1
g
δ
factor de amortiguamiento δ
Im
√
jωn 1 − δ 2
ωn
−δωn Re
√
−jωn 1 − δ 2
e−δωn t √
y(t) = 1 + √ 2
sen(ω n 1 − δ 2 t − α) (6.25)
1−δ
Esta expresión suministra la forma analı́tica en la respuesta de un sistema
de segundo orden, con factor de amortiguamiento menor que la unidad,
a una respuesta en escalón. La forma general de la respuesta se tiene en
la figura 6.1, en la que se observa que el comportamiento de un sistema
de segundo orden con factor de amortiguamiento menor que la unidad está
caracterizado por la presencia de oscilaciones. Esta forma de respuesta, que
se caracteriza por una sinusoide exponencialmente amortiguada, se dice que
es subamortiguada.
Sistemas dinámicos lineales de segundo orden y de orden y superior 87
2π
Tp = √ (6.27)
ωn 1 − δ 2
Instante de tiempo al cual se produce el primer pico de oscilación del sis-
tema, puede obtenerse, de una forma analı́tica, derivando y(t) con relación
al tiempo, e igualando esta derivada a cero. En efecto, se tiene:
dy(t) δωn e−δωn t √ √
=− √ sen(ω 1 − δ 2 t−α)+ω e−δωn t cos(ω 1 − δ 2 t−α) = 0
n n n
dt 1 − δ2
(6.28)
Esta derivada se anulará cuando,
√
ωn 1 − δ 2 t = 0, π, 2π, ..
π
tp = √ (6.29)
ωn 1 − δ 2
El tiempo tp recibe la denominación de tiempo de pico. Llevando el valor
de tp a la expresión 6.25 se tiene,
√
2
e−δπ/ 1−δ
ymax (t) = 1 + √ sen(π − α) (6.30)
1 − δ2
la cual, habida cuenta de que,
√
sen(π − α) = senα y senα = 1 − δ2 (6.31)
puede escribirse, ³ ´
− √ δπ
ymax (t) = 1 + e 1−δ 2 (6.32)
Sistemas dinámicos lineales de segundo orden y de orden y superior 88
p1 = p
p2 = p + ε
Llevando estos dos valores a los términos segundo y tercero, del segundo
miembro, de la expresión 6.18 se tiene,
" #
β pt b 1 eεt
e − e(p+ε)t = βept − (6.34)
εp ε(p + ε) εp (p + ε)
100
80
Sobreoscilacion
60
40
20
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0
δ
2.0
1.8
δ=0.1
1.6
1.4
1.2 0.5
0.7
y(t)
1.0
1.0
1.2
0.8 1.5
2.0
0.6
5.0
0.4
0.2
0.0
0.0 1.2 2.4 3.6 4.8 6.0 7.2 8.4 9.6 10.8 12.0
ωnt
siendo
Vo
Yo = q
(a2 − ω)2 + a21 ω 2
(6.38)
h i
ϕ = tg−1 −a1 /(a2 − ω 2 ) (6.39)
1
Q= √ (6.40)
2δ 1 − δ2
Sistemas dinámicos lineales de segundo orden y de orden y superior 92
√
ωR = ωn 1 − 2δ 2 (6.41)
δ=0.1
4
RELACION DE AMPLITUDES
3
0.2
2 0.3
0.4
0.5
1
0.707
1.0
2.0
5.0
0
0.0 0.5 1.0 1.5 2.0 2.5
PULSACION ω/ωn
Una vez estudiado los sistemas de primero y segundo orden, conviene recordar
los resultados correspondientes a sistemas de orden n. Supóngase que el modelo
Sistemas dinámicos lineales de segundo orden y de orden y superior 93
0
δ=
0. 0.1
2
-30 0. 0.3
5
0.
70
7 0.4
1.
0
-60 2.
0
5.
DESFASE
0
δ=5.
-90 0
2.0
-120
0.7 1.0
07
0.5
0 0.
-150 0.2 .3 4
0.1
-180
0.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0
PULSACION ω/ωn
dn y dn−1 y dy dm u
+ a1 + · · · + an−1 + an y = bo + · · · + bm u (6.42)
dtn dtn−1 dt dtm
bo sm + b1 sm−1 + · · · + bm
Y (s) = n U (s) (6.44)
s + a1 sn−1 + · · · + an−1 s + an
Q(s) Q(s)
Y (s) = = (6.45)
P (s) (s − p1 )n1 (s − p2 )n2 . . . (s − pq )np
à !¯
1 dni−k h i ¯
ni ¯
cik = ni−k
(s − pi ) Y (s) ¯¯ (6.47)
(ni − k)! ds s=pi
Si todos los polos son simples, es decir, si todos los valores de ni son igual a
la unidad, entonces la expresión 6.46 se escribe
q
X ci1
Y (s) = (6.48)
i=1 s − pi
k Πm
i=1 (s − zi )
Y (s) = n
(6.50)
Πi−1 (s − pi )
Qm m n
k | s − zi | X X
Y (s) = Qni=1 6 ( φiz − φip ) (6.52)
i=1 | s − pi | i=1 i=1
es decir, puesto que Y (s), de acuerdo con la expresión 6.52, se determina como
el cociente de dos expresiones complejas, cada una de las cuales es a su vez el
producto de términos elementales de la forma (s − pi ) el módulo de Y (s) será el
cociente de los productos de los respectivos módulos, mientras que el argumento
será la diferencia de las sumas de los correspondientes argumentos.
Im
s
s − Pi
Pi s − Zi
s
Zi
Re
¯
k(s − pi ) Πm ¯
i=1 (s − zi ) ¯
ci = (s − pi ) Y (s) |s=pi = ¯
Πni=1 (s − pi ) ¯
s=pi
Sistemas dinámicos lineales de segundo orden y de orden y superior 97
2. dibujar los vectores desde todos los polos y ceros al polo pi en el que se está
determinando el residuo.
Representación gráfica de la
función de transferencia
K(s + c1 ) . . . (s + cm )
G(s) =
(s + p1 ) . . . (s + pn )
Se puede representar G(s) indicando la posición de sus ceros −ci y de sus polos
−pi en el plano de la variable compleja s (fig. 7.1).
98
Representación gráfica de la función de transferencia 99
Im
K
Re
Im
ω=∞ ω=0
Re
ω = 100
ω=1
ω = 10
log |G(jω)|
log ω
Arg G(jω)
log ω
o
-180
• décadas log10 A
• octavas log2 A
Representación gráfica de la función de transferencia 101
log|G(jω)|
ω=1
o
-180
o 0
-90
Arg G(jω)
K>1
20logK
Amplitud(dB)
K<1
-20logK
K(numero positivo)
0.0
Fase(grados)
-90.0
K(numero negativo)
-180.0
ω(rad/s)
Figura 7.5: Diagrama de Bode de una constante
20
Amplitud (dB)
0
-20dB/dec
-20
-40
90
Fase(grados)
-90
-180 -1 0 1 2
10 10 10 10
ω(rad/s)
•
ω¿p
En tal caso se tendrá que
1
20 log | | ≈ 20 log 1 = 0dB
jω
1+
p
•
ωÀp
en cuyo caso
1 1 ω
20 log | | ≈ 20 log | | = −20 log
jω jω p
1+
p p
Por tanto, la representación gráfica del módulo de G presenta dos ası́ntotas. Para
valores bajos de ω la ası́ntota es sencillamente la recta horizontal trazada en 0
dB; mientras que para valores altos de la frecuencia la ası́ntota es una recta de
pendiente -20 dB/década. Estas dos ası́ntotas se cortan en el punto ω = p.
20
Amplitud(dB)
0
1dB 3dB
-20 1dB
-40
0
Fase(grados)
-45
-90 -1 0 1 2
10 10 10 10
ω(rad/s)
G(jω) = jω
40
Amplitud(dB)
20
+20dB/dec
-20
90
Fase(grados)
45
0 -1 0 1 2
10 10 10 10
ω(rad/s)
Un sistema con un cero con parte real positiva recibe la denominación de sistema
de fase no mı́nima, mientras que si todos ceros tienen parte real negativa recibe
la denominación de sistema de fase mı́nima. En los sistemas de fase no mı́nima
el valor que toma la fase es mayor, para un mismo valor de la frecuencia, que
Representación gráfica de la función de transferencia 107
40
Amplitud(dB)
+20dB/dec
20
1dB
3dB
1dB
90.0
Fase(grados)
67.5
45.0
22.5
0.0 -1 0 1 2
10 10 10 10
ω(rad/s)
Im Im
ω
ω
G1 (s) G2 (s)
z Re Re
−p 0 −z −p 0
Sin embargo, por la que respecta a los argumentos es claro que se tendrá:
arg G1 (jω) ≥ arg G2 (jω) ∀ω ≥ 0
En la figura 7.11 se tienen las correspondientes curvas de fase. Se comprende la
denominación de sistema de fase mı́nima para G2 .
θ
o
180
o
90 G1(jω)
-1 1
10 0 10
10
2
10 ω
G2(jω)
o
-90
7.4 Cı́rculos M y N
Im
(−1 + j0) 0
A β φ α Re
1+G G
P
√ 2
OP x + y2
M= =q
AP (1 + x)2 + y 2
de donde se concluye
à !2
2 M2 M2
y + x+ 2 =
M −1 M2 − 1
Esta expresión indica que el lugar geométrico en el plano complejo de los puntos
para los que el módulo de T (jω) es constante viene dado por un cı́rculo de centro
M2
c=−
M2 − 1
y de radio ¯ ¯
¯ M ¯
r = ¯¯ 2 ¯
M − 1¯
La familia de cı́rculos correspondientes a diferentes valores de M se tiene en
la figura 7.14. Esta figura admite una facil interpretación. Si en ella se dibuja
la función de transferencia en bucle abierto G(jω) entonces leyendo esta misma
curva en el sistema de coordenadas curvilı́neas definido por los cı́rculos M se
tiene el módulo de la función de transferencia en bucle cerrado T (jω). Por lo que
respecta a las fases, se puede proceder de manera análoga a como se ha hecho
con los módulos. En este caso se tiene que, de acuerdo con la expresión (7.6)
Representación gráfica de la función de transferencia 111
Im
Re
−1 + j0 0
α
1+G G
φ
Y (s) G(s)
Td (s) = = (7.7)
R(s) 1 + G(s)
E(s) 1
= (7.8)
R(s) 1 + G(s)
Supóngase que los polos de Td (s) se denotan por −pi y que los ceros se hacen
por −ci . En tal caso se tiene:
Representación gráfica de la función de transferencia 113
k(s + c1 ) (s + c2 ) · · · (s + cm )
Td (s) = (7.9)
(s + p1 ) (s + p2 ) · · · (s + pn )
E(s)
= eo + e1 s + e2 s2 + · · · (7.10)
R(s)
eo
E(s) = + e1 + e2 s + ... (7.11)
s
Es decir que
Por lo tanto aplicando el teorema de valor final, el valor del error en régimen
permanente erp será:
1
erp = limt → ∞ e(t) = lims → 0 sE(s) = lims → 0 = eo (7.13)
1 + G(s)
1
eo = (7.15)
1 + kp
E(0) 1
= lim (7.16)
R(0) s → 0 1 + G(s)
E(0) 1
= (7.17)
R(0) 1 + kp
Y (s) E(s)
=1− (7.18)
R(s) R(s)
Y (0) kp
= (7.19)
R(0) 1 + kp
Y (0) / R(0)
kp = (7.20)
1 − Y (0) / R(0)
Y (0) k Πm cj
= n j=1 (7.21)
R(0) Πj=1 Pj
en donde
Representación gráfica de la función de transferencia 115
Πm
j=1 Cj = producto de ceros
Πnj=1 Pj = producto de polos
k Πmj=1 Cj
kp = (7.22)
Πj=1 Pj − kΠm
n
j=1 Cj
Y (s) E(s)
=1− = 1 − e1 s − e2 s2 (7.23)
R(s) R(s)
Y (0)
=1 (7.24)
R(0)
k × c1 ......cm
1= (7.25)
p1 p2 ......pn
Esta expresión muestra la relación existente entre los polos ceros y la constante
k de un sistema en bucle cerrado para que el error de seguimiento en posición sea
nulo.
1/s2 e1
E(s) = = + e2 + .... (7.26)
1 + G(s) s
Aplicando el teorema del valor final se tendrá que el error en régimen perma-
nente a una rampa será
1
= lim = e1
s→0 sG(s)
1
e1 = (7.28)
kv
Y (s)
= 1 − e1 s − e2 s2 − ....
R(s)
à !
d Y (s) 1
= −e1 = − (7.29)
ds R(s) s=0
kv
à !
Y (s) Y (0)
= =1
R(s) s=0
R(0)
³ ´ Ã !
d
1 − ds
(Y (s)/R(s)) d Y (s)
s=0
= =− ln (7.30)
kv (Y (s)/R(s))s=0 ds R(s) s=0
à !
1 d
=− (ln k + ln(s + c1 ) + .. − ln(s + p1 ) − ..) s=0 (7.31)
kv ds
1 1 1
= −( + .... − − ...)s = 0
kv s + c1 s + p1
Xn Xm
1 1 1
= − (7.32)
kv i=1 pi j=1 cj
Por consiguiente 1/kv es igual a la suma de los inversos de los polos menos la
suma de los inversos de los ceros, todo en bucle cerrado.
n
X m
X
1 1
= (7.33)
j=1 pj j=1 cj
Ejemplo.
Y (s) ωn2
= 2
R(s) s + 2δωn s + ωn2
ωn
kv = (7.34)
2δ
ω
erp =
kv
e2
E(s) = + e3 + s e4 + ... (7.35)
s
Representación gráfica de la función de transferencia 119
ka = lims→∞ s2 G(s)
se tendrá que
1
e2 =
ka
à ! à !2
d2 Y (s) (Y /R)” (Y /R)1
2
ln = −
ds R(s) Y /R Y /R
Xn Xm
2 1 1 1
− = 2+ 2
− 2
ka kv j=1 pj j=1 cj
Y (s) bo sm + · · · + bm−1 s + bm
= n (7.36)
R(s) s + a1 sn−1 + · · · + an−1 s + an
Representación gráfica de la función de transferencia 120
Y (s) bo sm + · · · + bm−1 s + bm
= n
R(s) s + a1 sn−1 + · · · + an−1 s + an
= co + c1 s + c2 s2 + · · ·
bm
co = (7.37)
an
bm−1 co − an−1
c1 =
bm
E(s) T (s)
=1−
R(s) R(s)
Y (s) an
= n (7.38)
R(s) s + · · · + an−1 s + an
Representación gráfica de la función de transferencia 121
bm−1 − an−1
c1 = (7.39)
bm
Y (s) an−1 s + an
= n n−1
(7.40)
R(s) s + a1 s + · · · + an−1 s + an
8.1 Introducción
122
Estabilidad de los sistemas dinámicos 123
Definición
De una forma más compacta puede decirse que un sistema es estable si,
Z t
y(t) = h(t, τ ) u(τ ) dτ (8.1)
−∞
Teorema
Z t
| h(t, τ ) | dτ ≤ k < ∞ (8.2)
−∞
Demostración
1. Suficiencia
Se trata de demostrar que si se cumple la condición (8.2), entonces ante
una señal de entrada acotada, | u(t) |< k1 para todo t, la señal de salida
y(t) es también acotada. En efecto, se tiene:
Z t Z t
| y(t) |=| h(t, τ ) u(τ )dτ |≤ | h(t, τ ) | u(τ ) | dτ
−∞ −∞
Z t
≤ k1 | h(t, τ ) | dτ ≤ kk1
−∞
2. Necesidad
Se trata de demostrar que si las señales de entrada u(t) y de salida y(t) son
acotadas, entonces siempre se cumple la expresión 8.2. Ello es equivalente
a demostrar que si no se cumple la expresión 8.2 entonces pueden existir
señales de salida y(t) que no esten acotadas aunque lo esté la señal de
entrada u(t).
Supóngase que la expresión (8.2) no se cumple, es decir
Estabilidad de los sistemas dinámicos 125
Z t
| h(t1 , τ ) | dτ = ∞
−∞
u(t) = sgn[h(t1 , τ )]
en donde,
0 si x = 0
sgn x = 1 si x > 0
−1 si x < 0
Es claro que u(t) es acotada. Sin embargo la señal de salida del sistema no
lo es,
Z t1 Z t1
y(t1 ) = h(t1 , τ ) u(τ ) dτ = | h(t1 , τ ) | dτ = ∞
−∞ −∞
Z t
y(t) = h(t − τ ) u(τ ) dτ (8.3)
0
Z ∞
| h(τ ) | dτ < k < ∞ (8.4)
0
Teorema
Una forma equivalente de expresar lo anterior es decir que los polos de G(s)
tienen la parte real negativa.
Demostración
• Ejemplo 1
Sea el sistema cuya función de transferencia es G(s) = 1/s. Este sistema no
es estable, de acuerdo con las anteriores definiciones. En efecto, considérese
una señal de entrada en escalón U (s) = 1/s. Se tendrá que la señal de
salida será Y (s) = 1/s2 . Por lo tanto
• Ejemplo 2
Según la definición anterior un oscilador simple es un sistema inestable. En
efecto, considérese el sistema cuya función de transferencia es G(s) = 1/(1+
s2 ) que corresponde a un oscilador. La respuesta impulsional correspon-
diente es g(t) = sen t, la cual se representa en la figura 8.1 (a). Supóngase
ahora que se aplica a dicho sistema una señal de entrada periódica rectan-
gular, de amplitud unidad y de periódo el mismo del oscilador, tal como la
de la figura 8.1 (b). La señal de salida viene dada por la expresión 8.3.
Supóngase ahora que en la expresión 8.3 se hace t = 0. El producto de
señales g(−τ ) u(τ ) está representado en la figura 8.1 (c). Es claro que y(0)
es precisamente el área cubierta por dicha curva, cuando τ tiende a infinito.
Por lo tanto y(0) = ∞. Es decir, el sistema es inestable.
A este mismo resultado se llega inmediantamente considerando los polos de
la función de transferencia, que resultan estar situados en el eje imaginario.
Figura 8.1:
1. comprobar si m < n;
sn+1 + a1 sn + · · · + an (8.6)
Para determinar si el anterior polinomio tiene raices con parte real negativa
se procede como sigue:
a1 a2 − a3 · 1
β1 =
a1
(8.8)
a1 a4 − a5 · 1
β2 =
a1
Ejemplo
¯
4 ¯ 1 3 2
¯
¯
3 ¯
¯
5 1 0
2 ¯ 14/5 2
¯
¯
1 ¯ −36/14 0
¯
0 ¯ 2
como hay dos cambios de signo en la primera columna existirán dos raices en
el semiplano derecho. Por consiguiente el sistema es inestable.
semiplano positivo abierto. Por lo tanto, cuando lo único que interese sea conocer
si el sistema será estable o no, se procederá a construir la tabla de Routh hasta
encontrar un elemento de la primera columna que sea negativo o cero. Cuando
aparezca un elemento negativo o nulo, se suspenderá la construcción de la tabla,
y se dictaminará que el sistema es inestable.
2. Aparece una fila con todos los elementos nulos, antes de llegar a la fila n+2.
Ejemplo
2ε − 3
lim = −∞
ε→0 ε
Estabilidad de los sistemas dinámicos 131
1
1
0
−∞
3
Ejemplo
¯
4 ¯ 1 3 2
¯
3 ¯ 3 3 0
¯
¯
2 ¯
¯ 2 2
1 ¯ 0 0
¯
4 ¯ 1 3 0
¯
¯
3 ¯
¯
3 3 0
2 ¯ 2 2
¯
¯
1 ¯ 4 0
¯
0 ¯ 2
La aplicación de las dos reglas anteriores, a los dos casos singulares que se
acaban de discutir, debe tomarse con ciertas reservas. En particular, la aplicación
de la primera regla (introducción de pequeños parámetros ε) sólo está justificada
cuando el polinomio no tiene raices sobre el eje imaginario. En el libro Theorie
des matrices de Gantmacher, pág. 181, se tiene un ejemplo de un caso al que la
aplicación de las reglas no es válida. Ello, sin embargo, no debe preocupar puesto
que lo que normalmente interesa de la aplicación del criterio de Routh-Hurwitz
es, sencillamente, determinar si el sistema será estable o no, lo cual puede hacerse
en todo caso sin ninguna ambiguedad, detectando si existe algún cero o algún
cambio de signo en la primera columna de la tabla de Routh.
a1 a3 a5 ... 0 0
1 a2 a4 ... 0 0
0 a1 a3 ... 0 0
H=
0 1 a2 ... 0 0
(8.10)
.. .. .. .. ..
. . . . .
0 0 0 . . . an−2 an
H1 = a1
à !
a1 a3
H2 = det
1 a2
a1 a3 a5
H3 = det 1 a2 a4 (8.11)
0 a1 a3
Hn = det H
algébricas, que,
H1 = α1
H2 = α1 β1
H3 = α1 β1 γ1 (8.12)
ImF (s)
jω
C
F (C)
Z=3
P =1
σ ReF (s)
Figura 8.3: Aplicación del contorno C1 : (a) C1 no rodea ningún polo ni cero; (b)
C1 rodea un polo
N =Z −P
en donde N es el número de veces que la curva F (C) rodea al origen, y Z y
P representan, respectivamente, el número de ceros y de polos contenidos en la
curva C en el plano s.
U + Y
H(s)
-
de esta expresión resulta claro que los polos de T (s) son los ceros de 1 + G(s).
jω ImH(s)
A H(C)
H(s)
C 1 + H(s)
R=∞
−1
0 σ ReH(s)
Hemos visto que los polos de la función de transferencia en bucle cerrado T (s)
son los ceros de 1 + G(s). Por tanto, la estabilidad del sistema en bucle cerrado
estará garantizada si no existe ceros de 1 + G(s) en el interior del contorno de
Nyquist.
Estabilidad de los sistemas dinámicos 137
Veamos ahora cómo se construye la función G(s). Para ello basta observar que
el contorno de Nyquist se compone de tres partes. La recta OA que corresponde
al eje imaginario del plano complejo y que, por tanto, corresponde a la función de
transferencia G(jω) para valoreS positivos de ω. La recta BO correspondiente a
la parte negativa del eje imaginario. Y, por último, a la curva que une AB, que
se encuentra situada en el infinito del semiplano positivo del plano s. Por tanto,
al recorrer OA, se está recorriendo G(jω) para valores de ω de cero a infinito.
Análogamente, al recorrer BO se está recorriendo G(jω) desde menos infinito a
cero. Por último, al recorrer de A a B se está en valores de s con módulo infinito.
En este último caso, si G(jω) es tal que elgrado del polinomio del numerador es
menor que el del denominador, esta función tomará el valor cero.
ImH(s)
ω<0
−1 ω = −∞
ω=∞ ReH(s)
ω>0
Figura 8.6: Diagrama polar y contorno G(C) para un sistema de primer orden
jω ImH(s)
ω−
C H(C0 )
R=∞ R=∞
C0 −1 ω = −∞
σ ω=∞ ReH(s)
ω+
Figura 8.7: Contorno de Nyquist y G(C) para un sistema con un polo en el origen
Estabilidad de los sistemas dinámicos 139
Im
ω>0
Re
ω<0
ω≈0
Im
−180o
Re
Para valores grandes de K (Kg en la figura 8.8) se observa que G(C) rodea
al punto crı́tico en el sentido contrario de las agujas del reloj; es decir, N = −1.
Por otra parte P = 1, debido al polo en el semiplano de la derecha, por lo que
Z =N +P =0
Para valores pequeños de K (Kp en la figura 8.8) la curva G(C) rodea al punto
crı́tico en el sentido positivo de las agujas del reloj, por lo que N = +1 y Z = 2,
por lo que el sistema posee dos raices con parte real negativa y es inestable.
Sin embargo, para los sistemas de fase mı́nima, es posible enunciar la siguiente
regla práctica:
Estabilidad de los sistemas dinámicos 141
Según se acaba de enunciar en la regla práctica del criterio de Nyquist se tiene que
la estabilidad depende de la posición del punto crı́tico con relación al trazado polar
de la función de transferencia (figura 8.10). Este hecho sugiere la conveniencia
de introducir una medida de la distancia de G(C) a este punto crı́tico, por lo que
se define grado de estabilidad del sistema realimentado por
ImH(jω)
−1
ReH(jω)
Φm 1
• Para una fase de 180 grados el módulo del vector de la función de transfer-
encia en bucle abierto debe ser inferior as la unidad.
De este modo, los márgenes de fase y de ganancia establecen las posibles varia-
ciones de la función de transferencia G(s) debidas a perturbaciones eventuales
que no afecten a la estabilidad del sistema. En la práctica se considera que un
margen de fase de 50 grados y un margen de ganancia de 10 dB son satisfactorios.
Un margen de ganancia por debajo de los 30 grados no suele ser aceptable.
Tema 9
Compensación de sistemas
realimentados
9.1 Introducción.
r(t) + º·
e u y(t)
-@
@¡¡ - K - G(s) -
¡
¡
¹¸@
@
− 6m
H(s) ¾
143
Compensación de sistemas realimentados 144
Y (s)
= KG(s)
E(s)
M (s)
= H(s)
Y (s)
M (s)
= KG(s)H(s)
E(s)
Y (s) KG(s)
=
R(s) 1 + KG(s)H(s)
Observese que, en este caso, la señal de actuación sobre el sistema es pro-
porcional a la señal de error. Se trata pues de un control proporcional (P).
El valor de la ganancia K del amplificador será, por tanto, un parámetro
susceptible de ser variado de acuerdo con las necesidades del problema.
En lo que sigue se supondrá siempre que la cadena de realimentación es
unitaria, con lo que el esquema fundamental quedará de la forma que se
indica en figura 9.2 y quedando la función de transferencia en bucle cerrado
reducida a
Compensación de sistemas realimentados 145
Y (s) KG(s)
=
R(s) 1 + KG(s)
Naturalmente en este caso cadena de acción y bucle abierto son dos concep-
tos coincidentes.
r(t) + º·
e u y(t)
-@
@¡¡ - K - G(s) -
¡
¡
¹¸@
@
− 6m
d2 y dy
J 2
+f = u(t)
dt dt
siendo en este caso y(t) un ángulo (θ), J la inercia del conjunto motor-carga
y f el coeficiente de fricción viscosa del mismo conjunto.
transitorio. No obstante, como lo normal es que éstas se vean empeoradas con una
actuación de este tipo, o en el mejor de los casos, no se consigan exactamente las
que se pretende que tenga el sistema, es por lo que se desarrollaran a continuación
los procedimientos de compensación que se han dado en llamar Clásicos en razón
de ser los primeros que se utilizaron.
Gr (s) ¾
Tiene lugar cuando la señal de mando del sistema es la suma de los términos,
proporcional y derivado de la señal de error. En este caso se dice que la compen-
sación es del tipo PD. La función de transferenia de una red de este tipo es de la
forma,
Gr(s) = K (1 + τ s)
Amplitud(dB)
+20dB/dec
1/τ
ω(rad/s)
-260
Fase(grados)
-310
-360
1/τ
Compensada
Amplitud(dB)
0 dB
Sin compensar
Fase(grados)
Compensada
o MF2
-180
MF1
Sin compensar
ω(rad/s)
60
Amplitud(dB)
30
0
-360 -270 -180 -90 0
Fase(grados)
100
Sin compensar
50
Amplitud(dB)
Compensado
-50
-100
-300 -240 -180 -120 -60
Fase(grados)
Queda añadir, finalmente, que las redes PD, son irrealizables fisicamente,
porque el grado de su polinomio numerador es mayor que el grado de su polinomio
denominador. No obstante, en un sistema eléctrico, sı́ se puede conseguir una red
de este tipo utilizando elementos activos, aunque aún en este caso, la solución no
tiene interés práctico ya que estas redes presentan un comportamiento muy malo
frente a los ruidos.
-20dB/dec
1/τ
0
Fase(grados)
-45
-90
1/τ
ω(rad/s)
La figura 9.10, muestra que τ1 debe elegirse menor que wR para afectar sola-
mente la respuesta del sistema a bajas frecuencias y aumentar la precisión del
mismo, ya que si por el contrario, se elige τ1 > wR aumentará el pico de resonan-
cia, pudiendo llegarse a inestabilizar el sistema original, como muestra la figura
9.10.
Amplitud(dB)
Compensado
0 dB
Sin compensar
Sin compensar
Fase(grados)
o
MF1
-180
MF2
Compensado
ω(rad/s)
50
Amplitud(dB)
25
0
-100 -80 -60 -40 -20 0
Fase(grados)
1 K
Gr(s) = K (1 + + τ2 s) = (1 + τ1 s + τ1 τ2 s2 )
τ1 s τ1 s
Se ve pues que, con una acción PID, al sistema se le añade un polo en el origen
(se cambia el tipo), una acción derivada primera, y una acción derivada segunda.
Tomando τ1 = τ2 = τ el diagrama de Bode queda como indica la figura 9.12 y su
efecto sobre un sistema se muestra en la figura 9.13.
Amplitud(dB)
-20dB/dec 20dB/dec
1/τ
ω(rad/s)
90
Fase(grados)
-90
1/τ
ω(rad/s)
100
50
Amplitud(dB)
-50
-100
-300 -240 -180 -120 -60
Fase(grados)
1 + τs 1 1
Gr(s) = ; α<1 =⇒ <
1 + ατ s τ ατ
0 dB
1/τ 1/at
ω(rad/s)
-300
Fase(grados)
-330
-360
1/τ 1/at
ω(rad/s)
son prácticamente los mismos que los que produce una red PD. La diferencia entre
ambas redes radica en el término (1 + ατ s) cuyo efecto sobre el ancho de banda y
sobre el margen de fase es prácticamente despreciable si se elige convenientemente
el valor de 1/ατ . Este valor, como es natural, debe elegirse notablemente superior
al de la frecuencia para la cual la ganancia es 0dB, con objeto de que su efecto
sea despreciable. Los criterios que presidirán la elección de estos valores se verán
más adelante, al considerar los métodos de diseño. Lo que aquı́ interesa resaltar
es el caracter de aproximación a la red PD que presenta la red de adelanto de
fase.
Compensado
Amplitud(dB)
0 dB
Sin compensar
Fase(grados)
Compensado
o
-180 MF2
Sin compensar
-1 0 1 2 3
10 10 10 10 10
ω(rad/s)
ei = jZ + eo con e0 = jR0
siendo
1
R jwC R
Z= 1 =
R+ jwC
1 + jwCR
eo e0 0 e0 R 0 eo R + R0 + jwCRR0
ei = 0 Z + e0 = 0 (Z + R ) = 0 ( +R)= 0
R R R 1 + jwCR R 1 + jwCR
Compensación de sistemas realimentados 157
ei R0 es
e0 R0 (1 + jwCR) R0 1 + jwCR
= 0 0
= 0
. RR0
ei R + R + jwCRR R + R 1 + jwC. R+R 0
R0
y llamando R+R0
= α y τ = CR queda
e0 1 + jwτ 1 0 es 1 + jwτ
G0 r(s) = =α ; Gr(s) = G r(s) = =
ei 1 + jwατ α ei 1 + jwατ
como función de transferencia de la red.
wτ − wτ α
tan Φ =
1 + αw2 τ 2
y la frecuencia a la cual se produce el máximo:
s s
1 1 1 1
w = wm = =
τ τα τ α
Compensación de sistemas realimentados 158
el valor de Φ = Φm es máximo,
wm τ (1 − α) wm τ (1 − α) 1−α
tan Φm = 2 τ2
= = √
1 + αwm 1+1 2 α
y de aquı́
√ 1−α
tan Φm 2 α 1−α 1−α
sen Φm = 2
= q =√ =
1 + tan Φm 1 + (1−α)
2
4α + 1 + α2 − 2α 1+α
4α
relación ésta más manejable que la anterior y que da el valor de para el margen
de fase apetecido, Φm . El valor de τ se deducirá de la expresión
s
1 1 1 √
wm = =⇒ = wm α
τ α τ
sustituyendo wm por la pulsación para la cual queremos que se produzca el
máximo adelanto de fase.
Debe hacerse notar que para que la ganancia estática del sistema no quede
afectada, hay que aumentar la ganancia del amplificador en el valor α1 , siendo α
la atenuación que produce la red a bajas frecuencias.
50
Mm ωm1
Amplitud(dB)
ωm2
Sin compensar
-50
Compensada
-150
-300 -240 -180 -120 -60
Fase(grados)
K
G(s) =
s(1 + s)(1 + 0.0125s)
Resolución:
1
100(1 + 5.7 s)
G0 (s) = 1
s(1 + s)(1 + 0.0125s)(1 + 57
s)
Con este ejemplo se han ilustrado los pasos necesarios para la colocación de
una red de avance de fase, de forma que su aprovechamiento sea el máximo
posible.
Compensación de sistemas realimentados 161
Amplitud(dB)
0dB ω1
ωm ω2
-10dB
-1 0 1 2 3
10 10 10 10 10
ω(rad/s)
Figura 9.18:
Tema 10
Representación matemática de
sistemas
10.1 Introducción
10.1.1 Generalidades
162
Representación matemática de sistemas 163
Los problemas del tipo de los anteriores se solucionan con ayuda de la denominada
descripción interna que no es sino una relación explı́cita indirecta entre las señales
de entrada y de salida. La relación se dice que es indirecta puesto que u(t) e y(t)
no están relacionadas directamente sino a través de otra variable x(t) llamada
estado del sistema dinámico, que juega un papel primordial en esta forma de
descripción.
φ(t2 , t0 , x0 , u) = φ(t2 , t1 , x1 , u)
x1 = φ(t1 , t0 , x0 , u)
Definición
(U, Y, X, φ, η)
en donde la función de transición φ cumple las propiedades a), b), c), más
arriba indicadas.
Son aquellos en que el estado sólo puede formar un conjunto finito de valores.
Igualmente las señales de entrada y salida sólo pueden tomar sus valores de un
conjunto finito. En tal caso las funciones de transición y de lectura pueden ser
tabuladas. Estos sistemas se estudian en cursos sobre sistemas lógicos o sobre
teorı́a de autómatas y aquı́ se mencionan a tı́tulo de ejemplo y para mostrar la
profunda unidad del concepto de sistema dinámico.
Ejemplo
1/0
2
0/0
1 1/0
0/0
0/1 1/1
X = {1, 2, 3}
U = {0, 1}
Y = {0, 1}
U e Y son secuencias de 1 y 0.
¯ ¯
En cuanto a φ y η pueden representarse en forma tabular como sigue,
Representación matemática de sistemas 167
φ η
0 1 0 1
1 1 1 0 0
2 1 3 1 1
3 1 2 0 0
Una amplia clase de sistemas dinámicos lineales en tiempo continuo admite una
representación matemática de la forma
ẋ = A(t)x + B(t)u
y = C(t)x + D(t)u (10.3)
ẋ = Ax + Bu
y = Cx (10.4)
dn y dn−1 y
+ a1 + ... + an y = u (10.5)
dtn dtn−1
Se definen,
di−1 y
xi = i = 1, ...n (10.6)
dti−1
ẋ1 = x2
ẋ2 = x3
.. .. ..
. . .
ẋn = −an x1 − ... − a1 xn + u
y = x1 (10.7)
³ ´
xT = x1 x2 · · · xn
0 1 0 . . . 0
0 0 1 . . . 0
. . . .
A= . . . . (10.8)
. . . .
0 0 0 . . . 1
−an −an−1 −an−2 . . . −a1
³ ´
BT = 0 0 ··· 1 (10.9)
³ ´
C= 1 0 ··· 0 (10.10)
Para el caso en que la ecuación (10.5) tome la forma más general siguiente:
dn y dn−1 y dn−1 u
+ a1 n−1 + ... + an y = b1 n−1 + ... + bn u (10.11)
dtn dt dt
u 1 v y
d n
v(s) 1
= (10.13)
u(s) d(s)
es decir
d(s)v(s) = u(s)
Por otra parte,
n(s)v(s) = y(s) (10.14)
se tiene que el par (A, B) para ese sistema será el dado por la expresiones (10.8-
10.9). Además, llevando (10.15) a (10.14) se tiene
Por tanto, las expresiones (10.8) y (10.9) son igualmente válidas pero la (10.10)
toma la forma más general,
³ ´
C= bn bn−1 · · · b1 (10.16)
+ + + y
+ + +
b1 b2 bn−1 bn
u + ẋn R xn R xn−1 R x2 R x1
-
a1 a2 an−1 an
Ejemplo
d3 y d2 y dy du
3
+ 4 2
+ 3 + 2y = 3u + 2
dt dt dt dt
0 1 0 0 ³ ´
A= 0 0 1
B= 0
C= 3 2 0
−2 −3 −4 1
dn y dn−1 y dn−1 u
+ a1 + ... + a n y = b1 + ... + bn u (10.17)
dtn dtn−1 dtn−1
1 1 1
y= (b1 u − a1 y) + ... + n−1 (bn−1 u − an−1 y) + n (bn u − an y) (10.18)
D D D
Representación matemática de sistemas 173
bn bn−1 b1
ẋ1 = −an xn + bn u
ẋ2 = −an−1 xn + x1 + bn−1 u
...
ẋn−1 = −a2 xn + xn−2 + b2 u
ẋn = −a1 xn + xn−1 + b1 u
y = xn
0 0 0 ... −an
1 0 0 ... −an−1
0 1 . .
A=
. . 1 .
(10.19)
. . . . .
0 0 0 ... −a2
0 0 0 1 −a1
C = (0 0 . . . 1) (10.21)
Ejemplo
d3 y d2 y dy du
3
+ 4 2
+ 3 + 2y = 3u + 2
dt dt dt dt
0 0 −2 3 ³ ´
A = 1 0 −3 B= 2 C= 0 0 1
0 1 −4 0
Representaciones equivalentes
Ejemplo
Sean dos sistemas dinámicos cuyas funciones de transferencia son las siguien-
tes:
1 s+2 s+2
T1 (s) = T2 (s) = =
s+1 s2 + 3s + 2 (s + 1)(s + 2)
y = C1 x
T1 ẋ = A1 T −1 x + B1 u
ẋ = T A1 T −1 x + T B1 u
y = C1 T −1 x
Ejemplo
ẋ = Ax + Bu
y = Cx (10.23)
en el caso en que las matrices (A, B, C) no dependan del tiempo, es decir estén
formadas por números.
en donde φ(t) = L−1 [φ(s)]. La matriz φ(t) recibe el nombre de matriz de tran-
sición
Representación matemática de sistemas 178
u x y
B φ(s) C
Para el caso de sistemas que varı́en con el tiempo la expresión (10.25) toma
la forma más general,
Z t
x(t) = φ(t, t0 )x(t0 ) + φ(t, τ )B(τ )u(τ )dτ (10.26)
0
1
φ(s) =
s−a
es decir
φ(t) = eat
en donde
Ak tk
φ(t) = eAt = I + At + ... + + ... (10.28)
k!
Ejemplo
à !
1 1
A=
0 1
Se trata de determinar la matriz de transición φ(t) por los dos métodos indi-
cados más arriba.
Luego P k
t P tk
∞
à !
X k k
A t k! (k−1)! et tet
eAt = =
=
k!
k=0 P tk 0 et
0 k!
Representación matemática de sistemas 180
Z t
y(t) = C(t)φ(t1 , t0 )x(t0 ) + C(t) φ(t1 , τ )B(τ )u(τ ) dτ (10.29)
t0
Z t
y(t) = C(τ )φ(t1 , τ )B(τ )u(τ )dτ (10.30)
−∞
Por otra parte, y para sistemas invariantes en el tiempo, a partir de las ex-
presiones (28) y (15) se puede escribir
Y (s)
H(s) = = C(sI − A)−1 B (10.32)
U (s)
Ejemplo
ψ(0) = I
ψ(k + 1) = Φψ(k)
n−1
X
x(n) = ψ(n − k)x(k) + ψ(n − j − 1)Bu(j)
j=k
ψ(k) = Φk
y la función de transferencia,
Y (z)
H(z) = = C(zI − A)−1 B
U (z)
ẋ = Ax + Bu
y = Cx
Al ser excitado el sistema 10.38 con una señal escalonada u(t) se obtendrá una
señal de salida y(t). Supóngase que de esta señal se miden solamente los valores
que toma en el conjunto discreto de tiempos t = kT para k = 0, 1, 2, ... Es decir
la señal de salida se muestrea de manera periódica, con un perı́odo T .
La evolución del estado del sistema 10.38 vendrá dada de acuerdo con (10.25),
por la expresión
Z t
x(t) = φ(t − t0 )x(t0 ) + φ(t − τ )Bu(τ )dτ
t0
Si se hace t0 = kT y t = T (k + 1) se tendrá,
Z (k+1)T
x((k + 1)T ) = φ(T )x(kT ) + φ((k + 1)T − τ )Bu(kT )dτ
kT
ÃZ !
T
x(k + 1 T ) = Φ(T )x(kT ) + Φ(α)Bdα u(kT )
0
Llamando, ÃZ !
T
Γ= Φ(α)Bdα ; Φ(T ) = Φ
0
Representación matemática de sistemas 184
Ejemplo
d2 y dy du
2
+ = + 2u
dt dt dt
à ! à !
0 1 0
A= ; B= ; C = (2 1)
0 −1 1
Y (s) s+2
=
U (s) s(s + 1)
Supóngase que este sistema se somete a una entrada escalonada y que su salida
se muestrea, ambos procesos con periodo t = T seg. Se trata de determinar el
sistema en tiempo discreto equivalente (ver figura 9).
Se tendrá
" #−1 " # 1 1
s −1 1 s+1 1
s s(s + 1)
φ(s) = (sI − A)−1 = = = 1
0 s+1 s(s + 1) 0 s
0
(s + 1)
Por tanto,
Representación matemática de sistemas 185
à !
1 1 − e−t
φ(t) =
0 e−t
luego à !
1 0.428
Φ=
0 0.572
Z 1Ã !Ã ! Z 1Ã ! Ã !
1 1 − e−α 0 1 − e−α 0.572
Γ= dα = dα =
0 0 e−α 1 0 e−α 0.428
C = (2 1)
ẋ = f (x, u, t) (10.39)
ẋ∗ = f (x∗ , u∗ , t)
Por otra parte la trayectoria real será la indicada por (10.39). Si las variaciones
de la trayectoria real con relación a la nominal son pequeñas se podrá escribir,
llamando δx = x − x∗ y δu = u − u∗ y empleando la formula de Taylor,
" # " #
∂f ∂f
(δ ẋ) = f (x, u, t) − f (x∗ , u∗ , t) = δx + δu (10.40)
∂x x = x∗ ∂u x = x∗
u = u∗ u = u∗
Para fijar ideas supóngase que la dimensión del vector x es 2. Las ecuaciones
(10.39) toman la forma
ẋ1 = f1 (x1 , x2 , u, t)
ẋ2 = f2 (x1 , x2 , u, t)
y supóngase que la trayectoria nominal viene dada por x∗1 (t), x∗2 (t) y u∗ (t).
à ! ∂f1 ∂f1 à ! ∂f1
δ ẋ1 ∂x ∂x2 δx1
∂u
=
∂f2
1
∂f2
+
∂f2 δu
δ ẋ2 x1 = x∗1 (t) δx2 x1 = x∗1 (t)
∂x1 ∂x2 x2 = x∗2 (t) ∂u x2 = x∗2 (t)
u = u (t)∗ u = u∗ (t)
Ejemplo
ẋ1 = x2
ẋ2 = au − bx22
Representación matemática de sistemas 187
c1 c2
q1 q2
V, c
αt2
x∗1 =
2
x∗2 = αt
1
u∗ = (α + bα2 t2 )
a
à ! à ! à ! à !
δ ẋ1 0 1 δx1 0
= + δu
δ ẋ2 0 −2bαt δx2 a
dv(t)
= q1 (t) + q2 (t) − q(t) (10.41)
dt
d[c(t)v(t)]
= c1 (t)q1 (t) + c2 (t)q2 (t) − c(t)q(t) (10.42)
dt
0 = q10 + q20 − q0
0 = c1 q10 + c2 q20 − c0 q0
r
v0
q0 = k
a
Las variaciones de las distintas variables con respecto a los valores tomados
en régimen estacionario se denotarán mediante un tilde sobre la variable corres-
pondiente. Es decir,
q̃(t) = q(t) − q0
representa la variación del caudal q respecto al valor estacionario q0 . Análogamente
se definen el resto de las variables
ṽ(t) = v(t) − v0
q
k ∂ v(t)
q(t) − q0 = √ |v=v0 (v(t) − v0 )
a ∂v(t)
Es decir r
k v0
q̃(t) = ṽ(t) (10.44)
2v0 a
De este modo la relación entre la variación q̃(t) del caudal con respecto al valor
en régimen estacionario, y la correspondiente al volumen ṽ(t), queda linealizada.
Llevando las definiciones de las variaciones ṽ(t), q̃1 (t), q̃2 (t) y c̃(t) a las expresiones
(14.5) y (14.6) y tendiendo en cuenta la definición del régimen estacionario y
(14.8) se tiene que
dṽ(t) 1 q0
= q̃1 (t) + q̃2 (t) − ṽ(t)
dt 2 v0
dc̃(t) dṽ(t) 1 c 0 q0
v0 + c0 = c1 q̃1 (t) + c2 q̃2 (t) − ṽ(t) − q0 c̃(t)
dt dt 2 v0
v0
τ=
q0
Representación matemática de sistemas 190
Si se escribe
x1 = ṽ
x2 = c̃
u1 = q̃1
u2 = q̃2
y1 = q̃
y2 = c̃
y
v0
τ=
q0
se tiene que las ecuaciones del sistema dinámico linealizado pueden escribirse de
la forma siguiente:
à ! 1
ẋ1 − 0 1 1
= 2τ x + c1 − c0 c2 − c0 u
ẋ2 1
0 − v0 v0
τ
Sistema dinámico lineal que describe el comportamiento del sistema perturbado
en torno al régimen estacionario.
Tema 11
Controlabilidad y observabilidad
de sistemas dinámicos
11.1 Introducción
191
Controlabilidad y observabilidad de sistemas dinámicos 192
φ(t1 , t0 , x, u(t0 , t1 )) = x1
P
El espacio de estados X de un sistema dinámico se dice alcanzable desde
x si Ax = X.
u1
x=0
u2
Ax
u3
φ(t1 , t0 , x1 , u(t0 , t1 )) = x
u1 x=0
Cx
u2
u3
φ(t1 , t0 , x0 , u(t0 , t1 )) = x1
Ejemplo
Controlabilidad y observabilidad de sistemas dinámicos 195
C C
x1 x2
R R
se tiene:
" #−1 " # 1 1
s −1 1 s 1
s s2
(sI − A)−1 = = =
1
0 s s2 0 s 0
s
por tanto
" # " #
1 t 1 T
φ(t) = φ(T ) =
0 1 0 1
Z (k+1)T
Γ = φ ((k + 1)T − τ ) Bdτ
kt
σ = τ − kT
Z T
Γ = φ(t − σ)B = dσ
0
θ = T −σ
Z T
Γ = φ(θ)Bdθ
0
x1 = Ax0 + Bu0
x1,1 = α + T β + (T 2 /2) u0
x2,1 = β + T u0
α + T β + (T 2 /2) u0 = 0
es decir
−(α + T β)
u0 =
T 2 /2
Pero también se ha de cumplir:
β + T u0 = 0
β
u0 = −
T
Controlabilidad y observabilidad de sistemas dinámicos 198
Por tanto, para que exista una señal uo que transfiera en un solo paso el
estado [α, β] al origen se requiere que este estado no sea uno cualquiera,
sino que esté situado en la región del espacio de estados definida por la
expresión:
α + Tβ
β=
T /2
T β = 2α + 2T β
2α + T β = 0
x2 = A2 x0 + ABu0 + Bu1
es decir
x2,1 = α + 2T β + (3T 2 /2)u0 + (T 2 /2)u1
x2,2 = β + T u0 + T u1
T u0 + T u1 = −β
Por tanto, para una posición arbitraria del estado [αβ] existe una secuencia
de señales de actuación sobre el sistema uo u1 que transfiere ese estado arbi-
trario al origen. En tal caso estamos autorizados para decir que el sistema
es controlable al origen, de acuerdo con la definición que hemos introducido
más arriba.
• Sistema no controlable.
Consideremos ahora el sistema definido por las ecuaciones:
" # " #
1 1 1
xk+1 = Axk + Buk = xk + uk
0 2 1
x1 = Ax0 + Bu0
x1,1 = α + β + u0
x2,1 = 2β + u0
x1,1 = x2,1 = 0 ⇔ α = β
x2 = A2 x0 + ABu0 + Bu1
es decir
x2,1 = α + 3β + 2u0 + u1
x2,2 = 4β + 2u0 + u1
2u0 + u1 = −α − 3β
2u0 + u1 = −4β
" #
2 1
det =0
2 1
α + 3β = 4β ⇔ α = β
" #
α + 7β + 4u0 + 2u1 + u2
x3 =
8β + 4u0 + 2u1 + u2
Controlabilidad y observabilidad de sistemas dinámicos 201
Nos encontramos, por tanto, en este segundo ejemplo con un sistema del que
no podemos decir que sea controlable; es decir, del que dado un estado inicial
arbitrario no podemos determinar una secuencia de entrada que lo transfiera al
origen. solamente, si el estado inicial se encuentra en una cierta región privile-
giada, que denominamos subespacio controlable, es posible esta transferencia.
Lo que se acaba de ver para estos dos ejemplos concretos es fácilmente gener-
alizable para un sistema cualquiera en tiempo discreto:
En tal caso, para una secuencia de entrada de p se tendrá que el estado que
se alcanza ser:
es decir
u0
. . . u1
−An x0 = [An−1 B .. · · · ..AB ..B]
...
un−1
Para que este sistema de ecuaciones tenga solución, de modo que dado un
estado inicial arbitrario xo se pueda determinar una secuenciauo u1 u2 . . . un−1 se
requiere que la matriz C sea de rango completo.
Controlabilidad y observabilidad de sistemas dinámicos 202
Ejemplo
ẋ1 = u
ẋ2 = ax2
y = x1 + x 2
u x1
x2
señal de entrada u(t) que debe aplicarse en el intervalo (0, τ ), se calcula fácilmente
de acuerdo con
d
u(t) = x1 (t) para t ∈ [0, τ ]
dt
x1
t
τ seg
Para sistemas estacionarios, que son los que se considerarán en estos apuntes,
existe un criterio muy simple que permite establecer si un cierto sistema dinámico
es controlable o no. Este criterio se basa en unas propiedades algebraicas del par
(A, B). Este criterio se establece con el siguiente teorema.
Teorema
P
Un sistema es controlable si y sólo si
rango C = n
µ ¶
. . .
en donde C ≡ B ..AB .......An−1 B y n = dim X.
Controlabilidad y observabilidad de sistemas dinámicos 204
Demostración
1. Necesidad
Se trata de demostrar que si el sistema es controlable entonces se cumple
que el rango de la matriz de controlabilidad es n.
(sistema controlable ⇒ rango C = n)
Se sabe Z t1
At1
x(t1 ) = e x(0) + eA(t−τ ) Bu(τ ) dτ (11.1)
0
∞
Aτ
X Ai ti
e =
i=0 i!
n−1
X
eAτ = αi (τ )Ai
i=0
luego
n−1
X Z t1
i
x(0) = − AB αi (−τ )u(τ ) dτ (11.2)
i=0 0
Controlabilidad y observabilidad de sistemas dinámicos 205
es decir:
ν0
h i
ν1
x(0) = B AB AB 2
... A n−1
B
..
.
νn−1
Puesto que x(0) es arbitrario la anterior expresión implica que debe ser
posible representar cualquier vector como una combinación lineal de las
columnas de C. Luego, según la definición de controlabilidad, que el sistema
sea controlable implicará (es necesario) que rango C = n.
2. Suficiencia
Se trata de demostrar que si el rango de C es n, entonces el sistema es
controlable, es decir, existe una señal de entrada que lo transfiere al origen.
Formalmente,
rango C = n ⇒ sistema controlable
Sea
rango C = n
Si se aplica al sistema una señal
Ejemplo 1
x1
-1
+1
x2
-2
ẋ1 = −x1 + u
ẋ2 = x1 − 2x2 + u
Controlabilidad y observabilidad de sistemas dinámicos 207
es decir
" # " #
−1 0 1
A= B=
1 −2 1
" #
1 −1
C= det C = 0
1 −1
Este ejemplo nos pone en alerta sobre una interpretación intuitiva de la con-
trolabilidad basada en los diagramas de la descripción interna.
Ejemplo 2
1 " #
− 0 1 1
x(t) = 2τ
−1 x(t) + 0 0
u(t)
0
τ
x2 (0) x1 (0)
s−1 s−1
s−1 s−1
x̂2 (s) x̂1 (s)
−1
−1
τ
2τ
û1 (s)
û2 (s)
x M
θ
g
ẍ(t) = [x(t) − u(t)]
L
" #
0 −1
C=g
−1 0
Este ejemplo representa una versión simple de un problema más general que
presentan muchos sistemas mecánicos en los que aparecen problemas de bal-
anceo tales como el mantenimiento de un satélite en su órbita, el control de
un helicóptero o un cohete cuando asciende verticalmente.
d(s)y = n(s)u
Controlabilidad y observabilidad de sistemas dinámicos 210
P
Entonces es controlable si y sólo si los polinomios n(s) y d(s) no tienen
factores comunes.
x = Tx
es decir
b = Tb
A = T AT −1
luego
C=T C
µ ¶
. . .
rango B ..AB .......An−r B = n
Lema
µ ¶ µ ¶
. . . . . .
rango B ..AB .......Ak−1 B = rango B ..AB .......Ak B = p
entonces
µ ¶
. . .
rango B ..AB .......Ae B = p para todo e ≥ k − 1
Demostración
El hecho de que
µ ¶ µ ¶
. . . . . .
rango B ..AB .......Ak−1 B = rango B ..AB .......Ak B
rango B = r
ẋ = Ax + Bu
y = Cx
³ ´
C = B AB ... An−1 B
tal que
rango C = n1 < n
à !
C1
TC =
0
..
³ ´
C 1 .
.. ∼
..
C . I ··· . T
.
0 ..
x = Tx
à !
C1
C = TC = =
0
à !
C11 C12 ... Cn
= =
0 0 0
³ ´
= B AB · · · An−1 B (11.5)
à !
B1
B= (11.6)
B2
Se descompone
à !
A11 A12
A= (11.7)
A21 A22
à ! à ! à !
A11 A12 C1 A11 C1
AC = = (11.8)
A21 A22 0 A21 C1
Por otra parte ³ ´
AC = AB A2 B ... An B (11.9)
A partir de la expresión (3), se sabe que las (n−n1 ) últimas filas de C son igual
n
a cero. Por otra parte se sabe que A puede expresarse como una combinación
lineal de = Ai , para i − 1...n − 1, según
n−1
X
n i
A = αi A
i=0
De lo anterior se desprende:
à ! à !
A11 A12 B1
A= B=
0 A22 0
X = X1 ⊕ X2
Ejemplo
Sea el sistema
1 0 0 1
A= 1 1 2 B= 1
−1 0 −1 −1
Controlabilidad y observabilidad de sistemas dinámicos 216
Σ1 x1
u
x̄1 = Ā11 x̄1 + Ā12 x̄2 + B̄1 u
C1
C2 + y
x2
Σ2
x̄2 = Ā22 x̄2
1 1 1
C= 1 0 1
−1 0 −1
1 1 1 1 0 0 1 1 1 1 0 0
(C I) = 1 0 1 0 1 0
∼ 0 −1 0 −1 1 0 ∼
−1 0 −1 0 0 1 0 1 0 1 0 1
1 1 1 1 0 0
0 −1 0 −1 1 0
0 0 0 0 1 1
Luego
Controlabilidad y observabilidad de sistemas dinámicos 217
1 0 0
T =
−1 1 0
0 1 1
1 0 0 1 0 0 1 0 0 1 0 0
(T I) = −1 1 0 0 1 0 ∼ 0 1 0 1 1 0
∼
0 1 1 0 0 1 0 1 1 0 0 1
1 0 0 1 0 0
0 1 0 1 1 0
0 0 1 −1 −1 1
Luego
1 0 0
T −1 = 1 1 0
−1 −1 1
A partir de T y T −1 se tendrá
1 0 2
A = T A T −1 =
−1 −1 2
0 0 1
1
B=TB= 0
0
Es decir
1 0 0 1
ẋ = −1 −1 2 x + 0 u
0 0 1 0
à ! à ! à ! à !
d x1 1 0 x1 1
= + u
dt x2 −1 −1 x2 0
Observabilidad
x1 (k + 1) = x1 (k) + x2 (k)
x2 (k + 1) = 2x2 (k)
x(k + 1) = Ax(k)
Controlabilidad y observabilidad de sistemas dinámicos 219
y(k) = x1 (k)
" #
1 1
A=
0 2
h i
C= 1 0
luego
y(0) = x1 (0)
y(1) = x1 (0) + x2 (0)
x1 (0) = y(0)
x2 (0) = y(1) − y(0)
2. Sistema no observable
Sea A como antes pero
y(k) = x2 (k)
h i
C= 0 1
entonces se tendrá
y(0) = x2 (0)
y(0) = Cφx(0) = 2x2 (0)
Controlabilidad y observabilidad de sistemas dinámicos 220
luego
1
x2 (0) = y(0) = y(1)
2
pero no se puede determinar x1 (0). El sistema no es observable [debido a
la dependencia lineal entre C y CA ].
3. Caso general
xk+1 = Axk
yk = Cxk
xk = Ak x0 y(k) = CAk x0
y0 = Cx0
y1 = CAx0
..
. =
yn−1 = CAn−1 x0
y0 C
y1 CA
.. = .. x0
. .
yn−1 CAn−1
C
CA
O=
...
CAn−1
11.6.2 Observabilidad
P
Definición Un sistema se dice observable en el instante t0 , si y sólo si para
todo estado x(t0 )²X, existe un tiempo t > t0 tal que el conocimiento de u(t0 , t),
de y(t0 , t) y de (A, C) basta para determinar x(t0 ).
Controlabilidad y observabilidad de sistemas dinámicos 221
11.6.3 Reconstructibilidad
P
Definición Un sistema se dice reconstructible en t0 , si y sólo si ∀x(t0 ) ∈ X, t <
t0 tal que el conocimiento de u[t, t0 ], de y[t, t0 ] y de (A, C) basta para determinar
x(t0 ).
Observabilidad ⇔ reconstructibilidad
Teorema
P
Un sistema es observable si y sólo si
rango O = n
³ ´T
en donde O = C T AT C T ... (An−1 )T C T y n = dim x.
Demostración
1. Necesidad
Controlabilidad y observabilidad de sistemas dinámicos 222
De (8) se tiene que para todo estado inicial x(t0 ) = KυKεR, la salida será
y(t) = 0
lo que significa que existen estados iniciales x(t0 ) 6= 0 (todos los que de la
forma Kυ) los cuales no pueden determinarse (distinguirse por observación
de la señal de salida y(t) ante una entrada nula u[t0 , t1 ] = 0. Ello está en
P
contradicción con la hipótesis de que sea observable.
2. Suficiencia
Se trata de demostrar que si el rango O = n entonces el sistema es observ-
able, o lo que es lo mismo, por contradicción, que el hecho de que el sistema
sea no observable, implica que el rango O < n.
P
Supóngase que no es observable. Entonces deben existir al menos dos
estados x1 y x2 tales que x1 6= x2 y x1 indistinguible de x2 . Es decir
CeAT x1 ≡ CeAT x2
P
Sea x0 = x1 − x2 ; entonces la respuesta de para u = 0 a partir de x0 será
Controlabilidad y observabilidad de sistemas dinámicos 223
CeAt x0 = 0
CAeAt x0 = 0
An−1 eAt x0 = 0
Cx0 = 0
CAx0 = 0
..
.
CAn−1 x0 = 0
es decir
C
CA
.. x0 = 0
.
CAn−1
Ox0 = 0
Sea el cilindro con inercia unitaria, y sin rozamiento que hemos visto en los
ejemplos de introducción.
Controlabilidad y observabilidad de sistemas dinámicos 224
x1 (0)
x2 (0)
t
T
x2 (0)
t
T
ÿ + a2 y = a2 u
" # " #
0 1 0 h i
A= b= c= 1 0
−a2 0 a2
y = x1
ẏ = x2
" #
1 0
O=
0 1
" #
s −1
sI − A =
a2 s
" #
1 s 1
φ(s) = (sI − A)−1 = 2
s + a2 −a2 s
s 1
s2 + a2 s a2
+
=
a2 s
− 2
s + a2 s + a2
2
luego
1
cos (aT ) sin(aT )
φ(t) = a
−a sin(aT ) cos (aT )
se tendrá
1 0
O= 1
cos (aT ) sin(aT )
a
kπ
sin(aT ) = 0 T =
a
(k entero)
Por tanto, para determinados valores del perı́odo del muestreo T el sistema
pierde su observabilidad.
Controlabilidad y observabilidad de sistemas dinámicos 227
OT = O
Si
rango O = n1 < n
O1 T
T T OT = . . .
0
³ ´
en donde O1 T : n1 × np. La determinación de O1 se hace a partir de OT I
obteniendo una matriz equivalente
Controlabilidad y observabilidad de sistemas dinámicos 228
.
³ ´
O T ..
1
.. ..
O1 T
. I ∼
··· . T
T
.
0 ..
−1
Si se hace x = T x es fácil ver que
à !
A11 0
A=
A21 A22
à !
B1
B=
B2
³ ´
C= C1 0
ẋ = A11 x1 + B 1 u
y = C 1 x1
C1 y
x̄1 = Ā11 x̄1 + B̄1 u
x2 = A21 x1 + A22 x2 + B2 u
1. Σ ∼ Σ
2.
A11 0 A13
A = A21 A22 A23
0 0 A33
B1
B=
B2
0
³ ´
C= C1 0 C3
Ejemplo:
1 0 0 1 ³ ´
A= 1 1 2 B= 1 C= 1 1 1
−1 0 −1 −1
La matriz de controlabilidad es
1 1 1
C= 1 0 1
−1 0 −1
1 1 1 1 0 0
(C I) = 1 0 1 0 1 0
∼
−1 0 −1 0 0 1
1 1 1 1 0 0
∼
0 −1 0 −1 1 0 ∼
0 1 0 1 0 1
1 1 1 1 0 0
∼
0 −1 0 −1 1 0
0 0 0 0 1 1
luego
Controlabilidad y observabilidad de sistemas dinámicos 231
1 0 0
T =
−1 1 0
0 1 1
1 0 0
T −1 = 1 1 0
−1 −1 1
Por lo tanto
1 0 0
A = T AT −1 = −1 −1 2
0 0 1
1
B = TB = 0
0
³ ´
C = CT −1 = 1 0 1
à !
1 0
Ac =
−1 −1
à !
1
Bc =
0
³ ´
Cc = 1 0
à !
1 0
Oc =
1 0
Controlabilidad y observabilidad de sistemas dinámicos 232
cuyo rango es 1.
Am = 1
bm = 1
cm = 1
1 0 0
A= 1 1 2
−1 0 −1
F1 = I
a1 = −r̃ AF1 /1 = −1
0 0 0
F2 = AF1 + a1 I = 1 0 2 a2 = r̃AF2 /2 = −1
−1 0 −2
−1 0 0
F3 = AF2 + a2 I = −1 −1 −2
a3 = −r̃AF3 /3 = 1
1 0 1
luego
Controlabilidad y observabilidad de sistemas dinámicos 233
s2 − 1 0 0
1
(sI − A)−1 = s − 1 s2 − 1 2s − 2
∆(s) 2
−s + 1 0 s − 2s + 1
siendo ∆(s) = s3 − s2 − s + 1.
(s2 − 1) s2 − 1 1
T (s) = c(sI − A)−1 b = 3 2
= 2
=
s −s −s+1 (s − 1)(s − 1) s−1
Ello hace que según la naturaleza del problema a tratar se adopten unas
bases para el vector de estado que hagan que la forma que toma en ellas la terna
(A, B, C) sea lo más cómoda posible para la resolución del problema en cuestión.
En ello reside una de las grandes ventajas del uso de la descripción interna, ya
que ésta permite escoger la forma de representación de la terna (A, B, C) más
cómoda en cada caso.
tuitiva. Aquı́ se introducirán estas formas canónicas bajo una óptica algebraica
que permita tanto su generalización cómoda a sistemas multivariables como su
aplicación práctica.
d(s)y = n(s)u
d(s)v = u
luego
d(s)y = n(s)d(s)v
es decir
y = n(s)v
Sea
x1 = v
x2 = ẋ1 = v̇
.. .. ..
. . .
xn = ẋn−1 = v (n−1)
En resumen
Controlabilidad y observabilidad de sistemas dinámicos 235
ẋ1 x1 0
ẋ2 0 1 0 ... 0 x2 0
ẋ3 0 0 1 ... 0 ...
...
.. = + n
. 0 0 0 ... 1
...
...
−an −an 1 −an−1 ... −a1 ... ...
ẋn−1
ẋn xn 1
Sistemas monovariables
³ ´
C = B AB ... An−1 B
Tc = CC −1
0 1 0 ... 0
0 0 1 ... 0
A=
0 0 0 ... 1
.. .. .. ..
. . . .
−an −an−1 −an−2 ... −a1
T
³ ´
B = 0 0 0 ... 1
³ ´
C= bn bn−1 bn−2 ... b1
b1 sn−1 + b2 sn−2 + · · · + bn
G(s) = n
s + a1 sn−1 + a2 sn−2 + · · · + an
0 0 0 ··· 0 1
0 0 0 ··· 1 β1
.. .. .. .. .. ..
C=
. . . . . .
(11.12)
0 0 1 ··· ···
0 1 β1 · · · βn−3 βn−2
1 β1 β2 · · · βn−2 βn−1
0
0
..
³ ´
.
βi = −an −an−1 ... −a1 βo
.
..
βi−2
βi−1
an−1 an−2 ... a1 1
an−2 an−3 ... 1 0
−1
C =
...
(11.13)
a1 1 ... 0 0
1 0 ... 0 0
−1
basta comprobar que CC = I.
3. Se hace Tc = CC −1 .
Ejemplo
1 1 0 1
A = 0 1 −1 B = 1
2 3 1 −1
³ ´
C= 0 1 2
La matriz de controlabilidad es
1 2 4
C = 1 2 −2
−1 4 14
Controlabilidad y observabilidad de sistemas dinámicos 238
y el polinomio caracterı́stico de A es
ϕ(A) = s3 − 3s2 + 6s − 2
6 −3 1
−1
C = −3 1 0
1 0 0
4 −1 1
= −2 −1 1
−1
Tc−1 = CC
−4 7 −1
0, 1667 −0, 1667 0
Tc = 0, 1667 0 0, 1667
0, 5 0, 6667 0, 1667
0 1 0
A = Tc ATc−1 = 0 0 1
2 −6 3
0
B = Tc B = 0
1
³ ´
C = CTC−1 = −10 13 −1
−s2 + 13s − 10
G(s) =
s3 − 3s2 + 6s − 2
Sistemas monovariables
0 0 ... 0 −an
1 0 ... 0 −an−1
A=
0 1 ... 0 −an−2
.... .. .. ..
. . . . .
0 0 ... 1 −a1
T
³ ´
B = bn bn−1 bn−2 ... b1
³ ´
C= 0 0 ... 1
Si x = T0 x se tendrá
−1
T0 = O O
Controlabilidad y observabilidad de sistemas dinámicos 240
an−1 an−2 ... a1 1
an−2 an−3 ... 1 0
−1
O =
...a1 1 ... 0 0
1 0 ... 0 0
Ejemplo
Se tiene
6 −3 1
−1
O = −3 1 0
1 0 0
0 1 2
O= 4 7 1
6 14 −6
luego
Controlabilidad y observabilidad de sistemas dinámicos 241
−6 −1 3
T0 = O O = 4 −5
−1
4
0 1 2
0, 2241 −0, 0862 0, 1207
T0−1 =
0, 1379 0, 2069 0, 3103
−0, 0690 −0, 1034 0, 3448
Es decir
0 0 2
A = T0 AT0−1 = 1 0 −6
0 1 3
−10
B = T0 B = 13
−1
³ ´
C = CT0−1 = 0 0 1
Tema 12
Es decir, una ley de control (polı́tica de mando) es una relación que liga la
señal de mando que se aplica al sistema y el estado en que éste se encuentra,
supuesto definida previamente una meta de la acción.
242
Sı́ntesis de sistemas de control por variables de estado 243
El principio en virtud del cual los valores de la señal de entrada deben cal-
cularse a partir del estado, fue enunciado por Richard Bellman a mediados de
la década de los cincuenta, y puede considerarse como la idea fundamental de la
teorı́a moderna de control. El punto principal reside en que el estado incorpora
toda la información necesaria para determinar las acciones de control que deben
ser tomadas, puesto que la evolución futura del sistema está completamente de-
terminada por el estado presente y los valores futuros de la señal de entrada.
Cuando la meta es la reproducción a la salida de una señal de referencia r se
podrá escribir la ley de control en la forma
u = f (x, r)
ẋ R x y
u C
B
a) Sistema en bucle
abierto
A
ẋ R x y
B C
Debe notarse, que en el esquema de la figura 12.1-b se supone que los compo-
Sı́ntesis de sistemas de control por variables de estado 244
nentes del vector de estado se pueden identificar con magnitudes fı́sicas medibles
y que son estas magnitudes las que definen las señales que se realimentan. El
caso en que la anterior identificación no sea posible se discutirá más adelante.
u = k (r − (k1 x1 + k2 x2 + · · · + kn xu )) = k (r − K x) (12.1)
siendo
K = (k1 k2 ... ku )
u ẋ R x y
B C
X A PLANTA
+ - K
REGULADOR
ẋ = Ax + Bu
Sı́ntesis de sistemas de control por variables de estado 245
si se hace
u = k (r − Kx)
se tendrá :
• en bucle cerrado
ẋ = Ax + kB (r − Kx) (12.2)
= (A − kBK)x + Bkr
y = Cx (12.3)
Y (s)
= C(sI − A + kBK)−1 Bk (12.4)
R(s)
Para aclarar el efecto de la ley de control lineal se puede recurrir a dos in-
terpretaciones. Estas interpretaciones se hacen, sin pérdida de generalidad, para
n = 2.
ÿ + a1 ẏ + a2 y = u (12.5)
Y (s) 1
= 2 (12.6)
U (s) s + a1 s + a2
u = k (r − k1 x1 − k2 x2 ) (12.7)
Sı́ntesis de sistemas de control por variables de estado 246
se tendrá el sistema cuyo diagrama se tiene en la figura 12.3 b), que a su vez
puede simplificarse al de la figura 12.3 c).
Y (s) k
= 2 (12.8)
R(s) s + (a1 + kk2 )s + (a2 + kk1 )
El sistema dinámico
ÿ + a1 ẏ + a2 y = u (12.9)
à !
0 1
A=
−a2 −a1
à !
0
B=
1
³ ´
C= 1 0
u = kr − k (k1 k2 ) x
Se tendrá
à ! à !
0 1 0 ³³ ´ ´
ẋ = x− kk1 kk2 x+kr
−a2 −a1 1
Sı́ntesis de sistemas de control por variables de estado 247
u 1 x2 1 x1 y
s s 1
−a1
a)
−a2
−K k1
−K k2
r u 1 x2 1 x1 y
K s s 1
−a1 b)
−a2
r u 1 x2 1 x1 y
K s s 1
−(a1 + Kk2 )
c)
−(a2 + Kk1 )
à ! à !
0 1 0
ẋ = x+ r
−a2 kk1 −a1 − kk2 k
³ ´
y= 1 0 x
Y (s) k
= 2
R(s) s + (a1 + kk2 ) s + (a2 + kk1 )
Como resumen de lo anterior cabe decir que por una conveniente elección de
la ley de control puede alterarse arbitrariamente el denominador de la función
de transferencia en bucle cerrado del sistema, dejando inalterado el numerador
excepto en la constante k.
Sistemas monovariables
u = r − Kx
siendo
K = (k1 k2 ... kn )
Y supóngase que se quiere tener en bucle cerrado una matriz A∗ tal que
0 1 0 ... 0
0 0 1 ... 0
A = A − BK =
∗
.. .. .. ..
. . . .
0 0 0 ... 1
−αn −αn−1 −αn−2 α1
Ejemplo
1 0 2 1
A = 0 −1 0 B= 2
1 0 −1 1
ϕ(A) = (s2 − 3) (s + 1)
= s3 + s2 − 3s − 3
2. Se determina C .
³ ´ 0
β1 = 3 3 −1 0 = −1
1
³ ´ 0
β2 = 3 3 −1 1 =4
−1
luego
Sı́ntesis de sistemas de control por variables de estado 251
0 0 1
C=
0 1 −1
1 −1 4
cuya inversa es
0, 5 0, 75 −1
C −1 = 0, 333 0 −0, 333
−1, 667 −0, 25 0.6667
5. Se obtiene
³ ´
K = K CC −1 = (0, 1680 − 2, 25 14.6681)
12.2 Observadores
Es decir, que si bien en determinados casos será posible identificar a los compo-
nentes del vector de estados con magnitudes fı́sicas medibles, este no será el caso
más general. En el caso en que las variables de estado puedan identificarse con
magnitudes fı́sicas medibles se dirá que el vector de estado es accesible.
ẋ = Ax + Bu (12.13)
ẋ R x y
u b c
SISTEMA ORIGINAL
x̂
R
b
A
OBSERVADOR
inicial.
Observador asintótico
es decir que la señal de salida del observador x̂ converge al estado real del
sistema x, al menos para t → ∞.
ŷ = C x̂
Una solución que explota la anterior idea es la de la figura 12.5. Este obser-
vador recibe el nombre de observador de Luenberger.
es decir
Sı́ntesis de sistemas de control por variables de estado 255
ẋ R x y
u B C
SISTEMA
ORIGINAL A
+
`
- ŷ
x̂
R
B
A
OBSERVADOR
Si se define
x̃ = x̂ − x (12.17)
lim x̃ = 0
t→∞
es decir x̂ converge a x.
0 0 ... 0 −an
bn
1 0 ... 0 −an−1
bn−1
ẋ =
0 1 ... 0 −an−2 x+ . u
. (12.19)
... .
0 0 ... 1 −a1 b1
³ ´
y= 0 0 ... 1 x
Sı́ntesis de sistemas de control por variables de estado 257
Si se hace
Se tiene
0 0 ... 0 −an − l1
1 0 ... 0 −an−1 − l2
A − LC =
0 1 ... 0 −an−2 − l3
(12.21)
... ... ... ... ...
0 0 ... 1 −a1 − ln
.
ẋ1
a11 a12 .. a13
x1
b1
.
ẋ2
= a21 a22 .. a23
x2
+
b2
u
··· ··· ···
··· ··· . ···
ẋ3 . x3 b3
a31 a32 .. a33
Sı́ntesis de sistemas de control por variables de estado 258
à ! à ! à ! à ! à !
ˆ1
ẋ a11 a12 x̂1 a13 b1
ˆ2 = + y+ u
ẋ a21 a22 x̂2 a23 b2
1 0 ... 0 −γn−1
0 1 ... 0 −γn−2
T1 = .... . ..
. . . .. .
(12.22)
0 0 ... 1 −γ1
0 0 ... 0 1
1 0 ... 0 γn−1
0 1 ... 0 γn−2
T1 = .... . ..
. . ..
−1
. . (12.23)
0 0 ... 1 γ1
0 0 ... 0 1
Se tendrá
0 0 ... 0 γn−1 µ1
1 0 ... 0 −γn−2 µ2
0 1 ... 0 −γn−3 µ3
A =
.... .. .. ..
(12.24)
. . . . .
0 0 ... 1 −γ1 µn−1
0 0 ... 0 1 µn
bn − γn−1 b1
bn−1 − γn−2 b1
B = ..
.
b2 − γ1 b1
b1
x1 0 0 ... 0 −γn−1 x̂
x̂2 1 0 ... 0 −γn−2
x̂2
d
.. =
0 1 ... 0 −γn−3
.. (12.25)
dt . .
...
x̂n−1 0 0 ... 1 −γ1 x̂n−1
µ1
µ2
+
.. y + b.u
.
µn−1
y
Σ
¯n
y = x̄
OBSERVADOR ˆ
x̄ x̂
ASINTOTICO T1−1 T −1
MINIMO ˆ¯
x̄
únicos criterios analı́ticos que se han publicado para la elección de estos coefi-
cientes, lo han sido dentro del marco de la teorı́a del control óptimo.
Ejemplo
Supóngase que se quiere diseñar un observador tal que sus autovalores sean
λ1 = −4 λ2 = −5
ϕ(obs.) = (s + 4) (s + 5) = s2 + 9s + 20
1 0 −20
T1 = 0 1 −9
0 0 1
1 0 20
T1−1 = 0 1 9
0 0 1
0 −20 −238
A = T1 Ao T1−1 = 1 −9 −94
0 1 12
−30
B = T1 bo = 22
1
Sı́ntesis de sistemas de control por variables de estado 262
à ! à ! à !
ˆ = 0 −20 −238 30
ẋ x̂ + y+ u
1 −9 −94 22
−02241 −0, 0862 −5, 1371 x1
−1 −1
x̂ = To T1 x̂ = 0, 1379 0, 2069 4, 9304 x2
0, 0690 0, 1039 1, 9658 y
r u y
Σ
x̄ LEY DE
OBSERVADOR CONTROL
ẋ = Ax + Bu (12.26)
y = Cx (12.27)
u = r − Kx (12.28)
u = r − K x̂ (12.30)
La evolución del sistema en bucle cerrado vendrá regida por las ecuaciones
(12.26), (12.29) y (12.30).
ẋ = A x − B k x̂ + Br (12.31)
x̂˙ = Ax̂ − LC(x̂ − x) + Br − Bkx̂ (12.32)
ẋ = (A − BK)x − BK x̃ + Br (12.33)
à ! à ! à ! à !
d x A − BK −BK x B
= + r
dt x̃ 0 A − LC x̃ 0
à !
³ ´ x
y= C 0 (12.35)
x̃
1. Los autovalores del sistema en bucle cerrado son la unión de los correspon-
dientes a (A − BK) y los correspondientes a (A − LC). Esta propiedad
recibe el nombre de propiedad de separación y es análoga a la que se pre-
senta en los sistemas estocásticos al combinar un filtro de Kalmanœ[222z
con una ley de control óptima.
2. Llamando ϕ11 (s) = (sI − A + BK)−1 se tendrá que
Y (s)
= Cϕ11 (s)B
R(s)
Ejemplo
Sea el sistema formado por dos integradores que se indica en la figura 12.8,
cuya descripción externa vendrá dada por la función de transferencia
Y (s) 1
= 2
U (s) s
Sı́ntesis de sistemas de control por variables de estado 265
ẋ1 = x2
ẋ2 = u
es decir
à ! à !
0 1 0 ³ ´
A = B = C = 1 0
0 0 1
u 1 x2 1 x1
s s
ϕ(s) = s2 + a1 s + a2
³ ´
K= a2 a1
Si las variables de estado son accesibles se tiene el diagrama de la figura 12.9. Si
x2 no es accesible, debe procederse a diseñar un observador. Para ello se escribe
(A, B, C) en la forma canónica de observación. Se tiene
à ! à !
0 0 1 ³ ´
Ao = Bo = Co = 0 1
1 0 0
La ley de control, en estas bases del vector de estado, vendrá dada por
³ ´
Ko = a1 a2
Sı́ntesis de sistemas de control por variables de estado 266
r + 1 x2 1 x1
s s
-
a1
+
+
a2
à !
1 −γ
T1 =
0 1
à !
1 γ
T1−1 =
0 1
y, por lo tanto,
à !
−γ −γ 2
A= T1 Ao T1−1 =
1 γ
à !
1
B = T 1 Bo =
0
y + 1 x̂1
−γ 2 s
-
x̂2
³ ´
k = Ko T −1 = a1 a1 γ + a2
r u 1 y
+ s2
-
+ x̄1 1 + +
a1 s −γ 2
+ -
a1 γ + a2
OBSERVADOR
Conviene observar que la teorı́a clásica del control no ha sido capaz de pro-
porcionar fórmulas explı́cita como las anteriores, aún para un ejemplo tan simple
como el anterior. Los métodos clásicos están basados en aproximaciones gráficas
y reglas prácticas, lo que constituye una clase de matemáticas aplicadas relati-
vamente anticuadas. Sin embargo, estos comentarios no descalifican los métodos
clásicos, que como se verá más adelante, continúan teniendo un gran interés, ya
que suministran ı́ndices de robustez que poseen un gran interés práctico.
r u
+ y
-
+ x̄1 1 + +
a1 s −γ 2
+ -
a1 γ + a2
OBSERVADOR
Del atento análisis de este ejemplo se desprende que la teorı́a moderna del con-
trol, basada en el empleo de las variables de estado, permite resolver el problema
de la sı́ntesis de un sistema realimentado sin ninguna hipótesis previa respecto a la
forma del regulador que se trata de determinar. Ello permite un planteo analı́tico
del problema de la sı́ntesis de sistemas de control que representa una notable
alternativa al que proponen los métodos clásicos, basados éstos en métodos cuya
justificación se encuentra más en una experiencia acumulada que en una visión
teórica global.
Problema
b1 sn−1 + b2 sn−2 + · · · + bn
G(s) =
sn + a1 sn−1 + · · · + an
sn + α1 sn−1 + · · · + αn
Para su resolución se procede a seis pasos:
³ ´
Cc = bn bn−1 ... b1
³ ´
Co = 0 0 ... 1
en donde
1 0 ... 0 γn−1
0 1 ... 0 γn−2
= .... . ..
. ... ..
−1
T . .
0 0 ... 1 γ1
0 0 ... 0
Se tiene que
0 0 ... 0 −γn−1 β1
1 0 ... 0 −γn−2 β2
0 1 ... 0 −γn−3 β3
A = T1 Ao T1 =
−1
.... .. .. ..
. . . . .
0 0 ... 1 γ1 βn−1
0 0 ... 0 1 βn
B = T 1 Bo
³ ´
C= 0 0 ... 1
es decir que y = xn .
El observador tiene como matriz dinámica el bloque (n − 1) × (n − 1)
superior izquierdo de A y está excitado por u a través de los (n−1) primeros
elementos de B y de y a través de (β1 ... βn−1 )
x̂ = T −1 T1−1 x̂
6. A partir de todo lo anterior la matriz del compensador es inmediata
u = −K x̂ + r
u = −KT −1 T1−1 x̂ + r
Sı́ntesis de sistemas de control por variables de estado 273
Ejemplo
s+2
G(s) =
s(s + 1)
s+2
Gd (s) =
s2 + 2s + 3
1. Ã !
0 1 ³ ´ ³ ´
Ac = BcT = 0 1 Cc = 2 1
0 −1
2. ³ ´
K= 3 1
3. Ã !
0 0 T
³ ´ ³ ´
Ao = Bo = 2 1 Co = 0 1
1 −1
siendo
à !à ! à !
1 1 2 1 2 2
T = =
1 0 0 1 2 1
à !
−1 −1/2 1
T =
1 −1
y por lo tanto
Sı́ntesis de sistemas de control por variables de estado 274
à !
−3 −6
A= T1 Ao T1− 1 =
1 2
à !
−1
B = T 1 Bo =
1
³ ´
C= 0 1
5.
1 1
− −
x̂ = T −1 T1−1 x̂ = 2 2 x̂
1 2
6.
u = −KT −1 T1−1 x̂ + r
³ ´ 1 1 −u − 6y
= −3 −1 −2 −2 s + 3 + r
1 2 y
Es decir
U (s) s+9
U (s) = − − Y (s) + R(s) (12.37)
2(s + 3) 2(s + 3)
lo que se puede interpretar gráficamente como se hace en la figura 12.13.
Comprobación
(2s + 7) (s + 9)
U (s) = −Y (s) + R(s)
2(s + 3) 2(s + 3)
Sı́ntesis de sistemas de control por variables de estado 275
Como
s(s + 1)
U (s) = Y (s)
s+2
se tiene
à !
s+9 (2s + 7) s(s + 1)
Y (s) + × = R(s)
2(s + 3) 2(s + 3) (s + 2)
Es decir
v + u y
s+2
s(s+1)
-
1 s+9
2(s+3) 2(s+3)
+ +
Figura 12.13: Diagrama de bloques simplificado del sistema controlado por va-
riables de estado con observador
v + u y
T (s)
-
k(s) h(s)
q(s) q(s)
+ +
Figura 12.14: Diagrama de bloques simplificado del sistema controlado por va-
riables de estado con observador
Sı́ntesis de sistemas de control por variables de estado 277
u 1 z y
d(s) N (s)
1
U (s) = R(s) − (k(s)U (s) + h(s)Y (s)) (12.40)
q(s)
1
= R(s) − (k(s)d(s) + h(s)n(s)) Z(s) (12.41)
q(s)
luego,
Y (s) n(s)
= (12.45)
R(s) d(s) + f (s)
Esta expresión indica que la función de transferencia Td (s) debe tener el mismo
numerador que T (s) y, al mismo tiempo, indica cómo se puede modificar el de-
nominador. Esta modificación se hacer por adición de f (s), cuyo significado es
ahora claro.
Sea la expresión (12.42) en la que a partir de n(s), d(s) y ϕ(s) se trata de deter-
minar h(s) y k(s).
Sı́ntesis de sistemas de control por variables de estado 279
grado (ϕ) = q ≤ 2n − 2
grado (n) = m ≤ n − 1
grado (d) = n
d(s) = s3 + d1 s2 + d2 s + d3
n(s) = n0 s2 + n1 s + n2
h(s) = h0 s2 + h1 s + h2
k(s) = k0 s + k1
ϕ(s) = ϕ0 s4 + ϕ1 s3 + ϕ3 s + ϕ4
Se tendrá,
Sı́ntesis de sistemas de control por variables de estado 280
n2 0 0 d3 0 h2 ϕ4
n1 n2 0 d2 d3
h1
ϕ3
n0 n1 n2 d1 d2 h0 = ϕ2
0 n0 n1 1 d1
k1
ϕ1
0 0 n0 0 1 k0 ϕ0
es decir
MC = ϕ (12.46)
Ejemplo
s+2
T (s) =
s2 + 2s + 3s
s+2
Td (s) =
s3 + 3s2 + s + 2
Se tiene que
n(s) = s + 2
d(s) = s3 + 2s2 + 3s
Se adopta
k(s) = k0 s + k1
h(s) = h0 s2 + h1 s + h2
2 0 0 0 0 h2 2
1 2 0 3 0
h1
2
0 1 2 2 3 h0 = −1
0 0 1 1 2 k1 0
0 0 0 0 1 k0 1
h2 = 1 h1 = 0 h0 = −14/6 k1 = 1/3 k0 = 1
Sistemas no lineales
Sin embargo, como vamos a ver en lo que sigue, es posible aplicar una versión
ampliada del método de la respuesta en frecuencia a sistemas no lineales medi-
ante el método de la función descriptiva. Con este método, como vamos a ver,
es posible adaptar los métodos de diseño de sistemas lineales en el dominio de
la frecuencia, empleando los diagramas de Bode y similares, al caso de los sis-
temas no lineales, si bien en este último caso los resultados son exclusivamente
aproximados.
283
Sistemas no lineales 284
ecuación es la siguiente:
ẍ + α(x2 − 1)ẋ + x = 0 (13.1)
vamos a emplear esta ecuación como ejemplo introductorio al método del primer
armónico. Para ello, vamos a suponer que existe un ciclo lı́mite de amplitud y
frecuencia no determinadas, y vamos a ver que restricciones impone la ecuación
anterior a esta amplitud y frecuencia.
0 + −x v α x
s2 −αs+1
-
(.)2
ẍ − αẋ + x = αv
ẋ(t) = Aω cos ωt
por consiguiente, la salida del bloque no lineal de la figura 13.1 viene dada por
ya que
cos 2ωt = cos 2 ωt − sen 2 ωt = 1 − 2 sen 2 ωt
Por otra parte, el paso de (13.4) a (13.5) es un poco máás elaborado. Para
demostrarlo se parte de
r=0 + −x A2 v α x
4
s s2 −αs+1
-
En general, podemos escribir que las señales de salida v del bloque no lineal
de la figura 13.2 vienen dadas por
v = N (A, ω)(−x) (13.7)
en donde N juega el mismo papel que la función de transferencia en un sistema
lineal, aunque en este caso con la propiedad adicional de depender no solamente
de la frecuencia ω, sino también de la amplitud A. A la función N la denominare-
mos función descriptiva del elemento no lineal correspondiente y constituye una
generalización del concepto de función de transferencia al estudio de los sistemas
no lineales (aunque aquı́ con un carácter aproximado ya que para llegar a ella
se han despreciado los armónicos de orden superior al primero, a partir de la
consideración del carácter del filtro paso bajo del bloque lineal).
Se sabe que una señal senoidal se puede escribir en forma compleja mediante la
exponencial
x = Aejωt
con lo que la anterior expresión (13.9) puede escribir
de donde se tiene
1 + G(jω)N (A, ω) = 0 (13.10)
esta expresión, en realidad, es una forma de escribir la expresión (13.1), es decir
la ecuación del sistema, habida cuenta de la simplificación que ha permitido pasar
de la expresión (13.3) a la (13.6). La resolución de esta ecuación en la amplitud
A y la frecuencia ω permite determinar la amplitud y frecuencia a la que oscila
el sistema. En el caso concreto que nos ocupa, la expresión (13.10) se convierte
en
α A2
1+ jω = 0 (13.11)
(jω)2 − α(jω) + 1 4
que conduce a
4((jω)2 − α(jω) + 1) + αA2 jω = 0
cuya parte real es
−4ω 2 + 4 = 0
cuya solución conduce a ω = 1, y cuya parte imaginaria es
−4α + αA2 = 0
por lo que A = 2. Por tanto el sistema admite una solución en forma de oscilación
con amplitud A = 2 y frecuencia ω = 1.
G2 (s)
∞
X
v(t) = a0 + (an cos (nωt) + bn sen (nωt))
n=1
1Zπ
a0 = v(t)d(ωt) n = 0, 1, 2, ...
π π
El término independiente es el valor medio de la señal en un perı́odo. Para una
señal sin componente de continua este valor es cero; es decir a0 = 0 (recuérdese
el supuesto 4 de 13.1.2).
1Zπ
an = v(t) cos (nωt)d(ωt) n = 0, 1, 2, ... (13.13)
π π
1Zπ
bn = v(t) sen (nωt)d(ωt) n = 0, 1, 2, ... (13.14)
π π
Casos de interés:
Sistemas no lineales 290
v(x)
v(x)
−x x+π
x x
v(−x)
v(x + π)
a) b)
13.2.1 Saturación
k salida saturada
ka
0 a x 0 γ ωt
ka
0 A
γ x(t)
π/2
entrada
sinusoidal
ωt
1.2
Rango lineal
1.0
0.8
N(A)/k
0.6
0.4
0.2
0.0
0 1 5 10
A/a
13.2.2 Relé
v 2.0
encendido a infinito
1.6
M
1.2
N(A)/M
0 x 0.8
-M 0.4 a cero
apagado
0.0
0 5 10
A
13.2.3 Holgura
v v(t)
k(A − b)
-b 3π/2
b x π/2 ωt
−k(A − b)
-A A
x(t)
π/2
3π/2
2π − γ
ωt
Figura 13.11: Generación de la seńal de salida para una señal sinusoidal de en-
trada en una holgura.
Sistemas no lineales 297
1.0
0.8
Amplitud
0.6
0.4
0.2
0.0
0.0 0.2 0.4 0.6 0.8 1.0
b/A
-30
Desfase
-60
-90
0.0 0.2 0.4 0.6 0.8 1.0
b/A
+
G(s)
-
H(s)
plano s G(s)H(s)
+∞
-1
−∞
ω → +∞
Sea el sistema lineal de la figura 13.14, cuya ecuación caracterı́stica resulta ser
1 + G(s)H(s) = 0 (13.21)
Im
0 + G(s)H(s)
k G(s)
-
-1
Re
H(s)
−1/k
x(t) = <{Aejωt }
siendo α = 6 G(jω).
Es decir, ³ ´
Aejωt | N (A, ω) || G(jω) | ej(φ+α) + 1 = 0
La anterior expresión se debe satisfacer para todo t, por lo que se tendrá
es decir,
N (A, ω)G(jω) + 1 = 0 (13.26)
y por tanto,
1
G(jω) = − (13.27)
N (A, ω)
y cualquier par de valores de A y ω que satisfaga la anterior ecuación puede dar
lugar a un ciclo lı́mite. De aquellos valores que satisfagan esta ecuación, solo dará
lugar a un ciclo lı́mite aquellos para los que la oscilación periódica sea estable.
Sistemas no lineales 302
Im
G(jω)
ω
Re
L A
−1/N (A)
Im
−1/N (A, ω) G(jω)
ω4
ω3 A
ω2 Re
ω1
A1 A2 A3 A4
-1
G(jω)N (A, ω)
Im
ω G(jω)
L2 −1/N (A, ω) Re
L01
L”1 L1
Con los ciclos lı́mites sucede lo mismo que con los equilibrios: que pueden ser
estables o inestables. Las soluciones de la ecuación (13.27) deben someterse a
un análisis de estabilidad, para determinar cuales de ellas son estables y cuales
no. El criterio de Nyquist ampliado que hemos visto en la sección 13.3.1, permite
analizar esa estabilidad. Considérese la figura 13.21 en la que se muestran las
intersecciones entre la función de transferencia de la parte lineal y la inversa
de la función descriptiva de la parte no lineal. Estas dos curvas presentan dos
puntos de intersección, L1 y L2 , por lo que el sistema presenta dos ciclos lı́mites.
Obsérvese que el valor de A correspondiente al punto L1 es menor que el de A
correspondiente a L2 . Supóngase que la función de transferencia de la parte lineal
G(jω) no posee polos inestables.
agrupando los términos correspondientes a sus partes real e imaginaria. Por otra
parte, la soluciónó(13.29) debe satisfacer también la anterior ecuación dando lugar
a:
X(A + ∆A, ω + ∆ω + jδ) + jY (A + ∆A, ω + ∆ω + jδ) = 0 (13.31)
Eliminando ∆ω:
à !2 à !2 à !
∂X ∂Y δ =
∂X ∂Y ∂Y ∂X
+ − ∆A
∂ω ∂ω ∂A ∂ω ∂A ∂ω
Sistemas no lineales 306
Para que la oscilación sea estable es necesario que δ y ∆A sean del mismo
signo, lo que exige que:
à !
∂X ∂Y ∂Y ∂X
− >0 (13.32)
∂A ∂ω ∂A ∂ω
N (A, )G(jω) + 1 = 0
Haciendo
r=0 +
G(s)
-
Ejemplo
Es decir
4K = −πAjω(jω + 2)
Igualando sus partes reales e imaginarias se tiene:
4K = πAω 2
−2πAjω = 0
Sistemas no lineales 308
es decir
4K = −πAjω(jω + 2)(jω + 5) = 7Aω 2 + Aj(ω 3 − 10ω)
Con lo que igualando partes reales e imaginarias se tiene
4K = 7πAω 2
ω 3 − 10ω = 0
√
Por lo tanto, en este caso el sistema oscila con una frecuencia ω = 10 y una
amplitud A = 2K/35π.
Im
G2 (jω)
A
P0 P P” Re
Conviene recordar una de las hipótesis sobre las que está basado el método:
el carácter de filtro paso bajo del sistema lineal. Además, la propia expresión
(13.27) puede ser sensible a las aproximaciones que comporta el método. Con
carácter general se puede decir que las conclusiones del método serán tanto más
sólidas cuanto más neta sea la intersección de las curvas que representan la parte
lineal y la inversa de la parte no lineal en la resolución gráfica del método. En la
figura 13.24 se muestran dos situaciones extremas posibles. En la figura 13.24a se
presenta un caso en el que el sistema muestra una gran sensibilidad, lo que hace
temer que las conclusiones del método se puedan ver fuertemente afectadas.
Por otra parte, la figura 13.24b muestra un caso en el que las conclusiones son
altamente fiables. Cabe decir, que cuanto más perpendicular es la intersección
entre las curvas G(jω) y −1/N (A, ω), más fiables son los resultados del método.
Sistemas no lineales 310
a) b)
Figura 13.24:
Sistemas no lineales 311
Sea el sistema de la figura 13.25, constituido por una masa (m = 1), que se
desplaza sobre una lı́nea recta, y que está unida a una pared por medio de un
resorte y de un amortiguamiento. Se supone que el resorte y el amortiguamiento
son no lineales. El resorte ejerce una fuerza k(x) que depende del desplazamiento
x de la masa de la posición de equilibrio. La forma de k(x) se representa en la
figura 13.26. El amortiguador ejerce una fuerza proporcional al valor instantáneo
de la velocidad dx/dt de la masa, de manera que el factor de proporcionalidad
esté dado por h(x). El balance de fuerzas sobre el sistema conduce a la siguiente
ecuación.
d2 x dx
2
+ h(x) + k(x) = 0 (13.33)
dt dt
La energı́a total del sistema V está formada por la energı́a cinética de la masa
en movimiento y la energı́a potencial almacenada en el resorte, y viene dada por,
x22 Z x1
V (x1 , x2 ) = + k(x1 )dx (13.35)
2 0
Sistemas no lineales 312
k(x)
h(x)
lo que, dicho en palabras, significa que la energı́a del sistema es siempre positiva
excepto cuando el sistema está en reposo.
Interesa ahora averiguar cómo evoluciona la energı́a del sistema con el tiempo.
Para ello se determina la derivada total de V con respecto al tiempo que resulta
ser,
dV ∂V dx1 ∂V dx2
= + (13.37)
dt ∂x1 dt ∂x2 dt
de donde se obtiene, teniendo presente 13.34 y 13.35,
dV
= k(x1 )x2 + x2 [−k(x1 ) − x2 h(x1 )] = −x22 h(x1 ) (13.38)
dt
Se supondrá que h(x) > 0 para todo x. Fı́sicamente, ello representa un amor-
tiguamiento positivo, es decir, que la fuerza que ejerce el amortiguador se opone
siempre al movimiento.
k(x)
V3
V2
V1
V3 > V 2 > V 1
La evolución del sistema puede, en este caso, ser objeto de una interpretación
geométrica. La evolución de las variables de estado x1 y x2 pueden interpretarse
gráficamente en un plano llamado el plano de estado. En este plano las superficies
V = const, dan lugar a elipses, tal como se indica en la figura 13.27. La evolución
del sistema, es decir, una solución de la ecuación 13.33, se representa en el plano
de estado por medio de una trayectoria, tal como la que se indica en la figura
13.27. Puesto que la energı́a debe siempre decrecer, la trayectoria debe atravesar
las elipses desde el exterior hacia el interior. De este modo, la trayectoria se
aproxima progresivamente al origen, que es el estado de equilibrio.
Debe notarse que las conclusiones relativas a la estabilidad del sistema, aún
en el caso de que el resorte y el amortiguador sean no lineales, se obtienen sin
necesidad de resolver la ecuación diferencial 13.33. Es decir, de la observación de
la expresión 13.38 se concluye que siempre que el amortiguamiento sea positivo,
el sistema evolucionará hacia una posición de equilibrio.
1. Estado de equilibrio
Un estado xe de un sistema dinámico se dice que es un estado de equilibrio
si,
xe = φ(t, t0 , xe , 0) (13.40)
Sistemas no lineales 315
(k x0 − xe k≤ δ) ⇒ (φ(t, t0 , x0 , 0) k≤ ε)
[k x0 − xe k≤ δ] ⇒ [k φ(t, t0 , x0 , 0) − xe k≤ µ] (13.42)
para todo t > t0 + T.
V (x) = k
x0 ε
Teorema
El estado de equilibrio xe = 0 de un sistema autónomo es estable si
existe una función definida positiva V (x), tal que su derivada total
con relación al tiempo dV (x)/dt a lo largo de toda trayectoria del
sistema, es semidefinida negativa.
Sistemas no lineales 317
Demostración
Una función V (x) tal que satisfaga las condiciones del teorema anterior, recibe
la denominación de función de Lyapunov.
para todo t > t0 . Sea ε tal como se muestra en la figura 13.28. Puesto que existe
una función de Lyapunov V (x), esta función será tal que V (x) > 0 para todo
x 6= 0.
Ejemplo
Si se adopta
V (x) = x21 + x22
Se tendrá
V̇ (x) = −2(x21 + x22 )2
La cual es negativa excepto para x1 = x2 = 0. Es decir, V̇ es decreciente a lo
largo de cualquier solución y, por lo tanto, V es una función de Lyapunov. Se
concluye que el sistema es asintóticamente estable.
Sistemas no lineales 318
A = P A P −1 (13.47)
Ahora bien eAt está acotada si y sólo si lo están todos los elementos de esa
matriz. Estos elementos son de la forma tk eλi t en donde λi = αi + jwi es un
autovalor de A. Si αi es negativo, es inmediato que tk eλi t está acotado solo si
k = 0, es decir, el autovalor imaginario puro es un cero simple del polinomio
mı́nimo de A.
Teorema
El estado de reposo de ẋ = Ax, considerado como estado equilibrio, es
asintóticamente estable si y sólo si todos los autovalores de A tienen
la parte real negativa.
Demostración
Z t
y(t) = g(t, τ ) u(τ ) dτ (13.50)
t0
Por otra parte, la respuesta de un sistema a una entrada nula, viene dada por
la solución del sistema de ecuaciones diferenciales siguiente,
ẋ = Ax (13.51)
Sistemas no lineales 320
à ! q11 q12 q13
q11 q12
q11 > 0, det > 0, det q21 q22 q23 > 0, ···
q21 q22
q31 q32 q33
Teorema
Si el sistema (13.53) es asintóticamente estable, entonces para toda
matriz definida positiva P la ecuación
AT Q + QA = −P (13.54)
Demostración
1. Necesidad
Supóngase que 13.53 es asintóticamente estable. Entonces para cualquier
P > 0 se define Q como,
Z ∞
Q= eAτ P eAτ dτ
0
Z ∞³ ´
T T T
A Q + QA = AT eA τ P eAτ + eA τ P eAτ A dτ
Z0∞ ³ ´
T
= d eA τ P eAτ = −P
0
2. Suficiencia
Supóngase que para un cierto P > 0, la expresión (13.54) tiene una solución
Q > 0. Entonces se define la función de Lyapunov
V (x) = xT Qx
dV
(x) = ẋT Qx + xT Qẋ
dt
= xT AT Qx + xT QAx
= −xT P x < 0
Ejemplo
Sistemas no lineales 322
ẍ + ẋ + 2x = 0
ẋ1 = x2
ẋ2 = −2x1 − x2
AT Q + QA = −I
−4q12 = −1
q11 − q12 − 2q22 = 0
2q12 − 2q22 = −1
7 1 3
V (x) = x21 + x1 x2 + x22
4 2 4
Sistemas no lineales 323
Por otra parte, este ejemplo sólo pretende ilustrar el método anterior. Estaá
claro que la determinaciónóde la estabilidad del equilibrio se hace de forma más
sencilla calculando los autovalores del sistema y comprobando que los dos tienen
parte real negativa.
Vamos a ver que gracias precisamente a la forma que tiene la expresión (13.57)
es posible ampliar el método aplicado a los sistemas lineales, a esta clase de
sistemas no lineales. En efecto, considérese una función de Lyapunov de la forma:
V (x) = xT Qx QT = Q
Ejemplo
Sea el sistema representado en la figura 13.29. Este sistema está formado por
una parte lineal y un bloque no lineal, que posee la caracterı́stica h. Se supone
que la referencia es u = 0, y que la caracterı́stica es tal que h(0) = 0. Se trata de
estudiar su estabilidad.
Sistemas no lineales 325
u + + x2 + x1
5
- - y
-
z = h(y)
Figura 13.29:
h(x)
Figura 13.30:
à !2
h(x1 )
4q1 q2 − q2 − 5q1 >0
x1
La segunda de estas desigualdades requiere un análisis detenido. Supóngase que
los parámetros q1 y q2 toman dos valores concretos; por ejemplo, q = 14 y q2 = 1.
En este caso la segunda desigualdad se convierte en
à !2
h(x1 ) 5
1− − >0
x1 4
que conduce a
9 h(x1 ) 1
> >
4 x1 4
Esta desigualdad se puede interpretar gráficamente como se hace en la figura
13.30. De acuerdo con esta figura la caracterı́stica del sistema no lineal H debe
estar comprendida entre las rectas de pendientes 9/4 y 1/4. Si la caracterı́stica
H cumple esta condición el sistema tiene garantizada su estabilidad.
siendo
∂f
F (x) = (13.62)
∂x
y
P (x) = −[F T (x) + F (x)] (13.63)
Ejemplo
ẋ1 = −ax1 + x2
ẋ2 = x1 − x2 − x32
y recordando (13.63)
à !
2a −2
P (x) =
−2 2 + 6x22
a>0
y además
4a + 12ax22 − 4 > 0
Puesto que a > 1 las dos desigualdades se cumplen y el sistema es asintóticamente
estable.
Ejemplo
u1 = 0 + x1 y1
+ -
+
z1 = g1 (y1 )
z2 = g2 (y2 )
u2 = 0 + x2 y2
+
+ -
1. a > 0,
∂g1
2. > 0,
∂x1
à !2
∂g1 ∂g2
3. 4a − 1+ > 0.
∂x1 ∂x2
g1 (x1 )
pendiente siempre
positiva
x1
∂g1
a ∂x 1
Estable
Inestable
∂g2 (x2 )
-1
∂x2
Introducción a la optimización de
sistemas dinámicos
14.1 Introducción
J(u∗ ) ≤ J(u) ∀u ∈ U
331
Introducción a la optimización de sistemas dinámicos 332
• Los elementos que constituyen el conjunto U pueden ser los valores que
toma una función del tiempo u(t) para t ∈ [0, T ]. En tal caso se tiene la
denominada optimización dinámica.
∆f = f (x) − f (x∗ ) ≥ 0, ∀x ∈ N
∆f
xo x x∗ x1 x
df x
dx
d2 f
dx2 x
Restricciones o Ligaduras
g : Rn → Rm
Ejemplo
x3 = x1 x2 + 5
x1 + x2 + x3 = 1
Se define la lagrangiana
ẋ = f (x, u) (14.2)
Introducción a la optimización de sistemas dinámicos 337
14.3.1 Ejemplos
El problema del control óptimo está formado básicamente por un sistema dinámico
de la forma (14.2) y por un criterio a optimizar de forma (14.3). Vamos a dedicar
esta sección a presentar algunos ejemplos de criterios de funcionamiento de la
forma (14.3).
Para permitir mayor generalidad se puede considerar una matriz definida positiva
R de modo que Z T
J= uT (t)Ru(t)dt
t0
Normalmente R es diagonal (si es definida positiva todos sus elementos son posi-
tivos). Los distintos valores de diag(R) representan el peso relativo que se asigna
a cada variable de control en el gasto de energı́a.
Introducción a la optimización de sistemas dinámicos 339
(siendo u la tasa de flujo del combustible - empuje del cohete), (o del vehı́culo
espacial que se está maniobrando). Si existen varios propulsores
Z T
J= (k1 | u(t) | +k2 | u(t) | +... + km | u(t) |)dt
0
Para minimizar la desviación del estado final x(T ) del sistema del estado
deseado xf = 0, se adopta el ı́ndice
J = xT (T )Hx(T )
Introducción a la optimización de sistemas dinámicos 340
El ı́ndice conjunto es
Z T
J = xT (T )Hx(T ) + xT (t)Qx(t)dt
0
que puede resultar aún insatisfactorio. Es más realista añadir un término que
penalice la acción de control u(t). Se tiene entonces
Z T
T
J = x (T )Hx(T ) + [xT (t)Qx(t) + uT (t)Ru(t)]dt
0
Z ∞
J= [xT (t)Qx(t) + uT (t)Ru(t)]dt
0
Se trata de mantener el estado del sistema x(t) lo más cercano posible al estado
deseado r(t) en [0, T ].
Z T
T
J = e (T )He(T ) + [eT (t)Qe(t) + uT (t)Ru(t)]dt
0
siendo e = x − r.
Introducción a la optimización de sistemas dinámicos 341
c1 c2
q1 q2
V, c
Las variaciones de las distintas variables con respecto a los valores tomados
en régimen estacionario se denotarán mediante un tilde sobre la variable corres-
pondiente. Es decir,
q̃(t) = q(t) − q0
representa la variación del caudal q respecto al valor estacionario q0 . Análogamente
se definen el resto de las variables
ṽ(t) = v(t) − v0
q1 (t) = q10 + q̃1 (t)
q2 (t) = q20 + q̃2 (t)
c(t) = c0 + c̃(t)
q
k ∂ v(t)
q(t) − q0 = √ |v=v0 (v(t) − v0 )
a ∂v(t)
Es decir r
k v0
q̃(t) = ṽ(t) (14.8)
2v0 a
De este modo la relación entre la variación q̃(t) del caudal con respecto al valor
en régimen estacionario, y la correspondiente al volumen ṽ(t), queda linealizada.
Llevando las definiciones de las variaciones ṽ(t), q̃1 (t), q̃2 (t) y c̃(t) a las expresiones
(14.5) y (14.6) y tendiendo en cuenta la definición del régimen estacionario y
(14.8) se tiene que
dṽ(t) 1 q0
= q̃1 (t) + q̃2 (t) − ṽ(t)
dt 2 v0
dc̃(t) dṽ(t) 1 c 0 q0
v0 + c0 = c1 q̃1 (t) + c2 q̃2 (t) − ṽ(t) − q0 c̃(t)
dt dt 2 v0
v0
τ=
q0
Si se escribe
x1 = ṽ
x2 = c̃
u1 = q̃1
u2 = q̃2
y1 = q̃
y2 = c̃
y
v0
τ=
q0
se tiene que las ecuaciones del sistema dinámico linealizado pueden escribirse de
la forma siguiente:
à ! 1
ẋ1 − 0 1 1
= 2τ x + c1 − c0 c2 − c0 u
ẋ2 1
0 − v0 v0
τ
Sistema dinámico lineal que describe el comportamiento del sistema perturbado
en torno al régimen estacionario.
Introducción a la optimización de sistemas dinámicos 344
ẋ = f (x, u) (14.9)
Sea X una clase de funciones x(t) definidas en el intervalo [0,t]. Si a toda función
x(t) ∈ X se asocia, de acuerdo con una regla, un número J se dice que en la clase
X está definido el funcional J y se escribe J = J[x(t)]. La clase X se denomina
campo de definición del funcional. Para nosotros, la clase de funciones X será la
Introducción a la optimización de sistemas dinámicos 347
Ejemplo
Ejemplo
x
M (1, 1)
0 1 t
1. J[cx(t)] = cJ[x(t)],
2. J[x1 (t) + x2 (t)] = J[x1 (t)] + J[x2 (t)],
Ejemplo
= max (t − t2 )
0≤t≤1
Introducción a la optimización de sistemas dinámicos 349
Por otra parte, se dice que las señales x(t) y x1 (t) definidas en el mismo
intervalo, son cercanas con proximidad de primer orden si las magnitudes |x(t) −
x1 (t)| y |ẋ(t)− ẋ1 (t)| son pequeñas en el intervalo considerado. Geométricamente,
esto significa que tanto los valores tomados por las dos señales, como los de sus
tangentes (sus derivadas), son cercanos para todo instante de tiempo.
Por último, las dos señales consideradas se dice que son cercanas con proxim-
idad de orden k sin son pequeños los valores tomados por |x(t) − x1 (t)|, |ẋ(t) −
ẋ1 (t)|,..., |xk (t) − xk1 (t)|. Basado en ello, se define la distancia de orden n entre
dos señales x = x(t) y x = x1 (t) como el mayor de los máximos de las expresiones
|x(t) − x1 (t)|, |ẋ(t) − ẋ1 (t)| ,..., |xn (t) − xn1 (t)|, es decir
ρn = ρn [x1 (t), x(t)] = max max |xk1 (t) − xk (t)|
0≤k≤n a≤t≤b
Ejemplo
Sea el funcional Z b
J[x(t)] = xdt
a
su incremento vendrá dado por
Ejemplo
Sea el funcional Z b
J[x(t)] = x2 dt
a
Se tiene que
∆J =
Z b Z b
2
= (x + δx) dt − x2 dt
a a
Z b Z b
= 2xδxdt + (δx)2 dt
a a
Introducción a la optimización de sistemas dinámicos 351
(b − a)||δx|| → 0
Ejemplo
Sea el funcional Z 1
J[x(t)] = (x2 + t2 )dt
0
Es fácil ver que se alcanza un mı́nimo estricto para la señal x(t) ≡ 0. En efecto,
se tiene que
Z 1 Z 1 Z 1
∆J = J[x(t)] − J[0] = (x2 + t2 )dt − t2 dt = x2 dt ≥ 0
0 0 0
Introducción a la optimización de sistemas dinámicos 352
J
x
J(x)
0 T t
xo (t)
x1 (t)
δx (t)
Problema
luego
Z TÃ ! Z T
∂L ∂L
∆J(x, δx) = δx + δ ẋ dt + R(x, ẋ, δx, δ ẋ, t)dt
0 ∂x ∂ ẋ 0
Esta expresión tiene la misma forma que (14.11). En efecto, el primer término
del segundo miembro es lineal en δx, δ ẋ. El segundo, está formado por términos
de orden superior al primero. Por tanto, se tendrá que la variación de primer
orden de J vendrá dada por
Z T" #
∂L ∂L
δJ(x, δx) = δx + δ ẋ dt (14.12)
0 ∂x ∂ ẋ
Esta variación representa la parte lineal del incremento ∆J. Integrando por
partes el segundo miembro de (14.12), se obtiene
Z T" #
∂L d ∂L ∂L
δJ(x, δx) = − δxdt + δx |T0
0 ∂x dt ∂ ẋ ∂ ẋ
y puesto que de momento estamos considerando condiciones de contorno fijas, se
tendráá que δx(0) = δx(T ) = 0, por lo que
Z T" #
∂L d ∂L
δJ(x, δx) = − δxdt (14.13)
0 ∂x dt ∂ ẋ
δJ(x, δx) = 0
Puesto que la anterior expresión debe satisfacerse para cualquier variación δx(t)
de x(t), ello sólo será posible si
∂L d ∂L
− =0
∂x dt ∂ ẋ
La solución de esta ecuación diferencial en x es x∗ (t). Esta ecuación recibe la
denominación de ecuación de Euler.
Introducción a la optimización de sistemas dinámicos 355
x(0) = a x(T ) = b
A partir de estas dos ecuaciones se pueden determinar las dos constantes que
aparecen en la solución de la ecuación de Euler.
para i = 1, 2, ..., n.
Ejemplo
a) sea el funcional
Z b
J= (2x1 x2 − 2x21 + x˙1 2 − x˙2 2 )dt
a
es decir
se tiene,
∂L
= 2x2 − 4x1
∂x1
∂L
= 2x1
∂x2
∂L
= 2x˙1
∂ x˙1
∂L
= −2x˙2
∂ x˙2
Las ecuaciones de Euler en este caso dan lugar al siguiente sistema de ecuaciones
diferenciales:
d2 x1
2x2 − 4x1 − 2 2 = 0
dt
2
d x2
2x1 + 2 2 = 0
dt
Introducción a la optimización de sistemas dinámicos 357
d4 x2 d2 x2
+ 2 + x2 = 0
dt4 dt2
cuya ecuación caracterı́stica es
r4 + 2r2 + 1 = 0
r = ±j(dobles)
por lo tanto
d2 x2
x1 (t) = −
dt2
Vamos a aplicar las ecuaciones de Euler para demostrar un resultado bien cono-
cido: que la distancia más corta entre dos puntos es la lı́nea recta. Supongamos
una curva x(t) que une los puntos x(a) = A y x(b) = B. El parámetro t es un
parámetro arbitrario que sirve para especificar la familia de curva que une los
puntos del plano (a, A) y (b, B), tal como se indica en la figura 14.7.
a b t
por lo que
∂L
=0
∂x
∂L ẋ
=√
∂ ẋ 1 + ẋ2
por lo tanto, la ecuación de Euler, en este caso, se reduce a:
d ẋ
√ =0
dt 1 + ẋ2
ecuación diferencial que, a su vez, se reduce a
d2 x
=0
dt2
cuya integración conduce a
x∗ (t) = c1 t + c2
que, aplicando las condiciones de contorno, se convierte en
(A − B)t + (aB − bA)
x(t) =
a−b
con lo que queda demostrado lo que ya sabı́amos: que la distancia mı́nima entre
dos puntos es una recta.
Restricciones o ligaduras
estado inicial con el estado final, sólo son admisibles aquellas que, además, sat-
isfagan una ecuación de la forma
de manera que x(0) tome un valor previamente determinado, y x(t) sea tal que se
encuentre sobre una determinada trayectoria. Es decir, ni x(T ) ni T están fijados
de antemano, sino que ambos están ligados por una determinada expresión.
Introducción a la optimización de sistemas dinámicos 360
x(0)
δx (T ) ∆xf
ẋ(Tf )δT
T T + δT
o sea,
δx(T ) = ∆xf − ẋ(T )δT (14.21)
lo que llevado a (14.20) conduce a
∂L
∆J = |T [∆xf − ẋ(T )δT ] + L(x, ẋ, t) |T δT
∂ ẋ
y puesto que ∆J = 0, se tiene
" #
∂L ∂L
|T ∆xf + L(x, ẋ, t) − ẋ |T δT = 0 (14.22)
∂ ẋ ∂ ẋ
x(0)
0 T
Figura 14.10: Trayectorias con el tiempo final T fijo y el estado final x(T ) libre.
x(T )
x(0)
Figura 14.11: Trayectorias con el estado final x(T ) fijo y el tiempo final T libre.
Introducción a la optimización de sistemas dinámicos 364
y 0 (T )
y(t)
x(0)
T T + δT
Figura 14.12: Trayectorias con el estado final definido sobre la curva y(t).
Introducción a la optimización de sistemas dinámicos 365
Ejemplo 3
2
t
2 se sabe que las soluciones del problema de Euler viene dadas por la familia de
rectas:
x∗ = c1 t + c2
De donde se obtiene
c1 = 1
por lo que la trayectoria mı́nima viene dada por
x∗ = t
Introducción a la optimización de sistemas dinámicos 367
x∗ (T ) = y(T )
lo que da T = 1.
Tema 15
Métodos Variacionales en
Control Optimo
368
Métodos Variacionales en Control Optimo 369
Z T
J= L0 (x, ẋ, t)dt (15.4)
0
con lo que el problema se ha reducido a uno de cálculo variacional, para cuya
solución se emplean las ecuaciones de Euler.
Ejemplo 1
ẋ = −x + u
es decir,
L = 2x2 + 2xẋ + (ẋ)2
Recordando la ecuación de Euler:
∂L d ∂L
− =0
∂x dt ∂ ẋ
En este caso se tiene
∂L
= 4x + 2ẋ
∂x
∂L d ∂L dx d2 x
= 2x + 2ẋ ⇒ =2 +2 2
∂ ẋ dt ∂ ẋ dt dt
Por lo tanto la ecuación de Euler resulta ser
d2 x
− 2x = 0
dt2
Métodos Variacionales en Control Optimo 370
C1 = 1.0628 C2 = −0.0628
Ejemplo 2
a) x(0) = 1, x(T ) = 0 y T = 1.
Resolución.
En este caso
L = x2 + u2 = x2 + (ẋ)2
Luego,
∂L ∂L
= 2x = 2ẋ
∂x ∂ ẋ
Métodos Variacionales en Control Optimo 371
d2 x
−x=0
dt2
cuya solución general es,
x(t) = C1 e−t + C2 et
a) Es el caso más simple de aplicación de condiciones de contorno. Estas condi-
ciones conducen a,
1 = C1 + C2
C1
0 = + C2 e
e
Cuya solución es C1 = 1.157 y C2 = −0.157. Luego,
y,
lo que se traduce en
ẋ(1) = 0
Por lo tanto las condiciones en los extremos son
x(0) = 1 ẋ(1) = 0
lo que conduce a
1 = C1 + C2
C1
0 = − + C2 e
e
Es decir, C1 = 0.88 y C2 = 0.12. El valor de J resulta ser 0.761.
Métodos Variacionales en Control Optimo 372
Por lo tanto,
∂L
L − ẋ(T ) (T ) = 0
∂ ẋ
lo que conduce a
ẋ(T ) = 0
Se tienen, por tanto, tres ecuaciones con tres incógnitas C1 , C2 y T . Las anteriores
ecuaciones se convierten en
1 = C1 + C2
0 = C1 e−T + C2 eT
0 = −C1 e−T + C2 eT
T = ∞
C1 = 1
C2 = 0
Luego
x(t) = e−t
u(t) = −e−t (0 ≤ t < ∞)
En este caso J = 1.
Métodos Variacionales en Control Optimo 373
en donde
L0 (x, ẋ, u, λ) = L(x, u) − λ[f (x, u) − ẋ] (15.5)
Se considerará en lo que sigue m = 1, n = 1 por razones de simplicidad. La
generalización es muy simple y el resultado se presentará al final. El problema
queda reducido a determinar los valores de x(t), u(t) y λ(t) que minimicen el
funcional J 0 .
∂ d ∂
[L + (f − ẋ)λ] − [L + (f − ẋ)λ] = 0
∂u dt ∂ u̇
como L + (f − ẋ)λ no depende de u̇, se tendrá
∂
[L + f λ] = 0 (15.7)
∂u
Métodos Variacionales en Control Optimo 374
Se da el sistema ẋ = f (x, u)
RT
Se da el criterio J= 0 L(x, u)dt
Ejemplo 3
Para el sistema
ẋ = −2x + u
con el ı́ndice
1Z 1 2
J= u dt
2 0
determinar la señal de control óptima u(t) tal que conduzca al sistema de x(0) =
1 a x(1) = 0. La resolución del problema se descompone en los siguientes pasos:
u2
H= + (u − 2x)λ
2
2. Se minimiza la hamiltoniana
∂H
=u+λ
∂u
luego,
u∗ = −λ
4. Se tiene
∂H ∗ ∂H ∗
= −λ − 2x; = −2λ
∂λ ∂x
de donde se tienen las ecuaciones diferenciales (4)
−2x − λ = ẋ (15.15)
−2λ = −λ̇ (15.16)
λ̇ − 2λ = 0 (15.17)
λ = k1 e2t (15.18)
Métodos Variacionales en Control Optimo 377
es decir,
ẋ + 2x = −k1 e2t
que constituye la solución general de la homogénea xg = k2 e−2t .
La solución particular de la completa toma la forma xp = Ae2t . en donde,
luego
k1
A=−
4
La solución de las ecuaciones diferenciales anteriores, será de la forma,
k1 2t
x=− e + k2 e−2t
4
Aplicando las condiciones de contorno se tiene
k1
1 = − + k2 (15.19)
4
k1
0 = − e2 + k2 e−2 (15.20)
4
Eliminando k2 se tiene
1 4
k1 =
e 1 − e−4
4
luego,
4
λ= e2t
e4 (1 − e−4 )
5. Por lo tanto,
4
u∗ = − e2t
e4 (1 −4
−e )
Ejemplo 4
Sea la planta
x˙1 = x2
x˙2 = u
y el ı́ndice de funcionamiento
1Z 2 2
J= u dt
2 0
Métodos Variacionales en Control Optimo 378
condiciones de contorno
x1 (0) = x2 (0) = 1
x1 (2) = x2 (2) = 0
1. Se forma la hamiltoniana
1
H = u2 + λ1 x2 + λ2 u
2
2. Se resuelve la ecuación en u
∂H
=0
∂u
que en este caso resulta ser
∂H
= u + λ2 = 0
∂u
lo que conduce a
u∗ = −λ2
Obsérvese que
∂ 2H
=1
∂ 2u
por lo que u∗ minimiza la Hamiltoniana.
1 1
H ∗ (x∗ , λ, t) = λ22 + λ1 x2 − λ22 = λ1 x2 − λ22
2 2
x1 (0) = x2 (0) = 1
x1 (2) = x2 (2) = 0
Resolución del problema de contorno más las ecuaciones de estado
x˙1 = x2
x˙2 = −λ2
λ˙1 = 0
λ˙2 = −λ1
(1) λ˙1 = 0 −→ λ1 = k1
(2) λ˙2 = −λ1 −→ λ˙2 = −k1 −→ λ2 = −k1 t + k2
k1 t2
(3) x˙2 = −λ2 −→ x˙2 = k1 t − k2 −→ x2 (t) = − k2 t + k3
2
k1 t2 t3 t2
(4) x˙1 = x2 −→ x˙1 = − k2 t + k3 −→ x1 (t) = k1 − k2 + k3 t + k4
2 6 2
Es decir
t2
x2 = k 1 − k2 t + k3
2
t3 t2
x1 = k1 − k2 + k3 t + k4
6 2
Para t = 0 x1 = x2 = 1, luego k3 = 1, k4 = 1.
Para t = 2 x1 = x2 = 0, se tiene k1 = 3 k2 = 72 .
Luego
3t2 7t
x∗2 = − +1 (15.21)
2 2
t3 7t2
x∗1 = − +t+1 (15.22)
2 4
además
7
λ∗1 = 3 λ∗2 = −3t +
2
7
(5) u∗ = −λ∗2 = 3t −
2
Métodos Variacionales en Control Optimo 380
Ejemplo 5
ẋ = −ax + bu (15.25)
1. Se forma la Hamiltoniana
u2
H= + λ(−ax + bu) (15.27)
2
ẋ = −ax − b2 λ (15.30)
λ̇ = aλ (15.31)
cuya resolución permitirá obtener λ∗ (t) y la trayectoria de estado óptima
x∗ (t).
Para integrar las ecuaciones de coestado vamos a proceder como si conociésemos
el valor final de λ(T ). En tal caso, la solución de (15.31) es
De modo que
b2
x∗ (t) = x(0)e−at − λ(T )e−aT sinhat (15.35)
a
Las expresiones (15.32) y (15.35) nos dan λ∗ (t) y x∗ (t) en función de el
estado inicial x(0) y el valor final de λ(T ).
Supongamos que la temperatura inicial de la habitación es igual a la tem-
peratura exterior θa = 100 . Se hace
x(0) = 0 (15.36)
Además, supóngase que se trata de que la temperatura final θ(T ) sea 200
al cabo de T segundos. Por tanto, el estado final se pretende que alcance
el valor
x(T ) = 10 (15.37)
Se tiene, por tanto, un problema de control óptimo en el que tanto el estado
final como el tiempo final están fijados (aunque de momento no hayamos
asignado un valor concreto a T ).
Métodos Variacionales en Control Optimo 382
b2
x(T ) = x(0)e−aT − λ(T )(1 − e2aT ) (15.38)
2a
teniendo en cuenta (15.36) y (15.37) se tiene que
20a
λ(T ) = − (15.39)
b2 (1 − e−2aT )
del valor alcanzado por el estado en el instante final x(T ) y eventualmente del
propio tiempo final T . Es decir, sea un ı́ndice de funcionamiento de la forma
Z T
J= Ldt + S(x(T ), T ) − S(x(0), 0) (15.46)
0
es decir Z T
J= Ldt + S(x(T ), T ) − S(x(0), 0) (15.49)
0
Obsérvese que puesto que x(0) y el instante inicial 0 están fijados de antemano,
la minimización del ı́ndice (15.49) es equivalente a la minimización del ı́ndice
(15.47). (Normalmente S(x(0), 0) = 0)
∂
[L + f λ] = −λ̇
∂x
que resulta ser la misma expresión que se tenı́a en (15.6). Es decir, la ecuación
de Euler con relación a x es la misma se tenga o no término de control terminal.
Es inmediato comprobar que sucede lo mismo con las ecuaciones de Euler con
relación a u y a λ dadas en las expresiones (15.7 y 15.8).
∂L0 ∂S
= −λ
∂ ẋ ∂x
Por lo que la expresión (15.56) se convierte en
" #¯ " Ã ! #
∂S ¯ ∂S ∂S ∂S
¯ f
−λ ¯ ∆x + L + ẋ + + λ(f − ẋ) − − λ ẋ δT |T = 0
∂x ¯ ∂x ∂t ∂x
T
−λ|T ∆xf + H ∗ |T δT = 0
Las dos situaciones anteriormente consideradas constituyen los dos casos extremos
que se pueden dar. Supóngase, que ni el estado final ni el instante final T están
dados de antemano, pero sı́ la trayectoria y(t) en la que debe encontrarse el
estado final. En tal caso, las condiciones de contorno en el extremo final pueden
escribirse
−λ(T )∆xf + H ∗ [x(T ), λ(T ), T ]δT = 0 (15.59)
Es inmediato ver que dx = y(T )dt, y puesto que dt es arbitrario, es necesario que
∂S ∂S
−λ(T )ẏ(T ) + H0 (T ) + ẏ(t) |T + |T = 0 (15.60)
∂x ∂x
Esta ecuación, junto con el hecho de que x(T ) = y(T ) especifica completamente
la solución.
Ejemplo 6
Sea el sistema:
ẍ = u(t) (15.61)
Métodos Variacionales en Control Optimo 387
ẋ1 = x2
ẋ2 = u(t)
Se construye la Hamiltoniana
u2
H = L + λ1 f1 + λ2 f2 = + λ1 x2 + λ2 u
2
Minimizándola con respecto a u se tiene
∂H
=0
∂u
Es decir
u + λ2 = 0
por lo que la señal de control óptima será
u∗ = −λ2
λ22
H∗ = − + λ 1 x2
2
es decir
−λ̇1 = 0
−λ̇2 = λ1
y, por tanto,
λ1 = k1 λ2 = −k1 t + k2
Las condiciones de contorno como, en este caso, puesto que T es fijo, son
∂L
|T = −ẋ2 (T ) = −T + c1
∂ ẋ2
u = ẋ2 = T − t
Ejemplo 7
ẋ = −x + u
1. Se forma la hamiltoniana
1
H = u2 + λ(u − x)
2
2. Se minimiza la hamiltoniana
∂H
=u+λ
∂u
es decir
u∗ = −λ
Métodos Variacionales en Control Optimo 390
Ejemplo 8
1Z T 2 1
J= u (t)dt + ρ(x(T ) − 10)2
2 0 2
en donde ρ es un factor de ponderación entre los dos términos que aparecen en el
ı́ndice de funcionamiento. El primer término de J mide el coste de la actuación,
y es el mismo que se tenı́a en la expresión (15.26). El segundo término es una
expresión cuadrática que mide la desviación del estado final x(T ) del valor 10.
De acuerdo con este término se trata de penalizar el hecho de que x(T ) no sea
igual a 10, pero sin pretender que este sea exactamente el valor alcanzado.
Por tanto, el ı́ndice J está formado por dos términos. El primero penaliza el
coste de la actuación. Mientras que el segundo se refiere a la meta que se persigue
mediante el funcionamiento del sistema: que el estado final alcance un valor lo
más cercano posible a 10. Estos dos términos se suman afectando a uno de ellos
(en este caso al primero) mediante un factor de peso ρ que mide la importancia
relativa que se asigne al comportamiento deseado (primer término) o al coste de
alcanzarlo (segundo término). Es decir, si se adopta un valor para ρ muy grande,
entonces la solución óptima cumplirá preferentemente la meta de que x(T ) toma
un valor próximo a 10, dando poca importancia al coste necesario para alcanzar
esta meta. Por el contrario, si ρ es pequeño prácticamente lo único que se tiene
presente es el coste y nos encontramos con un problema análogo al discutido
anteriormente.
∂S
λ(T ) = |T = ρ(x(T ) − 10) (15.66)
∂x
Métodos Variacionales en Control Optimo 392
λ(T )
x(T ) = + 10 (15.67)
ρ
−10aρeat
λ∗ (t) = (15.69)
aeaT + ρb2 sinhaT
10abρeat
u∗ (t) = (15.70)
aeaT + ρb2 sinhaT
La trayectoria óptima resulta ser
10ρb2 sinhat
x∗ (t) = (15.71)
aeaT + ρb2 sinhaT
16.1 Introducción
393
Principio del Mı́nimo de Pontriagin 394
| ui |≤ Mi
Figura 16.1:
Según se verá más abajo, para obtener comportamientos óptimos con respecto
a determinados criterios se requiere que se mantengan las señales de control en
sus valores extremos. Esto sucede especialmente en los problemas de control en
tiempo mı́nimo.
Supuesto que existe un vector adjunto λ(t) tal que satisfaga las ecua-
ciones adjuntas (16.7) y las condiciones finales (16.8) para todo vector
(∆xf , δT ) tangente a B en el punto (x(T ), T ), entonces la condición
necesaria para la existencia de un mı́nimo es que en todo punto
t ∈ (0, T ) la función hamiltoniana H(x, u, λ) alcance su mı́nimo con
relación a u.
Lema
Demostración
ẋ + δ ẋ = f (x + δx, u + δu)
es decir
∂f ∂f
δ ẋ = δx + δu
∂x ∂u
Por las razones que se pondrán de manifiesto más abajo interesa calcular la
variación con el tiempo de λδx. Se tiene
d(λδx) dλ d(δx)
= δx + λ
dt dt
à dt ! à !
∂L ∂f ∂f ∂f
= − − λ δx + λ δx + δu
∂x ∂x ∂x ∂u
∂L ∂f
= − δx + λ δu
∂x ∂u
Pasando al primer miembro el primer término del segundo miembro, y sumando
a ambos miembros ∂L
∂u
δu se tiene, recordando (16.9).
d(λδx) ∂L ∂L ∂f ∂L
+ δx + δu = λ δu + δu
dt ∂x ∂u à ∂u ∂u!
∂f ∂L
= λ + δu
∂u ∂u
= δH
Por otra parte, de acuerdo con la figura 16.2, se puede aproximar el desplaza-
miento ∆xf entre la trayectoria nominal y la trayectoria perturbada con la si-
guiente expresión, (que es la misma que la (14.21))
δx (T ) ∆xf
ẋ(Tf )δT
T T + δT
Figura 16.2:
u(t) + δu(t) ∈ U
δH(t) ≥ 0 (16.26)
Principio del Mı́nimo de Pontriagin 400
para todo 0 < t < T . En efecto, para demostrar la expresión (16.26) se procede
por contradicción. Supóngase que existe un valor de ū y uno del tiempo t1 tales
que
H(x∗ (t1 ), u∗ (t1 ), λ(t1 )) > H(x∗ (t1 ), ū, λ(t1 )) (16.27)
es decir, que H(ū) en t1 es menor que H(u∗ ) óptima. Entonces es posible concebir
una señal ū(t) tal que coincide con u∗ (t) para todo valor de t excepto en un
pequeño entorno de t1 en el que toma el valor ū(t1 ) = ū (figura 16.3). Puesto que
ū
u∗
ε
0 t1 T
δu
0 t1 T
Figura 16.3:
H(x∗ (t), u∗ (t), λ(t)) − H(x∗ (t), ū(t), λ(t)) < ²0 (16.28)
δJ < 0 (16.29)
Principio del Mı́nimo de Pontriagin 401
El interés del principio del mı́nimo, como el del cálculo variacional, reside
en que el problema inicial de minimizar un funcional J se transforma en una
infinidad (para cada valor de t ∈ (0, T )), de problemas de minimización de un
escalar H.
Habida cuenta del principio del mı́nimo de Pontriagin, los cinco pasos enun-
ciados en el apartado anterior para resolver el problema de la determinación de
la ley de control óptima mantienen su vigencia, excepto el segundo que toma la
forma siguiente:
∂H
=0
∂n
como sucede en los casos considerados al estudiar el cálculo de variaciones, o se
tiene un asolución de contorno en la cual
∂H
≥0
∂n
en donde n es una normal dirigida hacia el exterior sobre el contorno de U. En
la figura 16.4 se representan graficamente estas dos posibilidades, para el caso en
que la dimensión de u sea 1.
H
H
Ho
Ho
uo u uo u
Ω Ω
Figura 16.4:
Se da el sistema ẋ = f (x, u)
RT
Se da el criterio J= 0 L(x, u)dt
Debe notarse que el principio del mı́nimo representa exclusivamente una condición
necesaria, es decir, que una vez obtenido el valor debe comprobarse que efectiva-
mente corresponde a un mı́nimo.
Ejemplo 1
J = x(T )
x(t)
x1 (t)
siendo k una constante. Por otra parte la condición de contorno, puesto que
se trata de un problema con estado final libre y tiempo final T determinado,
resulta ser, recordando (15.58), λ(T ) = 1. Por tanto k = 1, y λ(t) = 1 > 0.
En consecuencia, la señal de control óptima será u = 1. Llevando este valor a
(16.30), y recordando que x(0) = 0, se tiene que la curva óptima será
x(t) = t
Este resultado, que se muestra en la figura 16.5, tiene un contenido muy intuitivo.
Sea el sistema
ẋ = −2x + u
con el ı́ndice Z T
x2 dt
0
H = x2 + λ(u − 2x)
H
λ>0
−1 +1 u
H
λ<0
+1
−1 u
Figura 16.6:
λ x
-1
2 -2
-2
| u(t) |≤ 1 ∀t ∈ [0, T ]
Para resolver el problema se procede de acuerdo con los pasos indicados anteri-
ormente.
1. Se forma la hamiltoniana
1 1
H = x21 + u2 + λ1 x2 + λ2 (u − x1 )
2 2
u∗ = −sgn (λ2 )
Principio del Mı́nimo de Pontriagin 408
u∗ (t)
λ∗2 (t)
Supóngase un móvil sin rozamiento, cuyo movimiento está controlado por una
fuerza u que está acotada (|u| < 1). La ecuación dinámica del movimiento es
d2 y
=u
dt2
que admite la representación por variables de estado:
x˙1 = x2
x˙2 = u
y = x1
Principio del Mı́nimo de Pontriagin 409
H = 1 + λ1 x2 + λ2 u
• si λ2 < 0 haciendo u = +1
• si λ2 > 0 haciendo u = −1
es decir,
u∗ (t) = −sgn (λ2 (t))
por lo que la hamiltoniana minimizada resultará ser
H ∗ = 1 + λ1 x2 − λ2 sgn (λ2 )
λ1 = k1
λ2 = −k1 t + k2
Para u = +1 se tiene,
x2 = t + c 1
t2
x1 = + c1 t + c2
2
es decir,
x22 = 2x1 + c3
siendo c3 = c21 − 2c2 . La anterior expresión puede representarse gráficamente
como se hace en la figura 16.9a.
x2
0 x1
a) A u = +1
x2
B
t
0 x1
u = −1
b)
Figura 16.9:
La única trayectoria que pasa por el origen es AO, luego será por esta trayec-
toria por la que deberá alcanzarse el origen.
por
x2 = −2x1 + c4
lo que se representa graficamente en la figura 16.9b. Las mismas consideraciones
hechas anteriormente para la trayectoria AO valen aquı́ para la trayectoria BO.
u = −1 x2
0 x1
u = +1
Figura 16.10:
u∗ = sgn (²)
Principio del Mı́nimo de Pontriagin 412
siendo,
1
² = −x1 − x2 | x2 |
2
yr = 0 + +1
ε u0 1 x2 1 x1
s s
-1
-
| x2 | k
1 x2
2 x
+
+
+1
Determinar la ley de control óptima que transfiera al módulo lunar (figura 16.12)
desde una posición inicial (z(0), ż(0), M (0)) a la posición final (0, 0, M (T )) con
un consumo mı́nimo de combustible. La señal de control u está acotada por
0 < u < Q.
Solución
x˙1 = x2 (16.34)
Principio del Mı́nimo de Pontriagin 413
ku
Mg
z
ku
x˙2 = −g + (16.35)
M
Observese que M depende del tiempo, de modo que
Z t
M (t) = M (0) − udt
0
Se supone que
∆M M (T ) − M (0)
=
M M (0)
es muy pequeña, de modo que la expresión (16.35) puede considerarse correcta
en primera aproximación. El criterio a minimizar es
Z T
J= udt
0
por lo que à !
ku
H = u + λ1 x2 + λ2 −g +
M
es decir à !
kλ2
H = λ1 x2 − λ2 g + u 1 + R
M (0) − 0t udt
Minimizando H respecto a u se observa que el control viene dado por
à !
kλ2
• u = 0 si 1+ R >0
M (0) − 0t udt
Principio del Mı́nimo de Pontriagin 414
à !
kλ2
• u = Q si 1+ R <0
M (0) − 0t udt
cambie una vez como máximo, y por lo tanto u sólo toma los valores 0 y Q una
sola vez en la trayectoria óptima.
ż(0) − x2
t=
g
ż 2 (0) x22
x1 = z(0) + −
2g 2g
es decir,
x22 = ż 2 (0) + 2g(z(0) − x1 )
esta expresión da la familia de trayectorias en el plano de estado, en función de
las condiciones iniciales z(0), ż(0).
Principio del Mı́nimo de Pontriagin 415
x2
z(0)
x1
ż(0)
u=0
Figura 16.13:
Cuando u = Q
ẋ1 = x2
kQ kQ
ẋ2 = −g + Rt = −g
M (0) − 0 udt M (0) − Qt
Integrando la segunda de las anteriores expresiones se tiene
es decir
à ! à !
M (0) Qt Qt t2
x1 − z(0) = ż(0)t + k 1− ln 1 − − g + k ln M (0)t
Q M (0) M (0) 2
En el último paso se ha tenido en cuenta que
Z
ln xdx = x ln x − x
La única trayectoria que pasa por el origen es la AB, y es por lo tanto la curva
de conmutación, como la señal u solo cambiaba de valor una vez en la trayectoria
Principio del Mı́nimo de Pontriagin 416
ż(0) z(0)
B x1
CHOQUE
A
x2 u=Q
Figura 16.14:
x2
x1
u=Q Zona de caida libre
Zo
Choque
na
con k=0
d
velocidad
ec
ho
Linea de
qu
conmutacion
e
Figura 16.15:
Principio de optimalidad de
Bellman
17.1 Introducción
Obsérvese que se exige que B sea siempre el estado final. Es decir, que un
tramo de la trayectoria AB, que no acabe en B, no puede considerarse óptimo.
417
Principio de optimalidad de Bellman 418
A
Figura 17.1: Principio de optimalidad: si la trayectoria AB es óóptima, también
lo es la CB.
Ejemplo
G
4 6
D K
6 9 4 3
B H N
1 2 2 8 2 5
A E L P
7 3 3 7 5 3
I O
C 4 1 5 6
F M
5 9
J
1 2 3 4 5 6 7
K
5
N
7
P
L
3
O
9
14
G
8
K
12 5
H N
7
P
L
14 3
I O
9
M
18
J
Figura 17.4: Las tres últimas etapas para llegar a P .
Principio de optimalidad de Bellman 421
manera que la suma del costo correspondiente al nuevo tramo y el costo óptimo
a K o a L (número encirclado), sea mı́nimo.
Procediendo de esta manera se llega a cubrir todo el diagrama con los costos
mı́nimos desde los correspondientes nudos. De la figura 17.5 y de los anterior-
mente expuestos, se deduce que la trayectoria óptima es la ABEHKN P .
14
G
18 8
D K
16 12 5
B H N
17 14 7
P
A E L
17 14 3
C I O
15 9
F M
18
Sea un sistema que admite una entrada u(k) que toma únicamente los valores 0
y −1, para todo k discreto. La ecuación que gobierna la evolución del mismo es
la siguiente:
x(k + 1) = x(k) + u(k) (17.1)
Se trata de encontrar la secuencia u(k), k = 0, 1, 2, 3 que transfiera el estado del
sistema de x(0) = 2 a x(4) = 0 de manera que se minimice la función de costo
3
X
J= | 5x(k) − 3 | (17.2)
t=0
Para una mejor comprensión del método se empleará un diagrama sobre un plano
x − y, en donde en el eje y se representa el estado del sistema (17.1) y en el eje
x el ı́ndice k (figura 17.6).
A 7 7
2 13 11 9
7 7 7
x(t)
2 2
1 6 4 2
2 2 2
3 3 B
6 3 0
t
0 1 2 3 4
J1∗ (0) = 3
J1∗ (1) = 2
Puesto que no hay diferentes rutas desde los dos puntos no se requiere mini-
mización.
Sea ahora k = 2. Los puntos en los que se puede iniciar el proceso son en este
caso x = 0, 1, 2. Para x = 0, 2 no existe problemas de adopción de ruta pero para
x = 1 si es posible aplicar u = 0 ó u = −1.
J4∗ (2) = 13
Principio de optimalidad de Bellman 423
A 7 7
2 13 11 9
7 7 7
x(t)
2 2
1 6 4 2
2 2 2
3 3 B
6 3 0
t
0 1 2 3 4
Es decir, para cada (x, t) la función V (x, t) nos da el coste óptimo, desde
ese estado y tiempo. Si recordamos los dos ejemplos anteriores veremos que la
Principio de optimalidad de Bellman 424
función V (x, t) toma, en esos problemas, el valor que se representa en las figuras
17.5 y 17.6 en el interior de un pequeño cı́rculo.
es decir, el valor de V es el mı́nimo de la suma del primer paso que se toma desde
(x, t) más el valor óptimo desde el resultado de ese primer paso. Recuérdese como
se calculaban los números encirclados en los dos ejemplos anteriores. La anterior
expresión se puede escribir
V (x, T ) = S(x(T ), T )
Conviene resaltar que este método nos ha conducido de manera natural a que
la solución toma la forma de una ley de control, y no de una señal de control
como sucedı́a en la solución del control óptimo mediante métodos variacionales.
siendo
u ∈ U (x(T ), T ) ∈ B (17.9)
x
x(T ) B
(x, t)
A C
t t + ∆t T
Demostración
Se procede por contradicción. Supóngase que existe un u∗∗ tal que dé un valor
menor para Z T
L(x, u, τ )dτ + S(x(T ))
t+∆t
Z t+∆t Z T
L(x∗ , u∗ , τ )dτ + L(x∗∗ , u∗∗ , τ )dτ + S(x∗∗ (T ))
t t+∆t
Z t+∆t Z T
< L(x∗ , u∗ , τ )dτ + L(x∗ , u∗ , τ )dτ + S(x∗ (T )) (17.11)
t t+∆t
"Z #
T
∗
V (x, t) = J (x, t) = umin L(x(τ ), u(τ )) dτ + S(x(T ), T )
[t,T ] t
con:
u[t,T ] = {u(τ )|t ≤ τ < T }
es decir, u[t,T ] es el conjunto de todas las acciones de control posibles en el intervalo
[t, T ].
sobre B.
∂V
1. Formar la hamiltoniana, sustituyendo λ por .
∂x
à !
∂V ∂V
H x, u, =L+ f (17.27)
∂x ∂x
à !
∂V
2. Minimizar H x, u, , t con relación a u ∈ U para obtener
∂x
à !
∗ ∗ ∂V
u =u x, (17.28)
∂x
Principio de optimalidad de Bellman 430
Se da el sistema ẋ = f (x, u)
RT
Se da el criterio J= 0 L(x, u)dt + S(x(T ), T )
à !
∗ ∗ ∂V
Paso 2 Se determina u = u x, , t admisible tal que
à ! ∂x
∂V
minimice H x, u, , t con respecto a u ∈ U
∂x
Paso 3 Se determina
à !la Hamiltoniana
à mı́nima
!
∗ ∂V ∗ ∂V
H x, , t = H x, u , ,t
∂x ∂x
Paso 4 Se resuelve
à el!sistema de ecuaciones en derivadas parciales
∂V ∂V
H ∗ x, ,t + =0
∂x ∂t
con las condiciones de contorno V (x, T ) = S(x(T ), T ).
Se obtiene V ∗ (x, t).
En general, la aplicación del método anterior presenta dos dificultades que limitan
grandemente su empleo. En primer lugar, es generalmente imposible resolver
la ecuación de Hamilton-Jacobi aún para problemas sencillos, puesto que no se
conoce una técnica general de resolución para ese tipo de ecuaciones en derivadas
parciales. Por otra parte, aún si la ecuación de Hamilton-Jacobi puede resolverse,
la ley de control obtenida es normalmente muy dificil de realizar fı́sicamente.
Las anteriores razones hacen que, desde un punto de vista práctico, sea más
interesante el principio de Pontriagin que la ecuación de Hamilton-Jacobi-Bellman
Principio de optimalidad de Bellman 432
en la resolución del problema de control. Sin embargo, existe un caso para el que
el método de Hamilton-Jacobi-Bellman es el idóneo. Es el de la determinación
de la ley de control para un sistema dinámico lineal invariante en el tiempo,
cuando el criterio de funcionamiento es cuadrático. Este problema es de por
sı́ lo suficientemente interesante como para justificar el estudio del método de
Hamilton-Jacobi-Bellman.
Ejemplo 1
ẋ = u
con el ı́ndice Z T
J= (x2 + u2 )dt
0
1. Se forma la hamiltoniana
∂V
H = x 2 + u2 + u
∂x
2. Se minimiza la hamiltoniana
∂H ∂V
= 2u + =0
∂u ∂x
lo que da
1 ∂V
u∗ = −
2 ∂x
3. Se forma la hamiltoniana mı́nima
à !2
∗ 1 2 ∂V
H =x −
4 ∂x
V (x(T ), T ) = 0
Principio de optimalidad de Bellman 433
V (x, t) = k(t)x2
k(t) = tanh(T − t)
y, por tanto,
u∗ = − tanh(T − t)x(t)
∂V
Interesa calcular cómo evoluciona el vector a lo largo de una trayectoria
∂t
óptima. Derivando con respecto al tiempo se tiene
d ∂V ∂ 2V ∂ 2V
= + 2 f (x, u) (17.32)
dt ∂t ∂t∂x ∂ x
Por otra parte, derivando (17.2.1) con relación a x se obtiene
d ∂V ∂ 2V ∂2V ∂L ∂L ∂u ∂f ∂V ∂V ∂f ∂u
= + 2 f (x, u) + + + + =0
dt ∂t ∂t∂x ∂ x ∂x ∂u ∂x ∂x ∂x ∂x ∂x ∂x
de donde, teniendo en cuenta (17.2.1) y (17.32), se llega a
d ∂V ∂f ∂V ∂L
=− −
dt ∂t ∂x ∂x ∂x
ẋ = Ax + Bu
• son aplicables a sistemas que varı́an con el tiempo (los métodos en el dominio
de la frecuencia están limitados a sistemas invariantes en el tiempo); y
Sin embargo,la teorı́a LQR no aborda dos cuestiones muy importantes que apare-
cen en el diseño de sistemas de control realimentados: la falta de precisión en el
modelo de la planta y los ruidos en los sensores. Además, la teorı́a LQR pre-
supone el conocimiento del estado del sistema que, como ya se puso de manifiesto
cuando se postuló la necesidad de los observadores, es frecuente que no esté
Principio de optimalidad de Bellman 436
ẋ = Ax + Bu (17.33)
Z T
J2 = (r1 u21 + r2 u22 + · · · + rm u2m ) dt
0
para un sistema con n variables de estado y m señales de entrada.
Por último, pueden existir términos de control terminal, que deberán ser de
la forma:
xT (T )Sx(T )
siendo S una matriz simétrica.
T ∂V T
T
H = x Qx + u Ru + (Ax + Bu) (17.37)
∂x
Haciendo
∂H
=0
∂u
se obtiene
∂V
BT + 2Ru = 0 (17.38)
∂x
por lo tanto u∗ (x, t) está dado por
1 ∂V
u∗ = − R−1 B T (17.39)
2 ∂x
Llevando este valor de u∗ a la hamiltoniana se tiene la hamiltoniana minimizada
que resulta ser,
∂V T 1 ∂V T ∂V
H ∗ = xT Qx + Ax − BR−1 B T (17.40)
∂x 4 ∂x ∂x
La ecuación de Hamilton-Jacobi-Bellman correspondiente es
∂V ∂V 1 ∂V T ∂V
+ Ax − BR−1 B T + xT Qx = O (17.41)
∂t ∂x 4 ∂x ∂x
con la condición de contorno
V (x, T ) = xT Sx (17.42)
Para la integración de (17.41) es razonable adoptar (como ya se hizo, con buenos
resultados, en el ejemplo 1) una función de la forma:
V (x, t) = xT P (t)x (17.43)
Principio de optimalidad de Bellman 438
siendo P (t) una matriz real simétrica. Llevando (17.43) a la ecuación de Hamilton-
Jacobi-Bellman (17.41) se tiene:
xT Ṗ x + 2xT P Ax − xT P BR−1 B T P x + xT Qx = 0
o lo que es lo mismo
³ ´
xT Ṗ + 2P A − P BR−1 B T P + Q x = 0 (17.44)
M = Ms + Ma (17.45)
xT M x = xT Ms x + xT Ma x (17.46)
xT Ma x = xT MaT x = −xT Ma x
se tendrá que
xT M x = xT Ms x
Lo que equivale a decir que la matriz M asociada a una forma cuadrática puede
escojerse simétrica.
Además, sabemos que la parte simétrica de una matriz M viene dada por:
M + MT
Ms =
2
Principio de optimalidad de Bellman 439
M + MT
xT M s x = xT x
2
Aplicando estas consideraciones a (17.44), para el caso M = P A, se llega a la
siguiente ecuación:
Ṗ + AT P + P A − P BR−1 B T P + Q = 0 (17.47)
P (T ) = S
que recibe la denominación de ecuación de Riccati. La resolución de esta ecuación
permite obtener P (t), o, lo que es lo mismo
V (x, t) = xT P (t)x
AT P + P A − P BR−1 B T P + Q = 0 (17.49)
u = Kc x
siendo
Kc = −R−1 B T P (17.50)
Debe observarse en las expresiones anteriores que la ley de control óptimo que
se ha determinado es una ley de control lineal. Este es un resultado que ya se
habı́a obtenido, a partir de otros supuestos, al estudiar el control de sistemas
lineales para su estabilización. La estructura que se obtiene aquı́, que es la que se
representa en la figura 17.9, es la misma que se encontró allı́. Esta identidad de
estructuras constituye uno de los puntos más sobresalientes de la moderna teorı́a
del control.
Ejemplo 2
Ejemplo
y el criterio a minimizar Z T
J= (x2 + u2 )dt
0
A = S = [0] B = Q = R = [1]
Ṗ + 1 − P 2 = 0 P (T ) = 0
u∗ = −P (t)x(t)
Ejemplo 3
ẋ = −3x + u
siendo Z ∞
J= (x2 + 0.1u2 )dt
0
Por tanto, se tiene
A = −3 B = 1 Q = 1 R = 0.1
−6P − 10P 2 + 1 = 0
Ejemplo 3
si Z ∞
J= (x21 + u2 )dt
0
" #
T −2p12 −2p22
A P =
p11 − p12 p12 − p22
" #
−2p12 p11 − p12
PA =
−2p22 p12 − p22
" #
−1 T 4p212 4p12 p22
P BR B P =
4p12 p22 4p222
" #
1 0
Q=
0 0
La ecuación de Riccati
AT P + P A − P B R−1 B T P + Q = 0
p12 = 0.20710
p22 = 0.15311
Principio de optimalidad de Bellman 443
u ẋ R x y
B C
−R−1 B T P
ẋ = (A + BKc )x (17.54)
ecuación que rige la evolución del estado en bucle cerrado. Es fácil ver que la
función
V (x) = xT P x (17.55)
es una función de Liapunov para este sistema. En efecto, en primer lugar se tiene
que puesto que P es definida positiva, V (x) lo será a su vez. Por otra parte se
tiene que
dV
= (ẋT P x + xT P ẋ) (17.56)
dt
Principio de optimalidad de Bellman 444
Para que el sistema sea estable se rquiere que V̇ ≤ 0, estando V̇ dado por
la ecuación (17.57). Supóngase que V̇ es idénticamente nulo a lo largo de una
trayectoria que se inicia en un estado inicial no nulo x(0). Entonces xT Qx y
xT P BR−1 B T P x son idénticamente nulos y −R−1 B T P x, el control óptimo para
el sistema en bucle cerrado, es también idénticamente nulo. Por consiguiente, las
trayectorias del sistema en bucle cerrado son las mismas que las del sistema en
bucle abierto, que están dadas por
ahora bien
T
xT Qx = xT (0)eA t QeAt x(0)
T
= xT (0)eA t DT DeAt x(0)
debe ser idénticamente nulo. Esto contradice la hipótesis de que el par (A, D)
es completamente observable, ya que la observabilidad de (A, D) implica que
DeAt x(0) para algún t ∈ [0, ∞) si y sólo si x(0) = 0. En consecuencia es imposible
tener V̇ idénticamente nulo a lo largo de una trayectoria que se inicie en un estado
no nulo. Con ello queda garantizada la estabilidad asintótica del sistema en bucle
cerrado para este caso.
y = Dx (17.59)
La observabilidad del par (A, D) implica que el sistema dado por las ecuaciones
(17.33) y (17.59) es completamente observable.
Principio de optimalidad de Bellman 446
Ejemplo
Sea el sistema
ẋ(t) = Ax(t) + Bu(t)
dónde u es de dimensión 1, sometido al criterio de funcionamiento:
Z ∞
J= (xT Qx + ru2 )dt
0
AT P + P A − P BR−1 B T P + Q = 0
−P A − AT P = Q − P BB T P
P (sI − A) + (−sI − AT )P = Q − P BB T P
B T ΦT (−s) P B +B
|{z}
T
| {zP} Φ(s)B =
kcT kc
B Φ(s) K
Ejemplo
y el criterio Z ∞
J= (3x2 + u2 )dt
0
En primer lugar el problema se va a resolver mediante la ecuación de Riccati, tal
como se ha visto en la sección anterior. Para este problema se tiene que
A = −1 B = 1 Q = 3 R = 1
−p − p − p2 + 3 = 0
es decir,
p2 + 2p − 3 = 0
cuyas soluciones son p1,2 = 1, −3, por lo que la constante de la ley de control
resulta ser k = 1.
3 + (1 − s)(1 + s) = 4 − s2 = (2 − s)(2 + s)
y por tanto
(2 − s)(2 + s)
= ∆(s)∆(−s)
(1 − s)(1 + s)
es decir
2+s
∆(s) =
1+s
En consecuencia
2+s 1
G(s) = ∆(s) − 1 = −1=
1+s s+1
por lo que se obtiene el mismo valor para k que se obtuvo anteriormente.
sucede lo mismo para sistemas de dimensión mayor, por lo que el segundo método
es el habitualmente empleado para determinar la ley de control, ya que para el
único problema para el que se requieren métodos numéricos elaborados que es la
factorización, se dispone de soluciones informáticamente deficientes.
Por otra parte, de la expresión (17.61) se deduce que los reguladores LQR
presentan una robustez excelente. En efecto, si factorizamos Q de la forma Q =
H T H y hacemos s = jω en (17.61) se obtiene:
k1 + G(jω)k2 = 1 + kHΦ(jω)Bk2
de donde:
k1 + G(jω)k > 1
Si interpretamos esta condición en el plano polar, la curva de G(jω) no puede
entrar dentro de un circulo de centro −1 y radio 1, por lo que aseguramos un
margen de fase mayor de 60 grados y un margen de ganancia infinito.
El problema LQR, tal como ha sido resuelto, supone que todas las variables
de estado son accesibles. Esto no siempre es ası́ y cuando no lo son hay que
proceder, al menos, a estimarlas. Es lo que se hace con los métodos que veremos
en el próximo tema.
Principio de optimalidad de Bellman 451
R∞
y el criterio de funcionamiento J= 0 [xT Qx + uT Ru]dt + xT (T )Sx(T )
siendo Kc = −R−1 B T P
Se define una variable aleatoria como aquella que, como resultado de un ensayo,
toma un cierto valor imprevisible exactamente y dentro de un conjunto de valores
permitidos. Para caracterizar completamente una variable aleatoria es necesario
definir el conjunto de valores posibles, ası́ como la probabilidad de cada uno de
ellos. Esta caracterı́stica reciben el nombre de ley de distribución. Estos conceptos
se suponen conocidos y se recuerdan aquı́ a tı́tulo de revisión.
Supóngase una variable aleatoria que varı́a con el tiempo, como, por ejemplo,
el error de medida de una cierta magnitud que se dibuja continuamente en un
registrador gráfico. El resultado de una prueba o ensayo es una medida que es
función del tiempo. Una variable aleatoria de ésta naturaleza se llama una señal
aleatoria o proceso estocástico.
Una señal aleatoria se define, en consecuencia, como una variable función del
tiempo, tal que, para cada valor del argumento, o para cada conjunto de valores,
se comporta como una variable aleatoria (18.1).
452
Estimación del estado 453
0
t1 t
0
t1 t
t1
0 t
p1 (x, t) = p1 (x)
p2 (x1 , x2 ; t1 , t2 ) = p2 (x1 , x2 ; t2 − t1 )
En realidad la estacionaridad ası́ definida no es la más general que cabe concebir
pero sin embargo es suficiente a los efectos aquı́ interesan. Para un proceso esta-
cionario sus caracterı́sticas estadı́sticas son invariantes por traslación temporal.
Las caracterı́sticas de una señal aleatoria que aquı́ se van a considerar son su
media, su covarianza y su función de autocorrelación. La media se define como
Z ∞
mx (t) = E[x(t)] = xp1 (x; t)dx (18.1)
∞
Ejemplo
x(t)
+1
−γ 0 γ 2γ 3γ t
a) -1
Rxx (τ )
1
−γ 0 γ τ
b)
De lo anterior se deduce
T− | τ | |τ | |τ |
E[x(t)x(t + τ )] = a2 + a2 − a2
T 2T 2T
es decir à !
2 |τ |
φxx (τ ) = a 1−
T
Esta señal constituye una aproximación a una señal de gran interés, que es la
señal blanca, que por definición es aquella cuya función de autocorrelación es un
impulso de Dirac, es decir,
φbb = Aδ(t)
Esta señal no se presenta nunca en la práctica con las propiedades teóricamente
exigidas. Sólo se tienen aproximaciones de las cuales la señal binaria considerada
constituye una de las más interesantes.
E[w(t)] = 0
E[w(t)wT (τ )] = Qδ(t − τ )
tal que Q ≥ 0. Q recibe también la denominación de intensidad del ruido.
Por tanto, se tiene que la evolución de la media de x(t) vendrá dada por:
·Z t ¸
E[x(t)] = E[Φ(t)x(t0 )] + E Φ(t − τ )Bw(τ )dτ
t0
Z t
= Φ(t)E[x(t0 )] + Φ(t − τ )BE[w(τ )]dτ
t0
= Φ(t)x̄0 (18.8)
Por otra parte, para determinar la matriz de covarianza del vector x(t) vamos a
estudiar, en primer lugar la evolución de:
Teniendo en cuenta las caracterı́sticas de las señales w(t) y x(t) la anterior ex-
presión conduce a:
Para el paso de (18.11) a (18.12) hay que tener presente, por una parte que los
términos segundo y cuarto se anulan de acuerdo con (18.6). Por otra parte, por
lo que respecta a los términos tercero y quinto, hay que tener presente que la
función δ aquı́ es simétrica y que Φ(0) = I. La función δ simétrica tiene las
siguientes propiedades:
• δ(t − τ ) = δ(τ − t)
Estimación del estado 458
(
Rb 0 si t < a o si t > b
• a f (τ )δ(τ − t)dτ =
f (t) si a < t < b
En tal caso, si el valor de t coincide con uno de los lı́mites de integración, por
ejemplo t = b, se tiene que
Z b
f (b)
f (τ )δ(τ − b)dτ =
a 2
puesto que el área unidad que cubre la función δ se distribuye la mitad a la
derecha de t = τ y la otra mitad a su izquierda. Obsérvese que de acuerdo con
los lı́mites de integración, los miembros tercero y quinto de (18.11) aportan solo
1/2.
E[w(t)wT (t − τ )] = Qδ(τ )
E[v(t)v T (t − τ )] = Rδ(τ )
Cada señal únicamente está correlacionada consigo mismo en el instante de pro-
ducirse. Esto implica un espectro de frecuencias plano, donde no hay ninguna
predominante, y cuya amplitud nos da la covarianza de la señal.
• v(t): Modela los errores que aparecen al medir la variable de salida del
sistema. Estos errores, en general, pueden ser cuantificados de manera más
exacta que los anteriores.
Estimación del estado 460
y(t)
+ - ŷ(t)
y(t) − ŷ(t)
Ko C
+
u(t) x̂˙ R x̂
B +
+
(18.16), a partir de la estimación del estado x̂, de la señal de entrada u y del error
en la variable de salida y − C x̂ generamos evolución de las estimaciones.
Sea
P (t) = E[(x̂ − x)(x̂ − x)T ] = E[x̃x̃T ]
la matriz de covarianza del error de estimación x̃ = x̂ − x.
De acuerdo con (18.14) la covarianza P (t) del error x̃ vendrá dada por
d
P (t) = (A − Ko C)P (t) + P (t)(A − Ko C)T + Q + Ko RKoT (18.20)
dt
Por otra parte, es inmediato que:
Llevando este valor de Ko a (18.22) se tiene que P (t) satisface la ecuación difer-
encial:
Ṗ (t) = P (t)AT + AP (t) + Q(t) − P (t)C T R−1 CP (t) (18.23)
con las condiciones iniciales P (t0 ) = P0 .
Si comparamos las expresiones (??) y (18.23) con las (17.50) y (17.50) del
capı́tulo anterior se comprueba que la solución del filtro óptimo es dual de la del
problema del control. Esta dualidad se puede resumir en el cuadro siguiente:
Estimación del estado 462
Ko = P C T R−1 (18.24)
AP + P AT + Q − P C T R−1 CP = 0 (18.25)
Se tiene E[w(t)] = 0
E[v(t)] = 0
E[w(t)wT (t − τ )] = Qδ(τ )
E[v(t)v T (t − τ )] = Rδ(τ )
dx̂
Ecuaciones del filtro = Ax̂ + Bu + Ko (y − C x̂)
dt
Error cuadráático
de la estimación tr P
Estimación del estado 464
w v
u R y
B 1
-1
18.3.1 Ejemplo
w v
u R y
B 1
-1
+
Ko
-
u R
B 1
ŷ
-1
p=1
Ko = 1.
Veamos, con detalle, el regulador LQG. Sea un sistema dinámico lineal (con
n estados, m entradas y l salidas):
ẋ = Ax + Bu + w
y = Cx + v
siendo:
x: vector de estados (n × 1).
u: vector de entradas (m × 1).
y: vector de salidas (l × 1).
A: (n × n).
B: (n × m).
C: (l × n).
y siendo w y v señales aleatorias, de ruido blanco gausiano, con media nula y
Estimación del estado 467
E[w(t)wT (t − τ )] = Qo δ(τ )
E[v(t)v T (t − τ )] = Ro δ(τ )
E[w(t)v T (t − τ )] = 0
donde:
Qo = QTo ≥ 0 , Ro = RoT ≥ 0
El objetivo es determinar la señal de control u de forma que la siguiente funcional
sea mı́nima: Z ∞
J= (xT Qc x + uT Rc u) dt
0
con:
Qc = QTc ≥ 0 , Rc = RcT ≥ 0
El teorema de separación establece que el óptimo global se tiene dividiendo el
problema en dos subproblemas:
u = −Kc x̂
siendo
Kc = Rc−1 B T Pc
Pc se determina a partir de la ecuación de Riccati:
AT Pc + Pc A − Pc BR−1 B T Pc + Qc = 0
z(t)
r + u(t)
Planta y(t)
-
A
Planta
+ +
x̂(t) R ˙
x̂(t)
Kc Ko
+
+ -
C
Observador
Figura 18.7: Estructura del regulador del problema del control estocástico