Documentos de Académico
Documentos de Profesional
Documentos de Cultura
AUTOMATICA II
(Primer parcial)
BIBLIOGRAFIA 225
.
TEMA 0
HISTORIA DE LA AUTOMATICA
0.1 INTRODUCCION
La Real Academia de la Lengua define el término Automática de la siguiente forma:
“Ciencia que trata de sustituir en un proceso al operador humano por dispositivos mecánicos
o electrónicos.”
En esta definición se hace referencia expresa a dos actividades propias del operador
humano: la tarea física y la tarea mental. Normalmente las tareas realizadas por el hombre
son un conjunto de ambas. Se dice que un proceso está automatizado cuando no precisa la
intervención de un operador humano.
La Automática1 es una disciplina básicamente ingenieril, por ello sus avances están
estrechamente ligados a los problemas prácticos que necesitaban ser resueltos por el
hombre. Los principales eventos a lo largo de la historia de la humanidad que afectaron al
progreso de la Automática fueron:
1. La preocupación de los Griegos y de los Arabes por conseguir una medida precisa
del tiempo. Este periodo se extiende desde cerca del 300 a.c. hasta el 1200 de
nuestra era.
1
En este capítulo se usarán de forma sinónima los términos Automática, Teoría de Control Automático y Teoría
de Control Realimentado.
1
TEMA 0: Historia de la Automática
2
Apuntes de Automática II
disminuía el corcho dejaba de taponar la entrada de flujo al tanque, con lo que esté se volvía
a llenar. El llenado se paraba cuando se alcanzaba una altura adecuada de tal forma que el
corcho volvía a taponar el flujo entrante de agua.
Cuando Bagdad fue tomada por los Mongoles en 1258, todo el pensamiento creativo
asociado a este tipo de reguladores finalizó. Además, la invención de relojes mecánicos en
el siglo XIV dejó a los relojes de agua y sus sistemas de control realimentado obsoletos. (El
reloj mecánico no es un sistema de control realimentado). El regulador flotante no
aparecería de nuevo hasta su uso en la Revolución Industrial.
J. Watt inventó su motor de vapor en 1769, y esta fecha marca, según todos los
historiadores, el comienzo de la Revolución Industrial. No obstante, las raíces de la
Revolución Industrial podrían situarse sobre el 1600 o incluso un poco antes con el
desarrollo de diferentes tipos de molinos de grano y hornos.
En 1788 Watt completó el diseño del regulador centrifugo “flyball” para regular la
velocidad rotacional del motor de vapor. Este regulador caló hondo dentro del mundo
ingenieril y llegó a convertirse en toda una sensación en Europa. Éste fue el primer uso del
control realimentado del que existe conocimiento popular.
3
TEMA 0: Historia de la Automática
La teoría de las ecuaciones diferenciales estaba por aquel entonces bien desarrollada,
debido al descubrimiento del cálculo infinitesimal (I. Newton (1642-1727), G. W. Leibniz
(1646-1716), J. F. Riccati (1676-1754), etc). El uso de la ecuación diferencial en el análisis
de sistemas dinámicos fue establecido por J. L. Lagrange (1736-1813) y W. R. Hamilton
(1805-1865).
E. J. Routh aportó una técnica numérica para determinar cuando una ecuación
característica tiene raíces estables [Routh 1877]. En 1893, A. B. Stodola estudió la
regulación de una turbina de agua usando las técnicas de Vyshnegradsky. También modeló
las dinámicas del actuador e incluyó el retardo de los mecanismos de actuación en su
4
Apuntes de Automática II
análisis. Fue el primero en mencionar la noción de constante de tiempo del sistema. Sin
conocer el trabajo de Maxwell y Routh el propuso el problema de determinar la estabilidad
de la ecuación característica a A. Hurwitz quién lo resolvió en 1895 [Hurwitz 1895].
Otra aportación fundamental a la teoría de control fue realizada por A. M. Lyapunov, que
estudió en 1892 la estabilidad de ecuaciones diferenciales no lineales usando una noción
generalizada de energía [Lyapunov 1892]. Desafortunadamente, aunque su trabajo fue
aplicado y continuado en Rusia, su elegante teoría no llegó a Occidente hasta 1960.
5
TEMA 0: Historia de la Automática
Otro problema militar importante durante este periodo era la fijación precisa de objetivos
para armas ubicadas en barcos y aviones. Con la publicación en 1934 del libro “Teoría de
Servomecanismos” de h. L. Házen, se inició el uso de la teoría de control mecánica en este
problema. En su libro, Házen acuño el término servomecanismo, que implicaba una relación
maestro-esclavo en los sistemas.
Por otra parte, W. R. Evans presentó su técnica del lugar de las raíces [Evans 1948], la
cual aportaba una forma directa de determinar la posición en el plano s de los polos en lazo
cerrado. Durante la década de los 50, muchos trabajos de control estuvieron centrados en el
plano s, y en como obtener respuestas temporales adecuados de la salida de un sistema en
lazo cerrado en término del tiempo de subida, sobreelongación, etc.
6
Apuntes de Automática II
Esta teoría tuvo algunos éxitos con sistemas no lineales. Usando las propiedades de
rechazo del ruido de las técnicas del dominio de la frecuencia, un sistema de control puede
ser diseñado para que sea robusto a variaciones en los parámetros del sistema, y para tener
en cuenta (medir) errores y perturbaciones externas. Así, las técnicas clásicas puede ser
utilizadas sobre la versión linealizada de un sistema no lineal.
Las técnicas del dominio de la frecuencia pueden ser también aplicadas a sistemas con
no linealidades sencillas usando la aproximación de la función descriptiva, la cual se basa
en el criterio de Nyquist. Esta técnica fue usada por primera vez por J. Groszkowski en el
diseño de transmisores de radio antes de la Segunda Guerra Mundial y fue formalizada en
1964 por J. Kudrewicz.
En la Unión Sovietica, siguiendo las ideas de Lyapunov hubo una gran actividad en el
diseño de controles no lineales. En 1948, Ivachenko había investigado el principio del
control del relé, donde la señal de control es conmutada discontinuamente entre valores
discretos. En 1955, Tsypkin utilizó el plano de fase para el diseño de controles no lineales.
Por su parte, V. M. Popov introdujo el criterio del círculo para el análisis de estabilidad no
lineal [Popov 1961]. Toda esta actividad, condujo en 1957 a que la Unión Soviética fuese la
primera nación en lanzar un satélite (Sputnik) al espacio. Además tuvo su reconocimiento
internacional con la celebración en Moscú en 1960 de la primera conferencia de la
recientemente creada IFAC (International Federation of Automatic Control).
7
TEMA 0: Historia de la Automática
Por aquella época, existía una fuerte rivalidad de los Estados Unidos con la Unión
Soviética, por ello el lanzamiento del Sputnik produjo una tremenda actividad en el diseño de
controles automáticos en los Estados Unidos. En 1957, R. Bellman aplicó programación
dinámica al control óptimo de sistemas discretos, demostrando que la dirección natural para
resolver problemas de control óptimo es haciéndolo hacia atrás en el tiempo. Su
procedimiento, resultaba en un esquema en lazo cerrado generalmente no lineal.
Hacía 1958, L. S. Pontryagin había desarrollado su principio del máximo como una
generalización de la mecánica hamiltoniana, el cual resolvía problemas de control óptimo
usando el cálculo de variaciones desarrollado por L. Euler (1707-1783). Pontryagin resolvió
el problema del tiempo mínimo, derivando como control óptimo una ley de control del tipo
relé on/off.
Con las ideas aportadas por Kalman, el programa espacial de los Estados Unidos
experimentó un fuerte desarrollo. Por ejemplo, el primer módulo que aterrizó en la Luna
usaba un filtro de Kalman en su sistema de navegación.
2
El filtro continuo de Kalman fue desarrollado en [Kalman y Bucy 1961].
8
Apuntes de Automática II
Al trabajar con algebra lineal y matrices los sistemas MIMO podían ser
fácilmente tratados.
En 1962, Rosenbrock establece las ideas básicas del control modal, en el cual el criterio
de diseño es la colocación de los polos en lazo cerrado del sistema en posiciones
especificadas. Más tarde en 1967, Wonham establece las relaciones entre el problema de
control modal y la controlabilidad de la representación. Asimismo Luenberguer descompone
el problema de control en dos etapas: En la primera etapa se calcula el control como si el
estado fuese accesible y en la segunda se busca un medio de estimar dicho estado a partir
del conocimiento de la salida del sistema, tarea a la que aporta su teoría de observadores
que había desarrollado en 1964.
Los sistemas de control que son implementados con computadores digitales deben ser
formulados en tiempo discreto. Por tanto, el desarrollo en esta época de la teoría de control
digital ([Jury 1960], [Kuo 1963]) fue algo natural.
9
TEMA 0: Historia de la Automática
colaboración entre TRW y Texaco, que resultó en un sistema controlado por computador
que fue instalado en la refinería de Port Arthur en Texas en 1959. El desarrollo de reactores
nucleares durante la década de los 50 fue una motivación muy importante para explorar el
control de procesos industriales y su instrumentación. En 1970, con los trabajos entre otros
de K. Aström [Aström 1970], la importancia de los controles digitales en los procesos fue
firmemente cimentada.
Con toda su potencia y ventajas, el control moderno también tenía algunas carencias. El
comportamiento garantizado que se obtenía tras resolver las ecuaciones de diseño
matriciales significaba que a menudo era posible diseñar un sistema de control que trabajara
en la teoría sin precisar de ninguna intuición ingenieril sobre el problema. Por el contrario,
las técnicas en el dominio de la frecuencia requieren de bastante intuición.
Otro problema es que un sistema de control moderno con algunas dinámicas del
compensador puede dejar de ser robusto frente a perturbaciones, dinámicas no modeladas
y ruido de medida. Por otra parte, la robustez es implementada en la aproximación del
dominio de la frecuencia usando nociones tales como margen de fase y margen de
ganancia.
Por tanto, en la década de los 70, especialmente en Gran Bretaña hubo gran actividad
en intentar extender las técnicas en el dominio de la frecuencia y del lugar de las raíces a los
sistemas multivariables. Esto condujo a Rosenbrook a introducir el concepto de dominanza
diagonal con el que se busca reducir, no eliminar, la interacción en un sistema, y que se
plasma en su método de diseño con el diagrama inverso de Nyquist multivariable.
En la misma dirección se realiza un gran esfuerzo para generalizar los conceptos propios de
la respuesta en frecuencia a los sistemas multivariables, tarea en la que los trabajos de
Owens, Kouvaritakis y McFarlane, bajo enfoques distintos, juegan un papel relevante, sin
olvidar los desarrollos de Rosenbrock sobre las relaciones de estas formulaciones y las del
espacio de estados.
También por esta época aparecieron dos nuevas técnicas de control, el control
adaptativo [Aström 89] y el control predictivo basado en modelos (M.B.P.C) [García 89]. El
control adaptativo es un tipo especial de sistema de control no lineal que puede alterar sus
10
Apuntes de Automática II
También a comienzos de los 70 nació el control inteligente con técnicas tales como:
lógica borrosa, redes neuronales, mecanismos de aprendizaje, tolerancia a fallos, etc. El
control inteligente intenta sistematizar analíticamente sistemas de control con capacidades
semejantes a la interacción del hombre con el entorno sobre el que actúa.
En 1981 J. Doyle and G. Stein mostraron la importancia de los diagramas del valor
singular frente a la frecuencia en el diseño multivariable robusto. Usando estos diagramas,
muchas de las técnicas clásicas del dominio de la frecuencia pueden ser incorporadas
dentro de los diseños modernos. Este trabajo fue aplicado al control de aviones y al control
de procesos por M . Athans entre otros.
A finales de los ochenta surgió un interés creciente por los temas de modelado e
identificación [Ljung 87], se pretendía afrontar directamente los problemas que planteaban
las inexactitudes de las representaciones matemáticas de las plantas industriales.
0.3 REFERENCIAS
A continuación se listan por orden alfabético las referencias citadas en este tema:
• Aström, K. J., Introduction to stochastic control theory, New York: Academic Press, 1970.
• Black, H. S., Stabilized feedback amplifiers, Bell System Tech. J., 1934.
• Bode, H. W., Feedback Amplifier Design, Bell System Tech. J., vol. 19, p. 42, 1940.
• Dorato, P., A historical review of robust control, IEEE Control Systems Magazine, pp. 44-
47. Abril 1987.
11
TEMA 0: Historia de la Automática
• Doyle, J. C., Stein, G., Multivariable feedback design: concepts for a classical/modern
synthesis, IEEE Trans. Automat. Contr., vol. AC-26, pp.4-16. Feb, 1981.
• Evans, W. R., Graphical analysis of control systems, Trans. AIEE, vol. 67, pp. 547-551,
1948.
• García C. et al., Model predictive control: Theory and practice a survey. Automatica, vol.
25, nº 3, 1989
• Horowitz I. M., Synthesis of feedback systems. Academic Press: New York, 1963.
• Hurwitz, A., On the conditions under which an equation has only roots with negative real
parts. Mathematische Annalen, vol. 46, pp. 273-284, 1895.
• Jury, E. I., Recent advances in the field of sampled-data and digital control systems,
Proocedings of Conference International Federation Automatic Control, pp.240-246. Moscu
1960.
• Kalman, R. E, Bertram, J. E., Control System Analysis and design via the “Second method
of Lyapunov. I. Continuous-time systems” Trans. ASME J. Basic Eng., pp. 371-393, June
1960.
• Kalman, R. E., Contributiuons to the theory of optimal control, Bol. Soc. Mat. Mexicana,
vol.5, pp. 102-119, 1960a.
• Kalman, R. E., A new approach to linear filtering and prediction problems, ASME J. Basic
Eng., vol.82, pp. 34-45, 1960b.
• Kalman, R. E., Bucy, R. S., New results in linear filtering and prediction theory. ASME J.
Basic Eng., vol. 80, pp. 193-196, 1961.
• Kolmogorov, A. N., Interpolation and Extrapolation. Bull. Acad. Sci. USSR. Ser. Math. vol.
5, pp. 3-14, 1941.
• Kuo, B. C., Analysis ans synthesis of sampled-data control systems, Englewood Cliffs, N.
J.: Prentice Hall, 1963.
• Ljung, L.,. System Identification. theory for the user. Prentice-Hall, Englewood Cliffs, N.J.
1987
• Lyapunov, M. A., Probleme General de la stabilite du mouvement, Ann. Fac. Sci. Toulouse,
vol. 9, pp. 203-474, 1907. (Traducido del articulo original publicado en 1892 en Comm.
12
Apuntes de Automática II
Soc. Math. Kharkow y reimpreso como vol. 17 en Ann. Math. Studies. Princeton University
Press. Princeton, N. J., 1949).
• Maxwell, J. C., On governors. Proc. Royal Soc. London, vol. 16, pp. 270-283, 1868.
• Routh, E. J., A treatise on the stability of a given state of motion, London: Macmillan & Co.,
1877.
13
TEMA 0: Historia de la Automática
14
TEMA 1
1.1 INTRODUCCION
El primer paso en el estudio de un sistema físico es el desarrollo de una representación
o modelo del mismo. Un modelo es una idealización del sistema físico, usado para reducir el
esfuerzo de cálculo en el análisis y diseño del sistema. El modelo se desarrolla de forma que
represente adecuadamente al sistema.
Los modelos se pueden dar en varias formas y con diferentes grados de formalismo
matemático dependiendo del grado de sofisticación necesarios. Así, se pueden usar
modelos mentales, como los usados en la vida diaria, sin ningún formalismo matemático.
Por ejemplo este es el caso del modelo usado cuando se conduce un automóvil (“al girar el
volante el automóvil gira” o “al pisar el freno el automóvil reduce la velocidad”).
Para ciertas aplicaciones, la descripción del sistema se puede hacer mediante modelos
gráficos y tablas numéricas. Por ejemplo, un sistema lineal se puede describir mediante su
diagrama de Bode o las gráficas de respuesta a un impulso o a un escalón.
Para aplicaciones más avanzadas necesitan modelos que describan las relaciones
entre sus variables y componentes en término de expresiones matemáticas como
15
TEMA 1: Modelos de sistemas continuos
Modelización matemática. Es un método analítico que usa las leyes físicas (como
las leyes de Newton o las leyes de Kirchoff) para describir la conducta dinámica
del proceso. El modelado depende totalmente de la aplicación y a menudo tiene
sus raíces en la tradición y en las técnicas específicas del área de aplicación.
Generalmente, supone considerar el sistema dividido en subsistemas cuyas
propiedades son conocidas de experiencias anteriores y de los que se tienen
modelos matemáticos. El modelo del sistema completo se obtiene uniendo
matemáticamente los modelos de los subsistemas considerados.
16
Apuntes de Automática II
d n y (t ) d n −1 y (t ) d m u (t )
+ a n −1 + ... + a 0 y (t ) = bm + ... + b0 u (t ) (1.1)
dt n dt n −1 dt m
donde u(t) es la entrada del sistema en el instante t e y(t) es la correspondiente salida del
sistema en ese mismo instante.
Y ( s ) bm s m + bm −1 s m −1 + ... + b0
G ( s) = = n (1.2)
U ( s) s + a n −1 s n −1 + ... + a 0
1
SISO (Simple Input - Simple Output) es el acrónimo inglés que se utiliza para designar a los sistemas que
poseen una sola entrada y una única salida.
17
TEMA 1: Modelos de sistemas continuos
y (t ) = C ·x(t ) (1.4)
y (t ) = C ·x(t ) + d ·u (t ) (1.5)
u (t ) x& (t ) y (t )
b + ∫ x(t )
C
Figura 1.1: Diagrama de bloques del modelo en variables de estado de un sistema continuo.
18
Apuntes de Automática II
G ( s ) = C ·[s·I − A] b + d
−1
(1.6)
2
MIMO (Multiple Input -Multiple Output) es el acrónimo inglés que se utiliza para designar a los sistemas que
poseen varias entradas y varias salidas.
19
TEMA 1: Modelos de sistemas continuos
Por lo general este modelo es bastante voluminoso, por lo que se prefiere usar el
modelo en el espacio de estados.
Sobre un móvil (ver Figura 1.2) que se mueve con una aceleración u(t) se sitúa una masa m sujeta a
la pared del móvil por un muelle de constante de elasticidad k y un amortiguador de coeficiente de
amortiguación b.
u (t )
k
y (t )
m
b
La ecuación del movimiento de este sistema se obtiene aplicando la segunda ley de Newton:
F = m·a
Donde F es la suma de todas las fuerzas aplicadas a cada cuerpo en el sistema, m es la masa del
cuerpo y a es el vector aceleración de cada cuerpo.
En este sistema las fuerzas que están actuando son las correspondientes al muelle y al amortiguador,
que actúan en la dirección horizontal:
20
Apuntes de Automática II
dy
F = −k · y − b·
dt
d 2 y (t )
a= − u (t )
dt 2
d 2 y (t ) dy (t )
m· 2
+ b· + k · y (t ) = mu (t )
dt dt
Tomando la transformada de Laplace con condiciones iniciales nulas sobre la ecuación anterior:
m·s 2Y ( s ) + b·sY ( s ) + k ·Y ( s ) = mU ( s )
Y ( s) m 1
G ( s) = = =
U ( s ) m·s + b·s + k
2
b k
s 2 + ·s +
m m
dy
x1 = y x2 =
dt
Entonces la ecuación de estados que describe las dinámicas del sistema es:
x&1 (t ) 0 1 x (t ) 0
= − k − b · 1 + ·u (t )
2 m
x
& (t ) x (t )
m 2
1
x (t )
y (t ) = (1 0)· 1
x 2 (t )
21
TEMA 1: Modelos de sistemas continuos
Se considera la red eléctrica RLC de la Figura 1.3. La variable de entrada es la tensión aplicada u=vs
y la de salida es la intensidad de corriente por la resistencia R, es decir, y=i1. Como variables de
estado se pueden elegir la caída de tensión x1 =vc en el condensador C y la corriente x2=i2 a través de
la inductancia L.
i1 (t ) i2 (t )
+ vc (t ) L
vs (t ) C
-
Aplicando las leyes de Kirchoff a este circuito se obtienen las siguientes expresiones:
v s = R·i1 + vc
dvc
C· = i1 − i2
dt
di
vc = L· 2
dt
dvc 1 1 1
=− vc − i2 + vs
dt R·C C R·C
di2 1
= ·vc
dt L
En forma matricial:
1 1
x&1 − R·C
− 1
C · x1 +
= x RC ·u
x& 2 1
0 2 0
L
22
Apuntes de Automática II
1 1
y= u − x1
R R
1 1 1 2 C −1 1
s− 1 1 s + 2 s+
1 RC C · R R C CL
G ( s) = − 0 · RC + =
− 1 1 1
R s 0 R
s2 + s +
L R CL
Ra La Rf
ia (t ) i f (t )
ea (t ) Lf
eb (t )
Tr (t ) ω (t )
J,c
Figura 1.4: Diagrama esquemático del motor de corriente continua excitado por separado
Se supone que la bobina del campo (el estator) está conectada a una fuente de voltaje constante y la
bobina de la armadura (el rotor) está conectada a una fuente de voltaje variable v(t). De esta forma, la
intensidad de campo ef se puede considerar constante. El voltaje ea(t) puede variar para cambiar la
velocidad angular ω(t) del rotor.
23
TEMA 1: Modelos de sistemas continuos
El flujo magnético de la bobina del campo es una constante cuando if se supone constante. El torque
Tr con el eje del motor es proporcional a ia por una constante Km del motor.
Tr = K m ·ia
El voltaje eb(t) generado como resultado de la rotación, es proporcional a la velocidad de rotación del
eje ω, por una constante Kg3 del generador:
eb (t ) = K g ·ω (t )
dia (t )
ea (t ) = La · + Ra ·ia (t ) + eb (t )
dt
El torque del rotor Tr(t) y la velocidad angular están relacionados mediante la segunda ley de Newton
de la dinámica:
dω (t )
Tr (t ) = Td (t ) + J · + c·ω (t )
dt
Donde Td(t) es el torque de la carga en el eje del rotor, c es la constante de rozamiento viscoso y J es
el momento de inercia de la carga.
dia (t ) R Kg 1
= − a ia (t ) − ω (t ) + ea (t )
dt La La La
dω (t ) K m c 1
= ia (t ) − ω (t ) − Td (t )
dt J J J
dia (t ) Ra Kg
1
− − 0 e (t )
dt = La La · ia (t ) + La · a
dω (t ) K m c ω (t ) 1 T (t )
− 0 − d
dt J J J
3
En unidades consistentes, Km es igual a Kg, pero en algunos casos la constante motor-torsión viene dada en
otras unidades, como onzas-pulgadas por amperes, y la constante del generador debe de expresarse en unidades
de voltios por 1000 rpm.
24
Apuntes de Automática II
Si se considera como salida del sistema la velocidad de rotación del motor, entonces la ecuación de
salida es:
i (t )
y = (0 1)· a
ω (t )
Si las variables de salida son el torque desarrollado por el eje del rotor y la velocidad de rotación,
entonces se tiene como ecuación de salida:
K 0 ia (t )
y = m ·
0 1 ω (t )
−1
R Kg 1
s + a 0
K 0 La La La ·
G ( s ) = m
0 1 K m c 1
− s+ 0 −
J J J
Operando se obtiene:
Km c K m ·K g
· s +
1 L J J · La
G ( s) = · a
R K ·K Km −1 R
s + a s + + m g
c · s + a
La J J · La J · La J La
x′ = T ·x (1.10)
25
TEMA 1: Modelos de sistemas continuos
x = T −1 · x ′ (1.11)
O equivalentemente:
A′ = T · A·T −1 B ′ = T ·B
(1.15)
C ′ = C ·T −1
D′ = D
En el lenguaje del álgebra matricial se dice que la matriz A’ de la dinámica del sistema
transformado es similar a la matriz A de la dinámica del sistema original. Un hecho bien
conocido del álgebra matricial es que matrices similares tienen el mismo polinomio
característico. Ello supone que la función de transferencia entre las variables de entrada y
de salida no dependen de la definición del vector de estados.
Las ecuaciones del movimiento de las masas m1 y m2 acopladas mediante un muelle (ver Figura 1.5)
y que se desplazan en una dirección son:
26
Apuntes de Automática II
x2
x1
u1 u2
m1 m2
K u
&x&1 + ( x1 − x 2 ) = 1
m1 m1
K u
&x&2 + ( x 2 − x1 ) = 2
m2 m2
x = [ x1 x2 x&1 x& 2 ]T
0 0 1 0 0 0
0 0 0 1 0 0
K K 1
A = − 0 0 B=
0
m1 m1 m1
K K 1
− 0 0 0
m2 m2 m2
Sin embargo, muchas veces es mejor definir el movimiento de este sistema en función del
movimiento del centro de masas xc y de la diferencia entre las posiciones de las dos masas δ:
m1 m
xc = x1 + 2 x 2 M = m1 + m2
M M
δ = x1 − x 2
27
TEMA 1: Modelos de sistemas continuos
x′ = [ xc δ x& c δ&]T
m1 m2
M 0 0
M
−1 0
T = 1 0
m1 m2
0 0
M M
0 0 1 − 1
0 0 1 0 0 0
0 0 0
0 0 1 1 1
A′ = T · A·T −1 = 0 0 0 0 B ′ = T · B =
KM M M
0 0 0 − 1 1
m1 ·m2 − m −
m2
1
28
Apuntes de Automática II
0 1 0 ... 0 0
0 0 1 ... 0 ...
x& (t ) = ... ... ... ... ... ·x(t ) + ....·u (t ); x(t 0 ) = x0
(1.16)
0 0 0 ... 1 0
− a 0 − a1 − a 2
... − a n −1 1
y (t ) = [b0 ... bm 0 ... 0]·x(t )
y
+ +
bm b1 b0
+
∫ ∫ ∫ ∫
u x&n xn x&1 x1
−
an−1 a1 a0
+ +
En este caso el diagrama de bloques de la Figura 1.6 se debe modificar para incluir el
término bn·u(t).
4
Representación no-mínima: Representación en variables de estado de orden mayor al orden de la ecuación
diferencial que describe al sistema.
29
TEMA 1: Modelos de sistemas continuos
♦ Ejemplo 1.5:
d 2 y (t ) dy (t ) du (t )
2
+ 2·δ ·ω n · + ω n2 · y (t ) = α · + β ·u (t )
dt dt dt
α ·s + β
G ( s) =
s + 2·δ ·ω n ·s + ω n2
2
y
+
α β
+
∫ ∫
u x&2 x2 x&1 x1
−
x&1 (t ) 0 1 x1 (t ) 0
x& (t ) = − ω 2 · +
− 2·δ ·ω n x 2 (t ) 1
·u (t )
2 n
x1 (t )
y (t ) = [β α ]·
x 2 (t )
30
Apuntes de Automática II
0 1 0 ... 0 g1
0 0 1 ... 0 g
2
x& (t ) = ... ... ... ... ... ·x(t ) + .... ·u (t ); x(t 0 ) = x 0
(1.18)
0 0 0 ... 1 g n −1
− a 0 − a1 − a 2 ... − a n −1 g n
y (t ) = [1 0 ... 0]·x(t )
gn g n −1 g1 g0
+ xn y
−
x& n
∫ + ∫ ∫ +
x&1
∫ x1
+
an −1 an − 2 a1 a0
+ + +
5
Las series de Laurent son objeto de estudio en los libros de Variable Compleja, como por ejemplo: Variable
Compleja y aplicaciones. R. V. Churchill & J. W. Brown. Ed. McGraw-Hill
31
TEMA 1: Modelos de sistemas continuos
∞
G ( s ) = ∑ g k ·s − k = g 0 + g1 ·s −1 + g 2 ·s − 2 + ... + g n ·s − n + ... (1.20)
k =0
1
2·π ·i C∫
gk = · G ( s )·s k (1.21)
En el caso que m<n entonces g0=0, además para una G(s) dada en la forma (1.2) existe
una expresión alternativa6 para calcular los coeficientes gi:
−1
g1 1 0 ... ... 0 bn −1
g a 1 0 ... 0 .bn − 2
2 n −1
... = a n − 2 a n −1 ... ... ... · ... (1.22)
... ... ... ... ... 0 ...
g n a1 ... an−2 a n −1 1 b0
Por otra parte si se compara la forma controlable (1.16) con la forma observable (1.18)
se observa que la matriz A tiene la misma forma, mientras que las matrices B y C son
distintas. Existe otra variante de la forma canónica observable7 que se caracteriza porque su
matriz A es distinta a la de (1.16), pero tiene la ventaja de que B se obtiene de forma directa
a partir de los coeficientes de la función de transferencia.
♦ Ejemplo 1.6:
La función de transferencia del Ejemplo 1.5, se puede rescribir de acuerdo con (1.2) como:
b1 s + b0
G ( s) =
s + a1 s + a 0
2
Luego b1 = α ; b0 = β ; a1 = 2·δ ·ω n ; a0 = ω n2 .
6
La deducción de esta expresión se puede encontrar en el libro Linear Systems. T. Kailath. Ed. Prentice-Hall.
(1980)
7
Como se puede ver por ejemplo en el libro Ingenieria de Control Moderna de K. Ogata
32
Apuntes de Automática II
G ( s ) = g 0 + g1 ·s −1 + g 2 ·s −2
En este caso n=2 y m=1 luego como m<n g0=0. Los coeficientes g1 y g2 se pueden calcular a través
de (1.22):
−1
g1 1 0 b
= · 1
g 2 a1 1 b0
−1
g1 1 0 α
= ·
g 2 2·δ ·ω n 1 β
Operando se obtiene:
g1 = α
g 2 = β − 2·δ ·ω n
x&1 (t ) 0 1 x1 (t ) α
x& (t ) = − ω 2 − 2·δ ·ω · x (t ) + β − 2·δ ·ω ·α ·u (t )
2 n n 2 n
x (t )
y (t ) = [1 0]· 1
x 2 (t )
β − 2·δ ·ωn ·α α
y
+ x2
∫ ∫
x&2 x&1 x1
+
−
33
TEMA 1: Modelos de sistemas continuos
1
λ1 0 ... 0 1
0 λ 2 ... 0
x& (t ) = ·x(t ) + ....·u (t ); x(t 0 ) = x0
... ... ... ... (1.23)
λn
1
0 0 ...
1
y (t ) = [c1 c2 ... c n ]·x(t ) + d ·u (t )
c1 c2 c
G ( s) = d + + + ... + + n (1.24)
s − λ1 s − λ 2 s − λn
u x1 y
+ ∫ c1 +
λ1
xn
+ ∫ cn
λn
34
Apuntes de Automática II
♦ Ejemplo 1.7:
Para el sistema de segundo orden del ejemplo 1.5, los autovalores (polos de la función de
transferencia) son:
λ1, 2 = −δ ·ω n ± ω n · δ 2 − 1
c1, 2 =
( )
α · − δ ·ω n ± ω n · δ 2 − 1 + β
2·ω n · δ 2 − 1
x&1 (t ) − δ ·ω n + ω n · δ 2 − 1 0 x1 (t ) 1
x& (t ) = · + ·u (t )
2 0 − δ ·ω n − ω n · δ 2 − 1 x 2 (t ) 1
y (t ) =
(
α · − δ ·ω + ω · δ 2 − 1 + β
n n ) ( )
α · − δ ·ω n − ω n · δ 2 − 1 + β x1 (t )
·
2·ω n · δ 2 − 1 2·ω n · δ 2 − 1 x 2 (t )
λ ·I − A = 0 (1.25)
También hay que tener en cuenta que en la forma de Jordan B’ es un vector de unos,
de forma que las ecuaciones de transformación son:
35
TEMA 1: Modelos de sistemas continuos
T · A' = A·T
(1.26)
T ·B ' = B
permiten tener n2+n ecuaciones, de las cuales n2 son independientes, con lo que es posible
resolverlas para obtener los coeficientes de la matriz T. Una vez conocida T, C’ se calcula
mediante la expresión:
C 'T = C T ·T (1.27)
♦ Ejemplo 1.8:
Para el sistema de segundo orden del ejemplo 1.5, los autovalores son:
λ −1
λ ·I − A = = λ2 + 2·δ ·ω n ·λ + ω n2 = 0 ⇒ λ12 = −δ ·ω n ± ω n · δ 2 − 1
ω n2 λ + 2·δ ·ω n
T11 T12 − δ ·ω n + ω n · δ 2 − 1 0 0
=
1 T11 T12
· ·
T21 T22 0
− δ ·ω n − ω n · δ 2 − 1 − ω n
2
− 2·δ ·ω n T21 T22
T11 T12 1 0
· =
T21 T22 1 1
Resolviendo:
1 1
T11 = T12 =
2·ω n · δ 2 − 1 2·ω n · δ 2 − 1
− δ ·ω n + ω n · δ 2 − 1 δ ·ω n + ω n · δ 2 − 1
T21 = T21 =
2·ω n · δ 2 − 1 2·ω n · δ 2 − 1
Luego:
1 −1 1
C = (β α )· ·
− δ ·ω n + ω n · δ − 1 δ ·ω n + ω n · δ − 1 2·ω n · δ 2 − 1
2 2
36
Apuntes de Automática II
♦ Ejemplo 1.9:
Se observa en A que el bloque asociado al autovalor λ1 posee unos sobre la diagonal principal. Esto
siempre es así para modelos de sistemas SISO de dimensión mínima. No necesitan ser todos unos
para sistemas MIMO.
♦ Ejemplo 1.10:
σ + j·ω 0 0 ...
0 σ − j·ω 0 ...
A=
0 0 λ3 ...
... ... ... ...
1 / 2 − j / 2 0 0 ... 1 1 0 0 ...
1 / 2 − j / 2 0 0 ... j − j 0 0 ...
T = 0 0 1 0 ... T −1 = 0 0 1 0 ...
0 0 0 1 ... 0 0 0 1 ...
... ... ... ... ... ... ... ... ... ...
37
TEMA 1: Modelos de sistemas continuos
σ ω 0 ...
− ω σ 0 ...
A=
0 0 λ3 ...
... ... ... ...
t2 3 t
3
e A·t
= I + A·t + A · + A · + ...
2
(1.30)
2! 3!
♦ Demostración:
dx(t ) d (e A·t )
= ·k
dt dt
de A·t 3 t
2
2 t
2
3 t
3
= A + A ·t + A · + ... = A· I + A·t + A · + A · + A·e A·t
2
dt 2! 2! 3!
38
Apuntes de Automática II
dx(t )
= A·e A·t ·k = A·x(t )
dt
x(t 0 ) = e A·t0 ·k
Despejando k:
( )
k = e A·t 0
−1
·x(t 0 )
( )
x(t ) = e A·t · e A·t0
−1
·x(t 0 ) = e A·(t −t0 ) · x(t 0 ) (1.31)
A·( t −t 0 )
A la matriz e se le denomina matriz de transición de estados ya que permite
calcular el vector de estados en un instante t conocido el vector de estados en un instante t0.
La matriz de transición de estados depende únicamente de la matriz A, es decir, de la
dinámica del sistema.
Para calcular una solución “particular” de (1.7) se puede usar el método de variación de
la constante. Así dicha solución tendrá la siguiente forma:
donde k(t) es un vector función del tiempo que hay que determinar. Si se calcula la derivada
de (1.32):
dx(t ) d (e A·t ) dk (t )
= ·k (t ) + e A·t · = A·e A·t ·k (t ) + e A·t ·k&(t )
dt dt dt
39
TEMA 1: Modelos de sistemas continuos
A·e A·t ·k (t ) + e A·t ·k&(t ) = A·e A·t ·k (t ) + B·u (t ) ⇒ e A·t ·k&(t ) = B·u (t )
t
k (t ) = ∫ e − A·τ ·B·u (τ )·dτ
tinf
Obsérvese que el límite inferior tinf de la integral aún no se puede especificar, puesto
que es necesario poner la solución particular junto a la solución de la ecuación homogénea
para obtener la solución completa.
t t
x(t ) = e A·t ·∫ e − A·τ ·B·u (τ )·dτ = ∫ e A(t −·τ ) ·B·u (τ )·dτ (1.33)
tinf tinf
t
x(t ) = e A·(t −t0 ) · x(t 0 ) + ∫ e A( t −·τ ) ·B·u (τ )·dτ (1.34)
tinf
t0 t0
x(t 0 ) = e A·(t0 −t0 ) · x(t 0 ) + ∫ e A( t0 −·τ ) ·B·u (τ )·dτ ⇒ ∫ e A( t0 −·τ ) ·B·u (τ )·dτ = 0
tinf t inf
La integral debe ser 0 para cualquier posible valor de u(t) y ello solo es posible si tinf=t0.
Por lo tanto la solución completa de (1.7) es:
t
x(t ) = e A·(t −t0 ) · x(t 0 ) + ∫ e A(t −·τ ) ·B·u (τ )·dτ (1.35)
t0
40
Apuntes de Automática II
Otro hecho a resaltar es que el término integral, debido a la entrada, es una integral de
convolución. Es decir, la contribución al estado x(t) debido a la entrada u(t) es la convolución
de u(t) con e A·t ·B . En este caso, la función e A·t ·B representa el mismo papel que la
respuesta a un impulso del sistema cuando la entrada es u(t) y la salida es x(t).
La salida y(t) en (1.7) se calcula sustituyendo el vector de estados x(t) por (1.35)
t
y (t ) = C ·e A·(t −t0 ) · x(t 0 ) + ∫ C ·e A( t −·τ ) ·B·u (τ )·dτ + D·u (t ) (1.36)
t0
t
x(t ) = Φ (t , t 0 )·x(t 0 ) + ∫ Φ (t ,τ )·B(τ )·u (τ )·dτ (1.37)
t0
♦ Demostración:
Para demostrar que (1.37) satisface la ecuación diferencial (1.9) se diferencia (1.37) utilizando la
regla de Leibnitz. Dicha regla tiene la siguiente expresión:
B (t ) B (t )
d ∂f (t ,τ ) dB(t ) dA(t )
dt ∫
A( t )
f (t ,τ )·dτ = ∫
A( t )
∂t
·dτ + f [t , B(t )]·
dt
− f [t , A(t )]·
dt
Luego:
dx(t ) & t
= Φ (t , t 0 )·x(t 0 ) + ∫ Φ & (t ,τ )·B(τ )·u (τ )·dτ + Φ (t , t )·B(t )·u (t )
dt t 0
41
TEMA 1: Modelos de sistemas continuos
dx(t ) t
= A(t )·Φ (t , t 0 )·x(t 0 ) + ∫ A(t )·Φ (t ,τ )·B(τ )·u (τ )·dτ + B(t )·u (t )
dt t0
dx(t )
= A(t )·Φ (t , t 0 )·x(t 0 ) + ∫ Φ (t ,τ )·B(τ )·u (τ )·dτ + B(t )·u (t )
t
dt t0
El termino entre corchetes es justo la forma supuesta para el vector de estados x(t), luego esta es la
solución deseada.
También se puede ver fácilmente que (1.37) satisface la condición inicial x(t0)=x0:
t0
x(t 0 ) = Φ (t 0 , t 0 )·x(t 0 ) + ∫ Φ (t 0 ,τ )·B (τ )·u (τ )·dτ = I ·x0 + 0 = x0
t0
♦ Ejemplo 1.11:
La ecuación diferencial de una masa m a la cual se le aplica una fuerza externa F es:
F
&x& =
m
x1 = x
x 2 = x&
x&1 = x 2
x& 2 = u
42
Apuntes de Automática II
0 1 0
A = B =
0 0 1
1 0 0 1 1 t
Φ (t ) = e At = + ·t =
0 1 0 0 0 1
t (t − τ )·u(τ )·dτ
t 1 t −τ 0 t t −τ ∫0
∫0 0 1 · 1 ·u(τ )·dτ = ∫0 1 ·u(τ )·dτ = t u(τ )·dτ
∫0
t (t − τ )·u(τ )·dτ
1
x ( t ) 1 t 1 ∫0
x ( 0 )
= · + t
x2 (t ) 0 1 x2 (0) ∫ u(τ )·dτ
0
Y operando se obtiene:
t
x1 (t ) = x1 (0 ) + t· x2 (0 ) + ∫ (t − τ )·u(τ )·dτ
0
t
x2 (t ) = x2 (0 ) + ∫ u(τ )·dτ
0
Estas soluciones se podrían haber obtenido directamente de la ecuación diferencial que describe al
sistema sin usar todo el aparato en el espacio de estados que se ha desarrollado. El interés y la
utilidad de este aparato matemático se ponen de manifiesto en los casos en los que los métodos
sencillos fallan.
43
TEMA 1: Modelos de sistemas continuos
dΦ (t , t 0 )
= A(t )·Φ (t , t 0 ) (1.38)
dt
Φ (t , t ) = I ∀t (1.39)
Φ (t 3 , t1 ) = Φ (t 3 , t 2 )·Φ (t 2 , t1 ) (1.40)
Esta propiedad es una consecuencia directa del hecho que para ir de un estado a
otro el resultado final es el mismo, se siga el camino que se siga.
4) Es no singular (invertible).
Φ −1 (t , t 0 ) = Φ (t 0 , t ) ∀t , t 0 (1.41)
♦ Demostración:
A continuación se van a demostrar las cuatro propiedades indicadas para la matriz de transición de
estados:
• Primera propiedad
dx(t )
= A(t )·x(t ) (d.1)
dt
La derivada de x(t), por supuesto debe satisfacer la ecuación homogénea para cualquier t y x(t). x(t0)
es un dato inicial y no una función del tiempo. Luego:
dx(t ) ∂Φ (t , t 0 )
= · x(t 0 ) (d.3)
dt ∂t
44
Apuntes de Automática II
Obsérvese que se utiliza la derivada parcial porque la matriz de transición de estados es función de
dos argumentos, t y t0. Sustituyendo (d2) y (d3) en (d1) se obtiene:
∂Φ (t , t 0 )
· x(t 0 ) = A(t )·Φ (t , t 0 )·x(t 0 )
∂t
Como se debe de verificar para todo x(t0), se puede cancelar x(t0) en ambos lados de la ecuación,
con lo que se obtiene:
dΦ (t , t 0 )
= A(t )·Φ (t , t 0 )
dt
• Segunda propiedad
La solución de la ecuación homogénea se verifica para cualquier t y t0, incluyendo t=t0. Luego:
Φ (t , t ) = I ∀t
• Tercera propiedad
La ecuación diferencial homogénea para el vector de estado no solo posee una solución para
cualquier estado inicial x(t0) y cualquier intervalo de tiempo [t,t0] sino que esta solución es única.
Y también:
45
TEMA 1: Modelos de sistemas continuos
Φ (t 3 , t1 ) = Φ (t 3 , t 2 )·Φ (t 2 , t1 )
• Cuarta propiedad
Φ (t , t 0 )·Φ (t 0 , t ) = Φ (t , t ) = I
Φ −1 (t , t 0 ) = Φ (t 0 , t ) ∀t , t 0
dΦ (t − t 0 )
= A·Φ (t − t 0 ) (1.42)
dt
Φ (0) = I (1.43)
Φ (t )·Φ (t 0 ) = Φ (t + t 0 ) (1.44)
Φ −1 (t ) = Φ (−t ) (1.45)
46
Apuntes de Automática II
Φ ( s ) = [s·I − A]
−1
(1.46)
♦ Demostración:
dΦ (t − t 0 )
= A·Φ (t − t 0 )
dt
Se obtiene:
Y operando:
Las ideas de controlabilidad y observabilidad fueron introducidas por Kalman, como una
forma de explicar porque un método de diseño de compensadores para sistemas inestables
mediante cancelación de polos inestables (polos en el semiplano derecho), mediante ceros
en el semiplano derecho está condenado a fracasar aunque la cancelación sea perfecta.
Kalman demostró que de una cancelación polo-cero perfecta resultaría un sistema inestable
con función de transferencia estable. La función de transferencia, sin embargo, es de orden
47
TEMA 1: Modelos de sistemas continuos
menor que el sistema, y los modos inestables o no serían afectados por la entrada
(incontrolable) o no serían visibles en la salida (inobservables).
La controlabilidad hace referencia al efecto de las entradas sobre los estados para un
modelo del sistema. Formalmente se dice:
El intervalo t1-t0 debe ser finito para que el sistema sea controlable. En sistemas
variantes puede ser necesario restringir t1-t0 a ser mayor que algún intervalo fijo T. En
sistemas invariantes, la única restricción es que t1-t0 sea mayor que cero. De hecho, si se
permiten entradas impulsivas, entonces es posible, en un sistema controlable, ir
instantáneamente (en tiempo cero) de un estado a otro. En la práctica, en un sistema
controlable es posible ir de un estado a otro en un tiempo arbitrariamente corto si se
permiten entradas suficientemente grandes.
t1
48
Apuntes de Automática II
t1
x1 = x(t1 ) = Φ (t1 , t 0 )·x(t 0 ) + ∫ Φ (t1 ,τ )·B(τ )·u (τ )·dτ
t0
t1 t1 −t 0
Wc (t1 − t 0 ) = ∫ e AT ( t1 −τ )
∫e
T
A ( t1 −τ ) T
·B·B ·e ·dτ = At
·B·B T ·e A t ·dt (1.48)
t0 0
T
Wc (T ) = ∫ e At ·B·B T ·e A t ·dt
T
(1.49)
0
Matrices con la forma del grammian de controlabilidad (1.47) o (1.49) para sistemas
invariantes, se tienen que calcular algunas veces en problemas de control óptimo y
estimación. Sin embargo, calcular estas integrales solamente para verificar la controlabilidad
49
TEMA 1: Modelos de sistemas continuos
de un sistema supone un gran esfuerzo para un objetivo simple. Sería, por tanto,
conveniente disponer de un test alternativo mucho más simple. Solamente los sistemas
invariantes con el tiempo disponen de este test alternativo, que viene definido a través del
siguiente teorema:
[
M c = B | A·B | ... | A n −1 ·B ] (1.50)
50
Apuntes de Automática II
[
M cy = C ·B | C · A·B | ... | C · A n −1 ·B | D ] (1.51)
Obsérvese que la presencia del término D·u en el sistema (1.7) siempre ayuda a
establecer la controlabilidad de la salida.
1.6.1.2 Alcanzabilidad
1.6.2 Observabilidad
La observabilidad hace referencia al efecto de los estados sobre las salidas. Así, se
puede dar la siguiente definición:
51
TEMA 1: Modelos de sistemas continuos
x&1 x1
∫
( x&1 + x&2 ) ( x1 + x2 ) = y
+
y ∫
x&2 x2
∫
(a) (b)
Figura 1.11: Modelo homogéneo de dos estados: a) Modelo original. b) Modelo equivalente.
t1
52
Apuntes de Automática II
[ ( )
M o = C T | AT ·C T | ... | AT
n −1
·C T ] (1.53)
♦ Ejemplo 1.12:
x&1 1 1 x1 0
x& = − 2 − 1· x + 1·u
2 2
x
y = [1 0]· 1
x2
Para estudiar su controlabilidad, puesto que es un sistema invariante, se puede calcular su matriz de
controlabilidad Mc:
0 1 1 0 0 1
M c = [B | A·B ] = | · =
1 − 2 − 1 1 1 − 1
1 1 − 2 1 1 1
[ ]
M o = C T | AT ·C T = | · =
0 1 − 1 0 0 1
53
TEMA 1: Modelos de sistemas continuos
♦ Ejemplo 1.13:
x&1 0 1 0 x1 0
x& = 0 0 1 · x 2 + 0·u
2
x& 3 − 6 − 11 − 6 x3 1
x1
y = [4 5 1]· x 2
x3
4 − 6 6
[
M o = C | A ·C | A
T T T
( ) ·C
2 T T
]
= 5 − 7 5
1 − 1 − 1
Como:
4 −6 6
5 −7 5 = 0
1 −1 −1
La función de transferencia entre la entrada y la salida se puede calcular con la ecuación (1.8)
−1
s − 1 0 0
Y ( s) s 2 + 5s + 4
G ( s) = = [4 5 1]·0 s − 1 0 =
s 3 + 6s 2 + 11s + 6
U ( s)
6 11 s + 6 1
( s + 1)·( s + 4)
G ( s) =
( s + 1)·( s + 2)·( s + 3)
54
Apuntes de Automática II
Se observa que los dos factores (s+1) se cancelan el uno al otro, debido a esta cancelación el
sistema no es completamente observable.
Supongamos que se decide que los polos en lazo cerrado deseados estén en s=µ1,
s=µ2, ... s=µn. Seleccionando una matriz de ganancias apropiada para una realimentación
del estado, es posible forzar al sistema para que tenga los polos en lazo cerrado en las
posiciones deseadas, siempre y cuando el sistema original sea de estado completamente
controlable.
¡u = − K ·x (1.55)
A este esquema de control (ver Figura 1.12) se le denomina realimentación del estado,
se trata de un esquema de control en lazo cerrado.
55
TEMA 1: Modelos de sistemas continuos
u
B +
x&
∫ x
-K
Figura 1.12: Sistema de control en lazo cerrado mediante realimentación del estado.
La ecuación característica del sistema en lazo cerrado viene dada por la expresión:
Que puede expresarse en función de los valores deseados para los polos µ1,µ2,...,µn de
la siguiente forma:
[ ] [
K = [0 0 ... 0 1]· B | A·B | ... | A n −1 ·B · A n + α n −1 · A n −1 + ... + α 0 ·I
−1
] (1.59)
Se observa en (1.59) que el vector fila de dimensión 1 x n es la última fila de una matriz
identidad de dimensión n x n, a dicho vector se le puede denotar por en. A continuación, de
acuerdo con (1.50), se tiene a la inversa de la matriz de controlabilidad Mc. Finalmente, se
56
Apuntes de Automática II
φ ( A) =· A n + α n −1 · A n −1 + ... + α 0 ·I
K = en ·M c−1 ·φ ( A) (1.60)
La ecuación característica del sistema en lazo cerrado viene dada por la expresión (1.57). Esta
ecuación puede expresarse en función de los valores deseados para los polos µ1,µ2,...,µn en lazo
cerrado según la forma (1.58).
Defínase:
~
A = ( A − B·K )
~
Por el teorema de Caley-Hamilton se sabe que la matriz A satisface su propia ecuación
característica:
~ ~ ~
φ ( A) = A n + α n −1 · A n −1 + ... + α 0 ·I = 0
Para obtener la fórmula de Ackermann se va a suponer por simplicidad que n=3. Luego:
~ ~ ~ ~
φ ( A ) = A 3 + α 2 · A 2 + α 1 · A + α 0 ·I = 0 (d.1)
~ ~
A 2 = ( A − B·K ) = A 2 − A·B·K − B·K · A
2
(d.2)
~ ~ ~
A 3 = ( A − B·K ) = A 3 − A 2 ·B·K − A·B·K · A − B·K · A 2
3
(d.3)
(A 3 ~ ~
) ( ~
)
− A 2 ·B·K − A·B·K · A − B·K · A 2 + α 2 · A 2 − A·B·K − B·K · A + α 1 ·( A·− B·K ) + α 0 ·I = 0
Reordenando términos:
57
TEMA 1: Modelos de sistemas continuos
(A 3
) ~ ~ ~
+ α 2 · A 2 + α 1 · A + α 0 ·I − α 2 · A·B·K − α 2 ·B·K · A − α 1 ·B·K − A 2 ·B·K − A·B·K · A − B·K · A 2 = 0
Como:
A 3 + α 2 · A 2 + α 1 · A + α 0 ·I = φ ( A)
Entonces:
~ ~ ~
φ ( A) − α 2 · A·B·K − α 2 ·B·K · A − α 1 ·B·K − A 2 ·B·K − A·B·K · A − B·K · A 2 = 0
Y despejando φ ( A) :
~ ~ ~
φ ( A) = α 2 · A·B·K + α 2 ·B·K · A + α 1 ·B·K + A 2 ·B·K + A·B·K · A + B·K · A 2
Reordenando términos
( ~ ~
) ~
φ ( A) = B· K · A 2 + α 2 ·K · A + K ·α 1 + A·B·( K · A + α 2 ·K ) + A 2 ·B·K
~ ~ ~ ~
K · A 2 + α 2 ·K · A + K ·α 1 K · A 2 + α 2 ·K · A + K ·α 1
φ ( A) = [B A·B ]
~ ~
A 2 ·B · K · A + α 2 ·K = Mc ⋅ K · A + α 2 ·K
K K
~ ~
K · A 2 + α 2 ·K · A + K ·α 1
~
M c−1 ·φ ( A) = ⋅ K · A + α 2 ·K
K
~ ~
K · A 2 + α 2 ·K · A + K ·α 1
[0 0 1]⋅ M c−1 ·φ ( A) = [0 0 1] ⋅ ~
K · A + α 2 ·K
K
Operando se obtiene:
58
Apuntes de Automática II
K = [0 0 1] ⋅ M c−1 ·φ ( A) = e3 ⋅ M c−1 ·φ ( A)
Un resultado fundamental obtenido por W.M. Wonham es el siguiente: “Todos los polos
de un sistema en lazo cerrado puede ser arbitrariamente asignados mediante el método de
realimentación de variables de estados si y solo si el sistema es completamente
controlable”.
♦ Ejemplo 1.14:
x&1 0 1 0 x1 0
x& = 0 0 1 · x 2 + 0·u
2
x& 3 − 1 − 5 − 6 x3 1
Usando el control mediante la realimentación del estado u=-K·x, se quiere que los polos en lazo
cerrado se ubiquen en s=-2±j·4 y s=-10. Para ello hay que calcular la matriz de ganancias de
realimentación del estado K.
59
TEMA 1: Modelos de sistemas continuos
En primer lugar hay que comprobar si el sistema es de estado completamente controlable, ya que
sólo en dicho caso será posible realizar una ubicación arbitraria de polos. La matriz de controlabilidad
para este sistema es:
0 0 1
[ ]
M c = B | A·B | A ·B = 0 1 − 6
2
1 − 6 31
Método 1:
−1
0 0 1 5 6 1
M −1
c = 0 1 − 6
= 6 1 0
1 − 6 31 1 0 0
199 55 8
3 2
φ ( A) = A + 14· A + 60· A + 200·I = − 8 159 7
− 7 − 43 117
−1
0 0 1 199 55 8
K = en ·M c ·φ ( A) = [0 0 1]·0 1 − 6 · − 8 159
−1
7 = [199 55 8]
1 − 6 31 − 7 − 43 117
Con esta realimentación de estado los polos se ubican en las posiciones deseadas.
Método 2:
Para sistema de ordenes pequeños (n≤ 3) otra forma alternativa usualmente más sencilla de calcular
60
Apuntes de Automática II
s −1 0
s·I − ( A − B·K ) = 0 s − 1 = s 3 + (6 + k 3 )·s 2 + (5 + k 2 )·s + (1 + k1 )
1 + k1 5 + k2 s + 6 + k 3
Por tanto,
6 + k 3 = 14
5 + k 2 = 60
1 + k1 = 200
Resolviendo las ecuaciones anteriores se obtienen los elementos del vector de ganancias K
k1 = 199, k 2 = 55, k 3 = 8
Método 3:
Si la representación en variables de estado del sistema viene dada en su forma canónica controlable,
como sucede en este caso, entonces la matriz de ganancias se puede calcular a través de la
siguiente fórmula:
K = [α n − a n | ... | α 1 − a1 ]
Donde los ai i=1,...,n son los coeficientes de la ecuación característica del sistema |s·I-A|=0, y los αi
son los coeficientes de la ecuación característica deseada.
s −1 0
s· I − A = 0 s − 1 = s 3 + 6·s 2 + 5·s + 1 = s 3 + a1 ·s 2 + a 2 ·s + a3
1 5 s+6
61
TEMA 1: Modelos de sistemas continuos
Por lo tanto:
K = [200 − 1 60 − 5 14 − 6] = [199 55 8]
y = C·x (1.62)
62
Apuntes de Automática II
En este caso el orden del observador es igual al del sistema. Para obtener la ecuación
de error del observador, se resta (1.63) de (1.61).
e = ( x − xˆ )
63
TEMA 1: Modelos de sistemas continuos
sea asintóticamente estable con una velocidad de respuesta suficiente, es decir, los valores
característicos de A-Ke·C tomen unos determinados valores deseados.
z& = AT · z + C T ·v
η = B T ·z
v = − K ·z
Si µ1, µ2,..., µn son los valores característicos de la matriz del observador de estado,
tomando los mismos µi que los valores característicos deseados de la matriz de ganancias
de realimentación del estado del sistema dual, se obtiene la ecuación característica del
sistema en lazo cerrado para el sistema dual
Considerando que los valores característicos de AT- CT·K y A - KT C son iguales se tiene
que:
s·I − ( AT − C T ·K ) = s·I − ( A − K T ·C )
Ke = K T (1.66)
Por lo tanto está relación, permite calcular la matriz de ganancias del observador Ke a
partir de la matriz K determinada mediante el enfoque de ubicación de polos en el sistema
dual.
64
Apuntes de Automática II
Para la resolución de este problema de ubicación de polos el sistema dual debe ser de
estado completamente controlable. Luego el rango de la matriz de controlabilidad del
sistema dual
( )
[C T | AT ·C T | ... | AT
n −1
·C T ]
debe ser n.
K = en ·M o−1 ·φ ( AT ) (1.67)
(
K e = en ·M o−1 ·φ ( AT ) )
T
(1.68)
♦ Ejemplo 1.15:
Diseñar un observador de estado de orden completo, suponga que los valores característicos
deseados de la matriz del observador son:
65
TEMA 1: Modelos de sistemas continuos
En primer lugar hay que comprobar la observabilidad del sistema, para ello se calcula la matriz de
observabilidad:
0 1
M o = [C T | AT ·C T ] =
1 0
Una posible forma de calcular Ke es usando la ecuación (1.68). Para aplicarla hay que calcular en
primer lugar la inversa de la matriz de observabilidad:
−1
−1 0 1 0 1
M o = =
1 0 1 0
φ ( A) = A 2 + 3.6· A + 9·I
Y evaluándola en AT:
T
0 1 29.6 3.6 29.6
K e = [0 1]· · =
1 0 74.16 29.6 3 .6
Para sistemas de orden pequeño (n≤3) otra forma alternativa de calcular Ke es igualando la ecuación
característica del observador con la ecuación característica deseada. Para este sistema se tendría:
66
Apuntes de Automática II
s 0 0 20.6 k e1 s − 20.6 + k e1
−
0 s 1 + ·[0 1] = = s 2 + k e 2 ·s − 20.6 + k e1
0 k e 2 −1 s + k e2
Luego:
s 2 + k e 2 ·s − 20.6 + k e1 = s 2 + 3.6·s + 9
67
TEMA 1: Modelos de sistemas continuos
y
u
B +
x&
∫ x
C
-K
ŷ +
u
B + +
x&ˆ
∫ x̂
C −
Ke
Se van analizar, a continuación, los efectos del uso del estado observado en lugar del
estado real en la ecuación característica de un sistema en lazo cerrado. Considérese el
sistema definido por (1.61) con el control mediante la realimentación del estado observado
u = − K · xˆ (1.69)
x& = A· x − BK · xˆ
)
x& = ( A − B·K )·x + B·K ·( x − x ) (1.70)
68
Apuntes de Automática II
Combinando esta ecuación con la ecuación (1.65) del observador de estado se obtiene:
O equivalentemente:
Se pone de manifiesto que los polos en lazo cerrado del sistema de control mediante la
realimentación del estado observado consisten en los polos producidos sólo por el diseño
mediante ubicación de polos y los polos producidos sólo por el diseño del observador. En
conclusión el diseño mediante la ubicación de los polos y el diseño del observador son
independientes uno del otro.
En general los polos del observador se seleccionan para que la respuesta del
observador sea mucho más rápida que la respuesta del sistema. Una regla práctica es elegir
una respuesta del observador al menos de 2 a 5 veces más rápida que la respuesta del
sistema. Por lo general la velocidad de respuesta máxima del observador se limita sólo
mediante el problema de sensibilidad y el ruido implícitos en el sistema de control. Puesto
que los polos del observador se ubican a la izquierda de los polos en lazo cerrado deseados
en el proceso de ubicación de polos, estos últimos dominarán en la respuesta.
69
TEMA 1: Modelos de sistemas continuos
s· Xˆ ( s ) = ( A − K e ·C − B·K )· Xˆ ( s ) + K e ·Y ( s ) (1.76)
Despejando Xˆ ( s ) se obtiene:
Xˆ ( s ) = (s·I − A + K e ·C + B·K ) ·K e ·Y ( s )
−1
(1.77)
U ( s ) = − K ·(s·I − A + K e ·C + B·K ) ·K e ·Y ( s )
−1
(1.78)
U (s)
= K ·(s·I − A + K e ·C + B·K ) ·K e
−1
(1.79)
− Y (s)
R( s) = 0 + Y (s )
U (s)
K ·(s·I − A + K e ·C + B·K ) ·K e
−1
Planta
−
♦ Ejemplo 1.16:
x&1 0 1 x1 0
x& = 20.6 0· x + 1·u
2 2
x
y = [1 0]· 1
x2
70
Apuntes de Automática II
Supóngase que se ha utilizado el enfoque de ubicación de polos para el diseño del sistema y que los
polos en lazo cerrado deseados para este sistema están en s=-1.8+j·2.4 y s=-1.8-j·2.4. La matriz de
ganancias de realimentación del estado K para este caso es:
K = [29.6 3.6]
Supóngase además que se usa un control mediante realimentación del estado observado:
~x
u = −[29.6 3.6]· ~1
x2
Se elige que los valores característicos de la matriz de ganancias del observador sean:
µ1 = µ 2 = −8
En primer lugar hay que comprobar la observabilidad del sistema, para ello se calcula la matriz de
observabilidad:
0 1
M o = [C T | AT ·C T ] =
1 0
( s + 8)·( s + 8) = s 2 + 16·s + 64
s 0 0 1 k e1 s + k e1 −1
− +
0 s 20.6 0 k ·[0 ] = = s 2 + k e1 ·s − 20.6 + k e 2
e2 − 20.6 + + k e 2 s
s 2 + k e1 ·s − 20.6 + k e 2 = s 2 + 16·s + 64
71
TEMA 1: Modelos de sistemas continuos
16
Ke =
84.6
La ecuación del observador (1.63) dado que se realimenta al sistema el estado observado (1.69) se
convierte en:
x&ˆ1 − 16 1 xˆ1 16
& = · + · y
xˆ 2 − 93.6 − 3.6 xˆ 2 84.6
Por otra parte, la función de transferencia del controlador-observador viene dada por (1.79),
sustituyendo valores se obtiene:
U ( s) s + 16 − 1 16 778.16·s + 3690.72
= [29.6 3.6] · = 2
− Y ( s) 93.6 s + 3.6 84.6 s + 19.6·s + 151.2
R( s ) = 0 + Y (s)
778.16·s + 3690.72 U (s ) 1
− s 2 + 19.6·s + 151.2 s − 20.6
2
Figura 1.15
Operando:
72
Apuntes de Automática II
Obsérvese que esta ecuación característica también se puede obtener calculando la función de
transferencia en lazo cerrado Y(s)/R(s), su denominador igualado a cero sería precisamente dicha
ecuación característica.
Para establecer la idea básica del observador de orden mínimo, sin complicaciones
matemáticas innecesarias, se va a presentar el caso en el que la salida es un escalar (m=1)
y se obtendrá la ecuación de estado para el observador de orden mínimo.
Supóngase que el vector de estado x se divide en dos partes xa (un escalar) y xb (un
vector de dimensión n-1). Aquí la variable de estado xa es igual a la salida y que se mide
directamente. Mientras que xb es la parte que no se puede medir del vector de estado.
Teniendo en cuenta esta distinción las ecuaciones de estado y de salida toman la siguiente
forma:
En donde:
Aaa es un escalar.
Ba es un escalar.
73
TEMA 1: Modelos de sistemas continuos
O equivalentemente:
Esta ecuación relaciona las cantidades medibles y no medibles del estado, y funciona
como la ecuación de salida
Por otra parte, a partir de (1.80), la ecuación para la dinámica de la parte no medida del
estado es:
Tabla 1.1
Tabla 1.2
74
Apuntes de Automática II
xb − K e · y = x b − K e · x a = η (1.84)
xˆ b − K e · y = xˆ b − K e ·x a = η̂ (1.85)
ηˆ& = ( Abb − K e · Aab )·ηˆ + [( Abb − K e · Aab )·K e + Aba − K e · A aa ]· y + (Bb − K e ·Ba )·u (1.86)
Aab
A ·A
ab bb
.
M omin = (1.88)
.
.
n−2
Aab · Abb
75
TEMA 1: Modelos de sistemas continuos
(
K e = φ ( Abb )· M omin )−1
·enT−1 (1.91)
en donde:
♦ Ejemplo 1.17:
Considérese el sistema:
x&1 0 1 0 x1 0
x& = 0 0 1 · x + 0·u
2 2
x& 3 − 6 11 − 6 x3 1
x1
y = [1 0 0]· x 2
x3
Suponga que la salida y se puede medir con precisión, con lo cual no necesita estimarse la variable
de estado x1 (ya que es igual a y). Diseñar un observador de orden mínimo (que será de segundo
orden) supuesto que los valores característicos deseados para dicho observador son:
µ1 = −2 + j·2 3
µ 2 = −2 − j·2 3
76
Apuntes de Automática II
x1 0 | 1 0 0
− − x a − − − − − − − − Aaa | Aab − − Ba
x = x 2 = − − A = = − − − − − −
B = = − −
x x
0 | 0 1 0
Aba | Abb Bb
3 b − 6 | − 11 − 6 1
Luego se tiene:
x
x a = x1 xb = 2
x3
0 0 1
Aaa = 0 Aab = [1 0] Aba = Abb =
− 6 − 11 − 6
0
Ba = 0 Bb =
1
Para que sea posible la determinación de la matriz de ganancias del observador Ke y poder diseñar el
observador de orden mínimo, la condición de observabilidad que se debe cumplir es que:
A 1 0
M 0min = ab =
Aab · Abb 0 1
De acuerdo con la ecuación (1.90), la ecuación característica deseada para el observador de orden
mínimo es:
2
0 1 0 1 1 0 5 − 2
φ ( Abb ) = Abb 2
+ 4· Abb + 16·I = + 4· + 16· =
− 11 − 6 − 11 − 6 0 1 22 17
77
TEMA 1: Modelos de sistemas continuos
−1
5 − 2 1 0 0 − 2
(
K e = φ ( Abb )· M o )
min −1
·e T
n −1 = · · =
22 17 0 1 1 17
Puesto que:
0 1 − 2 2 1
Abb − K e · Aab = −
·[1 0 ] = − 28 − 6
− 11 − 6 17
La ecuación para el observador de estado de orden mínimo, de acuerdo con (1.86) es:
ηˆ& 2 2 1 ηˆ 2 2 1 − 2 0 − 2 0 − 2
& = + · + − ·0· y + − ·0·u
ηˆ3 − 28 − 6 ηˆ3 − 28 − 6 17 − 6 17 1 17
Operando se obtiene:
En donde:
ηˆ 2 x 2
ηˆ = x − K e · y
3 3
O equivalentemente:
x 2 ηˆ 2
x = ηˆ + K e · x1
3 3
xˆ1
u = − K · xˆ = − K · xˆ 2
xˆ 3
78
TEMA 2
2.1 INTRODUCCION
En las últimas décadas se ha incrementado el uso de controladores digitales en
sistemas de control. Los controladores digitales se utilizan para alcanzar el desempeño
óptimo, por ejemplo, en la forma de productividad máxima, beneficio máximo, costo mínimo
o la utilización mínima de energía. La capacidad en la toma de decisiones y la flexibilidad en
los programas de control son las mayores ventajas de los sistemas de control digital.
Los sistemas de control en tiempo discreto son aquellos sistemas en los cuales una o
más variables pueden cambiar sólo en valores discretos de tiempo. Estos instantes, pueden
especificar los tiempos en los que se lleva a cabo alguna medición de tipo físico o los
tiempos en los que se extraen los datos de la memoria de un computador digital. El intervalo
de tiempo entre estos dos instantes discretos se supone que es lo suficientemente corto de
modo que el dato para el tiempo entre éstos se pueda aproximar mediante una interpolación
sencilla.
Los sistemas en tiempo discreto, los cuales involucran señales de datos muestreados o
señales digitales y posiblemente señales en tiempo continuo, se pueden describir mediante
ecuaciones en diferencias después de la apropiada discretización de las señales en tiempo
continuo.
En este tema se extienden al caso de los sistemas discretos los conceptos estudiados
en el tema anterior. Además se estudia el enfoque de ecuaciones polinomiales para el
79
TEMA 2: Modelos de sistemas discretos
diseño de sistemas de control, que es una técnica alternativa al diseño mediante ubicación
de polos cuyo estudio resulta útil de cara a comprender mejor el control estocástico (Tema-
9).
2.2.1 Secuencias
Las señales que maneja un computador se pueden modelar como secuencias, que son
conjuntos ordenados de valores. El orden se indica mediante un número entero y se
representan por: {y0, y1, y2,.., }, o de forma abreviada por {yk}.
Una forma alternativa de definir una señal es mediante la posible función que define el
término genérico de la secuencia. Por ejemplo: yk=1+0.5k-0.32k define la secuencia
{1,1.41,1.242,...}.
Las operaciones básicas que se pueden realizar con una secuencia son:
• Suma o resta:
{x k } = { y k } + {u k } = { y 0 + u 0 , y1 + u1 , y 2 + u 2 ,...}
{x k } = α ·{ y k } = {α · y 0 , α · y1 , α · y 2 ,...}
Estas secuencias se pueden obtener como valores que, a lo largo del tiempo y
normalmente en instantes de tiempo igualmente espaciados por un periodo T, va tomando
una variable determinada. Para estos tipos de secuencia obtenidas a partir del muestreo con
periodo T de una señal continua es corriente usar la siguiente notación:
80
Apuntes de Automática II
♦ Ejemplo 2.1:
Considérese la planta
1
P(s) =
s +1
En la Figura 2.1 se muestra en línea continua la respuesta y(t) de la planta al ser excitada por una
entrada escalón. Además se representa con círculos la respuesta muestreada con un periodo
T=0.25 s. Los puntos muestreados forman la secuencia:
y (k ·0.25) ≡ {y (0), y (0.25), y (0.50),...} = (0, 0.2212, 0.3934, ....) k = 0,1, 2,...
0.9
0.8
0.7
0.6
y(t)
0.5
0.4
0.3
0.2
0.1
0
0 1 2 3 4 5
Tiempo (s)
Figura 2.1: Respuesta y(t) (línea continua) a un escalón de la planta P(s) y puntos muestreados
(círculos) con T=0.25 s.
81
TEMA 2: Modelos de sistemas discretos
sistemas de control en tiempo discreto juega el mismo papel que la transformada de Laplace
en los sistemas de control en tiempo continuo.
∞
Y ( z ) = Z [{y k } ] = ∑ y i ·z −i = y 0 + y1 ·z −1 + y 2 ·z − 2 + ... (2.1)
i =0
La transformada Z de una función del tiempo y(t) que ha sido muestreada con un
periodo T, obteniéndose la secuencia de valores y(k·T) con k=0,1,2,... se define mediante la
siguiente ecuación:
∞
Y ( z ) = Z [ y(t ) ] = Z [ y(k ·T ) ] = ∑ y(k ·T )·z − k = y (0) + y (T )·z −1 + y (2·T )·z − 2 + ... (2.2)
k =0
• Desplazamiento temporal:
Z { y k − d } = z − d ·Y ( z ) (2.3)
Z { y k + d } = z d ·Y ( z ) − z d · y 0 − z d −1 · y1 − ... − z· y d −1 (2.4)
• Teorema del valor final. Permite el cálculo del valor límite de la secuencia, si éste
existe (todos los polos de X(z) se encuentran dentro del círculo unitario con la
posible excepción de un solo polo en z=1), a partir del conocimiento de la función
transformada, según la expresión:
k →∞ z →1
[
lim{ y k } = lim (1 − z −1 )·Y ( z ) ] (2.5)
82
Apuntes de Automática II
♦ Ejemplo 2.2:
1 t ≥ 0
y (t ) =
0 t < 0
∞
1 z
Y ( z ) = Z [{y k } ] = ∑ yi ·z −i = 1 + z −1 + z −2 + z −3 + ... = −1
=
i =0 1− z z −1
♦ Ejemplo 2.3:
t t ≥ 0
y (t ) =
0 t < 0
i =0
−1
z T ·z
= T· =
(1 − z )−1 2
(z − 1)2
83
TEMA 2: Modelos de sistemas discretos
Z −1 [Y ( z )] = y (k ) = {y k } (2.6)
Si Y(z) viene expresada de forma racional existen diferentes métodos para obtener la
transformada Z inversa, por ejemplo:
Existen tres formas de modelar los sistemas discretos: ecuación en diferencia, ecuación
de estado y función de transferencia.
y k = f (u k , u k −1 ,..., u k − m , y k −1 , y k − 2 ,..., y k − n )
84
Apuntes de Automática II
m n
y k = ∑ bi ·u k −i − ∑ ai · y k −i (2.7)
i =0 i =1
O de forma equivalente:
q −1 · y (k ) = y (k − 1)
q· y (k ) = y (k + 1)
A(q −1 ) ⋅ y (k ) = B(q −1 ) ⋅ u (k )
donde
A(q −1 ) = 1 + a1 ·q −1 + ... + a n ·q − n
B (q −1 ) = 1 + b1 ·q −1 + ... + bm ·q − m
♦ Ejemplo 2.4:
2· y (k ) − 2· y (k − 1) + y (k − 2) = u (k )
1 k = 0,1, 2
u (k ) =
0 k <0
2· y (k − 1) − y (k − 2) + u (k )
y (k ) =
2
85
TEMA 2: Modelos de sistemas discretos
1
2·Y ( z ) − 2·z −1Y ( z ) + z − 2Y ( z ) =
1 − z −1
Despejando Y(z):
1 1 z3
Y ( z) = · =
(1 − z −1 ) (2 − 2·z −1 + z − 2 ) ( z − 1)(2 z 2 − 2· z + 1)
z − z2 + z 1 − 1 + z −1
Y ( z) = + 2 = +
z − 1 2 z − 2·z + 1 1 − z −1 2 − 2· z −1 + z − 2
Nótese que los polos involucrados en el último término cuadrático de Y(z) son complejos conjugados.
Por lo tanto Y(z) se puede rescribir de la siguiente forma:
1 1 1 − 0.5· z −1 1 0.5·z −1
Y ( z) = + · + ·
1 − z −1 2 1 − z −1 + 0.5·z − 2 2 1 − z −1 + 0.5·z − 2
e − a·T ·z −1 ·sen(ω ·T )
X ( z) = ⇒ x(k ) = e − a ·k ·T ·sen(ω·k ·T )
1 − 2·e − a·T ·cos(ω·T )·z −1 + e − 2·a·T · z − 2
y que
1 − e − a ·T ·z −1 ·cos(ω ·T )
X ( z) = ⇒ x(k ) = e − a·k ·T ·cos(ω ·k ·T )
1 − 2·e − a·T ·cos(ω·T )·z −1 + e − 2·a ·T ·z − 2
86
Apuntes de Automática II
e −2·a ·T = 0.5
1
cos(ω ·T ) =
2
π
ω·T =
4
1
sen(ω ·T ) =
2
1 1
y (k ) = 1 − ·e − a·k ·T ·cos(ω ·k ·T ) + ·e − a·k ·T ·sen(ω ·k ·T )
2 2
Y sustituyendo valores:
k k
1 1 k ·π 1 1 k ·π
y (k ) = 1 − · ·cos + · ·sen k = 0,1, 2 ...
2 2 4 2 2 4
Conviene comprobar que el término general obtenido es el correcto, para ello se van calcular los
primeros valores de la secuencia:
0 0
1 1 1 1
y (0) = 1 − · ·cos(0 ) + · ·sen(0 ) = 0.5
2 2 2 2
1 1 π 1 1 π
y (1) = 1 − · ·cos + · ·sen = 1
2 2 4 2 2 4
2 2
1 1 π 1 1 π
y (2) = 1 − · ·cos + · ·sen = 1.25
2 2 2 2 2 2
87
TEMA 2: Modelos de sistemas discretos
xk +1 = f ( xk , uk , k )
y k = g ( xk , u k , k )
x k +1 = Fk ·x k + Gk ·u k
y k = C k ·x k + Dk ·u k
donde:
La presencia del subíndice k implica que tanto los vectores como las matrices varían
con el tiempo. Si dicho subíndice no aparece se supone que son invariables en el tiempo, es
decir, constantes. Luego si el sistema lineal es invariante en el tiempo entonces las
ecuaciones toman la forma:
x k +1 = F ·x k + G·u k (2.9)
y k = C ·x k + D·u k (2.10)
88
Apuntes de Automática II
u (k ) x(k + 1) x(k ) y (k )
G + z −1 ·I C +
Figura 2.2: Diagrama de bloques de un sistema de control lineal en tiempo discreto invariante en el
tiempo representado en el espacio de estados.
z· X ( z ) = F · X ( z ) + G·U ( z )
Y ( z ) = C · X ( z ) + D·U ( z )
Operando se obtiene:
Y ( z)
H ( z) = = C ·( z·I − F ) −1 ·G + D (2.13)
U ( z)
89
TEMA 2: Modelos de sistemas discretos
Al igual que sucede con los sistemas continuos (ver sección 1.4), existen principalmente
tres formas canónicas para la representación en variables de estado de un sistema discreto:
0 1 0 ... 0 0
0 0 1 ... 0 ...
xk +1 = ... ... ... ... ... · xk + ....·uk
(2.14)
0 0 0 ... 1 0
− an−1 − an−2 − an−3 ... − a1 1
y k = [bm ... b0 0 ... 0]· xk
0 1 0 ... 0 g1
0 0 1 ... 0 g
2
x k +1 = ... ... ... ... ... · x k + .... ·u k
(2.16)
0 0 0 ... 1 g n −1
− a n −1 − a n − 2 − a n −3 ... − a1 g n
y k = [1 0 ... 0]·x k
1
Existe otra expresión equivalente para la forma canónica observable como se puede comprobar en el libro
Sistemas de Control en Tiempo Discreto. K. Ogata
90
Apuntes de Automática II
Los elementos gi provienen del desarrollo en serie de Laurent en el origen z=0 de H(z).
Es decir,
numH ( z −1 ) ∞
H ( z) = −1
= ∑ g k · z −k = g 0 + g1 · z −1 + g 2 · z −2 + ... + g n · z −n + ... (2.18)
denH ( z ) k =0
1
λ1 0 ... 0 1
0 λ 2 ... 0
x k +1 = · x k + ....·u k
... ... ... ... (2.19)
0 ... λ n
1
0 1
y k = [c1 c 2 ... c n ]·x k + d ·u k
c1 c2 c
H ( z) = d + + + ... + + n (2.20)
z − λ1 z − λ 2 z − λn
91
TEMA 2: Modelos de sistemas discretos
x1 = F · x0 + G·u 0
x 2 = F ·x1 + G·u1 = F 2 · x0 + F ·G·u 0 + G·u1
x3 = F ·x 2 + G·u 2 = F 3 · x0 + F 2 ·G·u 0 + F ·G·u1 + G·u 2
:
k −1
x k = F k ·x0 + ∑ F k −i −1 ·G·u i k = 1,2,3 (2.21)
i =0
Se observa que la solución xk está formada por dos partes, una que representa la
contribución del estado inicial x0 y otra que representa la contribución de la entrada ui
i=0,1,2,...,k-1. Conocido xk entonces de acuerdo con (2.10) la salida está dada por la
expresión:
k −1
y k = C ·F k · x0 + C ·∑ F k −i −1 ·G·u i + D·u k (2.22)
i =0
x k +1 = Fx k (2.23)
Luego:
x k = Ψk ·x0 (2.24)
Ψk +1 = F ·Ψk
(2.25)
Ψ0 = I
Ψk = F k (2.26)
Se observa que la solución (2.24) es simplemente una transformación del estado inicial.
La matriz de transición de estados Ψk contiene toda la información sobre los movimientos
libres del sistema homogéneo.
92
Apuntes de Automática II
k −1
x k = Ψk · x0 + ∑ Ψk −i −1 ·G·u i (2.27)
i =0
k −1
y k = C ·Ψk ·x0 + C ·∑ Ψk −i −1 ·G·u i + D·u k (2.28)
i =0
k −1
x k = Ψk · x0 + ∑ Ψi ·G·u k −i −1 (2.29)
i =0
k −1
y k = C ·Ψk ·x0 + C ·∑ Ψi ·G·u k −i −1 + D·u k (2.30)
i =0
x k +1 = Fk ·x k + Gk ·u k (2.31)
y k = C k · x k + Dk ·u k (2.32)
x h +1 = Fh · x h + Gh ·u h
x h + 2 = Fh +1 · x h +1 + Gh +1 ·u h +1 = Fh +1 ·(Fh · x h + Gh ·u h ) + Gh +1 ·u h +1 = Fh +1 ·Fh · x h + Fh +1 ·Gh ·u h + Gh +1 ·u h +1
:
Ψ (k + 1, h) = Fk ·Ψ (k , h) k = h, h + 1, h + 2,...
Ψ (h, h) = I
93
TEMA 2: Modelos de sistemas discretos
k −1
x k = Ψ (k , h)·x h + ∑ Ψ (k , i + 1)·Gi ·u i k>h (2.34)
i=h
♦ Demostración:
Se tiene que:
k
x k +1 = Ψ (k + 1, h)·x h + ∑ Ψ (k + 1, i + 1)·Gi ·u i (2.36)
i =h
se obtiene:
k −1
x k +1 = Fk ·Ψ (k , h)·x h + ∑ Ψ (k + 1, i + 1)·Gi ·u i + Ψ (k + 1, k + 1)·Gk ·u k
i =h
k −1
= Fk ·Ψ (k , h)·x h + Fk ·∑ Ψ (k , i + 1)·Gi ·u i + I ·Gk ·u k
i =h
k −1
= Fk ·Ψ (k , h)·x h + ∑ Ψ (k , i + 1)·Gi ·u i + Gk ·u k
i =h
= Fk · x k + Gk ·u k
k −1
y k = C k ·Ψ (k , h)·x h + ∑ C k ·Ψ (k , i + 1)·Gi ·u i + Dk ·u k k>h (2.37)
i =0
94
Apuntes de Automática II
1 k = 0
δk = (2.39)
0 ∀k ≠ 0
k −1
hk = C ·∑ F k −i −1 ·G·δ i + D·δ k (2.40)
i =0
D k =0
hk = k −1
(2.41)
C ·F ·G k > 0
Z (hk ) = H (z ) (2.42)
95
TEMA 2: Modelos de sistemas discretos
( )
∞ ∞
H ( z ) = Z [{h k } ] = ∑ hi · z −i = ∑ C ·F i −1 ·G· z −i + D (2.43)
i =0 i =1
∞
(
H ( z ) = C ·∑ F i −1 ·z −i )·G + D (2.44)
i =1
∞
(
H ( z ) = C ·∑ F j · z − j −1 )·G + D (2.45)
j =0
Que es equivalente a:
∞ j
(
H ( z ) = C · z −1 ∑ z −1 ·F ·G + D ) (2.46)
j =0
Haciendo uso de la siguiente identidad matricial para una matriz M cuyos valores
propios se encuentren dentro del círculo de radio unidad.
∑M j =0
j
= ( I − M ) −1 (2.47)
(
H ( z ) = C ·z −1 ( I − z −1 ·F ) −1 ·G + D = C · ( I − z −1 ·F )·z )
−1
·G + D (2.48)
H ( z ) = C ·( z·I − F ) −1 ·G + D (2.49)
96
Apuntes de Automática II
De acuerdo con la sección 1.5 el vector de estado vendrá dado por la expresión:
t
x(t ) = e A·(t −t0 ) · x(t 0 ) + ∫ e A(t −·τ ) ·B·u (τ )·dτ (2.51)
t0
k ·T +T
x(kT + T ) = e A·T · x(k ·T ) + ∫ e A( k ·T +T −·τ ) ·B·u (τ )·dτ (2.52)
k ·T
Por otra parte, se supone que la entrada de control en tiempo continuo u(t) a la planta
es la salida de un retenedor de orden cero:
u (t ) = u k k ·T ≤ t ≤ (k + 1)·T (2.53)
Esta última expresión permite calcular el valor del vector de estado x(t) sólo en los
instantes de muestreo t=k·T. Si se define la secuencia de vectores de estado en tiempo
discreto por:
x k = x(k ·T ) (2.56)
y se definen
Φ = e A·T (2.57)
97
TEMA 2: Modelos de sistemas discretos
T
Γ = ∫ e A·γ ·B·dγ (2.58)
0
y k = C ·x k + D·u k (2.60)
Las ecuaciones (2.59) y (2.60) constituyen un sistema en tiempo discreto cuya salida
por construcción coincide exactamente con la salida del sistema continuo si su entrada de
control permanece constante en cada periodo de muestreo, es decir, la entrada de control
discreta se hace pasar por un retenedor de orden cero. Por eso a la ecuación de estado
dada por (2.59) se le conoce como equivalente con retenedor de orden cero de la ecuación
de estado en tiempo continuo dada por (2.50).
• Desarrollo en serie de Φ
t2 t3
Φ = e A·t = I + A·t + A 2 · + A 3 · + ... (2.61)
2! 3!
Φ ( s ) = ( s· I − A )
−1
[
Φ (t ) = e A·t = L−1 (s·I − A)
−1
] (2.62)
98
Apuntes de Automática II
Por otra parte se observa en (2.57) que si T<<1 entonces Φ = e A·T ≈ e A·0 ≈ I . Es decir,
conforme el periodo de muestreo T se hace más pequeño la matriz Φ se aproxima a la
matriz identidad.
Un motor de corriente continua se puede describir mediante un modelo de segundo orden formado
por un integrador y una constante de tiempo (ver Figura 2.3).
u 1 x1 1 x2
s +1 s
La entrada es la tensión aplicada al motor y la salida es la posición del eje. La constante de tiempo se
debe a los elementos del sistema y no se considera la dinámica asociada con la parte eléctrica. Un
modelo normalizado del proceso se puede expresar como:
1
Y (s) = ·U ( s )
s·( s + 1)
Si se introducen como variables de estado la posición y la velocidad del eje del motor (ver Figura 2.3),
el modelo en el espacio de estados viene dado por:
− 1 0 1
x& = · x + 0·u
1 0
y = [0 1]· x
Supuesto un periodo de muestreo T se desea obtener el modelo equivalente con retenedor de orden
cero. Para ello hay que calcular Φ y Γ . Se va usar el método de la transformada inversa de
Laplace. Se sabe que:
s + 1 0
s· I − A =
−1 s
99
TEMA 2: Modelos de sistemas discretos
1
−1
0
s + 1 0
(s·I − A)−1 = = s 1+ 1 1
−1 s
s ( s + 1) s
[ ] = 1 −e e 0
−T
Φ = e A·T = L−1 (s·I − A)
−1
−T
1
Asimismo
−γ −γ
T T e 0 1 T e 1 − e −T
Γ = ∫ e A·γ ·B·dγ = ∫ ·
·d γ = ∫0 1 − e −γ
· ·d γ = −T
0 1 − e −γ 1 0 T − 1 + e
0
2.7.1 Controlabilidad
Definición: Una representación discreta de un sistema es completamente controlable si
y solo si es posible transferir el sistema desde cualquier estado inicial x0 a cualquier estado
final xN, con N finito, mediante una secuencia de control u0,u1,...,uN-1.
N
Wcd (t 0 , t N ) = ∑ Φ (t 0 , t i )·Γ(t i −1 )·Γ T (t i −1 )·Φ T (t 0 , t i ) (2.63)
i =1
[
M cd = Γ | Φ·Γ | ... | Φ n −1 ·Γ ] (2.64)
100
Apuntes de Automática II
Esta matriz tiene que cumplir las condiciones del teorema algebraico de controlabilidad
enunciado en la sección 1.6.
Por otra parte, para sistemas invariantes discretos la matriz de controlabilidad de salida
toma la siguiente forma:
[
M cdy = C ·Γ | C ·Φ·Γ | ... | C ·Φ n −1 ·Γ | D ]
Esta matriz tiene que cumplir las condiciones del teorema algebraico de controlabilidad
de la salida enunciado en la sección 1.6.
2.7.2 Observabilidad
Definición: Una representación en variables de estado de un sistema discreto es
completamente observable si cualquier estado inicial x(0) puede determinarse a partir de la
observación de y(k) sobre un número finito de periodos de muestreo. El sistema, por lo
tanto, es completamente observable, si cualquier transición del estado de manera eventual
afecta a todos los elementos del vector de salida.
N
Wod (t 0 , t N ) = ∑ Φ T (t i , t 0 )·C T (t i )·C (t i )·Φ (t i , t 0 ) (2.65)
i =1
[
M od = C T | Φ T ·C T | ... | Φ T ( ) n −1
·C T ] (2.66)
Esta matriz tiene que cumplir las condiciones del teorema algebraico de observabilidad
enunciado en la sección 1.6.
101
TEMA 2: Modelos de sistemas discretos
x k +1 = F ·x k + G·u k (2.67)
u k = − K ·x k (2.68)
xk +1 = (F − G·K )· xk (2.69)
A este esquema de control (ver Figura 2.4) se le denomina realimentación del estado,
se trata de un esquema de control en lazo cerrado.
uk xk +1 xk
−1
G + z ·I
-K
Figura 2.4: Sistema de control en lazo cerrado mediante realimentación del estado.
La matriz K se debe escoger de forma que los valores característicos de F-G·K sean los
polos en lazo cerrado deseados: µ1, µ2,...,µn. Una condición necesaria y suficiente para la
ubicación arbitraria de los polos, es que el sistema sea de estado completamente
controlable.
La ecuación característica del sistema en lazo cerrado viene dada por la expresión:
102
Apuntes de Automática II
Que puede expresarse en función de los valores deseados para los polos µ1,µ2,...,µn de
la siguiente forma:
[ ] [
K = [0 0 ... 0 1]· G | F ·G | ... | F n −1 ·G · F n + α n −1 ·F n −1 + ... + α 0 ·I
−1
] (2.72)
Se observa en (2.72) que el vector fila de dimensión 1 x n es la última fila de una matriz
identidad de dimensión n x n, a dicho vector se le puede denotar por en. A continuación, de
acuerdo con (2.64), se tiene a la inversa de la matriz de controlabilidad discreta Mcd
Finalmente, se tiene la ecuación característica φ (F ) que satisface la matriz F de acuerdo
con el teorema de Caley-Hamilton.
K = en ⋅ M cd−1 ·φ ( F ) (2.74)
x k +1 = F ·x k + G·u k (2.75)
y k = C·xk (2.76)
u k = − K ·x k (2.77)
dinámico:
103
TEMA 2: Modelos de sistemas discretos
ek =·( x k − xˆ k )
ek +1 = (F − K e ·C )·ek (2.80)
(
K e = en ·M od−1 ·φ ( F T ) )
T
(2.81)
104
Apuntes de Automática II
Este enfoque se puede aplicar a sistemas MIMO, aunque en esta sección se van a
considerar por sencillez únicamente sistemas SISO.
Y ( z ) B( z )
= (2.82)
U ( z ) A( z )
donde
A( z ) = z n + a1 · z n −1 + ... + a n
B ( z ) = b0 · z n + b1 · z n −1 + ... + bn
105
TEMA 2: Modelos de sistemas discretos
α ( z )· A( z ) + β ( z )·B( z ) = D( z ) (2.83)
donde
α ( z ) = α 0 ·z n −1 + α 1 ·z n − 2 + ... + α n −1
β ( z ) = β 0 · z n −1 + β 1 ·z n − 2 + ... + β n −1
an 0 ... 0 bn 0 ... 0
a an ... 0 b n −1 bn ... 0
n −1
: a n −1 ... 0 : b n −1 ... 0
a1 : : b1 : :
E= 1 a1 ... an b0 b1 ... bn (2.84)
0 1 ... a n −1 0 b0 ... b n −1
: : : : : :
0 0 ... a1 0 0 ... b1
0 0 ... 1 0 0 ... b 0
106
Apuntes de Automática II
α n −1
α
d 2 n −1 n−2
d :
2n−2
α0
D= : M = (2.85)
β n −1
d1
d 0 β n−2
:
β 0
E·M = D (2.86)
M = E −1 ·D
♦ Ejemplo 2.6
A( z ) = z 2 + z + 0.5
B( z ) = z + 2
D( z ) = z 3
Luego a1=1, a2=0.5, b0=0, b1=1, b2=2, d0=1, d1=0, d2=0 y d3=0
α ( z )· A( z ) + β ( z )·B( z ) = D( z )
donde
α ( z ) = α 0 ·z + α1
β ( z ) = β 0 · z + β1
Hay que resolver por tanto una ecuación Diofántica, es decir, resolver el sistema de ecuaciones
(2.86):
107
TEMA 2: Modelos de sistemas discretos
0.5 0 2 0 α 1 0
1 0.5
1 2 α 0 0
· =
1 1 0 1 β 1 0
0 1 0 0 β 0 1
Es decir,
α ( z ) = z − 1.2
β ( z ) = 0.2·z + 0.3
α ( z )· A( z ) + β ( z )·B( z ) = H ( z )·F ( z )
donde A(z) es un polinomio mónico de grado n, B(z) es un polinomio m (m≤n) (no existen
factores comunes entre A(z) y B(z)), H(z) es el polinomio característico deseado para la
parte de ubicación de polos y F(z) es el polinomio característico deseado para el observador
de orden mínimo. Ambos polinomios H(z) y F(z) son estables. El grado del polinomio H(z) es
n y el de F(z) es n-1. Se supone que la salida del sistema es el único estado medible. Por lo
tanto, el orden del observador mínimo es n-1.
La ganancia K0 debe ser ajustada para que la salida en estado estacionario y(k) sea
igual a uno cuando la entrada r(k) es una secuencia de escalón unitario.
108
Apuntes de Automática II
R(z ) U (z ) B( z ) Y (z )
K0
- A( z )
β ( z)
α ( z)
B( z )
Y ( z) A( z ) α ( z )·B ( z ) α ( z )·B ( z )
= K0 · = K0· = K0· (2.87)
R( z ) B( z ) β ( z ) α ( z )· A( z ) + β ( z )·B( z ) H ( z )·F ( z )
1+ ·
A( z ) α ( z )
El sistema en lazo cerrado es de orden (2·n-1), a menos que exista alguna cancelación
entre α(z)·β(z) y H(z)·F(z).
z −1 α ( z )·B( z ) z α (1)·B(1)
lim y (k ) = lim(1 − z −1 )·Y ( z ) = lim ·K 0 · · = K 0 · =1
k →∞ z →1 z →1
z H ( z )·F ( z ) z − 1 H (1)·F (1)
Luego:
H (1)·F (1)
K0 = (2.88)
α (1)·B(1)
♦ Ejemplo 2.7
Considérese el sistema de control de la Figura 2.5 con K0=1. La función de transferencia de la planta
es:
109
TEMA 2: Modelos de sistemas discretos
Por otra parte, aunque R(z)=0, la función de transferencia en lazo cerrado para el sistema está dada
por:
Supóngase que los polos en lazo cerrado deseados mediante realimentación de estado sean
F ( z) = z
α ( z )· A( z ) + β ( z )·B( z ) = F ( z )·H ( z ) = D( z )
Se tiene que
Obsérvese que D(z) es un polinomio estable de grado (2·n-1) en z (donde n=2 para este caso).
Además
α ( z ) = α 0 ·z + α1
β ( z ) = β 0 · z + β1
Para resolver la ecuación Diofántica hay que resolver el sistema de ecuaciones (2.86):
110
Apuntes de Automática II
1 0 0.02 0 α 1 0
− 2 1 0.02 0.02 α 0.52
⋅ 0 =
1 −2 0 0.02 β1 − 1.2
0 1 0 0 β 0 1
Es decir,
α ( z ) = z + 0.32
β ( z ) = 24·z − 16
β ( z) z − 0.6667
= 24·
α ( z) z + 0.32
Una forma alternativa de obtener este regulador es usando el diseño en el espacio de estado
mediante el método de ubicación de polos combinado con un observador de orden mínimo.
Supóngase ahora el caso en que se desea ajustar el valor de la ganancia K0 para que la salida en
estado estable y(k) sea igual a uno cuando la entrada r(k) es una secuencia de escalón unitario. En
este caso K0 viene dada por la ecuación (2.88)
111
TEMA 2: Modelos de sistemas discretos
R(z ) U (z ) B( z ) Y (z )
K0
- A( z )
α ( z)
- β ( z)
F ( z) F ( z)
α ( z) β ( z)
U ( z) = − ·U ( z ) − U ( z ) + ·Y ( z ) + K 0 ·R( z )
F ( z) F ( z)
α ( z) β ( z)
·U ( z ) = − ·Y ( z ) + K 0 ·R( z ) (2.89)
F ( z) F ( z)
Y ( z ) B( z )
=
U ( z ) A( z )
A( z )
U ( z) = ·Y ( z ) (2.90)
B( z )
α ( z ) A( z ) β ( z )
F ( z ) · B( z ) ·+ F ( z ) ·Y ( z ) = K 0 ·R ( z )
Luego
112
Apuntes de Automática II
Y ( z) K0 K 0 ·F ( z )·B( z )
= =
R( z ) α ( z ) A( z ) β ( z ) α ( z )· A( z ) + β ( z )·B ( z )
· ·+
F ( z ) B( z ) F ( z )
Como
α ( z )· A( z ) + β ( z )·B( z ) = H ( z )·F ( z )
se obtiene:
Y ( z ) K 0 ·F ( z )·B( z ) K 0 ·B( z )
= = (2.91)
R( z ) H ( z )·F ( z ) H ( z)
Obsérvese que el polinomio F(z) ha sido cancelado ya que se suponía que era estable y
en consecuencia su cancelación está permitida. Por otra parte el polinomio característico del
sistema en lazo cerrado está dado por H(z). H(z) es el polinomio estable de grado n
deseado pero que, en esencia, “se escoge de manera arbitraria”. Por lo tanto, el sistema de
control diseñado es de orden n.
♦ Ejemplo 2.8
Considérese el sistema de control de la Figura 2.6, supóngase que los polinomios A(z), B(z), H(z),
F(z), α(z) y β(z) son los considerados en el Ejemplo 2.7. En ese caso la función de transferencia en
lazo cerrado, de acuerdo con la ecuación (2.91), toma la forma:
Y ( z ) K 0 ·(0.02· z + 0.02)
= 2
R( z ) z − 1.2· z + 0.52
Para determinar la constante K0 se requiere que y(∞) en la respuesta al escalón unitario sea igual a
uno.
z − 1 K 0 ·(0.02· z + 0.02 ) z K
lim y (k ) = lim(1 − z −1 )·Y ( z ) = lim · 2 · = 0 =1
k →∞ z →1 z →1 z z − 1.2· z + 0.52 z − 1 8
113
TEMA 2: Modelos de sistemas discretos
Y ( z) 0.16·z + 0.16
= 2
R( z ) z − 1.2·z + 0.52
Y ( z ) B( z )
= (2.92)
U ( z ) A( z )
donde
A( z ) = z n + a1 · z n −1 + ... + a n
B ( z ) = b0 · z m + b1 · z m −1 + ... + bm
H ( z ) = B ( z )·H 1 ( z )
Y ( z ) K 0 ·B ( z ) K 0 ·B ( z ) K0
= = =
R( z ) H ( z) B( z )·H 1 ( z ) H 1 ( z )
Esto significa que es posible eliminar, si así se desea, los ceros de la planta.
114
Apuntes de Automática II
Y ( z) B ( z)
= Gm = m
R( z ) Am ( z )
Bajo ciertas condiciones, es posible diseñar tal sistema mediante el uso del enfoque de
ecuaciones polinomiales. A este tipo de sistema de control se le llama sistema de control
mediante la igualación a un modelo.
R(z ) V (z ) U (z ) B( z ) Y (z )
Gm ·H1 ( z )
- A( z )
α ( z)
- β ( z)
F ( z) F ( z)
Figura 2.7: Diagrama de bloques del sistema de control mediante la igualación a un modelo.
α ( z) β ( z)
U ( z) = − ·U ( z ) − U ( z ) + ·Y ( z ) + V ( z )
F ( z) F ( z)
115
TEMA 2: Modelos de sistemas discretos
α ( z) β ( z)
·U ( z ) + ·Y ( z ) = V ( z ) (2.93)
F ( z) F ( z)
Como
A( z )
U ( z) = ·Y ( z ) (2.94)
B( z )
se tiene
α ( z ) A( z ) β ( z )
F ( z ) · B( z ) ·+ F ( z ) ·Y ( z ) = V ( z )
Luego
Y ( z) F ( z )·B( z ) F ( z )·B ( z ) 1
= = =
V ( z ) α ( z )· A( z ) + β ( z )·B( z ) F ( z )·B( z )·H 1 ( z ) H 1 ( z )
Como
V ( z ) = Gm ·H 1 ( z )·R( z )
entonces se obtiene:
Y ( z ) Y ( z )·V ( z ) Gm ·H 1 ( z )
= = = Gm
R( z ) V ( z )·R( z ) H1 ( z)
Comentarios:
116
Apuntes de Automática II
♦ Ejemplo 2.8
Por lo tanto a1=-1.3679, a2=0.3679, b0=0, b1=0.3679 y b2=0.2642. Claramente B(z) es estable.
Se supone un periodo de muestreo T=1 seg. Se desea diseñar un sistema de control (ver Figura 2.7)
tal que el sistema en lazo cerrado sea:
Ym ( z ) 0.62· z − 0.3
Gm = = 2
Rm ( z ) z − 1.2· z + 0.52
Como la función de transferencia de la planta es de segundo orden (n=2), se escoge a H1(z) como un
polinomio estable de grado uno (n-1). Por ejemplo, se puede escoger a H1(z) como:
H 1 ( z ) = z + 0 .5
Luego
Se escoge F(z) de forma que sea cualquier polinomio estable de grado (n-1). Por ejemplo:
F ( z) = z
α ( z ) = α 0 ·z + α1
β ( z ) = β 0 · z + β1
117
TEMA 2: Modelos de sistemas discretos
Para resolver la ecuación Diofántica hay que resolver el sistema de ecuaciones (2.86):
0.3679 0 0.2642 0 α 1 0
− 1.3679 0.3679 0.3679 0.2642 α 0.1321
⋅ 0 =
1 − 1.3679 0 0.3679 β1 0.4482
0 1 0 0 β 0 0.3679
Por lo tanto:
α ( z ) = 0.2642·z + 0.3679
β ( z ) = 1.8680·z − 0.3679
Y ( z) F ( z )·B ( z ) 1 1
= = =
V ( z ) F ( z )·B( z )·H 1 ( z ) H 1 ( z ) z + 0.5
Puesto que:
Y ( z) 0.62·z − 0.3
= 2 = Gm
R( z ) z − 1.2·z + 0.52
118
TEMA 3
MODELOS DE PERTURBACIONES
3.1 INTRODUCCION
La existencia de perturbaciones en las entradas y/o en las salidas de un sistema,
impone limitaciones fundamentales en su comportamiento. Por ejemplo, el ruido de medida
en un sistema de seguimiento limita el ancho de banda alcanzable por el sistema en lazo
cerrado. Para mejorar el comportamiento de un sistema sometido a perturbaciones se hace
imprescindible el uso de sistemas de control. La naturaleza de las perturbaciones
determinará la calidad de la regulación de un control aplicado a un cierto proceso. Con el
objetivo de poder diseñar los controles más apropiados se hace necesario el disponer de
modelos matemáticos de las perturbaciones.
En este tema se estudian en primer lugar los modelos clásicos de las perturbaciones. A
continuación, se describen las posibles formas de reducción de los efectos de las
perturbaciones. Seguidamente, debido al carácter estocástico o aleatorio de algunas
perturbaciones, se incluye un repaso a los conceptos básicos de la teoría de procesos
estocásticos. A continuación se describe la formulación tanto discreta como continua de
modelos de procesos estocásticos. Finalmente se describe el filtrado de procesos aleatorios
de tipo estacionario y la factorización espectral.
El material que se estudia en este tema resulta fundamental para comprender el filtro de
Kalman (Tema 4) y las técnicas de control estocástico (Tema 9).
119
TEMA 3: Modelos de perturbaciones
120
Apuntes de Automática II
La rampa. Es una señal que se utiliza para representar la deriva en los errores de
medida así como a perturbaciones que de repente comienzan a desplazarse. En
la práctica estas perturbaciones se encuentran acotadas, sin embargo el uso de
una señal rampa suele ser una útil idealización.
121
TEMA 3: Modelos de perturbaciones
• Sustituir un sensor por otro que posea una respuesta más rápida.
122
Apuntes de Automática II
Perturbación
u A B y
+ +
Realimentación
local
Pr oceso
H ff = − H p−1 ·H w
123
TEMA 3: Modelos de perturbaciones
Perturbación medida
Hw
Hff
u y
+ Hp +
Pr oceso
124
Apuntes de Automática II
F ( x) = P ( x(k ) ≤ x)
F ( a ) ≤ F (b ) si a ≤ b
F ( −∞ ) = 0
F (∞ ) = 1
Se verifica que:
f ( x) ≥ 0
∫ f ( x)dx = 1
−∞
dF ( x)
f ( x) =
dx
125
TEMA 3: Modelos de perturbaciones
En el caso de que x(k) tome valores discretos xi con probabilidades pi distintas de cero,
entonces la función f(x) se puede expresar como una serie de funciones de Dirac δ por las
probabilidades correspondientes:
f ( x) = ∑ pi ·δ ( x − xi )
i
El valor medio de una variable aleatoria escalar x(k), también denominado valor
esperado o primer momento se define como:
∞
E[x(k)] = µ x = m(k ) = ∫ xf ( x)dx (3.1)
−∞
∞
[
E x (k) = Ψ =
2
] 2
x ∫x
2
f ( x)dx (3.2)
−∞
Si x no es un escalar entonces
∞
[
E x(k)·x T (k) = Ψx2 = ] ∫ x(k)·x
T
(k) f ( x)dx
−∞
Un parámetro que se utiliza en lugar del valor cuadrático medio es la raíz cuadrada
positiva del mismo, conocido por su terminología anglosajona como rms de “root-mean
squared”.
∞
[ ]
E (x(k) - µ x ) 2 = σ x2 = ∫ (x - µ x ) 2 f ( x)dx = Ψ x2 − µ x2 (3.3)
−∞
Si x no es un escalar:
∞
[ ]
E (x(k) - µ x ) ⋅ (x(k) - µ x ) T = σ x2 = ∫ (x(k) - µ x )·(x(k) - µ x ) T f ( x )dx = Ψx2 − µ x2
−∞
126
Apuntes de Automática II
Una variable aleatoria x(k) tiene una distribución gaussiana o normal si su función densidad de
probabilidad está dada por:
( x−a )2
−
1 2σ x2
f ( x) = e
b 2π
Se puede ver fácilmente que a y b se corresponden con el valor medio y la desviación estándar de la
variable aleatoria x(k)
∞
µ x = E[ x(k )] = ∫ xf ( x)dx = a
−∞
∞
σ = E[( x(k ) − a) ] = ∫ ( x − a) 2 f ( x)dx = b 2
2
x
2
−∞
x ( z −a )2
−
1
∫e
2σ x2
F ( x) = dz
σ x · 2π −∞
0.3
0.25
σx
0.3989 /0.2
0.15
0.2420 / σ x
0.1
0.05400.05
/σ x
0
0 1 2 3 4 µ5x 6 7 8 9 10
µ x + 2·σ x µ x + 2·σ x
µx − σ x µx + σ x
127
TEMA 3: Modelos de perturbaciones
F2 ( x, y ) = P[x(k ) ≤ x & y (k ) ≤ y ]
f 2 ( x, y ) ≥ 0
∂ 2 F2 ( x, y )
f 2 ( x, y ) =
∂x∂y
∞ ∞
∫∫f
− ∞− ∞
2 ( x, y )dxdy = 1
f 2 ( x, y ) = f x ( x)· f y ( y )
El valor medio de una función continua real g(x,y) de dos variables aleatorias x(k) e y(k)
es:
∞ ∞
E[g(x, y)] = ∫ ∫ g ( x, y ) f 2 ( x, y )dxdy
− ∞− ∞
128
Apuntes de Automática II
∞ ∞
[ ] ∫ ∫ (x - µ
rxy = E (x(k) - µ x )(y(k) - µ y ) = x )(y - µ y ) f 2 ( x, y )dxdy (3.4)
− ∞− ∞
[ ] [ ]
E (x(k) - µ x )(y(k) - µ y ) = E x(k)y(k) - µ x y(k) − x(k) µ y + µ x µ y = E[x(k)y(k) ] − E[x(k) ]·E[y(k)]
rxy
ρ xy = (3.5)
σ xσ y
Se verifica que
− 1 ≤ ρ xy ≤ 1
{x(t ), t ∈ T } ≡ x(t , ω )
129
TEMA 3: Modelos de perturbaciones
x(t , ω ) Realizaciones
Variables aleatorias
x(t , ω3 )
Figura 3.5: Tres realizaciones x(t, ω1), x(t, ω2) y x(t, ω3) de un mismo proceso estocástico x(t, ω). Se
detallan las variables aleatorias x(t1) y x(t2) que se obtienen cuando se fija el tiempo a t=t1 y t=t2
La probabilidad de que x(t1) tome valores en un cierto rango está dada por la función de
distribución de probabilidad, como para cualquier variable aleatoria.
F ( x1 , t1 ) = P[ x(t1 ) ≤ x1 ]
dF ( x1 , t1 )
f ( x1 , t1 ) =
dx1
∞
m(t 1 ) = E[x(t 1 )] = ∫x 1 f ( x1 , t1 )dx1 (3.6)
−∞
130
Apuntes de Automática II
∂ 2 F ( x1 , t1 ; x 2 , t 2 )
f ( x1 , t1 ; x 2 , t 2 ) =
∂x1∂x 2
Y se define como:
[ ] [
rxx (t1 , t 2 ) = E ( x (t1 ) − E[ x (t1 )])( x (t 2 ) − E[ x (t 2 )]) = E ( x (t1 ) − m (t1 ) )( x (t 2 ) − m (t 2 ) )
T T
] (3.7)
La covarianza se pueda expresar de forma equivalente mediante la expresión:
∞ ∞
rxx (t1 , t 2 ) = ∫ dx1 ∫ dx2 (x 1 - m(t1 ))(x 2 - m(t 2 )) f 2 ( x1 , t1 ; x2 , t 2 )
T
−∞ −∞
τ = t 2 − t1
Por lo tanto, las funciones de covarianza para procesos estacionarios toman la forma:
131
TEMA 3: Modelos de perturbaciones
rxx (0 ) = rx (0 ) = σ x2 (3.11)
rx (τ )
ρ x (τ ) = (3.12)
rx (0 )
rx (τ ) ≤ rx (0 )
Luego:
ρ x (τ ) ≤ 1 (3.13)
∞
1
Φ xx (ω ) =
2π
∑r
k = −∞
xx (k )e −ikω (3.14)
∞
1
Φ xy (ω ) =
2π
∑r
k = −∞
xy (k )e −ikω (3.15)
132
Apuntes de Automática II
∞
1
Φ xx (ω ) =
2π ∫r
−∞
xx (t )e −itω dt (3.16)
∞
1
Φ xy (ω ) =
2π ∫r
−∞
xy (t )e −itω dt (3.17)
π
rxx (k ) = ∫ e ikω Φ xx (ω )dω (3.18)
−π
π
rxy (k ) = ∫ e ikω Φ xy (ω )dω (3.19)
−π
∫e
itω
rxx (t ) = Φ xx (ω )dω (3.20)
−∞
∫e
itω
rxy (t ) = Φ xy (ω )dω (3.21)
−∞
Las relaciones que se acaban de definir permiten pasar del dominio temporal al
frecuencial y viceversa en el análisis de los procesos aleatorios estacionarios.
ω2
2∫ Φ xx (ω )dω (3.22)
ω1
σ2
Φ (ω ) = (3.23)
2·π
133
TEMA 3: Modelos de perturbaciones
Esto implica que la densidad espectral es constante para todas las frecuencias. Por
analogía con la situación correspondiente para la luz blanca, a tal proceso aleatorio,
generalmente un ruido, se le denomina ruido blanco.
∞
1
∫e
itω
rxx (t ) = ·σ 2 ·dω = σ 2 ·δ (τ ) (3.24)
2π −∞
∞ si τ = 0
δ (τ ) =
0 si τ ≠ 0
σ 2 τ = 0
rxx (τ ) = (3.25)
0 τ = ±1, ± 2,...
El ruido blanco juega un papel importante en la teoría de control estocástica. Todos los
procesos aleatorios que se puedan necesitar pueden ser generados mediante la
implementación de un filtro adecuado al que se le aplique en su entrada ruido blanco.
134
Apuntes de Automática II
( x−µ x )2
−
1 2σ x2
f ( x, t ) = e (3.26)
σ x · 2π
1 1
f n ( x1 , x 2 ,..., x n ) = 1/ 2
·exp − ·( x − µ ) T ·P −1 ·( x − µ ) (3.27)
(2π ) n/2
·P 2
x = ( x1 , x 2 ,..., x n )
µ = E[ x] = ( E ( x1 ),..., E ( x n )) T (3.28)
Con
135
TEMA 3: Modelos de perturbaciones
x ≡ N ( µ , P)
Otra clase de procesos aleatorios útiles, que se pueden generar haciendo pasar ruido
blanco a través de un determinado filtro, es la familia de los procesos markovianos.
Un proceso continuo x(t) se dice que es un proceso de markov de primer orden si para
todo k y t1< t2<...< tk se verifica que
Es decir, la distribución de probabilidad del proceso x(tk) depende solamente del valor
del punto inmediatamente anterior x(tk-1). Los procesos de Markov de primer orden se
pueden asociar con la siguiente ecuación diferencial:
dx
+ β 1 (t )·x = w (3.31)
dt
ϕ xx (τ ) = E[ x(t )·x(t + τ )] = σ 2 ·e − β · τ + µ 2
1
(3.32)
136
Apuntes de Automática II
Es decir, la distribución de probabilidad del proceso x(tk) depende de sólo dos puntos
inmediatamente anteriores. La ecuación diferencial asociada a este proceso es:
d 2x dx
2
+ 2·β 2 (t )· + β 22 (t ) = w (3.33)
dt dt
donde v(k) es una variable aleatoria de media cero que es independiente de x(k) y de todos
los valores pasado de x. Esto implica que v(k) también es independiente de todos los
valores pasados de v. La secuencia {v(k), k=0,1,...} es una secuencia de variables aleatorias
independientes igualmente distribuidas. Por lo tanto el proceso estocástico {v(k)} es ruido
blanco en tiempo discreto.
137
TEMA 3: Modelos de perturbaciones
r (k + τ , k ) = Fτ ·P(k ), τ ≥0 (3.37)
m(k ) = E [x(k )]
simplemente hay que tomar el valor medio en ambos lados de la ecuación (3.35)
m(k + 1) = F·m(k )
~
x = x−m
138
Apuntes de Automática II
~
x (k + 1)·~
x T (k + 1) = [ F ·~
x (k ) + v(k )]·[ F ·~
x (k ) + v(k )]T
= F ·~
x (k )·~x T (k )·F T + F ·~x (k )·v T (k ) + v(k )·~
x T (k )·F T + v(k )·v T (k )
E~[
x (k + 1)·~ ]
x T (k + 1) = F ·E ~ [
x (k )·~ ]
x T ( k ) ·F T + F ·E ~ [ ] [
x (k )·v T (k ) + E v(k )·~ ] [
x T (k ) ·F T + E v(k )·v T (k ) ]
Se obtiene
P (k + 1) = F·P(k )·F T + R1
Para calcular la función de covarianza del estado, hay que darse cuenta que:
~
x (k + 1)·~
x T ( k ) = [ F ·~
x (k ) + v(k )]·~
x T (k )
[
rxx (k + 1, k ) = cov[ x(k + 1), x(k )] = E ( x(k + 1) − m(k + 1))·( x(k ) − m(k )) T ]
=E~[ x (k + 1)·~ ] [
x T ( k ) = E [ F ·~
x (k ) + v(k )]·~
x T (k ) ]
= E [F ·~
x (k )·~
x T
(k ) + v(k )·~ ]
x T ( k ) = F · E ·~[
x (k )·~ ] [
x T (k ) + E v(k )·~
x T (k ) ]
= F ·P ( k )
rxx (k + τ , k ) = F τ ·P(k )
se debe operar de forma similar al caso rxx (k + 1, k ) pero considerando que ahora
τ −1
~
x (k + τ )·~
x T ( k ) = [ F τ ·~
x (k ) + ∑ F τ −1− j ·v(k + j )]·~
x T (k )
j =0
139
TEMA 3: Modelos de perturbaciones
y = C·x
m y = C ·m
ryy = C ·rxx ·C T
ryx = C ·rxx
♦ Ejemplo 3.2:
donde v es una secuencia de variables aleatorias no correlacionadas con valores medios nulos y
covarianzas r1. Supóngase que en el instante k0 el estado tiene un valor medio m0 y covarianza r0.
Para obtener el valor medio del estado x(k) hay que resolver la ecuación en diferencias (3.36):
m(k + 1) = a·m(k ), m( k 0 ) = m 0
m(k ) = a k − k0 ·m0
P (k + 1) = a 2 ·P(k ) + r1 P(k 0 ) = r0
140
Apuntes de Automática II
1 − a 2·(k -k 0 )
P (k ) = a 2·(k -k 0 ) ·r0 + ·r1
1− a2
rx (l , k ) = a l − k ·P(k ) l≥k
rx (l , k ) = a k −l ·P(l ) l<k
m( k ) → 0
r1
P(k ) →
1− a2
τ
r1 ·a
rx (k + τ , k ) →
1− a2
Se observa que en ese caso el proceso pasa a ser estacionario ya que m es una constante y la
función de covarianza es únicamente función de τ.
y ( k ) = x ( k ) + e( k )
donde e(k) es una secuencia de variables aleatorias no correlacionadas con media cero y covarianza
r2, entonces la función de covarianza de y es
r1
r2 + 1 − a 2 τ =0
ry (τ ) = τ
r1 ·a τ ≠0
1 − a 2
1 r1 1 r1
φ y (ω ) = ·r2 + iω = ·r2 +
2·π (e − a )·(e − a ) 2·π
− iω
1 + a − 2·a·cos ω
2
141
TEMA 3: Modelos de perturbaciones
dx
= A·x + v&
dt
donde v& es un vector cuyos elementos son procesos estocásticos de ruido blanco. Puesto
que v& tiene una varianza infinita, se acostumbra a escribir la ecuación en término de
diferenciales, es decir:
dx = A· x·dt + dv (3.39)
La señal v es la integral de v& , se supone que tiene valor medio cero, incrementos no
correlacionados entre si, ni con x, y varianza
dm(t )
= A·m(t ), m(0) = m0 (3.41)
dt
La covarianza es
dP(t )
= A·P(t ) + P(t )· AT + R1 P(0) = R0 (3.43)
dt
142
Apuntes de Automática II
Considerando que los valores constantes se pueden sacar del operador valor medio E y que además
éste conmuta con respecto al diferencial:
dE [x ] = AE [x ]dt + dE [v ]
Que es equivalente a
[ ] [ ] [ ] [ ] [
d ( E x· x T ) = E x· x T · AT ·dt + A·E x· x T ·dt + A·E x·x T · AT (dt ) 2 + E dv·dv T ]
Como por definición
[
P (t ) = E x·x T ]
y de (3.40)
[ ]
E dv·dv T = R1 ·dt
143
TEMA 3: Modelos de perturbaciones
Entonces
Dividiendo por dt
dP(t )
= P(t )· AT + A·P(t ) + R1 + A·P(t )· AT (dt )
dt
Finalmente para obtener (6.42), se considera s≥t y se integra la ecuación (3.39) se obtiene
s
x( s ) = e A( s −t ) · x(t ) + ∫ e A( s − s ) ·dv( s ' )
'
s
x( s )·x T (t ) = e A( s −t ) ·x(t )·x T (t ) + ∫ e A( s − s ) ·dv( s ' )·x T (t )
'
t
Si se aplica el operador valor medio, considerando que dv(s’) no está correlacionado con x(t) si s’≥ t,
entonces se obtiene (3.42).
♦ Ejemplo 3.3:
dx = −a· x·dt + dv
x(t 0 ) = m0
cov[ x(t 0 ), x(t 0 )] = r0
donde el proceso {v(t), t∈T} posee una covarianza incremental r1·dt. La ecuación diferencial que da la
expresión de la media es
dm
= − a·m m(t 0 ) = m0
dt
144
Apuntes de Automática II
m(t ) = m0 ·e − a ( t −t0 )
e − a ( s −t ) ·P (t ) s≥t
r ( s, t ) = cov[ x( s ), x(t )] = − a (t − s )
e ·P(t ) s≤t
dP
= −2·a·P + r1 P(t 0 ) = r0
dt
t
P (t ) = e − 2·a (t −t0 ) ·r0 + ∫ e − 2·a ( t − s ) ·r1 ·ds = e − 2·a ( t −t0 ) ·r0 +
t0
r1
2·a
[
· 1 − e − 2· a ( t − t 0 ) ]
Cuando t0→-∞, la función valor medio tiende a cero y la función covarianza tiende a
r1 − a ( t − s )
r ( s, t ) = ·e
2·a
Puesto que esta función depende de la diferencia s-t, el proceso sería estacionario y su función de
covarianza se puede escribir como:
r1 − a · τ
r (τ ) = ·e
2·a
Por otra parte, la correspondiente densidad espectral vendría dada por la aplicación de (3.16).
r1 1
φ (ω ) = · 2
2·π ω + a 2
145
TEMA 3: Modelos de perturbaciones
dx = A· x·dt + dv (3.44)
t k +1
t k +1
∫e
A ( t k +1 − s )
e(t k ) = ·dv( s )
tk
Esta variable tiene media cero puesto que v también tiene media cero. Las variables
aleatorias e(tk) y e(tl) no están correlacionados si k≠l puesto que los incrementos de v sobre
intervalos disjuntos están no correlacionados. La covarianza de e(tk) está dada por
t k +1 A ( t − s )
[ ]
E e(t k )e (t k ) = E ∫ ∫ e k +1 ·dv( s )·dv T (t )·e A ( tk +1 −t ) =
T T
tk (3.45)
t k +1
∫e
T
A ( t k +1 − s ) ( t k +1 − s )
= ·R1 ·e A ds
tk
donde {e(tk)} es una secuencia de variables aleatorias no correlacionadas con media cero y
covarianza (3.45).
146
Apuntes de Automática II
u y
H(z)
m y (k ) = H (1)·mu (k ) (3.46)
y densidad espectral
Además la densidad espectral cruzada entre la entrada y la salida está dada por la
expresión
φ yu (ω ) = H (e i ·ω )·φu (ω ) (3.48)
k ∞
y (k ) = ∑ h(k − n)·u(n) = ∑ h(n)·u(k − n)
n = −∞ n =0
147
TEMA 3: Modelos de perturbaciones
∞
m y (k ) = E [ y (k )] = E ∑ h(n)·u (k − n) =
n =0
∞ ∞
= ∑ h(n)·E [u (k − n)] = ∑ h(n)·mu (k − n)
n =0 n =0
Se observa que el valor medio de la salida se obtiene filtrando el valor medio de la entrada.
∞
y (k ) − m y (k ) = ∑ h(n)·[u (k − n) − mu (k − n)]
n =0
Luego la diferencia entre la señal de salida y su valor medio se propaga a través del sistema de la
misma forma que la señal de entrada. Con vistas a simplificar la escritura de las ecuaciones se va a
suponer que los valores medios son cero. Además se supondrá que todas las series infinitas existen
y que las operaciones de suma infinita y valor esperado son conmutativas. Así, la definición de
covarianza da
[
ry (τ ) = E y (k + τ )· y T (k ) = ]
∞ ∞
T
[ ]
∞ ∞
= ∑∑ h(n)·E u (k + τ − n)·u T (k − l ) ·h T (l ) =
n =0 l =0
∞ ∞
= ∑∑ h(n)·ru (τ + l − n)·h T (l )
n =0 l =0
∞
[ ]
ryu (τ ) = E y (k + τ )·u T (k ) = E ∑ h(n)·[u (k + τ − n)]·u T (k ) =
n =0
∞
1
φ y (ω ) = φ yy (ω ) =
2π
∑e
n = −∞
−i · n ·ω
·ry (n)
148
Apuntes de Automática II
− i ·( n + k − k + l −l )·ω
∞ ∞ ∞
1
φ y (ω ) =
2π
∑
n = −∞
e · ∑∑
k =0 l =0
h(k )·ru (n + l − k )·h T (l ) =
∞ ∞ ∞
1
=
2π
∑ ∑∑ e
n = −∞ k = 0 l = 0
−i · k ·ω
·h(k )·e −i ·( n +l − k )·ω ·ru (n + l − k )·e −i ·l ·ω ·h T (l )
∞ ∞ ∞
1
=
2π
∑e
k =0
−i · k ·ω
·h(k ) ∑ e −i ·( n +l − k )·ω ·ru (n + l − k )∑ e i ·l ·ω ·h T (l )
n = −∞ l =0
∞ ∞ ∞
1
φ y (ω ) =
2π
∑ e −i·k ·ω ·h(k ) ∑ e −i· p·ω ·ru ( p)∑ e i·l ·ω ·h T (l )
k =0 p = −∞ l =0
Introduciendo la función de transferencia pulso H(z) del sistema, que se relaciona con la respuesta a
un impulso {h(k), k=0,1,...} mediante la expresión:
∞
H ( z ) = ∑ z − n ·h( n) (3.49)
n =0
∞
H ( eiω ) = ∑ e − n·i ·ω ·h( n)
n =0
∞ ∞ ∞ ∞
1 1
φ yu (ω ) =
2π
∑ e −i·n·ω ∑ h(k )·ru (n − k ) =
n = −∞ k =0 2π
∑ e −i·k ·ω h(k ) ∑ e −i·n·ω ·ru (n) = H (e i·ω )·φu (ω )
k =0 n = −∞
El resultado indicado en este teorema tiene una sencilla interpretación física. El número
149
TEMA 3: Modelos de perturbaciones
Por otra parte, la ecuación (3.48) indica que la densidad espectral cruzada es igual a la
función de transferencia del sistema si la entrada es ruido blanco con densidad espectral
unidad. Este resultado puede ser utilizado para determinar la función de transferencia pulso
del sistema.
♦ Ejemplo 3.4:
Considere el proceso {x(k)} del Ejemplo 3.2. Este proceso puede ser generado haciendo pasar ruido
blanco a través de un filtro función de transferencia pulso:
1
H ( z) =
z−a
r1
φ v (ω ) =
2·π
r1 1 r1
φ x (ω ) = H (e iω )·φu (ω )·H T (e −iω ) = · iω =
(
2·π (e − a )·(e − a ) 2·π · 1 + a − 2·a·cos ω
− iω 2
)
Por otra parte, el proceso
y ( k ) = x ( k ) + e( k )
1 r1
φ y (ω ) = ·r2 +
2·π 1 + a − 2·a·cos ω
2
150
Apuntes de Automática II
t ∞
y (t ) = ∫ g (t − s)·u (s)ds = ∫ g (s)·u (t − s)ds
−∞ 0
(3.50)
m y = G (0)·mu (3.51)
y densidad espectral
Ejemplo 3.5:
Considérese el sistema del Ejemplo 3.3. El proceso x se puede considerar como el resultado de filtrar
ruido blanco con varianza r1/(2·π) a través de un sistema con función de transferencia
1
G(s) =
s+a
r1 1 1 r 1
φ (ω ) = · · = 1 · 2
2·π iω + a − iω + a 2·π ω + a 2
151
TEMA 3: Modelos de perturbaciones
1
φu (ω ) =
2·π
Además como
z = e iω
1
φ y (ω ) = ·H ( z )·H T ( z −1 ) = F ( z )
2·π
zi ·z j = 1
pi · p j = 1
Los pasos para encontrar una función H que corresponda a una determinada densidad
espectral racional φy son:
H ( z) = K ·
∏ ( z − z ) = B( z )
i
∏ ( z − p ) A( z )
i
152
Apuntes de Automática II
Puesto que el proceso estocástico se ha supuesto estacionario los polos pi y los ceros zi
verificarán las siguientes condiciones:
zi ≤ 1
pi < 1
Teorema 3.5: Teorema de factorización espectral. Dada una densidad espectral φ(ω),
que sea una función racional en cos ω , existe un sistema lineal con función de transferencia
pulso
B( z )
H ( z) = (3.54)
A( z )
tal que la salida que se obtiene, cuando la entrada del sistema es ruido blanco, es un
proceso aleatorio estacionario con densidad espectral φ. El polinomio A(z) tiene todos sus
ceros dentro del círculo unidad. El polinomio B tiene todos sus ceros dentro del disco unidad
o sobre el circulo unidad.
Por tanto es suficiente con estudiar como se comportan los sistemas cuando son
excitados por ruido blanco. Todos los otros procesos estacionarios con densidad espectral
racional pueden ser generados mediante el filtrado adecuado del ruido blanco.
A menudo se supone que el polinomio B(z) posee todos sus ceros dentro del circulo
unidad. Esto significa que la inversa del sistema H es estable.
♦ Ejemplo 3.6:
Considérese el proceso {y(k)} de los Ejemplos 3.2 y 3.4. Este proceso tiene la siguiente densidad
espectral
1 r1 1 r1 + r2 (1 + a 2 ) − r2 ·a·( z + z −1 )
φ y (ω ) = F ( z ) = r2 + =
2·π ( z − a )·( z −1 − a ) 2·π ( z − a )·( z −1 − a )
153
TEMA 3: Modelos de perturbaciones
r + r (1 + a 2 ) − r2 ·a·( z + z −1 )
2·π ·F ( z ) = 1 2
( z − a )·( z −1 − a )
B ( z )·B( z −1 ) = λ2 ·( z − b)·( z −1 − b)
z 0 : λ2 ·(1 + b 2 ) = r1 + r2 ·(1 + a 2 )
z 1 : λ2 ·b = r2 ·a
r2 ·a
λ2 =
b
p = r1 + r2 ·(1 + a 2 )
Es posible escribir la primera ecuación como una ecuación algebraica de segundo orden para b
r2 ·a·b 2 − b· p + r2 ·a = 0
Esta ecuación tiene la siguiente solución válida, es decir, dentro del círculo unidad:
154
Apuntes de Automática II
p+ p 2 − 4·(r2 ·a) 2
b=
2·a·r2
Con lo que
2·(r2 ·a) 2
λ =
2
p+ p 2 − 4·(r2 ·a) 2
Luego
λ ·( z − b)
H ( z) =
z−a
♦ Ejemplo 3.7:
Se desea calcular el filtro H(z) que genera una señal estocástica con densidad espectral
1 0.3125 + 0.125·( z + z −1 )
F ( z) = −2
2·π 2.25 − 1.5·( z + z ) + 0.5·( z + z )
−1 2
B( z )·B( z −1 ) λ2 ·( z − b)·( z −1 − b)
2·π ·F ( z ) = =
A( z )· A( z −1 ) ( z − a1 )·( z −1 − a1 )·( z − a 2 )·( z −1 − a 2 )
Luego
B( z ) λ ·( z − b)
H ( z) = =
A( z ) ( z − a1 )·( z − a 2 )
p1 = 1 + a12
p 2 = 1 + a 22
155
TEMA 3: Modelos de perturbaciones
B( z )·B( z −1 )
=
[
λ2 · (1 + b 2 ) − b·( z + z −1 ) ]
A( z )· A( z −1 ) ( p1 · p 2 + 2·a1 ·a 2 ) − (a1 · p 2 + a 2 · p1 )·( z + z −1 ) + a1 ·a 2 ·( z 2 + z − 2 )
λ2 ·(1 + b 2 ) = 0.3125
− λ2 ·b = 0.125
b 2 + 2.5·b + 1 = 0
Cuya única solución dentro del círculo unidad es: b=-0.5. Con lo que λ=0.25.
p1 · p 2 + 2·a1 ·a 2 = 2.25
a1 · p 2 + a 2 · p1 = 1.5
a1 ·a 2 = 0.5
Luego
0.5
a1 =
a2
1.25
p1 =
p2
Por tanto
156
Apuntes de Automática II
Teorema 3.6: Factorización espectral. Dada una densidad espectral racional φ(ω), existe
un sistema lineal de dimensión finita con función de transferencia
B( s)
G ( s) =
A( s )
tal que la salida que se obtiene, cuando la entrada del sistema es ruido blanco, es un
proceso estocástico estacionario con densidad espectral φ. El polinomio A tiene todos sus
ceros en el semiplano izquierdo del plano s. El polinomio B no tiene ceros en el semiplano
derecho del plano s.
B(q)
y (k ) = ·e(k ) (3.55)
A(q)
157
TEMA 3: Modelos de perturbaciones
donde e es ruido blanco de varianza unidad. De acuerdo con el Teorema 3.5 la densidad
espectral de la señal y esta dada por
1 B( z )·B( z −1 )
φ (ω ) =
2·π A( z )· A( z −1 )
También se sigue de dicho Teorema 3.5 que la varianza de la señal y está dada por la
integral compleja
π π
[ ]
Ey 2 1
= ∫ φ (ω )·dω = · ∫ φ (ω )·e −iω d (e iω ) =
i −π
1 B ( z )·B( z −1 ) dz
2·π ·i ∫ A( z )· A( z −1 ) z
· (3.56)
−π
El calculo de las integrales que poseen esta forma está estrechamente ligado al test de
estabilidad de Jury que se usa para conocer si las raíces de la ecuación característica de un
sistema discreto en lazo cerrado se encuentran ubicadas dentro del círculo unidad. Así para
evaluar este tipo de integrales hay que construir la Tabla 3.1, considerando la siguiente
estructura para los polinomios A(z) y B(z):
A( z ) = a0 · z n + a1 · z n−1 + ... + an
B( z ) = b0 · z n + b1 · z n−1 + ... + bn
a00 1 b00 β0
158
Apuntes de Automática II
an bn
αn = βn =
a0 a0
(3.57)
a kk bkk
αk = k βk = k
a0 a0
Donde
Se puede demostrar que el resultado de la integral (3.56) viene dado por la expresión
1 n i
In = ·∑ bi ·β i (3.59)
a0 i =0
Donde
159
TEMA 3: Modelos de perturbaciones
160
TEMA 3
MODELOS DE PERTURBACIONES
3.1 INTRODUCCION
La existencia de perturbaciones en las entradas y/o en las salidas de un sistema,
impone limitaciones fundamentales en su comportamiento. Por ejemplo, el ruido de medida
en un sistema de seguimiento limita el ancho de banda alcanzable por el sistema en lazo
cerrado. Para mejorar el comportamiento de un sistema sometido a perturbaciones se hace
imprescindible el uso de sistemas de control. La naturaleza de las perturbaciones
determinará la calidad de la regulación de un control aplicado a un cierto proceso. Con el
objetivo de poder diseñar los controles más apropiados se hace necesario el disponer de
modelos matemáticos de las perturbaciones.
En este tema se estudian en primer lugar los modelos clásicos de las perturbaciones. A
continuación, se describen las posibles formas de reducción de los efectos de las
perturbaciones. Seguidamente, debido al carácter estocástico o aleatorio de algunas
perturbaciones, se incluye un repaso a los conceptos básicos de la teoría de procesos
estocásticos. A continuación se describe la formulación tanto discreta como continua de
modelos de procesos estocásticos. Finalmente se describe el filtrado de procesos aleatorios
de tipo estacionario y la factorización espectral.
El material que se estudia en este tema resulta fundamental para comprender el filtro de
Kalman (Tema 4) y las técnicas de control estocástico (Tema 9).
119
TEMA 3: Modelos de perturbaciones
120
Apuntes de Automática II
La rampa. Es una señal que se utiliza para representar la deriva en los errores de
medida así como a perturbaciones que de repente comienzan a desplazarse. En
la práctica estas perturbaciones se encuentran acotadas, sin embargo el uso de
una señal rampa suele ser una útil idealización.
121
TEMA 3: Modelos de perturbaciones
• Sustituir un sensor por otro que posea una respuesta más rápida.
122
Apuntes de Automática II
Perturbación
u A B y
+ +
Realimentación
local
Pr oceso
H ff = − H p−1 ·H w
123
TEMA 3: Modelos de perturbaciones
Perturbación medida
Hw
Hff
u y
+ Hp +
Pr oceso
124
Apuntes de Automática II
F ( x) = P ( x(k ) ≤ x)
F ( a ) ≤ F (b ) si a ≤ b
F ( −∞ ) = 0
F (∞ ) = 1
Se verifica que:
f ( x) ≥ 0
∫ f ( x)dx = 1
−∞
dF ( x)
f ( x) =
dx
125
TEMA 3: Modelos de perturbaciones
En el caso de que x(k) tome valores discretos xi con probabilidades pi distintas de cero,
entonces la función f(x) se puede expresar como una serie de funciones de Dirac δ por las
probabilidades correspondientes:
f ( x) = ∑ pi ·δ ( x − xi )
i
El valor medio de una variable aleatoria escalar x(k), también denominado valor
esperado o primer momento se define como:
∞
E[x(k)] = µ x = m(k ) = ∫ xf ( x)dx (3.1)
−∞
∞
[
E x (k) = Ψ =
2
] 2
x ∫x
2
f ( x)dx (3.2)
−∞
Si x no es un escalar entonces
∞
[
E x(k)·x T (k) = Ψx2 = ] ∫ x(k)·x
T
(k) f ( x)dx
−∞
Un parámetro que se utiliza en lugar del valor cuadrático medio es la raíz cuadrada
positiva del mismo, conocido por su terminología anglosajona como rms de “root-mean
squared”.
∞
[ ]
E (x(k) - µ x ) 2 = σ x2 = ∫ (x - µ x ) 2 f ( x)dx = Ψ x2 − µ x2 (3.3)
−∞
Si x no es un escalar:
∞
[ ]
E (x(k) - µ x ) ⋅ (x(k) - µ x ) T = σ x2 = ∫ (x(k) - µ x )·(x(k) - µ x ) T f ( x )dx = Ψx2 − µ x2
−∞
126
Apuntes de Automática II
Una variable aleatoria x(k) tiene una distribución gaussiana o normal si su función densidad de
probabilidad está dada por:
( x−a )2
−
1 2σ x2
f ( x) = e
b 2π
Se puede ver fácilmente que a y b se corresponden con el valor medio y la desviación estándar de la
variable aleatoria x(k)
∞
µ x = E[ x(k )] = ∫ xf ( x)dx = a
−∞
∞
σ = E[( x(k ) − a) ] = ∫ ( x − a) 2 f ( x)dx = b 2
2
x
2
−∞
x ( z −a )2
−
1
∫e
2σ x2
F ( x) = dz
σ x · 2π −∞
0.3
0.25
σx
0.3989 /0.2
0.15
0.2420 / σ x
0.1
0.05400.05
/σ x
0
0 1 2 3 4 µ5x 6 7 8 9 10
µ x + 2·σ x µ x + 2·σ x
µx − σ x µx + σ x
127
TEMA 3: Modelos de perturbaciones
F2 ( x, y ) = P[x(k ) ≤ x & y (k ) ≤ y ]
f 2 ( x, y ) ≥ 0
∂ 2 F2 ( x, y )
f 2 ( x, y ) =
∂x∂y
∞ ∞
∫∫f
− ∞− ∞
2 ( x, y )dxdy = 1
f 2 ( x, y ) = f x ( x)· f y ( y )
El valor medio de una función continua real g(x,y) de dos variables aleatorias x(k) e y(k)
es:
∞ ∞
E[g(x, y)] = ∫ ∫ g ( x, y ) f 2 ( x, y )dxdy
− ∞− ∞
128
Apuntes de Automática II
∞ ∞
[ ] ∫ ∫ (x - µ
rxy = E (x(k) - µ x )(y(k) - µ y ) = x )(y - µ y ) f 2 ( x, y )dxdy (3.4)
− ∞− ∞
[ ] [ ]
E (x(k) - µ x )(y(k) - µ y ) = E x(k)y(k) - µ x y(k) − x(k) µ y + µ x µ y = E[x(k)y(k) ] − E[x(k) ]·E[y(k)]
rxy
ρ xy = (3.5)
σ xσ y
Se verifica que
− 1 ≤ ρ xy ≤ 1
{x(t ), t ∈ T } ≡ x(t , ω )
129
TEMA 3: Modelos de perturbaciones
x(t , ω ) Realizaciones
Variables aleatorias
x(t , ω3 )
Figura 3.5: Tres realizaciones x(t, ω1), x(t, ω2) y x(t, ω3) de un mismo proceso estocástico x(t, ω). Se
detallan las variables aleatorias x(t1) y x(t2) que se obtienen cuando se fija el tiempo a t=t1 y t=t2
La probabilidad de que x(t1) tome valores en un cierto rango está dada por la función de
distribución de probabilidad, como para cualquier variable aleatoria.
F ( x1 , t1 ) = P[ x(t1 ) ≤ x1 ]
dF ( x1 , t1 )
f ( x1 , t1 ) =
dx1
∞
m(t 1 ) = E[x(t 1 )] = ∫x 1 f ( x1 , t1 )dx1 (3.6)
−∞
130
Apuntes de Automática II
∂ 2 F ( x1 , t1 ; x 2 , t 2 )
f ( x1 , t1 ; x 2 , t 2 ) =
∂x1∂x 2
Y se define como:
[ ] [
rxx (t1 , t 2 ) = E ( x (t1 ) − E[ x (t1 )])( x (t 2 ) − E[ x (t 2 )]) = E ( x (t1 ) − m (t1 ) )( x (t 2 ) − m (t 2 ) )
T T
] (3.7)
La covarianza se pueda expresar de forma equivalente mediante la expresión:
∞ ∞
rxx (t1 , t 2 ) = ∫ dx1 ∫ dx2 (x 1 - m(t1 ))(x 2 - m(t 2 )) f 2 ( x1 , t1 ; x2 , t 2 )
T
−∞ −∞
τ = t 2 − t1
Por lo tanto, las funciones de covarianza para procesos estacionarios toman la forma:
131
TEMA 3: Modelos de perturbaciones
rxx (0 ) = rx (0 ) = σ x2 (3.11)
rx (τ )
ρ x (τ ) = (3.12)
rx (0 )
rx (τ ) ≤ rx (0 )
Luego:
ρ x (τ ) ≤ 1 (3.13)
∞
1
Φ xx (ω ) =
2π
∑r
k = −∞
xx (k )e −ikω (3.14)
∞
1
Φ xy (ω ) =
2π
∑r
k = −∞
xy (k )e −ikω (3.15)
132
Apuntes de Automática II
∞
1
Φ xx (ω ) =
2π ∫r
−∞
xx (t )e −itω dt (3.16)
∞
1
Φ xy (ω ) =
2π ∫r
−∞
xy (t )e −itω dt (3.17)
π
rxx (k ) = ∫ e ikω Φ xx (ω )dω (3.18)
−π
π
rxy (k ) = ∫ e ikω Φ xy (ω )dω (3.19)
−π
∫e
itω
rxx (t ) = Φ xx (ω )dω (3.20)
−∞
∫e
itω
rxy (t ) = Φ xy (ω )dω (3.21)
−∞
Las relaciones que se acaban de definir permiten pasar del dominio temporal al
frecuencial y viceversa en el análisis de los procesos aleatorios estacionarios.
ω2
2∫ Φ xx (ω )dω (3.22)
ω1
σ2
Φ (ω ) = (3.23)
2·π
133
TEMA 3: Modelos de perturbaciones
Esto implica que la densidad espectral es constante para todas las frecuencias. Por
analogía con la situación correspondiente para la luz blanca, a tal proceso aleatorio,
generalmente un ruido, se le denomina ruido blanco.
∞
1
∫e
itω
rxx (t ) = ·σ 2 ·dω = σ 2 ·δ (τ ) (3.24)
2π −∞
∞ si τ = 0
δ (τ ) =
0 si τ ≠ 0
σ 2 τ = 0
rxx (τ ) = (3.25)
0 τ = ±1, ± 2,...
El ruido blanco juega un papel importante en la teoría de control estocástica. Todos los
procesos aleatorios que se puedan necesitar pueden ser generados mediante la
implementación de un filtro adecuado al que se le aplique en su entrada ruido blanco.
134
Apuntes de Automática II
( x−µ x )2
−
1 2σ x2
f ( x, t ) = e (3.26)
σ x · 2π
1 1
f n ( x1 , x 2 ,..., x n ) = 1/ 2
·exp − ·( x − µ ) T ·P −1 ·( x − µ ) (3.27)
(2π ) n/2
·P 2
x = ( x1 , x 2 ,..., x n )
µ = E[ x] = ( E ( x1 ),..., E ( x n )) T (3.28)
Con
135
TEMA 3: Modelos de perturbaciones
x ≡ N ( µ , P)
Otra clase de procesos aleatorios útiles, que se pueden generar haciendo pasar ruido
blanco a través de un determinado filtro, es la familia de los procesos markovianos.
Un proceso continuo x(t) se dice que es un proceso de markov de primer orden si para
todo k y t1< t2<...< tk se verifica que
Es decir, la distribución de probabilidad del proceso x(tk) depende solamente del valor
del punto inmediatamente anterior x(tk-1). Los procesos de Markov de primer orden se
pueden asociar con la siguiente ecuación diferencial:
dx
+ β 1 (t )·x = w (3.31)
dt
ϕ xx (τ ) = E[ x(t )·x(t + τ )] = σ 2 ·e − β · τ + µ 2
1
(3.32)
136
Apuntes de Automática II
Es decir, la distribución de probabilidad del proceso x(tk) depende de sólo dos puntos
inmediatamente anteriores. La ecuación diferencial asociada a este proceso es:
d 2x dx
2
+ 2·β 2 (t )· + β 22 (t ) = w (3.33)
dt dt
donde v(k) es una variable aleatoria de media cero que es independiente de x(k) y de todos
los valores pasado de x. Esto implica que v(k) también es independiente de todos los
valores pasados de v. La secuencia {v(k), k=0,1,...} es una secuencia de variables aleatorias
independientes igualmente distribuidas. Por lo tanto el proceso estocástico {v(k)} es ruido
blanco en tiempo discreto.
137
TEMA 3: Modelos de perturbaciones
r (k + τ , k ) = Fτ ·P(k ), τ ≥0 (3.37)
m(k ) = E [x(k )]
simplemente hay que tomar el valor medio en ambos lados de la ecuación (3.35)
m(k + 1) = F·m(k )
~
x = x−m
138
Apuntes de Automática II
~
x (k + 1)·~
x T (k + 1) = [ F ·~
x (k ) + v(k )]·[ F ·~
x (k ) + v(k )]T
= F ·~
x (k )·~x T (k )·F T + F ·~x (k )·v T (k ) + v(k )·~
x T (k )·F T + v(k )·v T (k )
E~[
x (k + 1)·~ ]
x T (k + 1) = F ·E ~ [
x (k )·~ ]
x T ( k ) ·F T + F ·E ~ [ ] [
x (k )·v T (k ) + E v(k )·~ ] [
x T (k ) ·F T + E v(k )·v T (k ) ]
Se obtiene
P (k + 1) = F·P(k )·F T + R1
Para calcular la función de covarianza del estado, hay que darse cuenta que:
~
x (k + 1)·~
x T ( k ) = [ F ·~
x (k ) + v(k )]·~
x T (k )
[
rxx (k + 1, k ) = cov[ x(k + 1), x(k )] = E ( x(k + 1) − m(k + 1))·( x(k ) − m(k )) T ]
=E~[ x (k + 1)·~ ] [
x T ( k ) = E [ F ·~
x (k ) + v(k )]·~
x T (k ) ]
= E [F ·~
x (k )·~
x T
(k ) + v(k )·~ ]
x T ( k ) = F · E ·~[
x (k )·~ ] [
x T (k ) + E v(k )·~
x T (k ) ]
= F ·P ( k )
rxx (k + τ , k ) = F τ ·P(k )
se debe operar de forma similar al caso rxx (k + 1, k ) pero considerando que ahora
τ −1
~
x (k + τ )·~
x T ( k ) = [ F τ ·~
x (k ) + ∑ F τ −1− j ·v(k + j )]·~
x T (k )
j =0
139
TEMA 3: Modelos de perturbaciones
y = C·x
m y = C ·m
ryy = C ·rxx ·C T
ryx = C ·rxx
♦ Ejemplo 3.2:
donde v es una secuencia de variables aleatorias no correlacionadas con valores medios nulos y
covarianzas r1. Supóngase que en el instante k0 el estado tiene un valor medio m0 y covarianza r0.
Para obtener el valor medio del estado x(k) hay que resolver la ecuación en diferencias (3.36):
m(k + 1) = a·m(k ), m( k 0 ) = m 0
m(k ) = a k − k0 ·m0
P (k + 1) = a 2 ·P(k ) + r1 P(k 0 ) = r0
140
Apuntes de Automática II
1 − a 2·(k -k 0 )
P (k ) = a 2·(k -k 0 ) ·r0 + ·r1
1− a2
rx (l , k ) = a l − k ·P(k ) l≥k
rx (l , k ) = a k −l ·P(l ) l<k
m( k ) → 0
r1
P(k ) →
1− a2
τ
r1 ·a
rx (k + τ , k ) →
1− a2
Se observa que en ese caso el proceso pasa a ser estacionario ya que m es una constante y la
función de covarianza es únicamente función de τ.
y ( k ) = x ( k ) + e( k )
donde e(k) es una secuencia de variables aleatorias no correlacionadas con media cero y covarianza
r2, entonces la función de covarianza de y es
r1
r2 + 1 − a 2 τ =0
ry (τ ) = τ
r1 ·a τ ≠0
1 − a 2
1 r1 1 r1
φ y (ω ) = ·r2 + iω = ·r2 +
2·π (e − a )·(e − a ) 2·π
− iω
1 + a − 2·a·cos ω
2
141
TEMA 3: Modelos de perturbaciones
dx
= A·x + v&
dt
donde v& es un vector cuyos elementos son procesos estocásticos de ruido blanco. Puesto
que v& tiene una varianza infinita, se acostumbra a escribir la ecuación en término de
diferenciales, es decir:
dx = A· x·dt + dv (3.39)
La señal v es la integral de v& , se supone que tiene valor medio cero, incrementos no
correlacionados entre si, ni con x, y varianza
dm(t )
= A·m(t ), m(0) = m0 (3.41)
dt
La covarianza es
dP(t )
= A·P(t ) + P(t )· AT + R1 P(0) = R0 (3.43)
dt
142
Apuntes de Automática II
Considerando que los valores constantes se pueden sacar del operador valor medio E y que además
éste conmuta con respecto al diferencial:
dE [x ] = AE [x ]dt + dE [v ]
Que es equivalente a
[ ] [ ] [ ] [ ] [
d ( E x· x T ) = E x· x T · AT ·dt + A·E x· x T ·dt + A·E x·x T · AT (dt ) 2 + E dv·dv T ]
Como por definición
[
P (t ) = E x·x T ]
y de (3.40)
[ ]
E dv·dv T = R1 ·dt
143
TEMA 3: Modelos de perturbaciones
Entonces
Dividiendo por dt
dP(t )
= P(t )· AT + A·P(t ) + R1 + A·P(t )· AT (dt )
dt
Finalmente para obtener (6.42), se considera s≥t y se integra la ecuación (3.39) se obtiene
s
x( s ) = e A( s −t ) · x(t ) + ∫ e A( s − s ) ·dv( s ' )
'
s
x( s )·x T (t ) = e A( s −t ) ·x(t )·x T (t ) + ∫ e A( s − s ) ·dv( s ' )·x T (t )
'
t
Si se aplica el operador valor medio, considerando que dv(s’) no está correlacionado con x(t) si s’≥ t,
entonces se obtiene (3.42).
♦ Ejemplo 3.3:
dx = −a· x·dt + dv
x(t 0 ) = m0
cov[ x(t 0 ), x(t 0 )] = r0
donde el proceso {v(t), t∈T} posee una covarianza incremental r1·dt. La ecuación diferencial que da la
expresión de la media es
dm
= − a·m m(t 0 ) = m0
dt
144
Apuntes de Automática II
m(t ) = m0 ·e − a ( t −t0 )
e − a ( s −t ) ·P (t ) s≥t
r ( s, t ) = cov[ x( s ), x(t )] = − a (t − s )
e ·P(t ) s≤t
dP
= −2·a·P + r1 P(t 0 ) = r0
dt
t
P (t ) = e − 2·a (t −t0 ) ·r0 + ∫ e − 2·a ( t − s ) ·r1 ·ds = e − 2·a ( t −t0 ) ·r0 +
t0
r1
2·a
[
· 1 − e − 2· a ( t − t 0 ) ]
Cuando t0→-∞, la función valor medio tiende a cero y la función covarianza tiende a
r1 − a ( t − s )
r ( s, t ) = ·e
2·a
Puesto que esta función depende de la diferencia s-t, el proceso sería estacionario y su función de
covarianza se puede escribir como:
r1 − a · τ
r (τ ) = ·e
2·a
Por otra parte, la correspondiente densidad espectral vendría dada por la aplicación de (3.16).
r1 1
φ (ω ) = · 2
2·π ω + a 2
145
TEMA 3: Modelos de perturbaciones
dx = A· x·dt + dv (3.44)
t k +1
t k +1
∫e
A ( t k +1 − s )
e(t k ) = ·dv( s )
tk
Esta variable tiene media cero puesto que v también tiene media cero. Las variables
aleatorias e(tk) y e(tl) no están correlacionados si k≠l puesto que los incrementos de v sobre
intervalos disjuntos están no correlacionados. La covarianza de e(tk) está dada por
t k +1 A ( t − s )
[ ]
E e(t k )e (t k ) = E ∫ ∫ e k +1 ·dv( s )·dv T (t )·e A ( tk +1 −t ) =
T T
tk (3.45)
t k +1
∫e
T
A ( t k +1 − s ) ( t k +1 − s )
= ·R1 ·e A ds
tk
donde {e(tk)} es una secuencia de variables aleatorias no correlacionadas con media cero y
covarianza (3.45).
146
Apuntes de Automática II
u y
H(z)
m y (k ) = H (1)·mu (k ) (3.46)
y densidad espectral
Además la densidad espectral cruzada entre la entrada y la salida está dada por la
expresión
φ yu (ω ) = H (e i ·ω )·φu (ω ) (3.48)
k ∞
y (k ) = ∑ h(k − n)·u(n) = ∑ h(n)·u(k − n)
n = −∞ n =0
147
TEMA 3: Modelos de perturbaciones
∞
m y (k ) = E [ y (k )] = E ∑ h(n)·u (k − n) =
n =0
∞ ∞
= ∑ h(n)·E [u (k − n)] = ∑ h(n)·mu (k − n)
n =0 n =0
Se observa que el valor medio de la salida se obtiene filtrando el valor medio de la entrada.
∞
y (k ) − m y (k ) = ∑ h(n)·[u (k − n) − mu (k − n)]
n =0
Luego la diferencia entre la señal de salida y su valor medio se propaga a través del sistema de la
misma forma que la señal de entrada. Con vistas a simplificar la escritura de las ecuaciones se va a
suponer que los valores medios son cero. Además se supondrá que todas las series infinitas existen
y que las operaciones de suma infinita y valor esperado son conmutativas. Así, la definición de
covarianza da
[
ry (τ ) = E y (k + τ )· y T (k ) = ]
∞ ∞
T
[ ]
∞ ∞
= ∑∑ h(n)·E u (k + τ − n)·u T (k − l ) ·h T (l ) =
n =0 l =0
∞ ∞
= ∑∑ h(n)·ru (τ + l − n)·h T (l )
n =0 l =0
∞
[ ]
ryu (τ ) = E y (k + τ )·u T (k ) = E ∑ h(n)·[u (k + τ − n)]·u T (k ) =
n =0
∞
1
φ y (ω ) = φ yy (ω ) =
2π
∑e
n = −∞
−i · n ·ω
·ry (n)
148
Apuntes de Automática II
− i ·( n + k − k + l −l )·ω
∞ ∞ ∞
1
φ y (ω ) =
2π
∑
n = −∞
e · ∑∑
k =0 l =0
h(k )·ru (n + l − k )·h T (l ) =
∞ ∞ ∞
1
=
2π
∑ ∑∑ e
n = −∞ k = 0 l = 0
−i · k ·ω
·h(k )·e −i ·( n +l − k )·ω ·ru (n + l − k )·e −i ·l ·ω ·h T (l )
∞ ∞ ∞
1
=
2π
∑e
k =0
−i · k ·ω
·h(k ) ∑ e −i ·( n +l − k )·ω ·ru (n + l − k )∑ e i ·l ·ω ·h T (l )
n = −∞ l =0
∞ ∞ ∞
1
φ y (ω ) =
2π
∑ e −i·k ·ω ·h(k ) ∑ e −i· p·ω ·ru ( p)∑ e i·l ·ω ·h T (l )
k =0 p = −∞ l =0
Introduciendo la función de transferencia pulso H(z) del sistema, que se relaciona con la respuesta a
un impulso {h(k), k=0,1,...} mediante la expresión:
∞
H ( z ) = ∑ z − n ·h( n) (3.49)
n =0
∞
H ( eiω ) = ∑ e − n·i ·ω ·h( n)
n =0
∞ ∞ ∞ ∞
1 1
φ yu (ω ) =
2π
∑ e −i·n·ω ∑ h(k )·ru (n − k ) =
n = −∞ k =0 2π
∑ e −i·k ·ω h(k ) ∑ e −i·n·ω ·ru (n) = H (e i·ω )·φu (ω )
k =0 n = −∞
El resultado indicado en este teorema tiene una sencilla interpretación física. El número
149
TEMA 3: Modelos de perturbaciones
Por otra parte, la ecuación (3.48) indica que la densidad espectral cruzada es igual a la
función de transferencia del sistema si la entrada es ruido blanco con densidad espectral
unidad. Este resultado puede ser utilizado para determinar la función de transferencia pulso
del sistema.
♦ Ejemplo 3.4:
Considere el proceso {x(k)} del Ejemplo 3.2. Este proceso puede ser generado haciendo pasar ruido
blanco a través de un filtro función de transferencia pulso:
1
H ( z) =
z−a
r1
φ v (ω ) =
2·π
r1 1 r1
φ x (ω ) = H (e iω )·φu (ω )·H T (e −iω ) = · iω =
(
2·π (e − a )·(e − a ) 2·π · 1 + a − 2·a·cos ω
− iω 2
)
Por otra parte, el proceso
y ( k ) = x ( k ) + e( k )
1 r1
φ y (ω ) = ·r2 +
2·π 1 + a − 2·a·cos ω
2
150
Apuntes de Automática II
t ∞
y (t ) = ∫ g (t − s)·u (s)ds = ∫ g (s)·u (t − s)ds
−∞ 0
(3.50)
m y = G (0)·mu (3.51)
y densidad espectral
Ejemplo 3.5:
Considérese el sistema del Ejemplo 3.3. El proceso x se puede considerar como el resultado de filtrar
ruido blanco con varianza r1/(2·π) a través de un sistema con función de transferencia
1
G(s) =
s+a
r1 1 1 r 1
φ (ω ) = · · = 1 · 2
2·π iω + a − iω + a 2·π ω + a 2
151
TEMA 3: Modelos de perturbaciones
1
φu (ω ) =
2·π
Además como
z = e iω
1
φ y (ω ) = ·H ( z )·H T ( z −1 ) = F ( z )
2·π
zi ·z j = 1
pi · p j = 1
Los pasos para encontrar una función H que corresponda a una determinada densidad
espectral racional φy son:
H ( z) = K ·
∏ ( z − z ) = B( z )
i
∏ ( z − p ) A( z )
i
152
Apuntes de Automática II
Puesto que el proceso estocástico se ha supuesto estacionario los polos pi y los ceros zi
verificarán las siguientes condiciones:
zi ≤ 1
pi < 1
Teorema 3.5: Teorema de factorización espectral. Dada una densidad espectral φ(ω),
que sea una función racional en cos ω , existe un sistema lineal con función de transferencia
pulso
B( z )
H ( z) = (3.54)
A( z )
tal que la salida que se obtiene, cuando la entrada del sistema es ruido blanco, es un
proceso aleatorio estacionario con densidad espectral φ. El polinomio A(z) tiene todos sus
ceros dentro del círculo unidad. El polinomio B tiene todos sus ceros dentro del disco unidad
o sobre el circulo unidad.
Por tanto es suficiente con estudiar como se comportan los sistemas cuando son
excitados por ruido blanco. Todos los otros procesos estacionarios con densidad espectral
racional pueden ser generados mediante el filtrado adecuado del ruido blanco.
A menudo se supone que el polinomio B(z) posee todos sus ceros dentro del circulo
unidad. Esto significa que la inversa del sistema H es estable.
♦ Ejemplo 3.6:
Considérese el proceso {y(k)} de los Ejemplos 3.2 y 3.4. Este proceso tiene la siguiente densidad
espectral
1 r1 1 r1 + r2 (1 + a 2 ) − r2 ·a·( z + z −1 )
φ y (ω ) = F ( z ) = r2 + =
2·π ( z − a )·( z −1 − a ) 2·π ( z − a )·( z −1 − a )
153
TEMA 3: Modelos de perturbaciones
r + r (1 + a 2 ) − r2 ·a·( z + z −1 )
2·π ·F ( z ) = 1 2
( z − a )·( z −1 − a )
B ( z )·B( z −1 ) = λ2 ·( z − b)·( z −1 − b)
z 0 : λ2 ·(1 + b 2 ) = r1 + r2 ·(1 + a 2 )
z 1 : λ2 ·b = r2 ·a
r2 ·a
λ2 =
b
p = r1 + r2 ·(1 + a 2 )
Es posible escribir la primera ecuación como una ecuación algebraica de segundo orden para b
r2 ·a·b 2 − b· p + r2 ·a = 0
Esta ecuación tiene la siguiente solución válida, es decir, dentro del círculo unidad:
154
Apuntes de Automática II
p+ p 2 − 4·(r2 ·a) 2
b=
2·a·r2
Con lo que
2·(r2 ·a) 2
λ =
2
p+ p 2 − 4·(r2 ·a) 2
Luego
λ ·( z − b)
H ( z) =
z−a
♦ Ejemplo 3.7:
Se desea calcular el filtro H(z) que genera una señal estocástica con densidad espectral
1 0.3125 + 0.125·( z + z −1 )
F ( z) = −2
2·π 2.25 − 1.5·( z + z ) + 0.5·( z + z )
−1 2
B( z )·B( z −1 ) λ2 ·( z − b)·( z −1 − b)
2·π ·F ( z ) = =
A( z )· A( z −1 ) ( z − a1 )·( z −1 − a1 )·( z − a 2 )·( z −1 − a 2 )
Luego
B( z ) λ ·( z − b)
H ( z) = =
A( z ) ( z − a1 )·( z − a 2 )
p1 = 1 + a12
p 2 = 1 + a 22
155
TEMA 3: Modelos de perturbaciones
B( z )·B( z −1 )
=
[
λ2 · (1 + b 2 ) − b·( z + z −1 ) ]
A( z )· A( z −1 ) ( p1 · p 2 + 2·a1 ·a 2 ) − (a1 · p 2 + a 2 · p1 )·( z + z −1 ) + a1 ·a 2 ·( z 2 + z − 2 )
λ2 ·(1 + b 2 ) = 0.3125
− λ2 ·b = 0.125
b 2 + 2.5·b + 1 = 0
Cuya única solución dentro del círculo unidad es: b=-0.5. Con lo que λ=0.25.
p1 · p 2 + 2·a1 ·a 2 = 2.25
a1 · p 2 + a 2 · p1 = 1.5
a1 ·a 2 = 0.5
Luego
0.5
a1 =
a2
1.25
p1 =
p2
Por tanto
156
Apuntes de Automática II
Teorema 3.6: Factorización espectral. Dada una densidad espectral racional φ(ω), existe
un sistema lineal de dimensión finita con función de transferencia
B( s)
G ( s) =
A( s )
tal que la salida que se obtiene, cuando la entrada del sistema es ruido blanco, es un
proceso estocástico estacionario con densidad espectral φ. El polinomio A tiene todos sus
ceros en el semiplano izquierdo del plano s. El polinomio B no tiene ceros en el semiplano
derecho del plano s.
B(q)
y (k ) = ·e(k ) (3.55)
A(q)
157
TEMA 3: Modelos de perturbaciones
donde e es ruido blanco de varianza unidad. De acuerdo con el Teorema 3.5 la densidad
espectral de la señal y esta dada por
1 B( z )·B( z −1 )
φ (ω ) =
2·π A( z )· A( z −1 )
También se sigue de dicho Teorema 3.5 que la varianza de la señal y está dada por la
integral compleja
π π
[ ]
Ey 2 1
= ∫ φ (ω )·dω = · ∫ φ (ω )·e −iω d (e iω ) =
i −π
1 B ( z )·B( z −1 ) dz
2·π ·i ∫ A( z )· A( z −1 ) z
· (3.56)
−π
El calculo de las integrales que poseen esta forma está estrechamente ligado al test de
estabilidad de Jury que se usa para conocer si las raíces de la ecuación característica de un
sistema discreto en lazo cerrado se encuentran ubicadas dentro del círculo unidad. Así para
evaluar este tipo de integrales hay que construir la Tabla 3.1, considerando la siguiente
estructura para los polinomios A(z) y B(z):
A( z ) = a0 · z n + a1 · z n−1 + ... + an
B( z ) = b0 · z n + b1 · z n−1 + ... + bn
a00 1 b00 β0
158
Apuntes de Automática II
an bn
αn = βn =
a0 a0
(3.57)
a kk bkk
αk = k βk = k
a0 a0
Donde
Se puede demostrar que el resultado de la integral (3.56) viene dado por la expresión
1 n i
In = ·∑ bi ·β i (3.59)
a0 i =0
Donde
159
TEMA 3: Modelos de perturbaciones
160
TEMA 4
ESTIMACION OPTIMA
4.1 INTRODUCCION
En las secciones 1.7.2 y 2.8.2 se describió el diseño de observadores o estimadores de
estado considerando que se disponía de un modelo matemático exacto del sistema y
despreciando la posible existencia de ruido de medida. A los observadores obtenidos bajo
estas hipótesis se les denomina observadores deterministas. Desafortunadamente, los
modelos matemáticos de un proceso real no suelen ser exactos y además suele existir ruido
de medida. Existe una familia de observadores que de forma explícita tienen en cuenta
estas circunstancias son los denominados observadores estocásticos. El más utilizado de
esta tipo de observadores es el filtro de Kalman que fue introducido por R. Kalman en 1960.
Este tema está dedicado exclusivamente a la formulación de las ecuaciones del filtro de
Kalman discreto. Se deja para el Tema-7 la demostración de las ecuaciones del filtro en
estado estacionario. Asimismo se deja para el Tema-9 la aplicación del filtro de Kalman en el
diseño de controladores LQG.
x k +1 = Φ· x k + Γ·u k + v k
(4.1)
y k = C · x k + ek
161
TEMA 4: Estimación óptima
donde v y e son procesos de ruido blanco Gaussiano discreto, de media nula y con
covarianza
E[v k ·v kT ] = R1
(4.2)
E[ek ·ekT ] = R2
Por otra parte se supone que el estado inicial x(0) del proceso es una variable aleatoria
Gaussiana de media
E[ x(0)] = m0 (4.4)
y covarianza
Supóngase que se desea aproximar el estado xk+1 de (4.1) por el estado xˆ k +1 del
modelo
xˆ (k + 1 | k ) = Φ· xˆ (k | k ) + Γ·u k (4.7)
162
Apuntes de Automática II
donde xˆ (k + 1 | k ) denota al estado estimado para el instante k+1 usando las medidas hasta
Supóngase que una vez realizada la medida yk+1 es posible mejorar la estima del vector
de estados para dicho instante k+1. Considérese que dicha estima xˆ (k + 1 | k + 1) tiene la
estructura característica de un observador de estados:
Por otra parte el error de reconstrucción o de estimación del estado en el instante k+1
usando las medidas obtenidas hasta el instante k es:
~
x (k + 1 | k ) = x k +1 − xˆ (k + 1 | k ) (4.10)
Como E[x(0)]=m0, el valor medio del error de reconstrucción es cero para todos los
instantes k≥0 independientemente de Ke si E[ xˆ (0)] = m0 . Luego su varianza es:
P (k + 1 | k ) ≡ cov[ ~
x (k + 1 | k )] = E[ ~
x (k + 1 | k )·~
x T (k + 1 | k )] (4.11)
De forma análoga el error de reconstrucción del estado en el instante k+1 usando las
medidas obtenidas hasta el instante k+1 es
163
TEMA 4: Estimación óptima
~
x (k + 1 | k + 1) = x k +1 − xˆ (k + 1 | k + 1) (4.12)
y su varianza
P (k + 1 | k + 1) ≡ cov[ ~
x (k + 1 | k + 1)] = E[ ~
x (k + 1 | k + 1)·~
x T (k + 1 | k + 1)] (4.13)
actualización de forma que se minimice la varianza del error de estimación. Dado un instante
inicial xˆ (0) = xˆ (0 | 0) de covarianza P(0)=P(0|0), las cinco ecuaciones recursivas que
resuelven este problema se denominan filtro de Kalman (ver Cuadro 4.1).
(
K ke+1 = P(k + 1 | k )·C T · R2 + C ·P(k + 1 | k )·C T )−1
(4.16)
a) Obtención de (4.15)
Teniendo en cuenta que (4.1) y (4.7) es posible expresar (4.10) de la siguiente forma:
164
Apuntes de Automática II
P (k + 1 | k ) = E[(Φ·~
x (k | k ) + v k )·(Φ·~x (k | k ) + v k ) T ]
= E[(Φ·~
x (k | k ) + v )·( ~
k x T (k | k )Φ T + v T )] k
= E[Φ·~
x (k | k )·~
x T (k | k )·Φ T ] + E[Φ·~
x (k | k )·v kT ] + E[v k ·~
x T (k | k )·Φ T ] + E[v k ·v kT ]
P(k | k ) = E[ ~
x (k | k )·~
x (k | k ) T ] la ecuación anterior toma la forma de la ecuación (4.15)
P (k + 1 | k ) = Φ·P(k | k )·Φ T + R1
[ ]
x (k + 1 | k + 1) = x k +1 − xˆ (k + 1 | k ) + K ke+1 ·[ y k +1 − C ·xˆ (k + 1 | k )]
~
Considerando la definición del error de reconstrucción la ecuación anterior se puede expresar como
~ x (k + 1 | k ) − K ke+1 ·[C ·~
x (k + 1 | k + 1) = ~ x (k + 1 | k ) + ek +1 ]
Desarrollando el producto
~
x (k + 1 | k + 1) = ~
x (k + 1 | k ) − K ke+1 ·C ·~
x (k + 1 | k ) − K ke+1 ·ek +1
~
x (k + 1 | k + 1) = [ I − K ke+1 ·C ]·~
x (k + 1 | k ) − K ke+1 ·ek +1 (d.2)
~
x (k + 1 | k + 1) = [ I − K ke+1 ·C ]·Φ·~
x (k | k ) + [ I − K ke+1 ·C ]·v k − K ke+1 ·ek +1
E [~
x (k + 1 | k + 1)] = [ I − K ke+1 ·C ]·Φ·E [~
x (k | k )] + [ I − K ke+1 ·C ]·E [v k ] − K ke+1 ·E [ek +1 ]
165
TEMA 4: Estimación óptima
E [~
x (k + 1 | k + 1)] = [ I − K ke+1 ·C ]·Φ·E [~
x (k | k )] (d.3)
E [~
x (k + 1 | k )] = Φ·E [~
x (k | k )] (d.4)
Luego si el valor medio de la estima inicial E[xˆ (0)] coincide con el valor medio del estado inicial
E[ x(0)] = m0 entonces de las ecuaciones (d.3) y (d.4) se deduce que el valor medio del error de
e
reconstrucción es cero para todo k≥0 independientemente del valor de la ganancia K ya que
E[ ~
x (0)] = 0 .
[(
P (k + 1 | k + 1) = E [ I − K ke+1 ·C ]·~ )(
x (k + 1 | k ) − K ke+1 ·ek +1 · [ I − K ke+1 ·C ]·~
x (k + 1 | k ) − K ke+1 ·ek +1 )
T
]=
[(
= E [ I − K e ·C ]·~
k +1 x (k + 1 | k ) − K e ·e · ~ k +1 )(
x T (k + 1 | k )·[ I − K e ·C ]T − e T · K e
k +1 k +1
T
=
k +1 ( k +1 ) )]
[
= E [ I − K ke+1 ·C ]·~
x (k + 1 | k )·~ ] [
x T (k + 1 | k )·[ I − K ke+1 ·C ]T ] − E [ I − K ke+1 ·C ]·~
T
x (k + 1 | k )·ekT+1 · K ke+1 ] + ( ) ]
[
− E K ke+1 ·ek +1 ·~ ] [
x T (k + 1 | k )·[ I − K ke+1 ·C ]T + E K ke+1 ·ek +1 ·ekT+1 · K ke+1
T
( ) ]
Teniendo en cuenta la independencia de ~
x (k + 1 | k ) y ek+1:
[
P(k + 1 | k + 1) = E [ I − K ke+1 ·C ]·~
x (k + 1 | k )·~ ] [
x T (k + 1 | k )·[ I − K ke+1 ·C ]T + E K ke+1 ·ek +1 ·ekT+1 · K ke+1 ( )T
]=
= [ I − K ke+1 ·C ]·E ~ [
x (k + 1 | k )·~ ] [
x T (k + 1 | k ) ·[ I − K ke+1 ·C ]T + K ke+1 ·E ek +1 ·ekT+1 · K ke+1 ]( )
T
Esta ecuación (d.4) junto con la (4.15) son unas ecuaciones recursivas que con la condición inicial
P(0)=R0, permiten conocer la evolución de la covarianza del error de estimación sin necesidad de ver
evolucionar el sistema, ya que estas ecuaciones dependen de Φ, Γ, C, R0, R1, R2 y las ganancias Ke.
Además de estas ecuaciones se deduce que si P(k|k) es semidefinida positiva, también lo son
P(k+1|k) y P(k+1|k+1).
166
Apuntes de Automática II
Por otra parte, se va a suponer que el criterio para determinar Ke es que se minimice la covarianza
del error de estimación una vez que se ha obtenido la medida asociada a dicho estado, o de forma
equivalente, que se minimice el escalar:
α ·P(k + 1 | k + 1)·α T
donde α es un vector arbitrario. Se ha elegido minimizar P(k+1|k+1) en lugar de P(k+1|k) porque esta
última no depende de Ke y además la mejor estima que se puede obtener es la asociada a la propia
medida en k+1. Para abreviar las expresiones se va a usar la siguiente notación P=P(k+1|k)
{ }
α ·P(k + 1 | k + 1)·α T = α · [ I − K ke+1 ·C ]·P·[ I − K ke+1 ·C ]T + K ke+1 ·R2 ·(K ke+1 ) ·α T
T
e
La ganancia K k +1 puede determinarse de la ecuación anterior completando los cuadrados. Se tiene
así:
que se puede comprobar operando que es igual a la ecuación anterior. Ahora la ecuación está
e
descompuesta en dos términos. El primero no depende de K k +1 y el segundo es no negativo, ya que
la matriz (R2+C·P·CT) es definida positiva. Por ello el mínimo se obtiene si K se elige de modo que la
segunda parte o término de la ecuación es nulo. Entonces, y usando la notación original se tiene que
(
K ke+1 = P(k + 1 | k )·C T · R2 + C ·P(k + 1 | k )·C T )−1
Con lo que
P (k + 1 | k + 1) = P (k + 1 | k ) − K ke+1 ·C ·P(k + 1 | k )
167
TEMA 4: Estimación óptima
La importancia del filtro de Kalman reside en que a partir de unas medidas y0, y1,..., yk+1
se puede determinar el vector de estados con una precisión o varianza del error dada por la
matriz P. Es lo mejor que se puede pedir para un proceso estocástico.
(
K e = P·C T · R2 + C ·P·C T )
−1
(4.20)
♦ Ejemplo 4.1:
x k +1 = x k
y k = x k + ek
donde ek tiene una desviación estándar σ y x(0) tiene valor medio m0=-2 y varianza R0=0.5. Se tiene
por tanto un estado que es constante y se desea reconstruirlo a partir de unas medidas que están
afectadas de ruido.
En este ejemplo Φ=1, Γ=0 y C=1. Además como no existe ruido sobre los estados R1=0. De acuerdo
con el Cuadro 7.1 el filtro de Kalman viene dado por:
xˆ (k + 1 | k ) = xˆ (k | k ) = xˆ (k )
P (k + 1 | k ) = P (k | k ) = P (k )
P(k )
K ke+1 =
σ + P(k )
2
xˆ (k + 1) = xˆ (k ) = xˆ (k ) + K ke+1 ·[ y k +1 − xˆ (k )]
168
Apuntes de Automática II
σ 2 ·P ( k )
P (k + 1 | k + 1) = P(k + 1) = ·
σ 2 + P(k )
e
La varianza P(k+1) y la ganancia K k +1 disminuyen con el tiempo. La Figura 4.1 muestra unas
e
realizaciones del error de estimación cuando se usan ganancias K con un valor constante y cuando
se emplea la ganancia óptima dada por el filtro de Kalman. Se observa que una gran ganancia fija da
una disminución del error muy rápida, sin embargo la varianza en el estado estacionario es grande.
Por el contrario una ganancia fija de valor pequeño da una disminución lenta del error pero un mejor
comportamiento de la varianza en el estado estacionario. Se observa también que el mejor
comportamiento se obtiene con la ganancia óptima que proporciona el filtro de Kalman.
Figura 4.1. Error de estimación del sistema del ejemplo 4.1 cuando x0=-2, σ=1 y cuando se tiene: a)
P2
P = P − 2
σ + P
169
TEMA 4: Estimación óptima
P
Ke =
σ +P
2
Por lo tanto, puesto que la covarianza del error de estimación en el estado estacionario es nula es
posible llegar a conocer con precisión el estado.
♦ Ejemplo 4.2:
y k + a· y k +1 = ek + c·ek −1
donde e tiene desviación estándar σ. Además supóngase que |c|<1. Una posible representación en el
espacio de estados de este sistema es:
x k +1 = − a·x k + ek
y k = (c − a )·x k + ek
Es fácil verificar que el filtro de Kalman en el estado estacionario está caracterizado por P=0 y K=1.
El estado predecido en el instante k+1 considerando las medidas realizadas hasta ese instante
estaría dado por:
170
TEMA 5
IDENTIFICACION DE SISTEMAS
5.1 INTRODUCCION
La obtención de modelos matemáticos de sistemas dinámicos tiene una gran
importancia en muchas áreas de la ciencia y de la ingeniería. Existen dos métodos
fundamentales de obtención de estos modelos:
Ambas formas de modelización no se deben ver como separadas. En muchos casos los
procesos son tan complejos que no es posible obtener un modelo usando únicamente
principios físicos. En tal caso se requiere el uso de técnicas de identificación. No obstante
para la elección de estas técnicas es importante todo el conocimiento físico previo que se
tenga de la planta. También puede ocurrir que se obtenga un modelo a partir del análisis
físico de la planta pero existan parámetros que no se conozcan y que puedan ser estimados
mediante identificación. La diferencia fundamental entre ambos métodos viene dada por las
siguientes características de los métodos de identificación:
171
TEMA 5: Identificación de sistemas
Generación de señales
Medida y registro de los datos
Determinación de
Modelo del proceso
la estructura del modelo
Modelo Final
172
Apuntes de Automática II
Tabla 5.1: Relación entre el objetivo final del modelo y las especificaciones.
Para realizar el diseño de los experimentos y una vez elegido el tipo de modelo que se
va a utilizar hay que intentar responder a las siguientes preguntas: ¿Bajo que condiciones se
consigue el mejor comportamiento del algoritmo de estimación que se va a usar?. ¿Como
funciona el algoritmo de identificación en las condiciones en que se va a ver obligado a
funcionar?. En algunos casos será necesario realizar experimentos separados de las
condiciones de operación, sometiendo al sistema a un conjunto muy rico de información de
173
TEMA 5: Identificación de sistemas
entrada para conseguir las mejores prestaciones del algoritmo. En otros casos la
identificación se tendrá que realizar mientras el sistema está siendo controlado.
Además de seleccionar la estructura del modelo entre las elecciones que se deben
realizar se incluyen la selección y determinación de:
• Periodo de muestreo.
• Retardo.
En los métodos no paramétricos el modelo se describe por una curva, función o tabla
que no necesitan necesariamente ser parametrizadas por un vector de parámetros de
dimensión finita. Las técnicas de identificación no paramétrica más usuales son:
174
Apuntes de Automática II
Para las dos primeras técnicas anteriores también se suelen utilizar modelos
paramétricos. Mientras que para las dos restantes sólo se suelen considerar modelos no
paramétricos.
Por último el modelo identificado debe ser verificado y validado. Para ello se comparan
los datos generados por el sistema con los que genera el modelo. El problema reside en
encontrar el modelo que con la menor complejidad resulta adecuado para el uso final a que
se dedica. Para este fin es necesario escoger un criterio, o un conjunto de criterios, que
permitan decidir que modelo de la clase de modelos elegido es el que mejor ajusta los datos
registrados en los experimentos. Como se indica en la Figura 5.1, en general el proceso de
identificación es iterativo: dependiendo del resultado de la validación se puede cambiar la
estructura del modelo y se repite todo el proceso.
175
TEMA 5: Identificación de sistemas
y (t ) = θ T0 ·φ (t ) = φ T (t )·θ 0 (5.2)
y φ (t ) es el vector de regresión
− y (t − 1)
.
− y (t − n)
φ (t ) =
u (t − 1)
.
u (t − n)
secuencia en la señal de salida {y (1) y (2) ... y (t )}. Se pueden formar entonces pares de
observaciones y de vectores de regresión
176
Apuntes de Automática II
Problema: Determinar una estima θ del vector de parámetros del proceso θ0 de tal forma
que las salidas del proceso estimadas por el siguiente modelo:
)
y (t ) = φ T (t )·θ (5.4)
se ajusten lo mejor posible a las salidas medidas experimentalmente para el sistema real
(5.2).
De acuerdo con (5.3) se tienen t medidas, con lo que es posible estimar t salidas:
)
i =1 y (1) = φ T (1)·θ
i=2 yˆ (2) = φ T (2)·θ
.
.
)
i=t y (t ) = φ T (t )·θ
)
Y = Φ·θ
o equivalentemente como:
)
a1
·
)
y (1) − y (0) . . 0 u (0) . . 0 ·
. )
= · · · · · · · · a n
· )
. · · · · · · · · b1
)
y (t ) − y (t − 1) · · − y (t − n) u (t − 1) · · u (t − n) ·
·
)
bn
)
Se observa que: Y es un vector de dimensión t x 1, Φ es una matriz de dimensión t x
2·n y es un vector de dimensión 2·n x 1.
177
TEMA 5: Identificación de sistemas
Los errores o residuos entre los valores medidos en el sistema real y los estimados por
el modelo están dados por las ecuaciones:
)
ε (i ) = y (i ) − y (i ) = y (i ) − φ T (i )·θ
Al igual que para las medidas y los vectores de regresión, los errores se agrupan en un
vector:
ε (1)
. )
E= = Y − Y = Y − Φ·θ
.
ε (t )
donde E es un vector error de dimensión t x 1. A los errores ε(.) se les denomina residuos.
1 t 1 1
V (θ , t ) = ·∑ ε (i ) 2 = E T E = E
2
2
2 i =1 2 2
V (θˆ) = min (V (θ ))
178
Apuntes de Automática II
)
(Φ T ·Φ )·θ = Φ T ·Y (5.5)
)
θ = (Φ T ·Φ ) −1 ·Φ T ·Y (5.6)
Es decir, se requiere que (ΦT·Φ) sea invertible para ello debe poseer rango completo.
−1
) t t t
θ(t ) = ∑ φ (i )φ (i ) ∑ φ (i ) y (i ) = P (t ) ∑ φ (i ) y (i )
T
(5.7)
i =1 i =1 i =1
y (t ) = φ T (t )·θ 0 + e(t )
Supuesto que e(t) es una variable estocástica de media nula y varianza σ 2 entonces la
estima θ̂ de θ 0 verifica:
covarianza = σ 2 Φ T ·Φ( ) −1
= σ 2 ·P
Se supone que el proceso a identificar es una constante más un ruido aleatorio e(t) de varianza σ2:
y (t ) = b0 + e(t ) (e1)
179
TEMA 5: Identificación de sistemas
yˆ (t ) = b (e2)
)
i =1 y (1) = 1·b
i=2 yˆ (2) = 1·b
.
.
)
i=t y (t ) = 1·b
Luego
1 1
1 1
Ŷ = · ·b ⇒ Φ = · θ = b
· ·
1 1
tx1
Además
t t
∑ φ (i)φ T (i) = ∑1 = t
i =1 i =1
t t
) 1 t 1 t 1 t
θ(t ) = b = ∑ y (i ) = ∑ [b0 + e(i )] = b0 + ∑ [e(i )] (e3)
t i =1 t i =1 t i =1
Si t→∞
)
θ(t ) = b = b0 + E[ e(t )]
Se observa que la estima esta polarizada por el valor medio del ruido. Por tanto, el valor estimado
tiende al valor real b0 si el ruido sobre la medida es de media nula.
180
Apuntes de Automática II
2
1 t 1 t
var b = Eb − ( Eb) = b + 2b 0 E ∑ e(i ) + E ∑ e(i ) − b 02
2 2 2
0
t i =1 t i =1
1 1 t
1
= ∑ Ee(i ) 2 = σ 2
t t i =1 t
donde e(t) es ruido aleatorio de varianza σ2y u(t) es una entrada aleatoria de varianza λ2 y media
nula.
yˆ (t ) = − ay (t − 1) + bu (t − 1) (e5)
En este caso:
a
φ T (t ) = [− y (t − 1) u (t − 1)], θ =
b
Para construir la ecuación normal (5.5) hay que hacer las siguientes multiplicaciones de matrices
− y (1 − 1) u (1 − 1)
· ·
− y (1 − 1) · − y (i − 1) · − y (t − 1)
Φ ·Φ = · − y (i − 1) u (i − 1)
T
u (1 − 1) · u (i − 1) · u (t − 1)
· ·
− y (t − 1) u (t − 1) tx1
y (1)
·
− y (1 − 1) · − y (i − 1) · − y (t − 1)
Φ T ·Y = · y (i )
u (1 − 1) · u (i − 1) · u (t − 1)
·
y (t )
tx1
181
TEMA 5: Identificación de sistemas
t t
∑ y 2
(i − 1) − ∑ y (i − 1)·u (i − 1)
Φ T ·Φ = t i =1 i =1
t ·
− y (i − 1)·u (i − 1)
∑ ∑ u (i − 1)
2
i =1 i =1
t
− ∑ y (i )· y (i − 1)
Φ T ·Y = ti =1 ·
y (i )·u (i − 1)
∑
i =1
t t
t
∑ y 2
(i − 1) − ∑ y (i − 1)·u (i − 1) a − ∑ y (i )· y (i − 1)
t i =1 i =1
t · = ti =1
− y (i − 1)·u (i − 1) b
y (i )·u (i − 1)
∑ ∑ ∑
u (i − 1)
2
i =1 i =1
i =1
1 t 2 1 t
·∑ x (i − 1) ≈ ·∑ x 2 (i )
t i =1 t i =1
1 t 2 1 t 1 t
t ·∑ y (i ) − ·∑
t i =1
y (i )·u (i ) a − ·∑ y (i)· y (i − 1)
t i =1
i =1
t t · = t
1
− · y (i)·u (i) 1 1
b · y (i )·u (i − 1)
t ∑ ∑ t ∑
2
· u (i )
i =1 t i =1 i =1
t t t t
− ∑ u 2 (i − 1) · ∑ y (i )· y (i − 1) + ∑ y (i − 1)·u(i − 1) · ∑ y (i )·u(i − 1)
a = i =1 i =1 i =1 i =1
2
t
t
t
∑ y 2 (i − 1) · ∑ u 2 (i − 1) − ∑ y (i − 1)·u(i − 1)
i =1 i =1 i =1
t t t t
− ∑ y (i − 1)·u(i − 1) · ∑ y (i )· y (i − 1) + ∑ y 2 (i − 1) · ∑ y (i )·u(i − 1)
b = i =1 i =1 i =1 i =1
2
t
t
t
∑ y 2 (i − 1) · ∑ u 2 (i − 1) − ∑ y (i − 1)·u(i − 1)
i =1 i =1 i =1
182
Apuntes de Automática II
Hay que calcular los valores esperados de diferentes magnitudes. Como la entrada u y el ruido e son
independientes se cumple:
E[e(i ) 2 ] = σ 2
E[u (i ) 2 ] = λ 2
Además como el valor el valor pasado de la salida y es independiente del valor actual de e o de u, se
cumple:
E[ y (t − 1)·u (t )] = 0
E[ y (t − 1)·e(t )] = 0
2
En tercer lugar se va a calcular E[ y (t ) ]
183
TEMA 5: Identificación de sistemas
E[ y (t ) 2 ] = a 02 ·E[ y 2 (t − 1)] − 2·a 0 ·c0 ·E[e(t − 1)· y (t − 1)] + b02 ·E[u 2 (t − 1)] +
(e.7)
+ E[e 2 (t )] + c02 ·E[e 2 (t − 1)]
Se observa que para poder obtener E[ y (t ) ] se requiere calcular E[e(t − 1)· y (t − 1)] :
2
E[ y (t − 1) 2 ] ≈ E[ y (t ) 2 ]
E[u (t − 1) 2 ] ≈ E[u (t ) 2 ] = λ 2
E[e(t − 1) 2 ] ≈ E[e(t ) 2 ] = σ 2
2
Luego, despejando E[ y (t ) ] se obtiene:
b02 λ2 + (1 + c02 − 2a 0 c0 )σ 2
E[ y 2 (t )] =
1 − a02
184
Apuntes de Automática II
− c0 (1 − a 02 )σ 2
a = a0 + 2 2
b0 λ + (1 + c02 − 2a 0 c0 )σ 2 (e8)
b = b0
Si el sistema no tiene ruido correlacionado (c0=0) la estima de los parámetros coincide con el valor
real. Sin embargo, si el ruido está correlacionado no se puede estimar bien el parámetro a0, se dice
que la estima está polarizada. En este caso no importa cuantas medidas se tomen ya que siempre se
obtendrá una medida polarizada.
Por otro parte, si la relación señal- ruido (λ2/σ2) aumenta, disminuye la polarización en la estima a.
c 0 (1 − a 0 )
2
=a ,
a = a 0 − lim
λ2 λ 2 0
b0 2 + (1 + c 0 − 2a 0 c 0 )
→∞ 2 2
σ2
σ
185
TEMA 5: Identificación de sistemas
−1
t
P(t ) = ∑ φ (i )φ T (i ) (5.8)
i =1
se sigue que
t −1
P −1 (t ) = ∑ φ (i )φ T (i ) + φ (t )φ T (t )
i =1
luego
P −1 (t ) = P −1 (t − 1) + φ (t )φ T (t ) (5.9)
186
Apuntes de Automática II
t −1 t −1
∑ φ (i )·φ T (i ) ·θ̂(t − 1) = ∑ φ (i )· y (i )
i =1 i =1
t t −1
θ̂(t ) = P(t )· ∑ φ (i )· y (i ) = P(t )· ∑ φ (i )· y (i ) + φ (t )· y (t )
i =1 i =1
con lo que
Como
P −1 (t − 1) = P −1 (t ) − φ (t )φ T (t ) (5.11)
El error de predicción es la diferencia entre la salida actual y(t) del sistema y aquella
( yˆ (t | t − 1) ) que para el tiempo t produce el modelo a partir de la estima en el tiempo t-1
(θ(t-1)).
ε (t ) = y (t ) − yˆ (t | t − 1) = y (t ) − φ T (t )θ̂(t − 1) (5.13)
K (t ) = P (t )·φ (t )
debe interpretarse como un factor de peso o de ganancia que indica cuanto modificará el
error de predicción a cada uno de los parámetros.
187
TEMA 5: Identificación de sistemas
θ̂(t ) = θ̂(t − 1) + K (t )ε (t )
K (t ) = P(t )φ (t ) (5.14)
ε (t ) = y (t ) − φ T (t )θˆ(t − 1)
inversión de una matriz en cada paso. Esto supone una gran carga computacional.
Utilizando el denominado “Lema de inversión de una matriz” es posible expresar P(t) de la
siguiente forma:
[
P (t ) = P (t − 1) − P (t − 1)φ (t )φ T (t ) P (t − 1) 1 + φ T (t ) P (t − 1)φ (t ) ]
−1
(5.15)
Para el sistema y el modelo dados por (e1) y (e2) respectivamente la estima θ=b dada por (e3) se
puede poner de forma recursiva, teniendo en cuenta que φ ( t ) ≡ 1,
1t −1 1
θ (t ) = ∑ y (i) + y (t ) = [(t − 1)θ (t − 1) + y (t )] =
t i =1 t (e9)
1
= θ (t - 1) + [ y(t ) − θ (t − 1)]
t
1
P (t ) = (Φ ' Φ ) −1 =
t
De forma recursiva
188
Apuntes de Automática II
P −1 (t ) = t = P −1 (t − 1) + 1
de donde se obtiene
1 P ( t − 1)
P(t ) = −1
= (e10)
P ( t − 1) + 1 1 + P ( t − 1)
P 2 ( t − 1) P ( t − 1)
P ( t ) = P ( t − 1) − =
1 + P ( t − 1) 1 + P ( t − 1)
K (t ) = P(t ) = 1 / t
1
θ (t) = θ (t - 1) + [ y (t ) − θ (t − 1)]
t
iniciales para θˆ (0) y para P(0). Como P(t) es, salvo un factor de σ2, la covarianza de la
estima es razonable pensar en θˆ (0) como una estima a priori del vector real de parámetros
y en P(0) como una indicación de la confianza en dicha estima.
Si P(0) es pequeño también lo será K(t) para todos los valores de t, y eso hará que los
parámetros no varíen mucho de actualización a actualización; si por el contrario, P(0) es
grande, la estima pronto se alejarán del valor θˆ (0). Si no se dispone de información a priori
del vector de parámetros se suele escoger
θ (0) = 0, P (0) = ρI
189
TEMA 5: Identificación de sistemas
Se puede optar también por realizar una estimación inicial por el método de los mínimos
cuadrados ordinarios. Supongamos que se realiza esto hasta el instante t0, de modo que se
tiene
P(t 0 ) = (Φ ' (t 0 )Φ (t 0 )) −1
θ (t 0 ) = P(t 0 )Φ ' (t 0 )Y (t 0 )
se verificará
P ( t ) = ( P −1 ( t 0 ) + Φ '( t ) Φ ( t )) −1
P −1 (t ) = P −1 (t − 1) + φ (t )φ T (t )
Se observa que P crece de forma monótona con el tiempo, luego la ganancia del
algoritmo de mínimos cuadrados K(t)→0, cuando t crece. Esto es, llega un momento en que
el estimador de mínimos cuadrados se desconecta.
Este comportamiento puede resultar adecuado si los parámetros son invariantes con el
tiempo, pero no si el algoritmo debe seguir de forma continua a parámetros variables con el
tiempo. Desde el punto de vista del control adaptativo, resulta adecuado para controladores
autosintonizantes (controladores que se pueden sintonizar pero no ajustar a parámetros
variables con el tiempo) pero no para controladores que necesitan sintonizarse inicialmente
y siempre que cambie la dinámica del proceso (controladores con adaptación continua).
190
Apuntes de Automática II
Si los parámetros están variando es lógico considerar que los datos mas recientes
aportan más información sobre la estructura actual del sistema que los anteriores. En
consecuencia, se les debe aplicar más valor (peso) a los datos recientes que a los pasados,
los cuales se deben irán olvidando de forma exponencial. Esto se puede hacer considerando
como función a minimizar
1 t
V (θ , t ) = ·∑ wi ·ε (i ) 2
2 i =1
donde wi es el peso.
wi = λ t -i , 0 < λ ≤1
donde λ factor de olvido, un valor usual de este parámetro es 0.9 < λ ≤ 0.995 .
En esta función de coste al valor actual se le da un peso unidad (λ0=1), pero a los que
tuvieron lugar hace n unidades de tiempo se les pesa por λn.
P −1 (t ) = λP −1 (t − 1) + φ (t )φ T (t ) (5.17)
191
TEMA 5: Identificación de sistemas
1
P(t ) = P ( t − 1)
λ
Si no existe aporte de información durante mucho tiempo, P puede hacerse muy grande
un pequeño cambio en la señal de control puede llevar entonces a cambios bruscos en el
valor de los parámetros y de la señal de salida produciéndose el fenómeno conocido como
estallido.
ε 2 (t )
λ (t ) = 1 − λ ' (5.19)
ε2
donde ε(t) es el error de predicción, ε 2 es el valor medio de ε 2 (t) sobre un cierto periodo de
tiempo y λ' es una constante pequeña (1/1000).
ε 2 (t )
λ (t ) = 1 − λ ' (5.20)
1 + φ' ( t ) P ( t − 1) φ ( t )
De las ecuaciones (5.19) y (5.20) se deduce que si ocurre un cambio en la planta ε 2 (t)
aumenta y λ(t) disminuye, por lo que aumenta P produciéndose la adaptación. Después de
la adaptación ε 2 (t) disminuye y λ(t) vuelve a un valor muy próximo a uno.
Los algoritmos no evitan que P no crezca demasiado. Para evitar esto se puede
examinar la traza de P (trP)
192
Apuntes de Automática II
: : : i =1
P2 n 1 P2 n 2 ... P2 n 2 n
( 2 nx 2 n )
y si cae por debajo de un valor umbral entonces λ=1 y se pasa a los mínimos cuadrados
sin factor de olvido.
Este algoritmo se obtiene del método de los mínimos cuadrados tomando P=I y
haciendo
γφ (t )
K (t ) =
α + φ ' (t )φ (t )
donde normalmente α =1, y γ es un valor constante que se elige como un compromiso entre
velocidad de seguimiento (velocidad grande si γ es grande) e influencia del ruido sobre las
fluctuaciones de θ ( si γ es pequeño también lo son las fluctuaciones de θ). Normalmente se
elige
1
γτ max << 1 → γ <<
τ max
donde
Este método se suele utilizar en lugar del método del factor de olvido en aquellos casos
en que los parámetros varían de forma continua. El método surge al considerar el método de
los mínimos cuadrados como un filtro de Kalman con la ecuación de estado
193
TEMA 5: Identificación de sistemas
x(t + 1) = x(t )
y (t ) = φ ' (t ) x(t ) + e(t )
donde el vector de estado está formado por los parámetros del modelo: x=θ. El filtro de
Kalman aplicado a la ecuación de estado anterior lleva directamente al método de los
mínimos cuadrados recursivos. Una forma de modificar el algoritmo de estimación para que
pueda seguir a parámetros variables con el tiempo es considerar que estos tienen una
deriva o un camino aleatorio, lo que lleva a
x ( t + 1) = x ( t ) + ν( t )
θ (t ) = θ (t − 1) + K (t )ε (t )
ε (t ) = y (t ) − φ ' (t )θ (t − 1)
K (t ) = P(t )φ (t ) = P(t − 1)φ (t )[1 + φ ' (t ) P(t − 1)φ (t )]
−1
Ahora la matriz P no puede decrecer hacia cero, lo que evita la desconexión del
algoritmo y los parámetros se estarán identificando continuamente. Cuanto mayor sea la
velocidad de variación de los parámetros mayor es R, y P permanece en un valor
estacionario elevado. Se debe evitar que P pueda crecer demasiado, para lo que se
examina la traza de P y si crece demasiado no se le añade la matriz R.
El caso de que los parámetros de la planta varíen de forma abrupta se puede tratar
reinicializando de forma periódica la matriz P al valor ρI, donde ρ es un valor elevado. La
inicialización de P se puede realizar en función de su traza, iniciándose cada vez que esta
caiga por debajo de un determinado valor.
194
Apuntes de Automática II
A0 ( q −1 ) y ( t ) = B0 ( q −1 ) u( t ) + v ( t )
o de forma equivalente
y (t ) = φ (t )'θ 0 + v(t )
−1
1 t 1 t 1 t
θ −θ 0 = ∑ φ (i )φ ' (i ) ∑ φ (i ) y (i ) - ∑ φ (i )φ ' (i )θ 0
t
t i =1 i =1 t i = 1
−1
1 t 1 t
= ∑ φ (i )φ ' (i ) ∑ φ (i )v(i )
t
t i =1 i =1
donde el último término tiende a los valores medios cuando t crece. La diferencia entre el
valor estimado y el real se anula si
[ ]
2) E φ (t )v T (t ) = 0
La primera condición se cumple la mayoría de las veces salvo en los siguientes casos:
195
TEMA 5: Identificación de sistemas
previos y por lo tanto no lo estará con φ(t) y al tener media nula el término se hace cero, y
por lo tanto la estima tiende al valor real. Pero si v(t) no es ruido blanco, estará
correlacionada con valores previos y por lo tanto con y(t) ya que este depende de v(s) para
s≤t.
y ( t ) = G ( q ) u( t ) + H ( q ) e( t ) (5.21)
donde G(q) modela la dinámica determinista del sistema y H(q) la parte estocástica. La
secuencia {e(t)} representa una señal de ruido blanco de media nula.
De la observación de los datos {u (t )}, {y (t )} se pueden calcular valores ε (t) para e(t),
denominados errores de predicción, en la forma
ε ( t ) = H −1 ( q ) y ( t ) − G ( q ) u( t ) (5.22)
Para unos valores de y(.), u(.) dados, estos errores son función del modelo utilizado,
esto es de G y H. Los métodos de estimación paramétrica denominados de error de
predicción estiman G y H de manera que se minimice la función de coste
t
Vt ( G , H ) = ∑ ε 2 (i )
i =1
B(q ) 1
G (q ) = , H (q ) =
A( q ) A( q )
B(q ) C(q )
G (q ) = , H (q ) =
A( q ) A( q )
donde A(q) representa el mínimo común múltiplo de los denominadores de las partes
determinista y estocástica.
196
Apuntes de Automática II
A( q ) y ( t ) = B ( q ) u ( t ) + C ( q ) e ( t ) (5.23)
donde algunos coeficientes pueden ser nulos. Ahora el vector de parámetros tiene la forma
El polinomio C(q-1) tiene sus raíces dentro del circulo unidad si no existen
perturbaciones periódicas y dentro o sobre el circulo unidad si existen perturbaciones
periódicas.
C ( q )( y ( t ) − e( t )) = B ( q ) u( t ) + ( C ( q ) − A( q )) y ( t )
yˆ (t ) = y (t ) − e(t )
Entonces se tiene
u (t ) y (t )
yˆ (t ) = B(q ) + [C (q ) − A(q)] (5.25)
C (q) C (q )
La expresión anterior indica que la predicción se obtiene filtrando las señales u(.) e y(.)
por C(q). La ecuación (5.25) se puede expresar también como
Los valores
y (t ) − yˆ (t ) = ε (t ) (5.27)
197
TEMA 5: Identificación de sistemas
dan los errores de predicción. Estos valores no tienen porque coincidir con e(t) ya que el
filtrado de las señales u(.), y(.) para estimar ŷ (.) comenzando en t=0, necesita conocer los
valores
yˆ (0), yˆ (−1), ..., yˆ (−n + 1), y (0), y (−1), ..., y (− n + 1), u (0), u (−1), ..., u (− n + 1)
yˆ (t ) = φ ' (t )θ (5.28)
El algoritmo recursivo (5.16) se aplica ahora con el vector de parámetros definido por
(5.24) y con el vector de regresión dado por (5.29) con
ε (t ) = y (t ) − yˆ (t ) = y (t ) − φ ' (t )θ (t − 1)
1 t 2
V (θ, t ) = ∑ ε (i )
2 i =1
∂ε (t ) ∂ [ y (t ) − φ ' (t )θ ]
= = −φ (t )
∂θ ∂θ
198
Apuntes de Automática II
C ( q , θ ) ε ( t ) = A( q , θ ) y ( t ) − B ( q , θ ) u ( t ) (5.30)
siendo C(q,θ), A(q,θ), B(q,θ) los polinomios con los parámetros estimados.
∂ε ( t ) 1
= z(t ) = φ( t )
∂θ C(q )
y (t )
0
.
M u (t )
z (t + 1) = M z (t ) + 0
(5.31)
M .
ε (t )
0
.
donde
− c1 ... − cn
M = 1 ... 0 (5.32)
0 ... 1
θ (t ) = θ (t − 1) + K (t )[y (t ) − φ T (t )θ (t − 1)]
[
K (t ) = P (t ) z (t ) = P(t − 1) z (t ) 1 + z T (t ) P(t − 1) z (t ) ]
−1
(5.33)
P(t ) = ( I − K (t ) z T (t )) P(t − 1)
199
TEMA 5: Identificación de sistemas
Comentarios:
A( q ) y ( t ) = B ( q ) u ( t ) + v ( t )
donde v ( t ) es una señal de ruido blanco correlacionado. En este caso el método de los
mínimos cuadrados produce una estima correlacionada. Si no interesa estimar un modelo
para el ruido (es decir no interesa conocer H(q)), se puede utilizar el método de la variable
instrumental.
1 t
V (θ, t ) = ∑
2 i =1
z (i ) ε 2 ( i )
donde z(i) es un vector de dimensión igual a la del vector de parámetros conocida como
variable instrumental. Se tiene ahora
−1
t t
θ (t ) = ∑ z (i )φ T (i ) ∑ z (i ) y (i ) (5.34)
i =1 i =1
200
Apuntes de Automática II
−1
1 t 1 t 1 t
θ − θ 0 = ∑ z (i)φ T (i ) ∑ z (i ) y (i ) - ∑ z (i )φ T (i )θ 0
t i =1 t i =1 t i =1
(5.35)
−1
1 t 1 t
= ∑ φ (i )φ T (i ) ∑ z (i )v(i )
t i =1 t i =1
Si z(t) se elige de manera que no exista correlación entre ella y el ruido sobre el sistema
el último término de (5.35) se anula y por lo tanto se tiene una estima consistente, es decir,
( θ → θ 0 , t → ∞ ).
De forma recursiva
θ (t ) = θ (t − 1) + K (t )[y (t ) − φ T (t )θ (t − 1)]
[
K (t ) = P (t ) z (t ) = P (t − 1) z (t ) 1 + φ T (t ) P (t − 1) z (t ) ]
−1
(5.36)
P (t ) = ( I − K (t )φ T (t )) P (t − 1)
z ( t ) = − g ( t − 1),..., − g ( t − n) u ( t - 1),..., u( t - n)
donde
g (t ) = z T (t )ϑ (t )
ϑ (t ) = (1 − β )ϑ (t − 1) + βϑ (t − τ )
yˆ (t ) = b1u (t − 1) + b2 u (t − 2) + .. + bn u (t − n) (5.37)
1
Acrónimo inglés derivado de Finite Impulse Response
201
TEMA 5: Identificación de sistemas
O de forma equivalente
y (t ) = φ (t ) ' θ 0
donde
Resulta obvio que los parámetros del sistema (5.37) no pueden determinarse si la
entrada no cumple algunos requisitos. La solución al problema de los mínimos cuadrados
viene dada por los valores solución a la ecuación normal (5.5). Esta solución es única si la
matriz (Φ 'Φ ) de la ecuación normal tiene rango máximo n. Para este modelo se tiene
t t t
∑ u 2 (i − 1) ∑ u (i − 1)u (i − 2) ... ∑ u (i − 1)u (i − n)
n +1 n +1 n +1
t t t
Φ Φ = ∑ u (i − 1)u (i − 2) ∑u (i − 2) ∑ u (i − 2)u (i − n)
2
T ... (5.38)
n +1 n +1 n +1
t . ... ... .
t t
u (i − 1)u (i − n)
∑ ∑ u (i − 2)u (i − n) ∑u (i − n)
2
...
n +1 n +1 n +1
Además se tiene
t
∑ y (i − 1)u (i − 1)
n +1
t
∑
Φ Y = n +1
T y (i − 1 )u (i − 2 ) (5.39)
t .
y (i − 1)u (i − n)
∑
n +1
Para valores elevados de t los efectos finales son despreciables y todos los sumatorios
de (5.38) y (5.39) se pueden tomar desde 1 a t. Si en ambas ecuaciones dividimos por t y
representamos por ru ( k ) la covarianza empírica de la entrada,
202
Apuntes de Automática II
1 t
ru ( k ) = limt →∞ ∑ u (i ) u (i − k )
t n +1
1 t
ryu ( k ) = limt →∞ ∑ y (i ) u (i − k )
t n +1
♦ Ejemplo 5.4:
Considérese el ejemplo 5.2 de un sistema de primer orden en el que la entrada u(t) es una señal
escalón de amplitud λ. En el estado estacionario la ganancia estática del sistema es:
b0
S= (e11)
1 + a0
203
TEMA 5: Identificación de sistemas
Luego
y = S ·u
Y por tanto:
E[u (t )] = λ
E[ y (t )] = S ·λ
(1 + c 02 − 2a 0 c 0 )σ 2
Ey (t ) = S λ +
2 2 2
,
1 − a 02
Ey (t )u (t ) = Sλ 2 ,
Eu 2 (t ) = λ 2 , (e12)
(c 0 − a 0 )(1 − a 0 c 0 )σ 2
Ey (t ) y (t − 1) = S λ + 2 2
1 − a 02
Ey (t )u (t − 1) = Sλ 2
c0 (1 − a02 )
a = a0 −
1 + c02 − 2a0 c0
(e13)
1 − a0
b = b0 − b0 c0
1 + c02 − 2a0 c0
Se observa, que las estimas son distintas de los valores reales, es decir, están polarizadas. Además,
l son independientes del valor de la amplitud λ de la señal de entrada.
a = a0
b = b0
a=0
b0
b=
1 + a0
204
Apuntes de Automática II
b b
= 0
1 + a 1 + a0
En el caso de que no haya ningún ruido actuando sobre el proceso, esto es σ 2 = 0, entonces la
matriz en (e6) se hace singular
S2 −S
λ2
− S 1
b
=S
1+ a
En conclusión, con una entrada constante (EP de orden 1), y sin otro tipo de excitación, sólo se
puede determinar perfectamente un parámetro: la ganancia estática de la planta.
De acuerdo con esta definición para el sistema de primer orden del ejemplo 5.2 se
obtiene una estima consistente ( θ → θ 0 , t → ∞ ) si la señal de entrada es de EP de orden 2.
Sea u(t) una señal aleatoria de ruido blanco con media nula y varianza λ2 .
Entonces Ru ( n ) = λ2 In por lo que la señal es de EP de todos los grados.
205
TEMA 5: Identificación de sistemas
m
u (t ) = ∑ ai sin(ω i t + ϕ i ), 0 < ω1 < .. < ω m < π
i =1
Una sinusoide posee grado 2 de EP y se sabe que con una sinusoide de entrada se
puede fijar la respuesta de un sistema a una determinada frecuencia, lo que necesita dos
parámetros: la amplitud con que se modifica la señal al pasar por el sistema y el desfase
que se introduce.
La señal de ruido blanco posee cualquier grado de EP y eso es así porque dispone de
todas las frecuencias.
2
Acrónimo inglés derivado de Pseudo Random Binary Signal
206
Apuntes de Automática II
La señal de autocorrelación es
Las señales PRBS mas utilizadas son las que se basan en secuencias de
longitud máximas, para las cuales N=2n-1, siendo n un entero. Estas
secuencias se pueden generar utilizando un registro de desplazamiento de
n-estados con realimentación. Sólo unas pocas conexiones de
realimentación llevan a una secuencia de longitud máxima para cualquier n
elegida.
0.8
0
0.6 10
0.4
0.2
-1
0 10
-0.2
-0.4
-2
-0.6 10
-0.8
-1
-3
10
0 100 200 300 400 500 -2 -1 0 1
10 10 10 10
Muestras
Frecuencia (rad/s)
Figura 5.2: Representación temporal y espectro de potencia de una señal PRBS de ejemplo.
207
TEMA 5: Identificación de sistemas
208
Apuntes de Automática II
♦ Ejemplo 5.5:
Se va a considerar el sistema de primer orden del ejemplo 5.2 de con c0=0. Además se utiliza la
siguiente ley de control
u ( t ) = − ky ( t )
1 k a 1
∑y 2
(i − 1) =
2 ∑ y(i) y(i − 1) k
k k b
El mismo aspecto se pone de manifiesto si se multiplica a la ley de control por un valor arbitrario α y
se le suma a la ecuación del sistema
y ( t ) = − ( a0 − αk ) y ( t − 1) + (b0 + α ) u( t − 1) + e( t )
a = a0 − α k
b = b0 + α
dan la misma relación de entrada salida y por lo tanto todos ellos son solución a la ecuación normal.
209
TEMA 5: Identificación de sistemas
Para asegurar la identificabilidad del sistema del Ejemplo 5.5 bastaría considerar una
ley de control de la forma
u ( t ) = − k1 y ( t ) − k 2 y ( t − 1)
u(t ) = − k (t ) y (t )
donde la ganancia basta que varíe entre dos valores para asegurar la identificabilidad.
210
Apuntes de Automática II
♦ Ejemplo 5.6:
Se tiene la siguiente expresión para la función de transferencia de una planta que posee a su entrada
un retenedor de orden cero.
K ·(1 + T4 s )e −Td s
G(s) =
(1 + T1 s )(1 + T2 s )(1 + T3 s )
K = 1; T1 = 10; T2 = 7; T3 = 3; T4 = 2; Td = 4;
(b0 + b1 z −1 + b2 z −2 + b3 z −3 )
G ( z ) = z −nk
(1 + a1 z −1 + a2 z −2 + a3 z −3 )
La ganancia es
K=
∑b i
1+ ∑ a i
En la Tabla 5.2 se muestran los valores de los coeficientes de G(z) en función del periodo de
muestreo T.
bi << ai y ∑b i = 1 + ∑ ai << ai
Pequeños errores en los parámetros pueden tener una influencia significativa en el comportamiento
entrada-salida del modelo, ya que, por ejemplo, el valor de ∑bi depende fuertemente de los valores
211
TEMA 5: Identificación de sistemas
T[seg.] 1 4 8 16
a1 -2.48824 -1.49836 -0.83771 -0.30842
b0 0 0 0.06525 0.37590
Por otra parte la elección de un periodo de muestreo muy grande puede llevar a una simplificación
excesiva del modelo dando este una descripción muy pobre de su comportamiento dinámico. En el
ejemplo se ve que para T=8sec. el modelo se reduce prácticamente a un sistema de segundo orden,
porque
a3 << 1 + ∑ ai y b3 << ∑b i
• Filtrado.
• Detección de outliers.
Siempre hay que analizar si es necesario llevar a cabo cada una de estas acciones.
Dependiendo de la calidad de los datos de que se dispongan pueden ser necesario realizar
todas, alguna o ninguna de estas acciones.
212
Apuntes de Automática II
ω B T ≈ 0.5 − 1
El filtro debe tener ganancia constante y fase próxima a cero para valores bajos y
medios de frecuencias, para no distorsionar de forma innecesaria a la señal. Para altas
frecuencias la ganancia debe caer rápidamente. La eliminación de las altas frecuencias en
la señal mejora la relación señal ruido y por lo tanto permite una mejor identificación del
sistema.
Debido a que el filtro previo tiene una cierta dinámica esta se incluye en el modelo que
se identifica (ver Figura 5.3).
{y(k)}
{u(k)} D/A Filtro A/D
Proceso Analógico
Modelo
Figura 5.3: Diagrama de bloques que pone de manifiesto como el modelo que se identifica posee la
dinámica del proceso y la del filtro analógico.
213
TEMA 5: Identificación de sistemas
u F (k ) = α ⋅ u F (k − 1) + u (k ) − u (k − 1)
y F (k ) = α ⋅ y F (k − 1) + y (k ) − y (k − 1)
donde
α = e −T / τ
donde τ la contante de tiempo del filtro. Además u F (k ) e y F (k ) son las señales filtradas que
se utilizan en el algoritmo de identificación. τ se debe elegir de manera que el filtro pasa alta
no elimine la menor frecuencia de la señal de entrada. Para señales PRBS con intervalo de
reloj λ y periodo N la constante de tiempo debe cumplir la relación
λN
τ>
2π
{u(k)} {y(k)}
Proceso
Filtro Filtro
Pasa-alta Pasa-alta
{uF (k)} {yF (k)}
Se usan
para identificar
214
Apuntes de Automática II
y * ( t ) = m0 + m1t +... + mr t r
u* ( t ) = n0 + n1t +... + ns t s
y (t ) = y (t ) − y* (t )
u ( t ) = u( t ) − u* ( t )
N
1
y* =
N
∑ y (t )
t =1
N
1
u* =
N
∑ u(t )
t =1
y sustraerlos de las medidas. Con valores de r,s>0 se modela una deriva en los datos
(tendencia polinomial).
A ( q −1 ) y ( t ) = B ( q − 1 ) u ( t ) + e ( t ) + m
215
TEMA 5: Identificación de sistemas
∆ = 1 − q −1
Se utiliza el modelo
A ( q −1 ) ∆ y ( t ) = B ( q − 1 ) ∆ u ( t ) + ∆ e ( t )
216
Apuntes de Automática II
En este caso se obtiene un modelo ajustando los datos sin prestar atención a los
outliers. Después se obtienen los residuos ε ( t , θ) y se representan gráficamente. Se detecta
la existencia de posibles picos en la secuencia { ε ( t , θ) }. Si por ejemplo ε ( t , θ) es
anormalmente grande entonces la salida correspondiente y(t) se modifica. Una modificación
sencilla es tomar
y (t ) = 0.5·[ y (t − 1) + y (t + 1)]
y (t ) = yˆ (t t − 1, θ )
El método consiste en modificar la función de coste de modo que se penalice más a las
medidas que contienen outliers. Este método se suele utilizar en los cálculos on-line. En el
algoritmo de los mínimos cuadrados se modifica el vector de ganancia de Kalman K(t) en la
forma
−1
1
K (t ) = P(t − 1)φ (t ) + φ ' (t ) P(t − 1)φ (t )
β (t )
donde
1 si ε (t ) ≤ γλˆt
β (t ) = γ 2 λˆt 2
2 si ε (t ) > γλˆ
ε (t )
1/ 2
V (θ (t ))
λˆt = t
t
217
TEMA 5: Identificación de sistemas
ε 2 (t )
V t (θ (t )) = V t − 1 (θ (t − 1)) +
1
+ φ ' (t ) P(t − 1)φ (t )
β (t )
B(q)
y (t ) = u (t ) + e(t )
F (q )
218
Apuntes de Automática II
Modelos BJ (Box-Jenkins)
B(q) C (q )
y (t ) = u (t ) + e(t )
F (q) D(q)
La elección del modelo va estar fuertemente influida por el uso final al que se destine.
La bondad final del modelo se pondrá de manifiesto cuando se use en la práctica y se
comprueben los resultados obtenidos.
3) Ver que estructura de modelo se debe escoger entre dos o más posibles.
Será en la fase de validación del modelo donde se pondrán de manifiesto los tres
aspectos mencionados y por tanto que estructura para el modelo es la mejor.
219
TEMA 5: Identificación de sistemas
220
Apuntes de Automática II
221
TEMA 5: Identificación de sistemas
222
APENDICE A
TABLA DE TRANSFORMADAS Z
1 k = 0
δ 0 (k ) =
0 k ≠ 0
- 1 n = k - z −1
δ 0 (n − k ) =
0 n ≠ k
1(t) 1(k) 1 1
s 1 − z −1
t k·T 1 T · z −1
s2 (1 − z ) −1 2
e − a ·t e − a ·k ·T 1 1
− a ·T
s+a 1− e z −1
t ·e − a·t k ·T ·e − a ·k ·T 1 T ·e − aT · z −1
(s + a )2 (1 − e − a ·T
z −1 )2
- ak - 1
1 − a·z −1
223
APENDICE A
224
BIBLIOGRAFIA
225
APUNTES DE
AUTOMATICA II
(Segundo parcial)
BIBLIOGRAFIA 377
Indice
TEMA 6
INTRODUCCION A LA OPTIMIZACION
∂J
∂x J x1
1
∂J . .
Jx ≡ = = (6.1)
∂x . .
∂J
J xn
∂x
n
∂2J ∂2J
J xx ≡ = (6.2)
∂x 2 ∂xi ∂x j
1
En algunos libros el gradiente se define como un vector fila, aunque se puede utilizar un vector columna tal y
como se desprende de la definición (6.1)
227
TEMA 6: Introducción a la optimización
que es una matriz simétrica de dimensión n x n. En término del gradiente y del Hessiano, el
desarrollo en serie de Taylor de J(x) en torno a x0 es:
1
J ( x ) = J ( x0 ) + J x x = x0
⋅ ( x − x0 ) + ( x − x0 )T ⋅ J xx x = x0
·( x − x0 ) + O (3) (6.3)
2
Donde O(3) representa términos de orden 3, y donde Jx y Jxx están calculados en x0. De
forma incremental el desarrollo en serie se puede poner:
1 T
dJ = J xT ⋅ dx + dx ⋅ J xx dx + O(3) (6.4)
2
Jx = 0 (6.5)
Supóngase que se está en un punto crítico, de modo que Jx=0. Para que el punto crítico
sea un mínimo local, se requiere que:
1 T
dJ = dx ⋅ J xx dx + O(3) (6.6)
2
sea positiva para todos los incrementos dx. Esto se garantiza si la matriz Jxx es definida
positiva
J xx > 0 (6.7)
Conviene recordar que Jxx es definida positiva (negativa) si todos sus autovalores son
positivos (negativos), e indefinida si tiene autovalores negativos y positivos. Es semidefinida
228
Apuntes de Automática II
si tiene algunos autovalores iguales a cero. Por lo que si det[Jxx]=0, el termino de segundo
orden no especifica completamente el tipo de punto crítico.
♦ Ejemplo 6.1:
Solución:
Notar que se pide encontrar el extremo de la función dentro del rectángulo de la Figura 1.1
2π
2π x
Figura 1.1
J x ≡ cos( x) + cos( x + y ) = 0
(2)
J y ≡ cos( y ) + cos( x + y ) = 0
De estas ecuaciones se deduce que los puntos críticos son aquellos para los que cos(x)= cos(y), esto
es, x=y± 2·n·π (n = 0, 1, 2, ...). Pero los puntos en cuestión deben estar dentro del cuadrado de la
Figura 1.1, luego y=x. Con este valor de y en (2) se obtiene cos(x)+cos(2x)=0, que es lo mismo que:
ya que cos(2x)=2·cos2(x)-1.
Las soluciones a la ecuación cuadrática (3) son cos(x)=-1 y cos(x)=1/2, por lo que x=π, x=π/3, x=5π/3.
Así hay tres puntos críticos en el interior del cuadrado,
Para determinar la naturaleza de estos puntos, se debe evaluar el Hessiano en los puntos críticos:
229
TEMA 6: Introducción a la optimización
Para (π,π) el determinante del Hessiano es cero, luego la matriz es indefinida y no se puede
determinar el tipo de punto crítico que es:
− senπ − sen2π 0 0 0 0
− sen2π = ⇒ 0 0 = 0 (6)
− senπ 0 0
π 2π 2π 3
− sen 3 − sen 3 − sen
3 − 3 −
2
=
2π π 2π 3
− sen − sen − sen − − 3
3 3 3 2
(7)
3
− 3 − λ −
2 = 0 ≡ λ = −0.8660
− 3 − 3−λ λ = −2.5981
2
5π 10π 10π 3
− sen − sen − sen 3
3 3 3 = 2
10π 5π 10π 3
− sen − sen − sen 3
3 3 3 2
(8)
3
3−λ
2 = 0 ≡ λ = 0.8660
3 3−λ λ = 2.5981
2
( )
El Hessiano es definido positivo, luego el punto produce un mínimo J(5π/3,5π/3)=- 3 3 / 2 .
Como no hay otros puntos críticos en el cuadrado se concluye que J(π,π)=0 no corresponde ni a un
mínimo ni a un máximo.
Falta investigar el comportamiento de J(x,y) en la frontera o borde del cuadrado. En el borde que
coincide con el eje x, y=0, luego J(x,0)=sen(x)+sen(0)+sen(x+0)=2sen(x). Luego los valores extremos
230
Apuntes de Automática II
de J(x,y) también varían entre 2 y -2. En definitiva, se concluye de este estudio que los valores
( ) ( )
extremos de J en la región considerada son - 3 3 / 2 y 3 3 / 2 .
La sección anterior se dedicó al cálculo del máximo y del mínimo de funciones de varias
variables independientes. En muchos casos se requiere encontrar los valores máximos y
mínimos de J(x) cuando las variables xi, están conectadas por algunas relaciones de tipo
funcional, de modo que las componentes xi no son independientes.
En muchos casos, sin embargo, puede resultar imposible despejar unas variables en
función de otras. El problema se puede complicar aún más si la temperatura se deseara
conocer en los puntos de una curva del espacio, ya que en ese caso la restricción sobre las
variables se expresa en la forma de intersecciones de dos curvas f1(x1,x2,x3)=0 y
f2(x1,x2, x3)=0.
Sea J(x1, x2, ..., xn) una función en ℜ, cuyos valores extremos se piden cuando las
variables están sometidas a las m condiciones o restricciones f1(x1, x2, ..., xn)=0,...,
fm(x1, x2, ..., xn)=0. Se introducen ahora los parámetros λ1, λ2,...,λm y se forma la siguiente
función que se denomina Hamiltoniano:
231
TEMA 6: Introducción a la optimización
Si se define
Los números λ1,..., λm que se introducen como ayuda para resolver el problema, se
conocen como multiplicadores de Lagrange. Lagrange descubrió que si el punto (x1, x2,...,xn)
es un punto crítico, entonces las derivadas parciales de H con respecto a las n+m variables
x1,x2,...,xn,λ1,..,λm deben de ser nulas, es decir se debe satisfacer el sistema de n+m
ecuaciones.
∂H ∂J ( x) ∂f ( x) ∂J ( x) m ∂f ( x)
= +λ T =0= + ∑λ i ⋅ i
∂x1 ∂x 1 ∂x 1 ∂x 1 i =1 ∂x 1
⋅
⋅
∂H ∂J ( x) ∂f ( x) ∂J ( x) m ∂f ( x)
= +λ T =0= + ∑λ i ⋅ i
∂x n ∂x n ∂x n ∂x n i =1 ∂x n
(6.8)
∂H
= f1 ( x) = 0
∂λ 1
⋅
⋅
∂H
= f m ( x) = 0
∂λ m
∂H ∂J ( x) ∂f ( x)
= +λ T =0
∂x ∂x ∂x
(6.9)
∂H
= f ( x) = 0
∂λ
Este método proporciona una condición necesaria para que un punto sea un extremo de
la función J. Los puntos así obtenidos deben comprobarse para determinar si originan un
máximo, un mínimo, o ninguna de las dos cosas.
232
Apuntes de Automática II
♦ Ejemplo 6.2:
Solución:
El problema consiste en determinar los valores extremos de J(x,y)=x2+y2 con la condición f(x,y)=
5x2+6xy+5y2-8 = 0.
∂H ∂J ∂f
= +λ = 0 ⇒ 2 x + λ ·(10· x + 6· y ) = 0
∂x ∂x ∂x
∂H ∂J ∂f
= +λ = 0 ⇒ 2 y + λ ·(6·x + 10· y ) = 0
∂y ∂y ∂y
∂H
= 5 x 2 + 6 xy + 5 y 2 − 8 = 0
∂λ
6λ ·( y 2 − x 2 ) = 0
x 2 = 1/ 2 ⇒ J = 1
x2 = 2 ⇒ J =4
Luego el primer valor es un mínimo y el segundo valor es un máximo. Los puntos de mínimo son:
(1 / 2 , 1 / 2 ) ( −1 / 2 , − 1 / 2 )
Y los de máximo
( 2, − 2 ) (− 2 , + 2 )
La curva corresponde pues, a una elipse de semiejes 2 y 1 cuyo eje mayor hace un ángulo de 45
grados con el eje x.
233
TEMA 6: Introducción a la optimización
J ( x, u ) : ℜ n×m → ℜ
Hay que comentar que el vector x de las secciones anteriores ahora está formado por
las componentes del vector de estados del sistema (que se denomina también por x) y por el
vector de control u.
f ( x, u ) = 0 (6.10)
Para encontrar las condiciones necesarias y suficientes para un extremo local de J(x,u)
que satisfaga además f(x,u)=0, se puede proceder como en la sección anterior.
Defínase el Hamiltoniano
H ( x, u , λ ) = J ( x, u ) + λ T · f ( x , u ) (6.11)
n
donde λ∈ℜ , es un multiplicador de Lagrange que debe determinarse. Como se vio en la
sección anterior, los puntos de mínimo deben cumplir la condición necesaria:
∂H
(a) ( x, u , λ ) = f ( x, u ) = 0
∂λ
∂H ∂J ∂f
(b) = +λ T =0 (6.12)
∂x ∂x ∂x
∂H ∂J ∂f
(c ) = +λ T =0
∂u ∂u ∂u
234
Apuntes de Automática II
Las ecuaciones (6.12) son similares a las ecuaciones (6.9) ya que el vector
x=(x1,x2,...,xn) de la sección anterior equivale en este caso al vector (x,u).
Las ecuaciones (6.12b) y (6.12c) representan en realidad una única ecuación, que
señala que la derivada del Hamiltoniano con respecto a cada una de las variables de la
función f es nula. La ecuación (6.12a) sólo hace constatar la ecuación de ligadura.
Se define el vector gradiente de una función escalar como un vector columna, luego:
∂H
∂λ
1
∂H .
Hλ ≡ ≡
∂λ .
∂H
∂λ m
∂H ∂H
Hx ≡ Hu ≡
∂x ∂u
∂f ∂f ∂f
fx ≡ ≡ ,....,
∂x ∂x1 ∂x n
De igual modo
∂f ∂f ∂f
fu ≡ ≡ ,....,
∂u ∂u1 ∂u n
∂J ∂J
De forma análoga se define J x ≡ y Ju ≡ .
∂x ∂u
(a) Hλ = f = 0
Hx = Jx + fx λ = 0
T
(b) (6.13)
H u = Ju + fu λ = 0
T
(c )
235
TEMA 6: Introducción a la optimización
dH = H xT dx + H uT du + H λT dλ
Se observa que las ecuaciones (6.13) permiten tratar los incrementos dx y du como si
fueran independientes, ya que de la condición de mínimo dH=0, se han deducido las
ecuaciones (6.12). En realidad dx y du don incrementos dependientes, ya que x y u están
relacionados por la ecuación (6.10), sin embargo, la introducción del vector de
multiplicadores λ permite solucionar dx y du “como si” fueran independientes. Mediante la
introducción de los multiplicadores de Lagrange se ha reemplazado el problema de
minimizar J(x,u) sujeta a las ligadura f(x,u)=0, por el problema de minimizar H(x,u,λ) sin
ligaduras.
Se va a obtener ahora una condición que garantice que el punto estacionario obtenido
de (6.13) es un mínimo.
[ ] dx 1
[
dJ = J xT , J uT · + dx T , du T ]· JJ xx J xu dx
·
J uu du
+ O(3) (6.14)
du 2 ux
[ ] dx 1
[
df = f xT , f uT · + dx T , du T ]· ff xx f xu dx
·
f uu du
+ O(3) (6.15)
du 2 ux
∂2 f
donde f xu = y así sucesivamente.
∂u·∂x
[1, λ ] ⋅
dJ
[
= H x , Hu
T T
]·du + 2 [dx
dx 1 T
]H
, du T · xx
H xu dx
·
H uu du
+ O(3) (6.16)
df
H ux
Para un punto estacionario f=0, ya que esa es la ligadura para todo punto, y dJ debe ser
también nulo, para incrementos de primer orden, para todos los incrementos dx, du. Como f
es igual a cero, df también es igual a cero, luego en aproximación de primer orden se debe
verificar Hx=0, Hu=0 como en (6.13), luego el primer termino de (6.16) es nulo.
236
Apuntes de Automática II
df = f x dx + f u du = 0 ⇒ dx = − f x−1 · f u du (6.17)
H xu − f x−1 · f u
1
[ H
dJ = ·du T · − f uT · f x−T , I · xx ] ·
H uu
·du + O(3) (6.18)
2 H ux I
Para que el punto estacionario sea un mínimo, dJ en (6.18) debe ser positivo para todos
los incrementos du. Ahora bien, si sustituimos dx por su valor (6.17) en J(x,u) se obtiene que
J es sólo función de u, luego la ecuación (6.14) queda al ser Jxx=Jxu=Jux=0.
1
dJ = ·du T ·J uuf ·du (6.19)
2
Donde J uuf se define como el valor de la derivada segunda de J con respecto al valor u
H xu − f x−1 · f u
[ ]
H
J uuf = − f uT · f x−T , I · xx ·
H uu ⇒
H ux I (6.20)
J f
uu = H uu − f u · f x ·H xu − H ux · f x · f u + f u · f x−T ·H xx · f x−1 · f u
T −T −1 T
Luego si “la matriz de curvatura con la ligadura f igual a cero” dada por (6.20) es:
1 1 1 x x
J ( x, u ) = [ x, u ] ⋅ · + [0,1]·
2 1 2 u u
237
TEMA 6: Introducción a la optimización
f ( x, u ) = x − 3 = 0
El Hamiltoniano es:
1 2
H = J +λ T f = x + xu + u 2 + u + λ ·( x − 3)
2
Donde λ es un escalar. Las condiciones para determinar un punto estacionario son (6.13) o
Hλ = x − 3 = 0
Hx = x +u +λ = 0
H u = x + 2u + 1 = 0
Que tiene como solución x=3, u=-2, λ=-1, luego el punto estacionario es:
Para verificar que este punto estacionario es un mínimo se determina la matriz de curvatura con la
ligadura x=3.
J uuf = 2 = 2
f
Como J uu es positiva, eso significa que el punto (x,u)* es un mínimo. El valor de J en el mínimo es
J*(3,-2) = 0.5
1 x2 y2
J ( x, u ) = · 2 + 2
2a b
f ( x, u ) = x + m·u − c
238
Apuntes de Automática II
Los contornos de J(x,u) son elipses; si J(x,u)= l/2, los semiejes mayor y menor son a l y b·l. La
ligadura f(x,u) es una familia de líneas rectas parametrizadas por c (Notar que u es la variable
independiente, estando x determinada por f(x,u)=0).
El Hamiltoniano es:
1 x2 y2
H = · 2 + 2 + λ ·( x + m·u − c)
2 a b
H λ = x + m·u − c = 0 (1)
x
Hx = +λ =0 ( 2)
a2
u
H u = 2 + λ ·m = 0 (3)
b
Para resolver este sistema de ecuaciones se utiliza la ecuación (3) para expresar el control optimo u
en términos del multiplicador de Lagrange.
u = −b 2 ·m·λ
a 2 ·c −c
x= λ=
a 2 + b 2 ·m 2 a + b 2 ·m 2
2
b 2 ·m·c
u =·
a 2 + b 2 ·m 2
Para ver que este punto estacionario es un mínimo, se debe calcular la matriz de curvatura (6.20):
m2 1
J uuf =· +
a2 b2
239
TEMA 6: Introducción a la optimización
1 c2
J* = · 2
2 a + b 2 ·m 2
Solución:
2
f1 ( x1 , y1 ) = y1 − a· x1 − b·x1 − d = 0
f 2 ( x2 , y 2 ) = y2 − x2 − c = 0
Se considera como función de coste la mitad del cuadrado de la distancia entres los dos puntos:
1 1
J ( x1 , y1 , x 2 , y 2 ) = ( x1 − x 2 ) 2 + ( y1 − y 2 ) 2
2 2
1 1
( x1 − x 2 ) 2 + ( y1 − y 2 ) 2 + λ 1·( y1 − a·x1 − b·x1 − d ) + λ 2 ·( y 2 − x 2 − c)
2
H=
2 2
H x2 = − x1 + x 2 − λ 2 = 0 (2)
H y1 = y1 − y 2 + λ 1·= 0 (3)
H y2 = − y1 + y 2 + λ 2 = 0 (4)
2
H λ1 = y1 − a·x1 − b·x1 − d = 0 (5)
240
Apuntes de Automática II
H λ2 = y 2 − x 2 − c = 0 (6)
De (5) se obtiene
2
y1 = a· x1 + b·x1 + d (7)
λ 2 = x 2 − x1 = y 2 − y1 (8)
x 2 − x1 = a·x12 + x1 + d − x 2 − c (9)
Luego
1
x 2 = ·(a· x12 + (b − 1)·x1 + d − c) (10)
2
1
λ 1 = − ·(a·x12 + (b − 1)·x1 + d − c) (11)
2
La ecuación cúbica (13) determina el x1 óptimo para unos valores dados de a, b, c y d. Si la recta
cruza la parábola, la(s) intersección(es) es la solución óptima. (En este caso λ1=λ2=0). En otro caso
habrá un único par de puntos distintos (x1, x2), (y1, y2 ).
Una vez conocido x1, los valores de x2, y1 e y2 se determinan de (10), (7) y (8) respectivamente.
241
TEMA 6: Introducción a la optimización
242
TEMA 7
7.1 INTRODUCCION
En este capítulo se extiende el método del Tema 6 a la optimización de una función de
índice o coste, asociada con un sistema dinámico discreto que varía con el tiempo.
En el tema anterior se introdujo la función de coste como una función escalar que se
tenía que minimizar y después se introdujo las ligaduras entre las variables. En la
optimización de sistemas dinámicos, el proceso siempre es a la inversa. En primer lugar se
introducen las ecuaciones dinámicas que describen al sistema, y que constituyen
ecuaciones de ligadura. Estas ecuaciones están determinadas por la física del problema. La
función de coste se selecciona por el ingeniero para hacer que el sistema funcione de una
manera determinada.
Por ejemplo, supóngase el caso de un motor del que se desea obtener una respuesta
dinámica muy rápida. Lógicamente se deberán situar los polos muy alejados del origen del
plano s, lo que hará que la señal de control tome valores muy elevados, que incluso pueden
llegar a superar el valor máximo del actuador, haciendo que la señal de control se sature, es
243
TEMA 7: Control óptimo de sistemas discretos
decir, quede limitado a su valor máximo. Así, si la máxima salida que puede dar el actuador
es de 5 Voltios, puede ocurrir que para conseguir una velocidad de respuesta muy rápida se
requiera una señal de control superior a los 5 Voltios, como esta señal no puede ser
suministrada por el actuador, la respuesta del motor no sería la establecida por los polos en
lazo cerrado del sistema. Por ello en muchos casos es necesario limitar la velocidad de
respuesta de un sistema al valor que puede conseguirse sin llegar a la saturación de la
señal de control.
Otra razón para el control óptimo está en que el sistema puede que no sea controlable,
por lo que existirá una región del espacio de estados a la que el sistema no puede llevarse,
por lo que no todos los polos del sistema se podrán situar donde se desee. La teoría del
control optimo permitirá en estos casos, siempre que la parte no controlable sea estable,
que el sistema se comporte de una forma aceptable.
x k +1 = f k ( x k , u k ) (7. 1)
Supóngase que se tiene asociado una función coste o índice de comportamiento dado
por la expresión general.
244
Apuntes de Automática II
N −1
J i = φ ( N , x N ) + ∑ Lk ( xk , uk ) (7. 2)
k =i
Donde:
• φ(N, xN) es una función del tiempo final N y del valor del estado en dicho instante.
• Lk(xk, uk) es una función del estado y del control en los instantes k del intervalo [i,
N], en general será variable con el tiempo (de ahí el superíndice k).
Supóngase que se desea encontrar el control uk que lleva al sistema de un estado inicial x0 a un
estado final deseado x en un tiempo mínimo N. En este caso, es posible, seleccionar la función de
coste como:
N −1
J = N = ∑1
k =0
xN = x
Para determinar el control escalar uk que lleva al sistema desde x0 a un estado final deseado x en un
tiempo fijo N utilizando el mínimo combustible, se puede utilizar:
245
TEMA 7: Control óptimo de sistemas discretos
N −1
J = ∑ uk
k =0
Ya que el combustible quemado es proporcional a la magnitud del vector de control. En este caso φ
=0 y Lk=|uk|. La condición frontera es, también esta vez, xN=x.
Supóngase que se desea determinar el vector de control uk que minimice la energía del estado final y
de todos los estados intermedios, así como la del control utilizado para conseguirlo. Supóngase que
se fija el instante final en N. Se puede utilizar como función de coste:
1 1 N −1
(
J = ·s·x TN ·x N + ·∑ q· x kT ·x k + r ·u kT ·u k
2 2 k =0
)
1 1
φ = ·s· x TN ·x N L = ·(q·x kT ·x k + r ·u kT ·u k )
2 2
Por otra parte, si es más importante que la energía de control sea pequeña, entonces se debe
seleccionar un valor elevado de r.
Finalmente si se está interesado en un valor pequeño del estado final, entonces el valor de s debe ser
elevado.
Como en cada instante k del intervalo [0, N] existe una ligadura dada por (7.1), se debe
introducir un multiplicador de Lagrange en cada instante. Como la ligadura es un vector de
246
Apuntes de Automática II
[ ]
N −1
J 1 = φ ( N , x N ) + ∑ Lk ( x k , u k ) + λ Tk +1( f k ( x k , u k ) − x k +1 ) (7. 3)
k =0
H k ( x k , u k ) = Lk ( x k , u k ) + λ T
k +1 f k ( xk , u k ) (7. 4)
[ ]
N −1
J 1 = φ ( N , x N ) − λ TN ·x N + H 0 ( x0 , u 0 ) + ∑ H k ( x k , u k ) − λ Tk ·x k (7. 5)
k =1
( )
N
+ ∑ H λkk−1 − x k ·dλ k
T
k =1
Donde
∂H k
H xkk =
∂x k
247
TEMA 7: Control óptimo de sistemas discretos
∂H k
( a ) xk +1 = k = 0,..., N - 1
∂λk +1
∂H k
(b) λ k = k = 0,..., N - 1 (7. 7)
∂x k
∂H k
(c) 0 = k = 0,..., N - 1
∂u k
T
∂φ
(a) −λ
N ·dx N = 0
∂x N
(7. 8)
T
∂H 0
(b) ·dx0 = 0
∂x0
Del examen de las ecuaciones (7.3) y (7.4) se puede ver que λ0 no aparece en J1. La
definición de los λ se ha hecho de modo que el índice inferior en (7.7b) se puede tomar 0 en
lugar de como 1, ya que λ0=0, obteniéndose así una notación más limpia.
Si se comparan las ecuaciones (7.7) con las (6.13), se puede ver que son muy
similares, salvo que en este caso las ecuaciones se deben de verificar para cada instante k
del intervalo [0, N-1]. A la condición (7.7c) se le denomina la condición de estacionaridad.
248
Apuntes de Automática II
Función de coste N −1
J = φ ( N , x N ) + ∑ Lk ( x k , u k )
k =0
Hamiltoniano H k ( x k , u k ) = Lk ( x k , u k ) + λ T
f k ( xk , u k )
k +1
Controlador Optimo
Ecuación de estado ∂H k
x k +1 = =f k ( x k , u k ) (7. 9a)
∂λ k +1
Condición estacionaria ∂f k
T
∂H k ∂Lk
0= = ·λ k +1 + (7.9c)
∂u k ∂u k ∂u k
Condiciones frontera T
∂L0 ∂f 0 T
+ ·λ 1 ·dx0 = 0
∂u 0 ∂x 0
T
∂φ
−λ
N ·dx N = 0
∂x N
Cuadro 7.1
Las ecuaciones (7.8) especifican las condiciones frontera necesarias para resolver las
ecuaciones en diferencias (7.9). La primera de ellas impone una condición en el instante
final N, mientras que la segunda la impone en el instante inicial. En nuestras aplicaciones, el
sistema comenzará siempre en un estado inicial conocido x0. Por lo que al ser este valor fijo
dx0=0, y no existe pues ninguna restricción al valor de H0x0. Por lo que siempre se puede
ignorar (7.8b) y utilizar como condición inicial el valor x0.
249
TEMA 7: Control óptimo de sistemas discretos
Para la ecuación (7.8a), si el estado final se fija, se usa el valor de dicho estado xN,
como condición terminal del sistema de ecuaciones, ya que en ese caso dxN=0, y se cumple
la condición (7.8a).
∂φ
λ N= (7. 10)
∂x N
En resumen, la condición inicial para el problema del valor frontera en dos puntos es el
estado inicial x0. La condición final es, o bien un valor deseado para xN, o el valor (7.10) de
λN.
Donde:
El estado inicial x0 se supone conocido. Como en el caso del control por realimentación
de variables de estado (ver sección 2.8), se busca una ley de control lineal de la forma:
u k = − K ·x k
250
Apuntes de Automática II
Donde K es una matriz de ganancia que se determinará de modo que se minimice una
determinada función de coste o índice de realización J, que se expresa como el sumatorio
de una forma cuadrática en los estados y de una forma cuadrática en el control
1 1 N −1
(
J = · x TN ·S · x N + ·∑ x kT ·Q·x k + u kT ·R·u k
2 2 k =0
) (7. 12)
Normalmente el tiempo final será infinito, lo cual indica que se está interesado en la
evolución del sistema de ahora en adelante, incluyendo pues los estados transitorio y
estacionario. No obstante en algunos casos el tiempo N es finito y con un valor fijo, como
ocurre en los problemas de guiado de misiles en los que se está interesado en la evolución
del móvil hasta un instante de tiempo finito y fijo en el que se producirá el contacto con otro
cuerpo, en estos casos, el intervalo de control va decreciendo hasta anularse, instante en el
que finaliza el proceso de control.
Las matrices Q, R y S se conocen como matrices de peso del estado, del control y del
estado final, respectivamente. El problema estriba en dadas unas matrices Q, R, S, F y G
encontrar la matriz K que minimiza la función de coste. En este punto, el problema deja de
ser un problema de control para convertirse en un problema de cálculo numérico.
251
TEMA 7: Control óptimo de sistemas discretos
El término cuadrático xT·Q·x es una medida de lo que se aparta el estado del sistema en
el instante k del valor de origen x0, y el término uT·R·u representa la penalización o coste del
control.
♦ Ejemplo 7.2:
Supóngase que x1 representa el error del sistema (diferencia entre variables de salida y valor de
referencia deseado), y que x2 representa su derivada. Si sólo interesa imponer limitaciones al valor
del error y no a su derivada, se puede seleccionar la matriz Q como
1 0
Q=
0 0
x T ·Q·x = x12
Pero esta elección como función de peso del estado puede conducir a un sistema de control para el
que la velocidad x2 es mayor de lo que se desea. Para limitar la velocidad, la forma cuadrática debe
de incluir un factor de peso en la velocidad, por ejemplo
x T ·Q·x = x12 + c 2 ·x 22
1 0
Q= 2
0 c
y = Cx
y = CT x
252
Apuntes de Automática II
y 2 = x T ·C ·C T ·x
Q =·C ·C T
1
2
( )
H k = · x kT ·Q·x k + u kT ·R·u k + λ T
k +1 (F ·x k + G·u k ) (7. 13)
∂H k
x k +1 = = F ·x k + G·u k (7. 14)
∂λ k +1
∂H k
λk = = Q·xk + F T ·λ k +1 (7. 15)
∂x k
253
TEMA 7: Control óptimo de sistemas discretos
∂H k
0= = R·u k + G T ·λ k +1 (7. 16)
∂u k
∂φ
λN = = S N ·x N (7. 17)
∂x N
λ k = S k ·x k (7. 18)
R·u k = −G T ·S k +1 · x k +1 = −G T ·S k +1 ·( F · x k + G·u k )
Despejando uk se obtiene
(
u k = − R + G T ·S k +1 ·G )−1
·G T ·S k +1 ·F · x k (7. 19)
S k · x k = F T ·S k +1 · x k +1 + Q· x k (7. 20)
( )
S k · x k = F T ·S k +1 · F · x k + G·u k + Q· x k (7. 21)
254
Apuntes de Automática II
[ (
S k ·x k = F T ·S k +1 · F ·x k − G· R + G T ·S k +1 ·G )−1
]
·G T ·S k +1 ·F ·x k + Q·x k
[S k (
− F T ·S k +1 ·F + F T ·S k +1 ·G· R + G T ·S k +1 ·G )
−1
]
·G T ·S k +1 ·F − Q · x k = 0 (7. 22)
Como la ecuación (7.22) se debe verificar para cualquier xk, la matriz debe ser
idénticamente nula, de lo que se deduce la siguiente ecuación de recurrencia hacia atrás
para Sk.
[ (
S k = F T · S k +1 − S k +1 ·G· R + G T ·S k +1 ·G )
−1
]
·G T ·S k +1 ·F + Q (7. 23)
La condición frontera para (7.23) es conocida y está dada por la relación (7.17). Se ha
encontrado, pues, una secuencia de valores de S que hace que se cumpla la relación (7.18)
para todo k≤N.
Como la matriz SN y las matrices Q y R son simétricas también lo son las matrices Sk. A
la ecuación (7.23) se le denomina ecuación de Riccati. A menudo se suele escribir en la
forma:
S k = F T ·M k +1 ·F + Q (7. 24)
donde:
(
M k +1 = S k +1 − S k +1 ·G· R + G T ·S k +1 ·G )−1
·G T ·S k +1 (7. 25)
La matriz que debe invertirse (R+GT·Sk+1·G) tiene la misma dimensión que el vector de
control, que suele ser menor que el número de estados. Para sistemas de una entrada y una
salida es, pues, un escalar.
Las ecuaciones (7.24) y (7.25) deben de resolverse hacia atrás con la condición inicial
SN. Para determinar uk se utiliza (7.19) para obtener
donde
(
K k = R + G T ·S k +1 ·G )−1
·G T ·S k +1 ·F (7. 27)
255
TEMA 7: Control óptimo de sistemas discretos
1) Condiciones iniciales KN ← 0; SN
2) Hacer k ← N
5) Guardar Kk-1
7) Hacer k ← k-1
8) Ir al paso 3
Independientemente de cual sea el estado inicial x0, para aplicar el control a una planta
dada, siempre se utilizan las ganancias calculadas con el algoritmo anterior, que deben por
ello estar almacenadas en un computador.
Un aspecto importante que hay que hacer notar es que aunque el sistema es invariante
en el tiempo (las matrices F y G son constantes) se obtiene una ley de realimentación
variable en el tiempo, es decir, la ganancia K depende del instante k. No obstante, estos
valores pueden ser calculados y guardados para su uso posterior, siempre que la longitud N
del intervalo de control sea conocida. Esto es así debido a que, como se muestra en el
Algoritmo 2.1, no se necesita el estado inicial x0 para el cálculo de las ganancias; luego,
independientemente de cual sea el estado inicial del sistema, la ley de control es la misma.
256
Apuntes de Automática II
Función de coste
J = ·x TN ·S ·x N + ·∑ (x kT ·Q·x k + u kT ·R·u k )
1 1 N −1
2 2 k =0
Suposiciones S ≥ 0, Q ≥ 0, R ≥ 0 y simétricas
[ (
S k = F T · S k +1 − S k +1 ·G· R + G T ·S k +1 ·G )
−1
]
·G T ·S k +1 ·F + Q k < N, SN dado
(
K k = R + G T ·S k +1 ·G )−1
·G T ·S k +1 ·F k<N
u k = − K k ·xk k<N
1
J * = · x0T ·S 0 ·x0
2
Cuadro 7.3
Con la ley de control óptima se obtiene, después de algunos cálculos, que la función de
coste óptima es:
1
J * = · x0T ·S 0 ·x0 (7. 29)
2
En general cualquier tiempo k del intervalo [0, N] puede considerarse como el intervalo
inicial del subintervalo [k,N], de modo que el valor de la función de coste para ese
subintervalo es:
1
J k* = ·x kT ·S k ·x k (7. 30)
2
257
TEMA 7: Control óptimo de sistemas discretos
Lo que significa que dado el estado actual xk se puede calcular el “coste restante” de
aplicar la ley de control desde los tiempos k a N.
En el Cuadro 7.3 resumen las ecuaciones de control óptimo para sistemas lineales,
discretos, con función de coste cuadrática.
Salvo en los casos más sencillos, la solución del problema de control óptimo requiere el
uso de un computador. Existe un gran número de paquetes matemáticos que permiten
resolver la ecuación de Riccati.
+ C + x(t)
u(t)
- -
−1 1
x& = ·x + · u
τ τ
Se desea controlar la tensión del condensador x(t) aplicando a la entrada u(t), por un
microprocesador, sólo en los instantes k·T. El microprocesador también muestrea x(t) en cada
258
Apuntes de Automática II
periodo de muestreo T. Se supone que T=0.5 seg (para un buen control se debería seleccionar
T<(τ/10)).
x k +1 = f · x k + g · u k
−
T
−
T
f =e τ
g = 1 − e τ
Supóngase que se desea que el control uk y el estado xk tomen un valor pequeño en un intervalo de
5 segundos, cualquiera que sea el valor inicial x0 de que se parta. En ese caso N=5/T=10. Para
expresar estos objetivos matemáticamente, se selecciona la función de coste
1 1 N −1
J = ·s·x N2 + ·∑ (q·x k2 + r ·u k2 )
2 2 k =0
10 -4.2
9
-4.4
8
7 -4.6
S eñal de c ontrol u(k T)
6
E s tado x (K T)
-4.8
-5
4
3 -5.2
2
-5.4
1
0 -5.6
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
Tiempo (seg) Tiempo (seg)
(a) (b)
Figura 7.2: Simulación de la dinámica de la planta: (a) Estado x sin control (línea punteada) y con
control óptimo con q=1, r=1, sN=100 y x0=10 (línea continua). (b)Señal de control u.
259
TEMA 7: Control óptimo de sistemas discretos
f · g ·s k +1
Kk =
g 2 s k +1 + r
f 2 ·r ·s k +1
sk = +q
g 2 ·s k +1 + r
Haciendo sN muy elevado se puede forzar a que el valor de xN sea muy pequeño.
La Figura 7.2 muestra el valor del estado y del control cuando no existe ninguna acción de control, y
cuando el control óptimo se determina con q=1, r=1, sN=100 y x0=10.
Muchos sistemas pueden describirse por la siguiente ecuación diferencial (por ejemplo la ley de
Newton m·a=F).
d2y
=u
dt 2
0 1 0
x& = ·x + ·u
0 0 1
y = [1 0]·x
1 T T 2 / 2
x k +1 = · x
k + ·u k
0 1 T
y k = [1 0]· x k
1 0
S =Q=
0 0
260
Apuntes de Automática II
10
8
Gananc ia K 1
6
0
0 0 .5 1 1 .5 2 2 .5 3 3 .5 4 4 .5 5
T ie m p o (s e g )
4
Gananc ia K 2
0
0 0 .5 1 1 .5 2 2 .5 3 3 .5 4 4 .5 5
T ie m p o (s e g )
Figura 7.3: Ganancias k1 y k2 para r=1 (línea sólida), r=0.1 (línea discontinua) y r=0.01 (línea
punteada).
R=1
1
0 .8
0 .6
0 .4
0 .2
-0 . 2
-0 . 4
-0 . 6
-0 . 8
0 0 .5 1 1 .5 2 2 .5 3 3 .5 4 4 .5 5
T ie m p o (s e g )
Figura 7.4: Representación de los estados x1 (línea sólida) y x2 (línea discontinua) y de la señal de
control u (línea punteada) para r=1.
261
TEMA 7: Control óptimo de sistemas discretos
R = 0 .1
1
0 .5
-0 . 5
-1
-1 . 5
-2
-2 . 5
0 0 .5 1 1 .5 2 2 .5 3 3 .5 4 4 .5 5
T ie m p o (s e g )
Figura 7.5: Representación de los estados x1 (línea sólida) y x2 (línea discontinua) y de la señal de
control u (línea punteada) para r=0.1.
R = 0 .0 1
3
-1
-2
-3
-4
-5
0 0 .5 1 1 .5 2 2 .5 3 3 .5 4 4 .5 5
T ie m p o (s e g )
Figura 7.6: Representación de los estados x1 (línea sólida) y x2 (línea discontinua) y de la señal de
control u (línea punteada) para r=0.01.
Estas matrices indican que se “pesa” el valor de la señal y, pero no el de la velocidad y& .
La matriz R es en este caso un escalar r, pues sólo hay una señal de control. Se puede investigar la
influencia de este factor de peso, las Figuras 7.3 - 7.6 se muestran los valores de la ganancia K=[k1,
k2], de los estados x=[x1,x2]T y del vector de control u para r = 1.0, r= 0.1 y r=0.01. El número de
262
Apuntes de Automática II
pasos considerado es de N=50, lo que para un periodo de muestreo de T=0.1 seg, significa que el
tiempo total es de t=5 seg. Por otra parte, se considera como estado inicial x1=1 y x2=0.
Como se puede observar, las ganancias permanecen constantes durante la mayor parte del intervalo
de control, siempre que este sea grande comparado con el transitorio de las ganancias. Este
importante aspecto será estudiado en la siguiente sección.
De las Figuras 7.4 - 7.6 se desprende que un aumento en el valor de r hace que disminuya la
magnitud de la señal de control u.
Incluso en los problemas más sencillo, como los presentados en los ejemplos
anteriores, resulta muy laborioso realizar los cálculos de forma manual, por lo que estos se
realizan con la ayuda de un computador.
El algoritmo indicado en el Cuadro 7.2 y la evolución del sistema (7.10), con el control
(7.26) son muy fáciles de programar en un computador, lo que permite realizar el estudio
con comodidad. En este sentido es muy recomendable resolver los ejemplos anteriores
utilizando paquetes software tipo Matlab para el análisis y síntesis de controladores óptimos.
J ∞ = ·x ∞T ·S ·x ∞ + ·∑ (x kT ·Q ·x k + u kT ·R·u k )
1 1 ∞
(7. 31)
2 2 k =0
Supóngase que se parte de un estado inicial, S∞, para determinar la ley de control
óptima según el algoritmo 2.1. Según se calcula Sk se pueden tener las siguientes formas de
comportamiento de la secuencia:
263
TEMA 7: Control óptimo de sistemas discretos
[ (
S = F T S − S ·G R + G T ·S ·G )
−1
]
·G T ·S ·F + Q (7. 32)
Al igual que la matriz SN, la matriz S∞ es simétrica y definida positiva. Sin embargo, la
solución a la ecuación algebraica (7.32) puede tener soluciones no semidefinidas positivas,
no simétricas e incluso complejas. Por lo que, para un S∞ dado, no todas las soluciones a
EAR son soluciones en el estado estacionario de la ecuación variante en el tiempo. Por
supuesto si la solución límite o estacionaria a (7.23), S , existe, es una solución de (7.32).
En este caso la ganancia de Kalman en estado estacionario es:
(
K = R + G T ·S ·G )−1
·G T ·S ·F (7. 33)
1
J ∞ = ·x 0T ·S ·x0 (7. 35)
2
264
Apuntes de Automática II
1 ∞
(
J ∞ = ·∑ x kT ·Q ·x k + u kT ·R·u k
2 k =0
) (7. 36)
♦ Discusión adicional:
Analizando los resultados obtenidos en esta sección pueden surgir las siguientes preguntas:
1) ¿Cuando existe una solución estacionaria S a la ecuación de Riccati para todas las
elecciones de S∞?
Las respuestas a estas preguntas están ligadas a las propiedades dinámicas del sistema (7.11) con
el índice de realización (7.12).
No se va a realizar un estudio detallado, sino que sólo se presentarán aquellos hechos que son
importantes para la mayoría de los diseños. Estos hechos se resumen en los siguientes teoremas
que además sirven para responder a las tres preguntas anteriormente formuladas.
- Teorema 7.1: Si el par (F, G) es estabilizable1, entonces para toda elección S∞ existe una solución
límite acotada S a (7.23). Además, S es una solución semidefinida positiva a la ecuación de Riccati
(7.32).
Es importante hacer notar que ni la solución al problema de control óptimo del Cuadro 7.3, ni en los
ejemplos posteriores se hizo ninguna referencia a la controlabilidad de la planta. Independientemente
de las propiedades de controlabilidad de la planta, el control óptimo tratará de hacer lo mejor posible
la minimización de la función de coste.
El teorema anterior muestra que si en realidad la planta es estabilizable, entonces existe una solución
limite infinita, S , a la ecuación de Riccati. Esto significa que cuando el intervalo de control [0, N]
tiende a infinito, la función de coste óptimo J* permanece acotada. Como R>0, el hecho anterior
garantiza que el control óptimo u*k tampoco tiende a infinito.
El Teorema 7.1 a veces se enuncia en términos de la condición más fuerte de alcanzabilidad (la cual
implica la estabilizabilidad), y que puede comprobarse examinando el rango de la matriz de
alcanzabilidad discreta (que es igual que la matriz de controlabilidad discreta).
1
Un sistema se dice que es estabilizable si todos los modos inestables de su matriz F son alcanzables.
265
TEMA 7: Control óptimo de sistemas discretos
[
M cd = G, F ·G,..., F n −1 ·G ]
Siendo n la dimensión del vector de estado.
El Teorema 7.2 que se enuncia a continuación sirve para responder a la segunda y tercera preguntas
que se han formulado.
- Teorema 7.2: Sea C una raíz cuadrada de la matriz de peso Q, de modo que se verifica Q=CT·C ≥ 0.
Supóngase que R>0 y que el par (F, C) es observable. Entonces el par (F,G) es estabilizable si y solo
sí:
a) Existe una única solución definida positiva a la solución límite S de la ecuación de Riccati
( )
b) El sistema en lazo cerrado x k +1 = F − G·K · x k es asintóticamente estable, donde K está
• La parte a) del Teorema 7.2 dice que si el intervalo [0,N] es suficientemente elevado,
entonces la función de coste óptima del control es:
1
J ∞ = ·x 0T ·S ·x0
2
Es decir, que es finita e independiente del valor seleccionado para el peso del estado final
S∞. Por lo que, tanto si se pesa mucho o poco el estado final de la función de coste, el
valor óptimo de esta función o coste óptimo, es el mismo.
• Como R>0, la finitud de J significa que el control óptimo es también finito, todos los
objetivos se pueden lograr con un control finito.
2) Si se decide utilizar una ganancia constante igual a K , uk=- K ·xk para todo k,
se tiene garantizada la estabilidad en lazo cerrado.
266
Apuntes de Automática II
Estas propiedades son muy convenientes, para garantizar que se cumplen sólo se necesita asegurar
que la planta es estabilizable y elegir adecuadamente Q.
La selección de Q= CT·C se debe hacer para algún C que haga que (F,C) sea observable. Esto se
verificará siempre si se elige una Q definida positiva, ya que (F,C) es observable para cualquier C de
rango n.
• Si la planta es observable a través de la salida ficticia dada por yk=C·xk, entonces los
movimientos en cualquier dirección del espacio ℜn tienen una influencia en la función de
coste. Si alguna componente del vector de estados se incrementa también lo hace la
función de coste. Por lo que si J es pequeño también lo es el estado. Cualquier control que
hace pequeño a J hace que el estado se mantenga próximo al origen.
La hipótesis del Teorema 2.2 es demasiado fuerte de forma innecesaria. Todo lo que se requiere para
que se verifique el Teorema es la detectabilidad de (F,C). Es decir, sólo se requiere que sean
observables a través de la función de coste los modos inestables. Sin embargo, es este caso sólo se
Un resultado de lo dos teoremas anteriores es que proporcionan una forma de estabilizar cualquier
sistema con múltiples entradas-salidas. Si Q y R son cualesquiera matrices definidas positivas de un
orden apropiado, entonces la ley de control uk=- K ·xk obtenida en (7.32) y (7.33), da una función de
transferencia en lazo cerrado estable. Dependiendo de las matrices Q y R se obtendrán distintos
polos para (F-G· K ), pero estos polos serán siempre estables. Más adelante se verá como se
localizan estas raíces.
Es importante hacer notar que en el caso de que la salida real del sistema esté dada por yk=C·xk
entonces la elección de Q=CT·C sólo pesa las salidas del sistema.
267
TEMA 7: Control óptimo de sistemas discretos
En todo lo que sigue se supone que se verifican las condiciones del Teorema 7.2, es
decir (F, G) es estabilizable y (F, C) es observable.
una matriz de ganancia del lazo de control. De modo que I + K ·( z·I − F ) ·G es una matriz
−1
G + z-1
-
Figura 7.7: Control óptimo en lazo cerrado con el control óptimo representado como
realimentación de estado.
H ( z ) = C ·( z·I − F ) ·G
−1
(7. 40)
Se verifica la siguiente relación entre los polos del sistema en lazo cerrado y los del
sistema en lazo abierto
268
Apuntes de Automática II
−1
∆c ( z −1 )·∆c ( z ) = H T ( z −1 )·H ( z ) + R ·∆ ( z −1 )·∆ ( z )· G T ·S ·G + R (7. 41)
−1
El término · G T ·S ·G + R depende del valor, todavía desconocido, de la solución de la
La función de transferencia en lazo cerrado es estable, por lo que los polos en lazo
cerrado óptimos se pueden determinar seleccionando las raíces estables del polinomio de la
derecha de la ecuación de Chang-Letov.
Considérese el caso de tener una única entrada con Q=q·I, entonces C= q ·I. Luego:
269
TEMA 7: Control óptimo de sistemas discretos
q N T ( z −1 )·N ( z )
1+ · (7. 44)
r ∆( z −1 )·∆( z )
La expresión (7.45) está en la forma exacta que se requiere para el análisis del lugar de
las raíces. Por lo que toda la teoría sobre este método de diseño se puede aplicar.
Evidentemente, cuando q/r varía de 0 (no se pesa el estado) a ∞ (no se pesa el control), los
polos del control óptimo se mueven de los polos estables de
a sus ceros estables (se debe recordar que las raíces de G(z) son recíprocas, luego tiene
igual número de raíces estables que inestables). Luego el peso r puede elegirse para
obtener los polos en lazo cerrado deseados.
Sea la planta
x k +1 = f · x k + g ·u k (1)
J ∞ = ·∑ (q·x kT ·x k + r ·u kT ·u k )
1 ∞
(7)
2 k =0
u k = −k ·x k (3)
f ·g ·s
k= (4)
g 2 ·s + r
f 2 · g 2 ·s 2
s = f ·s − 2
2
+q (5)
g ·s + r
270
Apuntes de Automática II
f
f c = f − g ·k = (6)
g2
1 + ·s
r
La ecuación (5) se puede escribir en la forma:
[ ]
g 2 ·s 2 + (1 − f 2 )·r − g 2 ·q ·s − q·r = 0 (7)
g 2 ·q
∆= (8)
(1 − f 2 )·r
∆ 2 ∆r
·s + (1 − ∆)·s − 2 = 0 (9)
q g
q 4·∆
s= ·± (1 − ∆) 2 + − (1 − ∆) (10)
2·∆ (1 − f )
2
a) Sistema estable
Supóngase que | f |<1, entonces (1-f2)>0 y ∆>0. En este caso la única solución no negativa de (7) es:
q 4·∆
s= · (1 − ∆ ) 2 + − (1 − ∆ ) (12)
2·∆ (1 − f )
2
fc < f (11)
271
TEMA 7: Control óptimo de sistemas discretos
Como |f|<1, si q=0, el sistema es detectable, es decir, el modo no observable es estable, y entonces
∆=0, pero de acuerdo con la ecuación (6) fc = f, y el sistema en lazo cerrado, aún así, es estable. En
este caso s=0 es semidefinida positiva.
b) Sistema inestable
Supóngase que | f |>1, entonces (1-f2)<0 y ∆<0. En este caso la única solución no negativa de (7) es:
q 4·∆
s=− · (1 − ∆) 2 + − (1 − ∆ ) (13)
2·∆ (1 − f 2 )
De acuerdo con (6), si ∆<0, todavía se verifica |fc|<|f|, pero ahora no resulta fácil demostrar que |fc|<1 .
Sin embargo se tiene que
f
fc = (14)
1− f 2
4·∆
1− ·± (1 − ∆) 2 + − (1 − ∆)
2 (1 − f )
2
1
fc ≅ (15)
f
Hay que hacer notar que fc no depende de g, q y r de forma individual, sino de la cantidad g2·q/r. (Esto
también es cierto si f es estable).
Si |f|>1, entonces la observabilidad de (f,q1/2) es equivalente a q≠0, que es una condición necesaria
para que (14) sea estable
♦ Ejemplo 7.6: Diseño de un regulador lineal cuadrático en el estado estacionario para un oscilador
armónico.
272
Apuntes de Automática II
0 1 0
x& = · x + ·u (1)
− ω − 2·δ ·ω
2
10
0 1 0
x& = · x + 10·u (2)
− 2 2·
1 ∞
(
J ∞ = ·∑ q·x kT · x k + u k2
2 k =0
) (5)
Es decir Q=q·I, R=1, el intervalo de control infinito [0, ∞ ) significa que se está interesado en el control
en el estado estacionario
luego
0.003· z + 0.003
0.256· z − 0.256
N ( z)
H ( z) = q1/ 2 · = q 1 / 2 · 2 (6)
∆( z ) z − 2.050· z + 1.051
N T ( z −1 )·N ( z )
G( z) = (7)
∆( z −1 )·∆( z )
q
1 + ·G ( z ) (8)
r
−1
son las raíces de ∆ ( z )·∆ ( z ) . Esta función es:
c c
273
TEMA 7: Control óptimo de sistemas discretos
T
0.003· z −1 + 0.003 0.003· z + 0.003
·
0.256· z −1 − 0.256 0.256· z − 0.256
G = −2
( )(
z − 2.050· z −1 + 1.051 · z 2 − 2.050· z + 1.051 ) (9)
0.03
0.02
0.01
Im ag A x is
-0.01
-0.02
-0.03
0.9 0.92 0.94 0.96 0.98 1 1.02 1.04 1.06 1.08 1.1
Real Axis
De acuerdo con la ecuación de Chang-Letov, los polos óptimos del sistema en lazo cerrado (F-G·K)
con el regulador lineal cuadrático, son los ceros estables de (8) para cualquier valor de q y r. Cuando
q=0, los polos en lazo cerrado son los polos de la planta reflejados dentro del círculo unidad (esto es,
274
Apuntes de Automática II
los polos inestables zi son sustituidos por zi-1), y cuando q→ ∞ , son los ceros de H(z) reflejados
dentro del círculo unidad.
Supóngase que se examina el lugar de las raíces y se decide que los polos en lazo cerrado
correspondientes a q=0.07 son satisfactorios para nuestros propósitos. Estos son 0.952 y 0.948.
Luego el polinomio característico en lazo cerrado deseado es:
La ganancia constante que sitúa los polos del sistema en lazo cerrado en las raíces de ∆ (z ) se
c
−1
K = [0 1]· M cd ·∆c ( F ) (12)
∆c (F ) que es una matriz real de dimensión 2 x 2. Por otra parte la matriz de controlabilidad es
0.003 0.010
M cd = [G FG ] = (14)
0.256 0.269
Las ecuaciones que se deben resolver para determinar la ganancia del estimador
óptimo (ver sección 4.2) son:
275
TEMA 7: Control óptimo de sistemas discretos
(
P(k + 1 | k + 1) = P(k + 1 | k ) − P(k + 1 | k )·C T · R2 + C ·P(k + 1 | k )·C T )
−1
·C ·P(k + 1 | k ) (7. 47)
FT Φ
G CT
Q R1
R R2
S P(k + 1 | k )
M P(k | k )
Tabla 7.1: Dualidad entre control óptimo y estimación óptima
P (k + 1 | k ) = P (k | k − 1) = P
276
TEMA 8
8.1 INTRODUCCION
Existen varias diferencias entre los problemas de control óptimo para sistemas
continuos y sistemas discretos, una de las cuales es la mayor simplicidad de las ecuaciones
para el caso continuo.
Otra diferencia reside en los pasos iniciales que se deben seguir para la obtención de la
ley de control. Para sistemas continuos es preciso distinguir diferenciales y variaciones de
una cantidad, algo que no era necesario en el tema anterior. Esto implica que se va a utilizar
el cálculo de variaciones, del que se hace un breve repaso en la siguiente sección.
Si x(t) es una función continua del tiempo t, entonces los diferenciales dx(t) y dt no son
independientes. Sin embargo, se puede definir un pequeño cambio en x(t) que es
independiente de dt.
277
TEMA 8: Control óptimo de sistemas continuos
Para encontrar una relación entre dx, δx y dt hay que fijarse en la Figura 8.1. En ella se
muestra la función x(t), y también una función muy próxima x(t)+dx(t), en el intervalo [t0, T].
Además del incremento dx(t) en cada instante de tiempo t, se ha incrementado también el
tiempo final en dT. De la Figura 8.1, resulta claro que el incremento global de x en T, dx(t),
depende de dT.
x(t)
x& (T)·dT
dx(T)
δx(T)
x(t) dT
x(t)+dx(t)
t0 T T+dT t
n
Otra relación útil es la regla de Leibniz para funcionales. Si x(t)∈ℜ es una función de t
y:
T
J ( x) = ∫ h( x(t ), t )dt (8. 2)
t0
donde J(.) y h(.) son ambos funcionales escalares de tipo real (esto es, funciones de la
función x(t)), entonces:
T
dJ = h( x(T ), T )·dT − h( x(t 0 ), t 0 )·dt 0 + ∫ [hxT ( x(t ), t )·δ x]·dt (8. 3)
t0
∂h
Se ha utilizado la notación: hx ≅
∂x
278
Apuntes de Automática II
x& (t ) = f ( x, u , t ) (8. 4)
n m
Donde x(t)∈ℜ es el vector de estados y u(t)∈ℜ es el vector de control. A este sistema
se le va asociar la siguiente función de coste:
T
J (t 0 ) = φ ( x(T ), T )·dT + ∫ L( x(t ), u (t ), t )·dt (8. 5)
t0
Ψ ( x(T ), T ) = 0 (8. 6)
p
Siendo Ψ ∈ ℜ .
La función φ ( x(T ), T ) es una función del estado final que se desea minimizar. Mientras
que la función Ψ ( x(T ), T ) es una función del estado final que se desea hacer exactamente
cero. Ambas funciones no deben ser confundidas.
♦ Ejemplo 8.1:
Considérese un satélite artificial con el estado x = [ r , r&, θ, θ& ] donde r y θ son el radio y la posición
1
φ ( x(T ), T ) = ·x T (T )·S (T )·x(T )
2
279
TEMA 8: Control óptimo de sistemas continuos
Siendo S(T) una función de peso. En este caso φ es equivalente a la energía del sistema. Si se quiere
situar el satélite en una órbita circular de radio R, se puede tomar como función del estado final que
se debe anular a:
r (t ) − R
Ψ ( x(T ), T ) = r&(t )
& µ
θ(t ) −
R3
T
J ' = φ ( x(T ), T )·+ ν T ·Ψ ( x(T ), T )·+ ∫ [ L( x, u , t ) +·λ T (t )·[ f ( x, u, t ) − x& ]] dt (8. 7)
t0
H ( x, u , t ) = L( x, u, t ) +·λ T · f ( x, u, t ) (8. 8)
T
J ' = φ ( x(T ), T )·+ ν T ·Ψ ( x(T ), T )·+ ∫ [ H ( x, u , t ) −·λ T · x& ] dt (8. 9)
t0
( )T
(
dJ ' = φ x + ΨxT υ ·dx T + φ t + ΨtT υ ·dt T + Ψ T)T
T dυ + (H - λ T ·x& )·dt T −
T (8. 10)
− (H - λ T ·x& )·dt t + ∫ [ H xT ·δ x + H uT ·δ u − λ T ·δ x& + (H λ - x& ) T ·δ λ ]·dt
0 t0
Para eliminar la variación en x& , hay que integrar por partes para ver que:
280
Apuntes de Automática II
T T
− ∫ λ T ·δ x&·dt = - λ T ·δ x T + λ T ·δ x t + ∫ λ& T ·δ x·dt (8. 11)
t0 0 t0
( )
T
(
dJ ' = φ x + ΨxT υ - λ ·dx T + φt + ΨtT υ + H - λ T · x& + λ T · x& ·dt T + )
T
T
+ λ T ·dx t + ∫ [(H λ + λ& )T ·δ x + H Tu ·δ u + (H λ − x& )T ·δλ]dt
0 t0
x& = f ( x, u , t ), t ≥ t0 t 0 fijado
Función de coste:
T
J (t 0 ) = φ ( x(T ), T )·dT + ∫ L( x, u, t )·dt
t0
H ( x, u , t ) = L( x, u , t ) +·λ T · f ( x, u, t )
Ecuación del estado:
∂H
x& = = f, t ≥ t0
∂λ
Ecuación del co-estado:
∂H ∂f T ∂L
− λ& = = ·λ + , t ≤T
∂x ∂x ∂x
Condición de estacionaridad:
∂H ∂L ∂f T
0= = + ·λ
∂u ∂u ∂u
Condición frontera:
x(t 0 ) dado
Cuadro 8.1: Controlador continuo no lineal óptimo con una función del estado final fija.
281
TEMA 8: Control óptimo de sistemas continuos
La condición (8.13) del Cuadro 8.1 se debe a que dx(T) y dT no son independientes,
como se puso de manifiesto en la sección 8.2. Por ello no se pueden poner de forma
separada iguales a cero, sino que toda la expresión debe de anularse simultáneamente, en
t=T. Esto se debe a que se ha permitido que el instante final pueda variar, hecho que se
verifica en los problemas de tiempo mínimo.
Si el estado final se deja libre la condición frontera, puesto que dx(T)≠0 y Ψ =0, toma la
forma:
Como en el caso discreto, el control óptimo del Cuadro 8.1, depende de la solución a un
problema de valores frontera en dos puntos, ya que x(t0) se da y λ(T) se determina de (8.13).
El valor de λ(t) no interesa, sin embargo se hace necesario su cálculo, como un paso
intermedio para determinar el control óptimo u*(t), que depende de λ(T) mediante la
condición de estacionaridad o ecuación de control.
El principio de Hamilton para sistemas conservativos en física clásica afirma lo siguiente: “De todas
las posibles trayectorias que puede seguir un sistema dinámico para ir de un punto a otro, dentro de
282
Apuntes de Automática II
un intervalo de tiempo especifico (consistente con las ligaduras), el sistema siempre sigue aquel que
minimiza la integral temporal de la diferencia entre las energías cinética y potencial”.
A partir de este principio se pueden obtener las ecuaciones de Lagrange del movimiento. Si se define:
Donde la función f se obtiene de la física del problema. Para encontrar la trayectoria, el principio de
Hamilton dice que se debe minimizar la siguiente función de coste:
T
J (0) = ∫ L(q, u )·dt (2)
0
H = L + λT u (3)
∂H ∂L
- λ& = = (4)
∂q ∂q
∂H ∂L
0= = +λ (5)
∂u ∂u
∂L d ∂L
− =0 (6)
∂q dt ∂q&
283
TEMA 8: Control óptimo de sistemas continuos
Luego se observa que en este contexto, la ecuación adjunta y la ecuación de control son equivalentes
a la ecuación de Lagrange. En el contexto general de problemas variacionales, a la ecuación (6) se la
conoce como ecuación de Euler.
∂L
λ=− (7)
∂q&
∂H
q& = (8)
∂λ
∂H
- λ& = (9)
∂q
Las ecuaciones (8) y (9) son conocidas como las ecuaciones de Hamilton del movimiento. Así, el
problema del control óptimo, la ecuación de estado y su ecuación adjunta son una formulación
generalizada de las ecuaciones del movimiento de Hamilton.
La longitud de una curva x(t), dependiente de un parámetro t, entre t=a y t=b está dada por:
J =∫
a
b
(1 + x& (t ))dt
2
(1)
La curva debe unir los puntos del plano (a,A), (b,B), luego se tienen las condiciones frontera:
x(a ) = A (2)
x(b) = B (3)
Se desea encontrar la curva x(t) que une (a,A), (b,B) y que minimiza (1). Este problema se puede
resolver expresándolo en la forma de un problema de control óptimo, para lo cual definimos la
“entrada” (ver ejemplo anterior), en la forma:
x& = u (4)
284
Apuntes de Automática II
b
J =∫ 1 + u 2 dt (5)
a
El Hamiltoniano es:
H = 1 + u 2 + λu (6)
x& = H λ = u (7)
- λ& = H x = 0 (8)
u
0 = Hu = λ + (9)
1+ u2
De (9) se obtiene:
λ
u= (10)
1− λ2
u = const (11)
La ecuación (11) es el control óptimo (la pendiente de la curva es constante). De la ecuación (7) se
obtiene, pues:
Para determinar c1 y c2, se utilizan las condiciones frontera (2) y (3), con lo que se obtiene:
Luego la trayectoria óptima entre dos puntos del plano es una línea recta.
285
TEMA 8: Control óptimo de sistemas continuos
Se desea calentar una habitación utilizando la mínima energía posible. Si θ(t) es la temperatura en la
habitación, θa(t) es la temperatura ambiente fuera de la habitación, que se supone constante θa(t)= θa,
y u(t) es el calor suministrado a la habitación, la ecuación dinámica del sistema es:
Donde a y b son unas ciertas constantes que dependen del aislamiento de la habitación y de otros
factores. Se define el estado del sistema como:
Para controlar la temperatura en un intervalo fijo de tiempo [0,T] con la menor cantidad posible de
suministro de energía se toma como función de coste:
1 T 2
2 ∫0
J (0) = u (t )dt (4)
El Hamiltoniano es:
u2
H= + λ(-a·x + b·u) (5)
2
De acuerdo con el Cuadro 8.1, el control óptimo se determina resolviendo las ecuaciones:
λ& = − H x = aλ (7)
0 = H u = u + b·λ (8)
u (t ) = −b·λ(t) (9)
* *
Luego para determinar u (t) se debe determinar λ (t). Si se sustituye (9) en (6), se obtienen las
ecuaciones de estado y adjunta:
286
Apuntes de Automática II
* *
La solución de (10a) y (10b) dará los valores óptimos λ (t) y x (t).
Todavía no se ha fijado λ(T), pero supóngase que es conocido. La solución a (10b) es:
Luego:
b2
x(t) = x(0)·e -a·t − λ( T)·e -a·T ·senh( a·t ) (14)
a
*
Las ecuaciones (11) y (14) dan los valores óptimos de λ y de la trayectoria x (t) en función del valor,
todavía no especificado λ(T). El valor inicial x(0) se considera conocido.
Considérese ahora dos objetivos de control distintos, que darán dos formas de determinar λ(T):
x(0) = 0º (15)
Considérese como objetivo de control llevar la temperatura exactamente a 70° en el intervalo fijo de T
segundos. En este caso se pide que el estado final tenga un valor fijo de:
287
TEMA 8: Control óptimo de sistemas continuos
Obsérvese en que como el instante final T y el estado final x(T) se han fijado, dT y dx(T) son nulos,
de modo que se verifica la ecuación (8.13). De (15) y (16) se debe determinar λ(T); después, se
puede hallar λ(t) utilizando (11) y la ley de control óptima utilizando (9). Para encontrar λ(T), se usa
(14):
b2
x(T) = x(0)·e -a·T − λ( T)·(1 - e -2aT ) (17)
2a
Que con los valores de x(T) y x(0) dados en (15) y (16) da:
20a
λ(T) = − (18)
b (1 - e -2a·T )
2
10·a·e a·t
λ * (t) = − (19)
b 2 ·senh(a·T)
10·a·e at
u (t) =
*
0≤t ≤T (20)
b·senh(a·T)
senh(a·t)
x * (t) = 10 (21)
senh(a·T)
*
Por lo tanto, x (T)=10 como se deseaba.
Supóngase que el objetivo de control no es llevar el estado final exactamente a 10°, sino que se
desea que el control minimice:
1 1 T
s·( x(T ) − 10) + ∫ u 2 (t )dt
2
J (0) = (22)
2 2 0
El valor de s será seleccionado a posteriori. Si s es elevado, la solución óptima hará que x(T) esté
próximo a 10°, ya que sólo de esta manera se logrará que el primer término de (22), tenga una
pequeña contribución en el coste.
288
Apuntes de Automática II
De acuerdo con el Cuadro 8.1 la ecuación de estado y su ecuación adjunta son todavía válidas, así
como la condición de estacionaridad, luego (10) y (9) se mantienen; (11) y (14) siguen siendo válidas.
La condición inicial es todavía (15), pero la condición final debe ser determinada usando (8.13). El
tiempo final T está fijado, así que dT=0 y el segundo término de (8.13) es automáticamente igual a 0.
Puesto que x(T) no está fijado, dx(T) es distinto de cero. Por lo tanto se requiere que:
∂φ
λ(T) = = s·( x(T ) − 10 ) (23)
∂x T
(Obsérvese que no existe ninguna función Ψ en este problema). Ésta es la nueva condición terminal
y de (15) y de (23) se debe determinar λ(T). Para hacer este cálculo hay que darse cuenta de que:
λ(T)
x(T) = + 10 (24)
s
− 20·a·s
λ(T) = (25)
2·a + b 2 ·s·(1 − e − 2 aT )
− 10·a·s·e at
λ * (t) = (26)
a·e aT + s·b 2 ·sinh(aT )
10·a·b·s·e at
u (t) =
*
(27)
a·e aT + s·b 2 ·sinh(aT )
*
Para comprobar el resultado, se simula el control utilizando u (t) en la planta (3). Resolviendo para la
trayectoria del estado óptimo se obtiene:
10·s·b 2 ·sinh(at )
x (t) =
*
(28)
a·e aT + s·b 2 ·sinh(aT )
En el instante final:
10·s·b 2 ·sinh(aT )
x * (T) = (29)
a·e aT + s·b 2 ·sinh(aT )
289
TEMA 8: Control óptimo de sistemas continuos
c) Discusión:
*
El valor final x (T) en (29) es diferente al valor deseado de 10°. Éste es función del peso del estado
final s en la función de coste. Cuando s aumenta, se le está dando más importancia relativa a que
x(T) sea igual a 10° que a que u2(t) sea pequeño en [0,T]. De hecho, en el límite s→∞, el co-estado
(26), el control (27) y la trayectoria del estado (28) tienden a la expresión encontrada en el apartado
*
a). En este límite, el estado final x (T) en (29) no llega a ser, de hecho, exactamente 10°.
*
Examinado (29), se puede determinar x (T) para varios valores de s y seleccionar un valor que
proporcione un buen compromiso entre llevar a x(t) al valor final deseado y conservar la energía del
control. Usando este valor de s en (27) se obtiene el control óptimo que se aplicaría para calentar la
habitación.
1 1 T
( )
J (t 0 ) = ·x T (T )·S (T )·x(T ) + ∫ x T ·Q·x + u T ·R·u dt
2 2 t0
(8. 15)
El intervalo de tiempo en el cual se está interesado para el control de la planta es [t0, T].
*
Se desea determinar el control óptimo u (t), t∈[t0,T] que minimiza J.
El Hamiltoniano es:
H (t ) =
2
(
1 T
)
x ·Q·x + u T ·R·u + λ T ·( A·x + B·u ) (8. 16)
290
Apuntes de Automática II
∂H
x& = = A·x + B·u (8. 17)
∂λ
∂H
- λ& = = Q·x + AT ·λ (8. 18)
∂x
∂H
0= = R·u + B T ·λ (8. 19)
∂u
Como el estado final es libre dx(T)≠0, y como se supone que el tiempo final es fijo dT=0,
entonces la condición frontera (8.13) toma la forma:
∂φ
λ(T) = = S (T )·x(T ) (8. 22)
∂x T
El problema radica en resolver las ecuaciones (8.21) y (8.18) con las condiciones
frontera x(to) y λ(T), dado por (8.22).
Para determinar la solución se supone que x(t) y λ(t) satisfacen una ecuación como la
(8.22) para t∈[t0, T], con una matriz S(t) todavía desconocida:
291
TEMA 8: Control óptimo de sistemas continuos
Como la ecuación anterior se debe de verificar para todas las trayectorias del vector de
estado cualquiera que sea el x(t0), es necesario que se verifique:
K (t ) = R −1 ·B T ·S (t ) (8. 28)
Se tiene
El Cuadro 8.2 resume el controlador lineal cuadrático óptimo para sistemas continuos.
En términos de la ganancia de Kalman, la ecuación de Riccati puede expresarse de la
siguiente forma:
292
Apuntes de Automática II
Esta ecuación permite determinar la trayectoria óptima del vector de estado x*(t) a partir
del estado inicial x(t0).
Se puede demostrar que con el control óptimo (8.29) el valor de la función de coste en
el intervalo [t,T] es:
1
J (t ) = ·x T (t )·S (t )·x(t ) (8. 32)
2
∂2J
=R (8. 33)
∂u 2
293
TEMA 8: Control óptimo de sistemas continuos
Puesto que R>0, el control óptimo efectivamente minimiza a J(t0). Seleccionando S(T)
muy elevado, se puede garantizar que el control óptimo conducirá a x(T) muy próximo a cero
para mantener a J(t0) pequeño.
Sea el sistema:
1 1 T
(
J (t 0 ) = ·s (T )·x 2 (T ) + ∫ q·x 2 + r ·u 2 dt
2 2 t0
) (2)
b2s2
− s& = 2·a·s + q − t ≤T (3)
r
s (T ) ds T
∫
s (t ) b 2
2
= ∫ dt
t
·s − 2·a·s − q
r
Si se integra se obtiene:
s1 + s 2
s (t ) = s 2 + (4)
s (T ) + s1 2 β (T −t )
·e −1
s (T ) − s 2
Donde:
b 2 ·q
β = a2 + (5)
r
r r
s1 = 2
·(β - a), s 2 = 2 ·(β + a) (6)
b b
294
Apuntes de Automática II
q γ
s ∞ = ·1 + 1 + (7)
γ a
Donde:
b2q
γ= · (8)
a·r
La ganancia es:
b
K (t ) = s (t ) (9)
r
Y en el estado estacionario:
b
K∞ = s∞ (10)
r
s (T )
s (t ) = (11)
b s (T ) b 2 s (T ) − 2 a (T −t )
2
+ 1 − e
2·a·r 2·a·r
Si se desea asegurar que el control óptimo lleva a x(T) exactamente a cero, se puede hacer S(T)→∞
para conseguir que x(T)→0 en J(t0). Con este límite se tiene:
2·a·r
s (t ) = b2 (12)
1 − e − 2 a (T − t )
2·a
u (t ) = − K (t )·x(t ) = b2 · x(t ) (13)
1 − e − 2 a (T − t )
O de forma equivalente:
295
TEMA 8: Control óptimo de sistemas continuos
a e a (T − t )
u (t ) = − · x(t ) (14)
b senh(a·(T − t ))
Si a>0, entonces:
2·a·r
s∞ = (16)
b2
b2
x& (t ) = a − ·s ∞ · x = − a· x (17)
r
También es estable.
2) Puede tender a un valor límite o estacionario S∞, que puede ser cero,
definida positiva o semidefinida positiva.
Si S(t) converge, entonces para t<<T, S& =0, lo que lleva, en el límite, a la ecuación
algebraica de Ricatti (EAR):
La EAR puede tener varias soluciones, y éstas pueden ser reales o complejas, definida
positivas o definida negativas, etc. Si S(T) se elige como simétrica, entonces la solución a la
ecuación de Riccati S(t), es simétrica y al menos semidefinida positiva para todo t≤T.
296
Apuntes de Automática II
S(∞) es siempre una solución a la EAR, pero no todas las soluciones a la EAR son una
solución límite de Riccati para algún S(T) inicial. Si S(∞) existe, entonces la ganancia en el
estado estacionario es:
El primer aspecto que se debe intentar conocer es cuando existe una solución límite S∞
a la ecuación de Riccati. El Teorema 8.1 da la respuesta.
Teorema 8.1: Supóngase que el par (A,B) es estabilizable. Entonces, para todo S(T) existe
una solución límite S(∞) a la ecuación de Riccati. Además, S(∞) es una solución
semidefinida positiva de la EAR.
Si se intenta utilizar una ley de control subóptima con una ganancia de realimentación
constante K(∞), se debería asegurar que el sistema en lazo cerrado es estable. El Teorema
8.2 dice cuando se tiene dicha propiedad.
Teorema 8.2: Sea C una matriz que verifica Q=CT·C, supóngase que (A,C) es observable.
Entonces (A,B) es estabilizable si y solo si:
a) Existe una única solución límite definida positiva, S(∞), a la ecuación de Riccati.
Además, S(∞), es la única solución definida positiva a la EAR (8.34).
Los comentarios al Teorema 8.2 se pueden repetir aquí. La observabilidad del par (A,C)
no es necesaria, basta con que sea detectable, pero en este caso sólo se garantiza que S∞
sea semidefinida positiva.
297
TEMA 8: Control óptimo de sistemas continuos
Hay que hacer notar que (8.35) es la ley de control óptima para la función de coste con
un horizonte de control infinito.
J∞ =
1 ∞ T
2 ∫0
( )
x ·Q·x + u T ·R·u dt (8. 37)
Por lo que, cuando el intervalo de control [t0, T] crece, tiene más sentido utilizar una
ganancia de realimentación constante con K(∞).
La planta
J (0) =
1 ∞
2 ∫0
( )
q·x 2 + r ·u 2 dt (2)
El control óptimo es
u = − K (∞)·x (3)
donde
b
K (∞) = ·s (∞) (4)
r
298
Apuntes de Automática II
b2 2
0 = 2·a·s − ·s + q (5)
r
Obsérvese que la planta es controlable (b≠0) y observable (q≠0). Resolviendo (5) se obtiene:
r 2
s (∞ ) = 2 a + a 2 + b ·q (6)
b r
Luego
1 b 2 ·q
K (∞ ) = a + a2 + (7)
b r
b 2 ·q
a cl = a − b·K (∞) = − a 2 + (8)
r
Considérese la planta
0 1 0
x& = ·x + ·u (1)
0 0 1
d 2 y (t )
= u (t )
dt
d 2e d 2 e(t ) F
m =F⇒ =
dt dt m
299
TEMA 8: Control óptimo de sistemas continuos
Luego u=F/m es la fuerza aplicada por unidad de masa, x1=e es el espacio recorrido y x2= e& es la
velocidad del cuerpo.
1 ∞ T q e 0
2 ∫0 0
J (0) == x · ·x + r ·u 2 dt (2)
qv
2
s
0 = − 2 + qe (3)
r
s 2 ·s 3
0 = s1 − (4)
r
s32
0 = 2·s 2 − + q v (5)
r
donde
s s2
S= 1 (6)
s2 s3
ya que es simétrica.
s 2 = q e ·r (7)
s 3 = q v ·r + 2·r q e ·r (8)
300
Apuntes de Automática II
q q q
K (∞) = R −1 ·B T ·S (∞) = e , v + 2 e (10)
r r r
Puesto que depende de las razones qe/r y qv/r, se supone que r=1. La planta en lazo cerrado es:
0 1
A c = ( A −·B·K (∞)) =
− q v + 2 qe
(11)
− qe
s 2 + q v + 2· q e ·s + q e = 0 (12)
Comparando esta ecuación con s2+2·δ·ωn·s+ωn2, se concluye que los polos del sistema en lazo
cerrado son complejos conjugados con una frecuencia natural ωn y un coeficiente de amortiguamiento
δ de
ω n = qe1 / 4 (13)
1 qv
δ= · 1+ (14)
2 2 qe
En el caso en que no se use ningún peso sobre la velocidad (qv=0), el coeficiente de amortiguamiento
toma el valor 1 / 2 . La frecuencia natural ωn depende sólo del peso sobre el espacio qe, y el
A partir de las relaciones (13) y (14) se puede elegir qe y qv de modo que se obtenga un
comportamiento deseado en lazo cerrado.
En el caso qe=0 de modo que (A,C)= (A, Q ) no es detectable, uno de los polos en lazo cerrado se
sitúa en s=0 y el sistema deja de ser estable.
Las ecuaciones del movimiento de un péndulo invertido montado sobre un vehículo son:
301
TEMA 8: Control óptimo de sistemas continuos
0 1 0
x& = 2 ·x + ·u (1)
Ω 0 1
donde x1= θ es la posición angular, x2= θ& es la velocidad angular, u es la fuerza externa aplicada al
vehículo y Ω2 es una constante que depende de las masas del péndulo, del vehículo y también de la
longitud del péndulo.
1 ∞ 2 u2
2 ∫0
J ( 0) = θ + 2 dt (2)
c
donde c es una constante. De esta función se deduce la siguiente relación para las matrices de peso:
1 0 1
Q= R= (3)
0 0 c2
Si se toma
s s2
S (∞ ) = 1
s2 s3
0 = 2·s 2 ·Ω 2 − c 2 ·s 22 + 1 (4)
0 = s1 + s 2 ·Ω 2 − c 2 ·s 2 ·s3 + 1 (5)
s
K (∞) = R −1 ·B T ·S = c 2 ·[0 1]· 1
s2
[
= c 2 ·s 2 c 2 ·s 3 ] (7)
s2 s3
La solución a las ecuaciones (4), (5) y (1) es sencilla. La ecuación (4) tiene como solución
Ω2 ± Ω4 + c2
s2 =
c2
302
Apuntes de Automática II
Todavía se desconoce que signo es el correcto, se elegirá aquél que de como solución una matriz
definida positiva. De la ecuación (6) se deduce
1
s 3 = · 2·s 2
c
s2 =
Ω2 + Ω4 + c2
c 2
2
⇒ s3 = 2 · Ω 2 + Ω 4 + c 2
c
[ ] 1/ 2
Y la ganancia es:
K (∞) = Ω 2 + Ω 4 + c 2
[
2· Ω 2 + Ω 4 + c 2 ] 1/ 2
(8)
0 1 0 0 1
A c = A −·B·K (∞) = 2
Ω
· ·[K 1
0 1
K2 ] =
− Ω + c
4 2
[
− 2· Ω + Ω + c 2 4 2
]
1/ 2
(9)
[
s 2 + 2· Ω 2 + Ω 4 + c 2 ]1/ 2
·s + Ω 4 + c 2 = 0 (10)
s=−
2
[
· Ω 4 + c 2 + Ω 2
2
]1/ 2
[
± j· Ω 4 + c 2 − Ω 2 ]
1/ 2
(10)
La Figura 8.2 muestra el lugar de las raíces cuando el factor de peso c varía de ∞ a 0. Cuando c
aumenta, las raíces en lazo cerrado tienden a las asíntotas que forman 45° con el eje real, y se
mueven hacía infinito siguiendo a estas asíntotas. Esto implica que el tiempo de respuesta tiende a
cero y que el factor de amortiguamiento tiende a δ= 2 2 =0.707. Que el tiempo de respuesta tienda a
cero no debe extrañar, ya que incrementando c decrece el coste del control (r disminuye) y esto hace
posible obtener una respuesta rápida. El que se obtenga un coeficiente de amortiguamiento δ= 0.707
es razonable, ya que permite una buena respuesta sin apenas sobreelongación. Pero el porqué
303
TEMA 8: Control óptimo de sistemas continuos
precisamente 2 2 y no otro valor se debe a que los sistemas de segundo orden en condiciones
1000
2
100
1
10
Imag
10
−1
100
−2
−3
1000
−4
−4.5 −4 −3.5 −3 −2.5 −2 −1.5 −1 −0.5 0
Real
Figura 8.2: Lugar de las raíces del sistema en lazo cerrado cuando se varía el factor de peso c2.
Como se ha visto, el regulador óptimo en el estado estacionario está dado por una
realimentación constante con K=R-1·BT·S, siendo S la única solución definida positiva de la
ecuación de Riccati (8.34).
Se puede demostrar que los polos del sistema en lazo cerrado (Ver Figura 8.3) están
dados, en este caso por:
304
Apuntes de Automática II
∆ ( s ) = s· I − A · (8. 39)
De acuerdo con la Figura 8.3, I+K·(s·I-A)-1·B puede interpretarse como una matriz de
diferencia de retorno del lazo de control.
u(t) x(t)
B + s-1
-
Defínase
como la función de transferencia del sistema en lazo abierto entre la entrada de control u(t) y
la salida real o ficticia y(t)=C·x(t), donde Q=CT·C.
Se verifica la siguiente relación entre los polos del sistema en lazo cerrado y los polos
del sistema en lazo abierto:
−1
∆c (− s )·∆c ( s ) = H T (− s )·H ( s ) + R ⋅ ∆ (− s )·∆ ( s ) ⋅ R (8. 41)
La parte derecha de (8.42) resulta conocida si se dan la planta y las matrices de peso,
así es posible utilizar la ecuación de Chang-Letov para determinar los polos en lazo cerrado
óptimos; como por el Teorema 8.4 (A-B·K) es estable, las raíces del sistema en lazo cerrado
corresponden a las raíces estables de la parte derecha de la ecuación (8.42), Las raíces de
∆c(-s)·∆c(s) son siempre simétricas con respecto al eje imaginario, al igual que las raíces de
∆(-s)·∆(s); esto es, si s1 es una raíz, también lo es -s1.
305
TEMA 8: Control óptimo de sistemas continuos
En el caso de los sistemas SISO (una sola entrada - una sola salida) con Q=q·I, como
Q=CT·C entonces C=q1/2, se tiene:
q
∆c (− s )·∆c ( s ) = ·N T (− s )·N ( s ) + ∆(− s )·∆( s ) (8. 43)
r
q N T (− s )·N ( s ) q
1+ ⋅ = 1 + ·H T (− s )·H ( s ) (8. 44)
r ∆ (− s )·∆ ( s ) r
La ecuación (8.45) que tiene la forma requerida para un análisis del lugar de las raíces
en función del parámetro q/r. Éste muestra que cuando q/r varía desde cero (no se realiza
peso sobre el estado, q=0) a ∞ (no se realiza peso en el control, r=0), los polos óptimos en
lazo cerrado s desplazan desde los polos estables de
a sus ceros estables. Así pues, se puede seleccionar la relación q/r para tener los polos en
lazo cerrado que se desean.
Hay que recordar que los polos estables de HT(-s)·H(s) son los polos de H(s) con sus
polos inestables reflejados en el semiplano izquierdo, es decir s1 = − s1 . Por otro lado los
ceros estables de HT(-s)·H(s) son los ceros de H(s) con sus ceros inestables reflejados en el
semiplano izquierdo, es decir s1 = s1 .
♦ Ejemplo 8.9:
306
Apuntes de Automática II
J (0) =
1 ∞
2 ∫0
(
q·x 22 + r ·u dt ) (4)
0 0
Q= (5)
0 q
C= 0 [ q ] (6)
Como (A,B) es controlable y (A,C) es observable si (q≠0), entonces por los Teoremas 8.1 y 8.2 el
sistema con el regulador lineal cuadrático estacionario es estable en lazo cerrado.
− q ·(3.157·s + 4.473)
H (s) = (7)
s 2 + 2.6·s − 1.183
G ( s ) = H (− s )·H ( s ) (8)
Como el polinomio característico del sistema en lazo cerrado ∆c(s) es estable, sus raíces son los
ceros estables de
q
1 + ·G ( s ) (9)
r
En este caso
307
TEMA 8: Control óptimo de sistemas continuos
0.8
0.6
0.4
0.2
Imag Axis
−0.2
−0.4
−0.6
−0.8
−1
−5 −4 −3 −2 −1 0 1 2 3 4 5
Real Axis
Los polos y los ceros de G(s) están dibujados en la Figura 8.4. Como se puede observar, están
situados de forma simétrica en torno al eje imaginario. También se muestra el lugar de las raíces
cuando q/r varía desde 0 hasta ∞. (Hay que hacer notar que como la ganancia en (10) es negativa,
en realidad se está dibujando el lugar de las raíces para unas ganancias negativas -9.97·q/r.)
308
TEMA 9
9.1 INTRODUCCION
En ocasiones el modelar un proceso real sometido a perturbaciones estocásticas
mediante un modelo determinista puede conducir a resultados bastante pobres. Se debe
considerar entonces un modelo que incluya también una parte estocástica. En estos
modelos el estado no se puede conocer con exactitud debido a la presencia de ruido, por
ello no es posible usar la teoría de control óptimo estudiada en los Temas 7 y 8. Para este
tipo de modelos es conveniente usar controles estocásticos que son aquellos que
consideran como criterio de control la minimización de alguna propiedad estadística (valor
medio, varianza, valor cuadrático medio, etc) de alguna variable del sistema, típicamente la
salida y/o la señal de control.
En esta tema se describen para sistemas discretos dos de los controles estocásticos
más conocidos: el control de varianza mínima y el control lineal cuadrático Gaussiano
comúnmente denominado como control LQG1. Con el objetivo de centrar la atención del
alumno en los resultados fundamentales no se han incluido las demostraciones matemáticas
de las ecuaciones asociadas a estas leyes de control. Los alumnos interesados pueden
consultar la sección Bibliografía.
En este tema en primer lugar se realizan una serie de consideraciones previas relativas
al modelo del sistema y a los criterios de control considerados. A continuación se dan unas
nociones básicas sobre predicción óptima que sirven de preámbulo a la explicación del
control de varianza mínima. Finalmente se describe el control LQG.
1
Acrónimo inglés derivado de Linear Quadratic Gaussian
309
TEMA 9: Control estocástico de sistemas discretos
P * (q ) = q deg ( P ) ·P(q −1 )
P (q ) = q deg ( P*) ·P * (q −1 )
P * (q −1 ) = q − deg ( P ) ·P(q)
♦ Ejemplo 9.1:
A( z ) = z + a
B * ( z ) = 1 + b·z
A * ( z ) = z deg ( A ) · A( z −1 ) = z·( z −1 + a) = 1 + a· z
A * ( z −1 ) = z − deg ( A ) · A( z ) = z −1 ·( z + a) = 1 + a·z −1
310
Apuntes de Automática II
donde A(q), B(q) y C(q) son polinomios en el operador desplazamiento q y {ek} es una
secuencia de variables aleatorias independientes, no correlacionadas con media cero y
desviación estándar σ. El modelo (9.1) es un modelo ARMAX (ver sección 5.8.1).
El polinomio C(q) puede ser multiplicado por una potencia arbitraria de q, siempre que
no se modifique la estructura de correlación de C(q)·ek. Esta propiedad se puede usar por
ejemplo para normalizar C de tal forma que el grado de C sea igual al grado de A, es decir,
deg(C) = deg(A), aunque también se puede tener que deg(C) = deg(A) - 1.
Los polinomios A(q) y B(q) pueden tener sus raíces dentro o fuera del círculo unidad,
mientras que las raíces de C(q) se encuentran todas dentro del círculo unidad. Por el
teorema de factorización espectral (ver sección 3.5.3), el polinomio C(q) se puede cambiar
para que todas sus raíces se encuentren dentro del círculo unidad o sobre él.
Sea el polinomio
C ( z) = z + 2
311
TEMA 9: Control estocástico de sistemas discretos
Considérese la señal:
nk = C (q)·ek
donde {ek} es una secuencia de variables aleatorias no correlacionadas con valor medio cero y
varianza unidad. La densidad espectral de n es
1
φ (e iωT ) = ·C (e iωT )·C (e −iωT )
2·π
Puesto que
1
C ( z )·C ( z −1 ) = ( z + 2)·( z −1 + 2) = ( z + 2)· + 2
z
1 + 2z −1
= ( z + 2)· = (2·z + 1)·(2· z + 1)
z
nk = C * (q)·ek
donde
C * ( z ) = (2·z + 1)
Luego si C(q) tiene sus ceros fuera del círculo unidad, el polinomio debe ser factorizado
de la siguiente forma:
C = C + ·C −
donde C − posee todas sus raíces fuera del círculo unidad y C + posee todas sus raíces
dentro del círculo unidad. El polinomio C debe ser sustituido por
C = C+·C− *[ ]
312
Apuntes de Automática II
J mv = E[ y k2 ] (9.2)
1 N
J mv = lim E
N →∞
N
∑y
k =1
2
k
(9.3)
Una ley de control que minimiza (9.2) se denomina control de varianza mínima. Para
estos controladores la señal de control depende de forma crítica del periodo de muestreo.
Así, un periodo de muestreo pequeño produce un varianza grande de la señal de control.
Mientras que, un periodo de muestreo pequeño produce una varianza pequeña de la señal
de control. En algunos casos es deseable llegar a un compromiso entre las varianzas de la
señal de control y de la señal de salida. Esto se puede conseguir considerando la siguiente
función de coste:
J lq = E[ y k2 + ρ ·u k2 ] (9.4)
donde el parámetro ρ debe ser sintonizado por el diseñador en función de las prestaciones
deseadas en su sistema. Una ley de control que minimiza una función de coste de este tipo
se denomina ley de control cuadrática.
β ( z)
uk = − · yk
α ( z)
313
TEMA 9: Control estocástico de sistemas discretos
ek
C (q)
A(q)
0 uk B (q) yk
A(q) +
-
β (q)
α (q)
C (q) C * (q −1 )
yk = ·ek = ·ek (9.5)
A(q) A * (q −1 )
donde {e(k)} es una secuencia de variables aleatorias independientes de valor medio cero y
varianza σ2. Se supone que A y C son de orden n. Además se supone que las raíces del
polinomio C(z) están dentro del círculo unidad.
314
Apuntes de Automática II
q·G (q ) G * (q −1 )
yˆ = yˆ (k + m | k ) = · yk = · yk (9.6)
C (q) C * (q −1 )
donde los polinomios F y G son el cociente y el resto cuando se divide qm-1·C por A, es decir:
F (q ) = q m −1 + f 1 ·q m − 2 + ... + f m −1
G (q ) = g 0 ·q n −1 + g1 ·q n − 2 + ... + g n −1
~
y (k + m | k ) = y k + m − yˆ (k + m | k ) = F (q)·ek +1 (9.8)
E[ ~
y (k + m | k )] = F (q)·E[ek +1 ] = 0 (9.9)
Y la varianza
m −1
E[ ~
y (k + m | k ) 2 ] = J m = [1 + f 12 + f 22 + ... + f m2−1 ]·σ 2 = σ 2 ·∑ f j2 (9.10)
j =0
♦ Ejemplo 9.3:
315
TEMA 9: Control estocástico de sistemas discretos
La varianza de ek es σ2=1. Se desea determinar el predictor de la salida sobre 3 pasos, es decir, m=3.
Para obtenerlo hay que usar (9.7):
Operando se obtiene:
Igualando los coeficientes asociados a las mismas potencias de q se obtienen las siguientes
ecuaciones:
q 3 : − 0.2 = f1 − 1.5
q 2 : 0.5 = f 2 − 1.5· f1 + 0.7
q : 0 = −1.5· f 2 + 0.7· f1 + g 0
q 0 : 0 = g1 + 0.7· f 2
Resolviendo se obtiene f1=1.3, f2=1.75, g0=1.715, g1=-1.225. Luego los polinomios F(q) y G(q) son:
1.715·q 2 − 1.225·q
yˆ (k + 3 | k ) = · yk
q 2 − 0.2·q + 0.5
E[ ~
y (k + 3 | k ) 2 ] = J m = [1 + f 12 + f 22 ]·σ 2 = [1 + 1.3 2 + 1.75 2 ] = 5.7525
La suposición de que el polinomio C(q) posee todos sus raíces dentro del círculo unidad
garantiza que el predictor dado por (9.5) es estable en el estado estacionario. Recuérdese
que por el Teorema de factorización espectral C puede ser seleccionado para que tenga sus
ceros dentro o sobre el círculo unidad. Si el polinomio C tiene sus ceros sobre el círculo
unidad el predictor óptimo es un sistema variable con el tiempo.
316
Apuntes de Automática II
♦ Ejemplo 9.4:
Considérese el proceso
y k = ek − ek −1
y k = ek − q −1 ·ek = (1 − q −1 )·ek
O en la forma:
q· y k = (q − 1)·ek
A(q )· y k = C (q)·ek
se obtiene
A(q ) = q
C (q) = q − 1
O equivalentemente:
A( z ) = z
C ( z) = z − 1
Se observa que el polinomio C(z) posee una raíz en z=-1, es decir, sobre el círculo unidad.
−q 1
yˆ (k + m | k ) = · yk = − · yk
q −1 1 − q −1
1
yˆ (k + m | k ) = − ·(1 − q −1 )·ek = −ek
−1
1− q
317
TEMA 9: Control estocástico de sistemas discretos
k
e(k ) = e(k 0 − 1) + ∑ y (i ) = e(k 0 − 1) + z (k )
i = k0
El término e(k0-1) no tiende a 0 cuando k0→ -∞. Esto es consecuencia de que C no es estable. En
este caso se debe usar la teoría del filtro de Kalman (ver sección 4.2) sobre el proceso expresado en
la forma
x k +1 = ek
y k = − x k + ek
k − k0
1
yˆ (k + 1 | k ) = − · ∑ (n + 1)· y (k 0 + n)
k − k 0 + 2 n =0
Se observa que el predictor óptimo es variable con el tiempo. Notar que la influencia de la condición
inicial y(k0) sobre el predictor tiende a 0 cuando k→ -∞ de la forma 1/(k+2-k0). Este decrecimiento es
mucho más lento que el caso de que el polinomio C fuese estable.
♦ Ejemplo 9.5:
El modelo
A(q )· y k = C (q)·ek + b
donde b es una constante desconocida, representa una señal con un offset. La constante b puede ser
eliminada restando la ecuación del modelo en el instante k+1 de la del modelo en el instante k. Con lo
que se obtiene:
Definiendo
318
Apuntes de Automática II
~
C (q ) = (q − 1)·C (q)
y como salida a
∆y = (q − 1)· y k
~
A(q )·∆y k = C (q )·ek
~
En este modelo el polinomio C (q ) posee una raíz sobre el círculo unidad por lo que el predictor
óptimo será variable con el tiempo. En consecuencia este modelo no es muy deseable.
G (q)
uk = − · yk (9.11)
B(q )·F (q )
F (q ) = q d −1 + f1 ·q d − 2 + ... + f d −1
G (q ) = g 0 ·q n −1 + g1 ·q n − 2 + ... + g n −1
deg( A) = n
deg( B) = m
deg( F ) = d − 1
deg(G ) = n − 1
Donde
319
TEMA 9: Control estocástico de sistemas discretos
Es decir, m=(n-d).
q n −1 ·G (q)
uk = − · yk
q n −1 ·B(q)·F (q)
q n −1 ·G (q ) G * (q −1 )
u k = − n−d · yk = − · yk (9.13)
[q ·B(q )]·[q d −1 ·F (q)] B * (q −1 )·F * (q −1 )
B (q )·G (q)
A(q )· y k = − · y k + C (q)·ek
B(q)·F (q )
Se observa que el control de varianza mínima cancela todos los ceros B(q) del proceso.
Agrupando términos y despejando se obtiene:
F (q)·C (q)
yk = ·ek
A(q)·F (q ) + G (q )
F (q)·C (q)
yk = ·ek = q −( d −1) ·F (q)·ek
q d −1 ·C (q)
320
Apuntes de Automática II
Por otra parte se observa, que la estrategia de varianza mínima se obtiene mediante la
predicción de la salida sobre d pasos y seleccionando una ley de control que haga la
predicción igual a la salida deseada. De esta forma este problema de control estocástico
puede separarse en dos problemas: un problema de predicción óptima y un problema de
control determinista.
♦ Ejemplo 9.6:
Se desea obtener el control de varianza mínima, la salida del proceso controlado y la varianza de la
salida.
En primer lugar se observa que deg(A)=3 y que deg(B)=1 con lo que d=3-1=2. Luego para obtener
los polinomios F y G hay que dividir el polinomio qd-1·C(q) entre el polinomio A(q). El cociente de esta
división es el polinomio F(q) y el resto es el polinomio G(q). Luego realizando dicha división polinomial
se obtiene
F (q) = q + 0.8
G (q) = 0.66·q 2 − 0.56·q
y k = ek + 0.8·ek −1
321
TEMA 9: Control estocástico de sistemas discretos
Puesto que {ek} es una secuencia de variables aleatorias independientes entonces E[ek·ek-1]=0 y
como su varianza es E[e2k]=σ2 se obtiene el siguiente resultado
E[ y k2 ] = 1.64·σ 2
♦ Ejemplo 9.7:
A( z ) = ( z − 1)·( z − 0.7)
B ( z ) = 0.9· z + 1
C ( z ) = z ( z − 0.7)
Se observa que B(z) posee una raíz en z=-10/9, la cual está fuera del disco unidad. El control de
varianza mínima que se obtiene aplicando (9.11) es:
( z − 0.7)
uk = − · yk
(0.9· z + 1)
En la Figura 9.2 se muestra una simulación del sistema controlado con este control de varianza
mínima. La presencia del modo inestable se aprecia claramente en la señal de control, pero no en la
señal de salida. Este fenómeno se denomina ringing. Si la simulación continuase, la señal de control
sería tan grande que se producirían un overflow o un error numérico en la computadora. En un
problema práctico la señal de control se haría tan grande que la aproximación lineal ya no sería
válida. Después de un pequeño tiempo el modo inestable también sería apreciado en la salida.
322
Apuntes de Automática II
Figura 9.2: Simulación del sistema del ejemplo 9.5 con la ley de control (9.11) que cancela un cero
inestable del proceso.
B( z ) = B + ( z )·B − ( z ) (9.15)
donde B+(z) representa a las raíces de B(z) dentro del círculo unidad y B-(z) a las raíces que
se encuentran fuera o sobre el disco unidad. Además es conveniente que B*(q) sea mónico.
Suponiendo que todas las raíces del polinomio C(z) están dentro del disco unidad y que
los polinomios A(z) y B-(z) no poseen factores comunes se puede demostrar que la ley de
varianza mínima es:
G (q)
uk = − +
· yk (9.16)
B (q )·F (q)
donde F(z) y G(z) son polinomios que satisfacen la siguiente ecuación Diofántica (ver
sección 2.9.1):
323
TEMA 9: Control estocástico de sistemas discretos
en la cual
deg F = d + deg B − − 1
deg G < deg A = n
F (q)
yk = d −1
·ek (9.18)
q ·[ B − (q )]*
♦ Ejemplo 9.8:
Sea el sistema
A( z ) = ( z − 1)·( z − 0.7)
B ( z ) = 0.9· z + 1
C ( z ) = z ( z − 0.7)
Por otra parte se observa que el polinomio B(z) posee una raíz en z=-10/9, la cual está fuera del
disco unidad. B(z) se puede factorizar de la siguiente forma:
B ( z ) = 1·(0.9· z + 1) = B + ( z )·B − ( z )
Por tanto,
B + ( z) = 1
B − ( z ) = (0.9· z + 1)
−
[ B − ( z )]* = z deg B ·B − ( z −1 ) = z·(0.9· z −1 + 1) = z + 0.9
deg F = d + deg B − − 1 = 1 + 1 − 1 = 1
deg G = 1 < deg A = 2
324
Apuntes de Automática II
F ( z ) = z + f1
G ( z ) = g 0 ·z + g1
Para obtener el valor de sus coeficientes hay que resolver la ecuación (9.17):
Si se evalúa la ecuación anterior en las raíces de A(z) (z=0.7 y z=1) y en las raíces de B(z) (z=-10/9)
se obtienen las siguientes ecuaciones:
0.7·g 0 + g1 = 0
g 0 + g1 = 0.3
f1 = 1
(q − 0.7)
uk = − · yk
(q + 1)
(q + 1) 0.1 0.1
yk = ·ek = 1 + ·ek = ek + ·ek
(q + 0.9) q + 0.9 q + 0.9
Usando las fórmulas propuestas en la sección 3.5.4 es posible calcular la varianza de la salida y la
varianza de la señal de control:
20 2
E[ y 2 ] = ·σ = 1.05·σ 2
19
257 2
E[u 2 ] = ·σ = 14.47·σ 2
19
En la Figura 9.3 se muestra una simulación del sistema controlado con este control de varianza
mínima. Se observa claramente que la señal de control ya no se inestabiliza
325
TEMA 9: Control estocástico de sistemas discretos
A(q ) − B(q ) y k C (q )
G (q ) F (q )·B(q )·u = 0 ·ek (9.19)
k
Resolviendo el determinante
A(q) − B(q)
=0
G (q) F (q )·B(q)
326
Apuntes de Automática II
El sistema en lazo cerrado es de orden 2·n -1. Tiene 2·n-d polos asociadas a las raíces
de B(q) y C(q) y d-1 polos en el origen.
S (q)
uk = − · yk (9.22)
R(q)
Para el caso en que B(z) posee raíces inestables el controlador de varianza mínima
venía dado por (9.16) entonces la ecuación característica del sistema en lazo cerrado es:
donde R (q ) = F (q )·B + (q ) y S (q ) = G (q ) .
327
TEMA 9: Control estocástico de sistemas discretos
1) Todas las raíces del polinomio C(z) se encuentran dentro del círculo unidad.
3) Todas las raíces de los posibles factores comunes de A(z) y B(z) están dentro del
círculo unidad.
Sea P(z) un polinomio mónico de grado n cuyas raíces se encuentran todas dentro del
círculo unidad y que es solución de la ecuación de Riccati:
J lq = E[ y k2 + ρ ·u k2 ] (9.28)
S (q)
uk = − · yk (9.29)
R (q )
con deg(X)<n.
328
Apuntes de Automática II
Puesto que deg(X) < deg(P) de (9.32) se deduce que deg(R*)<n si ρ=0 y deg(S*)<n si
ρ>0.
Con la ley de control (9.29), la salida del sistema en lazo cerrado es:
R(q)
yk = − ·ek (9.33)
P(q)
S (q)
uk = − ·ek (9.34)
P(q)
El valor mínimo de la función de coste (9.28) viene dado por la siguiente integral
compleja:
σ 2 R( z )·R( z −1 ) + ρ ·S ( z )·S ( z −1 ) dz
{
min E[ y 2 + ρ ·u 2 ] = } 2·π ·i ∫
·
P ( z )·P( z −1 )
· (9.35)
z
La ley de varianza mínima también se puede obtener de (9.29) basta considerar ρ=0.
329
TEMA 9: Control estocástico de sistemas discretos
A = A1 · A2
B = B1 · A2
P = P1 ·A2
♦ Ejemplo 9.9:
A( z ) = ( z + a)
B( z ) = b
C ( z) = z + c
330
Apuntes de Automática II
r ·( z + p1 )·( z −1 + p1 ) = ρ ·( z + a)·( z −1 + a) + b 2
Operando se obtiene
Igualando los coeficientes de las mismas potencias de z se obtienen el siguiente par de ecuaciones:
r · p1 = ρ ·a (1)
De (1) se obtiene
ρ ·a
r= (3)
p1
Y sustituyendo (3) en (2) se obtiene la siguiente ecuación de segundo orden para p1:
La solución de esta ecuación que garantiza que P(z) está dentro del círculo unidad (|p1|<1) es:
Paso 2: Determinar el polinomio S(z) a partir de (9.31). Recuérdese que deg(S)<n y deg(X)<n. Luego
como n=1 S(z)=s0 y X(z)=x0. El reciproco del polinomio S es
S * ( z ) = z deg S ·S ( z −1 ) = z 0 ·s 0 = s 0
x0 + r · p1 ·s 0 = b
331
TEMA 9: Control estocástico de sistemas discretos
a·x 0 + r ·s 0 = b·c
b·(c − a)
s0 = (5)
r ·(1 − a· p1 )
b·(1 − c· p1 )
x0 = (6)
1 − a· p1
Paso 3: Determinar el polinomio R(z) a partir de (9.32). El grado del polinomio R(z) es deg(R)=n=1.
Se supone que su estructura es:
R ( z ) = r0 · z + r1
x0 + ρ ·a·s 0 = r0 ·b
p1 · x 0 + ρ ·s 0 = r1 ·b
r0 = 1 (7)
c· p1
r1 = (8)
a
S (q) s0
uk = − · yk = − · yk
R(q) r0 · z + r1
Sustituyendo los valores de s0, r0 y r1 obtenidos anteriormente se tiene el siguiente resultado final
332
Apuntes de Automática II
( p1 − a )·(a − c) q
uk = − · yk (9)
a·b q + p1 ·c / a
Comentario 1:
Otra forma de resolver el problema es darse cuenta qué deg(S*)=0, entonces la ecuación (9.30) toma
la siguiente forma:
( p1 − a )·(a − c)
s0 = (10)
a·b
Usando ahora (9.27) para este ejemplo con z=-p1 se obtiene que
b 2 · p1
p1 − a = (11)
ρ ·(a· p1 − 1)
Sustituyendo (11) en (10) se obtiene la misma expresión (5) para s0 que anteriormente. Los valores
de r0 y r1 se obtienen de (9.30).
Comentario 2:
El resultado (9) que se ha obtenido sólo es válido si a≠0. Si a=0 el sistema tendría un retardo
temporal y habría que usar (9.31) y (9.36) para determinar R(z) y S(z). Procediendo de esta forma se
tendría:
b·c
s0 =
b +ρ
2
r0 = 1
ρ ·c
r1 =
b +ρ2
b·c
uk = − yk
(b + ρ )·q + ρ ·c
2
333
TEMA 9: Control estocástico de sistemas discretos
1) Todas las raíces del polinomio C(z) se encuentran dentro del círculo unidad.
3) Sea A2(z) el mayor común divisor de A(z) y B(z). Sea A2− ( z ) con deg( A2− ) = m el
factor de A2(z) que posee todas sus raíces fuera del círculo unidad o sobre él.
Asimismo A2+ ( z ) con deg( A2− ) = n-m es el factor de A2(z) que posee todas sus
raíces dentro del círculo unidad.
donde:
334
Apuntes de Automática II
S (q)
uk = − · yk (9.40)
R (q )
donde
~
R ( z ) = A2− ( z )·R ( z )
~ (9.41)
S ( z ) = z m ·S ( z )
~ ~
Los polinomios R ( z ) y S ( z ) satisfacen el siguiente par de ecuaciones:
~ ~
A1 ( z )· A2− ( z )·R ( z ) + z m ·B1 ( z )·S ( z ) = P1 ( z )·C ( z )
~ ~ (9.42)
A * ( z )· X ( z ) + r ·P( z )·S * ( z ) = q m ·B ( z )·C * ( z )
~ ~ ~
con deg( R )= deg( S )=n, deg(X)<n y S (0)=0. Además
A( z ) = A1 ( z )· A2 ( z )
B ( z ) = B1 ( z )·B2 ( z )
~
B ( z ) = B1 ( z )· A2+ ( z )
♦ Ejemplo 9.10:
B1 (q ) C (q)
yk = ·u k + 1 ·ek
A1 (q ) q −1
B1 (q)
x k +1 = ·u k
A1 (q)
y k = xk + vk
335
TEMA 9: Control estocástico de sistemas discretos
C1 (q)
vk = ·ek
q −1
Luego
A(q ) = (q − 1)· A1 (q )
B (q ) = (q − 1)·B1 (q)
A(q ) = A1 (q)·C1 (q)
J lq' = E[ y k2 + ρ ·(u k − u k −1 ) 2 ]
Es decir, se penaliza en la función de coste a uk-uk-1 luego la ley de control que minimice esta ley de
control incluirá acción integral.
Supóngase que se tiene un sistema descrito por las siguientes ecuaciones de estado:
x k +1 = Φ·x k + Γ·u k + v k
(9.44)
y k = C · x k + ek
Se desea encontrar el controlador óptimo para este sistema donde las covarianzas de
entre {vk} y {ek} están dadas por (4.2) y (4.3).
336
Apuntes de Automática II
1
1 N −1
( )
J = E ·x TN ·S ·x N + ·∑ x kT ·Q·x k + x kT ·R·x k (9.45)
2 2 k =0
Esta función de coste es igual a la ecuación (7.12), con la diferencia de que como ahora
los estados son procesos estocásticos, se debe considerar el valor medio de la función. Por
eso aparece el operador valor medio E[ ]
Se supone además que los controles admisibles son tales que uk es una función de los
valores anteriores de la señal de medida, es decir, y0, y1,..., yk-1. Esto significa que hay un
retardo de cálculo de un periodo de muestreo.
La solución a este problema es la obtenida en el Tema 7 y esta dada por las ecuaciones
del Cuadro 7.3 y por el algoritmo del Cuadro 7.2, con el cambio de notación de F por Φ para
la matriz de transición de estados y de G por Γ para la matriz de transmisión del control.
Además la ley de control toma la forma:
u k = − K k ·xˆ (k | k − 1) (9.46)
Nótese que como ahora el estado no se conoce la ley de control del sistema trabaja con
una estima del estado xˆ (k | k − 1) , la cual se obtiene de la ecuación (4.14) del Filtro de
Kalman.
337
TEMA 9: Control estocástico de sistemas discretos
v e
y
Γ + q −1 C +
Φ
Proceso
Ke
ε
−1 x̂ ŷ +
Γ + q C −
Φ
Estimador
u x̂
−K
Control
338
TEMA 10
10.1 INTRODUCCION
Uno de los problemas fundamentales en el diseño de un sistema de control es el de
controlar de forma precisa las salidas de un proceso (planta) cuya dinámica contiene
incertidumbres que son significativas.
Desde la época de la patente de H.S. Black en 1927 que fue quién propuso por primera
vez el uso de la realimentación y de elevadas ganancias del sistema en lazo abierto para la
solución de diseños precisos en presencia de incertidumbres mucho se ha escrito sobre el
tema. No obstante el término de control robusto no aparece en la literatura de control sino
hasta hace relativamente poco, a comienzos de la década de los 70. Anteriormente el
problema se conocía como el problema del diseño de sensibilidad o simplemente como
diseño de sistemas de control con incertidumbre en la planta.
El adjetivo robusto, con un significado técnico análogo, había sido utilizado previamente
en estadística. La teoría que se desarrolló alrededor del término control robusto a partir de
1972 se centró básicamente sobre análisis y síntesis de sistemas multivariables (MIMO)
robustos. Por el contrario anteriormente el mayor esfuerzo se había concentrado en
sistemas de una entrada-una salida (SISO).
Se entiende por control robusto a la teoría de control que estudia los sistemas
considerando la existencia de incertidumbres, estableciendo modelos explícitos de las
perturbaciones para su tratamiento. Existen diferentes métodos de control robusto:
339
TEMA 10: Control robusto QFT
QFT se caracteriza por ser una técnica de diseño bastante versátil, pudiendo utilizarse
sobre sistemas lineales y no lineales, invariantes y variables en el tiempo, continuos y
discretos, SISO y MIMO. También se ha utilizado QFT para sistemas con retardo y sistemas
de fase no mínima.
1
QFT es el acrónimo de Quantitative Feedback Theory
340
Apuntes de Automática II
Con la teoría QFT I. Horowitz daba respuesta a las dos carencias, que a su juicio,
adolecen los diseños clásicos. En primer lugar, la ausencia continua de especificaciones
cuantitativas en los problemas planteados en la literatura científica. Por ejemplo, cierto
diseño puede atenuar las perturbaciones a costa de una mayor sensibilidad al ruido del
sensor, ¿Es éste un buen diseño? ¿Cómo comparar diseños si no se especifican cuestiones
tales como nivel de incertidumbre, presencia o no de ruido del sensor, características
requeridas en lazo cerrado o perturbaciones esperadas? En segundo lugar, muchas nuevas
aportaciones en el campo de la Automática se presentan sin considerar los problemas
plateados por las perturbaciones y por la incertidumbre de la planta a controlar, olvidan
estos trabajos que la realimentación es necesaria debido a las incertidumbres en la planta y
a las perturbaciones que la afectan. De esta forma, el objetivo final del diseño de todo
controlador debe ser obtener una función de transferencia en lazo abierto con un ancho de
banda adecuado para insensibilizar a la planta y atenuar las perturbaciones.
341
TEMA 10: Control robusto QFT
3) Obtención de las plantillas (templates) del proceso para cada frecuencia ωi ∈ Ω. Una
plantilla es la representación gráfica de la incertidumbre de una planta para una
cierta frecuencia, dibujada como una región sobre el plano de Nichols. Recuérdese
que éste representa en su eje de abcisas la fase en grados y en su eje de ordenadas
la magnitud en decibelios.
342
Apuntes de Automática II
Especificaciones
Planta
Elección del
conjunto Ω
Cálculo de
las plantillas
Cálculo de las
curvas de restricción
Ajuste de
la función
de lazo abierto
Ajuste
del prefiltro
Validación
Controlador (F,C)
343
TEMA 10: Control robusto QFT
La realización de estos pasos no sigue una estructura lineal, puede suceder que tras
cualquiera de los pasos sea preciso volver a algún paso anterior en función de los
resultados obtenidos. En la Figura 10.1 se muestra un posible esquema de los pasos de la
metodología QFT.
Existen varias herramientas software para el diseño con QFT de controladores robustos,
siendo la más popular y conocida la “toolbox” para QFT de Matlab. Esta “toolbox”
proporciona fundamentalmente herramientas para el cálculo de las curvas de restricción y
para el ajuste de la función de transferencia en lazo abierto.
344
Apuntes de Automática II
v d
r e u y
F(s) C(s) P(s)
-
n
H(s)
paramétrico:
De entre las infinitas plantas P(s,θ)∈P, se selecciona una de ellas como planta nominal
P0(s,θ0).
C(jω) ⋅ P0(jω)
T0 ( jω) = F(jω) ⋅ (10.3)
1 + C(jω) ⋅ P0(jω)
O equivalentemente
2
De ahora en adelante, sin perdida de generalidad, se supone que H=1.
345
TEMA 10: Control robusto QFT
donde
C(jω) ⋅ P0(jω)
Tl ( jω) = (10.5)
1 + C(jω) ⋅ P0(jω)
El problema que se plantea es diseñar un controlador C(s) y un prefiltro F(s) tal que la
salida evolucione según la referencia r(s) verificando unas especificaciones mínimas a pesar
de la presencia de perturbaciones y de incertidumbre en la planta.
C ( jω) ⋅ P( jω)
≤ Wer , ω ∈ [0, ∞), P ∈ P (10.6)
1 + C ( jω) ⋅ P( jω)
Se demuestra que para sistemas SISO el valor Wer se relaciona con el margen de
ganancia MG y con el margen de fase MF, a través de las siguientes expresiones:
1
MG = 1 + (10.7)
Wer
180º 0 .5
MF = 180º − acos 2 − 1 (10.8)
π Wer
346
Apuntes de Automática II
0 .5
Wer = (10.9)
MF
cos π ⋅ 1 − + 1
180º
1
Wer = (10.10)
MG − 1
Esta especificación para cada frecuencia ωi∈Ω, establece en el plano de Nichols una
curva cerrada que L0(jωi) no debe atravesar (denominado comúnmente círculo-M). Así, estas
curvas definen una zona de protección en torno al punto del plano de Nichols [-180°, 0dB]
que debe ser respetada para evitar que el sistema controlado sea inestable, es decir, L0 no
debe entrar dentro de la región de inestabilidad del plano de Nichols (fases menores de
-180º y magnitudes mayores de 0 dB).
Además, esta zona de protección define unos márgenes mínimos de estabilidad relativa
para L0. Recuérdese que el punto en que L0 corta al eje de ordenadas del plano de Nichols
es justamente el margen de ganancia MG en decibelios. Mientras que el punto en que L0
corta al eje de abcisas del plano de Nichols es justamente el margen de fase MF en grados.
tanto dos pasos: primero ajustar el controlador C(s) de forma que se respeten las
variaciones de |Tl(jω)|dB, segundo ajustar el prefiltro F(s) para llevar estas variaciones a sus
lugares correctos (la zona establecida por las funciones α(ω) y β(ω)).
347
TEMA 10: Control robusto QFT
♦ Ejemplo 10.1:
coeficientes:
K
P = P( s) = , K ∈ [1,10], a ∈ [1,10] (e1)
s( s + a)
1
P0 ( s ) = (e2)
s ( s + 1)
10-1 102
Figura 10.3: Especificación de seguimiento robusto, frontera superior |β(s)| y frontera inferior |α(s)|
(línea discontinua).
348
Apuntes de Automática II
P( jω)
≤ W pe , ω ∈ Ω , P ∈ P (10.12)
1 + C ( jω) ⋅ P( jω)
1
≤ W ps ( jω) , ω ∈ Ω, P ∈ P (10.13)
1 + C ( jω) ⋅ P( jω)
C ( jω) ⋅ P( jω)
≤ Wrs ( jω) , ω ∈ Ω, P ∈ P (10.14)
1 + C ( jω) ⋅ P( jω)
C ( jω)
≤ Wec ( jω) , ω ∈ Ω, P ∈ P (10.15)
1 + C ( jω) ⋅ P( jω)
349
TEMA 10: Control robusto QFT
Se denotará por δT(ω) al conjunto de puntos de la plantilla que forman parte de su borde
exterior o contorno.
Los puntos del contorno δT(ω) son los puntos verdaderamente importantes de la
plantilla ya que son los únicos que se utilizan para calcular las curvas de restricción
asociadas a las especificaciones. Los puntos interiores no sirven para nada y suponen un
innecesario aumento de la carga computacional. Por lo tanto, si es posible, dada una
plantilla T(ω) se debe tratar de obtener los puntos de su contorno δT(ω) .
• Algoritmo de Fu
( )
m a
K ·e − τs ⋅ ∏ (s + z i ) ⋅∏ s 2 + 2·δ j ·ω 0 j + ω 02 j
i =1 j =1
P( s) = (10.17)
( )
n b
s ⋅ ∏ (s + pl ) ⋅∏ s + 2·δ q ·ω 0 q + ω
N 2 2
0q
l =1 q =1
Donde K, τ, zi, δj, ω0j, pl, δq, ω0q son parámetros independientes entre si que pueden
presentar la siguiente incertidumbre en su valor:
350
Apuntes de Automática II
Por otra parte, los otros tres algoritmos (Bailey & Hui, Fu, segmentos de Kharitonov)
pueden utilizarse si la planta posee la siguiente estructura:
r r r
r r bm (q )·s m + bm −1 (q )·s m −1 + ... + bo (q )
P ( s, q , r ) = r r r (10.26)
a n (r )·s n + a n −1 (r )·s n −1 + ... + ao (r )
donde los coeficientes b del numerador y a del denominador son a su vez un polinomio afín
r r
de los vectores de parámetros inciertos q y r (cuyas dimensiones son pn y pd
respectivamente), es decir
pn
r
bi (q ) = n0i + ∑ [ M N ]ij ·q j i = 0,1,..., m (10.27)
j =1
pd
r
ai (r ) = d 0i + ∑ [ M D]ij ·r j i = 0,1,..., n (10.28)
j =1
r r r
b = MN ·q + n0 (10.29)
r r r
a = MD·r + d 0 (10.30)
351
TEMA 10: Control robusto QFT
r r
• n0 y d 0 , son unos vectores de términos independientes asociados al
♦ Ejemplo 10.2:
con q1∈[1.5, 8.9], q2∈[0.25, 4.6], q3∈[-3, -1], r1∈[10.3, 15.6] y r2∈[-8.0, -3.6].
Se observa que los parámetros inciertos son independientes, puesto que un mismo parámetro
incierto no se encuentra simultáneamente en el numerador y el denominador.
Los coeficientes del numerador y del denominador se pueden expresar en la siguiente forma
matricial:
q1
b0 3 5 0 0
b = 0.1 0 2·q 2 + 1.5
1 q
3
352
Apuntes de Automática II
a0 3 5 10
a = − 5.8 0·r1 + − 7
1 r
a 2 0 0 2 1
Luego por comparación con las ecuaciones (10.29) y (10.30) se obtienen las matrices MN y MD y los
vectores n0 y d0.
3 5 0 0
MN = n0 =
0.1 0 2 1.5
3 5 10
MD = − 5.8 0· d 0 = − 7
0 0 1
Esta información es fundamental para poder usar los algoritmos de cálculo de plantillas que trabajan
con plantas con incertidumbre de tipo afín.
forma de proceder es la siguiente, se fija N veces un valor para los parámetros θ dentro del
espacio Θ, con lo que se obtienen las N plantas. Los valores de los parámetros θ se deben
escoger para barrer con un paso fijo o variable todo el espacio Θ, de tal forma que las N
plantas que se utilicen sean una muestra significativa de la familia P. Es evidente que
cuanto mayor sea N mejor será la aproximación que se obtiene de las plantillas reales T(ω).
Este método aunque efectivo supone una gran carga computacional, pues en general
para obtener una buena aproximación de las plantillas podría ser necesario estudiar un
número N demasiado elevado de plantas P∈ P. Además este método no genera
353
TEMA 10: Control robusto QFT
♦ Ejemplo 10.3:
K
P = P( s) = , K ∈ [1,10], a ∈ [1,10]
s( s + a)
K K 1 K
P ( jω ) = = =− (ω + ja )
jω ( jω + a) ω (−ω + ja ) ω·(ω 2 + a 2 )
Luego el módulo en dB y la fase en grados vendrán dadas por las siguientes expresiones:
K
P( jω ) dB = 20·log10
ω· ω + a
2 2
180 −a
arg[ P( jω)] = atan
π −ω
K
P( jω ) dB = 20·log10
1+ a
2
(e4)
180 −a
arg[ P( jω)] = atan (e5)
π −1
Se desea obtener una aproximación para la plantilla T(1) usando la técnica del barrido en el espacio
de parámetros. Para ello se siguen los siguientes pasos:
2) Se forman todas las posibles combinaciones de valores para los parámetros de la planta.
Puesto que el subconjunto de valores de a y de K tiene cuatro valores cada uno. El
número posible de combinaciones es 16.
354
Apuntes de Automática II
expresiones (e4) y (e5). Se obtienen N=16 puntos (ver Tabla 10.1) para la plantilla T(1).
Obviamente, existen otras posibles configuraciones de valores de los parámetros K y a con los que
obtener N=16. Con la elección que se realice se debe tratar de barrer uniformemente todo el espacio
Θ de parámetros.
Valor nominal
parámetros.
355
TEMA 10: Control robusto QFT
representado el contorno de la plantilla δT(1), que es el resultado de unir los 12 puntos exteriores.
Además, en la figura se ha resaltado con un punto negro el punto de T(1) asociada a la planta
En general las plantillas se estrechan a medida que aumenta la frecuencia, de tal forma
que para una frecuencia suficientemente grande se aproximan a una línea recta vertical de
altura constante V dB. Este comportamiento se deduce fácilmente observando que la
mayoría de sistemas, cuando ω tiende a infinito verifican que:
K
lim P( jω ) = (10.31)
ω →∞ ωe
K max K min
V = 20·log10 − 20·log10 = 20·log K max − 20·log K min (10.32)
ω 2
ω2
356
Apuntes de Automática II
♦ Ejemplo 10.4:
K
P = P( s) = , K ∈ [1,10], a ∈ [1,10]
s( s + a)
K
lim P( jω ) =
ω →∞ ω2
Para este sistema se puede comprobar que a partir de ωh≈100 (rad/s) las plantillas se aproximan a un
segmento de recta vertical de altura
Supuesto que el rango de frecuencias de la planta es Ωc=[0.1,15] (rad/s) una posible elección del
conjunto de frecuencias de trabajo Ω es:
Ω = [ 0.1, 0.5, 1, 2, 15 ]
Por otra parte, puesto que ωh=100 (rad/s) el conjunto de trabajo extendido sería
Las plantillas para la función de transferencia en lazo abierto L(jω)=C(jω)·P(jω) son las
mismas que las de P(jω) pero desplazadas en magnitud y fase por el controlador C(s)
(puesto que el controlador no presenta incertidumbre). QFT interpreta el diseño del
controlador como el proceso de desplazar plantillas sobre el plano de Nichols hacia
posiciones deseadas, evitando zonas prohibidas.
357
TEMA 10: Control robusto QFT
Las curvas de restricción de estabilidad robusta Ber(ω), delimitan para una frecuencia
dada las regiones prohibidas/permitidas del plano de Nichols para el valor de L0(jωi). Estas
curvas se calculan siempre en función del punto nominal de la plantilla, correspondiente a la
planta elegida como nominal. Su obtención consiste en calcular las regiones del plano de
Nichols en la que es posible colocar el punto nominal de la plantilla de modo que ningún
punto de ésta caiga dentro del círculo-M que define el límite de estabilidad relativa, dada por
la especificación (10.6).
en que sea tangente a dos de las curvas de valor M constante, tal que la diferencia en los
dos valores de M sea ∆ T ( jω i ) . Esta posición indica un punto límite, ya que no es posible
Una vez obtenido para una determinada frecuencia ωt, las curvas de restricción
asociadas a cada especificación impuesta, la curva de restricción final B(ωt) se obtendrá
358
Apuntes de Automática II
como resultado de la combinación de éstas, uniendo las restricciones que todos ellos
imponen. Los métodos de obtención de las diferentes curvas de restricción son
fundamentalmente gráficos, aunque también existen algoritmos numéricos.
♦ Ejemplo 10.5:
Ber(0.5) Ber(0.1)
Ber(1)
Ber(2) Ber(15)
Ber(100)
Valor nominal
(a)
Bsr(0.1)
Bsr(0.5)
Bsr(1)
Bsr(2)
Bsr(15)
(b)
Figura 10.5: Curvas de restricción para la familia de planta (e1) del Ejemplo 10.1. a)Estabilidad
robusta a las frecuencias Ω’. b)Seguimiento robusto a las frecuencias Ω.
359
TEMA 10: Control robusto QFT
Para la planta de Ejemplo 10.1, las curvas de restricción de estabilidad robusta Ber(ω) a las
frecuencias Ω’={0.1,0.5,1,2,15,100} son las que se muestran en la Figura 10.5a. Mientras que las
curvas de restricción de seguimiento robusto Bsr(ω) a las frecuencias Ω={0.1,0.5,1,2,15} son las que
se muestran en la Figura 10.5b. En la Figura 10.6 se muestran las curvas de restricción finales B(ωi).
B(0.1)
B(0.5)
B(1)
B(2)
B(100)
B(15)
Figura 10.6: Curvas de restricción finales para la familia de planta (e1) del Ejemplo 10.1 a las
frecuencias Ω.
360
Apuntes de Automática II
Con respecto a las reglas 1) a 3) se debe de tratar siempre de situar L0(jωi) lo más
pegado posible de B(ωi) con el objetivo de minimizar el esfuerzo de control y por lo tanto
minimizar la saturación de los actuadores.
361
TEMA 10: Control robusto QFT
mínima y que el número de polos en el semiplano derecho sea constante a todas ellas. Por
supuesto, no es posible conseguir que L0(jω) presente un recorrido arbitrario sobre el plano
de Nichols, puesto que debe satisfacer la integral de Bode que relaciona magnitud y fase
(con un retardo de fase adicional por cada cero situado en el semiplano derecho para
sistemas de fase no mínima).
∞
( jω )) ⋅ d ln ω = −[ln L0 [0] − ln L0 [∞ ] ]
2
π ∫ arg( L
0
0 (10.33)
Probablemente son muchos los controladores posibles que permiten a L(jω) cumplir las
especificaciones. El diseñador debe entonces escoger el óptimo entre todos ellos. En
general interesa que el controlador presente la menor ganancia posible para no amplificar el
ruido del sensor. En particular, interesa que el diseño realizado disminuya en ganancia tan
rápidamente como sea posible para altas frecuencias (dentro de lo razonable, ya que el
exceso de ceros sobre polos está normalmente limitado). Por este motivo se suele definir el
controlador óptimo en QFT, como aquel que presenta la mínima ganancia a alta frecuencia.
♦ Ejemplo 10.6:
transferencia en lazo abierto para la familia de plantas P definida en el Ejemplo 10.1 cuyas curvas de
2) Se desplaza L0(jω) verticalmente hacia arriba 34.03 dB. Luego el nuevo controlador es
C1=50.3·C0. Ahora L0(j0.1), L0(j0.5), L0(j1) y L0(j2) también están cumpliendo las
especificaciones (ver Figura 10.8) puesto que se encuentran por encima de las curvas de
restricción abiertas B(0.1), B(0.5), B(1) y B(2), respectivamente.
3) Para que L0(j15) se sitúe por encima de B(15) sin que L0(jω) atraviese la curva de
restricción cerrada B(100), es necesario, introducir un adelanto de fase a L0(jω), para ello
362
Apuntes de Automática II
se añade al controlador un cero real, por ejemplo en s=-4.9 (ver Figura 10.9). Luego el
nuevo controlador es C3=50.3·(s+4.9).
C3 50.3( s + 4.9)
C = C4 = = 2 (e.6)
s + 2·0.6·253.1·s + 253.1
2 2
s + 2·0.6·253.1·s + 253.12
Obviamente se podrían aproximar más los puntos L0(jωi) a las curvas B(ωi) pero a costa de tener un
controlador con una estructura (nº de polos y nº de ceros) más compleja.
B(0.1)
B(0.5)
B(1)
L0 (j0.1)
B(2)
L0 (j0.5)
L0 (j1)
B(15) L0 (j2)
B(100)
L0 (j15)
L0 (j100)
Figura 10.7: Diagrama de Nichols con las curvas de restricción finales B(ωi) y la representación de la
función de transferencia en lazo abierto después de la realización del paso 1.
363
TEMA 10: Control robusto QFT
L0 (j0.1)
B(0.1)
B(0.5) L0 (j0.5)
L0 (j1)
B(1)
L0 (j2)
B(2)
B(15)
L0 (j15)
B(100)
L0 (j100)
Figura 10.8: Diagrama de Nichols con las curvas de restricción finales B(ωi) y la representación de la
función de transferencia en lazo abierto después de la realización del paso 2.
L0 (j0.1)
B(0.1)
B(0.5) L0 (j0.5)
L0 (j1)
B(1)
L0 (j2)
B(2)
B(100)
L0 (j15)
B(15)
L0 (j100)
Figura 10.9: Diagrama de Nichols con las curvas de restricción finales B(ωi) y la representación de la
función de transferencia en lazo abierto después de la realización del paso 3.
364
Apuntes de Automática II
L0 (j0.1)
B(0.1)
B(0.5) L0 (j0.5)
L0 (j1)
B(1)
L0 (j2)
B(2)
L0 (j15)
B(100)
B(15)
L0 (j100)
Figura 10.10: Diagrama de Nichols con las curvas de restricción finales B(ωi) y la representación de la
función de transferencia en lazo abierto después de la realización del paso 4.
∆ Tl ( jω i ) dB = max{ Tl ( jω i ) dB } − min{ Tl ( jω i ) dB }
365
TEMA 10: Control robusto QFT
magnitud de Bode para conseguirlo. Según el elemento que se añade al prefiltro las curvas
♦ Ejemplo 10.7:
Un posible prefiltro que permite que la familia de plantas (e.1) controlada con (e.6) cumpla la
especificación de seguimiento robusto (10.11) con las α(s) y β(s) definidas por (e.3), es:
0.25·( s + 78)
F (s) = (e.7)
s + 2·0.7·4.4·s + 4.4 2
2
En la Figura 10.11b se puede comprobar como efectivamente con este prefiltro se cumple la
especificación de seguimiento robusto establecida.
366
Apuntes de Automática II
♦ Ejemplo 10.8:
seguimiento robusto para la familia de plantas P definida en (e1) con los diseños de C(s) y F(s)
En la Figura 10.11a se representa |Tl(s)|dB y la recta horizontal Wer=1.2=1.58 dB. Se observa como se
cumple la especificación de estabilidad robusta, al cumplirse en todas las frecuencias que
|Tl(s)|dB≤ 1.58 dB.
367
TEMA 10: Control robusto QFT
tanto max{ T ( jω i ) dB } como min{ Tl ( jω i ) dB } se encuentran dentro de la banda definida por α(s) y
β(s).
max{T ( s ) }
β (s)
min{ T ( s ) }
α (s )
(a)
(b)
Figura 10.11: Para la familia de plantas P (ecuación e.1),el controlador C (ecuación e.6 ) y el prefiltro
F(s) (ecuación e.7): (a)Comprobación especificación de estabilidad robusta. (b)Comprobación de la
especificación de seguimiento robusto.
368
APENDICE B:
CALCULO DIFERENCIAL EN ℜn
2
x = xT x (B.1)
2
x P
= x T ·P· x (B.2)
A x P
se le denomina la norma de x con respecto a P.
Se denomina a
x T ·Q· x (B.3)
Toda matriz real cuadrada Q puede descomponerse en una parte simétrica Qs, (esto es
QST=Qs) y una parte antisimétrica Qa (esto es QaT= -Qa):
Q = Qs + Qa (B.4)
donde
Q + QT
Qs = (B.5)
2
369
APENDICE B
Q − QT
Qa = (B.6)
2
x T ⋅ Q ⋅ x = x T ⋅ (Qs + Qa ) ⋅ x = x T ⋅ Qs ⋅ x (B.7)
Por lo que se puede suponer sin perdida de generalidad que Q en (B.3) es simétrica.
Por lo tanto se dice que Q es:
m1 = q11 ,
q11 q12
m2 = ,
q21 q22
(B.9)
q11 q12 q13
m3 = q21 q22 q23
q31 q32 q33
mn =| Q |
370
Apuntes de Automática II
Q>0 si mi > 0 ∀i
Q≥0 si mi ≥ 0 ∀i,
mi ≤ 0 ∀i impar
Q≤0 si (B.10)
mi ≥ 0 ∀i par
mi < 0 ∀i impar
Q<0 si
mi > 0 ∀i par
Cualquier matriz semidefinida positiva Q≥0 puede factorizarse en raíces cuadradas bien
como:
T
Q = Q· Q (B.11)
o como
T
Q= Q · Q (B.12)
Las raíces cuadradas (“izquierda” y “derecha”) de (B.11) y (B.12) no son, en general, las
mismas. En realidad Q puede tener varias raíces cuadradas, ya que cada una de las
factorizaciones no es única. Si Q>0, todas sus raíces cuadradas son no-singulares.
dx1
dx
2
dx = . (B.13)
.
dx
n
371
APENDICE B
dx1
ds
dx
2
dx ds
=
ds . (B.14)
.
dx n
ds
∂s
∂x
1
∂s
∂s ∂x 2
sx ≅ = (B.15)
∂x .
.
∂s
∂x n
T
∂s n
∂s
ds = dx = ∑ dxi (B.16)
∂x i =1 ∂x i
T T
∂s ∂s
ds = dx + dy (B.17)
∂x ∂y
∂2s ∂2s
s xx ≅ = (B.18)
∂x 2 ∂xi ∂x j
372
Apuntes de Automática II
T
∂s 1 ∂2s
s ( x) = s ( x0 ) + ( x − x 0 ) + ( x − x 0 ) T 2 ( x − x0 ) + O(2) (B.19)
∂x 2 ∂x
∂f ∂f ∂f ∂f
fx ≅ = , ,..., (B.20)
∂x ∂x1 ∂x 2 ∂x n
∂f n
∂f
df ≅ dx = ∑ dxi (B.21)
∂x i =1 ∂xi
T
∂f ∂f
≅ ∈ Rn xm (B.22)
∂x ∂x
d ( A −1 )
= − A −1 ⋅ A& ⋅ A −1 (B.23)
dt
∂ T ∂
( y x) = ( x T y ) = y (B.24)
∂x ∂x
∂ T ∂
( y Ax) = ( x T Ay ) = Ay (B.25)
∂x ∂x
∂ T ∂
( y f ( x)) = ( f T ( x) y ) = f xT y (B.26)
∂x ∂x
∂ T
( x Ax) = Ax + AT x (B.27)
∂x
Y si Q es simétrica, entonces:
1
En otros textos el gradiente se define como un vector fila
373
APENDICE B
∂ T
( x Qx) = 2Qx (B.28)
∂x
∂
[( x − y ) T Q ( x − y )] = 2Q( x − y ) (B.29)
∂x
∂ T
[ f y ] = f xT y + y Tx f (B.30)
∂x
∂ 2 ( x T Ax)
= A + AT (B.31)
∂x 2
Y si Q es simétrica
∂ 2 ( x T Qx)
= 2Q (B.32)
∂x 2
∂ 2 (( x − y ) T Q( x − y ))
= 2Q (B.33)
∂x 2
∂ ( Ax)
=A (B.34)
∂x
∂ ( sf ) ∂ ( fs )
= = sf x + fs Tx (B.35)
∂x ∂x
∂ (trazaA)
=I (B.36)
∂A
∂ (traza ( BAD))
= BT DT (B.37)
∂A
∂ (traza ( ABAT ))
= 2 AB (B.38)
∂A
374
Apuntes de Automática II
∂ (| BAD |)
=| BAD | A −T (B.39)
∂A
donde A-T=(A-1)T.
375
APENDICE B
376
BIBLIOGRAFIA
YANIV, O., Qunatitative feedback design of linear and nonlinear control systems, Kluwer
Academics Publishers : Norwell, Massachusetts, 1999.
377
378