Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Resumen
Abstract
In this work an optimal control problem LQR is studied considering that the
dynamic system is governed by: (a) a differential equation (DE) with colored noise
and (b) a DE in which the colored noise evolves as a DE with Markovian switching.
The algebraic Ricatti equations in cases (a) and (b) are obtained explicitly. The
theoretical results are applied to analyze the behavior of a direct current (DC)
motor under this theory.
Keywords: Stochastic differential equations, differential equations with Markovian
switching, colored noise.
8
1. Introducción
Hay varias técnicas para estudiar problemas de control óptimo como son el análisis
convexo y la programación lineal. Sin embargo, como mencionan los expertos, por razones
computacionales, en la mayoría de las aplicaciones las técnicas más usadas son el principio
del máximo (que algunos autores llaman el principio de Pontryagin) y la programación
9
Las secciones están organizadas como sigue. En la sección 1 el problema de control óptimo
LQR es planteado. Además, el teorema de verificación que relaciona la ecuación de HJB
con la solución al problema de control óptimo es enunciado. El problema de control óptimo
LQR asumiendo que el sistema dinámico evoluciona como una ecuación diferencial con
ruido coloreado es resuelto analíticamente en la sección 2. En sección 3 se resuelve
analíticamente el mismo problema LQR pero ahora se considera que el sistema dinámico es
gobernado por un ED con ruido coloreado y que dicho ruido evoluciona de acuerdo a una
ecuación diferencial estocástica con cambios markovianos. Finalmente, los resultados
teóricos son aplicados en el modelado de un motor de corriente directa en la sección 4.
10
El control de sistemas dinámicos lineales con criterio cuadrático tiene la forma siguiente
(Gordillo, 1994)
(1)
donde es una matriz positiva definida. El costo total es la suma de los gastos y
, esto es,
(2)
(3)
11
En la práctica lo que hace el control óptimo LQR es llevar el estado del proceso desde
un estado inicial a un estado final con el mínimo costo de energía. Para resolver
el problema de control óptimo LQR (3) se usará la técnica de programación dinámica. Para
tal fin, primero se debe tener el generador infinitesimal de proceso , en este caso es
dado por
.
La ecuación de Hamilton-Jacobi-Bellman para el problema de control óptimo LQR en
horizonte de tiempo finito es
(4)
Con y en el espacio de funciones las cuales son una vez derivable en y dos
veces derivables en , , es el espacio -dimensional de números
reales.
Para el problema estudiado en este trabajo la ecuación de HJB (4) nos da la función de
valor óptima y el control óptimo . Esto es consecuencia del siguiente
teorema de verificación, cuya prueba es estándar, ver Teorema 3.5.2 (Pham, 2009).
En las siguientes dos secciones se usa el Teorema de Verificación para resolver los
problemas de control óptimo LQR considerando que el sistema dinámico (1) evoluciona de
acuerdo con: (a) una ecuación diferencial con ruido coloreado y (b) una ecuación
diferencial en la cual el ruido coloreado es gobernado por una ecuación diferencial de
Langevin con cambios Markovianos.
3. Ruido Coloreado
12
, (5)
(7
)
El siguiente teorema muestra el control óptimo para el problema de control óptimo LQR
considerando que el sistema dinámico evoluciona de acuerdo con la ecuación diferencial
(6).
13
(8)
, (9)
(10)
(11)
= = =
(12)
, = .
y como es una matriz simétrica positiva semi definida, se tiene que la función
14
+
es estrictamente convexa sobre el conjunto de las funciones de control . Por lo tanto,
dicha función alcanza su mínimo en
(13)
donde es una cadena de Markov irreducible a tiempo continuo con espacio de estados
finitos y probabilidades de transición
15
para i≠ j. El número es la tasa de transición de a , mientras que .
(16
)
la suma en la ecuación de HJB se toma sobre todos los en . El siguiente teorema muestra
el control óptimo para el problema de control óptimo LQR considerando que el sistema
dinámico evoluciona de acuerdo con la ecuación diferencial (15)
(17)
(18)
16
(19)
= =
(20)
17
5. Resultados numéricos
Las ecuaciones que modelan la parte mecánica y eléctrica de un motor de cd son:
(21)
donde V es el voltaje del motor (V), I es la corriente (A); es la resistencia del inducido
(), es la inductancia (H), (t) es la velocidad del rotor (Rad/seg), es la inercia (Nm2),
es el coeficiente de fricción viscosa (N/ms), es el torque en el rotor (Nm), ver (Cerón
& Vázquez & Aquino).
18
, (22)
donde
El modelo del motor de CD a simular en el software de Matlab es (22). Los parámetros que
se utilizaron son: , y
19
Para calcular la señal de control del LQR es necesario primero resolver la ecuación de
Ricatti (10) para obtener la matriz P(t), el siguiente paso es calcular la señal de control con
(8), donde es el voltaje aplicado al motor.
La Fig. 2 muestra que el control oscila entre 2 y -11 V y como el voltaje nominal del motor
es de 30 V se puede observar que la señal de control está dentro de los parámetros
nominales y que el control después de 0.12 s se estabiliza y oscila alrededor de cero debido
al ruido coloreado.
20
caso es el cero. Como se puede observar en la Fig. 4, se logra el objetivo del control LQR,
es decir, el control óptimo lleva el sistema dinámico de a
21
Para realizar la simulación del motor de CD con saltos markovianos se utilizó el método
Euler-Maruyama para ecuaciones diferenciales estocásticas con saltos markovianos dado en
(Chenggui & Xuerong, 2004). En esta simulación asumiremos que la cadena de Markov
presenta dos estados, es decir, y que
En la Fig. 5 se muestra como la cadena de Márkov hace que los estados salten de un estado
a otro por ejemplo en el t=0.1 esta en estado 2 y en t=0.21 está en el estado 1. En la Fig. 6
se muestra la gráfica de la velocidad angular y la corriente del motor, se puede observar que
aun con ruido coloreado y saltos markovianos el controlador LQR logra que el sistema se
estabilice en cero, esto es, el control óptimo lleva el sistema dinámico de
a . El tiempo para la estabilización de los
estados es 0.1 s.
22
Figura 6. Velocidad angular y corriente del motor de CD con ruido coloreado y saltos markovianos
23
Conclusiones
La técnica de programación dinámica fue usada para encontrar los controles óptimos, las
ecuaciones diferenciales de Riccati y las funciones de valor o de costo óptimas en los dos
escenarios estudiados (ver Teorema 1 y Teorema 2). Los resultados teóricos fueron
aplicados para controlar la velocidad angular y posición de un motor de corriente directa.
Para el caso de la aplicación estudiada podemos concluir que el controlador óptimo LQR
lleva el estado del proceso desde un estado inicial a un estado final con el
mínimo costo de energía independientemente si la resistencia del circuito del motor es
afectada por ruido coloreado.
Bibliografía
Arnold, L., 2013. Stochastic Differential Equations: Theory and Applications. New York: Over
Publications.
Bauerle, N. & Rieder, U., 2004. Portfolio Optimization With Markov‐Modulated Stock Prices and
Interest Rates. IEEE Transactions on Automatic Control, 49(3), pp. 442‐447.
Chenggui, Y. & Xuerong, M., 2004. Convergence of the Euler–Maruyama method for stochastic
differential equations with Markovian switching. Mathematics and Computers in Simulation,,
64(2), pp. 223‐235.
Gordillo, F., 1994. Contribuciones Al Problema De Control Óptimo. Sevilla: Universidad de Sevilla.
Kolarová, E., 2005. Modelling rl electrical circuits by stochastic differencial equations. s.l.:In
EUROCON 2005‐The International Conference on Computer as a Tool.
24
Kolarová, E. & Brancík, L., 2016. The effect of the colored noise to rlc(g) electrical circuits. s.l.:In
2016 26th International Conference Radioelektronica..
Mao, X., Yin, G. G. & Yuan, C., 2007. Stabilization and destabilization of hybrid systems of
stochastic differential equations. Automatica, Volume 43, pp. 264‐273.
Mao, X. & Yuan, C., 2006. Stochastic Differential Equations with Markovian Switching. UK: World
Scientific Publishing Co.
Nhu, N. & George, 2020. A class of Langevin equations woth Markov switching involving strog
damping and fast witching. J. Math. Phys, Volume 61, pp. 1‐19.
Pham, H., 2009. Continuous‐Time Stochastic Control and Optimization with Financial Applications.
New York: Springer.
Rawat, T. & Parthasarathy, H., 2008. Modeling of an RC Circuit using a Stochastic Differential
Equation. Thammasat Int. J. Sc. Tech, Volume 13, pp. 40‐47.
Yuan, C. & Mao, X., 2004. Convergence of the Euler–Maruyama method for stochastic differential
equations with Markovian switching. Mathematics and Computers in Simulation, Volume 64, pp.
223‐235.
25