Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Act 3 2
Act 3 2
Optimización Dinámica
UNIDAD TEMATICA III
Antecedentes
El cálculo en variaciones es una herramienta muy útil que, sin embargo, no es suficientemente
poderosa para resolver muchos de los problemas que se presentan en las aplicaciones. Para
poder considerar casos en donde la función f(x, x, t) es lineal, casos en donde las trayectorias
x(t) son funciones más generales y no son necesariamente doblemente diferenciables, y casos
con restricciones sobre las trayectorias y otras generalizaciones.
Supongamos que por economía se entiende un sistema descrito en el tiempo t por ciertas
variables, denominadas de estado, dadas por x1(t),..., xn(t), que podrían ser capital, inflación,
cantidad de algún activo u otras.
Un control óptimo es definido como un control admisible que maximiza el funcional objetivo.
(Cerda, 2001)
Se plantea el problema que consiste en obtener trayectorias óptimas para estas variables de
manera que se maximice o minimice algún objetivo dado. Este objetivo puede ser el valor
presente del bienestar social, o el valor presente de la deuda pública, o el valor presente de la
riqueza de los servidores públicos, o cualquier otra cosa pertinente. Las variables xi(t) pueden
ser “controladas” por otras variables, denominadas de control, como podrían ser el consumo,
los balances nominales (política monetaria), los impuestos (política fiscal), etc., denotadas por
u1(t), ..., um(t). El problema general de obtener una trayectoria para las variables de estado
xi(t) escogiendo adecuadamente los controles uj (t) de manera que se optimice algún objetivo
es conocido como problema de Teoría de control control óptimo. Este problema puede ser tan
sencillo como minimizar el tiempo en el que se llena una tina si la variable de estado es la
cantidad de agua dentro de ella y el control es el flujo del agua de la llave, o bien puede ser
algo complicado como minimizar el gasto de combustible de una nave espacial. (Rumbos,
2001)
Temas:
3.1 Teoría del control optimo
El problema básico de control óptimo es
𝑡1
𝑀á𝑥 [𝑥, 𝑢] = ∫ 𝑓 (𝑡, 𝑥, 𝑢)𝑑𝑡
𝑡0
𝑋́(𝑡) = 𝑔(𝑡, 𝑥, 𝑢)
𝑆. 𝑎 𝑋(𝑡0 ) = 𝑥0
𝑋(𝑡1 ) = 𝑋1
Las funciones f y g son continuas en el intervalo [𝑡0 , 𝑡1 ] y tiene derivadas parciales en sus
argumentos 𝑋 𝑦 𝑈. La variable 𝑈 se denomina variable de control; es una función de clase
𝐶 1 [𝑡0 , 𝑡1 ] y determina la evolución de la variable de estado 𝑋 cuyo movimiento está gobernado
por una ecuación diferencial de primer orden. Esta última, mapea de ℝ𝑋ℝ → ℝ de forma, para
cada ∪ ∈ ∪ la restricción es una ecuación diferencial que bajo la condición inicial y terminal,
genera una solución única y continua.
Por ejemplo, el cálculo de variables es un caso especial del problema de control sea.
𝑡1
𝑀á𝑥𝐽[𝑥, 𝑢] = ∫ 𝑓 (𝑡, 𝑥, 𝑢)𝑑𝑡
𝑡0
𝑆. 𝑎 𝑥́ = 𝑈
𝑋(𝑡0 ) = 𝑋0
𝑋(𝑡1 ) = 𝑋1
Sustituir la restricción en el funcional objetivo y se obtiene el problema de cálculo de variables
𝑡1
𝑀á𝑥𝐽[𝑥, 𝑢] = ∫ 𝑓 (𝑡, 𝑥, 𝑢)𝑑𝑡
𝑡0
𝑋(𝑡0 ) = 𝑋0
𝑋(𝑡1 ) = 𝑋1
𝑡1 𝑡1
∫ (𝑓𝑥ℎ + 𝜆𝑔𝑥ℎ + 𝜆′ )ℎ𝑑𝑡 + ∫ (𝑓𝑢 + 𝜆𝑔𝑢)𝑣𝑑𝑡 = 0
𝑡0 𝑡0
𝑡0
𝑚á𝑥 𝐽(𝑋) = ∫ 𝑓 (𝑡, 𝑥, 𝑢)𝑑𝑡
𝑡1
𝑆. 𝑎 𝑥 ′ (𝑡)𝑔(𝑡, 𝑥, 𝑢)
𝑥(𝑡0 ) = 𝑥0
𝑥(𝑡1 ) = 𝑥1
Satisface las condiciones de primer orden.
𝑓𝑥 + 𝜆𝑔𝑥 = −𝜆
𝑓𝑢 + 𝜆𝑔𝑢 = 0
𝑥 ′ = 𝑔(𝑡, 𝑥, 𝑢)
Las condiciones de primer orden del control óptimo generan un sistema de
ecuaciones diferenciales, mientras que la Ecuación de Euler una ecuación
diferencial de segundo orden.
Ejercicio
Resolver el siguiente problema de Control Optimo.
x1
𝑀𝑎𝑥 𝐽(𝑥, 𝑢) = ∫ (ux − 𝑢2 − 𝑥 2 ) 𝑑𝑡
x0
1 −√3 2 √3 2 √3
𝑒 −√3 (−1 + 𝑒 2√3 )𝐶[2]
𝑒 (2 − √3 + 2𝑒 + √3𝑒 )𝐶[1] +
4 4√3
Determinar el valor de C[1] y C[2]
= 1} , {𝐶 [1], 𝐶 [2]}]
1 1
Solλ = √3𝑒 −√3𝑡 (−1 + 𝑒 2√3𝑡 )𝐶[1] − 𝑒 −√3𝑡 (−2 − √3 − 2𝑒 2√3𝑡
4 4
2√3𝑡
+ √3𝑒 )𝐶[2]/. {𝐶[1] → 0, 𝐶[2] → 1.2653530316535817}
𝑡0
𝑚á𝑥 𝐽(𝑋) = ∫ 𝑓 (𝑡, 𝑥, 𝑢)𝑑𝑡
𝑡1
𝑆. 𝑎 𝑥 ′ (𝑡)𝑔(𝑡, 𝑥, 𝑢)
𝑥(𝑡0 ) = 𝑥0
𝑥(𝑡1 ) = 𝑥1
Se obtiene a partir del Hamiltoniano sea 𝑓(𝑡, 𝑥, 𝑢) una función continua y
diferenciable a un funcional objetivo.
Ejercicio
1
Max𝐽(𝑥, 𝑢) = ∫ 𝑢2 dt
0
𝐷𝑒𝑟𝑖𝑣𝑎𝑑𝑎 [𝑢2 − 𝜆 ∗ 𝑢, 𝑥] = 0
𝐷[𝑢2 − 𝜆 ∗ 𝑢, 𝑢] = 2𝑢 − 𝜆
𝜆
{{𝑢 → }}
2
Se forma el sistema de ecuaciones diferenciales, de la siguiente manera:
λ'[t]=0
x'[t]=-λ/2
Obtenemos las soluciones
1
{{𝑥[𝑡] → 𝐶[1] − 𝑡𝐶[2], 𝜆[𝑡] → 𝐶[2]}}
2
1
𝐶[1] − 𝑡𝐶[2]/. 𝑡 → 0 = 𝐶[1]
2
1
𝑡𝐶[2] 𝐶[2]
𝐶[1] − 2 → 1 = 𝐶[1] −
.𝑡 2
𝐶[2]
Determinar el valor de cada constante [{𝐶[1] == 1, 𝐶[1] − == 0}, {𝐶[1], 𝐶[2]}]
2
{{𝐶[1] → 1. , 𝐶[2] → 2. }}
1
Solx = 𝐶[1] − 𝑡𝐶[2]/. {𝐶[1] → 1, 𝐶[2] → 2} = 𝟏 − 𝒕
2
Solλ = 𝐶[2]/. 𝐶[2] → 2 = 𝟐
Solλ
Solu = =𝟏
2
Hamiltoniano
2.0
1.5
1.0
0.5
0.5
1.0
3.2 Control Óptimo: El caso de varias variables
Ejercicio
Resolver el problema de control con dos variables de estado y una de coestado
1
𝑀𝑎𝑥 𝐽(𝑥1, 𝑥2, 𝑢) = ∫ ((x1)2 − 𝑢2 ) 𝑑𝑡
0
x1′ = x1
x2'=-2x1-3x2-u
x1(0)=x2(0)=1
x1(1)=x2(1)=0
El Hamiltoniano asociado será:
H(t,x,u, λ1,..,λn)=f(t,x,u)+ λ1*g1(t,x,u)+ λ2*g2(t,x,u)+…+ λn*gn(t,x,u)
quedando definido como: H(x1,x2,u,λ1,λ2,t)=x12-u2+λ1x1-2λ2x1-3λ2x2-λ2u
𝐷𝑒𝑟𝑖𝑣𝑎𝑑𝑎 [x12 − 𝑢2 + λ1 ∗ x1 − 2λ2 ∗ x1 − 3λ2 ∗ x2 − λ2 ∗ 𝑢, x1]
2x1 + λ1 − 2λ2
−3λ2
𝐷𝑒𝑟𝑖𝑣𝑎𝑑𝑎 [x12 − 𝑢2 + λ1 ∗ x1 − 2λ2 ∗ x1 − 3λ2 ∗ x2 − λ2 ∗ 𝑢, 𝑢]
−2𝑢 − λ2
λ2
{{𝑢 → − }}
2
{{𝜆′ → 3λ2}}