Documentos de Académico
Documentos de Profesional
Documentos de Cultura
OPTIMIZACIÓN DINÁMICA
FLORES ROSA J. A.
LOPEZ TORRES E.
RUBIO GONZALEZ K.
Grupo: 2EM12
Profesor:
YAÑEZ JIMENEZ CARLOS ALBER
2018
2 Ejemplos
3 Bibliografı́a
Stages
La caracterı́stica esencial del enfoque de programación dinámica es la
estructuración de los problemas de optimización en múltiples etapas,
que se resuelven secuencialmente una etapa a la vez. Aunque cada
problema de una etapa se resuelve como un problema ordinario de
optimización, su solución ayuda a definir las caracterı́sticas del
próximo problema de una etapa en la secuencia.
A menudo, las etapas representan diferentes perı́odos de tiempo en el
horizonte de planificación del problema. Por ejemplo, el problema de
determinar el nivel de inventario de un solo producto básico puede
establecerse como un programa dinámico.
States
Asociados con cada etapa del problema de optimización están los
estados del proceso. Los estados reflejan la información requerida para
evaluar completamente las consecuencias que la decisión actual tiene
sobre las acciones futuras. En el problema de inventario dado en esta
sección, cada etapa tiene solo una variable que describe el estado: el
nivel de inventario en la mano del producto único. El problema de
retraso mı́nimo también tiene una variable de estado: la intersección
de un viajero (commuter) en una etapa particular.
Las propiedades esenciales que deberı́an motivar la selección de
estados son:
Los estados deberı́an transmitir suficiente información para tomar
decisiones futuras sin importar cómo el proceso alcanzó el estado
actual; y
el número de variables de estado debe ser pequeño, ya que el esfuerzo
computacional asociado con el enfoque de programación dinámica es
prohibitivamente costoso cuando hay más de dos, o posiblemente tres,
estados variables involucradas en la formulación del modelo.
OPTIMIZACIÓN DINÁMICA Escuela Superior de Economı́a 2018 4 / 26
Formalizando el enfoque de la programación dinamica.
Recursive optimization
La última caracterı́stica general del enfoque de programación dinámica es
el desarrollo de un recursivo procedimiento de optimización, que se basa en
una solución del problema general de N etapas resolviendo primero una
etapa problema y secuencialmente, incluyendo una etapa a la vez y la
solución de problemas de una etapa hasta el general óptimo ha sido
encontrado.
F = {ft : D → R | D ⊆ R2 , t = 0, . . . , T }
G = {gt : E → R | E ⊆ R2 , t = 0, . . . , T },
dos familias de funciones de clase C 2 , y sean
x : {0, . . . , T + 1} → R,
u : {0, . . . , T } → R,
dos funciones. Denotemos por x(t) = xt y u(t) = ut y, como antes,
decimos que x es la variable de estado y u la de control. Finalmente sea
VT +1 una función con dominio e imagen en R, de clase C 2 . La estructura
general del problema de programación dinámica es escoger u y x que
resuelvan
OPTIMIZACIÓN DINÁMICA Escuela Superior de Economı́a 2018 6 / 26
Formalizando el enfoque de la programación dinamica.
T
X
máx fk (xk , uk )
k=0 (1.1)
sujeto a xk+1 = gk (xk , uk ), k = 0, . . . , T,
x0 y xT +1 dados
Una polı́tica óptima tiene la propiedad de que, cualquiera que sea la acción
inicial, las posibles elecciones restantes constituyen una polı́tica óptima
con respecto al subproblema que comienza en el estado determinado por
las acciones iniciales.
Ası́, por ejemplo, si se ha determinado que la trayectoria óptima de México
a Guadalajara es vı́a Toluca y Morelia, entonces la trayectoria óptima de
Toluca a Guadalajara también pasa por Morelia. En nuestro caso, podemos
expresar el principio de optimalidad en términos de la función valor como
Z t+∆t Z T
V (x(t), t) = máx b(x, u, τ ) dτ + b(x, u, τ ) dτ
t t+∆t
= máx{b(x(t), u(t), t)∆t + V (x(t + ∆t), t + ∆t)} (1.3)
| {z }
óptimo del subproblema
∂
[b(x(t), u(t), t)∆t + V (x(t + ∆t), t + ∆t)] = 0 (1.4)
∂u
∂x(t + ∆t) ∂g
= ∆t
∂u ∂u
y por lo tanto
∂V [x(t + ∆t), t + ∆t]
bu + gu ∆t = 0,
∂x(t + ∆t)
con lo cual, definiendo λ como
∂V (x, t)
λ(t) = ,
∂x
se concluye
bu + λ(t + ∆t)gu
A la variable λ(t) se la conoce también como valor o precio sombra del
estado. Se puede pensar como el valor, o contribución marginal, a la
función valor de la unidad adicional de x en el tiempo t, en unidades del
tiempo inicial t = 0
Teorema
Si u∗ y x∗ resuelven el problema (1.1) y suponemos una solución interior,
entonces se satisfacen
en donde t ∈ {0, . . . , T − 1}
Ejemplo 1
2yt2
ct =
xt
y las reservas iniciales son x0 = 600 toneladas. El problema de
maximización de la empresa, suponiendo que no hay descuento temporal,
es
T
2y 2
X
máx pyt − t
xt
t=0
sujeto a
xt+1 = xt − yt
x0 = 600
Solución
La variable de control es y y x la de estado. La ecuación de Bellman está
dada por
2yt2
Vt (xt ) = máx pyt − + Vt+1 (xt+1 )
xt
xt+1 = xt − yt , xt dado,
4yt
p− − V̇t+1 = 0 (2.1)
xt
2y 2
V̇t = 2t + V̇t+1 (2.2)
xt
xt+1 = xt − yt (2.3)
V̇T +1 (xT +1 ) = 0 (2.4)
máx VT +1 (xT +1 )
yT
sujeto a xT +1 = xT − yT
p2
V̇2 =
8
Sustituyendo V̇2 en (2.1) para t = 1 , obtenemos
4y1 p2 y1 8p − p2
p− − =0⇒ =
x1 8 x1 32
y1
Sustituyendo x1 en (2.2) para t = 1, queda
2
8p − p2 p2
V̇1 = 2 +
32 8
Sustituyendo V̇1 en (2.1) para t = 0 , se tiene
" 2 #
4y0 8p − p2 p2
p− − 2 + = 0.
x0 32 8
Poniendo el valor inicial x0 = 600, se llega a
" 2 #
8p − p2 p2
y0 = 150 p − 2 −
32 8
Ejemplo 2
Resolver el siguiente problema:
Solución
Comencemos haciendo un esquema sobre el horizonte temporal del problema,
indicando los perı́odos, y los momentos en que se concretan los valores de las
distintas variables.
Para resolver el problema de programación dinámica, comenzamos situándonos en
el instante final, analizando a continuación cada uno de los periodos de final a
principio del Horizonte temporal.
OPTIMIZACIÓN DINÁMICA Escuela Superior de Economı́a 2018 19 / 26
Ejemplos
Final
J2∗ = x(2) (2.6)
J1∗ {x(1)} = mı́n [u(1) − 4]2 + J2∗ {x(1) + 2u(1)}
(2.7)
u(1) x(2)=x(1)+2u(1)
β̇(u) = 0 → 2(u − 4) + 2 = 0 ⇒ u = 3
β̈(u) = 2 > 0 mı́n
u∗ (1) = 3 (2.10)
Periodo 1: sea x(0) = 1 dado, la ecuación de bellman para este periodo es:
J ∗0 {x(0)} :
dado que: J ∗1 = x(1) + 7 ∀ x(1) = 3x(0) + u(0)
simplificando se llega que:
3
δ̇(u) = 0 → 2(u − 2) + 1 = 0 ⇒ u =
2
δ̈(u) = 2 > 0 mı́n
2
3 3
J0∗ {x(0)} = − 2 + + 10
2 2
47
=
4
Bibliografı́a