Documentos de Académico
Documentos de Profesional
Documentos de Cultura
P ROGRAMA DE E CONOMÍA
Óptimización económica 2
19 de junio de 2017
F 0 (k 0 , k 1 , ..., k T +1 , c 0 , c 1 , ..., c T ) = 0
F 1 (k 0 , k 1 , ..., k T +1 , c 0 , c 1 , ..., c T ) = 0
..
.
F T (k 0 , k 1 , ..., k T +1 , c 0 , c 1 , ..., c T ) = 0
k0 dado.
1
lagrangiano.
T
L = U (k, c) + λt F t (k, c)
X
t =0
∂L ∂U (k, c) X T ∂F s (k, c)
= 0 =⇒ + λs = 0, ∀t ∈ {0, 1, ..., T }
∂c t ∂c t s=0 ∂c t
∂L ∂U (k, c) X T ∂F s (k, c)
= 0 =⇒ + λs = 0, ∀t ∈ {0, 1, ..., T }
∂k t +1 ∂k t +1 s=0 ∂k t +1
∂L
= 0 =⇒ F t (k, c) = 0, ∀t ∈ {0, 1, ..., T }
∂λt
En este caso, existen 3(T +1) incógnitas y 3(T +1) ecuaciones, las cuales se resuelven en función
de k 0 dado:
c t = H t (k 0 ), k t +1 = J t (k 0 ), ∀t ∈ {0, 1, ..., T }
Supongamos que U presenta una estructura de separabilidad en el tiempo y, junto con las
funciones que determinan las restricciones adoptan las formas:
U (k, c) = u 0 (k 0 , c 0 ) + · · · + u T (k T , c T ) + S(k T +1 )
máx u 0 (k 0 , c 0 ) + · · · + u T (k T , c T ) + S(k T +1 )
{c t ,k t +1 }Tt=0
s.a
k1 = G 0 (k 0 , c 0 )
k2 = G 1 (k 1 , c 1 )
..
.
k T +1 = G T (k T , c T )
k0 dado.
2
En tal caso:
c 0 , c 1 , ..., c T se denominan variables de control.
k 0 , k 1 , ..., k T , k T +1 se denominan variables de estado.
u t (k t , c t ) se denominan funciones de un periodo de retorno en t .
S(k T +1 ) se denomina valor residual (scrap value).
k t +1 = G t (k t , c t ) se denomina ecuación de transición en t . Tal estructura de separabilidad en el
tiempo para este problema, implica que, para los valores dados de k τ , c τ , influye en los valores
futuros de la variable de estado {k t +1 }Tt=τ y los retornos corrientes y futuros {u t (k t , c t )}Tt=τ , pero
no influyen en sus valores pasados, {k t +1 }τ−1 τ−1
t =0 y {u t (k t , c t )}t =0 . Así, tendremos:
k τ+1 = G τ (k τ , c τ )
= G τ+1 (G τ (k τ , c τ ), c τ+1 )
···
y
u τ (k τ , c τ )
u τ+1 (k τ+1 , c τ+1 ) = u τ+1 (G τ (k τ , c τ )c τ+1 )
u τ+2 (k τ+2 , c τ+2 ) = u τ+2 (G τ+1 (G τ (k τ , c τ ), c τ+1 ), c τ+2 )
···
En consecuencia, k τ constituye una completa descripción de la posición corriente del sistema,
de modo que, los valores pasados {c t , k t }τ−1
t =0 no añaden mayor información más allá de la que
L = u 0 (k 0 , c 0 ) + · · · + u T (k T , c T ) + S(k T +1 )
+ λ0 [G 0 (k 0 , c 0 ) − k 1 ] + λ1 [G 1 (k 1 , c 1 ) − k 2 ] + · · · + λT −1 [G T −1 (k T −1 , c T −1 ) − k T ]
+ λT [G T (k T , c T ) − k T +1 ].
3
Las condiciones de primer orden son:
∂L ∂u 0 (k 0 , c 0 ) ∂G 0 (k 0 , c 0 )
= 0 =⇒ + λ0 =0
∂c 0 ∂c 0 ∂c 0
········· ······························
∂L ∂u T (k T , c T ) ∂G T (k T , c T )
= 0 =⇒ + λT =0
∂c T ∂c T ∂c T
∂L ∂u 1 (k 1 , c 1 ) ∂G 1 (k 1 , c 1 )
= 0 =⇒ − λ0 + λ1 =0
∂k 1 ∂k 1 ∂k 1
········· ······························
∂L ∂u T (k T , c T ) ∂G T (k T , c T )
= 0 =⇒ − λT −1 + λT =0
∂k T ∂k T ∂k T
∂L
= 0 =⇒ S 0 (k T +1 ) − λT = 0
∂k T +1
∂L
= 0 =⇒ k 1 = G 0 (k 0 , c 0 )
∂λ0
········· ··················
∂L
= 0 =⇒ k T +1 = G T (k T , c T ).
∂λT
Solución
El sistema de ecuaciones obtenidas mediante las CPO, puede ser resuelta recursivamente, es
decir toma la forma
ct = h t (k t )
k t +1 = g t (k t ) ≡ G t (k t , h t (k t ))
donde las funciones h t (.) se denominan funciones de política (policy functions o también
denominadas optimal feedback rules).
El proceso de resolución recursiva consiste en iterar sobre estas funciones, empezando con el
valor inicial de k en t = 0, k 0 :
4
c 0 = H0 (k 0 ) ≡ h 0 (k 0 )
k 1 = J 1 (k 0 ) ≡ G 0 (k 0 , H0 (k 0 ))
c 1 = H1 (k 0 ) ≡ h 1 (J 1 (k 0 ))
k 2 = J 2 (k 0 ) ≡ G 1 (J 1 (k 0 ), H1 (k 0 ))
··· ··· ···
c T = HT (k 0 ) ≡ h T (J T (k 0 ))
k T +1 = J T +1 (k 0 ) ≡ G T (J T (k 0 ), HT (k 0 ))
∂u T (k T , c T ) ∂G T (k T , c T )
+ λT =0
∂c T ∂c T
λT = S‘(k T +1 )
k T +1 = G T (k T , c T )
Este sistema cuenta con tres ecuaciones y tres incógnitas, es decir podemos obtener c T , k T +1 y
λT en términos de k T :
c T = h T (k T )
k T +1 = g T (k T ) ≡ G T (k T , h T (k T ))
λT = l T (k T )k T +1 = G T (k T , c T )
∂u T −1 (k T −1 , c T −1 ) ∂G T −1 (k T −1 , c T −1 )
+ λT −1 =0
∂c T −1 ∂c T −1
u T (k T , c T ) ∂G T (k T , c T )
− λT −1 + λT =0
∂k T ∂k T
k T = G T −1 (k T −1 , c T −1 )
5
entonces las CPO del periodo T − 1 pueden ser expresadas como
∂u T −1 (k T −1 , c T −1 ) ∂G T −1 (k T −1 , c T −1 )
+ λT −1 =0
∂c T −1 ∂c T −1
u T (k T , h T (k T )) ∂G T (k T , h T (k T ))
− λT −1 + λT (k T ) =0
∂k T ∂k T
k T = G T −1 (k T −1 , c T −1 )
Las ecuaciones precedentes forman un sistema de tres ecuaciones con tres incógnitas: c T −1 , k T
y λT −1 , que pueden ser expresadas en términos de k T −1 . Así,
c T −1 = h T −1 (k T −1 )
k T = g T −1 (k T −1 ) ≡ G T −1 (k T −1 , h T −1 (k T −1 ))
λT −1 = l T −1 (k T −1 )
Para el periodo t = T − 2, las CPO asociadas son
∂u T −2 (k T −2 , c T −2 ) ∂G T −2 (k T −2 , c T −2 )
+ λT −2 =0
∂c T −2 ∂c T −2
u T −1 (k T −1 , c T −1 ) ∂G T −1 (k T −1 , c T −1 )
− λT −2 + λT −1 =0
∂k T −1 ∂k T −1
k T −1 = G T −2 (k T −2 , c T −2 )
Pero se sabe por las CPO obtenidas en el periodo precedente (T-1) que c T −1 = h T −1 (k T −1 ) y
λT −1 = l T −1 (k T −1 ). En consecuencia,
∂u T −2 (k T −2 , c T −2 ) ∂G T −2 (k T −2 , c T −2 )
+ λT −2 =0
∂c T −2 ∂c T −2
u T −1 (k T −1 , h T −1 (k T −1 )) ∂G T −1 (k T −1 , h T −1 (k T −1 ))
− λT −2 + l T −1 (k T −1 ) =0
∂k T −1 ∂k T −1
k T −1 = G T −2 (k T −2 , c T −2 )
Nuevamente, este sistema de tres ecuaciones puede ser resuelta para las tres incógnitas c T −2 ,
k T −1 y λT −2 , en términos de k T −2 . Así,
c T −2 = h T −2 (k T −2 )
k T −1 = g T −2 (k T −2 ) ≡ G T −2 (k T −2 , h T −2 (k T −2 ))
λT −2 = l T −2 (k T −2 )
6
Continuamos el proceso hasta alcanzar el periodo t = 0. En este caso, las CPO para el periodo 0
son:
∂u 0 (k 0 , c 0 ) ∂G 0 (k 0 , c 0 )
+ λ0 =0
∂c 0 ∂c 0
u 1 (k 1 , h 1 (k 1 )) ∂G 1 (k 1 , h 1 (k 1 ))
− λ0 + l 1 (k 1 ) =0
∂k 1 ∂k 1
k 1 = G 0 (k 0 , c 0 )
Este sistema presenta tres ecuaciones y tres incógnitas que pueden ser resueltas para las tres
variables desconocidas, c 0 , k 1 y λ0 , en términos de k 0 . Finalmente, conseguimos
c 0 = h 0 (k 0 )
k 1 = g 0 (k 0 ) ≡ G 0 (k 0 , h 0 (k 0 ))
λ0 = l 0 (k 0 ).
Ejemplo de ilustración
Consideremos el problema
máx ln c 0 + ln c 1 + ln x 2
s.a x1 = x0 − c0
x2 = x1 − c1
x 0 > 0 dado.
En este caso, elegimos las variables c 0 , c 1 , x 1 y x 2 . Formulamos la función lagrangiana
L = ln c 0 + ln c 1 + ln x 2 + λ1 (x 0 − c 0 − x 1 ) + λ2 (x 1 − c 1 − x 2 ).
1
(c 0 ) : c0
= λ1
1
(c 1 ) : c1
= λ2
(x 1 ) : λ1 = λ2
1
(x 2 ) : x2 = λ2
(λ1 ) : x 1 = x 0 − c 0
(λ2 ) : x 2 = x 1 − c 1
1 1 1
= = .
c0 c1 x2
7
Luego,
c0 = c1 = x2 .
1
c 0∗ = x 0 .
3
Pero c 0 = c 1 = x 2 . En consecuencia,
1
c 1∗ = x0
3
1
x 2∗ = x0
3
Además, x 1 = 2c 0 , produciendo
2
x 1∗ = x 0
3
2. L A ECUACIÓN DE B ELLMAN
Wt (k t ) ≡ máxc t ,k t +1 u t (k t , c t ) + Wt +1 (k t +1 )
s.a
k t +1 = G t (k t , c t )
kt dado
con
WT +1 (k T +1 ) = S(k T +1 )
8
La función lagrangiana y las condiciones de primer orden asociadas al problema son
L = u T (k T , c T ) + S(k T +1 ) + λT [G T (k T , c T ) − k T +1 ].
∂L ∂u T (k T , c T ) ∂G T (k T , c T )
= 0 =⇒ + λT =0
∂c T ∂c T ∂c T
∂L
= 0 =⇒ λT = S 0 (k T +1 )
∂k T +1
∂L
= 0 =⇒ k T +1 = G T (k T , c T )
∂λT
Es claro que este sistema de ecuaciones coincide con las CPO del periodo T del problema
original. Por lo tanto:
c T = h T (k T )
k T +1 = g T (k T ) ≡ G T (k T , h T (k T ))
λT = l T (k T ) ≡ S 0 (G T (k T , h T (k T ))).
Sustituyendo en la función objetivo, se tendrá
WT (k T ) = u T (k T , h T (k T )) + S(g T (k T ))
= u T (k T , h T (k T )) + S(G T (k T , h T (k T ))).
Para el periodo t = T − 1:
WT −1 (k T −1 ) ≡ máxcT −1 ,kT u T −1 (k T −1 , c T −1 ) + WT (k t )
s.a
k T = G T −1 (k T −1 , c T −1 )
k T −1 dado
El lagrangiano y las condiciones de primer orden asociadas al problema son:
L = u T −1 (k T −1 , c T −1 ) + WT (k T ) + λT −1 [G T −1 (k T −1 , c T −1 ) − k T ].
∂L ∂u T −1 (k T −1 , c T −1 ) ∂G T −1 (k T −1 , c T −1 )
= 0 =⇒ + λT −1 =0
∂c T −1 ∂c T −1 ∂c T −1
∂L
= 0 =⇒ WT0 (k T ) − λT −1 = 0
∂k T
∂L
= 0 =⇒ k T = G T −1 (k T −1 , c T −1 )
∂λT −1
9
Y, de acuerdo con lo desarrollado en el periodo T , se sabe que
WT (k T ) = u T (k T , h T (k T )) + S(G T (k T , h T (k T ))).
Así,
WT0 (k T ) =
∂u T (k T , h T (k T )) ∂u T (k T , h T (k T )) 0
+ h T (k T )+
∂k T ∂c T
∂G T (k T , h T (k T )) ∂G T (k T , h T (k T )) 0
· ¸
0
S (G T (k T , h T (k T ))) × + h T (k T )
∂k T ∂c T
∂u T (k T , h T (k T )) ∂u T (k T , h T (k T )) ∂G T (k T , h T (k T )) 0
· ¸
0
= + + S (G T (k T , h T (k T ))) h T (k T )+
∂k T ∂c T ∂c T
∂G T (k T , h T (k T ))
S 0 (G T (k T , h T (k T )))
∂k T
∂u T (k T , h T (k T )) ∂u T (k T , h T (k T )) ∂G T (k T , h T (k T )) 0
· ¸
= + + l T (k T ) h T (k T )+
∂k T ∂c T ∂c T
| {z }
=0, por CPO del periodo T
∂G T (k T , h T (k T ))
l T (k T )
∂k T
∂u T (k T , h T (k T )) ∂G T (k T , h T (k T ))
= + l T (k T )
∂k T ∂k T
∂u T −1 (k T −1 , c T −1 ) ∂G T −1 (k T −1 , c T −1 )
+ λT −1 =0
∂c T −1 ∂c T −1
∂u T (k T , h T (k T )) ∂G T (k T , h T (k T ))
+ λT (k T ) − λT −1 = 0
∂k T ∂k T
k T = G T −1 (k t −1 , c T −1 )
Nuevamente, este sistema coincide exactamente con las CPO para el periodo T − 1, del
10
problema original. Por lo tanto,
c T −1 = h T −1 (k T −1 )
k T = g T −1 (k T −1 ) ≡ G T −1 (k T −1 , h T −1 (k T −1 ))
λT −1 = l T −1 (k T −1 ).
WT −1 (k T −1 ) = u T −1 (k T −1 , h T −1 (k T −1 )) + WT (g T −1 (k t −1 ))
= u T −1 (k T −1 , h T −1 (k T −1 )) + WT (G T −1 (k T −1 , h T −1 (k T −1 )))
Continuando este proceso de inducción, se demuestra que la solución coincide con la solución
del problema planteado inicialmente.
En conclusión, se puede resolver el problema original resolviendo la sucesión de problemas de
optimización de un periodo, definidas por las ecuaciones de Bellman.
Wt (k t ) ≡ máx u t (k t , c t ) + Wt +1 (k t +1 )
c t ,k t +1
sujeto a
k t +1 = G t (k t , c t )
kt dado
y
WT +1 (k T +1 ) = S(k T +1 )).
W0 (k 0 ) = máx{u 0 (k 0 , c 0 ) + W1 (k 1 )}
c 0 ,k 1
Por otra parte, se demostró que las soluciones a los dos problemas planteados coinciden. Así
11
donde la restricción propia del proceso de maximización es (∀t ∈ {0, 1, . . . T }), k t +1 = G t (k t , c t ),
con k 0 dado.
Finalmente, podemos usar los dos resultados precedentes y obtener:
máx {u 0 (k 0 , c 0 ) + · · · + u T (k T , c T ) + S(k T +1 )}
{c t ,k t +1 }Tt=0
c T −1 = h T −1 (k T −1 ) y k T = g T −1 (k T −1 ),
12
Principio de optimalidad de Bellman (POB): Formulación matemática.
máx u 0 (k 0 , c 0 ) + · · · + u T (k T , c T ) + S(k T +1 )
{c t ,k t +1 }Tt=0
s.a k t +1 = G t (k t , c t ) t ∈ {0, 1, . . . , T }
k0 dado
s.a k t +1 = G t (k t , c t ) t ∈ {τ, τ + 1, . . . , T }
kτ dado
Interpretación: Como consecuencia del carácter recursivo del problema tratado, el POB
establece que no hay incentivos para apartarse del plan original. En este caso, las políticas
óptimas que cumplen con el POB se denominan consistentes en el tiempo.
Ejemplo
Wt (k t ) ≡ máx βt u(k t , c t ) + Wt +1 (k t + 1)
c t ,k t +1
s.a k t +1 = G t (k t , c t )
kt dado.
Wt (k t )
Vt (k t ) ≡ .
βt
13
En tal caso
Wt (k t )
Vt (k t ) =
βt
máx βt u(k t , c t ) + Wt +1 (k t + 1)
c t ,k t +1
=
βt
βt u(k t , c t ) + Wt +1 (k t + 1)
= máx
c t ,k t +1 βt
Wt +1 (k t +1 )
= máx u(k t , c t ) + β ,
c t ,k t +1 βt +1
es decir
Vt (k t ) = máx u(k t , c t ) + βVt +1 (k t +1 ).
c t ,k t +1
T
X
máx u t (k t , c t ) + S(k t +1 )
{c t ,k t +1 }Tt=0 t =0
s.a k t +1 = G t (k t , c t ), t ∈ {0, 1, . . . , T }
k0 dado
A diferencia del ejemplo (que corresponde a un caso particular), observamos que tanto la
función u como la función G puede cambiar para cada t arbitrariamente. Más aún, el horizonte
temporal es finito. En consecuencia la solución a este problema correspondería a funciones de
política que varíen con el tiempo: c t = h t (k t ).
Nuestro interés radica en obtener funciones de política que sean invariantes en el tiempo,
es decir funciones de la forma c t = h(k t ), para cada periodo t . Estas funciones también se
denominan políticas estacionarias (stationary policies). En consecuencia, consideraremos un
marco especial en el que el horizonte temporal es infinito y las funciones u t (.) y G t (.) presenten
características particulares:
u t (k t , c t ) = βt u(k t , c t )
G t (k t , c t ) = G(k t , c t )
14
2.1. E L PROBLEMA RECURSIVO : HORIZONTE INFINITO
∞
βt u(k t , c t )
X
máx∞
{c t ,k t +1 }t =0 t =0
s.a k t +1 = G(k t , c t ), t ∈ {0, 1, . . .}
k0 dado
Dado que u(.) y G(.) son invariantes en el tiempo, ambos problemas presentan la misma
estructura, excepto por el valor inicial de la variable de estado. Más aún, esta característica
sugiere que la solución al problema original sea una función de política invariante en el tiempo:
c t = h(k t ),
y que la función de valor del problema original y de los problemas de continuación serán los
mismos. En consecuencia, para cada t ∈ {0, 1 . . .}, la ecuación de Bellman será:
W (k t ) ≡ máx u(k t , c t ) + βV (k t + 1)
c t ,k t +1
s.a k t +1 = G(k t , c t )
kt dado.
En esta ecuación deberá hallarse la función V (.) y, juntamente, la función de política h(.).
15
2.2. M ÉTODOS DE RESOLUCIÓN DE LA ECUACIÓN DE B ELLMAN
Este método consiste en construir una sucesión de funciones de valor y las correspondiente
funciones de política. Tal sucesión es construida iterando en
Este método consiste en postular una solución V para la ecuación de Bellman y verificar si fue
correcta. En este caso, el método de los coeficientes indeterminados es usado para verificar la
solución postulada.
1
La convergencia se garantiza definiendo un operador T , con (T V )(k) = máx u(k, c)+βV (G(k, c)), de modo que
ct
T V j = V j +1 . Se puede demostrar que bajo ciertas condiciones que este operador es una contracción. Así, el
teorema de contracción del análisis funcional garantiza que T presenta un único punto fijo, T V = V . Más aún,
tal punto fijo puede ser calculado por iteraciones sucesivas en T V j = V j +1 , considerando alguna función inicial
V0 (comúnmente V0 = 0).
16
3. L A ECUACIÓN DE E ULER
Los métodos de solución indicados en la sección precedente requieren hallar la función de valor
V . Sin embargo, es posible resolver el problema sin necesidad de hallar V .
Sea
V (k t ) = máx u(k t , c t ) + βV (G(k t , c t ))
ct
u c (k t , c t ) + βV 0 (G(k t , c t ))G c (k t , c t ) = 0.
c t = h(k t ),
Derivando respecto a k t :
Así,
V 0 (k t ) = u k (k t , h(k t )) + βV 0 (G(k t , h(k t )))G k (k t , h(k t ))
17
que logramos elegir las variables de control y estado de modo tal que la ecuación de transición
no depende de k t : k t +1 = G(c t ). Así, G k = 0 y la fórmula de B-S se convierte en
V 0 (k t ) = u k (k t , h(k t ))
= u k (k t , c t )
y en el periodo t + 1 es
V 0 (k t +1 ) = u k (k t +1 , c t +1 )
u c (k t , c t ) + βV 0 (k t +1 )G c (k t , c t ) = 0
u c (k t , c t ) + βu k (k t +1 , c t +1 )G c (k t , c t ) = 0
el cual es una ecuación en diferencias de segundo orden en k. Tal ecuación puede ser resuelta
usando dos condiciones de frontera: la condición inicial k 0 , y una condición apropiada de
transversalidad (CT).
Comentarios
El método Guess-Verify, puede ser usado para resolver la ecuación de Euler. En este caso,
en vez de adivinar la forma de la función de valor, se adivina la forma de la función de
política, h(.), y se verifica si la ecuación de Euler es satisfecha.
18
Ejemplo de ilustración 2
Resolvamos el ejemplo de ilustración 1, usando el método de programación dinámica:
En t = 1:
W1 (x 1 ) ≡ máxc1 ,x2 ln c 1 + W2 (x 2 )
s.a x2 = x1 − c1
x1 dado,
con W2 (x 2 ) = ln x 2 .
Luego,
W1 (x 1 ) ≡ máxc1 ,x2 ln c 1 + ln x 2
s.a x2 = x1 − c1
x1 dado,
Así,
W1 (x 1 ) ≡ máx ln c 1 + ln(x 1 − c 1 )
c1
1 1
W1 (x 1 ) = ln( x 1 ) + ln( x 1 )
2 2
es decir
1
W1 (x 1 ) = 2 ln( ) + 2 ln x 1 .
2
En t = 0:
W0 (x 0 ) ≡ máxc0 ,x1 ln c 0 + W1 (x 1 )
s.a x1 = x0 − c0
x0 dado,
19
donde W1 fue hallado en el paso previo.
Luego,
W0 (x 0 ) ≡ máxc0 ,x1 ln c 0 + 2 ln( 12 ) + 2 ln x 1
s.a x1 = x0 − c0
x0 dado,
Es decir,
1
W0 (x 0 ) ≡ máx ln c 0 + 2 ln( ) + 2 ln(x 0 − c 0 )
c0 2
La condición de primer orden:
1 2
=
c0 x0 − c0
Luego, como x 0 − c 0 = 2c 0 , se tiene 3c 0 = x 0 , es decir
1
c 0∗ = x 0
3
2
x 1∗ = x 0
3
1
c 1∗ = x 0
3
Sustituyendo x 1 = 23 x 0 en x 2 = 21 x 1 , conseguimos
1
x 2∗ = x 0 .
3
donde {εt }∞
t =0 es una sucesión de variables aleatorias con función de distribución condicional
20
condicional a la información disponible en el tiempo t .
Se asume que εt es conocidad en t , antes que c t sea elegida. El valor de k t es también conocido
antes que c t sea elegido. Esto implica, mediante la ecuación de transición, que k t +1 es conocido
en t .
Observación. En algunas especificaciones, la ecuación de transición es de la forma k t +1 =
G(k t , c t , εt +1 ). En este caso, εt +1 y k t +1 son desconocidos en t . En otras especificaciones, un
shock estocástico es usado para incidir sobre la función de retorno: u(k t , c t , εt ).
El problema estocástico descrito mantiene la estructura recursiva proveniente de la
separabilidad de la función objetivo en pares (k t , c t ), y de la forma particular de la ecuación
de transición. En consecuencia, los métodos de la programación dinámica continúan siendo
apropiados.
La ecuación de Bellman, en este caso, es
donde se ha usado la ecuación de transición para eliminar k t +1 . Notar también que el vector
de estado ahora es (k t , εt ). La esperanza es (asumiendo que el shock es una variable aleatoria
continua):
Z
E{V (G(k t , c t , εt ), εt +1 )} = V (G(k t , c t , εt ), εt +1 ) f (εt +1 |εt )d εt +1 .
y
k t +1 = g (k t , εt ) ≡ G(k t , h(k t , εt ), εt ).
21
Por otra parte, también es posible obtener la versión estocástica de la ecuación de Euler. En
este caso, la condición de primer orden establece:
u c (k t , c t ) + β Et {Vk (G(k t , c t , εt ), εt +1 )G c (k t , c t , εt )} = 0.
Luego:
u c (k t , c t ) + β Et {Vk (G(k t , c t , εt ), εt +1 )} G c (k t , c t , εt ) = 0.
c t = h(k t , εt ).
donde la expresión que se muestra entre corchetes se anula por la condición de primer orden.
Luego
Supongamos que se logra elegir las variables de control y de estado de modo tal que la ecuación
de transición no dependa de k t : k t +1 = G(c t , εt ). Entonces G k = 0 y la fórmula de BS se convierte
en
Vk (k t , εt ) = u k (k t , h(k t , εt ))
= u k (k t , c t )
Vk (k t +1 , εt +1 ) = u k (k t +1 , c t +1 ).
22
De las condición de primer orden:
u c (k t , c t ) + β Et {Vk (k t +1 , εt +1 )}G c (k t , c t , εt ) = 0.
u c (k t , c t ) + β Et {u k (k t +1 , c t +1 )}G c (k t , c t , εt ) = 0
23