Está en la página 1de 34

UNIVERSIDAD DE CONCEPCI

ON
FACULTAD DE CIENCIAS ECON

OMICAS Y ADMINISTRATIVAS
MAG

ISTER EN ECONOM

IA DE RECURSOS NATURALES Y DEL MEDIO


AMBIENTE
MODELOS DE ACUMULACI

ON ESTOC

ASTICA CON
ESFUERZO END

OGENO: GENERALIZACI

ON DE
ALGUNOS RESULTADOS CL

ASICOS, PARA UNA


FAMILIA DE MODELOS CON RESTRICCIONES DE
NO NEGATIVIDAD
Tesis para optar al grado de
Magster en Economa de Recursos
Naturales y del Medio Ambiente
Mario Vera Delgado
Eugenio Bobenrieth Hochfarber
Profesor Gua
Concepcion, Abril de 2007

Indice
1. Introduccion 4
2. El Modelo 5
3. El Algoritmo de Programacion Dinamica 6
4. Relacion entre Poltica competitiva y Poltica optimal 13
5. Propiedades de x
t
(z), c
t
(z),
t
(z) y p
t
(z) 19
6. Cotas Determinsticas 22
7. Apendice 27
8. Anexo 30
8.1. Algunas deniciones y teoremas sobre subgradiente . . . . . . . . . 30
8.2. Algunos resultados de analisis . . . . . . . . . . . . . . . . . . . . . 30
9. Bibliografa 33
2
MODELOS DE ACUMULACI

ON ESTOC

ASTICA CON ESFUERZO


END

OGENO: GENERALIZACI

ON DE ALGUNOS RESULTADOS
CL

ASICOS, PARA UNA FAMILIA DE MODELOS CON


RESTRICCIONES DE NO NEGATIVIDAD
Mario Vera Delgado
RESUMEN
En esta Tesis se estudia un modelo de acumulacion estocastica con restricciones
de no-negatividad en la acumulaci on de stocks, para el que se analizan algunas
propiedades cualitativas de las soluciones optimas. La contribucion de esta Tesis
es ofrecer con detalle las demostraciones de generalizaciones de un n umero de resul-
tados clasicos, desarrollado para horizonte nito por Schechtman [15], Schechtman
y Escudero [16], y Paz [11], generalizando en esta Tesis para un modelo que incluye
oferta elastica del producto.
Palabras Claves: Ahorro, oferta elastica, restricciones de liquidez, horizonte
nito.
3
1. Introduccion
En esta Tesis se estudia un modelo de acumulaci on estocastica con
restricciones de no-negatividad en la acumulaci on de stocks, para el que se
analizan algunas propiedades cualitativas de las soluciones optimas. El problema
se plantea en terminos de maximizar la esperanza de la utilidad acumulada en
T < + periodos, en el que la cantidad acumulada o ahorrada es no negativa y
se puede apreciar (o depreciar), y la utilidad marginal puede ser no acotada. La
oferta es sensible al precio, y los shocks se suponen independiente e identicamente
distribuidos
La clase de modelos que se discuten en este trabajo estan en la tradicion
de Gustafson [8]. Algunas de las contribuciones en esta literatura son Samuelson
[14], Gardner [7], Wright y Williams [21] y [22], Scheinkman y Schechtman [17],
Williams y Wright [20], Bobenrieth, Bobenrieth y Wright [3] y [4]. Tambien
esta el Modelo de la Teora de Ahorro con restricciones de liquidez, este problema
esta bien estudiado en los trabajos de Schechtman y Escudero [16], Deaton [5],
Yaari [19], Schechtman [15], Paz [11]. Wright y Williams [21] y [22], Scheinkman y
Schechtman [17], Bobenrieth, Bobenrieth y Wright [3] y [4] ofrecen una cantidad
de resultados relacionados con el modelo de almacenamiento de commodities,
sujeto a restricciones de no negatividad, con particular orientaci on a los problemas
de horizonte innito.
La contribucion de esta Tesis es ofrecer con detalle las demostraciones de
generalizaciones de un n umero de resultados clasicos, desarrollado para horizonte
nito por Schechtman [15], Schechtman y Escudero [16], y Paz [11], generalizando
en esta Tesis para un modelo que incluye oferta elastica del producto. Aunque
muchos de estos resultados son conocidos para el modelo de horizonte innito
(por ejemplo, ver Scheinkman y Schechtman [17]), sin embargo no han sido es-
critos con este grado de generalidad para horizonte nito, en mi conocimiento.
Las propiedades que aqu se establecen son de interes para la construccion de
demostraciones en el trabajo teorico en este tipo de modelos.
4
2. El Modelo
El Modelo supone tiempo discreto. En el periodo t el almacenamiento (o
ahorro) x
(t)
0 es una inversi on con horizonte de planicacion de un solo periodo
de tiempo.
El Costo de almacenar esta dado por una funcion : R
+
R
+
con
(0) = 0, y

(x) 0,

(x) 0 para todo x 0.


La produccion esta sujeta a un shock, exogeno, multiplicativo, i.i.d.
w 0, con esperanza nita, y con soporte (w) (posiblemente no acotado). El
shock tiene una distribucion discreta-continua, mas precisamente, la distribucion
de w es de la forma L
d
+ (1 )L
c
, donde [0, 1], L
d
es una distribucion
discreta, y L
c
es una distribucion absolutamente continua, con derivada continua,
m, cuando se restringe a su soporte.
Existe una demora de un periodo de tiempo entre la decision de es-
fuerzo de produccion y la realizacion del producto: Dada la decision de esfuerzo

(t)
para el periodo t, la realizacion del producto (o ingreso) para el periodo t + 1
es
(t)

(t+1)
, donde
(t+1)
representa la realizacion del shock en el periodo t +1. El
costo del esfuerzo esta dado por la funcion g : R
+
R
+
, con g(0) = 0, g

(0) = 0,
g

() > 0 y g

() > 0, para todo > 0. Dado el almacenamiento x


(t)
0 y el
esfuerzo
(t)
0, la cantidad total de stocks disponibles en el proximo periodo es
z
(t+1)
Rx
(t)
+
(t+1)

(t)
, donde R > 0 es un factor de depreciacion o apreciacion
que se asume conocido con certidumbre. El factor de descuento es , 0 < < 1.
Se asume R 1.
La funcion de utilidad del consumidor representativo, U : R
+
R
es continua, continuamente derivable, estrictamente creciente y estrictamente
concava. Se asumira que U tiene una cota superior nita, lm
c
U(c) = B < +.
U

no necesita ser acotada. El consumo es el argumento de la funcion de utilidad.


5
3. El Algoritmo de Programacion Dinamica
Un consumidor se enfrenta a la siguiente situacion: tiene un problema de
horizonte de T < + periodos, y en cada periodo debe decidir cuanto almacenar
(o ahorrar) y cuanto esfuerzo destinar a produccion con objeto de maximizar la
esperanza total de la utilidad menos los costos de almacenamiento y esfuerzo.
Formalmente el problema es
max E

t=0

t
[U(z
(t)
x
(t)
) (x
(t)
) g(
(t)
)]

sujeto a las restricciones


z
(t+1)
= Rx
(t)
+
(t+1)

(t)
, 0 t < T,
0 x
(t)
z
(t)
,
(t)
0, 0 t < T,
x
(T)
=
(T)
= 0,
z
(0)
0 es la disponibilidad total inicial, donde E[.] representa la esperanza con
respecto a la variable aleatoria .
Si V
t
(z) es la utilidad maxima esperada que podemos obtener cuan-
do z es la disponibilidad total y tenemos t periodos por delante, entonces la
formulaci on de programacion dinamica usual nos conduce a las ecuaciones
funcionales:
V
t
(z) = max
0xz
0
{U(z x) (x) g() +EV
t1
(Rx +)}, t > 1 (1)
V
1
(z) = max
0xz
0
{U(z x) (x) g()}.
En las siguientes proposiciones, se caracteriza la funcion de valor V
t
y sus
soluciones.
Proposicion 3.1
U(0)

1
t
1

V
t
(z) B

1
t
1

, t {1, ..., T + 1}, z 0.


Demostracion La demostracion se hara por induccion.
Para t = 1 se tiene
V
1
(z) = max
0xz
0
{U(z x) (x) g()}
= U(z).
6
Como U es creciente y acotada por B, se tiene que U(0) U(z) B. Por
lo tanto:
U(0) V
1
(z) B.
(Hipotesis de Induccion) Se asume que
U(0)

1
t1
1

V
t1
(z) B

1
t1
1

.
(Tesis de Induccion) Ahora, se debe probar que
U(0)

1
t
1

V
t
(z) B

1
t
1

.
Lo que se demuestra en dos etapas:
V
t
(z) U(0)

1
t
1

.
Como el par x = 0 y = 0 es factible se sabe que:
V
t
(z) U(0) +EV
t1
(0)
U(0) +U(0)

1
t1
1

En la segunda desigualdad se ha utilizado la hipotesis de induccion.


Reordenando, se tiene
V
t
(z) U(0)

1
t
1

.
V
t
(z) B

1
t
1

.
Por denicion de V
t
(z), del hecho que 0, g 0 y por Hipotesis de
Induccion se tiene que:
V
t
(z) B +B

1
t1
1

= B

1
t
1

Proposicion 3.2 Existe



R
+
,

independiente de z, tal que:
V
t
(z) = max
0xz
0

{U(z x) (x) g() +EV


t1
(Rx +)}.
7
Demostracion Como lm
+
g() = +, entonces existe

R
+
tal que
g(

) > [B U(0)]

1
t
1

.
Se considera un par factible (x, ), con

. De los hechos que 0, U(z x)
B y V
t1
(Rx +) B

1
t
1

, se obtiene:
U(z x) (x) g() +EV
t1
(Rx +) B

1
t
1

g() < U(0)

1
t
1

.
Lo que de acuerdo a la proposicion 3.1, demuestra esta proposicion.

Proposicion 3.3 V
t
es continua t {1, ..., T + 1}.
Demostracion La demostracion se hara por induccion.
Para t = 1 se tiene
V
1
(z) = max
0xz
0

{U(z x) (x) g()}


= U(z).
Luego como U es continua V
1
es continua.
(Hipotesis de Induccion) Se asume que V
t1
es continua.
(Tesis de Induccion) Se debe demostrar que V
t
es continua. EV
t1
(Rx +)
es continua por resultados estandar. Se tiene que
V
t
(z) = max
0xz
0

{U(z x) (x) g() +EV


t1
(Rx +)}.
Por el Teorema del Maximo (Ver Anexo, seccion 8.2) se tiene que V
t
(z) es
continua.

Observaci on 3.1 Dado que V


t1
es continua y que para cada z jo
(x, ) U(z x) (x) g() +EV
t1
(Rx +)
es estrictamente concava, entonces
(x
t
(z),
t
(z)) arg max
0xz
0

{U(x x) (x) g() +EV


t1
(Rx +)},
son funciones (univaluadas) y continuas (Ver Teorema del Maximo, Anexo, Sec-
cion 8.2).
8
Denimos c
t
(z) como c
t
(z) z x
t
(z), para cada z 0 y t {1, ..., T +1}.
Proposicion 3.4 V
t
es estrictamente creciente, t {1, ..., T + 1}.
Demostracion Por las proposiciones 3.2 y 3.3 el maximo se alcanza, ya que
es el maximo de una funcion continua en un compacto. Sea a < b, y (x
a
,
a
)
arg max V
t
(a). Entonces:
V
t
(a) = U(a x
a
) (x
a
) g(
a
) +EV
t1
(Rx
a
+
a
)
y
V
t
(b) U(b x
a
) (x
a
) g(
a
) +EV
t1
(Rx
a
+
a
) > V
t
(a).
Porque U es estrictamente creciente.

Proposicion 3.5 Sea g una funcion real y de variable real concava. Entonces
h(x, ) Eg(Rx +)
es concava, donde E representa la esperanza con respecto a la variable aleatoria
.
Demostracion Por denicion de esperanza, se tiene:
h(x, ) Eg(Rx +) =

R
g(Rx +)(d)
donde representa la medida de probabilidad inducida de la variable aleatoria .
Sean (x
1
,
1
) = (x
2
,
2
) y [0, 1]. Por demostrar que
h((x
1
,
1
) + (1 )(x
2
,
2
)) h(x
1
,
1
) + (1 )h(x
2
,
2
)
h((x
1
,
1
) + [1 ](x
2
,
2
)) =

R
g(R[x
1
+ (1 )x
2
] +[
1
+ (1 )
2
]) (d)
=

R
g([Rx
1
+
1
] + (1 )[Rx
2
+
2
]) (d)

g(Rx
1
+
1
) + (1 ) g(Rx
2
+
2
)

(d)
=

R
g(Rx
1
+
1
) (d) + (1 )

R
g(Rx
2
+
2
) (d)
= Eg(Rx
1
+
1
) + (1 )Eg(Rx
2
+
2
)
= h(x
1
,
1
) + (1 )h(x
2
,
2
)
La desigualdad se debe al hecho que g es concava.

9
Proposicion 3.6 V
t
es concava, t {1, ..., T + 1}.
Demostracion La demostracion se hara por induccion.
Para t = 1 tenemos
V
1
(z) = max
0xz
0
{U(z x) (x) g()}
= U(z)
luego, V
1
es concava pues U es concava.
(Hipotesis de Induccion) Se asume que V
t1
es concava.
(Tesis de Induccion) Se debe probar que V
t
es concava. Se tiene que,
V
t
(z) = max
0xz
0
{U(z x) (x) g() +EV
t1
(Rx +)} (2)
Sea z
1
, z
2
[0, +[ y sean (x
t
(z
1
),
t
(z
1
)) y (x
t
(z
2
),
t
(z
2
)) las correspondi-
entes soluciones de (2). Sea z una combinacion convexa de z
1
, z
2
, esto es,
z = z
1
+ (1 )z
2
, con [0, 1]
entonces
V
t
( z) = max
0x z
0
{U( z x) (x) g() +EV
t1
(Rx +)}. (3)
Como (x
t
(z
1
) + (1 )x
t
(z
2
) ,
t
(z
1
) + (1 )
t
(z
2
)) es un par factible de
(3), se sigue que
V
t
( z) U(z
1
x
t
(z
1
) + (1 )z
2
(1 )x
t
(z
2
)) (x
t
(z
1
) + (1 )x
t
(z
2
))
g(
t
(z
1
) + (1 )
t
(z
2
)) +EV
t1
(Rx
t
(z
1
) + (1 )Rx
t
(z
2
)
+
t
(z
1
) + (1 )
t
(z
2
))
U(z
1
x
t
(z
1
)) + (1 )U(z
2
x
t
(z
2
)) (x
t
(z
1
)) (1 )(x
t
(z
2
))
g(
t
(z
1
)) (1 )g(
t
(z
2
))
+EV
t1
(Rx
t
(z
1
) +
t
(z
1
)) + (1 )EV
t1
(Rx
t
(z
2
) +
t
(z
2
)) ,
= (U(z
1
x
t
(z
1
)) (x
t
(z
1
)) g(
t
(z
1
)) +EV
t1
(Rx
t
(z
1
) +
t
(z
1
)))
+(1 )(U(z
2
x
t
(z
2
)) (x
t
(z
2
)) g(
t
(z
2
)) +EV
t1
(Rx
t
(z
2
) +
t
(z
2
)))
= max
0xz
1
0
{U(z
1
x) (x) g() +EV
t1
(Rx +)}
+(1 ) max
0xz
2
0
{U(z
2
x) (x) g() +EV
t1
(Rx +)}
= V
t
(z
1
) + (1 )V
t
(z
2
).
10
La segunda desigualdad se debe a que U es concava, EV
t1
es concava
(Proposicion 3.5), g es convexa y es convexa.

Proposicion 3.7 t {1, ..., T + 1} y z > 0 se cumple que: c


t
(z) > 0, V
t
es
continuamente diferenciable en ]0, +[, y V

t
(z) = U

(c
t
(z)).
Demostracion Se hara por induccion.
Para t = 1.
c
1
(z) = z, V
1
(z) = U(z).
(Hipotesis de Induccion) Se asume que para t 1 y z > 0 se cumple que:
c
t1
(z) > 0, V
t1
es continuamente diferenciable en ]0, +[ y V

t1
(z) =
U

(c
t1
(z)).
(Tesis de Induccion) Se debe probar que c
t
(z) > 0, V
t
es continuamente
diferenciable en ]0, +[ y V

t
(z) = U

(c
t
(z)).
Por denicion,
V
t
(z) = max
0xz
0
{U(z x) (x) g() +EV
t1
(Rx +)}.
Si por el contrario se asume que c
t
(z) = 0, para z > 0, es decir, x
t
(z) = z,
entonces jando =
t
(z) y derivando la funcion maximizando con respecto
a x, se obtiene
U

(0)

(z) +REV

t1
(Rz +
t
(z)) 0 (4)
Notar que en (4) se utilizaron los hechos que V
t1
es continuamente
diferenciable, creciente, concava y acotada en ]0, +[ (Ver Apendice, p. 27).
Se debe notar que c
t1
(Rz +
t
(z)) > 0, debido a que Rz +
t
(z) > 0,
0 < U

(c
t1
(Rz +
t
(z))) < U

(0), ya que U

es estrictamente decreciente y
positiva. Entonces como

(z) 0, V
t1
(Rz+
t
(z)) = U

(c
t1
(Rz+
t
(z))
y R 1, (4) es una contradiccion. Esto prueba que c
t
(z) > 0, z > 0.
A continuaci on, se probara que V
t
es continuamente diferenciable en ]0, +[
y que su derivada V

t
(z) = U

(c
t
(z)).
Sea z > 0 cualquiera pero jo. Como V
t
es concava, tiene subgradiente en z.
Sea p un subgradiente
V
t
(z

) V
t
(z) p(z

z), z

0
11
por denicion de subgradiente. Ahora se toma cualquier c

, x

0 y sea
z

= c

+x

. Entonces
V
t
(z

) U(c

) (x

) g(

) +EV
t1
(Rx

),
luego
U(c

) (x

) g(

) +EV
t1
(Rx

) pz

V
t
(z

) pz

V
t
(z) pz,
lo que es equivalente a:
U(c

) (x

) g(

) +EV
t1
(Rx

) p(c

+x

)
U(c
t
(z)) (x
t
(z)) g(
t
(z)) +EV
t1
(Rx
t
(z) +
t
(z)) p(c
t
(z) +x
t
(z))
es decir
U(c

) pc

(x

) g(

) +EV
t1
(Rx

) px

U(c
t
(z)) (5)
pc
t
(z) (x
t
(z)) g(
t
(z)) +EV
t1
(Rx
t
(z) +
t
(z)) px
t
(z)
Para x

= x
t
(z) y

=
t
(z) en (5) nos queda
U(c

) pc

U(c
t
(z)) pc
t
(z), para todo c

0
o bien, U(c) pc tiene un maximo en c
t
(z). Como c
t
(z) > 0 entonces el
maximo se alcanza en un punto interior, de donde
U

(c
t
(z)) = p (6)
mostrando as la unicidad de p. As, V
t
es derivable en z > 0, y su derivada
es V

t
(z) = U

(c
t
(z)).
V

t
(z) = U

(c
t
(z)).
Ahora como U

y c
t
son funciones continuas, resulta V

t
es continua en
]0, +[.

12
Observaci on 3.2 Para z = 0, se tiene:
En primer lugar, como z
V
t
(z) V
t
(0)
z 0
es monotona (recordar que V
t
es
concava) entonces:
V

t
(0) lm
z0
V
t
(z) V
t
(0)
z 0
existe (pudiendo ser +.)
Por el Teorema del Valor Medio aplicado a V
t
en [0, 1/n], para cada n N,
existe b
n
]0, 1/n[ tal que:
V
t
(1/n) V
t
(0)
1/n 0
= V

t
(b
n
).
Entonces, notando que z V

t
(z) es monotona, se obtiene:
V

t
(0) = lm
n+
V
t
(1/n) V
t
(0)
1/n 0
= lm
n+
V

t
(b
n
) = lm
z0
V

t
(z).
Es decir se ha probado que V

t
es continua en z = 0. Esto junto con la
proposicion 3.7 nos dice que V
t
C
1
([0, [). En otras palabras, las funciones
p
t
(z) V

t
(z) (precios) son continuas en [0, [.
4. Relacion entre Poltica competitiva y Poltica optimal
Denicion 4.1 Una poltica de periodo T es una sucesion de funciones medi-
bles Borel {(x
t
(z), c
t
(z),
t
(z))}
t=1,..., T+1
, tal que
x
t
(z) +c
t
(z) = z, z 0
x
t
(z) 0, c
t
(z) 0,
t
(z) 0, t = 1, . . . , T + 1, z 0.
Denicion 4.2 Una poltica de periodo T, {(x
t
(z), c
t
(z),
t
(z))}
t=1,..., T+1
es op-
timal si (x
t
(z), c
t
(z),
t
(z)) es solucion de
V
t
(z) = max
0xz
0
{U(zx)(x)g()+EV
t1
(Rx+)} t {1, . . . , T+1} , z 0.
Denicion 4.3 Una poltica de periodo T {(x
t
(z), c
t
(z)),
t
(z)}
t=1,..., T+1
es
competitiva si existe una sucesion de funciones no negativas {p
t
(z)}
t=1,..., T+1
tal que:
13
c
t
(z) maximiza a U(c) p
t
(z)c sujeto a c 0 (7)
(x
t
(z),
t
(z)) maximiza a (8)
(x) g() +E[p
t1
(Rx
t
(z) +
t
(z))(Rx +)] p
t
(z)x
sujeto a 0 x z, 0
p
0
(z) 0. (9)
Proposicion 4.1 Si una poltica de periodo T {(x
t
(z), c
t
(z),
t
(z))}
t=1,..., T+1
es
competitiva entonces es optimal y ademas z maximiza
V
t
(y) p
t
(z)y sujeto a y 0.
Demostracion La demostracion se hara por induccion.
Para t = 1 se tiene,
V
1
(z) = max
0xz
0
{U(c) (x) g()}
Se considera un factible (x, c, ) tal que c = z x, x 0, c 0, 0.
Como c
1
(z) satisface la condicion (7) se tiene que
U(c) p
1
(z)c U(c
1
(z)) p
1
(z)c
1
(z) c 0.
Luego, como c
1
(z) c = (z x
1
(z)) (z x) = x x
1
(z), se tiene
U(c
1
(z)) U(c) p
1
(z)(c
1
(z) c) (10)
= p
1
(z)(x x
1
(z)).
De (8), resulta
(x
1
(z)) g(
1
(z)) +Ep
0
(Rx
1
(y) +
1
(z))(Rx +
1
(z)) p
1
(z)x
1
(z)
(x) g() +Ep
0
(Rx
1
(y) +
1
(z))(Rx +
1
(z)) p
1
(z)x
y como p
0
(z) = 0 nos queda
p
1
(z)(x x
1
(z)) (x
1
(z)) (x) +g(
1
(z)) g(). (11)
Luego, de (10) y (11), se sigue que
U(c
1
(z))U(c) p
1
(z)(xx
1
(z)) (x
1
(z))(x)+g(
1
(z))g() (12)
14
Por lo tanto,
U(c
1
(z)) g(
1
(z)) (x
1
(z)) U(c) g() (x).
As, (x
1
(z), c
1
(z),
1
(z)) es optimal.
Para probar que z maximiza
V
1
(y) p
1
(z)y sujeto a y 0,
consideremos la solucion optimal (x
1
(y), c
1
(y),
1
(y)) de
V
1
(y) = max
0xy
0
{U(c) (x) g()}
Ahora, al reemplazar c por c
1
(y), x por x
1
(y) y por
1
(y) en las ecuaciones
(10) y (11) se obtiene
U(c
1
(z)) U(c
1
(y)) p
1
(z)(c
1
(z) c
1
(y)), (13)
p
1
(z)(x
1
(y) x
1
(z)) (x
1
(z)) (x
1
(y)) +g(
1
(z)) g(
1
(y)). (14)
Al sumar las ecuaciones (13) y (14), se tiene
U(c
1
(z)) g(
1
(z)) (x
1
(z)) p
1
(z)z
U(c
1
(y)) g(
1
(y)) (x
1
(y)) p
1
(z)y y 0.
Por lo tanto,
V
1
(z) p
1
(z)z V
1
(y) p
1
(z)y y 0.
(Hipotesis de Induccion) Se asume que la armacion es valida para T = t 1
y que la variable z maximiza
V
t1
(y) p
t1
(z)y sujeto a y 0.
(Tesis de Induccion) Se debe probar que una poltica competitiva es optimal
para el periodo t y que maximiza
V
t
(y) p
t
(z)y sujeto a y 0.
En efecto, para:
V
t
(z) = max
0xz
0
{U(c) (x) g() +EV
t1
(Rx +)}
15
Se considera un factible (x, c, ), tal que c = z x c 0, x 0 y 0.
Como c
t
(z) satisface la condicion (7) se tiene que
U(c) p
t
(z)c U(c
t
(z)) p
t
(z)c
t
(z) c 0.
Luego, como c
t
(z) c = (z x
t
(z)) (z x) = x x
t
(z) se tiene
U(c
t
(z)) U(c) p
t
(z)(c
t
(z) c) (15)
= p
t
(z)(x x
t
(z)).
De (8) resulta
(x
t
(z)) g(
t
(z)) +E[p
t1
(Rx
t
(z) +
t
(z))(Rx
t
(z) +
t
(z))] p
t
(z)x
t
(z)
(x) g() +E[p
t1
(Rx
t
(z) +
t
(z))(Rx +)] p
t
(z)x
Luego,
p
t
(z)[x x
t
(z)] (x) +(x
t
(z)) g() +g(
t
(z)) (16)
E[p
t1
(Rx
t
(z) +
t
(z))(Rx
t
(z) +
t
(z))]
+E[p
t1
(Rx
t
(z) +
t
(z))(Rx +)]
De la Hipotesis de Induccion se sabe que z maximiza V
t1
(y)
p
t1
(z)y sujeto a y 0. Luego,
V
t1
(Rx
t
(z) +
t
(z)) p
t1
(Rx
t
(z) +
t
(z))(Rx
t
(z) +
t
(z))
V
t1
(Rx +) p
t1
(Rx
t
(z) +
t
(z))(Rx +)
Ahora al tomar esperanza, reordenar y multiplicar por resulta
E[p
t1
(Rx
t
(z) +
t
(z))(Rx +)] (17)
E[p
t1
(Rx
t
(z) +
t
(z))(Rx
t
(z) +
t
(z))]
EV
t1
(Rx +) EV
t1
(Rx
t
(z) +
t
(z))
De las desigualdades (15), (16) y (17) se obtiene
U(c
t
(z)) U(c) (x) +(x
t
(z)) g() +g(
t
(z))
+EV
t1
(Rx +) EV
t1
(Rx
t
(z) +
t
(z))
es decir,
U(c) (x) g() +EV
t1
(Rx +)
U(c
t
(z)) (x
t
(z)) g(
t
(z)) +EV
t1
(Rx
t
(z) +
t
(z))
16
Por lo tanto, (x
t
(z), c
t
(z),
t
(z)) es optimal.
Para probar que z maximiza V
t
(y) p
t
(z)y sujeto a y 0, se considera la
solucion optimal (x
t
(y), c
t
(y),
t
(y)) de
V
t
(y) = max
0xy
0
{U(c) (x) g() +EV
t1
(Rx +)}
De (15) reemplazando c por c
t
(y) se tiene
U(c
t
(z)) U(c
t
(y)) p
t
(z)(c
t
(z) c
t
(y)). (18)
Ahora, de (16) reemplanzando x por x
t
(y) y por
t
(y)
p
t
(z)[x
t
(y) x
t
(z)] (x
t
(y)) +(x
t
(z)) (19)
g(
t
(y)) +g(
t
(z))
E[p
t1
(Rx
t
(z) +
t
(z))(Rx
t
(z) +
t
(z))]
+E[p
t1
(Rx
t
(z) +
t
(z))(Rx
t
(y) +
t
(y))]
En (17) se reemplaza x por x
t
(y) y por
t
(y)
E[p
t1
(Rx
t
(z) +
t
(z))(Rx
t
(y) +
t
(y))] (20)
E[p
t1
(Rx
t
(z) +
t
(z))(Rx
t
(z) +
t
(z))]
EV
t1
(Rx
t
(y) +
t
(y)) EV
t1
(Rx
t
(z) +
t
(z)).
De (19) y (20) se obtiene
p
t
(z)[x
t
(y) x
t
(z)] (x
t
(y)) +(x
t
(z)) (21)
g(
t
(y)) +g(
t
(z))
+EV
t1
(Rx
t
(y) +
t
(y))
EV
t1
(Rx
t
(z) +
t
(z)).
Sumando (18) y (21):
U(c
t
(z)) U(c
t
(y)) +p
t
(z)[x
t
(y) x
t
(z)] (x
t
(y)) +(x
t
(z))
g(
t
(y)) +g(
t
(z))
+EV
t1
(Rx
t
(y) +
t
(y))
EV
t1
(Rx
t
(z) +
t
(z))
+p
t
(z)(c
t
(z) c
t
(y)).
Reordenando terminos:
U(c
t
(z)) (x
t
(z)) g(
t
(z)) +EV
t1
(Rx
t
(z) +
t
(z)) p
t
(z)z
U(c
t
(y)) (x
t
(y)) g(
t
(y))EV
t1
(Rx
t
(y) +
t
(y)) p
t
(z)y
Por lo tanto,
V
t
(z) p
t
(z)z V
t
(y) p
t
(z)y, z 0
17

Denicion 4.4 Un problema se dice admisible si el nivel de disponibilidad total


z es siempre positivo para la poltica optimal, o bien las funciones V
t
son diferen-
ciables en z = 0.
Proposicion 4.2 Si un problema es admisible la poltica optimal
{(x
t
(z), c
t
(z),
t
(z))}
t=1,..., T+1
es competitiva. Ademas (x
t
(z), c
t
(z),
t
(z)) satis-
face las siguientes ecuaciones:
p
t
(z) U

(c
t
(z)) con igualdad si c
t
(z) > 0, (22)
p
t
(z) REp
t1
(Rx
t
(z) +
t
(z))

(x
t
(z)) con igualdad si x
t
(z) > 0, (23)
y
g

(
t
(z)) E[wp
t1
(Rx
t
(z) +
t
(z))] con igualdad si
t
(z) > 0, (24)
Demostracion Al reemplezar p por p
t
(z) en la desigualdad (5) se obtiene:
U(c

) p
t
(z)c

(x

) g(

) +EV
t1
(Rx

) p
t
(z)x

(25)
U(c
t
(z)) p
t
(z)c
t
(z) (x
t
(z)) g(
t
(z))
+EV
t1
(Rx
t
(y) +
t
(z)) p
t
(z)x
t
(z), c

, x

0
Reemplazando x

por x
t
(z) en (25):
U(c

) p
t
(z)c

U(c
t
(z)) p
t
(z)c
t
(z), c

0.
As, la condicion competitiva (7) se cumple.
Por otro lado, si se toma c

= c
t
(z) en (25) resulta
(x

) g(

) +EV
t1
(Rx

) p
t
(z)x

(26)
(x
t
(z)) g(
t
(z)) +EV
t1
(Rx
t
(y) +
t
(z)) p
t
(z)x
t
(z)
De aqu se osberva que
(x
t
(z),
t
(z)) maximiza (x)g()+EV
t1
(Rx+)p
t
(z)x sujeto a 0 x z, 0.
Por lo tanto,
p
t
(z) REp
t1
(Rx
t
(z) +
t
(z))

(x
t
(z)) con igualdad si x
t
(z) > 0, (27)
18
as se tiene que la ecuacion (23) es valida.
Y ademas,
g

(
t
(z)) E[p
t1
(Rx
t
(z) +
t
(z))] con igualdad si
t
(z) > 0, (28)
esto implica que la (24) tambien es valida.
En la ecuacion (27) al multiplicar por x x
t
(z) se tiene que:
p
t
(z)x p
t
(z)x
t
(z) +

(x
t
(z))(x x
t
(z)) E[p
t1
(Rx
t
(z) +
t
(z))R(x x
t
(z))]
Considerando que (x) (x
t
(z))

(x
t
(z))(x x
t
(z)), ya que es una funcion
convexa.
p
t
(z)x p
t
(z)x
t
(z) +(x) (x
t
(z)) E[p
t1
(Rx
t
(z) +
t
(z))R(x x
t
(z))]
Ordenando terminos se llega a que,
E[p
t1
(Rx
t
(z) +
t
(z))Rx
t
(z)] (x
t
(z)) p
t
(z)x
t
(z) (29)
E[p
t1
(Rx
t
(z) +
t
(z))Rx] (x) p
t
(z)x
Ahora, de la ecuacion (28) al multiplicar por
t
(z) se tiene que:
g

(
t
(z))(
t
(z)) E[p
t1
(Rx
t
(z) +
t
(z))(
t
(z))]
Como g() g(
t
(z)) g

(
t
(z))(
t
(z)) ya que g es convexa se llega a que
g() g(
t
(z)) E[p
t1
(Rx
t
(z) +
t
(z))(
t
(z))]
Reordenando terminos resulta
E[p
t1
(Rx
t
(z) +
t
(z))
t
(z))] g(
t
(z)) (30)
E[p
t1
(Rx
t
(z) +
t
(z))] g()
Al sumar (29) y (30) se obtiene
E[p
t1
(Rx
t
(z) +
t
(z))(Rx
t
(z) +
t
(z))] (31)
(x
t
(z)) g(
t
(z)) p
t
(z)x
t
(z)
E[p
t1
(Rx
t
(z) +
t
(z))(Rx +)] (x) g() p
t
(z)x
Esto es, la condicion competitiva (8) es verdadera.

5. Propiedades de x
t
(z), c
t
(z),
t
(z) y p
t
(z)
De ahora en adelante se asumira que todos los problemas son admisibles.
Proposicion 5.1 p
t
es no creciente y estrictamente positiva.
19
Demostracion Como los precios p
t
(z) son derivadas de funciones concavas se
tiene que estas son funciones no crecientes. Ademas, los precios son funciones posi-
tivas, pues por denicion p
t
(z) = V

t
(z) y V
t
(z) es estrictamente creciente (Proposi-
cion 3.4).

Proposicion 5.2 c
t
es una funcion no decreciente en z.
Demostracion p
t
(z) = U

(c
t
(z)) para z > 0. Dado que se sabe que p
t
es decre-
ciente y U

es estrictamente decreciente, entonces, c


t
es no decreciente.
Proposicion 5.3 x
t
es una funcion no decreciente en z.
Demostracion En la demostracion se utiliza una idea, de la demostracion del
Teorema 2(b) de [17] (pagina 432) y en [2] (pp. 3-4).
Sea z > z 0. Se asume por el contrario que 0 x
t
( z) < x
t
(z).
De la condicion de optimalidad (23) se tiene que
RE[p
t1
(Rx
t
( z) +
t
( z))] p
t
( z) +

(x
t
( z)) <
p
t
(z) +

(x
t
(z)) = RE[p
t1
(Rx
t
(z) +
t
(z))]
La primera desigualdad utiliza (23). La segunda desigualdad se debe a que p
t
( z) =
U

(c
t
( z)) = U

( z x
t
( z)) < U

(z x
t
(z)) p
t
(z) y a que es convexa. La
igualdad se debe a la condicion de optimalidad (23) con igualdad ya que x
t
(z) > 0.
Reordenando se tiene
RE[p
t1
(Rx
t
(z) +
t
(z)) p
t1
(Rx
t
( z) +
t
( z))] > 0 (32)
De (32) y del hecho que p
t1
es decreciente, se tiene que
t
( z) >
t
(z) 0. Ahora,
de la condicion de optimalidad (24) se tiene que
E[p
t1
(Rx
t
( z) +
t
( z))] = g

(
t
( z)) > g

(
t
(z)) E[p
t1
(Rx
t
(z) +
t
(z))]
Luego, se tiene
E

[p
t1
(Rx
t
(z) +
t
(z)) p
t1
(Rx
t
( z) +
t
( z))]

< 0. (33)
Sea
() p
t1
(Rx
t
(z) +
t
(z)) p
t1
(Rx
t
( z) +
t
( z)).
20
Si ( ) > 0, entonces
p
t1
(Rx
t
(z) +
t
(z)) > p
t1
(Rx
t
( z) +
t
( z))
Rx
t
(z) +
t
(z) < Rx
t
( z) +
t
( z)
R[x
t
(z) x
t
( z)] < [
t
( z)
t
(z)]
y por lo tanto, R[x
t
(z) x
t
( z)] < [
t
( z)
t
(z)], para todo > .
Si (` ) < 0, entonces
p
t1
(Rx
t
(z) + `
t
(z)) < p
t1
(Rx
t
( z) + `
t
( z))
Rx
t
(z) + `
t
(z) > Rx
t
( z) + `
t
( z)
R[x
t
(z) x
t
( z)] > ` [
t
( z)
t
(z)]
y por lo tanto R[x
t
(z) x
t
( z)] > [
t
( z)
t
(z)] para todo 0 ` .
Por consiguiente existe

sup{ : () < 0}.De (33) se tiene que en E[()] <


0, todos los valores negativos de () son ponderados por , 0

, y
todos los valores positivos de () son ponderados por

, lo que es una
contradicci on ya que por (32) E[()] > 0.

Proposicion 5.4
t
es una funcion no creciente en z.
Demostracion Sea z > z 0. Se asume por el contrario que 0
t
(z) <
t
( z).
De la condicion de optimalidad (24) se tiene que
E[p
t1
(Rx
t
(z) +
t
(z))] g

(
t
(z)) < g

(
t
( z)) = E[p
t1
(Rx
t
( z) +
t
( z))]
La primera desigualdad utiliza la condicion de optimalidad (24). Luego se utiliza el
hecho que g es estrictamente convexo. Y en la igualdad la condicion de Optimalidad
(24) con igualdad ya que
t
( z) > 0. As se tiene que
E

[p
t1
(Rx
t
(z) +
t
(z)) p
t1
(Rx
t
( z) +
t
( z))]

< 0 (34)
De (34) y del hecho que p
t1
es decreciente, se tiene que 0 x
t
( z) < x
t
(z). Ahora,
de la condicion de optimalidad (23) se tiene
p
t
(z) = RE[p
t1
(Rx
t
(z) +
t
(z)]

(x
t
(z)), ya que x
t
(z) > 0 (35)
y
p
t
( z) RE[p
t1
(Rx
t
( z) +
t
( z)]

(x
t
( z))]. (36)
21
Dado que z > z y p
t
(z) U

(c
t
(z)) = U

(z x
t
(z)) > U

( z x
t
( z)) = p
t
( z),
ademas como x
t
( z) < x
t
(z) lo que lleva a que

(x
t
(z))

(x
t
( z)). As se tiene
que
RE[p
t1
(Rx
t
(z) +
t
(z)]

(x
t
(z)) = p
t
(z) >
p
t
( z) RE[p
t1
(Rx
t
( z) +
t
( z)]

(x
t
( z))]
De donde se obtiene que
RE[p
t1
(Rx
t
(z) +
t
(z) p
t1
(Rx
t
( z) +
t
( z)] > (37)

(x
t
(z))

(x
t
( z)) 0
Sea
() p
t1
(Rx
t
(z) +
t
(z)) p
t1
(Rx
t
( z) +
t
( z)).
Si ( ) > 0, entonces
p
t1
(Rx
t
(z) +
t
(z)) > p
t1
(Rx
t
( z) +
t
( z))
Rx
t
(z) +
t
(z) < Rx
t
( z) +
t
( z)
R[x
t
(z) x
t
( z)] < [
t
( z)
t
(z)]
y por lo tanto, R[x
t
(z) x
t
( z)] < [
t
( z)
t
(z)], para todo > .
Si (` ) < 0, entonces
p
t1
(Rx
t
(z) + `
t
(z)) < p
t1
(Rx
t
( z) + `
t
( z))
Rx
t
(z) + `
t
(z) > Rx
t
( z) + `
t
( z)
R[x
t
(z) x
t
( z)] > ` [
t
( z)
t
(z)]
y por lo tanto R[x
t
(z) x
t
( z)] > [
t
( z)
t
(z)] para todo 0 ` .
Por consiguiente existe

sup{ : () < 0}. De (34) se tiene que en E[()] <


0, todos los valores negativos de () son ponderados por , 0

, y
todos los valores positivos de () son ponderados por

, lo que es una
contradicci on ya que por (37) E[()] > 0.

6. Cotas Determinsticas
Notacion Si v (constante) entonces los correspondientes precios y polticas
seran denotados por p
(v)
t
(z) y (x
(v)
t
(z), c
(v)
t
(z),
(v)
t
(z)).
Ahora se establece un teorema que permite comparar p
t
(z) y por consigu-
iente c
t
(z) con:
22
p
(a)
t
(z)(c
(a)
t
(z)), donde a nf ().
p
(A)
t
(z)(c
(A)
t
(z)), donde A sup (), suponiendo que A < +.
Las condiciones de optimalidad para v = a y A estan dadas por
p
(v)
t
(z) U

(c
(v)
t
(z)), (38)
p
(v)
t
(z) Rp
(v)
t1
(Rx
(v)
t
(z) +v
(v)
t
(z)) +

(x
(v)
t
(z)), (39)
g

(
(v)
t
(z)) E

[p
(v)
t1
(Rx
(v)
t
(z) +v
(v)
t
(z))]

, (40)
Proposicion 6.1 (i) p
t
(z) p
(a)
t
(z), y c
t
(z) c
(a)
t
(z), t {1, ..., T+1}, z
0.
(ii) p
t
(z) p
(A)
t
(z), y c
t
(z) c
(A)
t
(z), t {1, ..., T + 1}, z 0.
Demostracion (i) Para z > 0 la demostracion se hara por induccion.
Para t = 1, se tiene
p
1
(z) = p
(a)
1
(z) = U

(z).
(Hipotesis de Induccion) Se asume que p
t1
(z) p
(a)
t1
(z).
(Tesis de Induccion) Se debe probar que p
t
(z) p
(a)
t
(z). Se consideraran dos
casos que dependen del valor que asuma x
t
(z).
Caso 1 x
t
(z) = 0. Entonces, c
t
(z) = z y p
t
(z) = U

(c
t
(z)) = U

(z), como
c
(a)
t
(z) z y U

es una funcion estrictamente decreciente, resulta


p
(a)
t
(z) = U

(c
(a)
t
(z)) U

(z) = p
t
(z)
por lo tanto, p
t
(z) p
(a)
t
(z).
Caso 2 x
t
(z) > 0.
Por contradiccion se asume que p
t
(z) > p
(a)
t
(z). Por Proposicion 3.7, c
t
(z) >
0. Por las condiciones de optimalidad (22) y (38) se tiene
U

(c
(a)
t
(z)) = p
(a)
t
(z) < p
t
(z) = U

(c
t
(z)).
La primera igualdad se debe a que z > 0 y por lo tanto, c
a
t
(z) > 0. La segun-
da igualdad se debe a que z > 0 y por lo tanto, c
t
(z) > 0 (por Proposicion
23
3.7). As, U

(c
(a)
t
(z)) < U

(c
t
(z)), como U

es una funcion estrictamente de-


creciente, c
(a)
t
(z) > c
t
(z) y por consiguiente x
t
(z) > x
(a)
t
(z) 0. Ahora de
las condiciones de optimalidad (23) y (39) se obtiene
Rp
(a)
t1
(Rx
(a)
t
(z) +a
(a)
t
(z)) p
(a)
t
(z) +

(x
(a)
t
(z)) <
p
t
(z) +

(x
t
(z)) = REp
t1
(Rx
t
(z) +
t
(z))
por lo tanto
p
(a)
t1
(Rx
(a)
t
(z) +a
(a)
t
(z)) < Ep
t1
(Rx
t
(z) +
t
(z)) (41)
As
ap
(a)
t1
(Rx
(a)
t
(z) +a
(a)
t
(z)) < E[p
t1
(Rx
t
(z) +
t
(z))].
Debido a que a. Ahora, utilizando la hipotesis de induccion en el lado
derecho de (41) se llega a que
p
(a)
t1
(Rx
(a)
t
(z) +a
(a)
t
(z)) < Ep
t1
(Rx
t
(z) +
t
(z))
Ep
(a)
t1
(Rx
t
(z) +
t
(z))
p
(a)
t1
(Rx
t
(z)
(a)
+a
t
(z))
Por lo tanto,
p
(a)
t1
(Rx
(a)
t
(z) +a
(a)
t
(z)) < p
(a)
t1
(Rx
t
(z)
(a)
+a
t
(z))
Lo que implica que
t
(z) <
(a)
t
(z). Las condiciones de optimalidad (24) y
(40) implican que:
E

p
t1
(Rx
t
(z)+
t
(z))

(
t
(z)) < g

(
(a)
t
(z)) = ap
(a)
t1
(Rx
t
(z)
(a)
+a
(a)
t
(z))
As se tiene
E

p
t1
(Rx
t
(z) +
t
(z))

< ap
(a)
t1
(Rx
t
(z)
(a)
+a
(a)
t
(z)).
Lo que es una contradiccion.
Si z = 0, se tiene por restriccion que c
t
(z) = c
a
t
(z) = 0 y como p
t
(z) = V

t
(z),
se tiene que V

t
(z) (V
a
t
)

(z), z > 0, lo que se cumple en z = 0 por continuidad


de V

t
(z) y (V
a
t
)

(z).

Demostracion (ii) Para z > 0 la demostracion se hara por induccion.


Para t = 1, se tiene: p
1
(z) = p
(A)
1
(z) = U

(z).
(Hipotesis de Induccion) Se asume que p
t1
(z) p
(A)
t1
(z).
(Tesis de Induccion) Se debe probar que p
t
(z) p
(A)
t
(z), y para ello se consid-
eran dos casos que dependen del valor que asuma x
(A)
t
(z). Se demostrara para
el caso z > 0, y luego z = 0 resulta por continuidad.
24
Caso 1: x
(A)
t
(z) = 0. Entonces c
(A)
t
(z) = z y p
(A)
t
(z) = U

(c
(A)
t
(z)) = U

(z).
De las condiciones de optimalidad se sabe que p
t
(z) = U

(c
t
(z)) y ademas por
restriccion c
t
(z) z, tambien se tiene que U

es una funcion estrictamente


decreciente, luego,
p
t
(z) = U

(c
t
(z)) U

(c
(A)
t
(z)) = p
(A)
t
(z)
por lo tanto, p
t
(z) p
(A)
t
(z).
caso 2: x
(A)
t
(z) > 0. Por contradicci on se asume que p
t
(z) < p
(A)
t
(z), de las
condiciones de optimalidad (22) y (38) se tiene
U

(c
t
(z)) = p
t
(z) < p
(A)
t
(z) = U

(c
(A)
t
(z))
por lo tanto, U

(c
t
(z)) < U

(c
(A)
t
(z)), como U

es una funcion estrictamente


decreciente resulta c
(A)
t
(z) < c
t
(z), y por consiguiente, x
(A)
t
(z) > x
t
(z) 0
ahora de las condiciones de optimalidad (23) y (39) se tiene
REp
t1
(Rx
t
(z) +
t
(z)) p
t
(z) +

(x
t
(z)) <
p
(A)
t
(z) +

(x
(A)
t
(z)) = Rp
(A)
t1
(Rx
(A)
t
(z) +A
(A)
t
(z))
As se tiene
p
(A)
t1
(Rx
(A)
t
(z) +A
(A)
t
(z)) > Ep
t1
(Rx
t
(z) +
t
(z)) (42)
como A , se tiene que
Ap
(A)
t1
(Rx
(A)
t
(z) +A
(A)
t
(z)) > E[p
t1
(Rx
t
(z) +
t
(z))].
De (42) se tiene
p
(A)
t1
(Rx
(A)
t
(z) +A
(A)
t
(z)) > Ep
t1
(Rx
t
(z) +
t
(z))
Ep
(A)
t1
(Rx
t
(z) +
t
(z))
p
(A)
t1
(Rx
(A)
t
(z) +A
t
(z))
En la segunda desigualdad se utiliza la Hipotesis de Induccion y la tercera
desigualdad se debe a que p
A
t1
es decreciente. As
p
(A)
t1
(Rx
(A)
t
(z) +A
(A)
t
(z)) > p
(A)
t1
(Rx
(A)
t
(z) +A
t
(z))
lo que implica que
t
(z) >
(A)
t
(z), por las condiciones de optimalidad (24)
y (40) se tiene
E[p
t1
(Rx
t
(z) +
t
(z))] = g

(
t
(z)) >
g

(
(A)
t
) = Ap
(A)
t1
(Rx
(A)
t
(z) +A
(A)
t
(z))
25
As se obtiene
E[p
t1
(Rx
t
(z) +
t
(z))] > Ap
(A)
t1
(Rx
(A)
t
(z) +A
(A)
t
(z)).
Lo que es una contradiccion.
Si z = 0, se tiene por restriccion que c
t
(z) = c
A
t
(z) = 0 y como p
t
(z) = V

t
(z),
se tiene que V

t
(z) (V
A
t
)

(z), z > 0, lo que se cumple en z = 0 por continuidad


de V

t
(z) y (V
A
t
)

(z).

26
7. Apendice
Proposicion 7.1 Se asume que V :]0, +[ R es: continuamente diferencia-
ble, creciente, concava y acotada. Entonces h :]0, +[]0, [ R, h(x, )
EV (Rx +), es continuamente diferenciable en ]0, +[]0, [, y
h
x
= REV

(Rx +), x > 0, > 0


h

= E[V

(Rx +)], x > 0, > 0


Demostracion. Sean R y como denidos en la seccion 2.
h(x, ) = EV (Rx +) =

R
V (Rx +)(d)
=

i
V (Rx +
i
)
i
. .. .
h
1
(x)
+(1 )

()
V (Rx +)m()d
. .. .
h
2
(x)
donde {
i
}
i
son los (posibles) atomos de ,
i
= Prob[ =
i
].
Primer sumando: Sea h
1
(x, )

i
V (Rx +
i
)
i
.
En el caso de tener una cantidad nita de atomos, el resultado se sigue del hecho
que la suma nita de funciones continuamente diferenciables es continuamente
diferenciable. En el caso de tener una cantidad innita de atomos, se tiene que
h
1
(x, ) =

i=1
V (Rx +
i
)
i
= lm
n

i=1
V (Rx +
i
)
i
. .. .
f
n
(x,)

.
Armacion 1:
h
1
x
(x, ) existe (x, ) con x > 0, 0 y
h
1
x
es continua en
]0, +[[0, +[.
En efecto: Sean 0 y x > 0, consideremos la sucesion {
n
}
nN
,
n
(x) : [ x
, x + ] R,
n
(x) f
n
(x, ), donde ( x ) > 0. Notar que cada
n
es
diferenciable en [a, b] = [ x , x +] (por hipotesis V es diferenciable). Ademas,
dado > 0, existe N N tal que
n > m > N
n

i=m+1

i
< (43)
27
Nota. Recordar que

i=1

i
= 1 <
Luego,
n > m > N |
n
( x)
m
( x)| =

i=m+1
V (R x +
i
)
i

i=m+1

V (R x +
i
)


i
M
n

i=m+1

i
. .. .
<
< M ,
donde M max
z0
|V (z)| < .
Esto prueba que {
n
( x)}
nN
converge.

n
(x) =
n

i=1
V

(Rx +
i
)R
i
Sea > 0, existe N N como en (43), luego
n > m > N |

n
(x)

m
(x)|
n

i=m+1
|V

(Rx +
i
)|R
i
M
1
R
n

i=m+1

i
< M
1
R
donde M
1
max
z[R( x), [
|V

(z)| V

(R( x )) < por la concavidad de V .


Esto prueba que {

n
}
nN
converge uniformemente. Luego, por el Teorema 4.4 del
Anexo, seccion 8.2 concluimos que
h
1
x
existe en ( x, ) y que:
h
1
x
(x, ) = lm
n+

n
(x) = R

i
V

(Rx +
i
)
i
para todo x [ x, x+]. Como cada

n
es una funcion continua en [ x, x+],
y el lmite uniforme de funciones continuas es continuo
1
entonces
h
1
x
es continua
en ]0, +[[0, +[.
1
ver Proposicion 8.2.1, Anexo, seccion 8.2
28
Armacion 2:
h
1

existe (x, ) con x > 0, > 0 y


h
1

es continua en
]0, +[]0, +[.
La prueba de esta armacion es similar a la de la Armacion 1.
Segundo Sumando: h
2
(x, )

()
V (Rx +)m() d.
Sea f(, x, ) V (Rx +)m().
Se considera x > 0 arbitrario. Notar que
f
x
,
f

son continuas en
()]0, +[]0, +[ y ademas:
|f(, x, )| = |V (Rx +)|m() max
z0
|V (z)|m()
y m() es integrable.
Tambien se tiene

f(, x)
x

= RV

(Rx +)m()
RV

(R( x ))m(), x ] x , x +[, ()


donde ( x ) > 0, siendo

()
RV

(R( x ))m() < +.


Finalmente,

(, x, )

= V

(Rx+)m() V

(R( x))m(), x ] x, x+[, ()


siendo

()
V

(R( x ))m()d() < +


Luego por el Teorema 8.6 del Anexo, seccion 8.2 se tiene que h
2
es de clase C
1
en
]0, +[]0, +[ y que su derivada
h
2
x
=

()
RV

t1
(R x +)m()d().
y
h
2

()
V

t1
(R x +)m()d().
Finalmente h(x, ) = EV (Rx +) es de clase C
1
en (]0, +[]0, +[).

29
8. Anexo
8.1. Algunas deniciones y teoremas sobre subgradiente
Las siguientes deniciones corresponden al texto [12]:
Denicion 8.1 (p.214) Sea f una funcion convexa de S R
n
en [, +] y
sea x un punto donde f es nita. Un vector x

se dice ser un subgradiente de f


en el punto x si
f(z) f(x)+ < x

, z x >, z S.
Denicion 8.2 (p.24) Sea f una funcion convexa de S R
n
en [, +]. Se
dice que f es propia si f(x) < para al menos un x y f(x) > para todo x.
Denicion 8.3 (p.23) Sea f una funcion convexa de S R
n
en [, +]. Se
llama dominio de f al conjunto domf = {x : f(x) < } y se denota por f(x)
al conjunto de todos los subgradientes de f en x.
Teorema 8.1 (p.217, Existencia del subgradiente) Sea f una funcion con-
vexa propia. f(x) es no vaco y acotado si y solo si x int(domf).
Teorema 8.2 (p.242, Unicidad del subgradiente) Sea f una funcion con-
vexa, y sea x un punto donde f es nita. Si f es diferenciable en x, entonces
f(x) es el unico subgradiente de f en x. Reciprocamente, si f tiene unico sub-
gradiente en x, entonces f es diferenciable en x.
8.2. Algunos resultados de analisis
Consideremos los siguientes resultados de analisis:
Denicion 8.4 ([18], p.54) Una correspondencia de un conjunto X en un
conjunto Y (denotada por : X Y ), es una relacion que asigna a cada x X
un conjunto (x), (x) Y .
Denicion 8.5 ([18], p.56) Sea : X Y una correspondencia.
1. Se dice que es lower hemi-continuous (l.h.c.) en x si (x) es no-vaco
y si, para todo y (x) y toda sucesion x
n
x, existe N 1 y una sucesion
{y
n
}

n=N
tal que y
n
y y y
n
(x
n
), n N.
30
2. Supongamos que es compacta-valorada. Se dice que es upper hemi-
continuous (u.h.c.) en x si (x) es no-vaco y si, para toda sucesion x
n
x
y toda sucesion {y
n
}
nN
tal que y
n
(x
n
) n N, existe una subsucesion
convergente de {y
n
}
nN
cuyo punto lmite y esta en (x).
Denicion 8.6 ([18], p.57) Una correspondencia : X Y se dice continua
en un punto x X si es tanto u.h.c. como l.h.c. en x. Se dice que es continua,
si lo es en todo punto x X(analogas deniciones existen para los conceptos de
u.h.c. y l.h.c.).
Teorema 8.3 ([18], p. 62, Teorema del Maximo) Sean X R
l
, Y R
m
,
f : X Y R una funcion continua y sea : X Y una correspondencia
continua y compacta- valorada. Entonces la funcion h : X R denida por
h(x) = max
y(x)
f(x, y)
es continua, y la correspondencia G : X Y denida por
G(x) = {y (x) : f(x, y) = h(x)}
es no-vaca, compacta-valorada y u.h.c.
Observaci on 8.1 ([18], p. 63) Supongamos que ademas de las hipotesis del
Teorema del Maximo, se tiene que es convexa-valorada y que la funcion f es
estrictamente concava en y. Entonces, G resulta ser univaluada y por lo tanto
una funcion continua.
Teorema 8.4 ([13], p.152) Supongamos que f
n
: [a, b] R (n N) es una
sucesion de funciones diferenciables en [a, b] y tal que {f
n
( x)}
nN
converge, donde
x [a, b]. Si {f

n
}
nN
converge uniformemente en [a, b], entonces {f
n
}
nN
converge
uniformemente en [a, b], a una funcion f, f es diferenciable, y
f

(x) = lm
n
f

n
(x), para x [a, b].
Proposicion 8.1 ([9], p.132) Sean M y N espacios metricos. Si una sucesion
de aplicaciones f
n
: M N continuas, converge uniformemente en M a una
aplicacion f : M N, entonces f es continua.
31
Proposicion 8.2 ([9], p.168) Sea M un espacio metrico completo, con metrica
d. Para que una sucesion de aplicaciones f
n
: M N converga uniformemente en
X, es necesario y suciente que, para todo > 0 dado, exista n
0
N tal que
m, n > n
0
d( f
m
(x), f
n
(x) ) < , x X
Proposicion 8.3 ([9], p.215) Si M es un espacio metrico compacto, toda fun-
cion real continua f : M R es acotada y alcanza sus valores maximo y mnimo
en M. Mas precisamente: existen x
0
, x
1
M tales que f(x
0
) f(x) f(x
1
)
para todo x M.
Teorema 8.5 ([10], p.237) Sea K un subconjunto compacto de R, B un abierto
de R, f y f
x
continuas en KB. Entonces la funcion (x)

K
f(, x) d, x B,
es de Clase C
1
en B.
Teorema 8.6 ([10]) Sea A un conjunto medible de R
n
y B un subconjunto abierto
de R
l
. Sea f y
f
t
j
, j = 1, ..., l sean continuas en A B y satisfaciendo
|f(x, t)| g(x),

f
t
j
(x, t)

h
j
(x), x A, t B
donde g, h
1
, h
2
, ..., h
l
son integrables sobre A. Entonces la funcion,
(t)

A
f(x, t)d(x
1
, ..., x
n
), t B
es de clase C
1
sobre B y sus derivadas parciales estan dadas por:

t
j

A
f(x, t)d(x
1
, ..., x
n
) =

A
f
t
j
(x, t)d(x
1
, ..., x
n
)
Corolario 8.2.1 ([10]) La conclusion del teorema vale si A es compacto, B es
abierto y f junto con
f
t
j
, j = 1, ..., l son continuas en A B.
Teorema 8.7 ([13], p.108) Sea f : [a, b] R continua. Si f es derivable en
(a, b), existe c (a, b) tal que
f

(c) =
f(b) f(a)
b a
.
32
9. Bibliografa
Referencias
[1] Bobenrieth H., Eugenio S.A. (2004). Precio de Productos Almacenables:
Implicaciones empricas al Modelo de Inventarios. Estudios de Economa
31, N1, 67-78.
[2] Bobenrieth, E.S.A., Bobenrieth, J.R.A. y Wright, B.D. (2006). Strict con-
cavity of the value function for a family of dynamic accumulation models.
Documento de Trabajo.
[3] Bobenrieth, E.S.A., Bobenrieth, J.R.A. y Wright, B.D. (2002). A Com-
modity Price Process With a Unique Continuous Invariant Distribution
Having Innite Mean. Econometrica 70, 1213-1219.
[4] Bobenrieth, E.S.A., Bobenrieth, J.R.A. y Wright, B.D. (2004). A Model
of Supply of Storage. Economic Developmente and Cultural Change 52,
605-616.
[5] Deaton, A. (1991). Saving and liquidity Constraints. Econometrica 59,
1221-1248.
[6] Deaton, A and G. Laroque (1992). On the Behaviour of the Commodity
Prices. Review of Economic Studies, 59, 1-23.
[7] Gardner, B.G. (1979). Optimal Stockpiling of Grain. Lexington, MA: Lex-
ington Books.
[8] Gustafson, R.L. (1958). Carryover Levels for Grains: A Method for Deter-
mining Amounts that are Optimal Under Specied Conditions. Technical
Bulletin 1178, Washington, DC: United States Department of Agriculture.
[9] Lima, Elon L.(1977). Espacos Metricos, Projecto Euclides, IMPA.
[10] Fleming, W. (1977). Functions of Several Variables, Springer-Verlag.
[11] Paz, C. (2005). Una Aplicacion a la Economa de la Programacion Dinami-
ca Estocastica. Monografa. Departamento de Matematicas, Universidad
del Bo-Bo.
[12] Rockafellar, R.T. (1997). Convex Analysis, Princeton University Press.
[13] Rudin, W. (1976). Principles of Mathematical Analysis, Third Edition,
McGraw-Hill.
33
[14] Samuelson, P.A. (1971). Stochastic Speculative Price. Proceedings of the
National Academy of Sciences 68, 335-337.
[15] Schechtman, J. (1973). Some Applications of Competitive Prices to Prob-
lems of Dynamics Programming under Uncertainty, Dissertation, Univer-
sity of California, Berkeley.
[16] Schechtman, J., and V.L.S. Escudero. (1977). Some Results on An Income
Fluctuation Problem, Journal of Economic Theory 16, 151-166.
[17] Sheinkman, J.A. y J. Sechtman (1983). A Simple Competitive Model with
Production and Storage. Review of Economic Studies 50, 427-441.
[18] Stokey N. L. and Lucas R. E. with Prescott E. C. (1989). Recursive Meth-
ods in Economic Dynamics, Harvard University Press.
[19] Yaari, M.E. (1971). A Law of Large Numbers in the theory of consumers
choice under uncertainty, Working Paper No. CP. 330, Center of Research
in Management Science, University of California, Berkeley.
[20] Williams, J.C. y B.D. Wright (1991). Storage and Commodity Markets.
Cambridge University Press, Cambridge.
[21] Wright, B.D. y J.C. Williams (1982). The Economic Role of Commodity
Storage. Economic Journal 92, 596-614.
[22] Wright, B.D. y J.C. Williams (1984). The Welfare Eects of the Introduc-
tion of Storage. Quarterly Journal of Economics 99, 169-182.
34

También podría gustarte