Está en la página 1de 19

Programaci

on Estoc
astica
E. Cerd
aa , J. Morenob
a

Departamento An
alisis Econ
omico. UCM.
b

Departamento de Estadstica. UCM.

Introducci
on

Tal como su nombre indica, la Programaci


on Estoc
astica trata problemas de Programacion Matem
atica en cuya formulaci
on aparece alg
un elemento estocastico.
Por tanto, mientras que en un problema determinstico de Programaci
on Matematica, ya sea de Programacion Lineal, Programaci
on No Lineal, Programaci
on
Entera, Programaci
on Mixta Lineal Entera o Programaci
on Mixta No Lineal Entera, todos los datos (coecientes) que aparecen en su formulacion son n
umeros
conocidos, en Programaci
on Estoc
astica dichos datos (o al menos alguno de ellos)
son desconocidos, aunque para ellos se conoce o se puede estimar su distribucion
de probabilidad. Para precisar m
as, veamos las dos deniciones que propone
Prekopa [29]:
Primera denici
on: Programaci
on Estoc
astica es la ciencia que ofrece soluciones para problemas formulados en conexi
on con sistemas estocasticos, en los
que el problema numerico resultante a resolver es un problema de Programaci
on
Matematica de tama
no no trivial.
Segunda denici
on: La Programaci
on Estocastica trata problemas de Programacion Matem
atica en los que algunos de los par
ametros son variables aleatorias,
bien estudiando las propiedades estadsticas del valor optimo aleatorio o de otras
variables aleatorias presentes en el problema o bien reformulando el problema
en otro de decision en el que se tiene en cuenta la distribuci
on de probabilidad
conjunta de los par
ametros aleatorios.
Los problemas resultantes de ambas deniciones son llamados problemas de
Programaci
on Estoc
astica.
Rect@

Monogr
aco 2 (2004)

Programaci
on Estoc
astica

La aleatoriedad en coecientes en unos casos se debera a la falta de abilidad


en los datos recogidos, en otros casos a errores de medida, en otros a eventos
futuros a
un no conocidos, etc.
Tal como indica Dantzig [11], la Programaci
on Estocastica comenzo en 1955
con los trabajos de Dantzig [10] y Beale [2]. y ya en la misma decada alcanzo
con Markowitz [23] una aplicaci
on muy destacada al problema de seleccion de
carteras que le llevara a la consecucion del Premio N
obel. En [34] se recogen
unas 800 referencias sobre trabajos publicados entre 1955 y 1975, clasicadas en
funci
on de su contenido.
En 1974 se celebro en Oxford (Inglaterra) la primera conferencia internacional en Programaci
on Estoc
astica, organizada por Michael Dempster. En 1981
se celebro en K
oszeg (Hungra) la segunda conferencia, organizada por Andra
Prekopa. En dicho encuentro se puso en marcha el Committee on Stochastic Programming (COSP), como una rama de la Mathematical Programming Society.
Dicho comite ha sido el responsable de organizar los sucesivas conferencias que
se han ido celebrando. La novena conferencia internacional se celebr
o en Berln
(Alemania) en 2001 y la decima se celebrara los das 9 a 12 de Octubre de 2004
en Tucson, Arizona (USA).
El COSP ha puesto en funcionamiento la p
agina web http// stoprog.org en la
que se puede encontrar mucha informaci
on y documentaci
on sobre Programaci
on
Estocastica.

Deniciones b
asicas

Se considera el siguiente problema de Programaci


on Estoc
astica:
 
mn g0 x, ,
x

sujeto
 a:
gi x, 0, i = 1, 2, ..., m,
x D,

(1.1)

donde el conjunto D Rn , es un vector aleatorio denido sobre un conjunto


an dados una familia de eventos F formada por
E Rs .Suponemos que est
subconjuntos de E y una distribuci
on de probabilidad P denida sobre F Por
tanto, para cada A E, es A F, y la probabilidad P (A) es conocida. Ademas
suponemos que las funciones gi (x, ) : E R, x, i son variables aleatorias y
que la distribuci
on de probabilidad P es independiente del vector de variables de
decision x.
Observese que en el problema formulado (PE) para cada realizaci
on del vector aleatorio se tiene un problema determinstico. Un vector x D puede ser
factible para una realizaci
on del vector aleatorio y no serlo para otra realizaci
on.

Rect@

Monogr
aco 2 (2004)

E. Cerd
a, J. Moreno





Asmismo puede ocurrir que para una realizaci
on 1 sea g0 x1 , 1 < g0 x2 , 1


y en
para otra realizaci
on 2 del vector aleatorio sea g0 x2 , 2 <
 1cambio

g0 x , 2 .
Un caso particular del problema (PE) es el siguiente problema de Programacion Lineal Estoc
astica:
 
mn
cT x,
x

sujeto a : Ax = b,
 
T x h ,
x 0,

(1.2)

donde la matriz A y el vector b son determinsticos. La matriz T () y los vectores


c () y h () dependen del vector aleatorio y por tanto son estoc
asticos.
Normalmente el problema estocastico se reemplaza por un problema determinstico, que se llama determinista equivalente cuya soluci
on optima pasa a
considerarse la solucion optima del problema estocastico.
Fundamentalmente existen dos tipos de modelos en Programaci
on Estocastica:
Modelos esperar y ver (wait and see) o modelos de programaciom
estocastica pasiva, basados en la suposici
on de que el decisor es capaz de
esperar a que se produzca la realizacion de las variables aleatorias y hacer
su decision con informaci
on completa de dicha realizaci
on, con lo que el problema se convierte en determinstico y es posible encontrar el valor optimo
de las variables de decision con las tecnicas habituales de programaci
on
matematica determinstica. En ocasiones puede tener interes el conocer
la distribuci
on de probabilidad del valor objetivo optimo o algunos de sus
momentos (valor esperado o varianza) antes de conocer la realizacion de
sus variables aleatorias. Tales problemas se llaman problemas de distribuci
on. Estos problemas se estudian en [4], [33], [29].
Modelos aqu y ahora (here and now) o modelos de programaci
on estocastica activa. En estos modelos el decisor toma la decision sin el conocimiento de la realizacion de las variables aleatorias, sin que por ello queden
afectadas las distribuciones de probabilidad de las mismas. En los siguientes
apartados veremos diferentes enfoques para resolver el problema.

Programaci
on con restricciones probabilsticas

Se considera el problema (1.1) en el que se supone que la funci


on objetivo no
contiene ninguna variable aleatoria:
Rect@

Monogr
aco 2 (2004)

Programaci
on Estoc
astica

mn

g0 (x) ,
 
sujeto a : gi x, 0,
x D,
x

i = 1, 2, ..., m,

(1.3)

El m
etodo de restricciones de azar (chance constrained) fue introducido
por Charnes, Cooper y Symonds en 1958. Veanse [7], [8]. La idea consiste
en transformar el problema dado en un determinista equivalente en el que se
veriquen las restricciones con, al menos, una determinada probabilidad jada
de antemano. Hay que distinguir dos casos seg
un se je la probabidad para el
conjunto de las restricciones o para cada una de ellas por separado.
Restricciones de azar conjuntas:
Se considera el problema (3.1). Sea p [0, 1] dado. Se dene el determinista
equivalente:
mn

g0 (x) ,


0, g2 (x, )
0, ..., gm (x, )
0 p,
sujeto a : P g1 (x, )
x D.
x

(1.4)

Para este problema, 1 p es el riesgo admisible para el decisor de que la


soluci
on del problema sea no factible.
En el caso particular de que para cada x D las variables aleatorias
g2 (x, ),
..., gm (x, )

g1 (x, ),
sean mutuamente estadsticamente independientes, el problema equivalente determinista anterior se puede expresar de la siguiente forma.
mn

g0 (x)
 




0 P g2 (x, )
0 ...P gm (x, )
0 p,
sujeto a : P g1 (x, )
x D.
x

(1.5)

Restricciones de azar separadas o individuales:


Se considera el problema (1.3). Para cada restricci
on i {1, 2, ..., m} sea
pi [0, 1] dado. Se dene el determinista equivalente:
mn

g0 (x) ,


0 pi ,
sujeto a : P gi (x, )
x D.
x

Rect@

para i = 1, 2, ..., m,

(1.6)

Monogr
aco 2 (2004)

E. Cerd
a, J. Moreno

La siguiente Proposici
on recoge la relacion entre los dos casos:
Proposici
on 3.1.

Supongamos que x
es una soluci
on factible del problema
m

(1.6) para los valores p1 , p2 , ..., pm . Entonces para p = 1 m +
pi , se verica
i=1

que x
es factible para el problema (1.4).
Demostraci
on: Sea x
soluci
on factible del problema (1.4). Ello quiere decir
que se verica: P ( | gi (
x, ) 0) pi , para todo i = 1, 2, ..., m. Denimos los
eventos Ai de la siguiente forma: Ai = { | gi (
x, ) 0} , para i = 1, 2, ..., m.
1 pi . Veamos que se verica que
Se verica que P (Ai ) pi , P AC
i
m


P
Ai p,
i=1

lo cual quiere decir que x


es factible para el problema

(1.4).
En efecto:


Teniendo en cuenta la desigualdad de Boole: P
Sk P (Sk ) , se tiene
k

que
P

m



Ai

1P

i=1

m


m
C


C
=1P

Ai
(Ai )

i=1

m


i=1
C

P (Ai )

i=1

m


(1 pi ) = p.

i=1

Sean:
q(x)

= P ( | g1 (x, ) 0, g2 (x, ) 0, ..., gm (x, ) 0) ,

qi (x)

= P ( | gi (x, ) 0) , i = 1, 2, ..., m.

El conjunto factible del problema (1.4) lo podemos representar de la siguiente


forma: C(p) = {x D | q(x) p} .
Sea: Ci (pi ) = {x D | qi (x) pi } , i {1, 2, ..., m} .
El conjunto factible del Problema (1.6) lo podemos respresentar como
C (p1 , p2 , ..., pm ) =

m


Ci (pi ) .

i=1

Sera deseable que los conjuntos C(p) y C (p1 , p2 , ..., pm ), que son los conjuntos
de soluciones factibles de los deterministas equivalentes que estamos estudiando,
fueran no vacos, cerrados y convexos. Las siguientes proposiciones tratan sobre
dichas cuestiones.
Rect@

Monogr
aco 2 (2004)

Programaci
on Estoc
astica

Proposici
on 3.2 Sea C(p) el conjunto de soluciones factibles del Problema (1.4).
En dicho conjunto se verican las siguientes propiedades:
1) Si p1 p2 , entonces C(p1 ) C(p2 ).
2) C(0) = D.
3) C(p) es no vaco para todo p [0, 1] C(1) = .
Demostraci
on:
1) Sea p1 p2 . Si x C(p2 ), es
q(x) = P ( | g1 (x, ) 0, g2 (x, ) 0, ..., gm (x, ) 0) p2 p1 = x
C(p1 ).
2) C(0) = {x D | q(x) 0} = D, ya que q(x) es una probabilidad y por tanto
es mayor o igual que cero.
3) Si C(p) = , p [0, 1] = C(1) = . Por otra parte, si C(1) = = p 1,
por 1) es C(p) C(1) = .
Observese que si C(p) = , p [0, 1], entonces C (p1 , p2 , ..., pm ) = , para
todo p1 , p2 , ..., pm en [0,1].
La siguiente proposici
on, cuya demostraci
on se encuentra en [17, ?] da condiciones que aseguran que los conjuntos que estamos considerando son cerrados.
Proposici
on 3.3 Si las funciones gi : Rn E R son continuas, entonces los
conjuntos factibles C(p) y C (p1 , p2 , ..., pm ) son cerrados.
A continuaci
on se aborda el problema de la convexidad de los conjuntos C(p)
y C (p1 , p2 , ..., pm ) . Estos conjuntos en general no son convexos. Veamos condiciones en que s lo son. Las demostraciones de las proposiciones siguientes se
encuentran en [17, ?]. Vease tambien [29].
Denici
on 3.1 Una medida de probabilidad P : F [0, 1] se dice que es cuasic
oncava si S1 , S2 F , siendo S1 y S2 conjuntos convexos, y [0, 1],se
verica que P (S1 + (1 ) S2 ) mn {P (S1 ) , P (S2 )} .
Denici
on 3.2 Una medida de probabilidad P : F [0, 1] se dice que es logc
oncava si S1 , S2 F , siendo S1 y S2 conjuntos convexos, y [0, 1],se verica

1
que P (S1 + (1 ) S2 ) [P (S1 )] [P (S2 )]
.
Las dos proposiciones siguientes dan condiciones para que una medida de
probabilidad sea cuasi-c
oncava.
Proposici
on 3.3 Si P es una medida de probabilidad log-c
oncava en F , entonces
P es cuasic
oncava.
Proposici
on 3.4 Sea P una medida de probabilidad en Rs , de tipo continuo con
funci
on de densidad asociada f. Entonces se verica:
Rect@

Monogr
aco 2 (2004)

E. Cerd
a, J. Moreno

P es log-c
oncava si y s
olo si el logaritmo de f es una funci
on c
oncava.
P es cuasi-c
oncava si y s
olo si f 1/s es convexa.
La siguiente proposici
on da condiciones sucientes para que los conjuntos que
estamos estudiando sean convexos.
Proposici
on 3.5 Si gi (, ) es conjuntamente convexa en (x, ), para cada i =
1, 2, ..., m y P es cuasi-c
oncava , entonces C(p) es convexo para todo p [0, 1] y
C (p1 , p2 , ..., pm ) es convexo, p1 , p2 , ..., pm en [0, 1].
Algunas medidas de probabilidad cuasi-c
oncavas son: La uniforme kdimensional, sobre un conjunto convexo S Rk , la distribuci
on exponencial en R, la
on de Dirichlet, la beta, la distribuci
on de
normal multivariante en Rk , la distribuci
Wishart, la gamma para ciertos valores del par
ametro, la distribuci
on de Cauchy,
la distribuci
on de Pareto para determinados valores etc.
El caso lineal:
Se considera el problema lineal estocastico (1.2), en el cual se supone que la
funci
on objetivo no contiene ninguna variable aleatoria:
cT x,

mn
x

sujeto a : Ax = b,
h(),

T ()x
x 0,

(1.7)

Para el Problema (1.7), dado el valor p [0, 1] , el programa determinista equivalente correspondiente al metodo de restricciones de azar tomadas en conjunto
sera:
mn
x

cT x,

sujeto a : Ax = b,

h()
p,
P T ()x

(1.8)

x 0,
Para el mismo Problema (1.7), dados los valores p1 , p2 , ..., pm , pertenecientes
al intervalo [0, 1] , el programa determinista equivalente correspondiente al metodo
de restricciones de azar tomadas de manera separada sera:
mn
x

cT x,

sujeto a : Ax = 
b, 
 
P Ti x hi pi ,

i = 1, 2, ..., m,

(1.9)

x 0,
Rect@

Monogr
aco 2 (2004)

10

Programaci
on Estoc
astica

1 , p2 , ..., pm ) el conSean C(p) el conjunto factible del programa (1.8) y C(p


junto factible de (1.9). Aunque el programa estoc
astico inicial (1.7) es lineal,
1 , p2 , ..., pm ) no tienen por que ser
los conjuntos de soluciones factibles C(p), C(p
convexos, como se puede observar en el siguiente ejemplo.
Se considera el siguiente programa estocastico con una sola variable de decisi
on
x:
mn g0 (x),
x
 
sujetoa : T x h ,

en donde T =

2
1

 
h
toma los valores:


4
10
, con probabilidad 1/2, y
0
3

con probabilidad 1/2.

Para este programa estocastico se tiene que, para todo p [0, 1/2] es C(p) =

C(p)
= [0, 2] [3, 5], que no es convexo no conexo.
Las siguientes proposiciones recogen los principales resultados conocidos para
el tipo de problema que estamos considerando.
Proposici
on 3.6 Se considera el programa estoc
astico (1.7). Supongamos que
es
un
vector
aleatorio
cuya
distribuci
o
n
de
probabilidad
es discreta y nita.Sea


P = k = k , para k = 1, 2, ..., K. Entonces para p > 1 mnk{1,2,...,K} k
se verica que el conjunto factible C(p) es convexo.
La demostracion se encuentra en [17, ?]
A la vista de la proposici
on anterior, se comprueba inmediatamente que si
pj > 1 mnk{1,2,...,K} k para cada j = 1, 2, ..., m, el conjunto C (p1 , p2 , ..., pm )
es convexo.
Proposici
on 3.7 Se considera el programa estoc
astico (1.7). Supongamos que
 
=h
es cuasi-c
T = T y que la probabilidad P correspondiente a h()
oncava.
Entonces los conjuntos C(p) y C (p1 , p2 , ..., pm ) son cerrados y convexos.
La demostracion se puede ver en [5]
Proposici
on 3.8Se considera el programa
estoc
astico (1.7). Sean T1 , T2 , ..., Tm
   
Supongamos que T1 , T2 , ..., Tm ,
las las respectivas de la matriz T , h = h.
tienen distribuci
h
on normal con

 

 T 
E Ti E Ti
= rij C, para i, j = 1, 2, ..., m,
Tj E Tj

Rect@

Monogr
aco 2 (2004)

E. Cerd
a, J. Moreno

E

11

 
  
E h

h
= si C, para i, j = 1, 2, ..., m,
Ti E Ti

donde rij y si son constantes para todo i, j. Entonces, C(p) es convexo para
p 0, 5.
La demostracion se puede ver en [5]
Ejemplos:
1) Se considera el programa estocastico con conjunto factible

g(x) ,

(1.10)
T

en donde x Rn , g(x) = (g1(x), g2 (x), ..., gm (x)) no contiene ning


un elemneto
on m.
aleatorio y = 1 , 2 , ..., m es un vector aleatorio de dimensi
En este caso para p [0, 1] se tiene que el conjunto factible del determinista
equivalente para restricciones de azar conjuntas es
C(p)

= {x Rn | P ( | g(x) ) p} =


=
x Rn | F (g(x)) p ,

en donde F es la funci
on de distribuci
on del vectora aleatorio .
Para pi [0, 1], considerando restricciones de azar individuales se tiene que
Ci (pi ) = {x Rn | P (i | gi (x) i ) pi } =


=
x Rn | Fi (gi (x)) pi = {x Rn | gi (x) i } ,
en donde i = F1 (pi ) .
i

2) Se considera el programa estocastico lineal (1.7) y su determinista equivalente (1.9) para restricciones de azar separadas. Sea la restriccion estocastica
 
 

T
siendo tT , h

Ti x hi de la forma tT x h,
un vector aleatorio con distribuci
on conjunta normal de media Rn+1 , y matriz de varianzas y covarianzas V , de dimensi
on (n + 1) (n + 1) . Calculemos su correspondiente restricci
o
n
en
el
determinista
(para restricciones
de azar sepa

equivalente

T T
 T T
T
T
radas). P t , h | t x h = P t , h | x t h 0 = P ( | (x) 0) ,
La variable aleatoria es normal (unidimensional),
en donde (x) = xT t h.
por ser combinaci
on lineal de variables conjuntamente normales. Su media es
n

m(x) =
j xj n+1 , y su varianza es 2(x) = z(x)T V z(x), donde z(x) =
j=1

Rect@

Monogr
aco 2 (2004)

12

Programaci
on Estoc
astica
T

(x1 , x2 , ..., xn , 1) .

m(x)
(x) m(x)
P (
(x) 0) pi P

pi .
(x)
(x)



(x) m(x)
m(x)
m(x)
1P
<
pi 1
pi ,
(x)
(x)
(x)

donde es la funci
on de distribuci
on de la normal de media cero y varianza 1.
Por tanto, la restricci
on de azar correspondiente queda como:



m(x)
m(x)
1
pi
1 pi
(x)
(x)
m(x)

1 (1 pi ) 1 (1 pi ) (x) m(x) 0.
(x)
El conjunto de los x Rn que verican esa condici
on es convexo si y solo si
(1 pi ) 0, lo cual se verica si y solo si pi 0, 5.
1

Pueden encontrarse m
as ejemplos en [14], [27], [28], [30], [33], [35]. En [26] se
presenta una aplicaci
on muy interesante.

Funci
on objetivo aleatoria

Consideremos el siguiente problema estocastico, en el que todas las restricciones son determinsticas y la funci
on objetivo es aleatoria.
mn
x

g0 (x, ),

sujetoa : x X

(1.11)

El conjunto factible X Rn esta compuesto por restricciones determinsticas,


bien porque lo sean de manera natural, bien porque se haya obtenido el determinista equivalente utilizando el metodo de restricciones de azar.
Se trata de transformar el objetivo estoc
astico en su determinista equivalente.
Ello puede hacerse utilizando distintos criterios, que vamos a ver a continuaci
on,
siguiendo el enfoque de los trabajos [6] y [27].

4.1

Algunos conceptos de soluci


on

a) Criterio del valor esperado.


en una funci
Se convierte la variable aleatoria g0 (x, )
on determinstica tomando la esperanza matematica

E[
g0 (x, )].
Rect@

Monogr
aco 2 (2004)

E. Cerd
a, J. Moreno

13

El determinista equivalente del problema estoc


astico (1.11) sera
mn
x

E[
g0 (x, )],

sujeto a : x X

(1.12)

Para resolver el problema de programaci


on estocastica siguiendo este criterio,
basta con conocer el valor esperado de la funci
on objetivo estocastica y, por tanto,
es aplicable a
un en el caso en el que se desconozca la distribucion de probabilidad

de la variable aleatoria g0 (x, ).


En [29] se se
nala que para que este criterio sea considerado apropiado se deben
cumplir dos condiciones:
1) El sistema debe repetir su realizacion de manera independiente un gran
n
umero de veces, para asegurar que la media de los resultados sea bastante
pr
oxima al valor esperado.
2) La magnitud de la variaci
on del resultado no debe ser grande. En otro caso
nuestra poltica optima puede llevar al sistema a la bancarrota antes de que
la deseada media a largo plazo pueda ser alcanzada.
En muchas situaciones pr
acticas estas condiciones no se cumplen y, por tanto,
este criterio no debera ser utilizado en tales casos.
b) Criterio de mnima varianza.
en una funci
Se convierte la variable aleatoria g0 (x, )
on determinstica to
2 ] {E[
2.
mando su varianza: V ar[
g0 (x, )] = E[(
g0 (x, ))
g0 (x, )]}
La utilizaci
on de este criterio da lugar a la eleccion de aquel vector x para
esta mas concentrada alrededor de su valor
el que la variable aleatoria g0 (x, )
esperado, de manera que el determinista equivalente seg
un el criterio de mnima
varianza puede interpretarse como una medida de error cuadr
atico.
El criterio de optimizaci
on es el de mnima varianza tanto si se trata de minimizar la funci
on objetivo (como estamos suponiendo en este trabajo) como si se
trata de maximizarlo.
Para poder utilizar este criterio es suciente con que se conozca la varianza
No hace falta que se conozca su distribuci
de la variable aleatoria g0 (x, ).
on de
probabilidad.
El determinista equivalente del problema estoc
astico (1.11), seg
un el criterio
de mnima varianza ser
a
mn
x

V ar[
g0 (x, )]

sujeto a : x X

Rect@

(1.13)

Monogr
aco 2 (2004)

14

Programaci
on Estoc
astica

c) Criterio de eciencia valor esperado desviaci


on est
andar.
Este concepto de eciencia fue introducido por Markowitz en 1952 para resolver problemas de seleccion de carteras en el campo de las nanzas. Vease [22] y
tambien [23] y [24].
Se trata de elegir una poltica x0 que sea eciente en el sentido de Markowitz.
Expliquemos su signicado:

Sean (x) = E[
g0 (x, )],
2 (x) = V ar[
g0 (x, )].
Se tiene que vericar que no existe ning
un x X para el cual se tenga que
(x) = (x0 ) y (x) < (x0 ), o bien (x) = (x0 ) y (x) < (x0 ).
El conjunto de puntos ecientes normalmente tiene innitos elementos. Por
tanto, normalmente este criterio no especica un u
nico punto como soluci
on
optima. Si se quiere llegar a una soluci

on optima habr
a que a
nadir otras considereciones al conjunto obtenido de puntos ecientes.
El c
alculo de soluciones ecientes valor esperado desviacion estandar se traduce en el calculo de soluciones ecientes del siguiente problema biobjetivo determinista equivalente:


V ar[
,
mn
E[
g0 (x, )],
g0 (x, )]
x
(1.14)
sujeto a : x X
d) Criterio de mnimo riesgo.
Este criterio fue introducido por Bereanu [3] con el nombre de criterio de
mnimo riesgo y por Charnes y Cooper [9] con el nombre de P-modelo.
Se trata de maximizar la probabilidad de que la funci
on objetivo sea menor
o igual que cierto valor previamente establecido. Por tanto, para resolver el
problema hay que jar un nivel para la funci
on objetivo estoc
astica, R,
al que se denomina nivel de aspiraci
on, y maximizar
la
probabilidad
de que el



objetivo sea menor o igual que ese nivel: P g0 (x, ) .


La idea del nivel de aspiraci
on es que como mucho el valor objetivo sea .
El determinista equivalente del problema estoc
astico (1.11), seg
un el criterio
de mnimo riesgo sera


,
max
P g0 (x, )
x
(1.15)
sujeto a : x X

 



= max 1 P {
Teniendo en cuenta que m
ax P g0 (x, )
g0 x, > } =
x

 x
> , el problema (1.15) es equivalente a
1 mn P g0 (x, )
x

mn
x



> ,
P g0 (x, )

sujeto a : x X,
Rect@

Monogr
aco 2 (2004)

E. Cerd
a, J. Moreno

15

y el problema puede interpretarse como la minimizaci


on del riesgo de que la
funci
on objetivo sobrepase el nivel de aspiraci
on .
Si el problema a resolver consistiera en maximizar la funci
on objetivo (en lugar
de minimizar como estamos considerando), es decir, si el problema original fuera
max
x

g0 (x, ),

sujeto a : x X
el problema de mnimo riesgo determinista equivalente sera


,
max
P g0 (x, )
x

sujeto a : x X
En este caso la idea del nivel de aspiraci
on es que el valor objetivo al menos
sea .
e) Criterio de Kataoka o criterio fractil
El criterio fue introducido por Kataoka [20].
Se comienza jando por el decisor una probabilidad (0, 1) para la funci
on
objetivo y se determina el menor nivel que puede alcanzar la funci
on objetivo
con esa probabilidad. En concreto, el determinista equivalente del problema estocastico (1.11), seg
un el criterio de Kataoka1 sera:
mn

  

sujeto a : P g0 x, = ,
xX

(xT ,)

Si el problema a resolver consistiera en maximizar la funci


on objetivo (en lugar
de minimizar como estamos considerando), es decir, si el problema original fuera
 
mn
g0 x, ,
x

sujeto a : x X
el problema de Kataoka determinista equivalente sera
mn


  
sujeto a : P g0 x, = ,
xX

(xT ,)

1 En trabajos posteriores al de Kataoka otros autores como Stancu-Minasian [33] plantean el


  

problema con restricci
on probabilstica de desigualdad: P g0 x, . Se demuestra
 
que si la variable aleatoria g0 x, es continua el resultado del problema es el mismo en ambos
casos.

Rect@

Monogr
aco 2 (2004)

16

Programaci
on Estoc
astica

Comparando los tres primeros criterios con los dos u


ltimos (que se llaman de
maxima probabilidad) aparecen algunas diferencias:
En el criterio de mnimo riesgo se ja el nivel de aspiraci
on y en el criterio
de Kataoka se ja la probabilidad, luego ambos dependen de los valores que
se asignen a estos parametros, mientras que en los tres primeros casos no
hay que jar ning
un par
ametro.
En los criterios valor esperado, mnima varianza y eciencia valor esperado
desviacion estandar s
olo necesita conocerse la esperanza t/o la varianza ,
no haciendo falta la distribuci
on de probabilidad.
La eleccion de un criterio u otro deber
a realizarse en base a las caractersticas
del rpoblema y a las preferencias del decisor. De todas formas, los cinco criterios estan relacionados entre s, dado que cada uno de ellos utiliza diferentes
caractersticas de la funci
on objetivo.

4.2

Relaciones entre las soluciones seg


un los distintos criterios

En [6] se obtienen algunos resultados para problemas estoc


asticos como (1.11)
que cumplen algunas condiciones adicionales. Veamos algunos de dichos resultados.
Consideremos el problema estocastico (1.11) en el que suponemos ahora que
el conjunto de soluciones factibles X Rn es no vaco, cerrado, acotado y convexo. Suponemos tambien que es un vector aleatorio denido sobre un conjunto E Rs cuyas componentes son variables aleatorias continuas y cuya distribuci
on de probabilidad es independiente de las variables de decisi
on del problema
x1 , x2 , ..., xn .
Las demostraciones de todas las proposiciones que presentamos a continuacion
se encuentran en [6].
Proposici
on 4.1 Se considera el problema estoc
astico (1.11) con las hip
otesis
adicionales introducidas en este subapartado.
a) Si la soluci
on
optima del problema seg
un el criterio del valor esperado es
u
nica, entonces es una soluci
on eciente valor esperado desviaci
on est
andar. Si
no es u
nica s
olo se puede asegurar que las soluciones o
ptimas valor esperado
son soluciones debilmente ecientes valor esperado desviaci
on est
andar, pero no
tienen por que ser ecientes valor esperado desviaci
on est
andar.
b) Si la varianza de la funci
on objetivo es una funci
on estrictamente convexa,
el problema de varianza mnima tiene soluci
on u
nica que es una soluci
on eciente
valor esperado desviaci
on est
andar. Si no es u
nica s
olo se puede asegurar que las
Rect@

Monogr
aco 2 (2004)

E. Cerd
a, J. Moreno

17

soluciones o
ptimas de mnima varianza son soluciones debilmente ecientes valor
esperado desviaci
on est
andar, pero no tienen por que ser ecientes valor esperado
desviaci
on est
andar.
La siguiente proposici
on establece relacion entre las soluciones optimas seg
un
los criterios de mnimo riesgo y de Kataoka.
Proposici
on 4.2 Se considera el problema estoc
astico (1.11) con las hip
otesis
adicionales introducidas en este subapartado.
Supongamos que la funci
on de
es estrictamente creciente. Entonces
distribuci
on de la variable aleatoria g0 (x, )
x es la soluci
on de mnimo riesgo para el nivel de aspiraci
on si y s
olo si
 T T

x ,
es la 
soluci
on de Kataoka con probabilidad , con y vericando

P g0 (x, ) = .
A la vista de la proposici
on anterior se puede asegurar que en las condiciones
que estamos considerando en este subapartado:
Para cada nivel de aspiraci
on , la soluci
on de mnimo riesgo es tambien la
soluci
on de Kataoka con una probabilidad igual a la m
axima probabilidad
obtenida en el problema de mnimo riesgo.
Para cada valor jado, la soluci
on de Kataoka es tambien solucion de
mnimo riesgo para un nivel de aspiraci
on igual al valor optimo del problema
de Kataoka.

En [6] se establecen tambien relaciones entre soluciones de Kataoka y soluciones ecientes valor esperado desviacion estandar para algunos tipos de programas
estocasticos lineales.

4.3

Ejemplo

Como ejemplo vamos a considerar el caso de funcion objetivo lineal con distribuci
on de probabilidad normal.
Sea el programa estocastico lineal
mn
x

T x,

sujeto a : x X

(1.16)

El conjunto factible X Rn esta compuesto por restricciones determinsticas,


bien porque lo sean de manera natural, bien porque se haya obtenido el determinista equivalente utilizando el metodo de restricciones de azar. Se supone que el
vector aleatorio sigue una distribuci
on de probabilidad normal multivariante,
con valor esperado y matriz de varianzas y covarianzas S denida positiva.
Rect@

Monogr
aco 2 (2004)

18

Programaci
on Estoc
astica

En estas condiciones la variable aleatoria T x es normal con valor esperado


T
T x
T x y varianza xT Sx. Por tanto se tiene que x
es una variable aleatoria
xT Sx
N (0, 1) (normal con valor esperado 0 y desviacion tpica 1).
A continuaci
on se calcula el determinista equivalente del programa estocastico
(1.16) para cada uno de los criterios considerados en este apartado.
a) Criterio del valor esperado
mn
x

T x,

sujeto a : x X
b) Criterio de mnima varianza
mn
x

xT Sx,

sujeto a : x X
c) Criterio de eciencia valor esperado desviaci
on est
andar



mn
T x, . xT Sx ,
x

sujeto a : x X
d) Criterio de mnimo riesgo de nivel


max
P T x ,

(1.17)

sujeto a : x X
Pero


P T x = P

T x T x
T x


xT Sx
xT Sx


T x

,
xT Sx

(1.18)

donde es la funci
on de distribuci
on de la
que es estrictamente
creciente,

N (0,1),



T
T x

por lo que m
ax P T x = max
= max
, y el
x
x
x
xT Sx
xT Sx
problema (1.17) es equivalente a
T x

x
xT Sx
sujeto a : x X.
max

(1.19)

Una vez resuelto este problema, la probabilidad m


axima para la que se puede
asegurar que la funci
on objetivo
estoc
a
stica
es
menor
o igual que el nivel de


T x
aspiraci
on jado , es: max
.
x
xT Sx
Rect@

Monogr
aco 2 (2004)

E. Cerd
a, J. Moreno

19

e) Criterio de Kataoka o criterio fractil


mn



sujeto a : P T x = ,
xX

(xT ,)

Teniendo en cuenta (1.18), y que la funci


on de distribuci
on es estrictaT x
T x

mente creciente, se tiene que T


= T
= 1 () =
x Sx
x Sx

1 () xT Sx + T x, por lo que el problema (4.11) se puede expresar:


mn

sujeto a = 1 () xT Sx + T x,
xX

(xT ,)

y este problema es equivalente al problema con n variables de decisi


on:

mn
1 () xT Sx + T x,
x

sujeto a : x X.
Este problema es convexo para 0, 5. Una vez resuelto este problema, el
menor nivel para el que podemos armar que
on objetivo no supera ese
la funci
1
T

nivel con probabilidad es = mn () x Sx + T x.


x

Bibliografa

[1] Alvarez,
F., Cerd
a, E. A Solution Method for a Class of Learning by Doing
Models with Multiplicative Uncertainty. Top, 7, 1, 1-23, 1999.
[2] Beale, E.M.L., On Minimizing a Convex Function Subject to Linear Inequalities. Journal of the Royal Statistical Society, B 17, 173-184, 1955.
[3] Bereanu, B. Programme de Risque Minimal en Programmation Lineaire
Stochastique. C. R. Acad. Sci. Paris, 259, 981-983, 1964.
[4] Bereanu, B. The Generalized Distribution Problem of Stochastic Linear Programming. Symposia Matematica. Academic Press, 1976.
[5] Birge, J.R., Louveaux, F.V. Introduction to Stochastic Programming. Springer, 1997.
[6] Caballero, R., Cerd
a, E., Mu
noz, M.M., Rey, L. Analysis and Comparisons
of Some Solution Concepts for Stochastic Programming Problems. Top,
10(1), 101-124, 2002.
Rect@

Monogr
aco 2 (2004)

20

Programaci
on Estoc
astica

[7] Charnes, A., Cooper, W.W. Chance-Constrained Programming. Management Science, 5, 73-79, 1959.
[8] Charnes, A., Cooper, W.W., Symonds, G.H. Cost Horizons and Certainty
Equivalents: An Approach to Stochastic Programming of Heating Oil. Management Science, 4, 235-263, 1958.
[9] Charnes, A., Cooper, W.W. Deterministic Equivalents for Optimizing and
Satisfying under Chance Constraints. Operations Research, 11, 1, 18-39,
1963.
[10] Dantzig, G.B. Linear Programming under Uncertainty. Management
Science, 1, 197-206, 1955.
[11] Dantzig, G.B. Planning under Uncertainty. Annals of Operations Research,
85, 1999.
[12] Dempster, M.A.H. Stochastic Programming. Academic Press, 1980.
[13] Diwelar, U. Optimization under Uncertainty: An Overview. SIAG/OPT
Views -and-News, 13,11-8, 2002
[14] Goicoechea, A., Hansen, D.R., Duckstein, L. Multiobjective Decision Analysis with Engineering and Business Applications. John Wiley and Sons, 1982.
[15] Hammer, P.L. Stochastic Programming. State Of The Art, 1998. Annals of
Operations Research, Vol 85, 1999.
[16] Higle, J.L., Sen, S. Stochastic Decomposition. Kluwer Academic Publishers,
1996.
[17] Kall, P. Stochastic Linear Programming. Springer-Verlag, 1976.
[18] Kall, P. Stochastic Programming. European Journal of Operational Research, 10, 125-130, 1982.
[19] Kall, P., Wallace, S.W. Stochastic Programming. John Wiley, 1994.
[20] Kataoka, S. A Stochastic Programming Model. Econometrica, 31, 1-2,
186-196, 1963.
[21] Kibzun, A.I., Kan, I.S. Stochastic Programming Problems with Probability
and Quantile Functions. John Wiley, 1996.
[22] Markowitz, H. Portfolio Selection. The Journal of Finance, 7, 77-91, 1952.
[23] Markowitz, H. Portfolio Selection: Ecient Diversication of Investment.
Cowles Commission Monograph 16, John Wiley and Sons, 1959.
Rect@

Monogr
aco 2 (2004)

E. Cerd
a, J. Moreno

21

[24] Markowitz, H. Mean Variance Analysis in Portfolio Choice and Capital Markets. Blackwell, 1987.
[25] Marti K. (ed). Stochastic Optimization. Numerical Methods and Technical
Applications. Lecture Notes in Economics and Mathematical Systems 379.
Springer-Verlag, 1992.
[26] Medova, E. Chance Constrained Stochastic Programming for Integrated
Services Network Management. Annals of Operations Research, 81,213229,1998.
[27] Mu
noz M.M. Programaci
on Estoc
astica: Algunas Aportaciones Te
oricas
y Computacionales. Tesis Doctoral. Universidad Complutense de Madrid,
1998.
[28] Prawda, J. Metodos y Modelos de Investigaci
on de Operaciones. Vol. 2. Modelos Estocasticos. Ed. Limusa, 1980.
[29] Prekopa, A. Stochastic Programming. Kluwer Academic Publishers, 1995.
[30] Ros Insua, S. Investigaci
on Operativa. Optimizaci
on. Editorial Centro de
Estudios Ram
on Areces, S.A. Segunda Edici
on, 1993.
[31] Ruszczynski, A., Shapiro, A. (ed). Stochastic Programming. Handbooks in
Operations Research and Management Science, Vol 10. Norh-Holland, 2003.
[32] Sen, S., Higle, J.L. An Introductory Tutorial on Stochastic Linear Programming Models. Interfaces, 29:2, 33-61, 1999.
[33] Stancu-Minasian, I.M. Stochastic Programming with Multiple Objective
Functions. D. Reidel Publishing Company, 1984.
[34] Stancu-Minasian, I.M., Wets, M.J. A Research Bibliography in Stochastic
Programming 1955-1975. Operations Research, 24, 1078-1119, 1976.
[35] Vajda, S. Probabilistic Programming. Academic Press, 1972.
[36] Wets, R.J.B. Stochastic Programming. En NEmhauser, G.L., Rinnooy
Kan, A.H.G., Todd, M.J. (ed). Optimization. Vol. 1 North-Holland, 1989.

Rect@

Monogr
aco 2 (2004)

También podría gustarte