Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Introducción
breve revisión de los últimos avances en esta temática y finalmente se muestran caminos que
enmarcan propuestas de investigación futura. Los modelos de optimización a los que se hace
estructura general:
las funciones sean lineales el problema será del tipo PEML (programación entera mixta lineal), y
para el caso no-lineal el problema será por tanto del tipo PEMNL.
construyó la Fig.1 donde se puede apreciar el impacto que tienen el número de variables y
1
del problema de optimización a resolver. Debe recordarse que un problema con función objetivo y
restricciones lineales es considerado convexo, y la convexidad asegura que la solución óptima que se
encuentre de este problema (en caso de que tenga solución factible) siempre es un óptimo global (no
Tiempos de Herramientas de
computación altos software ineficientes
Modelo no lineal
Problema con deterministico ó
muchas variables y estocástico
muchas restricciones convexo
Modelo lineal
deterministico
ó estocástico Modelo no lineal
Problema con deterministico
pocas variables y no-convexo
pocas restricciones
Modelo no lineal
estocástico no-
convexo
En general No se consideran
problemas de “Gran Escala”
En las Figs. 2a y 2b puede verse el concepto geométrico de convexidad, donde se verifica que los
puntos de la recta que une cualesquiera dos puntos de la región F también pertenecen a la región.
Puntos dentro de la
región factible F Puntos fuera de la
región factible F
F a F b c
F
Figura 2. Ejemplos en el plano de región de soluciones convexa (a y b) y no-convexa (c).
2
No ocurre lo mismo en la figura 2c que se considera por tanto región no-convexa y en donde se
observa la existencia de dos picos que bien podrían ser dos máximos locales para algún problema de
Puede decirse que gracias principalmente a la convexidad, la solución de problemas de PEML, viene
a ser actualmente algo de relativa sencillez dada la eficiencia de los algoritmos actuales como el
Simplex [Bazaraa et al., cap.3], el Algoritmo Primal-Dual de Punto Interior [Bazaraa et al., cap.8 y
Gondzio et al. 2001], el conocido como “Branch and Bound” [Taha, pp. 362-370], y algunos otros
tamaño del modelo. Se tiene el conocimiento de problemas reales de millones de restricciones [Da
Silva et al, p.3] donde la memoria RAM de los computadores resulta ser escasa produciendo tiempos
De otro lado, los métodos para resolver problemas de PEMNL garantizan encontrar el óptimo para
problemas convexos, pero no para los casos de no-convexidad, aspecto que esta actualmente en
pleno desarrollo investigativo [Ver Björkqvist et al 1999 y Grossman 2001]. Por lo anterior, y
observando la Fig. 1, se puede decir que un modelo de optimización es de gran escala si por razones
asociadas a no-linealidades y/o no-convexidad y/o aspectos aleatorios y/o gran cantidad de variables
y restricciones, las herramientas de software y hardware actuales son insuficientes para resolver el
problema en los tiempos y condiciones requeridos por el usuario de los resultados del modelo,
2. Breve reseña acerca del tratamiento actual a problemas de optimización de gran escala.
Muchos problemas reales se han definido como de gran escala, entre ellos el de programación de
3
minimizar los costos de producción e inventarios. Existen diversos factores complicantes de este
problema y uno de ellos son las denominadas disyunciones, donde se tienen dos corridas de
común [Björkqvist et al., p.2]. La corrida A debe preceder a la B, ó viceversa. Si bien es cierto que
para el caso de dos corridas es posible resolver el problema con cierta sencillez, este problema tiene
una complejidad combinatoria que aumenta rápidamente con el número de corridas de producción,
haciendo que para un problema real de secuenciación relativamente pequeño el óptimo global no se
pueda conseguir en un tiempo razonable, siendo éste un problema duro de resolver ó NP-completo,
Problemas complejos hay de diverso tipo y muchos de los cuales son asociados a PEMNL. Hoy en
día la PEMNL ha sido usada en diversas aplicaciones reales, incluyendo la modelación de procesos
optimización de portafolios financieros, y otros muchos casos que fueron por fortuna adecuadamente
agrupados en una publicación del año 2002 de Grossman y Sahinidis1, citada en Bussieck et al.
[2003]. Todas estas diversas áreas de aplicación real han motivado la investigación y el desarrollo
en la tecnología para solucionar estos complejos modelos, estudios que se han centrado en el manejo
de la “gran escala”, problemas altamente no-lineales y altamente combinatorios [Bussieck et al., p.1].
Se hará en esta sección una muy breve relación de los algoritmos existentes para el tratamiento de
estos algoritmos son útiles también para casos de PEML de gran escala, como es de suponerse.
1
Se trata de la siguiente publicación: Grossman, I., y Sahinidis, N. Special Issue on Mixed-Integer Programming and
it’s Applications to Engineering, Part I and II. Kluwer Academic Publishers, Netherland. 2002.
4
Existen diversas herramientas computacionales basadas en estos métodos, y se pueden mencionar
actualmente para solucionar modelos complejos de gran escala es GAMS (General Algebraic
Modeling System)3, y todos estos lenguajes permiten abordar problemas de optimización lineales y
Propuesto por Liu et al. [2001], forma parte de los nuevos desarrollos en el campo de la
{Min f(x) ; Sujeto a: h(x) = 0}, donde f(x) y h(x) son funciones dos veces diferenciables y pueden
ser no-convexas. Es un método de búsqueda lineal que, a través de ciertas transformaciones basadas
en el algoritmo primal-dual de punto interior, logra descomponer este problema en una secuencia de
2
Puede ingresarse a la página del Computer-Aided Systems Laboratory de Princeton: titan.princeton.edu/hard
3
En la página www.gams.com/solvers hay una gran variedad de solucionadores para casi todo tipo de problemas.
4
El gradiente está formado por las primeras derivadas parciales.
5
que corresponde a una dirección de mejoramiento de x, y B es la matriz Hessiana5 de f evaluada en
x’ que se asume positiva definida (que hace que la función objetivo del problema sea estrictamente
nuevo valor para x, haciendo x = x’ + αd., con α (0;1). Este valor de x se reemplaza de nuevo en
el problema cuadrático para así hallar una nueva dirección de mejoramiento y continuar el proceso
hasta verificar cierta condición de convergencia hacia el óptimo global. Esta metodología se
Esta es la técnica conocida como Outer-Aproximation (ó simplemente como OA) divulgada en 1986
Problema original
Entero mixto, no lineal, convexo
Minimizar Z = f(x,y)
Sujeta a: gj(x,y) ≤ 0 j J
x X, y Y Si │ZS-ZI│≤ ξ
Se fija y, en entonces se ha
un valor y’ encontrado en
tal que óptimo (x*,y*) con la
y’ Y tolerancia ξ
Minimizar ZI = α
Sujeto a:
Minimizar ZS = f(x,y’) (x’, y’)
x x'
Sujeta a: gj(x,y’) ≤ 0 j J α ≥ f(x’, y’) + f(x’, y’)
y y '
x X k K
y’ x x'
gj(x’, y’) + gj(x’, y’) ≤ 0 j J
Sub-problema y y '
relajado, convexo, x X, y Y
No-lineal en x
Problema Maestro
lineal, entero – mixto.
Figura 3. Algoritmo OA
5
La Hessiana está formada por las segundas derivadas parciales.
6
El algoritmo propone resolver el problema P antes comentado a través de un proceso iterativo de
subproblema y ZI un límite inferior para Z representado en el problema maestro. Estos dos límites se
aproximan exteriormente hacia el óptimo (de ahí el nombre de OA), hasta que la diferencia entre
ellos esté dentro de cierta tolerancia ξ. Puede observarse que si se asumen K iteraciones del
procedimiento, el Problema Maestro acumula todas las restricciones lineales (planos de corte) que se
van generando con cada iteración (ó con cada punto (x’,y’) arrojado por el Sub-problema).
Obsérvese en la figura 4 que este método inicia sobre-estimando la región factible y la va cercando
Esta herramienta cada vez de mayor empleo para resolver problemas complejos de gran escala, tiene
tema de Dualidad ver: Bazaraa et al., pp. 287-307]. Fué propuesta en 1962 por J.F.Benders y
mejorada por Goeffrion en 1972 y 19906. Hemos visto que los software actuales que enfrentan
problemas de PEMNL están equipados tanto con el algoritmo de Duran-Grossman como con la
técnica de DB, generalizando esta última para programación cuadrática, bilineal y no-convexa.
6
Se tiene la referencia pero no el documento completo: Goeffrion, A. Generalizad Benders Decomposition. Journal of
Optimization Theory and Applications. Vol 10. No.4. 1990. USA.
7
Hasta el momento, la DB se ha aplicado a proyectos reales de gran escala en áreas de planificación
estocástica (ver revisión bibliográfica con las aplicaciones) con bastante éxito. La idea general de la
técnica es similar al del algoritmo OA antes comentado, con la diferencia de que aquí se trabaja
totalmente con el concepto de dualidad (el Subproblema resulta de un análisis completo de dualidad),
y además que si al solucionar el Problema Maestro se obtiene que la variable de holgura asociada a
alguna de las restricciones es mayor que cero, entonces dicha restricción es eliminada para la
siguiente iteración. Por ello las desigualdades del Problema Maestro vienen a ser hiperplanos de
corte en lugar de semiespacios. Dado que la demostración algebraica completa de esta herramienta
muestra la demostración realizada por el autor para el caso de problemas de PEML que se asumen de
gran escala. Es interesante resaltar que para realizar esta demostración se requirió de los principios
vectores. Denótese además a f (y) como una función arbitraria y a Y un conjunto arbitrario.
Tomando a y como las variables complicantes del problema, y fijando estas variables en un valor
8
Se observa que la región factible del problema de optimización interior en {·} cambia para valores
dados de y. Esto es un inconveniente que puede resolverse al encontrar la región factible dual
equivalente.
Denotando por w el multiplicador dual asociado a las restricciones Ax = b - By, podemos construir
región factible de este problema es fija y no depende de y, lo que permitiría, para cualquier valor
dado de y, resolver el problema en {·} considerando los puntos asociados a un mismo poliedro.
Considérese a W como la región factible dual del problema de optimización en {·}, de tal manera
que W = [w no restringida / wA ≤ c]
Por los principios básicos de programación lineal, el objetivo máximo del problema de optimización
en {·} se logra en uno de los vértices ó puntos extremos de la región factible dual W, siempre y
cuando exista una solución finita ó acotada. En caso de existir una solución no-acotada, la condición
puede representar como una combinación convexa de los puntos extremos wj de W más una
t L t
w= j 1
wjλj + diμi
i 1
con:
j 1
λj =1 y μi ≥ 0.
9
Remplazando w en la función objetivo del problema en {·} se tiene:
t L
Maximizar [ wjλj + diμi] (b - By)
j 1 i 1
t L
Maximizar j 1
[wj (b - By)] λj + [di (b - By)] μi
i 1
t
Sujeta a: j 1
λj =1 y μi ≥ 0.
Si [di (b - By)] > 0 para alguna dirección extrema di, dado que se está maximizando, μi tendería a
Si [di (b - By)] ≤ 0, para todas las direcciones extremas di, dado que se está maximizando, μi
sería igual a cero (μi = 0) y existiría para el problema una solución acotada finita.
Haciendo z = {f(y) + Máximo [wj (b - By)] j = 1,.....,t} el problema G*’ se puede rescribir de la
siguiente forma:
Minimizar z
Programa Maestro
Generalizado de
Sujeta a: z ≥ f(y) + [wj (b - By)] j = 1,.....,t
Benders (PMGB)
[di (b - By)] ≤ 0 i = 1,.....,L
y Y
El PMGB es un problema con incontables restricciones por la dificultad de conocer explícitamente
Para resolver el PMGB se inicia con un programa maestro relajado. Iniciando con un punto
10
Minimizar z Programa Maestro
Relajado Inicial
Sujeta a: z ≥ f(y) + [w1 (b - By)] (PMRGB)
y Y
.
Obsérvese que si y es una variable entera, el PMRGB es un problema de programación entera pura.
Pero z’ es el máximo considerando un solo punto extremo w1. Debido a que se busca el z’ que
represente el máximo considerando todos los puntos extremos desde j =1,.....,t, y sabiendo que el
objetivo máximo de un programa lineal se logra en uno de los vértices ó puntos extremos de la
Si el problema θ(y’) tiene solución finita acotada, dando por resultado a w2 y una función
Si z’-f(y’) ≥ w2 (b – By’) quiere decir que el proceso a terminado y se tiene la solución para
el problema completo, siendo los valores óptimos: z’, y’, w1, despejándose x’ del siguiente
Si z’-f(y’) < w2 (b – By’) quiere decir que se debe agregar al PMRGB la siguiente
11
Si el problema θ(y’) presenta una solución No-acotada, quiere decir que se ha encontrado una
acotamiento.
Minimizar z
Programa Maestro
Sujeta a: z ≥ f(y) + [w1 (b - By)] Relajado:
Primera Iteración
[d1 (b - By)] ≤ 0
con θ (y’) No-acotado.
y Y
Dado lo anterior, la figura 6 resume la operatividad general del algoritmo.
Minimizar cx + f(y)
Sujeta a: Ax + By = b Si │Ractual – Ranterior│ = δ
x≥0 Entonces se detiene el
y Y proceso y el óptimo es
PEML y, x, despejando esta
última de Ax = b - By
Se escoge
cualquier punto
y’ Y
PL - ENTERO
PL - CONTINUO
y’
Minimizar R = f(y) + Z
θ (y’) = Max w (b – By’) Sujeta a:
Sujeta a: wA ≤ c Z ≥ [wj (b - By)] j = 1,..,t
[di (b - By)] ≤ 0 i = 1,..,L
y Y
Si
¿factible?
Z ≥ [wj (b - By)] [di (b - By)] ≤ 0
No Acotado
3. Futuras Investigaciones
A pesar de los grandes avances que hasta el momento se han logrado en la solución de problemas de
optimización de gran escala (PEML y PEMNL), existen dos grandes áreas promisorias en cuanto a
12
Optimización a través de Programación por Restricciones (Logic-Based Optimization). La
Optimización Global, que trata modelos de alta complejidad no-convexos, no lineales, estocásticos,
etc., ha sido fuertemente abordada en los últimos 5 a 10 años por diferentes investigadores
considera una autoridad en el análisis de sistemas complejos y ha escrito dos libros muy
otro Deterministic Global Optimization publicado en el año 2000. En el libro de 1995, propone
convexidades en los modelos no lineales, y propuso una metodología especial para atacar modelos
bilineales [Gourdin et al., 1997]. Estas recomendaciones de Floudas fueron aplicadas en modelos
reales de gran escala con bastante éxito [Cai et al., 2001]. Otro profesor destacado en el tema es
Ignacio E. Grossman del Carnegie Mellon University (tutor de la tesis doctoral de Floudas) quien en
problemas de PEMNL convexos y no convexos. Por su parte John Hooker, quien trabajó con el
restricciones y ha estudiado la unión de esta área con la optimización. En Hooker [2000] propone
restricciones disjuntivas (o una ó la otra) a través de una nueva forma de modelación. Hooker
propone una descomposición de benders basada en modelación lógica, lo cual es bastante novedoso
y ya empieza a aplicarse. En general muchos investigadores están apoyando los avances hacia la
de Grecia 20037 donde se expusieron nuevas herramientas, complementarias con las aquí
comentadas y que se enfocaron en el análisis de diversas situaciones reales complejas que incluyen el
7
Se trata de: 4th International Conference on Frontiers on Global Optimization, cuyo programa puede consultarse en:
http://www.aegeanconferences.org/GlobalOptimization/goprogram.pdf.
13
área financiera, producción y logística (como ejemplo, el resumen de la conferencia que se dictó en
doctoral estará por muchos años en plena vigencia el estudio de problemas de optimización
estocástica de gran escala tanto lineal como no lineal. El estudio de la aleatoriedad, el riesgo, la
estático, y la vía para abordarlo serán sin duda metodologías robustas dada su alta complejidad y
principalmente con estrategias de optimización global vía descomposición ó con heurísticas ó por
[1999] de Particiones Anidadas (Nested Partitions) para problemas grandes con función objetivo
estocástica.
BAZARAA, M., Jarvis, J., y Sherali, H. Programación lineal y flujo de redes. 2ª.Edición. Noriega
Editores. 1999.
BJÖRKQVIST, J., Roslöf, J., y Söderman, J. Mathematical Programming Methods for Industrial
CAI, X., Daene, M., Lasdon, L., y Watkins, D. Solving large nonconvex water resources
management models using generalized benders decomposition. Operations Research. Vol. 49, No. 2.
DA SILVA, A., y Gossein, V. Large Scale Optimization Applications. ILOG Asia. 2000.
14
FREUND, R. Benders’ decomposition for structured optimization including stochastic optimization.
Suiza. 2001.
algorithm for solving bilinear and quadratic programming problems. Abstract. International
LIU, X., y Sun J. A robust primal-dual interior point algorithm for nonlinear programs.
Singapur. 2001.
benders. Pontificia Universidad Católica de Chile. Departamento de Ingeniería Eléctrica. Tesis 1995.
15