Está en la página 1de 15

SOLUCIÓN DE PROBLEMAS DE OPTIMIZACIÓN LINEAL, ENTEROS MIXTOS

Y NO LINEALES DE GRAN ESCALA

Juan José Bravo Bastidas, M.Sc.

Trabajo presentado a la Escuela de Ingeniería Industrial y Estadística de la Universidad del Valle

dentro del proceso de Convocatoria Docente

Introducción

En este artículo se presenta un bosquejo de lo que actualmente se conoce como Optimización de

Gran Escala (Large-Scale Optimization) haciendo énfasis en los métodos de solución, y

especialmente en aquellos métodos orientados hacia estrategias de descomposición. Se hace una

breve revisión de los últimos avances en esta temática y finalmente se muestran caminos que

enmarcan propuestas de investigación futura. Los modelos de optimización a los que se hace

referencia tienen la estructura clásica de modelos de programación matemática con la siguiente

estructura general:

Minimizar Z = f(x,y) Donde f(x,y) y g(x,y) son funciones lineales ó no-lineales y x e y

Sujeta a: gj(x,y) ≤ 0 j  J variables de decisión, donde y requiere tomar valores enteros, y X,


x  X,
Y determinan los límites asociados a los valores de x e y. A éste se
y  Y, Entero
le llamará el problema P. Se considerará que en caso de que todas

las funciones sean lineales el problema será del tipo PEML (programación entera mixta lineal), y

para el caso no-lineal el problema será por tanto del tipo PEMNL.

1. ¿A que se llama “Gran Escala”?

Se iniciará aclarando el significado de lo que es un “problema de gran escala”. Para ello se

construyó la Fig.1 donde se puede apreciar el impacto que tienen el número de variables y

restricciones así como los aspectos de no-linealidad, no-convexidad y estocasticidad en la dimensión

1
del problema de optimización a resolver. Debe recordarse que un problema con función objetivo y

restricciones lineales es considerado convexo, y la convexidad asegura que la solución óptima que se

encuentre de este problema (en caso de que tenga solución factible) siempre es un óptimo global (no

hay óptimos locales).

Optimización de Gran Escala

Tiempos de Herramientas de
computación altos software ineficientes

Modelo no lineal
Problema con deterministico ó
muchas variables y estocástico
muchas restricciones convexo
Modelo lineal
deterministico
ó estocástico Modelo no lineal
Problema con deterministico
pocas variables y no-convexo
pocas restricciones

Modelo no lineal
estocástico no-
convexo

En general No se consideran
problemas de “Gran Escala”

Figura 1. Tipos de problemas considerados como de Gran Escala.

En las Figs. 2a y 2b puede verse el concepto geométrico de convexidad, donde se verifica que los

puntos de la recta que une cualesquiera dos puntos de la región F también pertenecen a la región.

Puntos dentro de la
región factible F Puntos fuera de la
región factible F
F a F b c
F
Figura 2. Ejemplos en el plano de región de soluciones convexa (a y b) y no-convexa (c).

2
No ocurre lo mismo en la figura 2c que se considera por tanto región no-convexa y en donde se

observa la existencia de dos picos que bien podrían ser dos máximos locales para algún problema de

maximización, ambos compitiendo por ser máximos globales.

Puede decirse que gracias principalmente a la convexidad, la solución de problemas de PEML, viene

a ser actualmente algo de relativa sencillez dada la eficiencia de los algoritmos actuales como el

Simplex [Bazaraa et al., cap.3], el Algoritmo Primal-Dual de Punto Interior [Bazaraa et al., cap.8 y

Gondzio et al. 2001], el conocido como “Branch and Bound” [Taha, pp. 362-370], y algunos otros

refinamientos realizados a estas técnicas. Sin embargo, a pesar de la sencillez inherente a la

solución de un modelo lineal existen en aplicaciones reales inconvenientes relacionados con el

tamaño del modelo. Se tiene el conocimiento de problemas reales de millones de restricciones [Da

Silva et al, p.3] donde la memoria RAM de los computadores resulta ser escasa produciendo tiempos

computacionales prohibitivamente largos para el usuario del modelo.

De otro lado, los métodos para resolver problemas de PEMNL garantizan encontrar el óptimo para

problemas convexos, pero no para los casos de no-convexidad, aspecto que esta actualmente en

pleno desarrollo investigativo [Ver Björkqvist et al 1999 y Grossman 2001]. Por lo anterior, y

observando la Fig. 1, se puede decir que un modelo de optimización es de gran escala si por razones

asociadas a no-linealidades y/o no-convexidad y/o aspectos aleatorios y/o gran cantidad de variables

y restricciones, las herramientas de software y hardware actuales son insuficientes para resolver el

problema en los tiempos y condiciones requeridos por el usuario de los resultados del modelo,

requiriéndose en estos casos transformar el modelo en uno mas tratable computacionalmente.

2. Breve reseña acerca del tratamiento actual a problemas de optimización de gran escala.

Muchos problemas reales se han definido como de gran escala, entre ellos el de programación de

producción (scheduling) donde el problema incluye asignación de corridas de producción para

3
minimizar los costos de producción e inventarios. Existen diversos factores complicantes de este

problema y uno de ellos son las denominadas disyunciones, donde se tienen dos corridas de

producción diferentes A y B que deben procesarse en la misma maquina en un espacio de tiempo

común [Björkqvist et al., p.2]. La corrida A debe preceder a la B, ó viceversa. Si bien es cierto que

para el caso de dos corridas es posible resolver el problema con cierta sencillez, este problema tiene

una complejidad combinatoria que aumenta rápidamente con el número de corridas de producción,

haciendo que para un problema real de secuenciación relativamente pequeño el óptimo global no se

pueda conseguir en un tiempo razonable, siendo éste un problema duro de resolver ó NP-completo,

con algoritmos de solución de tiempo exponencial y no polinomial [Björkqvist et al., p.2].

Problemas complejos hay de diverso tipo y muchos de los cuales son asociados a PEMNL. Hoy en

día la PEMNL ha sido usada en diversas aplicaciones reales, incluyendo la modelación de procesos

industriales de flujos de procesos, redes de transmisión de agua, problemas de generación eléctrica,

optimización de portafolios financieros, y otros muchos casos que fueron por fortuna adecuadamente

agrupados en una publicación del año 2002 de Grossman y Sahinidis1, citada en Bussieck et al.

[2003]. Todas estas diversas áreas de aplicación real han motivado la investigación y el desarrollo

en la tecnología para solucionar estos complejos modelos, estudios que se han centrado en el manejo

de la “gran escala”, problemas altamente no-lineales y altamente combinatorios [Bussieck et al., p.1].

Se hará en esta sección una muy breve relación de los algoritmos existentes para el tratamiento de

problemas PEMNL de gran escala, profundizando en estrategias de descomposición y

particularmente en la Descomposición de Benders como herramienta principal. Es de aclarar que

estos algoritmos son útiles también para casos de PEML de gran escala, como es de suponerse.

1
Se trata de la siguiente publicación: Grossman, I., y Sahinidis, N. Special Issue on Mixed-Integer Programming and
it’s Applications to Engineering, Part I and II. Kluwer Academic Publishers, Netherland. 2002.

4
Existen diversas herramientas computacionales basadas en estos métodos, y se pueden mencionar

solucionadores como el DICOPT/GAMS [Viswanathan-Grossman, Carnegie Mellon University] y el

software MINOPT [Shweiger-Floudas, Universidad de Princeton]2. La plataforma más empleada

actualmente para solucionar modelos complejos de gran escala es GAMS (General Algebraic

Modeling System)3, y todos estos lenguajes permiten abordar problemas de optimización lineales y

no-lineales enteros-mixtos, convexos y no-convexos, así como problemas dinámicos y simulación.

Como ilustración puede mencionarse que MINOPT lo conforman tres algoritmos: a)

Descomposición Generalizada de Benders, Algoritmo de Duran-Grossman, y Descomposición

Cruzada Generalizada (es decir, Descomposición de Benders y Relajación Lagrangiana). Sus

aplicaciones se centran en optimización de portafolios financieros, scheduling, planificación a gran

escala, localización, análisis de cadenas de suministros y diseño de procesos.

2.1. Método de descomposición primal-dual de Punto Interior

Propuesto por Liu et al. [2001], forma parte de los nuevos desarrollos en el campo de la

descomposición de modelos. El método aborda problemas especialmente no-lineales de la forma:

{Min f(x) ; Sujeto a: h(x) = 0}, donde f(x) y h(x) son funciones dos veces diferenciables y pueden

ser no-convexas. Es un método de búsqueda lineal que, a través de ciertas transformaciones basadas

en el algoritmo primal-dual de punto interior, logra descomponer este problema en una secuencia de

problemas cuadráticos de la forma:

Donde x’ puede ser un punto inicial pre-definido de


Min [  f(x’)Td + ½ dTBd]
arranque,  f(x’) y  h(x’) son los gradientes4 de f y h
Sujeto a: h(x’) +  h(x’) d = 0
T

evaluados en x’, d es la variable del problema cuadrático

2
Puede ingresarse a la página del Computer-Aided Systems Laboratory de Princeton: titan.princeton.edu/hard
3
En la página www.gams.com/solvers hay una gran variedad de solucionadores para casi todo tipo de problemas.
4
El gradiente está formado por las primeras derivadas parciales.

5
que corresponde a una dirección de mejoramiento de x, y B es la matriz Hessiana5 de f evaluada en

x’ que se asume positiva definida (que hace que la función objetivo del problema sea estrictamente

convexa) [Taha 1995, pp.891-892]. Al encontrar la dirección d en el problema anterior, se calcula un

nuevo valor para x, haciendo x = x’ + αd., con α  (0;1). Este valor de x se reemplaza de nuevo en

el problema cuadrático para así hallar una nueva dirección de mejoramiento y continuar el proceso

hasta verificar cierta condición de convergencia hacia el óptimo global. Esta metodología se

encuentra en desarrollo y pruebas, y parece bastante promisoria.

2.2. Algoritmo de Aproximación Exterior de Duran-Grossman

Esta es la técnica conocida como Outer-Aproximation (ó simplemente como OA) divulgada en 1986

y actualmente utilizada en los softwares comerciales para la solución de problemas complejos de

gran escala de PEMNL [Ver Grossman 2001].

Problema original
Entero mixto, no lineal, convexo

Minimizar Z = f(x,y)
Sujeta a: gj(x,y) ≤ 0 j J
x  X, y  Y Si │ZS-ZI│≤ ξ
Se fija y, en entonces se ha
un valor y’ encontrado en
tal que óptimo (x*,y*) con la
y’  Y tolerancia ξ

Minimizar ZI = α
Sujeto a:
Minimizar ZS = f(x,y’) (x’, y’)
 x  x' 
Sujeta a: gj(x,y’) ≤ 0 j J α ≥ f(x’, y’) + f(x’, y’)  
 y  y '
x X k K
y’  x  x' 
gj(x’, y’) +  gj(x’, y’)   ≤ 0 j J
Sub-problema  y  y '
relajado, convexo, x  X, y  Y
No-lineal en x
Problema Maestro
lineal, entero – mixto.
Figura 3. Algoritmo OA

5
La Hessiana está formada por las segundas derivadas parciales.

6
El algoritmo propone resolver el problema P antes comentado a través de un proceso iterativo de

intercambio de información entre un Problema Maestro y un Sub-problema. En la figura 3 se

muestra el funcionamiento del algoritmo, donde ZS es un límite superior para Z representado en el

subproblema y ZI un límite inferior para Z representado en el problema maestro. Estos dos límites se

aproximan exteriormente hacia el óptimo (de ahí el nombre de OA), hasta que la diferencia entre

ellos esté dentro de cierta tolerancia ξ. Puede observarse que si se asumen K iteraciones del

procedimiento, el Problema Maestro acumula todas las restricciones lineales (planos de corte) que se

van generando con cada iteración (ó con cada punto (x’,y’) arrojado por el Sub-problema).

Obsérvese en la figura 4 que este método inicia sobre-estimando la región factible y la va cercando

con planos de corte lineales.

Figura 4. Aproximación exterior hacia el


óptimo global en el algoritmo de Durán-
Grossman. [Grossman, 2001, p.4]

2.3. Descomposición de Benders (DB)

Esta herramienta cada vez de mayor empleo para resolver problemas complejos de gran escala, tiene

sus bases en la teoría de la dualidad y específicamente en la propiedad de dualidad fuerte [Para el

tema de Dualidad ver: Bazaraa et al., pp. 287-307]. Fué propuesta en 1962 por J.F.Benders y

mejorada por Goeffrion en 1972 y 19906. Hemos visto que los software actuales que enfrentan

problemas de PEMNL están equipados tanto con el algoritmo de Duran-Grossman como con la

técnica de DB, generalizando esta última para programación cuadrática, bilineal y no-convexa.

6
Se tiene la referencia pero no el documento completo: Goeffrion, A. Generalizad Benders Decomposition. Journal of
Optimization Theory and Applications. Vol 10. No.4. 1990. USA.

7
Hasta el momento, la DB se ha aplicado a proyectos reales de gran escala en áreas de planificación

de inversiones, planificación multisectorial, planificación multi-periodo (dinámica) y programación

estocástica (ver revisión bibliográfica con las aplicaciones) con bastante éxito. La idea general de la

técnica es similar al del algoritmo OA antes comentado, con la diferencia de que aquí se trabaja

totalmente con el concepto de dualidad (el Subproblema resulta de un análisis completo de dualidad),

y además que si al solucionar el Problema Maestro se obtiene que la variable de holgura asociada a

alguna de las restricciones es mayor que cero, entonces dicha restricción es eliminada para la

siguiente iteración. Por ello las desigualdades del Problema Maestro vienen a ser hiperplanos de

corte en lugar de semiespacios. Dado que la demostración algebraica completa de esta herramienta

no se encuentra en la literatura (solo se encuentran demostraciones incompletas que obvian

explicaciones que permitirían apoyar la comprensión global de la dualidad), a continuación se

muestra la demostración realizada por el autor para el caso de problemas de PEML que se asumen de

gran escala. Es interesante resaltar que para realizar esta demostración se requirió de los principios

básicos de la optimización lineal, el Lema de Farkas, de las condiciones de optimalidad de Karush-

Kuhn-Tucker, y el afianzamiento del concepto de dualidad y optimalidad en conjuntos convexos, lo

cual abarca una gama importante de fundamentos de la PL.

Sea y un conjunto de variables continuas ó enteras ó entera-binarias, y sean también c, b y x

vectores. Denótese además a f (y) como una función arbitraria y a Y un conjunto arbitrario.

Considérese entonces el siguiente problema:

{Minimizar cx + f(y) Sujeta a: Ax + By = b; x ≥ 0 ; y  Y}

Tomando a y como las variables complicantes del problema, y fijando estas variables en un valor

específico, se puede rescribir este problema de la siguiente forma:

G: Minimizar f(y) + Minimizar cx


y Y Sujeta a: Ax = b - By
x≥0

8
Se observa que la región factible del problema de optimización interior en {·} cambia para valores
dados de y. Esto es un inconveniente que puede resolverse al encontrar la región factible dual
equivalente.
Denotando por w el multiplicador dual asociado a las restricciones Ax = b - By, podemos construir

el Dual del problema de optimización interior en {·} de la siguiente forma:

Minimizar cx Dual Maximizar w (b - By)


Sujeta a: Ax = b - By Sujeta a: wA ≤ c
x≥0 w no restringida
Haciendo este cambio en el problema G anterior queda el siguiente problema G*.

G*: Minimizar f(y) + Maximizar w (b - By)


y Y Sujeta a: wA ≤ c
w no restringida
Se considerará ahora en G* el nuevo problema de optimización interior en {·}. Se observa que la

región factible de este problema es fija y no depende de y, lo que permitiría, para cualquier valor

dado de y, resolver el problema en {·} considerando los puntos asociados a un mismo poliedro.

Considérese a W como la región factible dual del problema de optimización en {·}, de tal manera

que W = [w no restringida / wA ≤ c]

Por los principios básicos de programación lineal, el objetivo máximo del problema de optimización

en {·} se logra en uno de los vértices ó puntos extremos de la región factible dual W, siempre y

cuando exista una solución finita ó acotada. En caso de existir una solución no-acotada, la condición

de no acotamiento de la solución se puede verificar considerando que cualquier punto w  W se

puede representar como una combinación convexa de los puntos extremos wj de W más una

combinación lineal de las direcciones extremas di:

t L t
w= j 1
wjλj +  diμi
i 1
con: 
j 1
λj =1 y μi ≥ 0.

Aquí se asumen conocidos los t puntos extremos y las L direcciones extremas de W.

9
Remplazando w en la función objetivo del problema en {·} se tiene:

t L
Maximizar [  wjλj +  diμi] (b - By)
j 1 i 1

t L
Maximizar j 1
[wj (b - By)] λj +  [di (b - By)] μi
i 1

t
Sujeta a: j 1
λj =1 y μi ≥ 0.

Se puede observar que:

 Si [di (b - By)] > 0 para alguna dirección extrema di, dado que se está maximizando, μi tendería a

infinito (μ → ∞) y la solución del problema sería no acotada tendiente a infinito.

 Si [di (b - By)] ≤ 0, para todas las direcciones extremas di, dado que se está maximizando, μi

sería igual a cero (μi = 0) y existiría para el problema una solución acotada finita.

Con el análisis previo se modificará el problema G* convirtiéndolo en el nuevo problema G*’:

G*’: Minimizar f(y) + Máximo {[wj (b - By)] j = 1,.....,t}


y Y Sujeto a: { [di (b - By)] ≤ 0 i = 1,.....,L}

Haciendo z = {f(y) + Máximo [wj (b - By)] j = 1,.....,t} el problema G*’ se puede rescribir de la

siguiente forma:

Minimizar z
Programa Maestro
Generalizado de
Sujeta a: z ≥ f(y) + [wj (b - By)] j = 1,.....,t
Benders (PMGB)
[di (b - By)] ≤ 0 i = 1,.....,L
y Y
El PMGB es un problema con incontables restricciones por la dificultad de conocer explícitamente

los puntos extremos wj y las direcciones extremas di de W.

Para resolver el PMGB se inicia con un programa maestro relajado. Iniciando con un punto

extremo w1 de W, se obtiene el siguiente problema:

10
Minimizar z Programa Maestro
Relajado Inicial
Sujeta a: z ≥ f(y) + [w1 (b - By)] (PMRGB)
y Y
.

Obsérvese que si y es una variable entera, el PMRGB es un problema de programación entera pura.

Al resolver el PMRGB se obtiene una solución y’ , z’.

Pero z’ es el máximo considerando un solo punto extremo w1. Debido a que se busca el z’ que

represente el máximo considerando todos los puntos extremos desde j =1,.....,t, y sabiendo que el

objetivo máximo de un programa lineal se logra en uno de los vértices ó puntos extremos de la

región factible, entonces debe evaluarse esta función:

θ (y’) = Max w (b – By’) Subproblema


Generalizado de
Sujeta a: wA ≤ c Benders (SGB)

Se puede observar que el SGB es un problema de PL tradicional.

Al resolver θ(y’) pueden ocurrir dos situaciones:

 Si el problema θ(y’) tiene solución finita acotada, dando por resultado a w2 y una función

objetivo igual a w2 (b – By’) entonces:

 Si z’-f(y’) ≥ w2 (b – By’) quiere decir que el proceso a terminado y se tiene la solución para

el problema completo, siendo los valores óptimos: z’, y’, w1, despejándose x’ del siguiente

sistema de ecuaciones: Ax’ = b – By’

 Si z’-f(y’) < w2 (b – By’) quiere decir que se debe agregar al PMRGB la siguiente

restricción para después reoptimizar: z ≥ f(y) + [w2 (b - By)]

Minimizar z Programa Maestro


Relajado:
Sujeta a: z ≥ f(y) + [w1 (b - By)]
Primera Iteración
z ≥ f(y) + [w2 (b - By)] con θ (y’) acotado.
y Y

11
 Si el problema θ(y’) presenta una solución No-acotada, quiere decir que se ha encontrado una

dirección extrema en W y debe agregarse al PMRGB la siguiente restricción para después

reoptimizar: [d1 (b - By)] ≤ 0, donde d1 es la dirección extrema de W que originó el no-

acotamiento.

Minimizar z
Programa Maestro
Sujeta a: z ≥ f(y) + [w1 (b - By)] Relajado:
Primera Iteración
[d1 (b - By)] ≤ 0
con θ (y’) No-acotado.
y Y
Dado lo anterior, la figura 6 resume la operatividad general del algoritmo.

Minimizar cx + f(y)
Sujeta a: Ax + By = b Si │Ractual – Ranterior│ = δ
x≥0 Entonces se detiene el
y Y proceso y el óptimo es
PEML y, x, despejando esta
última de Ax = b - By
Se escoge
cualquier punto
y’  Y
PL - ENTERO
PL - CONTINUO
y’
Minimizar R = f(y) + Z
θ (y’) = Max w (b – By’) Sujeta a:
Sujeta a: wA ≤ c Z ≥ [wj (b - By)] j = 1,..,t
[di (b - By)] ≤ 0 i = 1,..,L
y Y
Si
¿factible?
Z ≥ [wj (b - By)] [di (b - By)] ≤ 0
No Acotado

Figura 6. Operatividad de la Descomposición de Benders

3. Futuras Investigaciones

A pesar de los grandes avances que hasta el momento se han logrado en la solución de problemas de

optimización de gran escala (PEML y PEMNL), existen dos grandes áreas promisorias en cuanto a

investigación actual y futura: a) El área de Optimización Global (global optimization), y b) el área de

12
Optimización a través de Programación por Restricciones (Logic-Based Optimization). La

Optimización Global, que trata modelos de alta complejidad no-convexos, no lineales, estocásticos,

etc., ha sido fuertemente abordada en los últimos 5 a 10 años por diferentes investigadores

destacándose por ejemplo el profesor Christodoulos Floudas de la Universidad de Princeton, quien se

considera una autoridad en el análisis de sistemas complejos y ha escrito dos libros muy

referenciados, el primero llamado Nonlinear and Mixed-Integer Optimization publicado en 1995, y el

otro Deterministic Global Optimization publicado en el año 2000. En el libro de 1995, propone

mejoras en la implementación de la Descomposición Generalizada de Benders para atacar las no-

convexidades en los modelos no lineales, y propuso una metodología especial para atacar modelos

bilineales [Gourdin et al., 1997]. Estas recomendaciones de Floudas fueron aplicadas en modelos

reales de gran escala con bastante éxito [Cai et al., 2001]. Otro profesor destacado en el tema es

Ignacio E. Grossman del Carnegie Mellon University (tutor de la tesis doctoral de Floudas) quien en

1986 propuso el ya comentado Outer-Aproximation Algorithm ampliamente aplicado para resolver

problemas de PEMNL convexos y no convexos. Por su parte John Hooker, quien trabajó con el

profesor Grossman en 1990, ha desarrollado ampliamente el área de la programación por

restricciones y ha estudiado la unión de esta área con la optimización. En Hooker [2000] propone

una nueva forma de abordar problemas de optimización, la inclusión de variables booleanas,

restricciones disjuntivas (o una ó la otra) a través de una nueva forma de modelación. Hooker

propone una descomposición de benders basada en modelación lógica, lo cual es bastante novedoso

y ya empieza a aplicarse. En general muchos investigadores están apoyando los avances hacia la

solución de problemas grandes y complejos, pudiéndose esto palpar en el congreso de optimización

de Grecia 20037 donde se expusieron nuevas herramientas, complementarias con las aquí

comentadas y que se enfocaron en el análisis de diversas situaciones reales complejas que incluyen el

7
Se trata de: 4th International Conference on Frontiers on Global Optimization, cuyo programa puede consultarse en:
http://www.aegeanconferences.org/GlobalOptimization/goprogram.pdf.

13
área financiera, producción y logística (como ejemplo, el resumen de la conferencia que se dictó en

este congreso titulada Applications of Nonconvex Quadratic Programming muestra diversas

aplicaciones en éstas áreas de la ingeniería).

Pero si la solución de problemas de optimización PEML y PEMNL de gran escala en su concepción

deterministica representa los mayores esfuerzos de investigación actuales, a nivel de investigación

doctoral estará por muchos años en plena vigencia el estudio de problemas de optimización

estocástica de gran escala tanto lineal como no lineal. El estudio de la aleatoriedad, el riesgo, la

incertidumbre, los aspectos dinámicos no ha avanzado tanto como el estudio de lo determinístico y

estático, y la vía para abordarlo serán sin duda metodologías robustas dada su alta complejidad y

principalmente con estrategias de optimización global vía descomposición ó con heurísticas ó por

medio de técnicas de simulación-optimización como lo propone la técnica propuesta por Olafsson

[1999] de Particiones Anidadas (Nested Partitions) para problemas grandes con función objetivo

estocástica.

4. Revisión Bibliográfica Resumida

BAZARAA, M., Jarvis, J., y Sherali, H. Programación lineal y flujo de redes. 2ª.Edición. Noriega

Editores. 1999.

BRAVO, J.J. Descomposición de modelos matemáticos optimizables. Marzo 2003.

BJÖRKQVIST, J., Roslöf, J., y Söderman, J. Mathematical Programming Methods for Industrial

Applications. Åbo Akademi University. Finlandia. 1999.

BUSSIECK, M. y Pruesner,A. Mixed-Integer Nonlinear Programming. GAMS Corporation. 2003.

CAI, X., Daene, M., Lasdon, L., y Watkins, D. Solving large nonconvex water resources

management models using generalized benders decomposition. Operations Research. Vol. 49, No. 2.

pp. 235-245. 2001.

DA SILVA, A., y Gossein, V. Large Scale Optimization Applications. ILOG Asia. 2000.

14
FREUND, R. Benders’ decomposition for structured optimization including stochastic optimization.

Massachusetts Institute of Technology. Mayo 2001.

GONDZIO, J. y Terlaky, T. A computacional view of interior point methods. University of Geneva.

Suiza. 2001.

GOURDIN, E., Hansen, P., y Jaumard, B. A convergent generalized benders decomposition

algorithm for solving bilinear and quadratic programming problems. Abstract. International

Symposium on Mathematical Programming. 1997.

GROSSMAN, I. Review of nonlinear mixed-integer and disjunctive programming techniques for

process systems engineering. Carnegie Mellon University. Pittsburgh. Junio 2001.

HOOKER, J. Logic-Based methods for optimization. Combining optimization and constraint

satisfaction. John Wiley & Sons. 2000.

LIU, X., y Sun J. A robust primal-dual interior point algorithm for nonlinear programs.

Departamento de Ciencias de la Decisión. Alianza Singapur-MIT. Universidad Nacional de

Singapur. 2001.

MURPHI, L., Contreras, J. y Wu, F. A decomposition-coordination approach for large scale

optimization. Universidad de California. Berkeley, CA.

OLAFSSON, S. Iterative ranking-and-selection for large-scale optimization. Preceedings of the

1999 winter simulation conference. INFORMS. USA.

TAHA, H. Investigación de Operaciones. 5a Edición. Grupo Editor Alfaomega.

URRUTIA, Juan P. Planificación de la expansión de sistemas eléctricos vía descomposición de

benders. Pontificia Universidad Católica de Chile. Departamento de Ingeniería Eléctrica. Tesis 1995.

VELASQUEZ, J. Teoría lineal de partición y de descomposición de benders. Documento de trabajo

CITAD. Universidad de la Sabana. Colombia. Marzo 2003.

15

También podría gustarte