Documentos de Académico
Documentos de Profesional
Documentos de Cultura
There a r e hidden laws of number which i t requires a mind l i k e mine t o perceive. For instance, i f you add a sum from the bottom u p , and then again from the top down, the r e s u l t i s always d i f f e r e n t .
...
MRS.
LA TOUCHE
(siglo XIX)
CAPITUII) 111
LAS
EN OPTIMIZACION ESTRUCTRAL
Como se ha puesto de manifiesto en el capitulo precedente, la concepcibn moderna de las tecnicas de optimizacibn estructural se desarrolla a partir de los planteamientos de quien considera que la mayor parte de Klein [1955a],
los problemas de
minimizar : verificando:
f (x)
;X
g (x) 5 O j
= {x ) i
; i = 1i r n
; = -,m
lo largo de la exposicibn siguiente observaremos cbmo optimizacibn estructural aparentemente alejadas de mdxima ser tensibn o los
tecnicas de
consideradas como
particularizaciones del planteamiento general anterior. Las t6cnicas que permiten resolver enmarcan en MATEMATICA. el el problema
(3.1)
se
de su utilizacibn, en matemdtica al
resolver problemas de minimizaci6n de funciones reales de varias variables. La programacibn matemdtica abarca la solucibn de un gran nhmero de
tecnicas para
algunas de los cuales exceden claramente las pretensiones de este estudio, y cuya clasificaci6n es compleja. Por este motivo nos
solucibn de aquellos
problemas que pueden formularse en la forma estdndar (3.1), o en la forma general equivalente (3.2), mds adelante expuesta, en los cuales el rango de definicibn de las variables es continuo y las funciones que definen el consideramos que esta problema son diferenciables, ya porcentaje que mds
formulacibn cubre el
y estructurada el conjunto de tales t&cnicas, y para un estudio mds detallado nos remitimos a tratados monogrdficos de
optimizacibn y optimizacibn estructural 1972, Martos 1975, Fletcher 1981, Morris Scales 19851.
1982, Bertsekas
referencias en las
encontrarse en los textos anteriores. Este enfoque, por tanto, no contempla formulaciones propias de de la PROGRAMACION ENTERA, en las cuales el rango de definicibn la PROGRAMACION NO
aplicacibn a
la optimizaci6n
interks Otros de la
materiales, los
planteamientos de OPTIMIZACION
interks residen en
MULTIOBJETIVO,
la PROGRAMACION GEOMETRICA, la
PROGRAMACION DINAMICA y el CONTROL OPTIMO, para cuyo estudio nos remitimos a tratados especializados [Fletcher 1981, Sawaragi,
Deiniciones. Minimizacibn no restringida. Minimizacibn con restricciones de igualdad. Minimizacibn con restricciones de tipo general.
111.2
DEFINICIONES
Denominaremos problema general de programacibn matemdtica al problema de minimizacibn de una funcibn real de varias
variables con restricciones de tipo general, expresadas como un sistema de ecuaciones e inecuaciones que condicionan la solucibn. El problema general, por tanto, puede escribirse en la forma:
minimizar dados
: f(x)
;x = { X )
;i=l,
, n
-: g(x) =
g (X)
verificando: g ( x ) 5 O
j
"n"
tenga sentido en el contexto de la optimizacibn del FUNCION OBJEITIVO a la funcibn real "f(2)"
a minimizar.
denomina ESPACIO DE DISEm al espacio n-dimensional formado por las variables de diseo. Las inecuaciones "g" reciben el nombre de RESTRICCIONES EN DESIGUALDAD, y las ecuaciones ' " se denominan RESTRICCIONES DE h
Un punto &1
si en
en caso contrario. Se denomina 'REGION FACTIBLE al de puntos factibles del espacio de diseo.
un
se cumple estrictamente la relacibn de igualdad, e INACTIVA en caso contrario. Si existen restricciones laterales para una determinada
variable, esta se dice LIBRE si su valor se encuentra dentro del rango permitido de variacibn, pero no coincide con ninguno de sus extremos. Por contra, la variable se dird FIJA si su valor rango de
coincide estrictamente con el mCiximo o el minimo de su variacibn. Numerosos autores utilizan los
puede dar lugar a confusiones, ya que de alguna contradiccibn con los terminos
introducidos previamente
permiten
la formulacibn del problema general, dando lugar a Entre las mds significativas se
Un
problema
de
minimizacibn puede
transformarse en
un
problema
minimizar: f(x)
<=>
maximizar:
f (x)
Una
restriccibn de
igualdad puede
sustituirse por
dos
puede bien
una
preciso
introducir una nueva variable en el problema, conocida como variable de separacibn o variable muda. La transformacibn
siendo: P(P) 2 O
Vpe R
la
funcibn no negativa
formulacibn estdndar
tanto, son equivalentes, y pueden derivarse con sencillez otras formas alternativas.
Desde e s t a perspectiva general, e l problema de minimizaci6n con restricciones de igualdad y e l problema de minimizaci6n no particularizaciones de la formulaci6n
r e s t r i n g i d a no son s i n o (3.2).
U punto f a c t i b l e se dice MINIMO LOCAL n del problema general (3.2) si, de entre
MINIMO
RELATIVO
todos
los
puntos su
adquiere
minimo l o c a l s e dice M I N I M O si
en
el
la
o t r o punto de l a regibn f a c t i b l e . N e s s e n c i l l o r en general, probar l a existencia y unicidad o de soluci6n para un determinado problema de minimizacibn d e l t i p o (3.2). trivial, La obtenci6n de l a soluci6n,
y
si
existe,
no
suele
ser
es
preciso
minimos
por
tanto a la
incertidumbre
cuanto
desarrollado
numerosos
algoritmos
de
diversa
complejidad
U problema d e l t i p o ( 3 . 2 ) n
conceptos
estos
que
definimos
continuacibn
de
los
cuales
se
ofrece
una
Va,b
Vt
[ O , l l se cumple,
+ t b
cbncava,
si
su un
es
convexa. En l o el
Obviamente,
"R""
es
convexo.
convexas
especificar
f u n c i o n e s convexas e n s u campo
este
el
funcibn
"f(x)"
es
diferenciable,
es
condicibn
la siguiente:
veces
diferenciable,
es
condicibn
y s u f i c i e n t e d e c o n v e x i d a d e n un c o n j u n t o "A" convexo,
todo
punto
del
grdfica
de
diversos
conceptos
conjunto dado.
Si las funciones "g." que definen las restricciones en 1 desigualdad del problema (3.2) son convexas, y las restricciones de igualdad son lineales, la regi6n factible es necesariamente un conjunto convexo. Si la funcibn objetivo es igualmente convexa,
el problema se denomina problema general de programacibn convexa. El concepto de convexidad adquiere una importancia
fundamental en el dmbito de la programaci6n matematica, puesto que en e1,estado del conocimiento actual, las demostraciones de existencia
unicidad
de
soluci6n para
los problemas
de
problema,
111.3
MINIMIZACI6N
RESTRINGIDA
restringida
puede
minimizar: f(x)
;x = (x ) i
;i=
l , , n
La condicibn necesaria de
extremo para
el problema
de
es decir, que se anule el gradiente de la funcibn objetivo. Evidentemente, la condicibn anterior no es suficiente para asegurar la existencia de un minimo. Para obtener condiciones derivadas de orden
superior y en la practica, con frecuencia, estas derivadas no son conocidas. Una condicibn suficiente de minimo local, adicional a la condicibn (3.10) para este problema, puede escribirse en la
forma:
es decir, que
el
hessiano Si
"E"
la
de
semidefinido positivo.
111.3.2
M&todos
soluci6n
del problema
general de minimizacibn dos no
La
solucibn (3.9)
del
problema
restringida
puede
abordarse
desde
perspectivas;
a n a l i t i c a o numkrica.
plantea
resolviendo
Este
todas
minimos
entre
acotada
i n f e r i o r m e n t e , e n t r e l o s minimos r e l a t i v o s s e e n c u e n t r a e l mnimo a b s o l u t o , que puede h a l l a r s e con s e n c i l l e z comparando l o s v a l o r e s de l a f u n c i b n o b j e t i v o . Evidentemente e s t e p r o c e d i m i e n t o no e s a p l i c a b l e problemas habituales, puesto a muchos
ocasiones
soluci6n del la
problema
se
plantea
iterativos para
metodos de descenso.
enfoques, si
distintos, son formalmente identicos, y es importante resaltar la intima relaci6n existente entre las tecnicas de minimizaci6n no restringida y las tecnicas de soluci6n de sistemas de ecuaciones no lineales, con su consiguiente similitud. metodos de descenso implican conceptos Sin embargo fructiferos los
clarificadores, caracteristicos de los problemas de minimizacibn, motivo por el cual realizaremos la exposici6n segtm este punto de vista. El metodo general de descenso puede escribirse en la forma:
-k
dado: x
-k k -k = x + e S -k+l -k que verifique: f(x ) < fx ) (
-k+l
x
obtener :
El metodo de diferenciadas:
descenso consta de
dos partes
claramente
Obtener la direccibn de descenso "S". Obtener el factor de avance " 8 " . La obtenci6n del factor de
111.3.2.1
direccibn se define
de en
descenso
"S" en
cada
como
minimizar :p(8) = f
(X + 8
-k
S)
anterior
se expresa como l a anulacibn de l a derivada de l a funcibn " p ( 8 ) " . Desarrollando e s t a condicibn s e obtiene:
condicibn que implica l a solucibn de una ecuacibn de una v a r i a b l e (Fig. 3.2-a) que puede abordarse mediante numerosos metodos se
Entre l o s mds
comunmente
empleados
segundas
mCtodos de Whittaker y Regula-Falsi en caso de que l a s segundas sean desconocidas son o la los raiz de
biseccibn,
ciertos
problemas
de
minimizacibn
pueden
existir
restricciones
F i g u r a 3.2.I n t e r p r e t a c i 6 n g r d f i c a de l a c o n d i c i 6 n d e o b t e n c i 6 n d e l f a c t o r d e avance en problemas d e minimizaci6n n o c o n d i c i o n a d a y d e l mhtodo d e mdiximo descenso. a ) E l f a c t o r de a v a n c e s e c a l c u l a d e forma que l a d i r e c c i 6 n d e avance s e a t a n g e n t e a l a l i n e a d e n i v e l ( e n g e n e r a l l a h i p e r s u p e r f i c i e d e n i v e l ) d e la funci6n objetivo. b)Bi e l &todo d e e x i m o d e s c e n s o , c a d a d i r e c c i 6 n d e a v a n c e es o r t o g o n a l a l a p r e c e d e n t e , produciCndose f r e c u e n t e m e n t e fen6menos d e zig-zag y una b a j a v e l o c i d a d d e c o n v e r g e n c i a .
que en su forma mas frecuente, acotan inferior o superiormente su rango de variacibn. Evidentemente la dificultad introducida por este
minimo.
111.3.2.2
111.3.2.2.1
Metodos de Newton
Los metodos de Newton parten del desarrollo de Taylor de la funcibn objetivo hasta un cierto termino. Si bien para problemas de minimizacibn unidimensional pueden derivarse metodos de
cualquier orden con relativa simplicidad, ello no es factible en general para problemas generales complejidad de los desarrollos. n-dimensionales Por dada la
lo tanto contemplaremos
Metodo de primer orden, o aproximacibn lineal. Metodo de segundo orden, o aproximacibn cuadrAtica.
Wtodo -- de primer orden. Desarrollando l a funcibn o b j e t i v o en s e r i e de Taylor e l primer termino obtenemos: hasta
E l d e s a r r o l l o a n t e r i o r , indica que
la
disminucibn acusada, en
en
el
valor
de
la
funcibn
objetivo
es
mas
primera
aproximacibn, cuanto menor e s e l producto e s c a l a r de s u gradiente con e l vector que define l a direccibn de descenso "S". e s t e razonamiento, e s obvio que e l vector "S' paralelo contrario. al gradiente Sin
y
-
Siguiendo es
mds
favorable
y
de la
la
funcibn
objetivo no
de s e n t i d o acotada
embargo por
aproximaci6n no
estA
inferiormente,
tanto
"S",
obtendrd
minimizacibn unidireccional. Utilizando e s t a aproximaci6n deducimos, por tanto, direccibn de descenso mds favorable es: que la
de
metodo
de
mdximo
descenso, o "steepest descent method", por motivos obvios. Este metodo t i e n e un orden ello, aunque en sucesivas de convergencia se lineal. Por
iteraciones
obtienen
valores
descendentes de l a funcibn objetivo, e l ndmero de i t e r a c i o n e s que es necesario r e a l i z a r hasta obtener una soluci6n suficientemente
aproximada a la bptima es habitualmente muy elevado, y en muchos tipos de problemas la naturaleza de la funcibn objetivo y las lugar a diversas anomal las
progreso obtenido en
iteracibn.
direccibn de mdximo descenso no es normalmente la mds eficiente. Efectivamente, los metodos de general un orden de segundo orden proporcionan en si bien a costa de
convergencia mayor,
hasta
siendo: r = 8
S
(3.17)
Si el hessiano
"2"
de
la
positivo, la aproximacibn cuadrdtica (3.17) tiene un minimo, y este ha de cumplir la condicibn de extremo (3.10), es decir, el gradiente ha de ser nulo. Planteando esta condicibn, obtenemos:
descenso mds
Figura 3 3 .. Interpretacibn grdfica del metodo de Newton de segundo orden y modos de fallo mds caracteristicos del algoritmo. a)Las variables obtenidas en cada iteracibn minimizan la aproximacibn cuadrdtica a la funcibn objetivo en la iteracibn anterior. b)Fallo del algoritmo en los casos en que el hessiano de la funcibn objetivo es singular ( l ) , no definido positivo ( 2 1 , o el factor de avance es muy elevado (3).
por
N obstante, no asegura que e l valor de l a funcibn objetivo en e l o nuevo punto sea menor que e l anterior.
E l f a l l o del algoritmo
que e l hessiano sea singular que e l hessiano sea regular pero no definido positivo que e l hessiano sea definido avance sea muy elevado positivo, pero el factor de
Por e s t a s causas, en una determinada iteracibn pueden presentarse varias anomalias, y entre e l l a s :
no e s posible calcular una direccibn. l a direccibn e s ortogonal a l gradiente. l a direccibn e s de ascenso ( e l producto escalar del vector "yk"con e l gradiente de l a funcibn objetivo e s p o s i t i v o ) . l a direccibn e s de descenso ( e l producto escalar del vector con e l gradiente de l a funcibn objetivo es negativo), pero para e l factor de avance dado l a funci6n objetivo resultante e s mayor.
"rk"
S i en una
se
tercera,
invertirse
direccibn, y s i s e distinto,
presenta l a cuarta, puede buscarse un factor de avance mediante Existen minimizaci6n otras tecnicas unidireccional que intentan
anteriores
el
hessiano modificado
sea definido
que pueden entenderse como una generalizacibn del Levenberg-Marquardt (3.43) que se expondra
posteriormente. En cualquier caso es unidimensional en del vector algoritmo cuadrdticas. de la indicado realizar una minimizacibn
avance es
por
el
solo
estrictamente
funciones
Newton de segundo orden generalizado. Si no se realiza esta minimizacibn unidireccional, es buena practica imponer una acotacibn superior al mbdulo del vector ' " r limite impuesto. De esta
-
forma, no
variables del problema en cada iteracibn, y se evita que el error de truncamiento cometido al aproximar la funcibn a minimizar por valor de la
111.3.2.2.2
familias de
siguiente forma:
Hetodos
sentido, son derivados del metodo de Newton de aproximacibn cuadrbtica, resolviendo el sistema de ecuaciones (3.18) mediante un procedimiento alternativo. Previamente a su exposicibn, es
(3.20)
AdemAs, si la matriz
"A" es
definida positiva, es
sencillo
demostrar que todo conjunto de vectores conjugados es linealmente independiente. Por tanto, la solucibn de un sistema de ecuaciones lineales con matriz de coeficientes simbtrica y definida positiva, puede escribirse como combinacibn lineal de un conjunto cualquiera de
vectores
conjugados.
Haciendo
uso
de
esta
propiedad, de
los forma
- -i
-
) ;i=l,,n;
Sea
i una
- *
aproximacibn i n i c i a l a
Entonces,
-*
-o X = X +
n
i=l i
-i
8
con
Como hemos v i s t o a n t e r i o r m e n t e ( 3 . 1 8 ) , l a
minimizaci6n
de
una f u n c i b n c u a d r d t i c a con h e s s i a n o d e f i n i d o p o s i t i v o , i m p l i c a l a s o l u c i 6 n d e un s i s t e m a l i n e a l de e c u a c i o n e s , e s t o e s :
con A s i m e t r i c a y d e f i n i d a p o s i t i v a , entonces: A
t b = O
(3.21),
podemos
escribir
el
direcciones
conjugadas
para
funciones
c u a d r d t i c a s en l a forma i t e r a t i v a s i g u i e n t e :
f(x) = c
-t
b
-t
1/2 x
A x
Sea
; = l ,n k
con,
a
k
= -
-k t
S
A s
-n se cumple que: x = x
Adeiads : los a k
La obtencibn de
tanto realizarse
mediante una minimizacibn unidireccional. Este algoritmo converge al minimo de una funcibn cuadratica con hessiano definido positivo en un ndmero finito de pasos, igual al ndmero de aproximacibn variables, independientemente la de la las
inicial a
la solucibn y
eleccibn de
direcciones conjugadas. Una particular eleccibn de estas como combinacibn lineal de los gradientes de la funcibn objetivo en las iteraciones
anteriores, conduce
al
mbtodo
de
los
gradientes
conjugados.
Formulando de esta manera las sucesivas direcciones conjugadas, y haciendo uso de las propiedades anteriores, se obtienen
inmediatamente las
F6mulas de Hestenes-Stiefel:
IVG
Las fbrmulas diversas para bajo
k-1
- k-2 )-Vf(x 11
-k-1
S
de
Hestenes-Stiefel de los
y
pueden
propiedades
problemas
cuadrtiticos
Pk:
F6rmulas de Fletcher-Reeves:
F6wulas de Polak-Ribiere:
F6wulas de Myers:
Cuando se aplica el algoritmo de los gradientes conjugados a la minimizacibn de funciones no lineales, la convergencia no asegurada en "n" iteraciones. Es prdctica habitual
estd
reinicializar el algoritmo cada "n" iteraciones, aunque algunos autores han encontrado empiricamente que la eficiencia si es mayor
Me todos Quasi-Newton
El metodo de Newton de aproximacibn cuadrdtica, conduce a
un sistema lineal de ecuaciones (3.19) que es preciso resolver en cada iteracibn, y cuya matriz de coeficientes es el hessiano de la funcibn objetivo particularizado en el altimo punto obtenido. el hessiano, o su
los valores
previamente
Sean :
-1 -k
S = H
(x)
inversa en
la
iteracibn
"k",
se verifiquen
las ecuaciones de
Quasi-Newton:
siendo:
-k
Y
k+l
-t
-k
VfG
- Vf(x
Sustituyendo estas aproximaciones en la ecuacibn de Newton (3.19) se obtiene el algoritmo Ouasi-Newton que puede escribirse en las formas alternativas:
y para cuya aplicacibn se parte de una aproximacibn inicial a la solucibn "xO" y una matriz simetrica deinida positiva "so". Los
N
la eleccibn de
las
La
construccibn de
estas
aproximaciones
se
plantea
adelante se
expone.
minimizacibn este bien definido, la aproximacibn al hessiano debe ser una matriz simetrica y definida positiva, ademds de verificar la ecuacibn de Quasi-Newton (3.29). Existen fundamentalmente dos grupos de metodos
Quasi-Newton, que
Dentro de cada grupo existen a su vez diversas familias que se diferencian en la forma de realizar la eleccibn de la matriz citada, y numerosas variantes dentro de cada familia. Por ello
de
rango uno
cada
simetrica, semidefinida
Por tanto, si la aproxirnacibn inicial es sim&trica, se garantiza la simetria, aunque no la definicibn positiva, de las
aproximaciones siguientes. Es sencillo demostrar que la eleccibn del escalar *'yk"y el vector "z
-k
"
en
cada
iteracibn de
El
algoritmo
(3.30),
aplicado ahora
un
problema
cuadrdtico y partiendo de una aproximacibn inicial simetrica y definida positiva a la inversa del hessiano, no requiere el uso
de
la
inversa del
hessiano es exacta, independientemente de la aproximacibn inicial a la 'solucibn. Si se aplica a funciones no lineales es conveniente, en
general, emplear una minimizacibn unidireccional, si bien en este caso no estd asegurada la convergencia, y la principal fallo del algoritmo se produce por forma de
perdida de la definicibn
positiva de la aproxirnacibn.
Los metodos de rango dos son aquellos en que se construyen las sucesivas aproximaciones a la inversa del hessiano mediante matrices de actualizacibn simetricas y semidefinidas positivas de rango dos, de forma que partiendo de una aproximacibn inicial la simetria y la
definicibn positiva de las aproximaciones siguientes. Una posible eleccibn de la matriz Y " es de la forma:
N
"Yk"
'*pk8' en
cada
E,
que garantiza la conservacibn de la aproximacibn a la inversa del hessiano como matriz deinida positiva siempre que la
aproximacibn inicial
lo sea, y
Cuando
se aplica
el
algoritmo anterior
problemas
cuadrdticos se generan siempre direcciones conjugadas. AdemAs, si la aproximacibn inicial a la inversa del hessiano es la matriz identidad, coincide exactamente con el algoritmo de los
gradientes conjugados. Converge por tanto en "nw iteraciones, y la n-&sima aproximacibn de la inversa del hessiano es exacta,
La existencia de las dos f6rmulas anteriores para aproximar el hessiano y su inversa, sugiere la posibilidad de invertir los aproximar el
(3.35)
y
hessiano y
su
inversa
"S"
"Rt'
los vectores
#a
"y"
se
intercambian entre
complementarias de
B:
las
citadas para el algoritmo DFP (3.35), aunque se estima en elevada. Tal vez pueda ser
considerado en la actualidad como uno de los metodos mas potentes y firmemente establecidos de la programacih matemdtica, ya ha permitido en la prdctica abordar eficazmente un de que
grupo no
minimizacibn
En
la aplicacibn de puede
los metodos
citados a
problemas
especificas
interesante por
aparece en la prActica es el de minimos cuadrados, cuya expresibn general puede reducirse a la forma:
-t-minimizar: F ( x ) = f ( x ) f ( x )
;x = { x )
;i=l,,n
funcibn objetivo
Siendo:
-t = 2 f (x) J
(X)
Aplicando al problema (3.39) el metodo de Newton de segundo orden, y utilizando las expresiones anteriores, obtenemos:
Evidentemente, el mayor coste operativo, en lo que respecta al cdlculo de los terminos que intervienen en la cuyo fbrmula cAlculo Para
puede ademds
ser
"9" se obtiene el
N
algoritmo de
se
obtiene
es la de Levenberg-Marquardt:
definida de
positiva,
el
"yk#' puede
obtenerse
111.3.2.2.3
Enfoque global
metodos expuestos
de
minimizacibn pueden
no
considerarse
Siendo: x Hallar:
-k + l
k
k -k = x + r
de forma que:
verificando:
-t r M r 1 = 1
. .
donde
"M"
N
El
planteamiento
puede
proceso cuyas
la matriz
identidad, el hessiano de la funcibn objetivo, o una aproximacibn al mismo, obtendremos respectivamente los metodos de mdximo descenso, los metodos de Newton de segundo orden o de direcciones conjugadas, y los metodos Quasi-Newton.
111.4
MINIMIZACIbN
RESTRICCIONES
DE
IGALDAD
restricciones de
minimizar
: f(x)
;x = (x ) i
; =l i ,
verificando: h ( x ) = O
--
--
= h
x ) ;i=l,_,p
las funciones
111.4.1
Condicibn de mlnimo
extremo para de
el problema se
de
restricciones
igualdad,
expresa de
-*
-*
1= (
il)
;L=l,-,p
-*
Si: x es soluci6n d e l problema (3.45), entonces existe :
= (
Al)
;l=l,
,P
ver i f icdndose :
condicibn que implica la anulacibn del gradiente del lagrangiano. Posteriormente analizaremos esta aspecto con mayor detalle. Es posible obtener condiciones suficientes de minimo para el problema general de minimizacibn con restricciones de
111.4.2
del problema
posible, al menos
te6ricamenter resolver el sistema no lineal de "ntp" ecuaciones con "ntp" incbgnitas que representa la anulacibn del del lagrangiano, y posteriormente gradiente las el
son minimos
iterativo
solucibn de
y por
ello
algoritmos numericos basados en otras consideraciones, diseados para resolver el problema de minimizaci6n con restricciones de No obstante, es importante resear que, como
tipo general.
veremos posteriormente, las ideas fundamentales desarrolladas para analizar el problema general se obtienen a condiciones ( 3 . 4 8 ) , minimizaci6n partir de las
una
reducci6n del problema a una forma con restricciones de igualdad del tipo (3.45). importante, y Este planteamiento, por tanto, es sumamente
enfoques, de hecho, y al igual que se expuso en la descripcibn de los metodos de descenso, si bien conceptualmente distintos, son formalmente identicos, y una vez mAs se pone de manifiesto la
intima relaci6n existente entre los metodos de minimizaci6n y los matodos de soluci6n de sistemas de ecuaciones no lineales.
111.5
HINIMIZACI6N
problema
general
programaci6n matemAtica, cuya diferencia fundamental respecto a los problemas analizados previamente reside en la existencia de
restricciones en desigualdad (Fig. 3.4-a). Como se ha expuesto con laterales pueden anterioridad, las englobadas en restricciones el grupo de
considerarse
restricciones generales en desigualdad, si bien la mayor parte de los algoritmos de programaci6n matembtica permiten tratar las restricciones laterales separadamente con eficiencia. mayor sencillez y
u otra
conjuntamente con las restantes restricciones en segtm se estime mbs conveniente para la
claridad
exposiciones.
111.5.1
Condiciones
de
minieo.
Las restricciones de desigualdad del problema general (3.2) pueden tratarse como restricciones de igualdad, introduciendo
Figura 3.4.Representaci6n grAfica de un problema general de minimizaci6n con restricciones, e interpretacibn geombtrica de las condiciones de Kuhn-Tucker. a)Repreeentaci6n de un problema general de programaci6n matendtica bidimensional. b)Interpretaci6n geombtrica de las condiciones de Kuhn-Tucker en la solucibn del problema anterior.
La introduccibn de
reducir el
problema general de minimizacibn con restricciones en desigualdad a un problema de minimizacibn con restricciones de igualdad. No
obstante, el problema reducido estd por su propia naturaleza mal condicionado numericamente en general, y su resolucibn directa no es viable mediante tecnicas habituales. la condicibn necesaria de minimo Sin embargo, a partir de en funcibn de los
multiplicadores de Lagrange, pueden obtenerse las condiciones de minimo para el problema general. En efecto, el problema reducido puede escribirse como:
minimizar
: f (x)
;x = {x ) i
2
,n
verificando: g (x)
j
+ Y
j
= O
i j=l
; l =l r
(3. 50)
(3.50),
tal
como ha
sido
En
virtud
de
(3.48),
lagrangiano anterior, es
extremo que
igualdad (3.46) como caso particular; en estas condiciones no intervienen problema, ni las los variables adicionales introducidas en a el las
multiplicadores
correspondientes
condicibn es necesaria
requisitos ms amplios y b
regularidad, y que no expondremos aqui por exceder claramente de nuestro contexto. La condicibn de no positividad de los
multiplicadores correspondientes a restricciones en desigualdad reviste una importancia excepcional, como se observar& a lo largo del desarrollo siguiente. Las condiciones necesarias de anterior condici6n necesaria de extremo, junto con minimo, la
las
funciones
Si las mencionadas
convexidad
linealidad se verifican tmicamente en un entorno del punto dado, las condiciones de Kuhn-Tucker son entonces necesarias
y
Kuhn-Tucker
admite
diversas particularizaciones segbn existan o no restricciones de igualdad, restricciones laterales en varias variables, etc.
condiciones de
Kuhn-Tucker
problemas convexos permiten definir el denominado problema dual, a partir del cual se derivan diversos metodos de minimizacibn con restricciones.
-h
minimo, poseen
la sensibilidad de respecto a
minimizaci6n
importancia
multiplicadores.
minimizar
: f(x)
;x = fx )
verificando: g ( x ) 5 E
j
a ~ x l b i i i
el
del
lagrangiano
"E",
"S",
ecuaciones que demuestran que el valor de los multiplicadores que verifican las condiciones de Kuhn-Tucker es una medida de la la solucibn
funcibn objetivo en
permiten ofrecer,
ademds,
una
activa en no debe
la misma
por
tanto su
111.5.2
Dualidad
Si
el
problema
(3.2)
es
convexo, se puede
demostrar
facilmente a
Esto es:
Si:
,A
-9 *
-h*
- -9
siendo
:L X ,
P
,
)
= f
-A
-9t-g(x)
-h t - -A h(x)
se verifica:
expresarse de
Figura 3.5.Idealizacibn de la funci6n lagrangiano de un problema de programaci6n convexa y condici6n de punto de ensilladura del 6pt imo.
Si:
-*
x
,1 ,
e
-9*
-h*
h
v e r i f i c a n l a s condiciones ( 3 . 5 2 )
dados:
d,
l a s o l u c i 6 n d e l problema:
I
y dado: x
minimizar
x -
( x ) = L(x,J
- 3 -h
,\
)
e x
l a s o l u c i 6 n d e l problema:
entonces :
-9
X,
eli,
, se
cumple:
partir
del
resultado
anterior,
podemos
formular
dos
-*
Problema m a l .
verificando : x e X
Los problemas primal y dual son problemas de minimizacibn con restricciones laterales en los que existen son, a variables su vez,
laterales en funci6n de las primeras. El valor del lagrangiano en la solucibn del problema Por
coincide evidentemente con el valor de la funci6n objetivo. ello, a la vista del problemas mediante resultado algtin
(3.58),
la
solucibn de tipo
ambos
procedimiento de
iterativo
proporciona dos
sucesiones de
valores del
lagrangiano de
que
convergen superior e
inferiormente al minimo
la funcibn
Para
problemas
de
minimizacibn
con
restricciones Kuhn-Tucker se
exclusivamente simplifican
notablemente,
obtenerse
algoritmos
iterativos de
solucibn de ambos problemas, tal como los hemos definido, es solucibn del problema general convexo del que
deriva, su al evaluar
sus correspondiente lagrangianos "Lp" y "Ld" para un cierto valor de sus respectivas variables independientes es preciso en calcular,
principio, sus correspondientes variables dependientes. El interno de minimizacibn que dependientes en permite de obtener las las
problema variables
funcibn
variables
condicibn de
restricciones exclusivamente
laterales, (y a su linealidad en el caso del problema primal), puede manifestar diversos aspectos de dificil tratamiento. De hecho puede tener soluciones de valor infinito, y las funciones - - g -h -g -h "x(A ,A ) * , (x)" y "A (x)~' pueden tener discontinuidades y no estar definidas en parte de sus respectivos intervalos. Ello
derivarse algoritmos que permiten actualizar iterativamente los valores de las variables " x " , y los multiplicadores "A", que denominaremos en lo sucesivo variables primales y variables
duales, respectivamente.
son
equivalentes, al
denominaremos definido
primal
problema
En
lo que
(3.60),
es
dual "Ld", respecto a sus variables independientes (esto es, variables duales), tiene una
directamente con las funciones cambiadas de signo que definen las restricciones correspondientes, esto es:
hessiano, y
extensivo en el desarrollo de
algoritmos de referencias a
solucibn del problema. AdemCLs, para evitar - - g -h la funcibn "x(1 ,A ) " , que puede no existir, es de De
frecuente expresar el problema dual sustituyendo el problema minimizacibn interior por sus condiciones de Kuhn-Tucker.
Problema
que maximizan:
verificando :
111.5.3
M6todos
Soluci6n
Del Problema
que conlleva el calcular
Es
evidente el
la
dificultad de
directamente
conjunto
punto en la
eficientemente, y
total
generalidad,
minimizaci6n con restricciones cualesquiera (3.2); de todo lo que disponemos es de un conjunto de diversas tecnicas cuya eficiencia es, en gran medida, dependiente del problema especifico a que se apliquen. Ademds, algunas de las herramientas matemdticas
disponibles para
Como ya Kuhn-Tucker,
hemos visto
al
exponer
las
condiciones
de
la
introduccibn de
reducir un problema con restricciones cualesquiera a un problema con restricciones de igualdad. No obstante, este planteamiento Por otro
lado, los metodos de solucibn para problemas con restricciones de igualdad no son sino particularizaciones de metodos mds generales para restricciones cualesquiera. Por ambos motivos, este tipo de tratamiento no suele emplearse en la prdctica. Como seguidamente expondremos, es posible desarrollar
algoritmos de
programacibn lineal y programacibn cuadrAtica, que configuran una primera familia de metodos de cardcter especifico. Una segunda familia de metodos se basa en la generalizacibn de los metodos de descenso para minimizacibn sin restricciones de forma que permitan el general, y tratamiento de restricciones de tipo
de descenso
generalizados o metodos de gradiente proyectado. Una tercera familia de metodos se basa directamente en condiciones de Kuhn-Tucker, ya las
la reduccibn subsiguiente a problemas de minimizacibn igualdad. Entre estos altimos tienen criterios de restricciones
restricciones de
particular
de
que se encuentran activas en el bptimo, se sustituye el problema inicial de minimizacibn por un problema diferente y mds simple.
que
de tipo general, a problemas de minimizacibn no una quinta familia que permite reducir
los problemas
rninimizacibn con restricciones de particulares del mismo algoritmos eficientes. tipo para
problemas
solucibn se conocen
de
solucibn del
Metodos para problemas especificos de minimizacibn restricciones de desigualdad. Metodos de descenso generalizados. Metodos basados en las condiciones de Kunh-Tucker. Metodos de reduccibn a problemas restringida. de minimizacibn
con
no
1 - PROBL&MAS ECPECIFICOS .
2.-ME'J!OWSDEDESCKNSOGEHERALIZAlX3S
<
3.
METODOS BASADOS
Funciones Barrera
- Funciones de
Penalizacibn <
Lagrangiano Aumentado
Figura 3 6 .. Clasificacibn de los metodos de solucibn para problemas de minimizacibn con restricciones, e interrelaciones entre los mismos.
111.5.3.1
Para ciertos problemas de minimizaci6n con restricciones en desigualdad, pueden desarrollarse algoritmos especificos de gran eficiencia. Nos problemas: referiremos en particular a los siguientes
Problemas con restricciones exclusivamente laterales. Problemas separables. Problemas de Programacibn Lineal. Problemas de Programacibn CuadrAtica.
de
minimizaci6n
con
restricciones
minimizar
: f(x)
verificando: a 5 x 5 b i i i
partir
de
las condiciones
de
Kuhn-Tucker
(3.52)
particularizadas para este problema, pueden plantearse numerosos algoritmos iterativos, el mds escribirse en la forma: sencillo de los cuales puede
ax
-k
f(x
en otro caso
minimiza f
(X + 8
-k
S
+ ,8 )
min
k
S
+
8
= min
k
S
k a - x i i k < o s , i k b - x i i k, > o s \ i
descenso
de
Newton
de
primer orden, pero incorpora ademds e l control de l a s (Fig. 3 . 7 ) . D e forma similar pueden
restricciones laterales
MCtodo de primer orden para problemas de minimizacibn Figura 3 7 .. con restricciones exclusivamente laterales. Se evita la violaci6n de las restricciones proyectando la direcci6n de avance sobre las restricciones activas (1) y limitando el factor de avance (2)
la funcibn objetivo y
diagonales, y si el problema es adembs convexo, en la formulacibn dual asociada el problema de minimizacibn interno puede
desacoplarse en
independientes, uno por cada variable primal. Habitualmente, un problema separable puede forma mbs eficiente que resolverse de
sus propiedades y peculiaridades, y que no detallaremos aqu debido a su gran diversidad y problema dependencia de la forma del
.
separable convexo, es el
Programaci6n Lineal
El problema general de programacibn lineal puede escribirse en la forma:
n
minimizar
: f(*) =
f x i=l i i
donde las restricciones laterales, si existen, se consideran englobadas en el conjunto de restricciones en desigualdad. El
problema es obviamente convexo, y por tanto, todo minimo local es tambien global. No obstante, para que el problema tenga solucibn tantas restricciones
conjunto formado por los puntos situados en frontera del hiperpoliedro convexo
limitado
tales
hiperplanos.
Si existen hnicamente restricciones de igualdad, la formada por la interseccibn de todos los Si existen
ambos tipos de restricciones simultdneamente, la regibn factible es la interseccibn de las regiones factibles correspondientes a
Dado
que
la
funcibn
objetivo
es
lineal,
SU S
hipersuperficies de
gradiente. En consecuencia, la solucibn del problema es el punto de la regibn factible cuyo hiperplano de nivel de la funcibn Excepto en casos
hiperpoliedro que configura la frontera de la regibn factible. Ello sugiere que la solucibn del problema podria obtenerse por inspeccibn simple, evaluando la funcibn objetivo en todos los vertices del hiperpoliedro que limita la regibn factible. No
obstante, el crecimiento del nhmero de vertices con el nhmero de variables primales y realizar de restricciones no permite en general
pocas variables y restricciones. El algoritmo denominado MCtodo del Simplex permite resolver el problema general de programacibn lineal mediante una seleccibn orientada de sucesivos vertices. El metodo converge en un nhmero
finito de pasos, y experimentalmente se ha demostrado que este es notablemente inferior al nhmero total de vertices. Su eficiencia
es muy elevada, y tanto los tiempos de cblculo requeridos como la necesidad de almacenamiento en memoria son razonables. El Metodo del Simplex constituye una herramienta de extremada complejidad
tebrica, aunque su aplicacibn es sumamente sencilla, sobre la que existen tratados monogrdficos, y admite numerosas variantes y
diversas formas de evitar problemas de tipo operativo. considerarlo como una herramienta
Podemos
problemas generales de programacibn no lineal, ya que muchas de las tecnicas de mininizaci6n con restricciones generales se basan en aproximaciones lineales. El algoritmo del Simplex fue
desarrollado para resolver fundamentalmente problemas econbmicos. Por ello, estA implicito en su formulacibn el que primales sean positivas o nulas. las variables
expresarse en la forma:
minimizar
: f(x) = b
- t -
-t
1/2 x
-A.x
Para este problema existen diversos algoritmos iterativos de gran eficiencia, entre y los mas conocidos de los cuales se sus derivados. El problema es
diferencia del
problema
tiene siempre
del
ndmero
de
restricciones, si la matriz "A" es semidefinida positiva, siempre y cuando la regibn factible no sea vacia.
111.5.3.2
Los metodos de descenso para problemas de minimizacidn no restringida han sido ya generalizados de alguna forma al
restricciones
trabajo como un metodo de descenso, en el cual si la direccibn de descenso conduce al exterior de la regibn factible violando determinada restriccibn lateral, se modifica una
la direccibn
proyectdndola sobre la superficie de tal restriccibn, que en este caso es un hiperplano coordenado. Esta idea, aplicada a lugar a gradiente los metodos de proyectados, restricciones en desigualdad, da
restricciones lineales (Fig. 3.8-a), pero que pueden modificarse adecuadamente para permitir el tratamiento de lineales. Sea el problema de minimizacibn con restricciones lineales en desigualdad: restricciones no
Figura 38.. MCtodos de descenso generalizados para problemas de minimizaci6n con restricciones lineales en desigualdad, y fallo del algoritmo en su aplicaci6n a problemas no lineales. a)Se evita la violaci6n de las restricciones proyectando la direcci6n de avance sobre las restricciones activas (1) y limitando el factor de avance (2). b)Fallo del algoritmo en su aplicaci6n a problemas con restricciones no lineales.
minimizar
: f(X)
;X = n
{X
1
i
;i=18,n
verificando: g (X) =
j
donde
si existen
restricciones laterales,
pueden
tratarse
separadamente con
- -k para x = x
Q = conjunto de restricciones activas
avance,
desde un punto de vista global, similar al planteamiento (3.44) para minimizaci6n no restringida. forma: Formularemos el problema en la
-k Hallar: s ;k 2 1 -k+l k x = x
de forma que:
+e
k k
S
-k
S,
minimiza a(s)=
k [Vf(x) t
-k
s 1
verificando:
M s
1 = 1
El planteamiento anterior se interpreta inmediatamente como un intento de obtener el vector en cuya direccibn el descenso de
la funcibn objetivo es mbs acusado, imponiendo una restriccibn en su norma (definida mediante la matriz "l$"', y de forma que no se violen las restricciones que se encuentran activas.
condiciones de
se verifica:
relaciones anteriores, se
donde,
-k - k e = (v(;)
-1
-qt
N )
-q
")\" c o r r e s p o n d i e n t e
la
afecta a su
-k
", p e r o
no
-k
a = - P
-1
-k
-q
con :
-q
Vf(x)
-1
t
N
(N
-1
M
t
N
)
-1
P = I - M
- -
-q
-q
-q
N -q
s i e n d o "P
-4
O'
un o p e r a d o r de proyeccibn.
La d i r e c c i b n d e avance e s
"A:"
es
positivo,
el
restricci6n
correspondiente e s n e g a t i v o en l a
de
ser
factor permite controlar en cada iteracibn las ser activas al avanzar en una
Se comprueba fdcilmente que si el vector de avance obtenido es nulo, y todos los multiplicadores
original
correspondiente del conjunto de restriciones activas, y una nueva direccibn. Por otro lado, durante el unidireccional es proceso de
minimizaci6n
necesario verificar que las restricciones se sencillo dada finalizar el su naturaleza lineal.
proceso
de minimizacidn se han
cuenta en las operaciones poster iores. Cuando la matriz "$ t el anterior es la matriz identidad "I",
N
metodo obtenido es un metodo de mdximo descenso generalizado, es un operador ortogonal que proyecta los
sus
hiperplanos
correspondientes.
Cuando
l a matriz "Mw es e l
N
hessiano de l a funcibn objetivo, se obtiene un mhtodo de descenso de Newton de segundo orden generalizado, y e l operador "P " es un
'"q
operador
de
proyeccibn
oblicuo.
D e
forma
similar
pueden
U n
aspecto de
importante los
de
estos
mhtodos que
es es
que
las
productos los
matriciales de
necesario pueden
construir
operadores
proyeccibn
directamente actualizando l o s operadores obtenidos en previas , siendo en la necesario primera reduce realizar iteracibn. fuertemente la
El
inversibn uso el de
bnicamente de
procedimientos
actualizaci6n
coste
la
forma
estdndar
(3.68),
con
retricciones
lineales
en
DiRECION DE DEGCmSO:
Q
.
k
si:
-k
q s = O - - > si:! j,
-k 5OVje Q = = > x = O p l r ~
I 1
j
j, j
I
si:
-k
S
# O ->
miniiizacidn unidireccional
k
8
minimiza
:f
k -k (G + 8 s )
8
verificando: O 5
58
max
con: 8 =
min
en funcibn de
la
matriz
"M"
simetrica
definida
positiva.
Evidentemente, en partir de
una aproxirnacibn
asegura que
funci6n objetivo son decrecientes. El algoritmo anterior restricciones precauciones. en puede aplicarse a problemas con no lineales adoptando ciertas los
desigualdad
hiperplanos tangentes a las restricciones activas para obtener la direccibn de descenso, no hay garantia alguna de que tal Por
direccibn este parcialmente contenida en la regibn factible. tanto, es probable que para cualquier valor del factor de distinto de cero se viole alguna restriccibn.
avance
aproximaciones lineales de las restricciones, y no sus verdaderas expresiones, la nueva aproximacibn a la solucibn puede factible (Fig. 3.8-b). Estos inconvenientes pueden ser no evitarse los la
sumando a la aproximacibn obtenida una combinacibn lineal de gradientes de las restricciones violadas, de forma que
intuitivos.
111.5.3.3
Metodos basados en las condiciones de Kunh-Tucker. Criterios de optimalidad partir de las condiciones de Kuhn-Tucker, pueden
Metodos Duales para problemas convexos. Metodos basados activas. en la identificacibn de restricciones
La resolucibn del problema dual ha sido tratada previamente desde un punto de vista analitico. Desde un punto de vista solucibn del problema
numerico existen numerosos algoritmos de dual que metodos suelen denominarse metodos
minimizacibn
restricciones cualesquiera a
problemas de
La identificacibn del conjunto de restricciones activas en el bptimo, permite reducir el problema un problema de rninimizacibn con de minimizacibn con
de restricciones activas sea muy inferior al nbmero total Existen diversas tkcnicas basadas
tkcnicas englobadas dentro de los mktodos de multiplicadores, a los que haremos referencia posteriormente. Sin embargo, si se formulan ciertas hipbtesis identificacibn de propia sobre la
relaciones entre
hecho, se
prescinde entonces del problema de minimizacibn, y se sustituye por un problema distinto, que en general se materializara sistema de ecuaciones no lineales. Denominaremos a en un estos
m&todos, Criterios de Optimalidad, puesto que de hecho, a partir de ciertas hipbtesis sobre las restricciones que condicionan el bptimo si
6ptim0, se obtienen criterios que permiten obtener el las hipbtesis son ciertas. La
optimalidad es particularmente
optimizacibn en diseo estructural, puesto que los criterios de optimalidad se plasman entonces en criterios de diseo. Criterios Optimalidad
Para facilitar la comprensibn del concepto de Criterio de Optimalidad formularemos un caso de gran sencillez. Sea un problema de minimizacibn en la forma estdndar (3.1). Formulemos la hipbtesis de que en el bptimo solo es activa la primera restriccibn. Si la hipbtesis anterior es correcta, valor negativo en el
* en x = x se verifica:
la
se
en x = x
-*
se verifica:
Es
ciertos pueden
problemas resolverse la
especificas,
comprueba inmediatamente que el problema se reduce a resolver una ecuacibn de s@gu~itfo grado en el inverso del multiplicador; si el un conjunto de "no'
ecuaciones no lineales desacopladas, una por variable primal, que con la condicibn de anulacibn de la restriccibn, permiten
resolver el problema.
indican que
en
problemas de
gradientes de la funcibn objetivo y de la restriccibn citada son paralelos y de sentido optimizacibn contrario. Para ciertos problemas de
estructural, lineal con las variables de diseo, y la restriccibn predominante implican que uniforme en es la el igualmente lineal, las la relaciones anteriores de energia es
distribucibn de
densidad
distribuida.
Para
el
caso
en
que
existan
simultdneamente
varias
restricciones activas
en
Para ciertos problemas especificas, es posible obtener algoritmos iterativos sistemas. Evidentemente, la desventaja principal de la aplicacibn de sencillos que conduzcan a la solucibn de tales
de
conjunto
ventajas
que e l c r i t e r i o de optimalidad
indique l a e s t r a t e g i a a seguir.
E l diseo --
de
a
cual
se formula l a en el
hipbtesis de que son activas en e l 6ptimo tensidn mdxima. Para aclarar este
restricciones formulemos
concepto, de
estructuras
barras
articuladas
L i=l i
verificando :
(x)
5 7
i
siendo
: i = n b e r o de barra
donde no consideramos restricciones laterales por simplicidad, suponemos que la estructura se encuentra
sometida a un solo
estado de carga.
problema
anterior,
para: x = x
,existen:
i= \ = z
*
t \
= c
verificando:
siendo
los multiplicadores de
las
restricciones
en
siendo "T" y "C" dos conjuntos complementarios, cuya uni6n es conjunto anterior de todas las barras. Evidentemente, que todas las la
el
hiptesis estdn
equivale a
presuponer
barras
traccionadas o comprimidas a sus tensiones mAximas respectivas, y que se conoce el estado de cada barra. Introduciendo esta hipbtesis en parte de las condiciones de Kuhn-Tucker obtenemos:
para: x = x
(x) =
-c
j
t j e c
"n"
incbgnitas, de
no
lineal
en
resoluci6n ha
emplearse
un algoritmo a
iterativo, y que no es sino la aplicacibn del metodo de diseo maxima metodo tensi6n. de Newton Resolviendo para el
sistemas de
j e c
(3.81) no
verifica
- para: x = x
verificando:
,existen: A = A
T
-*
T
, = A
C
L - C\ a j ahx s
i
jel!
( x ) + x
j jec
& s ( x ) = o c j ax j
condiciones
(3.83)
se
resistentes
de
las
barras.
Asi
pues,
puede
mismas.
de
su
s
j
(X) = N
j
/ x
j
j = i , , n
> O s i j e T
N =
Evidentemente,
en
este
caso
las
ecuaciones
(3.81)
se
resuelven de forma t r i v i a l :
y las condiciones ( 3 . 8 3 ) se verifican de forma automAtica, puesto que los multiplicadores no nulos pueden obtenerse explcitamente
en la forma:
variables
diseo
condiciones necesarias de
trata
para
resultado es evidente sin necesidad de aplicar las condiciones de Kuhn-Tucker, pero indica con claridad por que el metodo de diseo a mAxima tensi6n no proporciona para necesariamente diseos bptimos
ilustrativo acerca de
forma
desarrollar
c r i t e r i o s de o p t i m a l i d a d .
111.5.3.4
de
minimizacibn
no
restricciones puede
matembtica
r e a l i z a r s e a t r a v e s de l o s metodos s i g u i e n t e s :
*todo
de funciones Barrera
Sea
un
problema
general
de
programacibn
matembtica
problema a n t e r i o r si s e v e r i f i c a :
B(g) ->
+ m
cuando
en
l a r e g i b n f a c t i b l e , y a l c a n z a un v a l o r i n f i n i t o en l a f r o n t e r a d e l a misma.
con:
b (g ) = j j
in
- g
j
; ( f . b. logaritmica)
b (g
j j
= - l/g
; ( f . b. inversa)
j
Definamos
el
problema
de minimizacibn no
restringida,
minimizar:
$ (X,w) = f ( X )
+ w
B(g(x))
--
;w > O
(3.89)
Bajo
ciertas condiciones
favorables, dependientes
del
{ x } = x
oo
donde
es decir, que si
minimizaci6n sin restricciones del tipo (3.89) con pardmetros "wH decrecientes, se espera que la sucesibn de problemas converja a la soluci6n del soluciones de problema tales
inicial de
tiene la
la
gran
ventaja,
de
que
todas dada
las la
sucesibn
k
lo{;
)"
son
factibles,
E l metodo no e s valido
s i hay r e s t r i c c i o n e s de igualdad, aunque esten encubiertas en l a formulacibn estandar a t r a v e s de dos r e s t r i c c i o n e s en desigualdad cada una, puesto que en l a frontera de l a regibn f a c t i b l e , l a funcibn " @ ( ~ , w ) " siempre alcanza un valor i n f i n i t o .
Para resolver cada problema de minimizacibn s i n r e s t r i c c i o n e s d e l t i p o (3.89) mediante un algoritmo i t e r a t i v o , e s necesario p a r t i r de una aproximacibn i n i c i a l f a c t i b l e , puesto que fuera de l a regibn f a c t i b l e e l comportamiento de l a funcibn "@(X,W)"s i n c i e r t o , y en l a frontera de e s t a , l a funcibn e alcanza un valor i n f i n i t o .
cada vez mhs pequeos, se mal condiciona e l hessiano de l a funcibn "@(x,w)"a minimizar.
Parte
de
estas
desventajas
pueden
paliarse
empleando
funciones barrera extendidas, de forma que s u rango de d e f i n i c i b n se amplie a l e x t e r i o r de l a regibn condicibn de que factible, renunciando
la
sea i n f i n i t o , e s t o es:
Figura 3 9 .. Interpretacibn grdfica de los mCtodos de funciones Barrera y los mCtodos de funciones de Penalizacibn. a)MCtodo de funciones Barrera. Secuencia de soluciones aproximadas factibles. b)MCtodo de funciones de Penalizacibn. Secuencia de soluciones aproximadas no factibles.
con:
b (g) = b (g ) j j j e b ( g ) = e ( g ,E) j j
e -
, m
siendo las funciones "b:", funciones barrera cualesquiera para cada restriccibn.
Metodo de funciones & Penalizacibn
Sea un problema
general
de
programacibn
matemdtica
definida en
creciendo a
medida
que
se
incumplen
las
con:
p ( g ) = (max(0,g 1 ) j j j
; ( f . de p. cuadrdtica)
restringida,
Bajo
del
entonces: 1i i
donde
es soluci6n d e l problema i n i c i a l ( 3 . 1 )
es decir, que si
se construye una
sucesibn de
problemas de
minimizacibn sin restricciones del tipo (3.94) con pardmetros "w" decrecientes, se espera que la sucesibn de problemas converja a la solucibn del soluciones de problema tales
inicial de
minimizacibn con restricciones. La denominacibn de funcibn de penalizacibn alude claramente a la modificacibn que introduce en la funcibn objetivo de forma
que las restricciones se incumplan lo menos posible (Fig. 3.9-b). Este metodo tiene dos ventajas fundamentalmente frente al de funciones barrera:
en la resolucibn de cada problema de minimizacibn sin restricciones no es necesario partir de una aproximacibn inicial factible. El metodo es vAlido si hay restricciones de igualdad, y de hecho fue inicialmente desarrollado para este tipo de problemas. En este caso, sustituyendo cada restriccibn de igualdad por dos restricciones en desigualdad, se comprueba que los terminos de la funcibn de penalizacibn de Ambas pueden agruparse en uno solo.
Las soluciones de la sucesibn " x 1" son generalmente no { factibles, dada la naturaleza del problema (3.94). Al adoptar parbmetros "w" cada vez mAs pequeos, se mal condiciona el hessiano de la funcibn "c(x,w)" a minimizar.
-k
Los m&todos
de
lagrangiano aumentado, o
metodos
de
su vez
principio para problemas con restricciones de obstante, puede extenderse su aplicacibn a general con restricciones cualesquiera,
problemas
como expondremos
exclusivamente de igualdad, del tipo (3.45). Obviamente, puede formularse un anterior en la forma: problema equivalente al
minimizar
: f(X)
-l / w A(h(x)) ;x = {x ) ; i = l , , n i ;w > O
verificando: h(x) = O
--
;h(x) = {h ( x ) )
1
--
;L =1,
,p
' ' ~ ( 6: )
anulacibn de
las restricciones de igualdadr y se resuelve el problema (3.96) para una secuencia de valores decrecientes del parametro " ~ " r lo que obtenemos es la aplicacibn del metodo de penalizacibn al restricciones de igualdad
problema de forma diferente, evitando el mal condicionamiento del hessiano para valores pequeos del parametro "w". Denominaremos lagrangiano aumentado minimizacibn del problema de
e l lagrangiano ( 3 . 4 7 )
y evidentemente, por
la equivalencia de
ambos problemas, la
aplicacibn de
obtenido para el lagrangiano 'i~(X,i)". Igualmente se comprueba, sin mbs que aplicar la formulacibn del que problema primal (3.59),
tales condiciones, "1 ", respecto a las variables "x", conduce a la solucibn del problema original Ello sugiere que de los
-*
al resolver una sucesibn de tales problemas con valores multiplicadores que converjan a los de soluciones correspondiente,
-*
es
1 minimizar:
X(x,\,w)
con 1= \
--
-k
-*
-k
para
el
parAmetro
"wtt,
se
evita
el
mencionado
mal
tratamiento
anulacibn del gradiente del lagrangiano aumentado (3.98), con equivalente (3.48) para el
cada
iteracibn da
AdemAs, la fbrmula (3.100) puede escribirse en funcibn del gradiente de la funcibn lagrangiano dual (3.61) para el problema (3.45), en la forma:
-k+l
A
-k
2
+-
= A
VW
\
t i )
k
W
el metodo
(3.99), en
con
la
actualizacibn
los multiplicadores, es
el
que
se aplica para la maximizacibn del lagrangiano dual fbrmula de mbximo ascenso. obtenerse fbrmulas de
d e l lagrangiano dual. Los metodos como de multiplicadores, mbtodos de por de tanto, pueden de
contemplarse
solucibn
problemas duales,
formulaciones
donde
posible en
generalizar
el
metodo
para
problemas
con
restricciones
l a f u n c i b n l a g r a n g i a n o aumentado. en
l a forma e s t d n d a r ( 3 . 1 ) e s h a b i t u a l l a adopcibn de l a f u n c i b n
siguiente:
Kuhn-Tucker
de
extremo p a r a l a f u n c i b n a n t e r i o r . minimizar
11
la
",
si l o s multiplicadores
"i" toman
del
condiciones
de
Kuhn-Tucker
problema
o b t e n i d a e s s o l u c i b n d e l problema o r i g i n a l . en
el
c a s o a n t e r i o r , pueden d e r i v a r s e fbrmulas d e a c t u a l i z a c i b n
111-83
para los multiplicadores de forma que converjan a los valores que verifican las condiciones de Kuhn-Tucker, obteniendo:
(3.103)
para
problemas de minimizacibn con restricciones en desigualdad, se obtiene directamente de la fbrmula (3.101) para problemas con
restricciones de igualdad, introduciendo una correccibn que evite que los multiplicadores correspondientes a restricciones en
particularizacibn del
dual, sometido a restricciones laterales (de no positividad) de los multiplicadores. Desde este punto de vista, la fbrmula de
actualizacibn tiene un significado inmediato, y se comprenden de forma intuitiva las razones que conducen a restricciones en adoptar para el desigualdad un
lagrangiano aumentado del tipo (3.102). Unificando ambos lagrangianos aumentados, y desde perspectiva de dualidad, puede obtenerse un metodo una de
laterales
separadamente.
es (3.60),
mbs
particularizacibn del
problema
dual
sustituyendo el
los
terminos de
(3.98)
restricciones de
respectivamente,
111.5.3.5
M&todos de
reduccibn
problemas
especlficos
de
En
secciones previas
se ha
puesto
de
manifiesto
la
existencia de
algoritmos de
Para problemas de minimizacibn de funciones no lineales con restricciones en desigualdad se han desarrollado varios metodos con numerosas variantes basados en original a una la reduccibn del problema
cuadrbtica, que
clasificar en la forma:
Metodos de direcciones factibles. Metodos de programacibn lineal secuencial. Metodos de programacibn cuadrdtica secuencial.
En lo sucesivor consideraremos el
problema
general
de
programacibn matemdtica escrito en la forma estbndar (3.1), donde supondremos por simplicidad, que si hay restricciones laterales,
se encuentran
incluidas en el conjunto de
restricciones en la mayoria
Metodos
de
Direcciones Factibles
Dado un punto factible del problema 3 . una direccibn "S" se dice factible (o mds propiamente, factible en primera aproximacibn), si se cumple:
''xko8
siendo "Q" el conjunto de las "q" restricciones que se encuentran activas en el punto dado (Fig. 3.10).
Los metodos de direcciones factibles no son sino metodos de descenso del tipo (3.12) en los que se impone ademds la condicibn de que las sucesivas direcciones de descenso sean factibles, es decir, que verifiquen la condicibn anterior. algoritmos que se diferencian en la Existen diversos una
forma de estimar
direcci6n factible de avance, entre los cuales el mds ampliamente utilizado es el de Zoutendijk. de descenso En este algoritmo, la direccibn de
problema
geometrica
del
concepto
de
maximizar
verificando :
6 2
con:
(P j
LO
el
mbdulo
del
Si
un
coeficiente a ser
tiende al
anularse, gradiente a
l a d i r e c c i b n de avance de la restriccibn
tiende
ortogonal
y
correspondiente,
por
tanto
encontrarse
en e l hiperplano seleccibn de la
mas
a
acusado p o s i b l e . infinito,
l o largo de t a l direccibn, y
funcibn
s e o b t i e n e n d i r e c c i o n e s de rApidamente
a l e x t e r i o r d e l a r e g i b n f a c t i b l e , m i e n t r a s que p a r a
objetivo.
= 0,
el
punto
local del es
inicial.
En caso una
direccibn
factible y
realizarse
minimizacibn unidireccional para obtener una nueva aproximacibn a la solucibn del problema. En el proceso pueden aadirse o
eliminarse elementos del conjunto de restricciones activas. factor es de gran interbs, pues ofrece la
Este
posibilidad de
controlar con sencillez la convergencia del algoritmo. Es conveniente imponer vector de la limitacibn en el mbdulo del
mediante programacibn lineal, perdiendose su ventaja fundamental. Es importante considerar que para puntos interiores de la factible no existen restricciones activas, y de por la regibn la
tanto
forma de
la limitacibn se
impusiese mediante una restriccibn de igualdad sobre la norma del vector, similar exactamente con restringida. La necesidad principal de desventaja del algoritmo estriba en la Su a un la empleada en (3.44), el metodo coincidiria mbtodo de Newton para minimizacibn no
adoptar es
"7"
adecuados.
estimacibn no motivarhn en
sencilla, y
coeficientes
incorrectos
proceso
contorno con varias restricciones activas, en casos en que algoritmos no evolucionan favorablemente o
sencillamente se
estancan.
Wtodos
de Programaci6n
Lineal Secuencia1
recursiva,
tambien conocidos como metodos de linealizacibn, son variantes de un solo metodo que consiste en sustituir un problema de
minimizacibn
funcibn objetivo y las restricciones mediante sus desarrollos Taylor truncados por los terminos de primer orden
(Fig. 3.11-a).
para el problema en la forma estdndar (3.1) puede escribirse tanto en la forma siguiente:
-k
Dado: x
, Obtener:
-k + l
x
-k
-k
= x
+ r
-
donde:
k
-k
r minimiza:
k F(r) = f(X )
+ vf(X
k k verificando: G ( r ) = g (k ) + V g (k ) j j j
; =
Para resolver cada problema linealizado es preciso realizar una traslacibn de ejes en el espacio de diseo, dado que la de
aplicacibn del Metodo del Simplex implica la no negatividad las variables primales. Por ello, el
algoritmo anterior se
hhiprodcmono l i r d
optimo bl
Figura 3.11.Interpretacibn geometrica del algoritmo de Programacibn Lineal Secuencia1 y de las oscilaciones cerca del bptimo. a)Comparacibn entre el problema de programacibn no lineal y el problema linealizado en torno a un punto. b)Ejemplo de fuertes oscilaciones en torno al bptimo en un problema cuya solucibn no esta en un vCrtice del contorno de la regibn factible.
-k
Dado: x
, Obtener:
-k + l
x
-k -k - -k = x + r = t + u , donde:
con:
F(O)
k = f(i )
+ vf(i )
(t
-k
x )
de
las
pequeo, cuya hnica misibn es permitir el tratamiento mediante el Metodo del Simplex de la secuencia de problemas de programaci6n lineal. No obstante, es frecuente en problemas de optimizaci6n imposicibn de las variables restricciones laterales en de diseo, y los a
estructural la valores de
como veremos
lineal
secuencia1 pueden soslayarse en mayor o menor grado introduciendo restricciones laterales adicionales en cada iteracibn. Por ello
la traslacibn de ejes no supone habitualmente un encarecimiento o una perdida de eficiencia del algoritmo. La resolucibn de la secuencia de problemas linealizados que proporciona el algoritmo anterior es sencilla, y sus
cAlculo
son
razonables.
Por
Para que l a secuencia de problemas linealizados tenga solucibn, es necesario en general que existan a l menos tantas restricciones como variables de diseo. Este defecto no s e manifiesta en l a versibn (3.107) del algoritmo, dado que l a traslacibn de ejes realizada, introduce automdticamente "n" restricciones adicionales. Aunque se cumpla l a condicibn anterior y e l problema de programaci6n no lineal e s t e bien definido, en s u aproximacibn l i n e a l l a regibn f a c t i b l e puede ser ilimitada en una direccibn de descenso, y e l problema de prograrnacibn l i n e a l tendra solucibn en e l i n f i n i t o . Puesto que l a solucibn de un problema de programacibn l i n e a l siempre se encuentra en un vertice del hiperpoliedro que configura su regibn f a c t i b l e , e l algoritmo anterior no converge s i l a solucibn del problema i n i c i a l de prograrnacibn o un mnimo no l i n e a l es un mnimo no restringido condicionado por un ntimero de restricciones inferior a l En estos casos ndmero de variables de diseo (Fig. 3.11-b). se producen oscilaciones entre vertices de l o s problemas linealizados.
Para evitar los defectos diversas lineal modificaciones secuencial, entre del las
anteriores
se
han
desarrollado
metodos :
Mbtodo de Kelley, o del plano secante. Metodo de l a hiperesfera. Metodo de l a s hiperesferas inscritas. Mbtodo de limites mbviles.
que
en
problemas
convexos,
la
regibn de
factible
de
linealizado
del
algoritmo
programacibn
lineal
(3.106)
contiene integramente a la regibn factible del problema Por tanto, las sucesivas linealizaciones de las
inicial (3.1).
restricciones en
cada iteracibn las restricciones linealizadas de las anteriores. Para problemas convexos puede
orden de
no convexos, la retenci6n de
restricciones puede excluir de la regi6n factible linealizada el minimo global. En cualquier caso, la principal desventaja del
aplicacibn del
-k
la el
linealizado.
Si:
-k+l
entonces:
x
-k
= x
-k
r
donde "R" es el radio de la hiperesfera arbitrariamente adoptado. La importancia de la correccibn anterior decrece a medida que el De hecho, su bnico efecto es impedir
El
metodo
de
las
hiperesferas de programacibn
inscritas lineal
es
una
reformulacibn del
metodo
secuencial, a
convergencia
forzar la convergencia al bptimo global del adolece de los mismos defectos del
Sin embargo
algoritmo anterior, en cuanto a que la convergencia no es posible si la solucibn es un condicionada por un minimo nbmero no condicionado, o se encuentra
insuficiente de restricciones. El
algoritmo se basa en la obtencibn del centro de la hiperesfera de mayor radio inscrita en la regi6n factible linealizada, y de este hecho recibe su nombre.
de
aproximacibn
conjunto de
-k r verifica:
k - c z r < i i
C
con:
puede
mantenerse cada
iteracibn con
Evidentemente es posible, y en ocasiones recomendable, adoptar un valor distinto para el limite inferior y superior de cada
variable, aunque en este desarro110 emplearemos limites identicos a ambos lados por simplicidad.
con
las variables
de
diseo,
traslacibn de ejes que asegure la no negatividad de las variables primales de los problemas linealizados. El algoritmo resultante
-k
Dado: x
, Obtener:
-k+l
x
-k = x
+ r +
-k
k
= x
+
U
-k
u
, donde:
-k
u
minimiza:
F ( u ) = F(:)
Vf(X )
verificando: G
(u)
= G
(O)
+Vg
(i)
u 5
G (O) = g
(x
) -vg
k
(X )
modificacibn de las variables de diseo, de forma que la de las aproximaciones lineales se mantenga razonables. Introducen de forma
dentro de natural
mhrgenes
anteriormente soluciones no
necesariamente condicionadas de la
suficientemente elevado
valor de los limites impuestos. Por tanto, de los limites mbviles en cada
adecuada actualizacibn
iteracibn, reduciendolos en mayor o menor grado si se presentan oscilaciones cerca del bptimo, permite obtener buenas
aproximaciones a
Si ademhs
hay restricciones laterales en el problema, bastard cada iteracibn, y para cada variable, las
imponer
en
abordar la solucibn del problema (3.1) de programacibn no lineal, ampliamente utilizado en estructural, y capaz el de dmbito de la optimizacibn aproximaciones
proporcionar
razonablemente buenas a la solucibn, si bien en las proximidades del bptimo es necesario recurrir a tratamientos mds sofisticados para obtener resultados de mayor exactitud y evitar oscilaciones.
Los metodos
de
programacibn cuadrdtica
secuencial
recursiva consisten en la sustitucibn de un problema general de minimizacibn con restricciones (3.2) por una secuencia de
problemas aproximados de programacibn cuadrdtica (3.67), de forma que la secuencia de soluciones obtenida converja a del problema general inicial. Una forma razonable de obtener una secuencia de de problemas la solucibn
-k
Dado: x
, Obtener:
-k + l
x
-k = x
-k
r
8
donde:
-k r minimiza:
-k ~ ( r ) = f ( x )
donde "H" e s e l h e s s i a n o d e l a f u n c i b n o b j e t i v o , y q u e ,
N
como
es
bien
sabido,
e l problema pueda c o n s i d e r a r s e d e
cdlculo
d e l h e s s i a n o puede o b v i a r s e mediante l a a p l i c a c i b n d e un
orden
el
problemas
de
generales
de
estructural,
algoritmo
c u a d r b t i c a s e c u e n c i a l no a p o r t a g r a n d e s general, en este
ventajas,
aproximacibn l i n e a l , y l a s
en un una
vertice
convergencia mds
oscilaciones y otras mal funciones caracteristicas de los metodos de linealizacibn. Su principal desventaja reside en sus mayores requerimientos de por iteracibn. Es posible desarrollar otros algoritmos de programacibn almacenamiento de memoria y tiempo de cdlculo
cuadrdtica recursiva a partir de consideraciones distintas. En particular, si identificacibn se emplea de una estrategia basada en la
minimizacibn con restricciones de igualdad. Para esta secuencia de problemas, las condiciones (3.46) son condiciones de Consecuentemente, si se plantea extremo.
Dado: x
-k
, Obtener:
F; ()
-k+l
x
k -k = x + r
, donde:
k
-k
r
minimiza:
(x
k
)
v(; )
verificando: G ( r ) = g
(2)
+Vg
(xk
5 O
donde las
W M es
H
el hessiano del Lagrangiano del problema respecto a La diferencia esencial entre en el los
variables primales.
primero el
hessiano
la funcibn objetivo, mientras que en el segundo coincide lagrangiano del problema. La desventaja de la
formulacibn
(3.112) estriba en que es obligado el cdlculo de los hessianos de las funciones que definen las restricciones, lo cual no siempre de tiempo de cAlculo. Su
fundamental es que introduce de alguna forma en cada uno problemas cuadrdticos la no linealidad de las
mediante