Está en la página 1de 17

M

etodo lagrangiano. En el metodo de Jacobi, sea que el vector represente los


coeficientes de sensibilidad; esto es
= Y0 J1 =

f
g

Entonces,
f g = 0
Esta ecuaci
on satisface las condiciones necesarias para puntos estacionarios, porque
f /g se calcula de tal modo que c f = 0. Una forma mas comoda de presentar
estas ecuaciones es tomar sus derivadas parciales con respecto a todas las xj . Con eso
se obtiene

(f g) = 0, j = 1, 2, . . . , n.
xj
Las ecuaciones obtenidas, junto con las ecuaciones de restriccion g(X) = 0, dan como
resultado los valores factibles de X y que satisfacen las condiciones necesarias para
puntos estacionarios.
Este procedimiento define al metodo lagrangiano, o de Lagrange, para identificar los
puntos estacionarios de problemas de optimizacion con restricciones de igualdad. El
procedimiento se puede desarrollar formalmente como sigue. Sea
L(X, ) = f (X) g(X)
A la funci
on L se le llama funci
on de Lagrange, y a los parametros se les llama
multiplicadores de Lagrange. Por definicion, esos multiplicadores tienen la misma
interpretaci
on que los coeficientes de sensibilidad del metodo jacobiano. Las ecuaciones
L
L
= 0,
=0

X
expresan las condiciones necesarias para determinar los puntos estacionarios de f (X)
sujetos a g(X) = 0. Las condiciones de suficiencia para el metodo de Lagrange se
enunciar
an sin demostraci
on. Se define


0 P
B
H =
PT Q (m+n)(m+n)
en donde

g1 (X)
2 L(X, )

..
P=
,Q=k
knn

.
xi xj
gm (X) mn

La matriz HB es la matriz hessiana de frontera o acotada.


Dado el punto estacionario (X0 , 0 ) de la funcion lagrangiana L(X, ) y la matriz
hessiana de frontera HB evaluada en (X0 , 0 ), entonces X0 es
1

1. Un punto m
aximo si, comenzando con el determinante principal mayor de orden
(2m + 1), los u
ltimos (n m) determinantes menores de HB forman una pauta
de signos alternativos con (1)m+1 .
2. Un punto mnimo si, comenzando con el determinante menor principal de orden
(2m + 1), los u
ltimos (n m) determinantes menores principales de HB tienen
m
el signo (1) .
Estas condiciones son suficientes, pero no necesarias, para identificar un punto extremo. Esto quiere decir que un punto estacionario puede ser un punto extremo sin
satisfacer esas condiciones.
Existen otras condiciones que son necesarias y suficientes al mismo tiempo, para identificar puntos extremos. Sin embargo, el procedimiento puede ser computacionalmente
inmanejable. Se define la siguiente matriz en el punto estacionario (X0 , 0 ):


0
P
=
PT Q I
donde es un par
ametro desconocido. Se considera el determinante ||; entonces,
cada una de las (n m) races reales del polinomio
|| = 0
debe ser
1. Negativa si X0 es un punto maximo.
2. Positiva si X0 es un punto mnimo.
Ejemplo 20.2-4
Para el problema del ejemplo 20.2-2, la funcion de Lagrange es
L(X, ) = x21 + x22 + x23 1 (x1 + x2 + 3x3 2) 2 (5x1 + 2x2 + x3 5)
Esto produce las siguientes condiciones necesarias:
L
x1
L
x2
L
x3
L
1
L
2

2x1 1 52 = 0

2x2 1 22 = 0

2x3 31 2 = 0

= (x1 + x2 + 3x3 2) = 0
= (5x1 + 2x2 + x3 5) = 0
2

La soluci
on de esas ecuaciones simultaneas es
X0 = (x1 , x2 , x3 ) = (0.8043, 0.3478, 0.2826), = (1 , 2 ) = (0.0870, 0.3043)
En esta soluci
on se combinan los resultados de los ejemplos 20.2-2 y 20.2-3. Los valores de los multiplicadores de Lagrange son iguales a los coeficientes de sensibilidad
obtenidos en el ejemplo 20.2-3 (salvo errores de redondeo). El resultado demuestra
que esos coeficientes son independientes de la eleccion de Y, el vector dependiente en
el metodo jacobiano.
Para demostrar que este punto es un mnimo, considerese

0 0 1 1 3
0 0 5 2 1

H =
1 5 2 0 0
1 2 0 2 0
3 1 0 0 2
Como n = 3 y m = 2, n m = 1 y se debe comprobar solo el determinante de HB ,
que debe tener el signo de (1)2 para que el punto estacionario X0 sea un mnimo.
Como HB = 460 > 0, X0 es un punto mnimo.
Ejemplo 20.2-5
Se tiene el problema
Minimizar z = x21 + x22 + x23
sujeta a
4x1 + x22 + 2x3 14 = 0
La funci
on de Lagrange es
L(X, ) = x21 + x22 + x23 (4x1 + x22 + 2x3 14)
de donde
L
x1
L
x2
L
x3
L

2x1 4 = 0

2x2 2x2 = 0

2x3 2 = 0

= (4x1 + x22 + 2x3 14) = 0

Estas ecuaciones tienen una infinidad de soluciones porque L/x2 = 0 es independiente de x2 . A manera de ejemplo se examinaran las tres soluciones siguientes:
(X0 , 0 )1
(X0 , 0 )2
(X0 , 0 )3

= (2, 2, 1, 1)
= (2, 2, 1, 1)
= (2.8, 0, 1.4, 1.4)
3

Con las condiciones de suficiencia se obtiene

0
4
2x2
2
4
2
0
0

HB =
2x2 0 2 2 0
2
0
0
2
Como m = 1 y n = 3, para que un punto estacionario sea mnimo, el signo de los
u
ltimos (31) = 2 determinantes menores principales debe ser igual al de (1)m = 1.
Entonces, para(X0 , 0 )1 = (2, 2, 1, 1),


0 4 4 2




0 4 4




4 2 0 = 32 < 0, 4 2 0 0 = 64 < 0
4 0 0 0




4 0 0
2 0 0 2
Para (X0 , 0 )2 = (2, 2, 1, 1),

0

4

4


4 4

2
0
= 32 < 0,
0
0


0

4

4

2

Por u
ltimo, para (X0 , 0 )3 = (2.8, 0, 1.4, 1.4)


0



0 4
0
4


4 2
0 = 12.8 > 0,
0


0 0 0.8
2


4 4 2

2
0 0
= 64 < 0
0
0 0

0
0 2

4
0 2
2
0 0
0 0.8 0
0
0 2





= 32 > 0


Esto demuestra que (X0 )1 y (X0 )2 son puntos mnimos y que (X0 )3 no satisface las
condiciones de suficiencia para ser maximo o mnimo. Esto no quiere decir que no sea
un punto extremo, porque estas condiciones solo son suficientes.
Para ilustrar el uso de la otra condicion de suficiencia que emplea las races de un
polinomio, se tiene

0
4
2x2
2
4
2
0
0

=
2x2
0
2 2
0
2
0
0
2
Ahora, para (X0 , 0 )1 = (2, 2, 1, 1),
|| = 92 26 + 16 = 0
Esto resulta en = 2 o 8/9. Como toda > 0, (X0 )1 = (2, 2, 1) es un punto mnimo.
Para (X0 , 0 )2 = (2, 2, 1, 1),
|| = 92 26 + 16 = 0
4

igual que en el caso anterior. Por consiguiente, (X0 )2 = (2, 2, 1) es un punto mnimo.
Por u
ltimo, para (X0 , 0 )3 = (2.8, 0, 1.4, 1.4),
|| = 52 6 8 = 0
En este caso, = 2 y = 0.8, que quiere decir que no se conoce la identidad de
(X0 )3 = (2.8, 0, 1.4).
Restricciones de desigualdad
Ahora ampliaremos el metodo de Lagrange para manejar restricciones de desigualdad.
La contribuci
on principal en este caso es el desarrollo de las condiciones generales de
Karush-Kuhn-Tucker (KKT) que proporcionan la teora basica de la programacion no
lineal.
Extensi
on del m
etodo de Lagrange. Se tiene el problema
Maximizar z = f (X)
sujeta a
gi (X) 0, i = 1, 2, . . . , m.
Las restricciones de no negatividad X 0, si las hay, se incluyen en las m restricciones.
Si el
optimo no restringido de f (X) no satisface a todas las restricciones, el optimo
restringido debe ser un punto limite en la frontera del espacio de soluciones. Esto
quiere decir que al menos una restriccion se debe satisfacer en forma de ecuacion. Por
consiguiente, el metodo implica los siguientes pasos.
Paso 1. Resolver el problema sin restricciones:
Maximizar z = f (X)
Si el
optimo resultante satisface todas las restricciones, detenerse, porque todas
las restricciones son redundantes. En caso contrario hacer k = 1 y seguir en el
paso 2.
Paso 2. Activar todas las k restricciones (es decir, convertirlas en igualdades) y optimizar
a f (X) sujeta a las k restricciones activas, con el metodo de Lagrange. Si la
soluci
on obtenida es factible con respecto a las demas restricciones, detenerse; se
tiene un
optimo local. En caso contrario, activar otro conjunto de k restricciones
y repetir el paso. Si se han considerado todos los conjuntos de restricciones
activas, tomadas de k en k, sin encontrar una solucion factible, proceder al paso
3.
Paso 3. Si k = m, detenerse. No existe solucion factible. En caso contrario, poner
k = k + 1 y seguir en el paso 2.

Un punto importante que con frecuencia se pasa por alto al presentar el procedimiento
es que no garantiza una optimalidad global, aun cuando el problema tenga buen comportamiento (es decir, que posea un optimo u
nico). Otro punto importante es la idea
err
onea implcita que para p < q, el optimo de f (X) sujeta a p restricciones de igualdad siempre es mejor que su optimo sujeto a q restricciones de igualdad. Eso es cierto,
en general, s
olo si las q restricciones forman un subconjunto de las p restricciones. El
ejemplo que sigue tiene por objeto ilustrar estos puntos.
Ejemplo 20.2-6
Maximizar z = (2x1 5)2 (2x2 1)2
sujeta a
x1 + 2x2 2, xk 0.
La representaci
on gr
afica de la figura 1 ayuda a comprender el procedimiento analtico.
Observe que el problema tiene buen comportamiento (funcion objetiva concava sujeta
a un espacio de soluciones convexo), y eso quiere decir que un algoritmo razonablemente bien definido debera garantizar la optimalidad global. Sin embargo, como se
demostrar
a, el metodo ampliado de Lagrange solo produce un maximo local.

Figure 1: Espacio de soluciones del ejemplo 20.2-6.


El
optimo sin restricciones se obtiene resolviendo
z
x1
z
x2

= 4(2x1 5) = 0
= 4(2x2 1) = 0

La soluci
on es (x1 , x2 ) = (5/2, 1/2), que no satisface la restriccion x1 +2x2 2. As, se
activan las restricciones una por una. Se considerara x1 = 0. La funcion lagrangiana
es
L(x1 , x2 , ) = (2x1 5)2 (2x2 1)2 x1
Entonces,
L
x1
L
x2
L

= 4(2x1 5) = 0
= 4(2x2 1) = 0
= x1 = 0

Con esto se obtiene el punto de solucion (x1 , x2 ) = (0, 1/2), que se puede demostrar,
con la condici
on de suficiencia, que es un maximo. Como este punto satisface todas las
dem
as restricciones, el procedimiento se termina con (x1 , x2 ) = (0, 1/2) como solucion
optima local del problema. El valor objetivo es z = 25. (Las restricciones restantes

x2 > 0 y x1 = 2x2 < 2, activadas una por una, producen soluciones no factibles.
En la figura 1, la soluci
on factible (x1 , x2 ) = (2, 0), que es el punto de interseccion de
las dos restricciones x2 = 0 y x1 + 2x2 = 2 produce el valor objetivo z = 2. Este
valor es mejor que el obtenido con una restriccion activa.
El procedimiento que acabamos de describir ilustra que lo mejor que cabe esperar
usan do el metodo de Lagrange es una (posiblemente) buena solucion factible. Esto
es especialmente cierto si la funcion objetivo no es unimodal. Si las funciones del
problema tienen buen comportamiento (es decir, el problema posee un solo optimo
restringido como en el ejemplo 20.2-6), se puede rectificar el procedimiento para localizar al
optimo global. En forma especfica, considerense el optimo no restringido
y los
optimos restringidos sujetos a todos los conjuntos de una restriccion activa, despues a dos restricciones activas, y as sucesivamente, hasta que se activen todas las
m restricciones. El mejor de todos los optimos factibles es el optimo global.
Si se sigue este procedimiento en el ejemplo 20.2-6, sera necesario resolver siete problemas para verificar la optimalidad. Esto indica que el uso del metodo para resolver
problemas de cualquier tama
no practico es limitado.
Las condiciones de Karush-Kuhn-Tucker (KKT). En esta seccion se presentan
las condi ciones necesarias KKT para identificar puntos estacionarios de un problema
no lineal restringido sujeto a restricciones de desigualdad. El desarrollo se basa en el
metodo de Lagrange. Esas condiciones tambien son suficientes, bajo ciertas reglas que
se enunciar
an despues. En el problema
Maximizar z = f (X)
sujeta a
g(X) 0
7

Las restricciones de desigualdad se pueden convertir en ecuaciones usando variables no


negativas de holgura. Sea Si2 (no negativa) la holgura agregada a la i-esima restriccion
gi (X) 0, y defnanse
2 T
S = (S1 , S2 , . . . , Sm )T , S2 = (S12 , S22 , . . . , Sm
)

donde m es la cantidad total de restricciones de desigualdad. Entonces, la funcion de


Lagrange es


L(X, S, ) = f (X) g(X) + S2
Dadas las restricciones
g(X) 0
una condici
on necesaria para la optimalidad es que sea no negativo (no positivo) en
proble mas de maximizaci
on (minimizacion). Este resultado se justifica como sigue.
El vector mide la rapidez de variacion de f con respecto a g; esto es,
=

f
g

En el caso de la maximizacion, cuando el lado derecho de la restriccion g(X) 0


cambia de 0 a g(> 0), el espacio de soluciones se hace menos restringido y en consecuencia f no puede decrecer. Eso quiere decir que 0. De igual modo para la
minimizaci
on, a medida que aumenta el lado derecho de las restricciones, f no puede
aumentar, lo que implica que 0. Si las restricciones son igualdades, esto es,
g(X) = 0, entonces es libre en signo.
Las restricciones de son parte de las condiciones KKT necesarias. A continuacion
se deducir
an las dem
as condiciones.
Al tomar derivadas parciales de L con respecto a X, S y se obtienen
L
X
L
Si
L

= f (X) g(X) = 0
= 2i Si = 0, i = 1, 2, . . . , m
= g(X) S2 = 0

El segundo conjunto de ecuaciones indica los siguientes resultados:


1. Si i 6= 0, entonces Si2 = 0, lo que significa que el recurso correspondiente es
escaso y, en consecuencia, se consume por completo (restriccion de igualdad).
2. Si Si2 > 0, entonces i = 0. Esto quiere decir que el recurso i no es escaso y, en
consecuencia, no tiene efecto sobre el valor de f (es decir, i = f /gi = 0).
Del segundo y tercer conjunto de ecuaciones se obtiene
i gi (X) = 0, i = 1, 2, . . . , m
8

Esta nueva condici


on repite esencialmente el argumento anterior, porque si i > 0
gi (X) = 0 Si2 = 0, y si gi (X) < 0 Si2 > 0 i = 0.
Las condiciones KKT necesarias para el problema de maximizacion se pueden resumir
entonces como sigue:

f (X) g(X)
i gi (X)
g(X)

0
= 0
= 0, i = 1, 2, . . . , m
0

Estas condiciones se aplican tambien al caso de minimizacion, con la excepcion de


que debe ser no positiva (compruebelo!). Tanto en la maximizacion como en la
minimizaci
on, los multiplicadores de Lagrange que corresponden a las restricciones de
igualdad deben ser libres de signo.
Suficiencia de las condiciones KKT. Las condiciones necesarias de Kuhn-Tucker
tambien son suficientes, si la funcion objetivo y el espacio de soluciones satisfacen las
condiciones de la tabla 1.

sentido de la
optimizaci
on
Maximizaci
on
Minimizaci
on

Tabla 1
Condiciones requeridas
Funcion objetivo Espacio de soluciones
Concava
Conjunto convexo
Convexa
Conjunto convexo

Es m
as f
acil comprobar que una funcion es convexa o concava que demostrar que un
espacio de soluciones es un conjunto convexo. Por esta razon se presenta una lista
de condiciones que son m
as faciles de aplicar en la practica, en el sentido que se
puede establecer la convexidad del espacio de soluciones comprobando la convexidad
o la concavidad de las funciones de restriccion. Para suministrar estas condiciones se
definir
an los problemas no lineales generalizados como sigue:
Maximizar o Minimizar z = f (X)
sujeta a
gi (X) 0, i = 1, 2, . . . , r
gi (X) 0, i = r + 1, . . . , p
gi (X) = 0, i = p + 1, . . . , m
L(X, S, ) = f (X)

r
X

p
m
X
X




i gi (X)
i gi (X) + Si2
i gi (X) Si2

i=1

i=r+1

i=p+1

donde i , es el multiplicador de Lagrange correspondiente a la restriccion i. Las condiciones para establecer la suficiencia de las condiciones KKT se resumen en la tabla 2.

Sentido de la
optimizaci
on

f (X)

Maximizaci
on

C
oncava

Minimizaci
on

Convexa

Tabla 2
Condiciones requeridas
gi (X)
i
( Convexa
0
Concava
0
Lineal
Sin restriccion
( Convexa
0
Concava
0
Lineal
Sin restriccion

(1 i r)
(r + 1 i p)
(p + 1 i m)
(1 i r)
(r + 1 i p)
(p + 1 i m)

Las condiciones de la tabla 2 solo representan un subconjunto de las condiciones de la


tabla 1. La raz
on es que un espacio de soluciones puede ser convexo y no satisfacer
las condiciones de la tabla 2.
La tabla 2 es v
alida, porque las condiciones dadas producen una funcion lagrangiana
c
oncava L(X, S, ) en el caso de maximizacion, y una L(X, S, ) convexa en el caso de
minimizaci
on. Este resultado se comprueba al notar que si gi (X) es convexa, entonces
i gi (X) es convexa si i 0, y es concava si i 0. Se pueden establecer interpretaciones parecidas para todas las condiciones restantes. Observe que una funcion lineal
es convexa y c
oncava al mismo tiempo. Tambien, si una funcion f es concava, entonces
(f ) es convexa, y viceversa.
Ejemplo 20.2-7
Se tiene el siguiente problema de minimizacion:
Minimizar f (X) = x21 + x22 + x23
sujeta a
g1 (X)
g2 (X)
g3 (X)
g4 (X)
g5 (X)

= 2x1
= x1
=
1
=
2
=

+
+

x2
x3
x1
x2
x3

5
2

0
0
0
0
0

Se trata de un problema de minimizacion, y entonces 0. As, las condiciones


KKT son
(1 , 2 , 3 , 4 , 5 )

2
1
0
1
0
1

0
0
(2x1 , 2x2 , 2x3 ) (1 , 2 , 3 , 4 , 5 ) 1

0 1
0
0
0 1
1 g1 = 2 g2 = . . . = 5 g5
g(X)

10

= 0

= 0
0

Estas condiciones se reducen a


1 , 2 , 3 , 4 , 5
2x1 21 2 + 3
2x2 1 + 4
2x3 2 + 5
1 (2x1 + x2 5)
2 (x1 + x3 2)
3 (1 x1 )
4 (2 x2 )
5 x3
2x1 + x2
x1 + x3

=
=
=
=
=
=
=
=

0
0
0
0
0
0
0
0
0
5
2

x1 0, x2 2, x3 0
La soluci
on es x1 = 1, x2 = 2, x3 = 0, 1 = 2 = 5 = 0, 3 = 2, 4 = 4. Como
son convexos tanto f (X) como el espacio de soluciones g(X) 0, L(X, S, ) debe
ser convexa, y el punto estacionario que resulte produce un mnimo global restringido.
Este ejemplo demuestra que el procedimiento no es adecuado para calculos numericos,
porque puede ser difcil resolver en forma explcita las condiciones resultantes. Las
condiciones KKT son b
asicas en el desarrollo de los algoritmos de programacion no
lineal que estudiaremos a continuacion.

Algoritmos de programaci
on no lineal
Algoritmos sin Restricci
on
En esta secci
on se presentaran dos algoritmos para el problema no restringido: el algoritmo de b
usqueda directa y el algoritmo de gradiente.
M
etodo de b
usqueda directa
Los metodos de b
usqueda directa se aplican principalmente a funciones estrictamente
unimodales de una variable. Aunque puede parecer trivial el caso, como se mostrara,
la optimizaci
on de funciones de una variable juega un papel clave en el desarrollo de
los algoritmos de varias variables, mas generales.
La idea de los metodos de b
usqueda directa es identificar el intervalo de incertidumbre que comprenda al punto de solucion optima. El procedimiento localiza el
optimo estrechando en forma progresiva el intervalo de incertidumbre hasta cualquier

grado de exactitud que se desee.


En esta secci
on se presentan dos algoritmos estrechamente relacionados: los metodos
de b
usqueda dic
otomo y de seccion aurea. Ambos buscan la maximizacion de una
11

funci
on unimodal f (x) en el intervalo a x b, que se sabe que incluye el punto
ptimo x . Los dos metodos comienzan con I0 = (a, b) que representa el intervalo
o
inicial de incertidumbre.
Paso general i. Sea Ii1 = (xL , xR ) el intervalo actual de incertidumbre (en la
iteraci
on 0, xL = a y xR = b). A continuacion se definen x1 y x2 tales que
xL < x1 < x2 < xR
El siguiente intervalo de incertidumbre, Ii , se define como sigue:
1. Si f (x1 ) > f (x2 ) entonces xL < x < x2 . Se definen xR = x2 e Ii = (xL , x2 ),
(vease la figura 2a).
2. Si f (x1 ) < f (x2 ), entonces x1 < x < xR . Se definen xL = x1 e Ii = (x1 , xR )
(vease la figura 2b).
3. Si f (x1 ) = f (x2 ), entonces x1 < x < x2 . Se definen xL = x1 , xR = x2 e
Ii = (x1 , x2 ).

Figure 2: Ilustraci
on del paso general de los metodos de b
usqueda dicotomo y de la
secci
on aurea
La manera en que se determinan x1 y x2 garantiza que Ii < Ii1 , como se demostrara
en breve. El algoritmo termina en la iteracion k si Ik , donde es un grado de
exactitud definido por el usuario.
La diferencia entre los metodos dicotomo y de seccion aurea estriba en la forma en que
se calculan x1 y x2 . La tabla siguiente presenta las formulas.

12

Metodo dicotomo
x1 = 12 (xR + xL )
x2 = 21 (xR + xL + )

Metodo de
la seccion aurea
x1 = xR 51
2 (xR xL )
51
x2 = xL + 2 (xR xL )

En el metodo dic
otomo los valores x1 y x2 se encuentran simetricos respecto del punto
medio del actual intervalo de incertidumbre. Esto significa que
Ii = 0.5(Ii1 + )
La aplicaci
on repetida del algoritmo garantiza que la longitud del intervalo de incertidumbre se acercar
a al nivel de exactitud deseado, .
En el metodo de la secci
on aurea la idea es de mayor involucramiento. Se puede apreciar
que cada iteraci
on del metodo dicotomo requiere calcular los dos valores f (x1 ) y f (x2 ),
pero termina por descartar alguno de ellos. Lo que propone el metodo de la seccion
aurea es ahorrar c
alculos mediante la reutilizacion del valor descartado en la iteracion
inmediata siguiente.
Para definir 0 < < 1,
x1 = xR (xR xL ),

x2 = xL + (xR xL )

Cuando el intervalo de incertidumbre Ii , en la iteracion i es igual a (xL , x2 ) o a (x1 , xR ).


Considere el caso en que Ii = (xL , x2 ), lo cual significa que x1 esta incluido en Ii . En
la iteraci
on i + 1, seleccione x2 igual a x1 de la iteracion i, lo cual lleva a la siguiente
ecuaci
on:
x2, i+1 = x1, i
Sustituyendo, se encuentra que:
xL + [x2, i xL ] = xR (xR xL )
o lo que es igual:
xL + [xL + (xR xL ) xL ] = xR (xR xL )
que finalmente se simplifica a:
2 + 1 = 0

La ecuaci
on da = (1 5)/2. Como es un valor entre 0 y 1, seleccionamos la
raz positiva 0.681.
El dise
no de los c
alculos del metodo de la seccion aurea, garantiza una reduccion en
los intervalos de incertidumbre sucesivos; esto es:
Ii+1 = Ii
Comparado con el metodo dicotomo, el metodo de la seccion aurea converge mas
r
apidamente hacia el nivel deseado de exactitud. Adicionalmente, cada iteracion en el
metodo de la secci
on aurea requiere la mitad de los calculos, en virtud de que recicla

13

siempre un conjunto de los calculos correspondientes a la iteracion inmediata anterior.


Ejemplo 21.1-1
(
Maximizar f (x) =

3x,
0x2
1
(20

x),
2
<x3
3

El m
aximo valor de f (x) ocurre en x = 2. La siguiente tabla muestra los calculos para
las iteraciones 1 y 2, usando el metodo dicotomo y el de la seccion aurea. Supondremos
que = 0.1.
Metodo dic
otomo

Metodo de la seccion aurea

Iteraci
on 1
I0 = (xL , xR ) = (0, 3)
x1 = 0.5(3 + 0 0.1) = 1.45, f (x1 ) = 4.35
x2 = 0.5(3 + 0 + 0.1) = 1.55, f (x2 ) = 4.65
f (x2 ) > f (x1 ) xL = 1.45, I1 = (1.45, 3)

Iteraci
on 1
I0 = (xL , xR ) = (0, 3)
x1 = 3 0.681(3 0) = 1.146, f (x1 ) = 3.438
x1 = 0 0.681(3 0) = 1.854, f (x2 ) = 5.562
f (x2 ) > f (x1 ) xL = 1.146, I1 = (1.146, 3)

Iteraci
on 2
I1 = (xL , xR ) = (1.45, 3)
x1 = 0.5(3 + 1.45 0.1) = 2.175, f (x1 ) = 5.942
x2 = 0.5(3 + 1.45 + 0.1) = 2.275, f (x2 ) = 5.908
f (x1 ) > f (x2 ) xR = 2.275, I2 = (1.45, 2.275)

Iteraci
on 2
I0 = (xL , xR ) = (1.146, 3)
x1 = x2,1 = 1.854, f (x1 ) = 5.562
x1 = 1.146 + 0.681(3 1.146) = 2.292, f (x2 ) = 5.903
f (x2 ) > f (x1 ) xL = 1.854, I1 = (1.854, 3)

Al continuar de la misma forma, el intervalo de incertidumbre terminara por estrecharse hasta la tolerancia deseada.
M
etodo del gradiente
En esta secci
on se presenta un metodo para optimizar funciones que son doble continuamente diferenciables. La idea es generar puntos sucesivos en la direccion del gradiente
de la funci
on.
El metodo de Newton-Raphson presentado anteriormente es un metodo de gradiente
para resolver ecuaciones simultaneas. En esta seccion se presenta otra tecnica, llamada metodo de ascenso (o descenso) m
as pronunciado o de la pendiente m
as
inclinada.
El final del metodo del gradiente se encuentra en el punto donde el vector gradiente
se anula. Esta s
olo es una condicion necesaria para la optimalidad. La optimalidad
no se puede comprobar a menos que a priori se conozca que f (X) es concava o convexa.
Supongamos que se busca el maximo de f (X). Sea X0 el punto inicial donde se inicia
el procedimiento, y se define a f (Xk ) como el gradiente de f en el punto X0 . Se
trata de determinar una trayectoria particular p a lo largo de la cual f
p , se maximice

14

en un punto dado. Esto se logra si se seleccionan los puntos sucesivos Xk y Xk+1 de


tal modo que
Xk+1 = Xk + rk f (Xk )
donde rk es el tama
no de paso optimo en Xk .
El tama
no de paso rk se determina de tal modo que el siguiente punto, Xk+1 , conduzca
al mayor mejoramiento de f . Esto equivale a determinar r = rk que maximice la
funci
on
h(r) = f [Xk + rf (Xk )]
Como h(r) es funci
on de una variable, con el metodo de b
usqueda directa se puede
determinar el punto
optimo, siempre que h(r) sea estrictamente unimodal.
El procedimiento propuesto termina cuando dos puntos sucesivos de prueba, Xk y
Xk+1 , son aproximadamente iguales. Esto equivale a que
rk f (Xk ) 0
Ya que rk 6= 0, la condici
on necesaria f (Xk ) = 0 se satisface en Xk .
Ejemplo 21.1-2
Se tiene el siguiente problema:
Maximizar f (x1 , x2 ) = 4x1 + 6x2 2x21 2x1 x2 2x22
El
optimo exacto est
a en (x1 , x2 ) = (1/3, 4/3).
Para resolver el problema con el metodo de la pendiente mas inclinada, se determina
el gradiente:
f (X) = (4 4x1 2x2 , 6 2x1 4x2 )
La naturaleza cuadr
atica de la funcion hace que los gradientes en dos puntos sucesivos
cualesquiera sean ortogonales (perpendiculares entre s). Si el punto inicial es X0 =
(1, 1), la figura 3 muestra los puntos solucion sucesivos.
Iteraci
on 1:
f (X0 ) = (2, 0)
El siguiente punto X1 se obtiene con la ecuacion
X = (1, 1) + r(2, 0) = (1 2r, 1)
As,
h(r) = f (1 2r, 1) = 2(1 2r)2 + 2(1 2r) + 4
El tama
no
optimo del paso se obtiene usando las condiciones necesarias clasicas (tambien
se podran usar los algoritmos de b
usqueda directa para determinar el optimo). El valor
m
aximo de h(r) es r1 = 1/4, que da como resultado el siguiente punto de solucion,
15

Figure 3: Maximizaci
on de f (x1 , x2 ) = 4x1 + 6x2 2x21 2x1 x2 2x22 con el metodo
de la pendiente m
as pronunciada.
X1 = (1/2, 1).
Iteraci
on 2:
f (X1 ) = (0, 1)
X = (1/2, 1) + r(0, 1) = (1/2, 1 + r)
h(r) = 2(1 + r)2 + 5(1 + r) +

3
2

Se obtiene as, r2 = 1/4 y X2 = (1/2, 5/4).


Iteraci
on 3:
f (X2 ) = (1/2, 0)
X = (1/2, 5/4) + r(1/2, 0) = ((1 r)/2, 5/4)
1
3
35
h(r) = (1 r)2 + (1 r) +
2
4
8
16

Por lo tanto, r3 = 1/4 y X3 = (3/8, 5/4).


Iteraci
on 4:
f (X3 ) = (0, 1/4, )
X = (3/8, 5/4) + r(0, 1/4) = (3/8, (5 + r)/4)
1
21
39
h(r) = (5 + r)2 + (5 + r) +
8
16
32
Por lo tanto, r4 = 1/4 y X4 = (3/8, 21/16).
Iteraci
on 5:
f (X4 ) = (1/8, 0)
X = (3/8, 21/16) + r(1/8, 0) = ((3 r)/8, 21/16)
h(r) =

1
11
567
(3 r)2 + (3 r) +
32
64
128

Por lo tanto, r5 = 1/4 y X5 = (11/32, 21/16).


Iteraci
on 6:
f (X5 ) = (0, 1/16)
Como f (X5 ) 0 se puede terminar el proceso en este punto. El punto maximo
aproximado es X5 = (0.3438, 1.3125). El optimo exacto es X = (0.3333, 1.3333).

17

También podría gustarte