Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Optimización No Lineal
Optimización No Lineal
Conceptos bsicos
Principios y teoremas para la bsqueda de
ptimos globales
Optimizacin sin restricciones en dimensin 1
Optimizacin sin restricciones en dimensin >
1
Modelos con restricciones de igualdad
Condiciones de Kuhn-Tucker
Algoritmos numricos bsicos
Conceptos bsicos
Extremos locales
Para un PNL, un punto factible x= (x1,x2,...,xn) es un mximo
(mnimo) local si para un suficientemente pequeo, cualquier
punto factible x= (x1,x2,...,xn) verificando |xi-xi| < satisface
f(x) () f(x)
Un punto que es un mximo o mnimo local se llama extremo
local o relativo
Teorema 3
Si f (x1,x2,...,xn) tiene derivadas parciales de segundo orden
continuas para cada punto x= (x1,x2,...,xn) de un conjunto convexo
S, entonces f(x) es una funcin estrictamente convexa (cncava)
en S si y slo si su matriz Hessiana es definida positiva (negativa)
en S
a21
A = a31
M
a
n1
a12
a22
a32
M
an 2
a13 K a1n
a23 K a2 n
a33 K a3n
M
M
an3 K ann
a11
a21
H k = a31
M
a
k1
a12
a22
a32
M
ak 2
a13 K a1k
a23 K a2 k
a33 K a3k , k = 1,2K n
M
M
ak 3 K akk
Teorema
Supongamos A simtrica.
A es definida positiva si y slo si det(Hk)>0 para k=1,2,,n
A es semidefinida positiva si y slo si det(Hk)0 para k=1,2,,n
A es definida negativa si y slo si signo(det(Hk))=(-1)k para k=1,2,,n
A es semidefinida negativa si y slo si signo(det(Hk))=(-1)k 0 para
k=1,2,,n
A es indefinida si det(A)0 y A no cumple ninguna de las afirmaciones
anteriores
Teorema local-global
Si F es continua y X convexo entonces:
Si F es cncava en X entonces todo mximo local es global
Si F es convexa en X entonces todo mnimo local es global
Adems si F es estricta, el ptimo es nico
Teorema
Si f(x0)=0 y
1. Si la primera derivada no nula en x0 de f es de orden impar
entoces x0 no es un extremo local
2. Si la primera derivada no nula de f en x0 es positiva y de orden par
entonces x0 es un mnimo local
3. Si la primera derivada no nula de f en x0 es negativa y de orden
par entonces x0 es un mximo local
Mtodo de Newton
x (k + 1 ) = x (k )
(
(
)
)
g x (k )
g ' x (k )
f ( x )
=0
xi
Mtodo de Newton
Mtodo del descenso ms rpido
Mtodo de Newton
( )
=X
( )F (X )
JF X
maximizar f(X(k)+tf(X(k)))
S.A. t 0
Repetir hasta que || X(k+1)-X(k)|| <
Multiplicadores de Lagrange.
L ( x , ) = f ( x1 , K , x n ) i ( g i ( x1 , K , x n ) bi )
i =1
L
f
=
x j
x j
L
= bj g
j
i =1
g i
= 0 , j = 1, K , n
x j
= 0 , j = 1, K , m
Multiplicadores de Lagrange.
2
x1
Hess(L( x, )) =
M
2L
x x
n 1
2L
x1x n
M
2L
L
x n2
L
0
T
Construimos la matriz J g
g1
x1
, J g ( x1 ,K , x n ) = M
g m
g1
x n
M
g m
L
x n
L
Jg
H y las matrices que resultan de quitarle
Bsqueda de mnimos
Condiciones de Kuhn-Tucker.
Maximizar f(x1,x2,...,xn)
S.A. g1(x1,x2,...,xn) b1
g2(x1,x2,...,xn) b2
...
gm(x1,x2,...,xn) bm
Slo son aplicables si las funciones gi satisfacen la condicin de
regularidad:
Condiciones de Kuhn-Tucker.
g ( x *)
f ( x *) m
i i
= 0, j = 1,2,K, n
x j
x j
i =1
i [bi g i ( x *)] = 0, i = 1,2,K, m
i 0, i = 1,2,K , m
Condiciones de Kuhn-Tucker.
g (x *)
f (x *) m
+ i i
= 0, j = 1,2, K , n
x j
x j
i =1
i [bi g i ( x *)] = 0, i = 1,2,K, m
i 0, i = 1,2,K, m
Condiciones de Kuhn-Tucker.
Maximizar f(x1,x2,...,xn)
S.A. gi(x1,x2,...,xn) bi, i=1,...,m
xj 0, j=1,...,n
Si x*=(x*1,...,x*n) es una solucin ptima del problema anterior
entonces x* debe satisfacer las restricciones del problema y adems
deben existir los multiplicadores 1,2,...,m, 1,2,.n tales que
g ( x *)
f ( x *) m
i i
+ j = 0, j = 1,2,K , n
x j
x j
i =1
i [bi g i ( x *)] = 0, i = 1,2,K , m
f ( x *) m
g ( x *)
i i
x j * = 0, j = 1,2, K , n
x j
x
i =1
j
i 0, i = 1,2, K , m
j 0,
j = 1,2, K, n
Condiciones de Kuhn-Tucker.
Minimizar f(x1,x2,...,xn)
S.A. gi(x1,x2,...,xn) bi, i=1,...,m
xj 0, j=1,...,n
Si x*=(x*1,...,x*n) es una solucin ptima del problema anterior
entonces x* debe satisfacer las restricciones del problema y adems
deben existir los multiplicadores 1,2,...,m, 1,2,.n tales que
g ( x *)
f ( x *) m
+ i i
j = 0, j = 1,2,K , n
x j
x j
i =1
i [bi g i ( x *)] = 0, i = 1,2,K , m
f ( x *) m
g ( x *)
+ i i
x j * = 0, j = 1,2, K , n
x j
i =1
x j
i 0, i = 1,2,K , m
j 0,
j = 1,2, K, n
Condiciones suficientes
Mtodo de penalizacin
P ( p, x ) = p (g i ( x ) bi )
i =1
Algoritmo de penalizacin
Para el problema de minimizacin