Documentos de Académico
Documentos de Profesional
Documentos de Cultura
PNL PDF
PNL PDF
RESTRICCIONES.
f (x ) = (x − 2 ) ∇f (x ) = 0, x = 2
2
Ejemplo:
min f (x ) = x1x 2 x 3
s.a. h1 (x ) = x1 + x 2 + x 3 − 1 = 0
Eliminamos x3
min f (x1 , x 2 ) = x1x 2 (1 − x1 − x 2 )
Pero si h1 (x ) = x1 x 3 + x 2 x 3 + x 2 x1 = 0
2 2 −1
• Se transforma en:
K
Minimizar L(x,v) = f(x) - ∑ vihi ( x )
i=1
∂L
=0 i = 1,..., N
∂xi
hk (x) = 0 k=1,... K
min f (x )
s.a g j (x ) ≥ 0 j = 1,K, J
h k (x ) = 0 k = 1,K, K
x = ( x 1 ,K, x N )
g j (x ) = 0 y es inactiva si g j (x ) > 0
Encontrar los vectores x ( N×1) , μ (1×J ) , λ (1×K ) que satisfaga las siguientes
condiciones:
J K
∇f ( x ) − ∑ μ j∇g j ( x ) − ∑ λ k ∇h k ( x ) = 0
j=1 k =1
g j (x) ≥ 0 j = 1,2,..., J
h k (x) = 0 k = 1,2,..., K
μ jg j ( x ) = 0 j = 1,2,..., J
μj ≥ 0 j = 1,2,..., J
Interpretación de las condiciones de KT
min f (x )
s.a h k (x ) = 0 k = 1,K, K
∇f ( x ) − ∑ λ k ∇ h k ( x ) = 0
k
Condiciones de KT
h k (x ) = 0
L( x ; λ ) = f ( x ) − ∑ λ k h k ( x ) Función de Lagrange
k
∇ L ( x ) = ∇f ( x ) − ∑ λ k ∇h k ( x ) = 0 Condiciones de
k
Optimalidad de primer
∇ L (λ ) = h k (x ) = 0 orden
min f (x )
s.a g j (x ) ≥ 0 j = 1,K, J
h k (x ) = 0 k = 1,K, K
x = (x 1 ,K, x N )
(μ ,λ )
* *
tales que (x , μ , λ )
* * *
resuelve las condiciones de KT
min f (x )
s.a g j (x ) ≥ 0 j = 1,K, J
h k (x ) = 0 k = 1,K, K
x = (x 1 ,K, x N )
Definición:
f (x * , y ) ≤ f (x * , y* ) ≤ f (x , y* )
min f (x )
s.a g j (x ) ≥ 0 j = 1,K, J
x ∈S
Donde:
L ( x , μ ) = f ( x ) − ∑ μ jg j ( x )
j
Teorema de Suficiencia de Optimalidad
( )
Si x * , μ* es un punto de inflexión de KT, entonces x* es una solución al
problema de programación no lineal
L ( x , μ ) = f ( x ) − ∑ μ jg j ( x )
j
que satisface:
Teorema:
2. u jg j (x * ) = 0, j = 1,K, J
3. g j (x ) ≥ 0, j = 1,K, J
*
Problema de PNL Condiciones de KT
J K
∇f ( x ) − ∑ μ j∇g j ( x ) − ∑ λ k ∇h k ( x ) = 0
min f (x ) j=1 k =1
de KT
Teorema de Necesidad de Segundo Orden
J K
L(x , λ, μ ) = f (x ) − ∑ μ jg j (x ) − ∑ λ k h k (x )
j=1 k =1
Las condiciones suficientes para que el punto x* sea un mínimo local estricto del
problema PNL, donde f, g y h son doblemente diferenciables son las sgtes.
∇g j (x * )y = 0 {
j ∈ I1 = j g j (x * ) = 0, μ*j > 0 }
∇g j (x * )y ≥ 0 j ∈ I2 = {j g (x ) = 0, μ
j
* *
j = 0}
∇h k (x * )y = 0 k = 1,K, K
y T H L (x * , λ* , μ* )y > 0
Funciones de Penalización 1
min f (x) x ∈ R N
s.a. g j (x) ≥ 0 j = 1,2,K, J
hk ( x ) = 0 k = 1,2,K, K
xi(l ) ≤ xi ≤ xi(u ) i = 1,2,K, N
P(x , R ) = f (x ) + Ω(R , g (x ), h (x ))
• Características de la transformación:
– La solución del problema debe aproximarse a la solución del
problema de NLP:
lim x ( t ) = x *
t →T <∞
Función parabólica
Operador de bracket
Ω = R{h (x )} Ω = R g (x )
2 2
⎧α si α ≤ 0⎫
Métodos de forma exterior: α =⎨ ⎬
⎩0 si α > 0 ⎭
puntos generados son no factibles
Ejemplo con restricciones de igualdad 1
Ω
Ω
∞
1.0
g(x)
0
0 g(x)
• Algoritmo:
– 1.- Definir ε1, ε2, ε3 => condiciones de terminación para
la búsqueda lineal, vectorial y penalización. X0 y R0
– 2.- P(x,R) = f(x) + Ω(R, g(x), h(x))
– 3.- Encontrar xk+1 / P(xk+1, Rk) sea mínimo con Rk fijo.
Terminar con ε2.
– 4.- | P(xk+1, Rk) – P (xk , Rk-1) | ≤ ε3 ?
• Si => xk+1 = x* Parar
• No => continuar
– 5.- Elegir Rk+1 = Rk + ΔRk y volver al paso 2.
Ejemplo con funciones barrera
⎛ ∇1hˆ ⎞ ⎛ ∇1h ⎞
⎜ ⎟ ⎜ ⎟
⎜ ∇ 2 hˆ ⎟ ⎜ ∇2h ⎟ J ( xˆ − xˆ1 ) + C ( x − x 1 ) = 0
J =⎜ C =⎜
...
⎟ ... ⎟
⎜ ⎟ ⎜ ⎟
⎜ ∇ hˆ ⎟ ⎜∇ h ⎟
⎝ k ⎠ ⎝ k ⎠
xˆ − xˆ1 = − J −1C ( x − x 1 )
Método GRG 3
~
∇f ( x1 ) = ∇f ( x1 ) + ∇fˆ ( x1 )[− J −1C ] Gradiente reducido generalizado
~
Mínimo: ∇ f ( x1 ) = 0
Método GRG 4
Método de Newton
x̂ i + 1 = x̂ i − [ J − 1 ( x t + α * d , x̂ i )] * h ( x t + α * d , x̂ i )
~ t
• 2.- Si || ∇f ( x ) ||< ε parar
~
d = (−∇f )T ⎫⎪
Si no ⎬ d = ( dˆ , d ) T
dˆ = − J −1Cd ⎪⎭
b) vˆ i + 1 = vˆ i − J − 1 ( v i ) * h ( v i )
v i +1 = v i
c) Si || vˆ i + 1 − vˆ i || > ε 1 ir a b)
min f (x) x ∈ R N
s.a. g j (x) ≥ 0 j = 1,2,K, J
hk ( x ) = 0 k = 1,2,K, K
xi(l ) ≤ xi ≤ xi(u ) i = 1,2,K, N