Documentos de Académico
Documentos de Profesional
Documentos de Cultura
KKhunTucker PDF
KKhunTucker PDF
z Restricciones
z Problemas con restricciones de igualdad
– Multiplicadores de Lagrange
z Problemas generales NLP
– Condiciones de Karush-Kuhn-Tucher (KKT)
z Programación cuadrática QP
z Método de Wolfe, SLP
z Funciones de penalización
min J (x)
x
Región factible
4 Cesar de Prada ISA-UVA
Restricciones de igualdad
h ( x) = 0 h1 ( x1 , x2 ,..., xn ) = 0 ⎫
h2 ( x1 , x2 ,..., xn ) = 0 ⎪⎪
Si es posible despejar m ⎬ n>m
variables en función de las n-m .... ⎪
restantes y sustituirlas en J, es
hm ( x1 , x2 ,..., xn ) = 0⎪⎭
posible transformar el problema
en uno de optimización sin
restricciones con n-m variables
5 Cesar de Prada ISA-UVA
Restricciones de igualdad
min ( x1 x2 + x 22 )⎫⎪ x2 x 22
x1 , x 2
⎬ ⇒ x1 = ⇒ min + x22
x1 log x2 = x2 ⎪⎭ log x2 x2 log x2
∂L(x, λ ) ∂L(x, λ )
= 0, =0 ⇒ h(x * ) = 0
∂x x* , λ * ∂λ x* , λ *
∂J ( x * ) ∂h ( x *
)
+ λ *' =0 h( x * ) = 0
∂x ∂x
⎡ ∂h 1 (x) ∂h 1 (x) ∂h 1 (x) ⎤
⎢ ∂x L
∂x 2 ∂x n ⎥
⎢ 1
⎥
⎡ ∂J ( x) ∂J (x) ∂J (x) ⎤ ⎢ ∂h 2 (x) ∂h 2 ( x)
L
∂h 2 ( x) ⎥
⎢ ∂x L ⎥ + [λ1 λ2 L λ m ]⎢ ∂x 1 ∂x 2 ∂x n ⎥ = 0
⎣ 1 ∂x 2 ∂x n ⎦ ⎢ M M M M ⎥
⎢ ∂h m (x) ∂h m (x) ∂h m (x) ⎥
⎢ L ⎥
⎣ ∂x 1 ∂x 2 ∂x n ⎦
Para que haya solución óptima, debe cumplirse que los
gradientes ∇xhj sean linealmente independientes, lo que se
conoce como cualificación de las restricciones
min L( x 1 , x 2 , λ ) = min x 1 + x 2 + λ( x 21 + x 22 − 4)
x1 , x 2 , λ x1 , x 2 , λ
min L( x 1 , x 2 , λ ) = min x 1 + x 2 + λ ( x 21 + x 22 − 4)
x1 , x 2 ,λ x1 , x 2 ,λ
⎢ ∂ L ∂ 2L ⎥ ⎢ 0 2λ ⎥ * * ⎡− 2 0 ⎤ ND
⎣ ⎦ x ,λ
⎢ ∂x x ∂x 22 ⎥⎦ x* , λ * ⎢ ⎥
⎣ 2 1 ⎣ 0 − 2 ⎦
h( x) = b ⎪⎭
¿Cómo varía J(x*) si b cambia en una unidad?
∂J (x * ) ∂J (x * ) ∂x * ⎫
= ⎪⎪
∂b ∂x * ∂b
⎬
∂ (h(x ) − b) ∂h(x ) ∂x
* * *
⎪ Multiplicando por λ*’ y sumando:
0= = − I ⎪⎭
∂b ∂x * ∂b
∂J (x * ) ⎡ ∂J (x * ) * ∂h ( x ) ⎤ ∂x
* *
⎡ ∂L(x * , λ * ) ⎤ ∂x *
=⎢ + λ ' * ⎥
− λ *
' = ⎢ ⎥ − λ *
' = − λ *
'
∂b ⎣ ∂x
*
∂x ⎦ ∂b ⎣ ∂x
*
⎦ ∂b
Los multiplicadores de Lagrange óptimos (precios sombra) dan las
sensibilidades opuestas de J* respecto a las restricciones b
13 Cesar de Prada ISA-UVA
Multiplicadores de Lagrange / Precios
sombra de LP
⎪ x1+x2=2
x1 − 1 ≥ 0 ⎭
15 x1=1 Cesar de Prada ISA-UVA
Condiciones de optimalidad KKT
h j ( x) = 0
g i ( x) ≤ 0
μ i g i ( x) = 0
μi ≥ 0
20 Cesar de Prada ISA-UVA
x*(1,1)
Ejemplo 2
x2 Conjunto
min x 1 − x2 ⎫
2
factible
x1 , x 2
⎪ ¿Cumple las
x1 + x2 = 2 ⎪ 2 x1 condiciones de
⎬
x1 + x2 ≤ 4 ⎪
2 2 suficiencia de
x1+x2=2
⎪ primer orden? Si
− x1 + 1 ≤ 0 ⎭ x1=1
L( x, λ , μ) = x12 − x2 + λ ( x1 + x2 − 2) + μ1 ( x12 + x22 − 4) + μ 2 ( − x1 + 1)
∇ x J (x) + ∑ λ j ∇ x h j (x) + ∑ μ i ∇ x g i (x) = 0 2 x1 + λ + μ1 2 x1 − μ 2 = 0
j i
− 1 + λ + μ1 2 x 2 = 0
h j ( x) = 0
⇒ x1 + x2 = 2 μ1 ≥ 0 μ 2 ≥ 0
g i ( x) ≤ 0
x 12 + x 22 ≤ 4 μ1 ( x 12 + x 22 − 4) = 0
μ i g i ( x) = 0
− x1 + 1 ≤ 0 μ 2 (− x1 + 1) = 0
21 μi ≥ 0 Cesar de Prada ISA-UVA
Ejemplo 2
μ2 − λ
x1 =
2(1 + μ1 )
1− λ
2 x1 + λ + μ1 2 x1 − μ 2 = 0 ⎫ x2 =
⎪ 2μ1
− 1 + λ + μ1 2 x 2 = 0 ⎪ μ2 − λ 1− λ
⎪ + =2
x1 + x2 = 2 μ1 ≥ 0 μ 2 ≥ 0 ⎬ 2(1 + μ1 ) 2μ1
x 12 + x 22 ≤ 4 μ1 ( x 12 + x 22 − 4) = 0⎪⎪ ⎡⎛ μ − λ ⎞ 2 ⎛ 1 − λ ⎞ 2 ⎤
⎢⎜⎜ 2
⎟⎟ + ⎜⎜ ⎟⎟ − 4⎥μ1 = 0
− x1 + 1 ≤ 0 μ 2 (− x1 + 1) = 0 ⎪⎭ ⎢⎣⎝ 2(1 + μ1 ) ⎠ ⎝ 2μ1 ⎠ ⎥⎦
⎡ − μ2 + λ ⎤
⎢ 2(1 + μ ) + 1⎥μ 2 = 0
⎣ 1 ⎦
μ2 − λ ⎪ − μ2 + λ
⎪ +1 = 0
x1 = ⎪ ⎪⎩ 2(1 + μ1 )
2(1 + μ1 ) ⎪
1− λ ⎪ ⎧⎛ − λ ⎞ 2 ⎛ 1 − λ ⎞ 2
x2 = ⎪ ⎪⎪⎜ ⎟ +⎜ ⎟ −4=0
2μ1 2(1 + μ1 ) ⎠ ⎝ 2μ1 ⎠
⎪⎪ si μ 2 = 0, μ1 ≠ 0 ⇒ ⎨⎝
μ2 − λ 1 − λ ⎪ −λ 1− λ
+ =2 ⎬ + =2
2(1 + μ1 ) 2μ1 ⎪ ⎪
⎩ 2 (1 + μ 1 ) 2 μ 1
⎡⎛ μ − λ ⎞ ⎛ 1 − λ ⎞
2 2
⎤ ⎪
⎢⎜ 2
⎟ +⎜ ⎟ − 4⎥μ1 = 0 ⎪ ⎧ μ2 − λ 1 − λ
⎢⎣⎝ 2(1 + μ1 ) ⎠ ⎝ 2μ1 ⎠ ⎥⎦ ⎪ ⎪ + =2
⎪ 2(1 + μ ) 2μ
⎡ − μ2 + λ ⎤ ⎪ 1 1
+
⎢ 2(1 + μ ) ⎥ 21 μ = 0 ⎪ 2
⎪⎛ μ 2 − λ ⎞ ⎛ 1 − λ ⎞
2
⎣ ⎦ ⎪
⎭ si μ ≠ 0 , μ ≠ 0 ⎨⎜ ⎟ +⎜ ⎟ −4 =0
+ μ μ
1 1 2
⎪⎝ 2 (1 1 ⎠
) ⎝ 1 ⎠
2
⎪ − μ2 + λ
+1 = 0
⎪ 2(1 + μ1 )
⎩
23 Cesar de Prada ISA-UVA
Detalle de la resolución μ2=0, μ1≠0
⎛ − λ ⎞ ⎛1 − λ ⎞
2 2
⎫ −λ 1− λ
⎜⎜ ⎟⎟ + ⎜⎜ ⎟⎟ − 4 = 0⎪ = 2 −
⎪ 2(1 + μ1 ) 2μ1
⎝ 2(1 + μ1 ) ⎠ ⎝ 2μ1 ⎠ ⎬ 2 2
−λ
+
1− λ
=2 ⎪ ⎛⎜ 2 − 1 − λ ⎞⎟ + ⎛⎜ 1 − λ ⎞⎟ = 4
2(1 + μ1 ) 2μ1 ⎪⎭ ⎜⎝ 2μ1 ⎟⎠ ⎜⎝ 2μ1 ⎟⎠
⎧ λ =1
2 2
⎛1 − λ ⎞ 1 − λ ⎛1 − λ ⎞
4 + ⎜⎜ ⎟⎟ − 4 + ⎜⎜ ⎟⎟ = 4 ((1 − λ ) − 4μ1 )(1 − λ ) = 0⎨
⎝ 2μ1 ⎠ 2μ1 ⎝ 2μ1 ⎠ ⎩1 − λ = 4μ1
−1
λ =1→ = 2 1 + μ1 = −1 / 4 μ1 = −5 / 4 NF
2(1 + μ1 )
4μ1 − 1 4μ1 4μ1 − 1
1 − λ = 4μ1 → + =2 + 2 = 2 → μ1 = 1 / 4, λ = 0
2(1 + μ1 ) 2μ1 2(1 + μ1 )
x1 = 0, x2 = 2 NF
24 Cesar de Prada ISA-UVA
Ejemplo 2
⎫
μ2 − λ ⎪
x1 = ⎪
2(1 + μ1 ) ⎪
1− λ ⎪ si μ = 0, μ = 0 {λ = 1, x = −1 / 2, x = 5 / 2 NF
x2 = ⎪ 1 2 1 2
2μ1 ⎪ si μ1 = 0, μ 2 ≠ 0 {λ = 1, μ 2 = 3, x1 = 1, x2 = 1
μ2 − λ 1− λ ⎪
+ =2 ⎬ ⎧μ1 = 1 / 4, λ = 0, x1 = 0, x2 = 2 NF
2(1 + μ1 ) 2μ1 ⎪ si μ1 ≠ 0, μ 2 = 0 ⎨ μ1 = −5 / 4, λ = 1 NF
⎪ ⎩
⎡⎛ μ − λ ⎞ ⎛ 1 − λ ⎞ ⎤
⎟⎟ − 4⎥μ1 = 0⎪ si μ1 ≠ 0, μ 2 ≠ 0 {λ = 1; μ1 = 0, μ 2 = 3, x1 = 1, x2 = 1
2 2
⎢⎜⎜ 2
⎟⎟ + ⎜⎜
⎢⎣⎝ 2(1 + μ1 ) ⎠ ⎝ 2μ1 ⎠ ⎥⎦ ⎪
⎪ Solución óptima
⎡ − μ2 + λ ⎤ ⎪
⎢ 2(1 + μ ) + 1⎥μ 2 = 0 ⎪⎭
⎣ 1 ⎦
25
Cualificación de las restricciones
∂J ( x* ) ∂J (x* )
= −λ '
*
= −μ * '
∂b ∂c
La cual nos permite deducir como cambia la función de costo cuando las
restricciones se relajen en una unidad, lo cual es importante en
problemas de toma de decisiones.
Las condiciones de KKT son expresiones de primer orden que pueden dar
lugar a máximos, mínimos o puntos de silla de la Lagrangiana L(x,λ, μ) en
(x*,λ*,μ*).
Las condiciones de segundo orden permiten determinar si se trata de un
mínimo respecto a las variables x y proporcionan condiciones suficientes
para la optimalidad de la solución. Vienen dadas por la condición sobre el
Hessiano: *
⎡ ∇ h( x ) ⎤
z ' ∇ 2x L(x * , λ * , μ * ) z > 0 ∀z | ⎢ x * ⎥
z=0
⎣∇ x g act (x )⎦
De modo que el Hessiano de L respecto a x es PD para todos los vectores z
ortogonales a los gradientes de las restricciones activas en x*. Estos vectores
dan origen al plano tangente a dichas restricciones. Para la necesidad basta
con que el Hessiano sea PSD. (gact son restricciones activas)
29 Cesar de Prada ISA-UVA
Lagrangiana L( x, λ , μ) = x12 − x2 + λ ( x1 + x2 − 2) + μ1 ( x12 + x22 − 4) + μ 2 ( − x1 + 1)
⎧2 x1 + λ + μ1 2 x1 − μ 2 = 0
∇ x J (x) + ∑ λ j ∇ x h j (x) + ∑ μi ∇ x gi (x) = 0 ⎨
j i ⎩ − 1 + λ + μ1 2 x 2 = 0
Ejemplo 2 Optimo: x1=1,x2=1,λ=1,μ1=0,μ2=3
⎡ ∇ x h( x * ) ⎤
min x 12 − x2 ⎫ z ' ∇ L(x , λ , μ )z > 0
2
x
* * *
∀z | ⎢ * ⎥
z=0
x1 , x 2
⎪ ⎣∇ x g act (x )⎦
x1 + x2 = 2 ⎪ Restricciones ⎡z ⎤
⎬
activas
[1 1]⎢ 1 ⎥ = 0 z1 + z 2 = 0
x1 + x2 ≤ 4 ⎪ ⎣ z2 ⎦ Vectores
2 2
de planos
⎪
− x1 + 1 ≤ 0 ⎭ ⎡ z1 ⎤ tangentes
[− 1 0]⎢ ⎥ = 0 − z1 = 0
Hessiano respecto a x ⎣ z2 ⎦
⎡ ∂L2 ∂L2 ⎤
⎢ ∂x 2 ∂x1∂x2 ⎥ ⎡2 + 2μ1 0 ⎤ ⎡2 0⎤ ⎡ z ⎤
Hx = ⎢ 1 ⎥=⎢ z ' H *
z = [ z − z ] = 2 z 2
>0
⎢ ∂L ∂L ⎥ ⎣ 0 2μ1 ⎥⎦ ⎢0 ⎥ ⎢ ⎥
x
2 2
⎣ 0⎦ ⎣ − z ⎦
⎢⎣ ∂x2 ∂x1 ∂x22 ⎥⎦ ⎡2 0 ⎤ ⎡0 ⎤
Cumple necesidad pero [0 z ]⎢ ⎥ ⎢ ⎥ =0
no la suficiencia ⎣0 0⎦ ⎣ z ⎦
30 Cesar de Prada ISA-UVA
Ejemplo 3
x12-x2 ≤ 4 -x1+x2 ≤ 2
x2
min ( x1 + 3) + x ⎫
2 2
2
x1 , x 2
⎪⎪
− x1 + x2 − 2 ≤ 0 ⎬ x1
x12 − x2 − 4 ≤ 0 ⎪⎪
⎭
L( x, λ , μ) = ( x1 + 3) 2 + x22 + μ1 ( − x1 + x2 − 2) + μ 2 ( x12 − x2 − 4)
2( x1 + 3) + μ1 ( −1) + μ 2 2 x1 = 0
∇ x J ( x) + ∑ λ j ∇ x h j ( x) + ∑ μ i ∇ x g i ( x) = 0 2 x + μ (1) + μ ( −1) = 0
j i 2 1 2
h j ( x) = 0 (− x1 + x2 − 2)μ1 = 0 μ1 ≥ 0
g i ( x) ≤ 0 ( x12 − x2 − 4)μ 2 = 0 μ 2 ≥ 0
μ i g i ( x) = 0 − x1 + x2 − 2 ≤ 0
31 μi ≥ 0 x12 − x2 − 4 ≤ 0
Cesar de Prada ISA-UVA
Ejemplo 3
μ1 − 6 ⎫
2( x1 + 3) + μ1 (−1) + μ 2 2 x1 = 0⎫ x1 = ⎪
2(1 + μ 2 )
2 x2 + μ1 (1) + μ 2 ( −1) = 0 ⎪ ⎪
⎪ μ 2 − μ1 ⎪
x2 =
(− x1 + x2 − 2)μ1 = 0 μ1 ≥ 0 ⎪⎪ 2 ⎪⎪
⎬ ⎛ 6 − μ1 μ − μ1 ⎞ ⎬
( x12 − x2 − 4)μ 2 = 0 μ 2 ≥ 0 ⎪ ⎜⎜ + 2 − 2 ⎟⎟μ1 = 0 ⎪
− x1 + x2 − 2 ≤ 0 ⎪ ⎝ 2(1 + μ 2 ) 2 ⎠ ⎪
⎪ ⎛⎛ μ − 6 ⎞ μ − μ ⎞
⎟μ = 0⎪⎪
2
x1 − x2 − 4 ≤ 0
2
⎪⎭ ⎜⎜ 1 ⎟ − 2 1
− 4
⎜ ⎜⎝ 2(1 + μ 2 ) ⎟⎠ 2 ⎟ 2 ⎪⎭
⎝ ⎠
si μ1 = 0, μ 2 = 0 → x1 = −3, x2 = 0 NF
⎧ 6 − μ1 − μ1
si μ1 ≠ 0, μ 2 = 0 ⎨ + − 2 = 0 → μ1 = 1, x1 = −5 / 2, x2 = −1 / 2 NF
⎩ 2 2
32 Cesar de Prada ISA-UVA
Ejemplo 3
⎧ 36 μ2
μ1 − 6 ⎫ ⎪ 4(1 + μ ) 2 − 2 = 4
x1 = ⎪ ⎪⎪ 2
2(1 + μ 2 )
⎪ si μ1 = 0, μ 2 ≠ 0 ⎨μ 2 + 10μ 2 + 17μ 2 = 10
3 2
μ 2 − μ1 ⎪
x2 = ⎪μ = −7.58, − 2.87, 0.46
2 ⎪⎪ ⎪ 2
⎛ 6 − μ1 μ 2 − μ1 ⎞ ⎬ ⎪⎩ x1 = −2.06, x2 = 0.23 NF
⎜⎜ + − 2 ⎟⎟μ1 = 0 ⎪
⎝ 2(1 + μ 2 ) 2 ⎠ ⎧ 6 − μ1 μ − μ1
⎪ ⎪ + 2 −2=0
⎛ ⎛ μ − 6 ⎞2 μ − μ ⎞ ⎪ ⎪2(1 + μ 2 ) 2
⎜⎜ 1 ⎟⎟ − 2 1 ⎟
− 4 μ 2 = 0⎪ si μ ≠ 0, μ ≠ 0 ⎨
⎜ 2
⎜ ⎝ 2(1 + μ 2 ) ⎠ ⎟ ⎪⎛⎜ μ1 − 6 ⎞⎟ − μ 2 − μ1 − 4 = 0
1 2
⎝ 2 ⎠ ⎪⎭
⎪⎩⎜⎝ 2(1 + μ 2 ) ⎟⎠ 2
⎛ μ 2 − μ1 ⎞ μ − μ1
2
⎜ − 2⎟ − 2 = 4 → (μ 2 − μ1 ) 2 = 10(μ 2 − μ1 )
⎝ 2 ⎠ 2
Optimo, por ser la
⎧ μ 2 = μ1 → μ1 = 2 / 5, μ 2 = 2 / 5, x1 = −2, x2 = 0 región convexa y
⎪
⎨μ − μ = 10 → 6 − μ1 + 6 = 0 → μ = −14.4 NF J convexa
33 ⎪⎩ 11 + μ1
2 1 1
Cesar de Prada ISA-UVA
Cualificación de las restricciones
2( x + 3) + μ1 ( −1) + μ 2 2 x1 = 0
∇ x J ( x ) + ∑ λ j ∇ x h j ( x ) + ∑ μ i ∇ x g i ( x ) = 0 ⎧⎨ 1
j i ⎩2 x2 + μ1 (1) + μ 2 ( −1) = 0
Ejemplo 3 Optimo: x1=-2,x2=0,μ1=2/5,μ2=2/5, J=1
Condiciones de 2º orden
⎡ ∇ x h( x * ) ⎤
min ( x1 + 3) + x ⎫
2 2
z ' ∇ L(x , λ , μ )z > 0
2
x
* * *
∀z | ⎢ * ⎥
z=0
⎣∇ x g act (x )⎦
2
x1 , x 2
⎪⎪
− x1 + x2 − 2 ≤ 0 ⎬ Restricciones
⎡ z1 ⎤
x12 − x2 − 4 ≤ 0 ⎪ ⎪ activas [ − 1 1 ]⎢ z ⎥ = 0 − z1 + z 2 = 0 Vectores
⎭ ⎣ 2⎦ de planos
tangentes
⎡ 1⎤
z
Hessiano respecto a x [ 2 ( − 2 ) − 1]⎢ z ⎥ = 0 − 4 z1 − z 2 = 0
⎣ 2⎦
⎡ ∂L 2
∂L ⎤
2
⎢ ∂x 2 ∂x ∂x ⎥ ⎡2 + 2μ 0⎤ ⎡14 / 5 0⎤ ⎡ z ⎤
H x = ⎢ 12 1 2⎥
= ⎢
2
⎥ z ' H *
z = [ z z ]⎢ ⎥ ⎢ ⎥ = 14 z 2
/5 > 0
⎢ ∂L ∂L ⎥ ⎣ 0 x
2
2⎦ ⎣ 0 0⎦ ⎣ z ⎦
⎢⎣ ∂x2 ∂x1 ∂x22 ⎥⎦ ⎡14 / 5 0⎤ ⎡ z ⎤
[z − 4 z ]⎢ ⎥ ⎢ ⎥ = 14 z 2
/5 > 0
⎣ 0 0⎦ ⎣ − 4 z ⎦
36 Cumple la suficiencia
Cesar de Prada ISA-UVA
Ejemplo 4
R
V=20V Encontrar el valor de R de modo
+
10Ω que se maximice la potencia
-
absorbida en dicha resistencia
i
400 R ⎫
P = I 2R ⎫ min 2⎪
⎬ R (R + 10) ⎬
20 = IR + 10 I ⎭ R≥0 ⎪⎭
x2 x2
x*
x*
x1 x1
1
min J (x) = c' x + x' Qx Al ser A de rango m, los gradientes ∇xh = A,
x 2 ∇xg = -I son independientes y se cumple la
Ax − b = 0 cualificación de las restricciones
−x≤0 Si la matriz Q es positiva semi-definida,
entonces J es convexa, y como la región
Técnicas de solución: factible, si existe, también lo es, una
solución local del problema es un óptimo
9Mediante las global y puede encontrarse resolviendo las
condiciones KKT condiciones KKT
9Conjuntos activos Si Q no es PSD, entonces pueden existir
9Métodos mas óptimos locales o no existir solución y las
generales (Wolfe) condiciones KKT solo son necesarias.
41 9Otros Cesar de Prada ISA-UVA
Resolución mediante KKT (Dantzing-
Wolfe)
1
min J (x) = c' x + x' Qx Lagrangiana:
x 2 1
Ax − b = 0 L( x, λ , μ) = c' x + x ' Qx + λ ' ( Ax − b) − μ' x
2
−x≤0 Condiciones KKT:
1. Escoger xk y calcular Λ x2
2. Resolver el problema , PΛ, asociado
con igualdades en Λ. Sea θk la θk
solución y λk sus multiplicadores de
Lagrange xk+1
3. Calcular xk+1=xk+αk(θk-xk) Si θk no xk
verifica una restricción que no está
en Λ (αk <1) añadir el índice a Λ
4. Si los λk que corresponden a x1
desigualdades son todos ≥ 0,
entonces θk es óptimo. En caso
contrario eliminar el índice p ⎛ βi − a i ' x k ⎞⎟
⎜
correspondiente al menor de ellos de α k = min 1, min
Λ ⎜ i∉Λ a ' (θ − x k ) ⎟
⎝ ai '( θk −xk )<0 i k ⎠
5. Hacer k=k+1 y volver a 2
w e u K e − ds y
PID +
τs + 1
y
∫ dt MISE
e t 2
w min ( )
K p ,Ti ,Td
K p ≥ 0, Ti ≥ 0, Td ≥ 0
J (x k ) ≥ J (x k ) + ∇ x J (x k )(x $k − x k ) ⇒ 0 ≥ ∇ x J (x k )(x $k − x k )
x k +1 = x k + σ*k (x $k − x k )
xk+1$
De esta forma se determina un
nuevo xk+1 iterandose hasta que se xk
cumpla una condición del tipo: xk+1
x k +1 − x k J (x k +1 ) − J (x k )
≤ ε2 ≤ ε3
ε0 + xk ε 0 + J (x k )
49 Cesar de Prada ISA-UVA
Compresor con tres etapas
La potencia
consumida por un
M compresor
adiabático reversible
T T en el que la entrada
q T T
está a la temperatura
P0 P1 P2 P3 T es:
γ −1
q moles/h T ºK γ = 4/3 ⎡ ⎤
γ ⎢⎛ Psal ⎞ γ
W = qRT ⎜⎜ ⎟⎟ − 1⎥
Si un gas entra a 1bar y debe salir a 64 γ − 1 ⎢⎝ Pent ⎠ ⎥
⎣ ⎦
bares manteniendo q y T constantes,
¿cuales deben ser las presiones de trabajo cp
γ= R = constante gases
de cada etapa intermedia para gastar la cv
mínima energía?
50 Cesar de Prada ISA-UVA
Compresor
La potencia total
consumida será la
M suma de la que
consume cada
T T compresor
q T T
P0 P1 P2 P3
1 1
⎡ 1 1 1
⎤ 1 ⎛ P ⎞ ⎛ 64 ⎞
4 4
⎛ P ⎞ ⎛ P ⎞ ⎛ P ⎞ min P1 + ⎜⎜ 2 ⎟⎟ + ⎜⎜ ⎟⎟
WTotal = qRT 4 ⎢⎜⎜ 1 ⎟⎟ + ⎜⎜ 2 ⎟⎟ + ⎜⎜ 3 ⎟⎟ − 3⎥
4 4 4 4
⎢⎝ P0 ⎠ ⎝ P1 ⎠ ⎝ P2 ⎠ ⎥
P1 , P2
⎝ P1 ⎠ ⎝ P2 ⎠
⎣ ⎦ P1 ≥ 1, P1 ≤ P2 ≤ 64
P1 ≥ P0 , P1 ≤ P2 ≤ P3
Proporciona
x2=x1 (2,10)
una dirección x2=x1
de
minimización
1 x1 1 x1
de J
53 Cesar de Prada ISA-UVA
Compresor / Método de Wolfe
(64,64)
min J (2 + α(64 − 2), 10 + α(64 − 10))
x2 64 α
0 ≤ α ≤1
(2,10) x2=x1 Puede resolverse por interpolación, sección
dorada, etc. Solución: α* = 0.027
1 x1 Nuevo punto:
Se continua
x1= 2+0.027 62=3.69
iterando hasta
x2= 10+0.027 54=11.47 que no haya
mejora
J=4.25 apreciable
54 Cesar de Prada ISA-UVA
Programación lineal sucesiva SLP
h(x) = 0
En otro sin restricciones tal que su solución se g(x) ≤ 0
aproxime a la del NLP
min V (x, η) = min J (x) + ∑ ηi Pi (hi (x), g i (x))
x x
i
Funciones de P P Funciones de
Penalización para: Penalización
gi (x) ≤ 0 para: h(x) = 0
gi(x) h(x)
57 Cesar de Prada ISA-UVA
Funciones de Barrera/Penalización
h(x) = 0
gi(x) ≤ 0 Penalización: Si se
P P
Penalización violan las restricciones, Penalización
externa entonces P toma valores parabólica
muy grandes. El óptimo
puede violar ligeramente h(x)
gi(x)
las restricciones
Restricciones de Igualdad h( x) = 0 P
Penalización para
bólica ηh(x)2
Si h(x) se desvía del valor de cero ,
entonces la función P crece
cuadráticamente, penalizando los h(x)
valores de V(x) en los puntos no P, función continua con
factibles. El parámetro η proporciona derivadas continuas
la magnitud de la penalización.
P Valor Absoluto
Se debe adicionar un término η|h(x)|,
η(hi(x))2 a la función objetivo J, por discontinuas
cada una de las restricciones de en h(x) = 0
igualdad existentes. h(x)
59 Cesar de Prada ISA-UVA
Ejemplo de restricción de igualdad
η =0 función
original J(x)
η =1 Función de
Penalización
V(x)=J(x)+ ηP
η =10 Función
de Penalización
V(x)=J(x)+ ηP
El mínimo de J(x)
se encuentra
61 alrededor de h(x)=0 Cesar de Prada ISA-UVA
Funciones de Penalización
Restricciones de desigualdad g ( x) ≤ 0
Penalización Infinita P
Penalización
⎧ 0 if g( x ) ≤ 0 Exterior
P( g( x )) = ⎨ 20
⎩10 g( x ) if g(x ) > 0
g(x)
Principal inconveniente: discontinua en g(x) = 0
Penalización cuadrática P
asimétrica (brakets) Penalización
P( g( x )) = [max(0, g( x ))] exterior
2
Penalización Exacta P
0 ≤ ωi ≥ λ*i 0 ≤ σ i ≥ μ*i
donde x*,λ*, μ* son la solución de las g(x)
condiciones de KKT. Luenberger (1984)
63 Cesar de Prada ISA-UVA
Funciones de Barrera
Barrera Logarítmica
P ( g (x)) = − ln(− g (x)) P Función de
Los puntos que se encuentran dentro barrera o interior
de la región factible se favorecen,
mientras que los que se encuentran
g(x)
cercanos a g(x) se penalizan. Se
construye una barrera infinita antes de
Nótese que con funciones
las restricciones
de barrera, el parámetro η
P es continua, pero si por alguna razón, las tiene que decrecer
restricciones se violan, es muy difícil volver progresivamente para que
a la situación anterior permita un punto cercano a
las restricciones
64 Cesar de Prada ISA-UVA
Número de Condición del Hessiano
Cuando el parámetro η se
modifica para forzar a que los
ptos. xk del algoritmo estén
próximos a modificar la forma de
los contornos de las
-x1+x2 = 2 restricciones, el problema de mal
x2 condicionamiento se incrementa.
Un número de condición de 105
x1 es moderadamente grande, 109
es grande y 1014 muy grande por
tanto métodos basados en la
inversa del hessiano no
funcionará.
65 Cesar de Prada ISA-UVA
Algoritmos con funciones de
penalización
min ( x1 + 3) + x + ηP ( g ( x))
2 2
2
0
x1 , x2 -1
-2
⎧ 0 si x12 − x2 − 4 ≤ 0
-3
P ( g ( x)) = ⎨ 2
-4
-5
⎩( x1 − x2 − 4) si x1 − x2 − 4 > 0
2 2 -6
-7
-8
-4 -3 -2 -1 0 1 2 3
Matlab
67 Cesar de Prada ISA-UVA
Ejemplo 2
η =0 función
original J(x)
η =5 función de
800
penalización
600
V(x)=J(x)+ ηP
400
0
-1
200
-2
0 -3
2
-4
0 4
-2 2 -5
0
-4 -6
-6 -4
-2
El mínimo se -3 -2 -1 0 1 2
encuentra dentro de
68 la región g(x)≤0
Cesar de Prada ISA-UVA
Restricciones duras y blandas