Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1
RESOLUCIÓN DE PROBLEMAS DE OPTIMIZACIÓN
Función convexa: Una función es convexa en un conjunto convexo F si no toma valores superiores a los
de interpolación lineal. Si son inferiores, es función estrictamente convexa.
X2 g2 (x) = 0 X2 g2 (x) = 0
g3 (x) = 0 g3 (x) = 0
x1 x1
Convexa No convexa
VR = { x/ g(x) ≤ 0, x ∈ Rn} No permite búsqueda lineal
VR convexa Garantía de existencia de conjunto finito de puntos estacionarios
Programación lineal: Puntos extremos
Programación no lineal: No es necesario.
4
Simulación y Optimización
DEFINICIONES
La matriz hessiana asociada a una función z = (x1, x2, ..., xn) es una matriz cuadrada Hnxn tal que
los elementos hij son de la forma:
∂2z
hij =
∂x i ∂x j
denominamos hessiano al determinante asociado a la matriz hessiana. En R2 el hessiano es
H: R2 R 2
∂ z 2
∂ z
∂x12 ∂x1∂x2
H=
∂ z
2
∂2z
∂x2 ∂x1 ∂ 2 x22
Para un problema de maximización con dos variables, las condiciones que han de verificarse
son:
∂z ∂z ∂ 2
z
=0 =0 <0 H(x*) > 0
∂x1 ∂x 2 ∂x1
2
Definición: el menor principal de orden i de una matriz Hnxn es el determinante de cualquier matriz
i x i que se obtiene al suprimir las n – i filas y las n – i columnas correspondientes de la
matriz.
Definición: Sea la función f(x) con derivadas parciales de segundo orden continuas para
cada punto de x del intervalo (conjunto convexo de soluciones factibles). Entonces
f(x) es convexa en el intervalo si y sólo si, para cada x del intervalo, todos los
menores principales, Hi, son no negativos. Si todos Hi = 0, autovalores ≥ 0.
Definición: Sea la función f(x) con derivadas parciales de segundo orden continuas para
cada punto de x del intervalo (conjunto convexo de soluciones factibles). Entonces
f(x) es cóncava en el intervalo si y sólo si, para cada x del intervalo, todos los
menores principales, Hi, no nulos tienen el signo que (-1)i. Si todos Hi = 0,
autovalores ≤ 0.
6
Simulación y Optimización
Condiciones de óptimo
Función univariables
Polinomio de Taylor (hasta 2º orden): y(x) = y(x0) + y’(x0) (x – x0) + ½ y’’(x0) (x – x0)2
7
Simulación y Optimización
Condiciones de óptimo: funciones multivariables
a. Caso de 2 variables. Función objetivo con dos variables independientes y(x1, x2) y la
desarrollamos como polinomio de Taylor llegamos a:
1
y( x1 , x2 ) = y( x10 , x20 ) + y x1 ( x1 − x10 ) + y x 2 ( x2 − x20 ) + ( y x1x1 ( x1 − x10 ) 2 + 2 y x1x 2 ( x1 − x10 )( x2 − x20 ) + y x 2 x 2 ( x2 − x20 ) 2 )
2
y x1x1 y x1x 2
Un máximo se dará cuando yx1x1 < 0 y y y x 2 x 2
> 0.
x 2 x1
8
Simulación y Optimización
En general, para n variables se darán las condiciones suficientes y necesarias
para la existencia de puntos óptimos:
Opt z = f(x1, x2, ..., xn) y para la función existen las primeras y segundas derivadas
parciales de f(x) y que son continuas en todos los puntos. Tenemos que:
∂z
Si x* = x1*, x2*, ..., xn* es un extremo local, entonces =0 y se denomina punto
∂x i
estacionario de la función.
9
Simulación y Optimización
Problema
Una alimentación de hidrocarburos se mezcla con una corriente de reciclo y se
comprime antes de entrar a un reactor catalítico. El producto y lo no
reaccionado se separan en un destilador y lo no reaccionado es recirculado.
COMPRESOR DE
RECICLO
10
Simulación y Optimización
Multiplicadores de Lagrange bajo restricciones de igualdad.
En este caso el problema que se nos presenta se puede representar como:
Función objetivo: y (x1, x2)
Restricción f(x1, x2) = 0
∂y ∂y
Transformación en polinomio de Taylor: y(x) dy = dx1 + dx 2
∂x1 ∂x 2
− ∂f
∂f ∂f ∂x1
f(x) 0= dx1 + dx 2 ⇒ dx 2 = dx1
∂x1 ∂x 2 ∂f
− ∂y ∂x 2
∂y ∂f ∂x 2
sustituyendo dx2: dy = dx1 + dx1
∂x1 ∂x1 ∂f
∂x 2
− ∂y
∂x 2
siendo el multiplicador de Lagrange, λ, constante en un punto estacionario.
∂f
∂x 2
∂( y + λ f ) ∂( y + λ f ) ∂L ∂L
dy = dx1 que en un punto estacionario: 0 = dx1 = y, por analogía: 0 =
∂x1 ∂x1 ∂x1 ∂x 2
Extensión a función n variables y m restricciones (n > m); condiciones estacionarias:
∂x i
∑ λ ∇f ( x ) = 0
i =1
i i
i = 1, …, m
∂L
= fi (x) = 0
∂λ i 11
Simulación y Optimización
Multiplicadores de Lagrange bajo restricciones de igualdad.
Condiciones necesarias y suficientes para óptimos locales
Opt f(x1, …, xn)
s.a. g1 (x1, …, xn)
g2 (x1, …, xn) Se define el Hessiano orlado: ´
H L (λ1, …, λm, x1, …, xn) =
… ´
gm (x1, …, xn)
siendo Jg’(x*) la matriz Jacobiana (mxn) con g’ = (g1, …, gm)
Condiciones necesarias
- Mínimo local: pT Hx L(λ*, x*) p ≥ 0 ∀ p ≠ 0 ∈ M(x*) = {p ∈ Rn / Jg’(x*) p = 0}
- Máximo local: pT Hx L(λ*, x*) p ≤ 0
Condiciones suficientes
A) En el caso en que se cumplan estrictamente las desigualdades del producto los óptimos serán
estrictos.
B) Si Dj con j = 1, …, m+n los menores principales del hessiano orlado H L(λ*, x*) entonces:
1) Si los menores principales Dj con j = 2m + 1, m + n de la matriz H L(λ*, x*) tienen el
mismo signo que (-1)m, se verifica que x* es un mínimo local estricto.
2) Si los menores principales Dj con j = 2m + 1, m + n de la matriz H L(λ*, x*) tienen
signos alternos, siendo el signo de D2m+1 el de (-1)m+1, se verifica que x* es un máximo
local estricto. 12
Simulación y Optimización
Multiplicadores de Lagrange bajo restricciones de desigualdad.
En este caso el problema que se nos presenta se puede representar como:
Función objetivo (f.o.): y (x)
Restricciones: f ( x) ≤ 0
En este caso se introducen en la ecuación Lagrangiana una variable adicional de holgura, xs, de
modo cuadrático. De esta manera:
[
L( x , λ ) = y ( x ) + λ f ( x ) + x s2 ]
La derivada parcial respecto a xs indica que
∂L
= 2 λx s = 0
∂x s
y se cumplirá cuando
λ = 0 y xs ≠ 0 (permanece la desigualdad, restricción pasiva),
λ ≠ 0 y xs = 0 (permanece la igualdad, restricción activa)
λ = 0 y xs = 0 (limitada en la restricción).
L( x, x si λi ) = f ( x) + ∑ λi [g i *]
m
i =1
∂L ∂f ( x) m ∂g ( x)
=0= − ∑ λi i
∂x j ∂x j ∂x j
∂L i =1
= 0 = b i − (g i ( x ) + x si ) ⇒ x si = b i − g i ( x )
2 2
∂λ i
∂L
= 0 = −2 x si λ i ≈ x si2 λ i = λ i (b i − g i ( x ))
∂x si
14
Simulación y Optimización
Las condiciones K-T se establecen como:
∂f ( x*) m ∂g ( x*)
± ∑ λi * i =0 j =1,…, n
∂x j i =1 ∂x j
λi * (bi − g i ( x*)) = 0 i = 1, …, m
λi* ≥ 0 i = 1, …, m
15
Simulación y Optimización
EJEMPLO 1
EJEMPLO 2
16
Simulación y Optimización
Caso 2: xi con restricción de signo
Max (min) z = f(x)
g1 (x) ≤ b1
.
gm (x) ≤ bm
-xi ≤ 0
Función lagrangiana con las variables de holgura (xsi y ssi) y multiplicadores de Lagrange λi y μj
L( x , x si , s si , λ i , µ j ) = f ( x ) + ∑ λ i [g i *] + ∑ µ j ( x j − s si )
m n
2
i =1 j=1
λi* ≥ 0 i = 1, …, m
µ j* ≥ 0 j = 1, …, n
Para el problema de maximización los signos (-, +) y para el problema de minimización (+, -).
Teniendo en cuenta la última restricción la primera restricción puede escribirse como:
∂f ( x*) m ∂g ( x*) ∂f ( x*) m ∂g ( x*)
Maximización: − ∑ λi * i ≤0 Minimización: + ∑ λi * i ≥0 j =1,…, n
∂x j i =1 ∂x j ∂x j i =1 ∂x j
Simulación y Optimización
Consideraciones sobre condiciones K-T
Hay que tener en cuenta que puede todo óptimo local ha de satisfacer las condiciones
necesarias Kuhn-Tucker.
Si un punto x* satisface las condiciones K-T, puede ser un punto óptimo local o no.
Por ello los dos teoremas siguientes nos aportan las condiciones necesarias y suficientes (las
condiciones de regularidad) para que el punto x* sea solución:
Teorema 1: Si el problema es de maximizar f(x); si f(x) es una función cóncava y las gi (x) (i = 1,
…, m) son funciones convexas, entonces cualquier punto x* que satisfaga las condiciones
de K-T y las m restricciones de PNL es una solución óptima.
Teorema 2: Si el problema es de minimizar f(x); si f(x) es una función convexa y las gi (x) (i = 1,
…, m) son funciones convexas, entonces cualquier punto x* que satisfaga las condiciones
de K-T y las m restricciones de PNL es una solución óptima.
Para poder aplicar los resultados anteriores es importante que el problema se plantee en la
forma que aparece descrita, de no ser así, los signos de los multiplicadores podrían ser
diferentes. Para las condiciones suficientes (segundo orden) es necesario evaluar el Hessiano de
la función lagrangiana (no lo veremos). Más rápido evaluación de la función.
18
Simulación y Optimización