Está en la página 1de 18

Simulación y Optimización

Cuarto curso Grado de Ingeniería Química

Tema 2. INTRODUCCIÓN A LA OPTIMIZACIÓN


DE PROCESOS
Funciones objetivo. Concavidad y convexidad. Métodos analíticos de búsqueda de puntos
óptimos. Condiciones Karush-Kunt-Tucker (KKT).

1
RESOLUCIÓN DE PROBLEMAS DE OPTIMIZACIÓN

A. Simple sin restricciones (s.r.), (función objetivo derivable):


Derivación parcial

B. Simple con restricciones (c.r.) (función objetivo derivable):


Derivación Lagrangiana (c.r.  s.r.)

C. Nº alto de variables y c.r. lineales:


Programación lineal

D. Nº alto de variables y c.r. no lineales:


Programación no lineal

E. Otros casos: Métodos numéricos de búsqueda:


No óptimo
min J ( x )
x
x = (x1, x2, ...., xn)’ vector de variables de decisión
hi (x) = 0
J(x) función objetivo o de costo
g j (x) ≤ 0
hi(x) = 0 i = 1,2,...,l restricciones de igualdad Región factible
x∈R n
gj(x) ≤ 0 j = 1,2,...,m restricciones de desigualdad
2
Simulación y Optimización
ÓPTIMO LOCAL (mínimo local)

Un punto x*∈F se denomina un mínimo local del problema de optimización si


existe un entorno de x* tal que para cualquier otro punto x ∈ F del entorno:
J(x*) ≤ J(x)

Según la definición puede haber varios óptimos locales y en el caso que se


cumpla la desigualdad se define como óptimo propio, en caso contrario,
impropio.
ÓPTIMO GLOBAL (mínimo global)
Un punto x* se denomina un mínimo global del problema de optimización si para
cualquier punto x del conjunto factible F: J(x*) ≤ J(x)
Si no existe ningún valor de x* ∈ F tal que J(x*) ≤ J(x) el problema es no acotado
y no existe mínimo.
CONTINUIDAD
lim J ( x ) existe Es importante para muchos algoritmos trabajar con
x→x 0
funciones continuas y con derivadas continuas.
J(x 0 ) existe Teorema: Una función continua J(x) tiene un mínimo
lim J ( x ) = J ( x 0 ) global en cualquier conjunto F cerrado y acotado
x→x 0
3
Simulación y Optimización
REGIÓN CONVEXA (región de búsqueda o factible)
Un conjunto F es convexo si el segmento que une dos puntos del mismo esta totalmente contenido en F

Región válida (VR) convexa:


x = α x1 + (1 - α) x2 ∈ VR ∀ α ∈ [0, 1]

Función convexa: Una función es convexa en un conjunto convexo F si no toma valores superiores a los
de interpolación lineal. Si son inferiores, es función estrictamente convexa.

f(λ x1 + (1 - λ) x2) ≤ λ f(x1) + (1 - λ) f(x2) ∀ λ ∈ [0, 1]


Si las restricciones de desigualdad son convexas y la restricción de igualdad es lineal (una
función lineal es cóncava y convexa), entonces VR es convexa.
g1 (x) = 0 g1 (x) = 0

X2 g2 (x) = 0 X2 g2 (x) = 0

g3 (x) = 0 g3 (x) = 0

x1 x1
Convexa No convexa
VR = { x/ g(x) ≤ 0, x ∈ Rn} No permite búsqueda lineal
VR convexa  Garantía de existencia de conjunto finito de puntos estacionarios
Programación lineal: Puntos extremos
Programación no lineal: No es necesario.
4
Simulación y Optimización
DEFINICIONES

Si f es cóncava en el intervalo, entonces –f es convexa en el intervalo y si f es convexa en el


intervalo, entonces –f es cóncava en el intervalo.

Si f es estrictamente cóncava en el intervalo, entonces –f es estrictamente convexa en el


intervalo y si f es estrictamente convexa en el intervalo, entonces –f es estrictamente cóncava en
el intervalo.

La matriz hessiana asociada a una función z = (x1, x2, ..., xn) es una matriz cuadrada Hnxn tal que
los elementos hij son de la forma:
∂2z
hij =
∂x i ∂x j
denominamos hessiano al determinante asociado a la matriz hessiana. En R2 el hessiano es
H: R2 R 2
∂ z 2
∂ z
∂x12 ∂x1∂x2
H=
∂ z
2
∂2z
∂x2 ∂x1 ∂ 2 x22
Para un problema de maximización con dos variables, las condiciones que han de verificarse
son:
∂z ∂z ∂ 2
z
=0 =0 <0 H(x*) > 0
∂x1 ∂x 2 ∂x1
2

donde x* es el punto correspondiente al máximo.


5
Simulación y Optimización
En un problema de minimización con dos variables, las condiciones que se han de verificar son:
∂z ∂z ∂2z
=0 =0 >0 H(x*) > 0
∂x1 ∂x 2 ∂x12

donde x* es el punto correspondiente al mínimo.

Definición: el menor principal de orden i de una matriz Hnxn es el determinante de cualquier matriz
i x i que se obtiene al suprimir las n – i filas y las n – i columnas correspondientes de la
matriz.

Definición: el menor principal dominante de orden i de una matriz Hnxn es el determinante de


cualquier matriz i x i que se obtiene al suprimir las n – i últimas filas y columnas de la
matriz.

Definición: Sea la función f(x) con derivadas parciales de segundo orden continuas para
cada punto de x del intervalo (conjunto convexo de soluciones factibles). Entonces
f(x) es convexa en el intervalo si y sólo si, para cada x del intervalo, todos los
menores principales, Hi, son no negativos. Si todos Hi = 0, autovalores ≥ 0.

Definición: Sea la función f(x) con derivadas parciales de segundo orden continuas para
cada punto de x del intervalo (conjunto convexo de soluciones factibles). Entonces
f(x) es cóncava en el intervalo si y sólo si, para cada x del intervalo, todos los
menores principales, Hi, no nulos tienen el signo que (-1)i. Si todos Hi = 0,
autovalores ≤ 0.
6
Simulación y Optimización
Condiciones de óptimo

Condiciones necesarias (funciones continuas y derivables)


- Teorema de Weierstrass  Garantía

- Localización (primera derivada)

Condiciones necesarias y suficientes

Función univariables

Función y(x) en un punto x0 del intervalo abierto (a, b).

Polinomio de Taylor (hasta 2º orden): y(x) = y(x0) + y’(x0) (x – x0) + ½ y’’(x0) (x – x0)2

Punto estacionario: y(x) = y(x0) + ½ y’’(x0) (x – x0)2

Un mínimo se dará cuando y’’(x0) > 0.

Un máximo se dará cuando y’’(x0) < 0.

7
Simulación y Optimización
Condiciones de óptimo: funciones multivariables

a. Caso de 2 variables. Función objetivo con dos variables independientes y(x1, x2) y la
desarrollamos como polinomio de Taylor llegamos a:
1
y( x1 , x2 ) = y( x10 , x20 ) + y x1 ( x1 − x10 ) + y x 2 ( x2 − x20 ) + ( y x1x1 ( x1 − x10 ) 2 + 2 y x1x 2 ( x1 − x10 )( x2 − x20 ) + y x 2 x 2 ( x2 − x20 ) 2 )
2

Anulando la primera derivada llegamos a:


y y x1x 2   x 1 − x 10 
y( x 1 , x 2 ) = y( x 10 , x 20 ) + [( x 1 − x 10 )( x 2 − x 20 )]  x1x1
1
2  y x 2 x1 y x 2 x 2   x 2 − x 20 
 y x1x1 y x1x 2 
donde y y x 2 x 2 
es la matriz Hessianana, H0, que engloba las segundas derivadas parciales
 x 2 x1
evaluadas en el punto x0 y que para la existencia de un óptimo ha de ser estrictamente
positiva (para dos variables):
1
y ( x) = y ( x 0 ) + [( x − x 0 ) ]T
H o ( x − x0 )
2

El producto ∆xT H ∆x > 0 se denomina forma cuadrática diferencial.


 y x1x1 y x1x 2 
Un mínimo se dará cuando yx1x1 > 0 y y > 0.
 x 2 x1 y x 2 x 2 

 y x1x1 y x1x 2 
Un máximo se dará cuando yx1x1 < 0 y y y x 2 x 2 
> 0.
 x 2 x1

8
Simulación y Optimización
En general, para n variables se darán las condiciones suficientes y necesarias
para la existencia de puntos óptimos:

Para la obtención de una solución óptima en Rn de un problema no lineal (PNL)


planteamos que:

Opt z = f(x1, x2, ..., xn) y para la función existen las primeras y segundas derivadas
parciales de f(x) y que son continuas en todos los puntos. Tenemos que:
∂z
Si x* = x1*, x2*, ..., xn* es un extremo local, entonces =0 y se denomina punto
∂x i
estacionario de la función.

Si Hi(x*) > 0, (i = 1, 2, ..., n), entonces un punto estacionario será un mínimo


local.

Si Hi(x*) ≠ 0, (i = 1, 2, ..., n), y tiene el signo que (-1)i, entonces un punto


estacionario será un máximo local.

Si Hi(x*) ≠ 0, (i = 1, 2, ..., n), y no se dan los casos anteriores, entonces es un


punto de inflexión.

9
Simulación y Optimización
Problema
Una alimentación de hidrocarburos se mezcla con una corriente de reciclo y se
comprime antes de entrar a un reactor catalítico. El producto y lo no
reaccionado se separan en un destilador y lo no reaccionado es recirculado.

La presión P y la relación de recirculación R han de ser seleccionadas para


minimizar los costes anuales para producir 107 kg/año. Elevar la presión de la
mezcla tiene un coste de 1000P (€/año) y el mezclado 4109/PR (€/año). La
separación se realiza con un coste de 105 R (€/año) y la impulsión de la
recirculación cuesta 1,5 105 R (€/año). Determinar P, R y coste total anual
mínimo.

MEZCLADOR COMPRESOR REACTOR SEPARADOR

COMPRESOR DE
RECICLO

10
Simulación y Optimización
Multiplicadores de Lagrange bajo restricciones de igualdad.
En este caso el problema que se nos presenta se puede representar como:
Función objetivo: y (x1, x2)
Restricción f(x1, x2) = 0
∂y ∂y
Transformación en polinomio de Taylor: y(x) dy = dx1 + dx 2
∂x1 ∂x 2
− ∂f
∂f ∂f ∂x1
f(x) 0= dx1 + dx 2 ⇒ dx 2 = dx1
∂x1 ∂x 2 ∂f
− ∂y ∂x 2
∂y ∂f ∂x 2
sustituyendo dx2: dy = dx1 + dx1
∂x1 ∂x1 ∂f
∂x 2
− ∂y
∂x 2
siendo el multiplicador de Lagrange, λ, constante en un punto estacionario.
∂f
∂x 2
∂( y + λ f ) ∂( y + λ f ) ∂L ∂L
dy = dx1 que en un punto estacionario: 0 = dx1 = y, por analogía: 0 =
∂x1 ∂x1 ∂x1 ∂x 2
Extensión a función n variables y m restricciones (n > m); condiciones estacionarias:

Función Lagrangiana: ∂L = ∇y( x ) +


m

∂x i
∑ λ ∇f ( x ) = 0
i =1
i i
i = 1, …, m
∂L
= fi (x) = 0
∂λ i 11
Simulación y Optimización
Multiplicadores de Lagrange bajo restricciones de igualdad.
Condiciones necesarias y suficientes para óptimos locales
Opt f(x1, …, xn)
s.a. g1 (x1, …, xn)
g2 (x1, …, xn)  Se define el Hessiano orlado: ´
H L (λ1, …, λm, x1, …, xn) =
… ´
gm (x1, …, xn)
siendo Jg’(x*) la matriz Jacobiana (mxn) con g’ = (g1, …, gm)

Condiciones necesarias
- Mínimo local: pT Hx L(λ*, x*) p ≥ 0 ∀ p ≠ 0 ∈ M(x*) = {p ∈ Rn / Jg’(x*) p = 0}
- Máximo local: pT Hx L(λ*, x*) p ≤ 0

Condiciones suficientes
A) En el caso en que se cumplan estrictamente las desigualdades del producto los óptimos serán
estrictos.

B) Si Dj con j = 1, …, m+n los menores principales del hessiano orlado H L(λ*, x*) entonces:
1) Si los menores principales Dj con j = 2m + 1, m + n de la matriz H L(λ*, x*) tienen el
mismo signo que (-1)m, se verifica que x* es un mínimo local estricto.
2) Si los menores principales Dj con j = 2m + 1, m + n de la matriz H L(λ*, x*) tienen
signos alternos, siendo el signo de D2m+1 el de (-1)m+1, se verifica que x* es un máximo
local estricto. 12
Simulación y Optimización
Multiplicadores de Lagrange bajo restricciones de desigualdad.
En este caso el problema que se nos presenta se puede representar como:
Función objetivo (f.o.): y (x)

Restricciones: f ( x) ≤ 0

En este caso se introducen en la ecuación Lagrangiana una variable adicional de holgura, xs, de
modo cuadrático. De esta manera:
[
L( x , λ ) = y ( x ) + λ f ( x ) + x s2 ]
La derivada parcial respecto a xs indica que
∂L
= 2 λx s = 0
∂x s
y se cumplirá cuando
λ = 0 y xs ≠ 0 (permanece la desigualdad, restricción pasiva),
λ ≠ 0 y xs = 0 (permanece la igualdad, restricción activa)
λ = 0 y xs = 0 (limitada en la restricción).

Condiciones necesarias de primer orden: Condiciones de Kuhn-Tucker


Son las condiciones necesarias para que el punto x* sea una solución óptima para PNL con
restricciones de desigualdad.
Las restricciones han de ser lineales e independientes, continuas y los gradientes en la solución
óptima forman un sistema de vectores linealmente independientes.
Para aplicar los resultados de este apartado, todas las restricciones del PNL tienen que
ser del tipo ≤. 13
Simulación y Optimización
Caso 1: xi sin restricción de signo
opt z = f(x)
g1 (x) ≤ b1
.
gm (x) ≤ bm

Multiplicadores de Lagrange (variables de holgura xsi2):


g1 (x) + xs12 = b1  g1*= b1 – (g1 (x) + xs12) = 0
.
gm (x) + xsm = bm  gm*= bm – (gm (x) + xsm2) = 0
2

Formamos la función lagrangiana:

L( x, x si λi ) = f ( x) + ∑ λi [g i *]
m

i =1

∂L ∂f ( x) m ∂g ( x)
=0= − ∑ λi i
∂x j ∂x j ∂x j
∂L i =1

= 0 = b i − (g i ( x ) + x si ) ⇒ x si = b i − g i ( x )
2 2

∂λ i

∂L
= 0 = −2 x si λ i ≈ x si2 λ i = λ i (b i − g i ( x ))
∂x si
14
Simulación y Optimización
Las condiciones K-T se establecen como:
∂f ( x*) m ∂g ( x*)
± ∑ λi * i =0 j =1,…, n
∂x j i =1 ∂x j

λi * (bi − g i ( x*)) = 0 i = 1, …, m

λi* ≥ 0 i = 1, …, m

Tomando signo – para un problema de maximización y + para un problema de


minimización.

15
Simulación y Optimización
EJEMPLO 1

Una empresa comercializa aceite de oliva y de girasol. La demanda para


ambos productos (D1 y D2) es función de precio de venta (x1 y x2, respectivamente).
D1 = - 4x1 + 2x2 +1200 D2 = 2x1 - 2x2 +1600
El mercado no acepta precios superiores a 400 u.m. de aceite de oliva y de 125 u.m
para el aceite de girasol. Determinar la política para maximizar ventas empleando
las condiciones de K-T.

EJEMPLO 2

Un inversor dispone de 20 u.m. para invertir. Es posible invertir cantidades x1, x2 y x3


en 3 activos A1, A2 Y A3 cuyos rendimientos unitarios son 2, 5 y 4, respectivamente.
El riesgo que incurre si realiza la inversión se estima en: x12 + 3x22 + 2x32.
Determinar el plan óptimo si se desea obtener un rendimiento global de 61 u.m.
asumiendo el mínimo riesgo. ¿Cuánto puede destinar a ahorro?

16
Simulación y Optimización
Caso 2: xi con restricción de signo
Max (min) z = f(x)
g1 (x) ≤ b1
.
gm (x) ≤ bm

-xi ≤ 0

Función lagrangiana con las variables de holgura (xsi y ssi) y multiplicadores de Lagrange λi y μj

L( x , x si , s si , λ i , µ j ) = f ( x ) + ∑ λ i [g i *] + ∑ µ j ( x j − s si )
m n
2

i =1 j=1

y las condiciones K-T serán:


∂f ( x*) m ∂g ( x*)
± ∑ λi * i ± µJ * = 0 j =1,…, n
∂x j i =1 ∂x j
λi * (bi − g i ( x*)) = 0 i = 1, …, m
∂f ( x*) m ∂g ( x*)
[ ± ∑ λi * i ]x * = 0 j =1,…, n
∂x j ∂x j
j
i =1

λi* ≥ 0 i = 1, …, m
µ j* ≥ 0 j = 1, …, n
Para el problema de maximización los signos (-, +) y para el problema de minimización (+, -).
Teniendo en cuenta la última restricción la primera restricción puede escribirse como:
∂f ( x*) m ∂g ( x*) ∂f ( x*) m ∂g ( x*)
Maximización: − ∑ λi * i ≤0 Minimización: + ∑ λi * i ≥0 j =1,…, n
∂x j i =1 ∂x j ∂x j i =1 ∂x j
Simulación y Optimización
Consideraciones sobre condiciones K-T
Hay que tener en cuenta que puede todo óptimo local ha de satisfacer las condiciones
necesarias Kuhn-Tucker.

Si un punto x* satisface las condiciones K-T, puede ser un punto óptimo local o no.

Por ello los dos teoremas siguientes nos aportan las condiciones necesarias y suficientes (las
condiciones de regularidad) para que el punto x* sea solución:

Teorema 1: Si el problema es de maximizar f(x); si f(x) es una función cóncava y las gi (x) (i = 1,
…, m) son funciones convexas, entonces cualquier punto x* que satisfaga las condiciones
de K-T y las m restricciones de PNL es una solución óptima.

Teorema 2: Si el problema es de minimizar f(x); si f(x) es una función convexa y las gi (x) (i = 1,
…, m) son funciones convexas, entonces cualquier punto x* que satisfaga las condiciones
de K-T y las m restricciones de PNL es una solución óptima.

Para poder aplicar los resultados anteriores es importante que el problema se plantee en la
forma que aparece descrita, de no ser así, los signos de los multiplicadores podrían ser
diferentes. Para las condiciones suficientes (segundo orden) es necesario evaluar el Hessiano de
la función lagrangiana (no lo veremos). Más rápido evaluación de la función.

18
Simulación y Optimización

También podría gustarte