Está en la página 1de 44

UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS

FACULTAD DE QUÍMICA E INGENIERÍA QUÍMICA


DEPARTAMENTO ACADEMICO DE PROCESOS

SEMANA 11: BASES DE OPTIMIZACIÓN


DE PROCESOS

Dr. Raymundo Erazo Erazo


rerazoe@unmsm.edu.pe
OPTIMIZACIÓN

También programación matemática, usado para encontrar la


respuesta que proporciona el mejor resultado, mayores
ganancias, mayor producción menor costo, menores
desechos, etc.

Esto implica utilizar de forma eficiente los recursos, tales


como: dinero, tiempo, maquinaria, personal, existencias, etc.
Los problemas de optimización generalmente se clasifican
en lineales y no lineales, según las relaciones del problema
sean lineales con respecto a las variables.
OBJETIVO DE LA OPTIMIZACIÓN

Encontrar la mejor solución de modelos de decisiones


difíciles, frente a las múltiples soluciones locales.

Alcanzar la ganancia máxima o tener la pérdida mínima

Lograr la mejor decisión para un conjunto dado de


circunstancias sin tener que enumerar todas las posibilidades.

Se aplica en el análisis de procesos industriales existentes o en


operación y en el diseño de nuevos procesos.

Aprovecha la ventaja de la estructura matemática del


problema para encontrar los mejores valores de una forma
eficaz.
OPTIMIZACIÓN DE PROCESOS

Valor óptimo para la función objetivo y sus restricciones y


abarca el diseño y operación del proceso.

Primero seleccionar un criterio de optimización, (rendimiento de


producto por volumen de reactor, costo mínimo de producción,
etc.). La meta es maximizar o minimizar la función objetivo.

El problema de optimización ocurre en los casos donde se tiene


que seleccionar entre dos o más características cuantitativas
afectando las variables de proceso diferentemente una en
contra de la otra. Por ejemplo, la eficiencia de proceso puede
ser equilibrada en contra del rendimiento específico, calidad en
contra de la cantidad, inventario de productos en contra de su
ventas, productividad en contra de gastos, etc.
FORMULACIÓN DE PROBLEMAS DE OPTIMIZACIÓN

Se requieren: Un modelo matemático y sus restricciones, un


modelo económico y un procedimiento de optimización.

Las condiciones óptimas de operación de las unidades


individuales de proceso deben ser conocidos y utilizados en la
optimización de la planta para el máximo beneficio.

Por lo general, los modelos individuales del proceso son


simplificados usando ecuaciones de simulación, para luego
usar modelos más detallados y determinar las condiciones de
operación óptimas, por ejemplo, temperaturas, presiones,
razones de reciclo, etc. Vea el siguiente diagrama.
Diagrama de la practica Industrial para la Optimización de Plantas
Problemas de Optimización

Para encontrar una solución al problema


min J ( x ) es importante:
x
1. Estudiar las propiedades matemáticas
hi (x) = 0 de las funciones que intervienen en el
problema
g j (x)  0
2. Estudiar la estructura matemática del
problema, los distintos tipos que se
presentan y las técnicas de solución
Problema general NPL particulares para cada uno de ellos
Un problema de optimización NLP

x = (x1, x2, ...., xn)’ vector de variables de decisión


min J ( x )
x J(x) función de costo
hi (x) = 0 h(x) = 0 i = 1,2,...,l restricciones de igualdad
g j (x)  0 gj(x)≤ 0 j = 1,2,...,m restricciones de desigualdad

x  Rn

Si no existen hi ni gj el problema se denomina sin


restricciones
Equivalencias

min J ( x ) J(x)
x
Minimizar / Maximizar min J(x)
hi (x) = 0 = max –J(x)

g j (x)  0 x
x*
gj(x) ≤ a puede escribirse como gj(x) – a ≤ 0 J(x)

gj(x) ≤ 0 es equivalente a -gj(x)  0


gj(x) ≤ 0 es equivalente a gj(x) + ε = 0, ε  0
hi(x) = 0 es equivalente a hi(x) - ε ≤ 0, ε  0 x*
x
Ejemplos

min ( x1 − 2) 2 + 3( x 2 − 1) 2 + 1 min ( x1 − 2)2 + 3( x 2 + 1)2 + 1


x1 + 2 x 2  4 x1 + 2 x 2 = 4
x1  0 x 21 + x 2  3
x2  0 x1  0
x2  0
x2
x2
J x12 + x2 ≤ 3
J

F x1 F
x1
x1+ 2x2 4 x1+ 2x2= 4
Restricciones activas

min J ( x ) min ( x1 + 3x 22 )
x
x1 + 2 x 2  4
hi (x) = 0 x1  0
g j (x)  0 x2  0
x2
Una restricción gj(x) ≤ 0 es Restricción activa en x0
activa en un punto x0 si se
verifica: gj(x0) = 0 Punto x0 = (2, 1)’
F x1
(A menudo se refiere a la
solución) x1+ 2x2= 4
Restricción inactiva en x0
Optimo local (mínimo local)

Un punto x*F se denomina un mínimo local del J(x)


problema de optimización si existe un entorno de
x* tal que para cualquier otro punto x  F del
entorno:
J(x*)  J(x)
x* x
Pueden existir varios
J(x)
óptimos locales Si se verifica la J(x)
desigualdad
estricta el
óptimo es propio
Mínimos
impropios
x1* x2* x x
x*
Optimo global

Un punto x* se denomina un mínimo global del J(x)


problema de optimización si para cualquier punto x Optimo
del conjunto factible F: global

J(x*)  J(x)

x* x
J(x)
Si no existe ningún
valor de x* F tal que
Problema no J(x*)  J(x) el problema
acotado es no acotado y no
existe mínimo
x
Continuidad

J(x) J(x) discontinua en x0


Continua en x0

Derivada no
definida
x0 x x0 x

lim J ( x ) existe Es importante para muchos algoritmos


x →x 0 trabajar con funciones continuas y con
derivadas continuas
J(x 0 ) existe
lim J ( x ) = J ( x 0 )
x →x 0
Continuidad

J(x) Continua pero con J(x)


derivada discontinua
en x0

x0 x x

derivada discontinua debido a la


Métodos de optimización basados en conversión en función continua
el cálculo de derivadas pueden mediante interpolación lineal de
producir oscilaciones y falta de una función originalmente definida
convergencia en la solución si hay solo en puntos discretos de x
discontinuidades
Convexidad

x2 min J ( x )
x

J2
La forma de la región de
búsqueda es importante
hi (x) = 0
J1
F
J3 para los algoritmos de
optimización
g j (x)  0
x1
F
Un conjunto F es convexo si el
segmento que une dos puntos
cualquiera del mismo esta
F totalmente contenido en F F no-convexo
F convexo
Función convexa

La función J(x) es convexa en un J(x)


conjunto convexo F si no toma
valores superiores a los de una
interpolación lineal

x1 x x2

x1 , x 2  F,   [0,1]
J ( x1 + (1 −  )x 2 )  J ( x1 ) + (1 −  )J ( x 2 )
Si se cumple con < es estrictamente convexa
Función concava

La función J(x) es cóncava en un J(x)


conjunto convexo F si no toma
valores inferiores a los de una
interpolación lineal

x1 x x2

x1 , x 2  F,   [0,1]
J ( x1 + (1 −  )x 2 )  J ( x1 ) + (1 −  )J ( x 2 )
Si se cumple con < es estrictamente convexa
Convexidad

J(x) J(x)

x1 x x2 x
x1 x2

J(x)
Si J(x) es convexa, -J(x) es concava
Una función lineal es convexa y concava

x1 x x2
Convexidad de funciones (una variable)

dJ( x 0 ) 1 d 2 J( x 0 )
J(x ) = J( x 0 ) + (x − x 0 ) + ( x − x 0 ) 2 + ...
dx 2 dx 2
dJ( x 0 ) 1 d 2 J( x 0 )
J( x ) − (J( x 0 ) + ( x − x 0 )) = ( x − x 0 ) 2 + ...
dx 2 dx 2
d 2 J( x 0 )
H=
dx 2
J(x)
Si H es continua y positiva semidefinida
la función J(x) es convexa en un entorno J(x0)+J’(x0)(x-x0)
de x0

x x0
Convexidad de funciones

J 1  2 J(x)
J(x) = J(x 0 ) + (x − x 0 ) + (x − x 0 ) ' (x − x 0 ) + ..
x x0 2 x x2
0

J 1  2 J(x)
J(x) − (J(x 0 ) + (x − x 0 )) = (x − x 0 ) ' (x − x 0 ) + ..
x x0 2 x x2
0

1  2 J(x) 1 H Hessiano
(x − x 0 ) ' (x − x ) = (x − x 0 ) 'H(x − x 0 )
x x2 0
2 2 J(x)
0

J(x0)+J’(x0)(x-x0)
La forma cuadrática z’Hz determina si la
función J(x) es convexa en un entorno
de x0
x x0
Convexidad de funciones lineales

Regiones definidas por desigualdades o igualdades lineales son


convexas. Se denominan politopos.

x2 Igualmente, las funciones lineales son


convexas (y concavas)

F x2

x1
x1
Funciones cuadráticas

1
J(x) = a + b ' x + x 'Hx
2
J(x)  a b   x1 
= b '+ x 'H J(x) =  x1 x2    x 
x  c d  2
 2 J(x) Función (forma) cuadrática en R2
=H
x 2

 a b   x1 
La matriz H define el tipo de
 x1 x2      1
forma cuadrática
c d  x 2 
La convexidad es global Describe una región en R2
Convexidad

✓Si J1(x) y J2(x) son funciones convexas en el conjunto convexo F, entonces J1(x) + J2(x)
también es convexa en F
✓Si J1(x) y J2(x) son funciones convexas y acotadas superiormente en el conjunto
convexo F, entonces J(x) = max { J1(x), J2(x)} también es convexa en F
✓Si J1(x) y J2(x) son funciones cóncavas y acotadas inferiormente en el conjunto convexo
F, entonces J(x) = min { J1(x), J2(x)} también es cóncava en F
✓Si J(x) es convexa en el conjunto convexo F, entonces J(Ax+b) es convexa
✓Si J(x) es una función convexa en el conjunto convexo F, y si V(.) es una función
convexa (definida en el rango de J) y no decreciente, entonces V[J(x)] es también
convexa en F. O bien J(x) es concava y V convexa y no creciente.
20

15

10

Convexidad 5

-5
0 0.5 1 1.5 2 2.5 3 3.5

2x 2 − 3sen ( x )

En el intervalo (0,] ver la convexidad de: 20

18
8
x 10
15 3.5
16

3 14

12
2.5
10
10

2
8

1.5 6

5
4
1
2
0 0.5 1 1.5 2 2.5 3 3.5
0.5

2x + 3, 
0
0 0.5 1 1.5 2 2.5 3 3.5 0
0 0.5 1 1.5 2 2.5 3 3.5

max  2 
exp(2x − 3sen(x) + 2) log(2x − 3sen(x) + 2)
2 2
 2x − 3sen(x) 
1500
16
1.4

14
1.3

12
1000 1.2

10
1.1

8
1

500 6 0.9

4 0.8

2 0.7
0
0 0.5 1 1.5 2 2.5 3 3.5
0
0 0.5 1 1.5 2 2.5 3 3.5 0 0.5 1 1.5 2 2.5 3 3.5

(2(x −2)2 + 4) 1
x (2(x − 2)2 )
x log x + 2
Optimización en un conjunto convexo

min J ( x ) Si J es convexa y el conjunto F es


x también convexo, un mínimo local es
hi (x) = 0 también un mínimo global

g j (x)  0
Si todas las restricciones de desigualdad son convexas
contribuirán a generar un conjunto convexo. Las
restricciones de igualdad, si no son lineales, no serán
en general convexas con lo que el problema puede
tener varios mínimos locales.
Tipos de problemas de optimización

min J ( x ) Optimización sin restricciones


x

x  Rn

min J ( x ) Optimización con restricciones de


x
igualdad
hi (x) = 0
Multiplicadores de Lagrange
Tipos de problemas de optimización

min b' x Programación lineal (LP) función de


x

Ax  c coste y restricciones lineales


x0

min x ' Hx + b' x Programación cuadrática (QP) función


x

Ax  c de coste cuadrática y restricciones


lineales
x0
Tipos de problemas de optimización

min J ( x )
x
Programación no lineal (NLP) función
hi (x) = 0 de coste y / o restricciones no-lineales
g j (x)  0

min J ( x, y)
x Programación mixta entera (MINLP)
h i ( x, y) = 0 algunas de las variables son reales y
otras enteras
g j ( x, y)  0
x  Rn, y  Z
Tipos de problemas de optimización

min J ( x, z ) Optimización dinámica


x

dz Parte de las restricciones vienen


= f ( z, x ) dadas por ecuaciones diferenciales
dt
g j (x)  0
ri (z )  0
Optimización multiobjetivo Hay
min {J1 ( x ), J 2 ( x ), ....J s ( x )}
x varias funciones de costo a
x  minimizar simultáneamente
Problemas de optimización

• Como tomar la mejor decisión entre varias posibles


• Problemas de naturaleza muy diversa
• Diseño (p.e. dimensionamiento de un equipo con costo mínimo)
• Operación (p.e. punto de operación mas rentable)
• Logística (p.e. ruta mas corta de distribución de un producto)
• Planificación (p.e. mejor lugar para construir una planta)
• Control (p.e. acción de control que genera menos varianza en la variable
controlada)
• Etc.
Problemas de optimización

• Se presentan en campos muy diversos


• Procesos
• Economía
• Biología
• Electrónica,….
• Pero todos tienen rasgos comunes:
• Un objetivo u criterio a optimizar
• Unas variables de decisión
• Un conjunto de ligaduras y restricciones sobre las variables de decisión
¿Cómo tomar decisiones optimas?

¿Por experiencia?

¿Experimentando todas
las opciones?

Analizando el problema y formulándolo


como un problema matemático
Metodología de trabajo

1 Analizar el problema
2 Formularlo en términos
matemáticos

min J ( x , y)
x

h ( x , y) = 0
g ( x , y)  0
3 Resolverlo con los
algoritmos y software
adecuados

4 Interpretar y aplicar la
solución
Análisis / Formulación (Modelado)

1 Analizar el problema 2 Formularlo en términos 1. Conocer el proceso, listar todas las variables
matemáticos de interés
2. Determinar el criterio de optimización y
especificar el criterio de optimización en
min J ( x , y)
x términos de las variables del problema
h ( x , y) = 0 3. Especificar las relaciones entre las variables
g ( x , y)  0 impuestas por balances de masa y energía,
leyes físicas, etc.
4. Determinar el rango admisible de las
variables
5. Identificar los grados de libertad respecto a
los cuales optimizar
Resolución / Aplicación (Optimización)

min J ( x , y) 6. Formular el problema en términos de


x
uno de los tipos de optimización
h ( x , y) = 0 conocidos
g ( x , y)  0 7. Estudiar la formulación y simplificarla /
3 Resolverlo con los algoritmos adecuarla
y software adecuados 8. Aplicar un algoritmo adecuado usando
un software de optimización
9. Analizar la solución, estudiar la
sensibilidad de la solución a cambios
en las hipótesis y los parámetros del
problema

4 Interpretar y aplicar la solución


Variables:
V volumen
Un ejemplo
h d diámetro
Encontrar las dimensiones de un tanque h altura
d
cilíndrico abierto de modo que tenga un
A area
volumen de 6 m3 y área mínima

Formulación:
Relaciones entre 1 2
Función a minimizar:
variables: min dh + d
A = dh+¼d2
d ,h 4
V = ¼ d2h = 6
sujeto a :
Grados de libertad: número Límites: d 2 h = 4V
de variables – numero de d≥0 , h≥0
ecuaciones independientes: d  0, h  0
2-1=1 Datos : V
d

Un ejemplo
h

Resolución analítica, (normalmente no es


1 grado de libertad
posible):
1 2 4V
min dh + d h=
d ,h 4 d 2
sujeto a : 4V d 2 4V d 2
area = d 2 + = +
d 2 h = 4V d 4 d 4
d  0, h  0 area − 4V d*
= 0  *2 + =0
d d* d 2
Sensibilidad: ¿Cuánto  8V 
13
V
13

cambia la solución si el d = 8V, d = 


*3 *
 h = 
*

volumen cambia un 1%?    


d

h
Un ejemplo más realista

Encontrar las dimensiones de un


tanque cilíndrico abierto de modo
1 2 −4
que tenga un volumen de 6 m3 y min ( dh + d )10 (d + 4)p
costo mínimo suponiendo que el d ,h 4
espesor ε ( y el costo) depende de sujeto a :
d según: ε =0.0001d + 0.0004 m
d 2 h = 4V
d  0, h  0
Relaciones entre Variables:
variables:
V volumen p es el precio en € por kg de chapa
V = ¼ d2h = 6 empleado
d diámetro
Límites:
h altura El factor 10-4pρ no afecta a la
d≥0 , h≥0 optimización y puede eliminarse
A area
d

h
Un ejemplo mas realista

1
min ( dh + d 2 )(d + 4) 4V
h= 2
d ,h 4 d
sujeto a : 4V d 2 area
cos te = ( d 2 + )(d + 4) =0
d 2 h = 4V d 4 d d*
d  0, h  0 4V d*2 − 4V d* *
*
+ + ( *2 + )(d + 4) = 0
d 4 d 2
Puede ser mas aconsejable 3d*4 + 8d*3 − 64V = 0
una solución numérica
directa del problema de
optimización No tiene solución analítica directa y debe
resolverse por métodos numéricos
Ejemplo: Planificación de la producción

Producto Kg A Kg B Kg C Coste Precio


A E
/ Kg / Kg / Kg fabric € /Kg
€ / Kg
E 0.6 0.4 0 1.5 4
B F
F 0.7 0.3 0 0.5 3
G 0.5 0.2 0.3 1 3.7
G
C Material Disponibilidad Coste € /Kg
Kg /dia
A 40000 1.5
Qué cantidades producir B 30000 2
para maximizar el beneficio
C 25000 2.5
diario
Ejemplo: Planificación de la producción

A x1 E
Variables: xi Kg /dia procesados en las
unidades de cada material
x4
x2
B F A, B, C Kg / dia de materiales
x5 E, F, G Kg/dia de producto
x6 x3 Beneficio /dia = ventas – costes procesado
G
–costes materiales =
C
x7
(4E+3F+3.7G) – (1.5E+0.5F+G) –
(1.5A+2B+2.5C)
Objetivo: Maximizar el
beneficio diario
Ejemplo: Planificación de la producción

E
A x1 max 2.5E + 3.5F + 2.7G − 1.5A − 2 B − 2.5C
E = x1 + x 4 F = x 2 + x 5 G = x 3 + x 6 + x 7
x4
x2
F A = x1 + x 2 + x 3 B = x 4 + x5 + x6 C = x7
B
x5 x1 = 0.6E x 2 = 0.7 F x 3 = 0.5G x 6 = 0.2G
x6 x3 0  x1 + x 2 + x 3  40000
G
0  x 4 + x 5 + x 6  30000
C
x7
0  x 7  25000
xi  0
Objetivo: Maximizar el
beneficio diario
Ejemplo: Planificación de la producción

max 2.5E + 3.5F + 2.7G − 1.5A − 2 B − 2.5C


A x1 E
E = x1 + x 4 F = x 2 + x 5 G = x 3 + x 6 + x 7
x4 A = x1 + x 2 + x 3 B = x 4 + x5 + x6 C = x7
x2
B F x1 = 0.6E x 2 = 0.7 F x 3 = 0.5G x 6 = 0.2G
x5 0  x1 + x 2 + x 3  40000
13 variables – 10
x6 x3
G
0  x 4 + x 5 + x 6  30000 ecuaciones = 3 grados
C 0  x 7  25000 de libertad

x7 xi  0
No es factible una
Objetivo: Maximizar el solución analítica
beneficio diario

También podría gustarte