Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Optimización Clásica
Optimización Clásica
Esta tcnica es til para funciones continuas y diferenciales. Estos mtodos son analticos. Tiene un campo limitado de aplicacin. Sin embargo, esto es la base para los dems mtodos.
Teoremas
Condicin necesaria Si f(x) es definida en a x b, tiene un mnimo local en df = f ' (x * ) = 0 x = x*, si a < x* < b y dx *
x
Condicin suficiente Si fn (x*) 0 f (x*) es: un mnimo de f (x) si fn (x*) > 0, n par; un mximo de f (x) si f n (x*) < 0, n par.
Ejemplo
Determine valores mximos y mnimos de la funcin Solucin
f ( x ) = 12 x 5 45x 4 + 40 x 3 + 5
f ' ' ( x ) = 60 4x 3 9 x 2 + 4x
f (x) a x*= 0 f (x*) = 0 no es mximo ni mnimo, investigue la siguiente derivada f (x) a x*= 1 f (x*) = 12 mximo f (x) a x*= 2 f (x*) = -11 mnimo
f (x)
Eficiencia
Capacidad
Variable de operacin
Eficiencia (% de conversin)
Costo
Costo global
Costo 1
Costo 2
Variables de diseo
Dimetro caera
US $/ao
Costo total
Perdidas de calor
Material
Espesor aislacin
Costos Totales US $
Costos Vapor
N de efectos Evaporadores
US $
Costos Totales
Equipos
Soluto perdido
Variables de diseo
Otros ejemplos ver Abdn Zamora, Diseo Optimo Economicote Equipos de Procesos
Optimizacin multivariable
Condicin necesaria f ( x ) es un punto extremo (mximo o mnimo) a x = x* , si * * * Condicin suficiente La matriz de las segundas derivadas parciales (matriz Hessiana) de f( x ) evaluada en x* es i) Positivamente definida entonces x* es un punto mnimo. ii) Negativamente definida entonces x* es un punto mximo.
f x f x f x =0 = ........ = = x n x 2 x 1
( )
( )
( )
Ejemplo Sea
1 1 1 2 2 2 f ( x ) = k 2 x 1 + k 3 (x 2 x 1 ) + k 1 x 2 Px 2 2 2 2
f = k 2 x 1 k 3 (x 2 x 1 ) = 0 x 1
Luego, derivando
P k3 x = k1k 2 + k1k3 + k 2 k3
* 1
P ( k 2 + k3 ) x = k1k 2 + k1k3 + k 2 k3
* 2
La matriz de Hessiana
J x * ,x *
1 2
J x * ,x *
1 2
2f 2 x 1 = 2 f x x 2 1 k 2 + k 3 = k3
2f x 1x 2 2f 2 x 2 k3 k1 + k 3
Una matriz A es definida positivamente definida si sus valores propios () son positivos. Los valores propios se determinan de A I = 0 Otra forma es evaluando los determinantes de cada sub matriz. Todas las determinantes deben ser positivas
J1 = k 2 + k 3
Positivo Positivo
J2 =
k2 + k3 k3
k3 k1 + k 3
= k 1k 2 + k 1k 3 + k 2 k 3
f g =0 x + * x 1 X * ,X * 1 1 2
f g x + * x 2 2
1 2
g (x 1 , x 2 ) X * ,X * = 0
=0 X1* ,X 2*
f x 2 Donde = g x 2
Mtodo de Lagrange
Minimice f(x) s.a. g i (x)=0 j = 1,2,,m Se define y se aplican
L = f (x ) + 1g1 (x ) + 2 g 2 (x ) + ... + m
m g i L f = + j =0 x i x i j=1 x i
i = 1,2,
L = g j (x ) = 0 j
j = 1,2,,m
L = f + g = kx y 2 + x 2 + y 2 a 2
k 2k 2 = 3 2 = 4 x y xy
Reemplazando en (ec.3)
x =
* *
a 3 a 3
y = 2 9 3 = 4 a5
Significado del multiplicador de Lagrange Sea minimice f(x) s.a. g (x) = b * denota la sensibilidad (o razn de cambio) de f con respecto a b, o el cambio marginal en f* con respecto a b en x*. En otras palabras * indica que tan ajustado esta la restriccin en el punto optimo.
A ai
bi ci
a)
Si se calcula
i
a i ci = bi ci
212 0.362
se tiene
180 0.351 150 -0.011
i = error(i) = a i - b i (1 )c i
la funcin objetivo es minimizar
f () = [a i b i (1 )c i ]
i
df =0 d df () = 2[a i b i (1 )c i ][ b i + c i ] d i
(1.23 1.74)(0.33 1.74) + (4.12 5.29)(1.56 5.29) = (0.33 1.74)2 + (1.56 5.29)2 + (5.8 7.68)2
4.5776 = = 0.2756 16.6114
b)
) + (b
2 i
bi
) + (c
2 i
ci
s.a.
0 = a i - b i (1 )c i
i = a i - b i (1 )c i
i = a i a i b i b i (1 ) c i c i
) (
Min a i + b i + c i
2 2
s.a. 0 = i + a i b i (1 )c i
Aplicando Lagrange
2 2 2 L = a i +b i + c i + i [ i + a i b i (1 )c i ] i
f i = 2 a i + i = 0 a i = 2 a i
f = 2 b i i = 0 b i = i b i 2
i f = 2c i i (1 ) = 0 c i = (1 ) c i 2
f = i + a i b i (1 )c i = 0 i
i 2 i 2 i i (1 ) =0 2 2 2
i 2 2 i = 1 + + (1 ) 2 2 i i = 2 2 1 + + (1 )