Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Optimizacion Sin Restricciones
Optimizacion Sin Restricciones
Facultad de Ingeniera
Divisin de Estudios para Graduados
Programa: Computacin Aplicada
Asignatura:
Optimizacin para Ingenieros
D f(p) = f(p)T
fx
fx
,
f
x
,
,
f
x
x1 x
2 n
x
-5
-10
-2 1.5
direccin ortogonal a las curvas de 1
-0.5
-1
-1.5
-2
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2
Optimizacin Sin Restricciones
min
f(x d
) i
1
donde d es la direccin de descenso
FN = FN -1 + FN -2 donde F0 = F1 = 1
l2 1
R 1 R R2 R10
l1 R
xl xu
11
45
1
1
R
0. Primera
61803 l0
2 2 Iteracin
l 1 l2
La Razn Dorada
Segunda
Bsqueda de la Seccin Dorada
1. Se comienza con los valores
extremos del intervalo xl, xu que
contienen el extremo local de f(x)
2. Dos puntos interiores de escogen
de acuerdo a
x1 = xl + d 5
d
1
xuxl
2
x2 = xu - d
xl x2 x1 xu
1. Se evala la funcin en los dos
puntos interiores Primera
l0
Iteracin
Si f(x1) < f(x2) xl = x2; x2 = x1; l1 l2
xl x1 xu
x
1x
l
5 1
xu
xl
Segunda
2 Iteracin l2
En la bsqueda unidimensional 4
6
5
3
3. Calcule f(x(k+1))
x
f
xfx
a
c
b
x
*x
* x
2
fx
2
fxf
a
x
b
c donde x = x(a) - x(b)
Ajuste Cbico
f
'xuu1
x
x
xx
k 2
k
1 k k k
1
f
'x
kf
'x
k
12
u
2
donde,
f
x fx
uf
' xf
' x3 k
1 k
1 k1 k
x
k1 xk
2
u u
f'
x
2
1
k
1f'
xk 1
2
Mtodo del Gradiente
f'xk
x 1xk
f(x)
f''x
k
k
xk xk+1
Mtodo de Newton
Implementacin
Para la implementacin de este mtodo en una funcin de varias
variables es necesario calcular la primera y segunda derivada de la
funcin como derivadas direccionales, obteniendo un valor escalar,
de la siguiente manera,
f'x
kfx
kd
f''
xk x
dH
T
kd
f
'
x
f
x
x
f
2
x
xx
f
'
'
x
f
x
x
2
f
x
2
x
f
xx
Bsqueda Lineal Inexacta
En la prctica no se determina el mnimo de la bsqueda lineal en
forma exacta
En este sentido, es deseable sacrificar precisin en la bsqueda
lineal con el propsito de favorecer el tiempo de computo general
Recordemos que el mnimo en una bsqueda local no tiene porque
ser el mnimo de la funcin
La imprecisin es generalmente introducida simplemente
terminando la bsqueda lineal antes de que converja
La naturaleza exacta de la imprecisin depende de:
La tcnica de bsqueda empleada
El criterio de parada
Bsqueda Lineal Inexacta
Criterios de terminacin de la bsqueda lineal
Prueba de porcentaje: Sea xk+1 = xk + d; este criterio determina
para estar dentro de un porcentaje del verdadero valor
Especficamente, se selecciona una constante c tal que 0 < c < 1
(tpicamente c = 0.1) y el parmetro en la bsqueda lineal es
determinado de forma tal que satisfaga | - *| c* donde * es el
verdadero valor de minimizacin
Bsqueda Lineal Inexacta
Regla de Armijo
Primero garantiza que no sea muy grande y luego que no sea
muy pequeo
fxk d k
Interv
a loaceptable
Bsqueda Lineal Inexacta
Regla de Armijo
Un valor de se considera que no es muy grande si el valor de la
funcin cae debajo de la lnea punteada; es decir, si
() (0) + (0)
Para asegurar que no sea muy pequeo, se selecciona un valor
de > 1, y se considera que no es muy pequeo si
() > (0) + (0) ,
Ejemplo 1:
Evolucin del mtodo para un = 0.25 Evolucin del mtodo para un = 0.9
2 2
1.5 1.5
1 1
0.5 0.5
0 0
-0.5 -0.5
-1 -1
-1.5 -1.5
-2
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2 -2
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2
Mtodo del Descenso ms Rpido
0.5
de bsqueda de una iteracin a otra, se
0
observa en la trayectoria en forma de
-0.5
zigzag
-1
-1.5
-2
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2
Mtodo de Newton
f
a
x
fx
i
1
f
x1
x
i1 T
x
x
i
1
H
fx
x
i
1
2
1.5
El gradiente en un punto cualquiera es,
f = {6x, 2y}
1
0.5
-0.5
1 0
60 1 6 -1
f
H H
02 f
0 1 -1.5
2 -2
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2
x
ix
i
1
H
1
ff
xi
x
IH
i1f f
1
Las matrices que tienen este tipo de factorizacin son las matrices
simtricas definidas positivas. Esto implica que todos los elementos
de la diagonal sean positivos y que los elementos fuera de la
diagonal no sean muy grandes
Seudo cdigo para la descomposicin de
Cholesky
for k = 1:n
for i = 1:k-1
sum = 0;
for j = 1:i-1
sum = sum + A(i,j)*A(k,j);
end
A(k,i) = (A(k,i) - sum)/A(i,i);
end
sum = 0;
for j = 1:k-1
sum = sum + A(k,j)^2;
end
A(k,k) = sqrt(A(k,k) - sum);
end