Documentos de Académico
Documentos de Profesional
Documentos de Cultura
En este sentido el método del gradiente (conocido también como método de Cauchy o
del descenso más pronunciado) consiste en un algoritmo específico para la resolución de
modelos de PNL sin restricciones, perteneciente a la categoría de algoritmos generales de
descenso, donde la búsqueda de un mínimo está asociado a la resolución secuencial de una
serie de problemas unidimensionales.
Los pasos asociados a la utilización del método del gradiente o descenso más
pronunciado consiste en:
4) Hacer x k+1=x k + ak d k .
Ejemplo:
1° Iteración:
1
Que al evaluar en la función objetivo original se obtiene ∝0=
2
0+1 0 0 1
4) Hacer x =x +∝0 d =( 1,1 ) + = (−2,1 )
2 (−6,0 )
2° Iteración:
Método de Newton
Este método parte de una aproximación inicial x 0 y obtiene una aproximación mejor, x 1,
dada por la fórmula:
f ( x0 )
x 1=x 0−
f ' ( x0 )
0=f ( r ) =f ( x+ h )=f ( x ) + hf ( x ) +O ( h2 )
−f (x )
h=
f ' (x )
A partir de la ecuación y teniendo en cuenta que r =x+ h es fácil derivar la ecuación.
y−f ( x 0 )=f ( x 0) ( x− x0 )
Direcciones Conjugadas
1
f ( x )= x T Ax−bT x
2
Sobre la minimización sobre una recta. Sea A, b, f los mismos objetos que en el párrafo
anterior. Si y ∈ R n y p ∈ Rn ∖ {0n }, entonces la función g : R → R definida mediante la regla:
g ( a ) ≔f ( y +ap )
p T ( b− Ay )
a=
p T Ap
z= y +ap
Entonces:
p ⊥(b−Az)
pT ( b− Az )= pT ( b− A ( y + ap ) )= pT ( b− Ay )−a pT Ap
pT ( b− Ay ) T
¿ pT ( b−Ay ) − p Ap=0
pT Ap
pT ( Az−b )=0
Esto es, p ⊥ ( b− Az )
El producto interno asociado a una matriz. Estamos suponiendo que A ∈ M n (R) es una
matriz simétrica positiva definida. Entonces la función de dos argumentos:
⟨ x , y ⟩ A ≔ x T Ay
Es un producto interno en Rn .
Vectores A-conjugados. Sea A ∈ M n (R) una matriz simétrica positiva definida y sean
p , … , p(m ) ∈ Rn. Se dice que la lista de vectores p(0 ) , … , p(0 ) es A-conjugada o A-ortogonal
(0 )
si:
∀ j , k ∈ { 0 , … , m } ( j≠ k ) ⟹ ⟨ p j , pk ⟩ A =0
Ax=b
Decimos que dos vectores u y v no nulos son conjugados (con respecto a A) si
uT Av=0
⟨ u , v ⟩ A =⟨ A T u , v ⟩ = ⟨ Au , v ⟩= ⟨ u , Av ⟩ =uT Av
Así, dos vectores son conjugados si son ortogonales con respecto a este producto
interior. La conjugación es una relación simétrica: si u es conjugado a v, entonces v es
conjugado a u. Nótese que esta noción de conjugación no se relaciona con la
de conjugación compleja.
n
x ¿=∑ ai p i
i=1
n
b= A x ¿=∑ ai Api
i=1
n
pTk b= pTk A x ¿=∑ ai pTk A pi =¿ ak p Tk A p k ¿
i =1
T
p b k ⟨ p k ,b ⟩ ⟨ pk , b ⟩
a k= = =
p A p k ⟨ pk , p k ⟩ A ¿∨ p k ∨¿2A
T
k
Esto da el siguiente método para resolver la ecuación Ax=b. Primero encontramos una
secuencia de n direcciones conjugadas y luego computamos los coeficientes a k.
Pareciera ser que un método de métrica variable con terminación cuadrática pero sin la
necesidad de búsquedas lineales costosas sería robusto y rápido en funciones generales.
Goldfarb (1977) se cuenta entre los que han explorado esta promisoria línea de
investigación.
λh
K ( A )= ||
λl
Una matriz con un valor de condicionamiento grande está mal condicionada. Una matriz
con un valor de condicionamiento cercano a 1 está bien condicionada.
Es importante hacer notar que aunque las reinicializaciones proporcionan un cierto
grado de seguridad (o robustez) en los métodos de métrica variable, éstas típicamente hacen
más lento el progreso a la solución, puesto que se desecha una estimación de segundo
orden.
McCormick (1972), Shanno (1978) y Shanno & Phua (1979) han investigado de manera
extensiva la relación entre el gradiente conjugado y los métodos de métrica variable.
Shanno ve a los métodos de gradiente conjugado como métodos de métrica variable “sin
memoria”.
Además, resulta claro que las muchas variantes de los métodos de métrica variable
tienen mucho en común en la práctica (Dixon, 1972), lo que hace que se tenga que sopesar
cuidadosamente el costo computacional adicional de los métodos más complejos.
Shanno & Phua (1978) proporcionan numerosos resultados que favorecen el uso del
método de Broyden-Fletcher-Goldfarb-Shanno.
Los métodos de métrica variable han sido utilizados de manera extensiva para el
desarrollo de técnicas de optimización para problemas con restricciones.
También hay una cantidad importante de trabajo en torno a hacer los métodos de métrica
variable más atractivos para problemas grandes.
Los métodos de gradiente conjugado son los que suelen considerarse como los mejores
para problemas de alta dimensionalidad (o sea, aquellos con muchas variables de decisión).
Sin embargo, se han logrado muchos avances en lo que a los métodos de métrica
variable se refiere, sobre todo en aquellos casos en los que la matriz Hessiana es dispersa.
Método de Davidon-Fletcher-Powell
Definamos:
gk ≔∇ f ( xk )
H k ≔aproximaciones de lainversa del hessiano en x k
d k ≔−H k g k
q k ≔ g k+1−g k
pk ≔ x k+1−x k
x k+1=x k + ak d k
El procedimiento es el siguiente:
Paso 0: Partir con cualquier matriz H 0 definida positiva y algún x 0, con k =0.
p k pTk H k q k q Tk H k
H k +1=H k + − T
pTk q k qk H k q k
k =k +1 y retornar al Paso 1.
Algoritmo de Quasi-Newton
Sean:
Rk =H ( x́ k )
Sk =H−1 ( x́ k )
ý k =R k+1 ŕ k
ŕ k =S k+1 ý k
Siendo:
ý k = ∇
´ t f ( x́ k+1 )− ∇
´ y f ( x́ k )
ŕ k = x́ k+1− x́ k
k k−1 k−1 −1
x =x́ −( R ) ∇´ t f ( x́ k−1)
x k =x́ k−1−S k−1 ∇´ t f ( x́ k−1 )
; k =1 ,¿ ,n ¿
¿
Sk +1=Sk +C k