Está en la página 1de 1

Mtodo del gradiente:

Este mtodo es utilizado para optimizar las funciones que son continuas y
doblemente diferenciable, consiste en generar puntos sucesivos en direccin del
gradiente, el fin del mtodo se obtiene en el punto donde el vector gradiente se anula,
siendo esta solo una condicin necesaria para la optimalidad, pero para comprobar si
estamos frente a un optimo es necesario saber con anterioridad si la funcin es cncava
o convexa dentro de los mtodos de gradiente podemos mencionar:
- Mtodo de Newton Raphson
- Mtodo de ascenso o descenso mas profundo
- Mtodo de la pendiente mas inclinada

A continuacin explicaremos como funciona el mtodo de la pendiente mas inclinada.


Optimizar:
Max: f(X1,X2) = 5X1 3X2 + 6X1^2 + 4X2^2 3X1 X2
1 Determinar el gradiente, para ello se deben calcular las derivadas parciales, primero
respecto a X1 y luego respecto a X2
f(X) (5 + 12X1 3X2 , -3 + 8X2 - 3X1)

2 Tomaremos como punto inicial el Ai (1,1), y lo evaluaremos en la funcin gradiente


para obtener el segundo punto.
f(A0) = (5 + 12(1) 6(1) (1) , -3 + 8(1) -3(1) ^2)
f(A0) = (14 , 2)

Ahora emperezaremos las iteraciones:


1 iteracin
El siguiente punto se obtiene de la ecuacin:
X = Ai + r( f(A0))
X = (1, 1) + r(14,2) = (14r + 1, 2r +1)
h(r) = f(14r + 1, 2r +1) =
U vez despejado r, reemplazamos en X = (14r + 1, 2r +1) , as obtenemos A1, luego este
punto lo evaluamos en f(A1)

También podría gustarte