Está en la página 1de 5

REPUBLICA BOLIVARIANA DE VENEZUELA MINISTERIO DEL PODER POPULAR PARA LA DEFENSA UNIVERSIDAD NACIONAL EXPERIMENTAL DE LA FUERZA ARMADA NUCLEO

CORO – EXTENSION PUNTO FIJO CATEDRA: OPTIMIZACION NO LINEAL

METODO DAVIDON-FLETCHER-POWELL METODO DE GRADIENTE CONJUGADO

REALIZADO POR: MEDINA G JOSE D C.I.: V.-19.928.787 6TO SEMESTRE ING. SISTEMAS “B” DICIEMBRE, 2011

con Paso 1: Tomar . esto es. Una de las dificultades prácticas comunes de estos métodos es la tendencia de a estar mal condicionada. para minimizar una función f en . La mayor desventaja de este tipo de métodos es su necesidad de almacenar la matriz A de N × N. El método tiende a ser robusto. típicamente tiende a tener un buen comportamiento en una amplia variedad de problemas prácticos. lo que causa una mayor dependencia a un procedimiento de reinicialización. se han propuesto varios métodos más que resultan de usar diferentes valores de β y z en la ecuación.Método de Davidon-Fletcher-Powell El método de Davidon-Fletcher-Powell ha sido y sigue siendo una técnica de gradiente ampliamente utilizada. Desde la publicación de la formula de Davidon. Consiste en generar aproximaciones sucesivas de la inversa del Hessiano de la función f. También se puede decir que es un método cuasi-Newton. definida positiva y algún . Se define: En cada iteración se genera: Con El procedimiento es el siguiente: Paso 0: Partir con cualquier matriz .

La primera dirección de búsqueda es el gradiente descendente 2. Cabe destacar que no requiere una factorización de la matriz. simétrica y con valores propios positivos. El procedimiento general para localizar un mínimo de una función en una dirección requiere: localizar el intervalo donde se encuentra y reducir el intervalo. 1. como sucede con otros métodos iterativos. Tomar un paso y escoger una razón de aprendizaje para minimizar la función a lo largo de la dirección búsqueda. ni es dependiente de parámetros definidos por el usuario. y Paso 3: Tomar y Método Gradiente Conjugado Es un método iterativo no estacionario que permite resolver sistemas lineales bajo la restricción de que la matriz de coeficientes sea simétrica y definida positiva. o sea.Paso 2: Calcular y obtener . Está basado en subespacios de Krylov. . El método de gradiente conjugado converge a un mínimo de una función cuadrática en un número finito de iteraciones.

Determine el coeficiente del vector conjugado. Actualice el vector de pesos . Ajustar k=0. Seleccione la siguiente dirección de búsqueda de acuerdo a: Dónde: Si el algoritmo no ha convergido regrese al paso 2. 3.3. Inicialice los componentes del vector de pesos con valores arbitrarios pequeños. Donde 4. Calcular la dirección inicial del conjugado de ganancia . Método de Gradiente Conjugado solución de Ecuaciones Normales 1. y el vector 2.

de otra forma detener. Determine la nueva dirección del gradiente conjugado. 6. ir al paso 3. Ajuste Si. y pruebe la condición de salida. . 7.5. Determine el nuevo vector de ganancia.