Está en la página 1de 20

INSTITUTO POLITECNICO NACIONAL

ESCUELA SUPERIOR DE FSICA Y MATEMATICAS

OPTIMIZACION NO LINEAL

PROYECTO FINAL

ALUMNO. LOPEZ ALCANTARA FRANCISCO AMAURY

PROFESOR. LARA LOPEZ ADRIANA

GRUPO 6MM1

TABLA DE CONTENIDO

OBJETIVO DEL PROYECTO .................................................................................................................... 3


INTRODUCCION..................................................................................................................................... 4
MTODO DE MAXIMA PENDIENTE ....................................................................................................... 5
MTODO DE MAXIMA PENDIENTE CON LA CONDICIN DE ARMIJO ............................................ 5
METODO DE NEWTON (PARA VARIAS VARIABLES) ........................................................................... 6
MTODO DE GRADIENTE CONJUGADOS........................................................................................... 7
MTODOS DE CUASI NEWTON ............................................................................................................. 8
GRAFICAS............................................................................................................................................. 10
DATOS OBTENIDOS .............................................................................................................................. 13
Programas (solo uno) ......................................................................................................................... 16
CONCLUSIONES................................................................................................................................... 19
REFERENCIAS ........................................................................................................................................ 20

OBJETIVO DEL PROYECTO


El objetivo principal de este proyecto es poner en prctica los temas que vimos durante este
semestre en el curso de optimizacin no lineal y aplicarlo a una situacin real en la vida
cotidiana. Identificar los distintos modelos vistos en clase (Newton, Gradiente Conjugado,
Quasi-Newton,,

etc.),

al

identificarlo

se

busca

resolverlo.

INTRODUCCION
Una compaa petrolera llamada PETRO1 debe determinar cuntos barriles de petrleo hay
que extraer en los prximos dos aos. Si la compaa extrae x millones de barriles durante un
ao, se podr vender cada barril a 1 euro. Si extrae y millones de barril durante el segundo
ao, se podr vender cada barril a 2 euros. El costo para extraer x millones de barriles en el
primer ao es de 2x millones de euros y el costo para extraer y millones de barriles durante el
segundo ao es de 8y millones de euros. La empresa desea formular una optimizacin para
ayudar a la empresa a maximizar sus ganancias para los prximos dos aos. Teniendo la
,

funcin

+2

2 8 . Otra compaa petrolera llamada PETRO2 intento copiar

los costos y los barriles extrados, lamentablemente sufri un desbalance en su empresa


obteniendo la siguiente funcin

= | | + | | . Al ver que la compaa PETRO2 estaba

en crisis la compaa PETRO1 decidi comprar la empresa y unirlas as naci la empresa


PETRO3 teniendo una nueva funcin

La funcin a optimizar del problema es:


,

1.

+2

2.

=| | +| |

3.

2 8
4

Con este trabajo se pretende resolver ecuaciones relacionadas con dicho problema y ver en
que se puede optimizar el problema. Mediante los mtodos que veamos evaluaremos y
decidiremos que o cual mtodo es el ms optimo, dicho problema ser elegido para ser la
accin optima al problema real. Antes describiremos cada mtodo para entender su
funcionamiento, daremos su algoritmo para comprenderlo algebraicamente

MTODO DE MAXIMA PENDIENTE


El mtodo del descenso empinado es un algoritmo que utiliza informacin de primer orden
(gradientes). En este mtodo se calcula una direccin de descenso y se avanza sobre esta
de manera que se obtenga el mximo decremento en esa direccin, a cada paso.

MTODO DE MAXIMA PENDIENTE CON LA CONDICIN DE ARMIJO


La condicin de Armijo no es suficiente para un buen tamao de paso, sin embargo al
combinarse con el procedimiento de backtracking se pueden obtener buenos resultados.

ALGORITMO DE BSQUEDA CON ARMIJO Y BACKTRACKING

1.

> 0, 0,1 , 0,1

2.

3. Repite hasta que:


4.

"

METODO DE NEWTON (PARA VARIAS VARIABLES)


El mtodo de Newton es ms eficiente que el mtodo del descenso mximo, sin embargo
requiere el clculo de informacin de segundo orden.
Este mtodo requiere de un punto de inicio cercano al ptimo y en ciertos casos no se
puede garantizar convergencia.
La idea principal consiste en construir una aproximacin cuadrtica de la funcin objetivo en
el punto, tal que su derivada y segunda derivada coincidan con la funcin objetiva. Una vez
hecho esto calculamos el ptimo de dicha aproximacin.

Algoritmo:
1. Calcular $
en $

2. Evaluar
3. Si $

= 0,0 hemos acabado

4. Si $

0,0 calcular & & '


(

5. Calcular
6. Evaluar
7. Si $

en $

= 0,0 hemos acabado, sino regresar al paso 5

MTODO DE GRADIENTE CONJUGADOS

Este mtodo no requiere predefinir las direcciones, pues las va calculando su ejecucin. A
cada etapa del algoritmo la direccin se calcula en funcin de las direcciones anteriores y el
gradiente de la funcin, evaluando en el punto actual de manera que la nueva direccin
resulta ser Q-conjugada respecto a las anteriores.

Algoritmo:

1. )
2.

, *+ )

= 0 ,-./+01/2*, *+ 02 3

4 5 67 5

7 5 87 5

3. 9
4. )

5. : =
6. 3

, *+ )

= 0 ,-./+01/2*

;+1
) ;+1 <& 3
;+1

&3

= )

;+1

+ : 3

7. ; = ; + 1

= )

MTODOS DE CUASI NEWTON


Los mtodos de Cuasi Newton surgen de la idea de aproximar la matriz inversa de la
Hessiana, mediante una multiplicacin sucesiva de matrices, llamaremos a estas matrices
= , = , , =? .
Para empezar a proponer las matrices =@ del mtodo se requiere empezar = > 0 definida
positiva.
Existen varios mtodos, la nica diferencia entre estos se deriva de la forma de calcular
matrices =@ pero a todos se les llama Cuasi-Newton por que utilizan la misma idea es decir:

= = )

= 1.)+/
=

+ 3 ;
;

+ 3

Donde las matrices = , = , , =? son simtricas.

Algoritmo para el mtodo de Rango uno:


el punto de inicio y = > 0
1. Hacer k=0, seleccionar
2. A+ ) = 0 ,-./+01/2*, *+ 02 3
= = )
3. Calcular:

= 1.)+/
=

+ 3 ;

+ 3

=$

;+1

4. Calculamos:

3 , )

== +

= ) ;+1 ) ;

= )

) ; < C

D C

= )

= )

D<

5. Hacer k=k+1 e ir al paso 2

El mtodo de Rango uno fue propuesto en 1959 y fue posteriormente modificado por Fletcher
y Powell en 1963 para desarrollar el mtodo conocido como DFP: Tambin se conoce como
el mtodo de mtrica variable.

Algoritmo DFP

1. Hacer k=0, seleccionar el punto de inicio y = > 0


2. A+ ) = 0 ,-./+01/2*, *+ 02 3
= = )
3. Calcular:

= 1.)+/
=

+ 3

=$

+ 3 ;

;+1

4. Calcular

== +

" C

3 , )

= ) ;+1 ) ;

"

C= )

D C= )

) ; < = ) ;

D<

5. Hacer k=k+1 e ir al paso 2

El algoritmo de DFP se propuso como una mejora al mtodo de rango uno en el sentido de
que DFP garantiza que las = son definidas positivas, mientras que en el de rango uno no
necesariamente se tiene tal cosa.
Sin embargo, para problemas con muchas variables inciales (incluso cuadrticas) el DFP
puede llegar a quedarse atorado y no llegar al ptimo.
Generalmente esto se debe a que la matriz = se va volviendo conforme pasan las
iteraciones una matriz no singular.

GRAFICAS
Continuando con el problema grficamente tenemos:

+2

2 8

1.1 Esta funcin se ve que tiene un ptimo mientras que los x sean menor que cero y los
crezcan partir del cero, se acercara al optimo cuadrticamente o dependiendo del
mtodo que utilicemos en ciertas iteraciones.

10

=| | +| |

1.2 Esta funcin es de dos variables en la que y podra tomar valores negativos por
ser una funcin impar lo manda ser una funcin que abre hacia arriba con el valor
absoluto y tiene solo un punto mnimo el cual es (0,0) como se ve en dicha grfica.

11

1

4

1.3 En funcin vemos que es cncava hacia arriba, por eso es importante escoger
bien el intervalo para que converge rpido al optimo que deseamos encontrar; y
no tendr ningn tipo de problema con los mtodos vistos por ser una funcin
cuadrtica.

12

DATOS OBTENIDOS
Realizando los programas y comparndolos obtenemos las siguientes tablas:

E + FG FE HG

Descenso
Empinado

+2

2 8

Newton

Gradientes
Conjugados

Cuasi Newton

221

27

253

86

12

[1, -0.25]

[1, -0.25]

[1.00233, 0.24737]

[1, -0.25]

-9.125

-9.13E+00

-9.13E+00

-9.125

Fcalls

Gcalls

X* optimo

F(x*)

En esta funcin el mtodo de descenso empinado tardo demasiado en llegar al ptimo, al


igual que el de gradientes conjugados, mientras que los de Cuasi Newton se siguen
manteniendo en las llamadas de F.

13

|I|F + |J|K

Descenso
Empinado
136

Newton

=| | +| |

Cuasi Newton

27

Gradientes
Conjugados
127

123

[ -0.017272 ,0.087907]

[-5.0000e-007
1.2206e-004]

[ -0.017272 ,0.087907]

[-2.5046e-007 ,5.3774e-004]

0.00097764

2.07E-12

9.78E-04

1.56E-10

86

F Calls

G Calls

x* optimo

F(x*)

El intervalo en el que tiene que ser tomada esta funcin es [-1,1], el mtodo del descenso
empinado es el que tarda ms en encontrar el ptimo local, mientras que los mtodos de
Cuasi Newton siguen siendo constantes en relacin a que en todas las funciones anteriores
hace las mismas iteraciones.

14

1

4
4

1

4

Descenso Empinado

Newton

Gradientes
Conjugados

Cuasi Newton

92

27

85

86

86

[-1.0327 -1.0327]

[-0.000000029758,
-0.000000031596]

[ -0.11718 , 0.11718]

[ -8.4394e-009 , 8.4394e-009]

-0.1646

-1.00E+00

-9.96E-01

-1

F Calls

G Calls

x* optimo

F(x*)

Para cada intervalo ms alejado del ptimo hacia ms iteraciones, para los dems mtodos
arrojaba los mismos resultados, en el de Newton recordemos que debemos de dar un punto
cercano al ptimo sino el mtodo no funciona.

15

Programas (solo uno)

16

17

18

CONCLUSIONES
Los mtodos Cuasi Newton son los ms eficaces y constantes para cualquier funcin de
prueba.
El mtodo de Newton se llega a ciclar si no damos un punto cercano al ptimo y en estos
casos el mtodo no funciona.
El mtodo de Gradientes conjugados es el que tarda ms ya que hace demasiadas
iteraciones, esto se debe a que a cada paso calcula la direccin donde se encuentra el
ptimo local.
El mtodo de Descenso Empinado para funciones fciles como las primeras 2 funciones de
prueba es muy eficiente ya que llega en menos paso al optimo local, pero para las dems
funciones se lleg a tardar demasiado y si das un punto muy alejado del optimo el programa
se cicla y falla.
Por lo tanto para la solucin del problema principal de la empresa se toman los valores que
ofrece el mtodo de Cuasi Newton teniendo como optimo [-8.4394e-009, -8.4394e-009].

19

REFERENCIAS

Notas de clase
PDFs Moodle
http://www.ugr.es/~proman/IO1Grado/PDF/Tema_8.pdf

Programas utilizados
1. Wlfram Alpha
2. Octave
3. Matlab

20

También podría gustarte