Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Clase 10 - Metodos Numericos - Optimizacion - Programacion No Lineal PDF
Clase 10 - Metodos Numericos - Optimizacion - Programacion No Lineal PDF
Optimización en Ingeniería:
Programación No Ingeniería Civil
F.I.M.G.C.-U.N.S.C.H.
Lineal
´ Numérica
Computacion Optimización 1 / 19
Introducción
Escribimos
min f (x).
x∈Ω
Casos principales
Optimización sin constricciones: Ω = Rn
Optimización con constricciones: Ω ( Rn , habitualmente determinada
por un conjunto de constricciones dadas por igualdades o desigualdades,
´ Numérica
Computacion Optimización 2 / 19
Hecho:
No hay técnicas generales para resolver el problema de optimización global.
Optimización local
Encontrar x ∗ ∈ Ω tal que f (x ∗ ) ≤ f (x) para todo x tal que kx − x ∗ k ≤ R,
Excepción
Si f es una función estrictamente convexa y Ω es un conjunto estrictamente
convexo, entonces f tiene un mı́nimo local y único (y global) en Ω.
´ Numérica
Computacion Optimización 3 / 19
Repaso de la teorı́a de optimización local
Calcular el Hessiano en xc
n
H(f )(xc ) = ∂xi xj f (xc )) .
i,j=1
´ Numérica
Computacion Optimización 4 / 19
Métodos de descenso
Señalar que:
Encontrar un mı́nimo local es, en general, más fácil que el problema de
resolver ecuaciones no lineales
g(x ∗ ) = ∇f (x ∗ ) = 0
porque
Podemos evaluar f , además de ∇f ,
La matriz Hessiana es definida positiva cerca de la solución.
on Numérica Optimización 5 / 19
Métodos de descenso
x k+1 = x k + αk d k ,
´ Numérica
Computacion Optimización 6 / 19
Método del gradiente
Si la función es diferenciable podemos usar la fórmula de Taylor
n
X
f (x k + αk d k ) ≈ f (x k ) + αk (∇f )T d k = f (x k ) + αk ∂xi f (x k )dik .
i=1
Esto significa que el decremento local más rápido para la función objetivo
se consigue cuando nos movemos en dirección opuesta al gradiente en la
dirección de máxima pendiente
d k = −∇f (x k ) = −gk .
αk = arg minα f (x k + αd k ),
Por lo tanto, el método del gradiente puede tener una convergencia muy lenta
si la matriz Hessiana está mal condicionada.
´ Numérica
Computacion Optimización 8 / 19
Método de Newton
Sea la fórmula de Taylor de orden dos de f
1
f (x k + ∆x) = f (x k ) + ∇f (x k )T ∆x + (∆x)T H(x k )∆x,
2
con ∆x = x − x k . Tenemos un extremo cuando el diferencial con respecto a
∆x es cero, es decir, cuando
∇f (x k )T + H(x k )∆x = 0.
Entonces
∆x = −H(x k )−1 ∇f (x k )T ⇒ x k+1 = x k − H(x k )−1 ∇f (x k )T .
Señalar que:
El método es exacto para funciones objetivo cuadráticas. En este
caso H(x) es constante.
Equivale a usar el método de Newton-Raphson para resolver el sistema
no lineal ∇f (x ∗ ) = 0.
´ Numérica
Computacion Optimización 9 / 19
Problemas del método de Newton
´ Numérica
Computacion Optimización 10 / 19
Optimización con constricciones
Formulación general
min f (x),
x∈Rn
h(x) = 0 (constricciones igualdad),
g(x) ≤ 0 (constricciones desigualdad).
´ Numérica
Computacion Optimización 11 / 19
Optimización con constricciones
´ Numérica
Computacion Optimización 12 / 19
Optimización con constricciones
´ Numérica
Computacion Optimización 13 / 19
Optimización con constricciones
´ Numérica
Computacion Optimización 14 / 19
Optimización con constricciones
´ Numérica
Computacion Optimización 15 / 19
Optimización con constricciones
Función Lagrangiana
∇f + (∇h)T λ + (∇g)T µ = 0
como
∇x L = 0,
donde L es la función Lagrangiana
m
X r
X
L(x, λ, µ) = f (x) + λi hi (x) + µi gi (x),
i=1 i=1
o, en notación vectorial,
´ Numérica
Computacion Optimización 16 / 19
Optimización con constricciones
Constricciones igualdad
∇x L(x ∗ , λ∗ ) = ∇f (x ∗ ) + ∇h(x ∗ )T λ∗ = 0,
∇λ L(∗ , λ∗ ) = h(x ∗ ) = 0.
´ Numérica
Computacion Optimización 17 / 19
Optimización con constricciones
min f (x),
x∈Rn
h(x) = 0,
´ Numérica
Computacion Optimización 18 / 19
Optimización con constricciones
Método de penalización
xk → x ∗ = x( lim αk ).
k→∞
Podrı́amos usar x k como punto inicial, por ejemplo, del método de Newton.
Tener en cuenta que el problema se vuelve peor condicionado cuando α
crece.
Un enfoque mejor usa los multiplicadores de Lagrange en conjunción con el
método de penalización (Lagrangiana aumentada).
´ Numérica
Computacion Optimización 19 / 19