Está en la página 1de 35

Optimización

Esteban Pulido

Presentación base elaborada por profesor Esteban Gil


CONCEPTOS BÁSICOS

EGS/EPV-DIE-UTFSM 2
Conceptos básicos
• Optimización consiste en encontrar la mejor
solución bajo ciertas circunstancias
• Las distintas técnicas de optimización forman
parte del área de investigación de operaciones
• Investigación de operaciones se refiere a la
aplicación de técnicas matemáticas a
problemas de tomas de decisiones

EGS/EPV-DIE-UTFSM 3
Conceptos básicos
• Función objetivo
• Variables
• Conjunto de restricciones

Encontrar el valor de las variables que minimizan


o maximizan la función objetivo y satisfacen el
conjunto de restricciones

EGS/EPV-DIE-UTFSM 4
Modelos de optimización
• En forma general:
min o max f(x1,…,xn) (función objetivo)
sujeto a
gi(x1,…,xn) ≥ 0 (restricciones funcionales)
x1,…,xn  S (restricciones de conjunto)
• x1,…,xn son las variables de decisión
• La meta es encontrar x1,…,xn  S que satisfacen las
restricciones gi y alcanzan el mínimo o máximo de la
función objetivo f EGS/EPV-DIE-UTFSM 5
Modelos de optimización
Estocásticos Determinísticos
Parámetros
(incertidumbre en los pará- (parámetros del modelo no
del modelo
metros del modelo) tienen incertidumbre)

Variables de Discretas, Enteras Continuas


decisión (S = Zn) (S = Rn)

Función obje-
Lineales No-lineales
tivo y restric-
(f y g son lineales) (f y g son no-lineales)
ciones

EGS/EPV-DIE-UTFSM 6
Modelos de optimización

Optimización

Variables Variables
continuas discretas

Programació
Sin Con Programació
n entera-
restricciones restricciones n entera
mixta

Optimización
Ecuaciones Optimización Programació Programació
no-
no-lineales global n lineal n no lineal
diferenciable

EGS/EPV-DIE-UTFSM 7
OPTIMIZACIÓN SIN RESTRICCIONES

EGS/EPV-DIE-UTFSM 8
Optimización sin restricciones
• Dada una función se trata de encontrar los
valores de que la minimizan/maximizan
• En dos dimensiones:

EGS/EPV-DIE-UTFSM 9
Optimización sin restricciones
• ‘Bracketing’
– Se empieza seleccionando 3 puntos

(x left , f(xleft))

(x right , f(xright))

xleft < xmid < xright


f(xmid) < f(xleft)
(x mid , f(xmid)) f(xmid) < f(xright)
EGS/EPV-DIE-UTFSM 10
Optimización sin restricciones
• Si se cumplen las propiedades, hay al menos un
mínimo entre xleft y xright
• Para maximización, substituir –f for f
• Estrategia:
– Definir xleft , xmid y xright iniciales
– Definir un nuevo xnew
– Evaluar f(xnew)
– Actualizar xleft , xmid y xright
– Repetir
EGS/EPV-DIE-UTFSM 11
Optimización sin restricciones
• Bracketing de punto medio: Se selecciona
como xnew el punto medio
(x left , f(xleft))

(x , f(xright))
right

(x , f(xnew))
new

(x mid , f(xmid))

EGS/EPV-DIE-UTFSM 12
Optimización sin restricciones
• Bracketing de sección áurea: Se selecciona xnew
usando la sección áurea

2

if f(xnew) < f(xmid)


new interval = 
else
new interval = 1–2
EGS/EPV-DIE-UTFSM 13
Método de Newton

EGS/EPV-DIE-UTFSM 14
Método de Newton
• En cada paso:

• Requiere calcular primera y segunda derivada


en cada paso
• Converge cuadráticamente

EGS/EPV-DIE-UTFSM 15
Optimización en varias dimensiones

• Ejemplos
– Ajustar un modelo a datos experimentales
(minimización de error cuadrático medio)
– Encontrar el mejor diseño en un espacio de
parámetros
• Dependiendo de la función, esto puede ser
bastante difícil

EGS/EPV-DIE-UTFSM 16
Optimización en varias dimensiones

• No se puede usar ‘bracketing’


• Métodos:
– función + gradiente + Hessiano: Newton
– función + gradiente + estimación del Hessiano:
quasi-Newton
– función + gradiente: descenso de gradiente
– Sólo valores de la función: Nelder-Mead (o
método ameba)

EGS/EPV-DIE-UTFSM 17
Optimización en varias dimensiones

• Método de Newton en varias dimensiones


– Reemplazar primera derivada con gradiente
– Reemplazar segunda derivada con Hessiano

Para una dimensión…

EGS/EPV-DIE-UTFSM 18
Optimización en varias dimensiones

• Método de Newton en varias dimensiones:


– Puede ser muy inestable a menos que la función
se comporte “bien” y se empiece en un punto
cercano

EGS/EPV-DIE-UTFSM 19
Optimización en varias dimensiones

• Método de descenso de gradiente


– Hay varios algoritmos de este tipo
– Útiles si no se quiere usar o calcular el hessiano
• Desde un punto inicial, el siguiente se
determina moviéndose en dirección del
negativo del gradiente
• En el siguiente punto, se recalcula el gradiente
y se repite

EGS/EPV-DIE-UTFSM 20
Optimización en varias dimensiones

• Método de descenso de gradiente


– Se mueve perpendicularmente a las líneas de
contorno

EGS/EPV-DIE-UTFSM 21
Optimización en varias dimensiones

• Problema: tiende a zigzaguear de manera


ineficiente

Método de descenso de gradiente


EGS/EPV-DIE-UTFSM 22
Optimización en varias dimensiones
• Método de gradiente
conjugado:
– Parecido al método de
descenso de gradiente
– La dirección para
moverse se elije como el
conjugado de las
direcciones de búsqueda
previas respecto al
Hessiano

EGS/EPV-DIE-UTFSM 23
Optimización en varias dimensiones
• Gradiente conjugado obtiene information del
Hessiano en forma implícita, pero no lo calcula!
• Para función cuadrática n-dimensional obtiene
solución exacta en n pasos
• Funciona bien en la práctica

EGS/EPV-DIE-UTFSM 24
PROGRAMACIÓN LINEAL Y
PROGRAMACIÓN ENTERA-MIXTA

EGS/EPV-DIE-UTFSM 25
Modelos de optimización
(función objetivo)
Sujeto a
(restricciones funcionales)
(restricciones de conjunto)

• Si y tanto f como gi son funciones lineales, se habla de


programación lineal.
• Si algunas de las variables deben ser enteras, se habla de
programación entera mixta.

EGS/EPV-DIE-UTFSM 26
Modelos de optimización
Estocásticos Determinísticos
Parámetros
(incertidumbre en los pará- (parámetros del modelo no
del modelo
metros del modelo) tienen incertidumbre)

Variables de Discretas, Enteras Continuas


decisión (S = Zn) (S = Rn)

Función obje-
Lineales No-lineales
tivo y restric-
(f y g son lineales) (f y g son no-lineales)
ciones

EGS/EPV-DIE-UTFSM 27
Variables de decisión
• Continuas
– Valores pueden tomar cualquier valor en un rango
determinado
– Programación lineal

• Enteras o binarias
– Programación entera

• Continua y enteras
– Programación entera mixta

EGS/EPV-DIE-UTFSM 28
Función objetivo
• Combinación lineal de variables de decisión
– No interacción entre variables de decisión
– Parámetros constantes
– Parámetros conocidos con certeza

• Minimización o maximización
– Son básicamente iguales

EGS/EPV-DIE-UTFSM 29
Restricciones
• Combinación lineal de variables de decisión se iguala a
cierto valor
– Lado izquierdo (LHS) contiene variables
– Lado derecho (RHS) tiene un parámetro
• El conjunto de todos los puntos que satisfacen las
restricciones se llama la región factible
• Desigualdades se pueden convertir en igualdades
definiendo nuevas variables
– e.g.
– La nueva variable tiene costo cero en la función objetivo y se
conoce como variable ‘slack’

EGS/EPV-DIE-UTFSM 30
Variables duales
• El problema original (primal) tiene un problema dual
asociado, donde se tendrá:
– Una variable dual por cada restricción
– Una restricción por cada variable primal

• Además, asumiendo que no hay cambios en los otros


parámetros de entrada, el cambio en la función
objetivo por unidad de cambio en el lado derecho de
una restricción se conoce como su “precio sombra”

EGS/EPV-DIE-UTFSM 31
Dualidad en programación lineal
Problema primal Problema dual

libre
En Matlab:
x = linprog(, , , , , , )
y representan los vectores del valor
inferior y superior de . Otra forma es
agregarlos en y .

EGS/EPV-DIE-UTFSM 32
Dualidad en programación lineal
Problema primal Problema dual
Función objetivo Minimizar Función objetivo Maximizar
Restricciones Variables

Libre
Variables Restricciones

Libre

EGS/EPV-DIE-UTFSM 33
Ejemplo: Despacho económico
Generador Costo marginal ($/MWh) Capacidad (MW)
Renovable 0 50
Base (e.g. carbón) 10 100
Punta (e.g. diésel) 30 40

Demanda = 110 MW
Gen. renovable = 20 MW

VoLL = 1000 $/MWh

EGS/EPV-DIE-UTFSM 34
Ejemplo: Despacho económico
Problema primal Problema dual

libre

EGS/EPV-DIE-UTFSM 35

También podría gustarte