Está en la página 1de 43

Resultados del aprendizaje

• Formular problemas de optimización


Parte 1: Introducción a la
optimización • Identificar los diferentes tipos de problemas de
optimización y las principales características de
cada uno de ellos.
Prof. Dr Andrés Ricardo Herrera Orozco
arherrera@utp.edu.co
Operación de Sistemas Eléctricos • Resolver y analizar problemas restrictos usando
Universidad Tecnológica de Pereira
multiplicadores de Lagrange.

• Resolver modelos de programación lineal usando el


método gráfico
2

Introducción a la optimización Introducción a la optimización


EL sistema de potencia requiere ser operado de forma económica y Una segundo auge en el desarrollo de la optimización matemática se
confiable. Para ello se hace uso de diferentes técnicas de produjo a mediados del siglo XX con el desarrollo del computador
optimización matemática de acuerdo al tipo de problema. digital el cual permitió resolver de forma exacta o aproximada,
diversos problemas de optimización.
La optimización matemática es una área
en constante desarrollo aunque sus Durante la segunda guerra mundial, un grupo de investigadores
orígenes se remontan a los orígenes comenzaron a utilizar técnicas matemáticas para la ubicación óptima
mismos de la geometría y el cálculo de radares y para el desarrollo de políticas de maniobrabilidad de los
diferencial. En los siglos XVII y XVIII barcos entre otros problemas.
algunos matemáticos tales como
Leibnitz, Newton, Bernoulli y Lagrange,
quienes sentaron las bases del cálculo y
la mecánica clásica, se ocuparon de
obtener máximos y mínimos a funciones
condicionadas.

Leibnitz Newton Bernoulli Lagrange 3 4


Introducción a la optimización ¿Qué es optimizar?
Este es el inicio de una nueva área del conocimiento denominada • Es maximizar o minimizar recursos o procesos.
Investigación de Operaciones.
• Es hacer más con los mismos recursos.
En los años posteriores a la guerra, se comenzaron a aplicar los
métodos de investigación operativa a problemas de la industria. • Es hacer lo mismo con menos recursos.
En el caso de la ingeniería, la investigación de operaciones permite • Es cambiar recursos ineficientes por recursos eficientes.
resolver toda serie de problemas teniendo en cuenta aspectos
técnicos y económicos. Para resolver cualquier problema de • Es eliminar recursos existentes que afectan
optimización es importante modelarlo adecuadamente con el negativamente el sistema.
objetivo de determinar el tipo de algoritmo o metodología a utilizar.

¿Qué es optimizar?

5 6

Justificación de la Optimización ¿Porque Optimizar en las organizaciones?


• Porque existen recursos que no están siendo
aprovechados adecuadamente.
• Porque no se alcanzan los resultados deseados
con los recursos disponibles.
• Porque se requiere aumentar la competividad a
costos eficientes de inversión, operación y
mantenimiento.
• Porque se tienen recursos ineficientes o que no
se necesitan y que frenan el desarrollo.
• Porque existe una exigencia creciente de
sistemas y procedimientos más eficientes.

7 8
La optimización está asociada a: La optimización está asociada a:

• Nivel de conocimiento científico • Desarrollo de la infraestructura


acumulado en los grupos de desarrollo. tecnológica que se usa.
• Nivel de tecnología que los miembros del • Adecuada valoración de resultados.
grupo dominan.
• Flujo de ideas entre los miembros del
• Costos de producción obtenidos. grupo.
• Nivel y calidad de los desarrollos • Nivel de desperdicio.
realizados.
• Calidad de los insumos.
• Variabilidad de los aspectos que se pueden
• Estrategias utilizadas.
resolver.

9 10

La optimización requiere de: La optimización genera nuevas exigencias:

11 12
Definición de optimización: Se optimiza:

13 14

Se minimiza: Se maximiza:

15 16
Áreas de aplicación: Mínimos y máximos globales y locales, puntos de inflexión:

17 18

Componentes de un problema de optimización: ¿Que es el modelado?

• Los procesos y sistemas en ingeniería son


generalmente complicados y deben ser
simplificados mediante idealizaciones y
aproximaciones para poder resolver el problema
planteado.
• El proceso de simplificación del problema, para
que pueda ser representado en términos de un
sistema de ecuaciones (para el análisis, diseño y
optimización) es lo que se conoce como
modelado.

19 20
Modelo matemático: Modelo matemático:

• Un modelo matemático es uno que representa el


desempeño y comportamiento de un sistema dado
en términos de ecuaciones matemáticas, ofreciendo
resultados cuantitativos.

• Los modelos matemáticos pueden estar basados en


el entendimiento físico de un sistema ó por
construcción de modelos a partir de datos (e.g.,
ajuste de curvas a datos experimentales).

• Las ecuaciones que gobiernan el sistema pueden


ser algebraicas, ecuaciones diferenciales ordinarias
y/o parciales, ecuaciones integrales ó combinación
de varias de ellas.
21 22

Modelo matemático: Modelo matemático:

23 24
Modelo matemático: Modelo matemático:

25 26

Modelo matemático: Modelamiento matemático:

27 28
Representación matemática de un problema de optimización: Modelamiento matemático (Ejemplo):

Función Objetivo
Problema Restricciones
Variables

29 30

Modelamiento matemático: Modelamiento matemático:


1. Variables de
decisión 2. Función Objetivo

Como existen muchas soluciones, debe


Definirse un objetivo, que se denomina
La función objetivo del problema.

31 32
Modelamiento matemático: Modelamiento matemático:

3. Los recursos tienen restricciones Forma matemática de las restricciones:

La cantidad de recurso es positiva:


Las restricciones de los recursos se
relacionan con las variables de decisión a
través de ecuaciones matemáticas algebraicas
de igualdad o desigualdad.
33 34

Modelamiento matemático: Modelamiento matemático:

Modelo matemático resultante

35 36
Modelamiento matemático: Dualidad en optimización (Análisis de sensibilidad):

37 38

Dualidad en optimización (Análisis de sensibilidad): Dualidad en optimización (Análisis de sensibilidad):

39 40
Dualidad en optimización (Análisis de sensibilidad): Dificultades de la optimización:

41 42

Dificultades de la optimización: Enfoques respecto a las metodologías de solución:

43 44
Metodologías de solución: Multimodalidad:

Una función es unimodal


si sólo tiene un óptimo
(relativo o absoluto). En
caso que tenga varios
óptimos se dice
multimodal.

45 46

Concavidad y convexidad en la función objetivo: Convexidad en la función objetivo:


Es importante saber si el óptimo que buscamos existe y que no habrá más de uno.

47 48
Convexidad y concavidad en la función objetivo: Convexidad y concavidad en la función objetivo:

Dada una matriz cuadrada A, se dice que el número λ0 es un valor propio de A si existe un
vector columna c no nulo t.q.
49 Ac = λ0 c. El vector c se llama vector propio de A asociado al valor propio λ0. 50

Determinación de los valores propios: Determinación de los valores propios:

Sea λo un valor propio de la matriz cuadrada A, así Resumiendo:


existe un vector diferente cero de xo tal que: Todo valor propio λo debe ser raíz del polinomio
característico asociado a A:
Por lo tanto:

Si lo anterior significa que el sistema


homogéneo n×n
y un vector propio asociado al valor propio λ debe ser solución al
tiene además de la solución trivial otra solución (x = xo ≠ 0). Por sistema homogéneo:
consiguiente, no tiene solución única. Y por tanto, el determinante
de la matriz B debe ser cero:

51 52
Determinación de los valores propios (Ejemplo): Determinación de convexidad (Ejercicios):

Determine los valores propios correspondientes de las Verifique la convexidad y concavidad de las siguientes funciones:
matriz A:

Solución:

53 54

Convexidad en el espacio de soluciones: Clasificación de los problemas de Optimización

55 56
Clasificación de los problemas: Clasificación de los problemas:

Problema Problema

57 58

Clasificación de los problemas: Clasificación de los problemas:

Problema Problema

59 60
Clasificación de los problemas: Clasificación de los problemas:

Problema Problema

61 62

Ejemplos de problemas de optimización: Ejemplos de problemas de optimización:

63 64
Ejemplos de problemas de optimización: Ejemplos de problemas de optimización:

65 66

Ejemplos de problemas de optimización: Ejemplos de problemas de optimización:

67 68
Características de los algoritmos de optimización: Cualidades deseables en todo algoritmo de optimización:

69 70

Optimización sin restricciones (irrestricta): Optimización sin restricciones (irrestricta):

En optimización sin restricciones se minimiza o


maximiza una función objetivo que depende de
Optimización variables reales (puede ser una o varias variables)
sin restricciones sobre los valores de esas variables.

sin restricciones La formulación matemática es:

Problema

71 72
¿Por que es importante la optimización sin restricciones?: Caracterización de un mínimo:

• Hay problemas que se pueden formular sin


restricciones.
• Sin embargo el mínimo global puede ser difícil de
• Permiten introducir muchos conceptos y explorar encontrar pues nuestro conocimiento de f es
ideas que se usarán en problemas. usualmente local. La mayoría de los algoritmos
• Muchos problemas de optimización utilizan en calculan mínimos locales que son puntos en los
alguna fase algoritmos sin restricciones. que sea alcanza el menor valor de f en su entorno.
• Algunos problemas que tienen restricciones Formalmente:
pueden reformularse como problemas sin
restricciones.

73 74

¿Como reconocer un mínimo local?: Ejemplo:

En este caso el Hessiano es definido positivo si y solo si 4 −


! " > 0 o equivalentemente, |α| < 2. En este caso existe un
mínimo y es único
75 76
Ejemplo: Una visión de conjunto de los algoritmos de optimización:

• Todos los algoritmos para minimización sin restricciones


necesitan que el usuario suministre un punto inicial, que
se denotara por x0.
• Comenzando en x0, los algoritmos de optimización
generan una sucesión {xk} que terminan cuando el
algoritmo no puede progresar más o cuando parece que
un punto solución se ha aproximado con precisión
suficiente.
• Para decidir como pasar de un valor xk al siguiente, los
algoritmos utilizan información sobre f y sus derivadas en
el valor xk o incluso de todos los valores anteriores x0, x1,
. . . , xk−1, xk.
Caso α = 1
77 78

Algoritmos de búsqueda del óptimo: Criterios de terminación:


1. El gradiente es suficientemente pequeño.
• Partiendo de un valor inicial x0 , se busca un nuevo punto
en una cierta dirección de búsqueda dk que de un mejor
valor de f.
2. La solución no avanza significativamente.

Se continua iterando hasta


estar suficientemente cerca 3. La función de costo no mejora significativamente.
del óptimo.
Esto se denomina Estrategia
de Búsqueda de línea.
4. El número de iteraciones excede un máximo N.
79 80
Propiedades del algoritmo: Optimización multivariable:
Estabilidad / Convergencia

• Variedad de enfoques de algoritmos de


optimización:
• – Algoritmos basados en el gradiente.
• – Algoritmos tipo Newton.
• –Algoritmos basados en valores de la
• La longitud del paso es cada vez menor función.
• Convergencia al optimo (Convergencia local / global)
• El algoritmo es un sistema dinámico discreto.
81 82

Métodos basados en el gradiente: Métodos basados en el gradiente:

• El vector gradiente de f(x) en un punto x indica la dirección en la


que la función experimenta el máximo crecimiento a partir de ese
punto.
Métodos basados • El gradiente negativo indica la dirección de máxima disminución

d# = $%&('
en el gradiente X# )

d#

83 84
Método del gradiente descendente: Método del gradiente descendente:

Gradiente descendente

Sim
fim
Não

'# )
d# = $%&(X

* >+

Avanzar todo lo que sea posible en la


dirección de máximo descenso.
En cada paso se hace una
optimización escalar sobre *k
85 86

Método del gradiente descendente (ejercicio): Método del gradiente descendente (ejercicio):

87 88
Método del gradiente descendente (ejercicio): Algoritmos tipo Newton:

Algoritmos tipo
Newton

89 90

Algoritmos tipo Newton: Algoritmos tipo Newton:

Método de Newton

SIM

NÃO

91 92
Algoritmos tipo Newton: Algoritmos tipo Newton:

93 94

Algoritmos tipo Newton (Quase-Newton): Algoritmos tipo Newton (Quase-Newton):

95 96
Algoritmos tipo Newton (Quase-Newton2): Algoritmos basados en valores de la función:
Variante en la expresión de la actualización de la inversa de la Hessiana

Algoritmos
basados en valores
de la función

97 98

Algoritmos basados en valores de la función: Algoritmos basados en valores de la función:

• Los métodos basados en el gradiente son • En algunos casos, una solución es utilizar
eficaces con funciones “suaves” y pueden estimaciones del gradiente basadas en
funcionar adecuadamente con muchas cocientes de incrementos.
variables.
• Otra posibilidad es utilizar algoritmos que
• No obstante, en algunos casos prácticos, la no estén basados en el cálculo del
evaluación analítica del gradiente puede gradiente, por ejemplo:
ser complicada o imposible en algunos
puntos debido a discontinuidades, fuertes • Método del simplex
no linealidades, etc.
99 100
Algoritmos basados en valores de la función: Algoritmos basados en valores de la función:

Método de la búsqueda Simplex Método de la búsqueda Simplex


• Los métodos de búsqueda directa basados en patrones
El Método Simplex es un método iterativo que permite evalúan la función a minimizar f(x) en una serie de puntos
ir mejorando la solución en cada paso. La razón matemática de mas o menos regularmente y se usan estos valores para
esta mejora radica en que el método consiste en caminar del evolucionar hacia un nuevo patrón de puntos mas cercano al
vértice de un poliedro a un vértice vecino de manera que óptimo.
aumente o disminuya (según el contexto de la función objetivo,
• La figura geométrica mas sencilla en un espacio de n
sea maximizar o minimizar).
George Bernard Dantzig (8 de noviembre dimensiones se denomina un Simplex y tiene n+1 vértices,
Este famosísimo de 1914 – 13 de mayo de 2005) fue un así por ejemplo en R2 es un triangulo, en R3 un tetraedro,
profesor, físico y matemático
método fue creado en estadounidense, reconocido por etc.
el año de 1947 por el desarrollar el método simplex y es
estadounidense considerado como el "padre de la • El método de la búsqueda Simplex usa puntos situados en
programación lineal". Recibió muchos los n+1 vértices de esta figura geométrica para generar otro
George Bernard honores, tales como la Medalla Nacional
Dantzig. de Ciencia en 1975 y el premio de Teoría
simplex más próximo al óptimo y continua iterando hasta
John von Neumann en 1974. alcanzarlo con la precisión deseada.
101 102

Algoritmos basados en valores de la función: Taller 1 – Ejercicios - Optimización sin restricciones:


Método de la búsqueda Simplex Para las siguientes funciones, determinar el punto de mínimo:
1. Se evalúa la función en
los n+1 vértices del
simplex.
2. Se escoge el peor vértice
y se proyecta una cierta
Empleando:
distancia a través del
centroide de los otros 1. El método del gradiente descendente.
vértices. 2. El método de Newton.
3. Se forma así un nuevo 3. El método Quase-Newton Davidon-Fletcher-Powell.
simplex con el vértice 4. El método Quase-Newton Broyden-Fletcher-Goldfarb-
proyectado y el resto de Shanno.
los vértices.
4. Si se mejora se sigue Para el criterio de parada use una tolerancia , = 0-01.
iterando hasta la ¿El mínimo obtenido en cada una de las funciones es un óptimo
tolerancia requerida. 103 global o local? Justifique su respuesta. 104
Taller 1 – Ejercicios - Optimización sin restricciones:
Para las siguientes funciones, determinar el punto de mínimo:

Solución de problemas
de optimización
En caso de necesitar de la solución del método de búsqueda
unidimensional en la función 2, inicie con un !. = 0-03; luego
5
usando GAMS
use !/24 = 6 para ir disminuyendo su valor.
7

Pueden presentar en grupos de 3 personas (Quienes presenten


tendrán 3 decimas en primer examen).
Los primeros tres grupos que programen los métodos tendrán
decimas adicionales.
Fecha de entrega: Próxima semana 105 106

Solución de problemas de optimización usando GAMS: Solución de problemas de optimización usando GAMS:
GAMS es un programa de computador ampliamente utilizado Esta disponible para el empleo en varias plataformas
para dar solución a complejos problemas de optimización
matemática. Su nombre corresponde a las siglas General
• Computador personal
Algebraic Modelling System.

• Estación de trabajo

• Supercomputador

Posee una variada gama de paquetes de optimización


de optimización.

Su versión demo puede ser descargada en:


https://www.gams.com/download/
107 108
Solución de problemas de optimización usando GAMS: Solución de problemas de optimización usando GAMS:
Plataformas y solvers
Entre sus principales ventajas se destacan:

Uso de solvers: GAMS invoca de forma eficiente


diferentes solvers comerciales sin modificar el código
tales como MINOS, CPLEX entre otros. De esta forma
el usuario solo debe modelar el problema y elegir el
solver mas adecuado para su solución.

Esto implica una ventaja en el modelamiento, aunque


en algunas situaciones es posible encontrar mejores
resultados desarrollando un solver particular al
problema, por ejemplo usando algoritmos evolutivos
especializados.
109 110

Solución de problemas de optimización usando GAMS: Solución de problemas de optimización usando GAMS:

Los tipos de optimización más utilizados son (lp) para


programación lineal, (nlp) para programación no-lineal
y (mip) para programación lineal entera.
Escalabilidad. El código fuente que representa un
Naturalidad en la sintaxis. La estructura de modelo es independiente del tamaño del problema.
programación esta diseñada específicamente para Esto significa que el modelo es el mismo para un
problemas de optimización por lo cual es problema de 10 o 100 variables aumentando solo la
relativamente simple generar un modelo. cantidad de datos de entrada y salida pero no el
numero de ecuaciones que representan el modelo.
Portabilidad. El programa está disponible en versiones
de prueba para diferentes sistemas operativos entre
ellos Unix, Linux, Mac y Windows.
111 112
Programación básica: Programación básica:

• Inicialmente se nombra el modelo para lo cual se • Las variables tanto de estado como de decisión,
usa el comando $TITLE: son declaradas mediante el comando variable
cuando son irrestrictas y positive variable
cuando solo pueden tomar valores mayores a
cero.

• la estructura $ONTEXT y $OFFTEXT permite


escribir comentarios que faciliten la identificación
del modelo cuando se almacene el archivo.
113 114

Programación básica: Programación básica:

• Los limites superior e inferior (si existen) así • En algunos casos puede ser necesario inicializar
como el valor inicial pueden ser intuitivamente las variables, especialmente en casos en donde la
declarados mediante la instrucción Variable.lo = convergencia es problemática debido a la no-
valor y Variable.up = valor para los limites inferior convexidad del modelo. Para esto se utiliza la
y superior respectivamente. estructura Variable.l = valor

20 ;
150 ;

115 116
Programación básica: Programación básica:

• Las ecuaciones requieren ser inicialmente • Las restricciones de igualdad utilizan el operador
declaradas y luego definidas. Para declarar la =e= mientras que las de desigualdad usan los
ecuación se utiliza el comando equations seguido operadores =l= y =g= para el caso menor que y
por la lista de los nombres de las ecuaciones y un mayor que respectivamente.
comentario para facilitar su interpretación. Para
definir cada ecuación se utiliza el nombre
anteriormente declarado seguido de dos puntos.

Todos los comandos permiten su declaración en plural o singular. Es decir


que equation y equations son completamente equivalentes. Igualmente, el
lenguaje no distingue entre mayúsculas y minúsculas por lo que es
importante seguir una nomenclatura propia para evitar confusiones.
117 118

Programación básica: Ejemplos - optimización usando GAMS:

• El modelo completo es nombrado mediante el


comando MODEL y solucionado según el caso
(MINIMIZING o MAXIMIZING) por el comando
SOLVE. La sentencia /ALL/ indica que el modelo
utiliza todas las restricciones. En caso de tener
varios modelos en el mismo archivo simplemente
se nombran y enumeran las ecuaciones de cada
uno. El comando SOLVE debe ser acompañado del
nombre del modelo, el tipo de optimización y la
variable a ser optimizada.

119 120
Ejemplos - optimización usando GAMS: Ejemplos - optimización usando GAMS:

-211

-211

121 122

Ejemplos - optimización usando GAMS: Ejercicio - optimización usando GAMS:

• Desarrollar en lenguaje de GAMS un modelo de


optimización para resolver los siguientes problemas
irrestrictos.

1. Probar alteraciones en el punto de partida y


cambio de solver utilizado.

2. Incluir un conjunto de restricciones de modo que el


mínimo global se vuelva infactible y resuelva el
problema nuevamente.
123 124
Algunas funciones de Matlab para problemas de optimización:

• Algunas funciónes de Matlab que resuelven


Algunas funciones de problemas de optimización sin restricciones
Matlab para la solución son:
de problemas de 1. Fminsearch
optimización
2. Fminunc

126 127

Algunas funciones de Matlab para problemas de optimización: Algunas funciones de Matlab para problemas de optimización:

• Fminsearch resuelve problemas de optimización No • Otra función de Matlab que proporciona el mínimo de
lineal sin restricciones, que tiene la siguiente sintaxis: una función de variables sin restricciones es fminunc,
cuya sintaxis es la siguiente:

x = fminsearch(@fun,x0,opciones)
[x,fval] = fminsearch(@fun,x0,opciones) x = fminunc(@fun, x0, opciones)
[x,fval,exitflag] = fminsearch(@fun,x0,opciones) [x,fval,exitflag,grad,hessian] = fminunc (@fun,x0,opciones)

fminsearch encuentra el valor de las variables x que Resuelve el mismo tipo de problema de optimización que
minimizan la función descrita en fun, comenzando por el fminsearch, pero utiliza información del gradiente y el
valor inicial especificado en x0. hessiano, devolviendo el valor del gradiente y el hessiano
El algoritmo implementado en esta función, es el método de la función objetivo evaluados en la solución x, en las
Simplex. Este método es de búsqueda directa por lo que no variables grad y hessian, respectivamente.
utiliza gradientes ni numéricos ni analíticos. 128 129
Algunas funciones de Matlab para problemas de optimización: Algunas funciones de Matlab para problemas de optimización:

• Otra función de Matlab que proporciona el mínimo de • Para expresar la función que debe ser evaluada en cada
una función de variables sin restricciones es fminunc, iteración, se utiliza el identificador de función @fun.
cuya sintaxis es la siguiente:

opciones=optimset('GradObj','on');
x = fminunc(@fun, x0, opciones)
[x,fval,exitflag,grad,hessian] = fminunc (@fun,x0,opciones)

Por defecto (cuando está activado el parámetro ‘GradObj’)


el método que utiliza esta función es un método de
Newton.

Cuando por el contrario este parámetro está desactivado,


se utiliza el método de Quasi-Newton.
130 131

Ejercicio – optimización sin restricciones usando Matlab:

Resolver los siguientes problemas irrestrictos usando


Optimización con
las funciones de Matlab fminsearch y fminunc.
restricciones de
igualdad y
desigualdad
1. Probar alteraciones en el punto de partida y
usando el método de Newton y Quasi-Newton.

132 133
Optimización con restricciones de igualdad y desigualdad: Optimización con restricciones de igualdad y desigualdad:

En forma general, estos problemas se escriben La función objetivo corresponde en la mayoría de


como: los casos a una variable económica a optimizar.
Ejemplo: minimizar costos o utilidades.
Función Objetivo
Normalmente, las restricciones representan
Restricciones de igualdad
variables de tipo técnico a tener en cuenta en el
Restricciones de desigualdad sistema.
Ejemplo: Leyes de Kirchhoff y potencia reactiva,
flujo de potencia, entre otros.
Función Objetivo
Restricciones de igualdad
Problema con Restricciones (PCR). Restricciones de desigualdad
134 135

Optimización con restricciones de igualdad y desigualdad: Ejercicios – Modelamiento de problemas con restricciones:
1. Problema de producción
Una parte importante del proceso corresponde con
Un taller tiene tres (3) tipos de máquinas A, B y C; puede fabricar dos (2)
la adecuada obtención del modelo matemático a productos 1 y 2, todos los productos tienen que ir a cada máquina y cada uno va
partir de los datos que se poseen del problema. en el mismo orden: Primero a la máquina A, luego a la B y luego a la C. La tabla
siguiente muestra:
1. Las horas requeridas en cada máquina, por unidad de producto
2. Las horas totales disponibles para cada máquina, por semana
3. La ganancia por unidad vendida de cada producto

Función Objetivo
Restricciones de igualdad ¿Que cantidad de cada producto (1 y 2) se debe manufacturar cada semana, para
Restricciones de desigualdad obtener la máxima ganancia ?
136 ¿Cuantas horas semanales sobran en cada departamento ? 137
Ejercicios – Modelamiento de problemas con restricciones: Ejercicios – Modelamiento de problemas con restricciones:
2. Problema clásico del transporte 3. El problema de asignaciones
Un fabricante tiene tres centros de distribución en: Bogotá, Medellín y Cali. Estos Se usan cuatro barcos cargueros para transportar bienes de un puerto a otros
centros tienen disponibilidades de: 20, 40 y 40 unidades respectivamente. Sus cuatro puertos (numerados 1,2,3 y 4). Se puede usar cualquier barco para hacer
detallistas requieren los siguientes cantidades: Pereira 25, Tulúa 10, Anserma 20, cualquiera de los cuatro viajes. Sin embargo, dadas algunas diferencias entre los
Ibagué 30 y Armenia 15. El costo de transporte por unidad en pesos entre cada barcos y las cargas, el costo total de cargar, transporte y descargue de bienes para
centro de distribución y las localidades de los detallistas se dan en la siguiente las distintas combinaciones de barcos y puertos varia mucho. Estos costos se
tabla: muestran el la siguiente tabla:

¿Cuanto unidades debe mandar el fabricante desde cada centro de


distribución a cada detallista, de manera que los costos totales de El objetivo es asignar los barcos a los puertos en una correspondencia
transporte sean mínimos ? uno a uno, de manera que se minimice el costo total de los cuatro
138 barcos. 139

Optimización con restricciones de igualdad y desigualdad: Optimización con restricciones de igualdad y desigualdad:

En forma general, estos problemas se escriben Observaciones:


como:
• Un punto que satisfaga todas las
Función Objetivo restricciones funcionales
es denominado un punto factible.
Restricciones de igualdad

Restricciones de desigualdad • El conjunto de restricciones definen una


hípersuperficie S.

• Una restricción de desigualdad i puede estar


Problema con Restricciones (PCR). activa ( ) o inactiva ( ).
141 142
Optimización con restricciones de igualdad y desigualdad: Optimización con restricciones de igualdad y desigualdad:

Observaciones: Observaciones:
• Si fuera posible conocer a priori cuales
• Los métodos empleados en la solución del PCR
restricciones están activas en la solución del
se dividen en dos familias:
PCR, la solución seria el punto de mínimo local
del problema definido ignorando las
• Puntos factibles: por ejemplo el gradiente
restricciones inactivas y considerando todas las
proyectado y el gradiente reducido.
restricciones activas como restricciones de
igualdad.
• Puntos infactibles: por ejemplo el método de
• Esto motiva el estudio por separado de los
penalidades (Método de multiplicadores de
problemas que poseen apenas restricciones de
Lagrange) y métodos duales.
igualdad.
143 144

Método de multiplicadores de Lagrange (restricciones de igualdad):

Definición (Lagrangeano):

Método de • Este método es esencialmente una extensión


natural al método usual sin restricciones, en
multiplicadores de donde se considera una nueva función
Lagrangeana.
Lagrange • Es denominado un método de penalidades por
que lo que hace es tomar el PCR y transformarlo
en un nuevo problema equivalente sin
restricciones. Estas restricciones pasan a estar
en la función objetivo con un multiplicador (!)
que las penaliza.
145 146
Método de multiplicadores de Lagrange (restricciones de igualdad): Método de multiplicadores de Lagrange (restricciones de igualdad):

Definición (Lagrangeano): Dimensiones: [1x1]=[1x1]+[1xm][mx1]

Utilizándose la definición anterior, es posible


• Asi, el Lagrangeano asociado a un problema de escribir las condiciones necesarias de primer orden
optimización con restricciones de igualdad esta (condiciones de optimalidad), de forma mas
Positivo: para minimización
dado por: Negativo: para maximización compacta, las cuales están dadas por:
n ecuaciones para n variables

Dimensiones: [1x1]=[1x1]+[1xm][mx1]

Donde " es el vector de multiplicadores de Lagrange


cuyos componentes están asociados a cada una de las
restricciones del problema. m ecuaciones para m restricciones
147 148

Método de multiplicadores de Lagrange (restricciones de igualdad): Método de multiplicadores de Lagrange (restricciones de igualdad):

Es importante resaltar que la solución optima


de la función Lagrangeana es igual a la solución
optima de la función original.
Dimensiones: [1x1]=[1x1]+[1xm][mx1]

n ecuaciones para n variables

m ecuaciones para m restricciones


149 150
Método de multiplicadores de Lagrange (restricciones de igualdad): Método de multiplicadores de Lagrange (restricciones de igualdad):

151 152

Método de multiplicadores de Lagrange (restricciones de igualdad): Interpretación de los multiplicadores de Lagrange:

Interpretación de los
multiplicadores de
Lagrange

153 154
Interpretación de los multiplicadores de Lagrange: Interpretación de los multiplicadores de Lagrange:

Los multiplicadores de Lagrange tienen una Al aplicar las condiciones de optimalidad a la


importante interpretación económica. ecuación anterior, el multiplicador de Lagrange !
puede ser expresado como la derivada de la
La solución optima # $ será distinta si los recursos función objetivo. Esto se debe a la equivalencia de
(a) existentes en la restricción cambian, la función objetivo y el Lagrangeano en el punto
$ $
por lo cual # = # (%), asi al reemplazar en la optimo # $ .
función Lagrangeana se obtiene:
& #$ = ' #$
& #$ % = ' #$ % + ! # $ % *(# $ (%)) ,& # $ ,' # $
= = -!(%)
155
,% ,% 156

Interpretación de los multiplicadores de Lagrange: Interpretación de los multiplicadores de Lagrange:

En problemas no lineales, los multiplicadores de


El multiplicador de Lagrange ! puede Lagrange ! están asociados con una solución particular
y corresponden a costos incrementales o marginales, o
interpretarse como un valor de sensibilidad sea, costos asociados a pequeñas variaciones en las
de la función objetivo ante un relajamiento restricciones.
de las restricciones.
En otras palabras, cuando el lado derecho de la
restricción i es incrementado un valor ., el valor
Es decir, describe cuanto la función objetivo optimo de la función objetivo aumenta
se altera cuando el lado derecho de una aproximadamente -! $ ./
restricción es alterado o modificado. Comúnmente se denomina precio sombra al valor de
157
!. 158
Optimización con restricciones de igualdad y desigualdad:

Método de multiplicadores Recordando: En forma general:

de Lagrange considerando
Función Objetivo
restricciones de desigualdad
Restricciones de igualdad
(Condiciones de Karush
Kuhn Tucker) Restricciones de desigualdad

Problema con Restricciones (PCR).


159 160

Multiplicadores de Lagrange (restricciones de igualdad y desigualdad): Multiplicadores de Lagrange (restricciones de igualdad y desigualdad):

Las condiciones de optimalidad establecidas en el Los multiplicadores de Lagrange asociados a


Teorema de Karush Kuhn Tucker (KKT) permiten
las restricciones de desigualdad se
abordar la resolución de modelos de Programación
Lineal y No Lineal que consideran tanto
toman como 0.
restricciones de igualdad (ecuaciones) como El Lagrangeano para el PCR se define como:
desigualdad (inecuaciones).

En términos comparativos las condiciones de KKT


son más generales que las usadas en el Método de
Dimensiones: [1x1]=[1x1]+[1xm][mx1]+[1xp][px1]
Lagrange.
161 162
Teorema (Condiciones de Karush-Kuhn-Tucker, KKT): Teorema (Condiciones de Karush-Kuhn-Tucker, KKT):

Teorema (Condiciones de Karush-Kuhn-Tucker, KKT): Sea Lagrangeano asociado


1 $ un punto de mínimo local para el problema:
n ecuaciones para n variables

m ecuaciones para m restricciones

p restricciones de desigualdad asociadas

Entonces, existe un vector 2 3 45 y un vector Observar que como y , la expresión:


, 6 3 47 tal que: Implica afirmar que el multiplicador
n ecuaciones para n variables
será diferente de cero solamente cuando la
restricción este activa ( ).
m ecuaciones para m restricciones
Suma de términos nula, obliga a que:

p restricciones de desigualdad asociadas


163 164

Teorema (Condiciones de Karush-Kuhn-Tucker, KKT): Teorema (Condiciones de Karush-Kuhn-Tucker, KKT):

Ejemplo 3: Considere el problema de optimización

min 2!"# + !##


$. % !" + !# = 6
1
! + 2!# & 4
2 "

Resuelva usando las multiplicadores de Lagrange

165 166
Teorema (Condiciones de Karush-Kuhn-Tucker, KKT): Teorema (Condiciones de Karush-Kuhn-Tucker, KKT):

167 168

Teorema (Condiciones de Karush-Kuhn-Tucker, KKT): Taller multiplicadores de Lagrange (Para resolver en clase):

Ejercicio 1: Considere el problema de optimización

min !"# + 8!# + 2!" !# + 9!" + !#


$. % !" + 3!# = 2
5!" + 2!# = 1
Ejercicio 2: Considere el problema de optimización
min 4!" !# + 6!#
$. % !" + 3!# = 2
5!" + 2!# = 1
169
!" + !# & 10 170
Taller multiplicadores de Lagrange: Taller multiplicadores de Lagrange:

Ejercicio 3: Considere el problema de optimización Ejercicio 5: Considere el problema de optimización


min !" !#
$. %
!" !##
#
+ =1
2 2
Ejercicio 6: Considere el problema de optimización
Ejercicio 4: Considere el problema de optimización

171 172

Taller multiplicadores de Lagrange:

Ejercicio 7: Considere el problema de optimización

min !"# + !##


$. % !" !# ( 4
!" + !# = 5

173

También podría gustarte