Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Analíticos de
Búsqueda.
DERIVACIÓN
• El mínimo local del sistema restringido es el x1
punto A, C 5
• El máximo local del sistema restringido es el
4
punto B, B
En el punto A, la curva f(x1,x2) = cte., y la
• El máximo del sistema sin restricciones es el A
curva h(x ,x
punto C. 1 2 ) = 0 son tangentes y tienen 3
pendientes iguales. Por lo tanto, pequeños
cambios (diferenciales) en x1 y x2 (dx1 y dx2), h(x1,x2) = 0
producen un cambio similar en las variables
2
dependientes f(xdx dx1
1, x2)y h(x1,x2):
1
dx2 f
dx2 h
1
Tomando las derivadas totales de f y h se
f f
obtiene: df dx1 dx2 0 x2
x1 x2
h h
Combinando ecuaciones se tiene:
dh dx1 dx2 0, f h f h
x1 x2 0
x1 x2 x2 x1
ya que f es constante en los puntos A y B, y h Ésta es la ecuación a resolver en
es igual a cero. combinación con la ecuación de
En el caso con restricciones las primeras restricción para localizar los
derivadas f f no son cero. puntos estacionarios.
,
x1 x2
DERIVACIÓN
Caso general: n variables independientes y m ecuaciones de restricción
En general se buscan los puntos estacionarios de una función f(x1,x2,...,xn) sujeta a
m ecuaciones de restricción,
h1 x1 , x2 , , xn 0
h2 x1 , x2 , , xn 0
hm x1 , x2 , , xn 0 donde n > m
Primer caso:
Ambas ecuaciones en conjunto con la ecuación
Optimizar y(x1,x2,x3)
f(x1,x2,x3) = 0 se pueden resolver para obtener los
s.t. f(x1,x2,x3) = 0
puntos estacionarios.
n = 3,m = 1,p = n–m = 2
Se escoge x1 como var. de estado y
x2, x3 como var. de decisión.
y y
y, f x2 x1 y f y f
0,
x2 , x1 f f x2 x1 x1 x 2
x2 x1
y y
y, f x3 x1 y f y f
0.
x3 , x1 f f x3 x1 x1 x3
x3 x1
DERIVACIÓN
Método de Variación Restringida
Definiendo al Jacobiano como: mientras que su determinante
h1 h1
s h1 , , hm
sm J 0
1 f s1 , , sm
J
s
hm
hm
s1 sm
Segundo caso:
Optimizar y(x1,x2,x3) En un sistema de tres ecuaciones con cuatro
s.t. f1(x1,x2,x3) = 0 incógnitas dy, dx1, dx2, dx3. Mediante eliminación
f2(x1,x2,x3) = 0 se obtienen las ecuaciones:
y f1 f1 y y f 1 f 1 y
El sistema de ecs. a resolver es: dx
1 dx 2 Adx1 Bdx 2 0
x
1 3 x x x 3 x
2 3 x x x 3
y y y 1 2
dy dx1 dx 2 dx3 0 f1 f 2 f 2 f1 f 1 f 2 f 2 f 1
x1 x2 x3 dx
1 dx 2 Cdx1 Ddx 2 0
x
1 3 x x x 3 x
2 3 x x x 3
en el punto estacionario: 1 2
Debe tenerse en cuenta que (f/xi)g tiene que ser cero para i = m+1, m+2,…, n ya
que las dxi que aparecen en la Ec. (A) son todas independientes. Así las condiciones
necesarias para la existencia de un óptimo restringido a x* se puede expresar
también como: f
0, i m 1, m 2, , n
x
i g
DERIVACIÓN
Método de Variación Restringida
ondiciones de Suficiencia para un problema general (n variables con m restricciones). –
Como en el caso de optimización de una función multivariable sin restricciones, uno
se puede dar cuenta que la condición suficiente para x* para un mínimo (máximo)
relativo restringido es que la forma cuadrática Q definida por
n n 2 f
Q dxi dx j
i m 1 j m 1 xi x j
g
sea positiva (negativa) para todas las variaciones (que no desaparecen) dxi. La
matriz 2 f 2 f 2 f
2
x
m 1 g x x
m 1 m 2 g xm 1xn g
f
2
f
2
f
2
2
x x x x
n m 1 g n m 2 g xn g
tiene que ser positiva (negativa) definida para tener Q positiva (negativa) para
todas las selecciones de dxi.
Es evidente que el cálculo de las derivadas restringidas (2f/xixj)g, son una difícil
tarea e incluso prohibitiva para problemas con más de tres restricciones. El método
es difícil de aplicar ya que las condiciones necesarias por sí mismas involucran la
evaluación de determinantes de orden m + 1.
MULTIPLICADORES DE LAGRANGE
z Se desea resolver:
z = f(x,y) max f(x1,x2)
Círculo
s.t. h(x1,x2) = x12+x22 = 1 unitario
De forma general, la restricción se puede
escribir como: h(x1,x2) = c, donde h es alguna
función y c es una constante.
En la figura, el máximo de f está en (0,0). Sin
z = f(x,y) sujeta a embargo, uno no estaría interesado en dicho
la restricción x2 + máximo, sino sólo en el de f(x1,x2) cuando
y2 = 1
(x1,x2) pertenezcan al círculo unitario, i.e.,
cuando x12+x22 = 1. El cilindro sobre x12+x22 = 1
intersecta la gráfica de z = f(x1,x2) en una curva
y que está contenida en dicha gráfica. El
problema de maximizar o minimizar f(x1,x2)
sujeta a la restricción x12+x22 = 1 equivale a
Punto en
x x2 + y 2 =
encontrar el punto en esta curva donde z es
Punto en x2 + y2 = 1
1 donde f donde f se maximiza
mayor o menor.
se
minimiza
Cuando f se restringe a S, de nuevo se tiene el
concepto de máximos locales o mínimos locales de f
(extremos locales), y un máximo global (valor mayor)
o un mínimo global (valor menor) debe ser un extremo
local.
MULTIPLICADORES DE LAGRANGE
z grad f(x0,y0,z0) = f(x0,y0,z0)
Si f, al restringirse a una superficie S,
tiene un máximo o un mínimo local en Plano tangente a S
x0, entonces f(x0) es perpendicular a S en
x0 superficie S
(x0,y0,z0)
h(x*) Plano
Figura B tangente a x*
MULTIPLICADORES DE LAGRANGE
Se desea resolver:
min f(x1,x2) = x1 + x2 Retomando la ecuación (1):
s.t. h(x1,x2) = x12+x22–1=0 f(x*) = l*h(x*)
x2 se puede reescribir también como:
1 f(x*) + l*h(x*) = 0 …(1a)
Introduciendo ahora la función L(x,l) llamado
función lagrangeana:
–1 1 L(x,l) = f(x) + lh(x)
x1 entonces, la ec. (1a) se transforma en:
xL(x,l)|(x*,l*) = 0 …(2)
así, el gradiente de la función lagrangeana con
x* = –(1/√2, 1/√2) –1 respecto a x, evaluado en (x*,l*), es cero.
La ec.(2), junto con la condición de factibilidad
Figura A
Proyección h(x*) = 0
constituyen las condiciones necesarias de primer
f(x1) orden de optimalidad.
x1, no
óptim
o
f(x*) f(x1)
optimu
m
x*
h(x*) Plano
Figura B tangente a x*
MULTIPLICADORES DE LAGRANGE
Se desea resolver: En general se puede demostrar que, dada f(x1,x2),
min f(x1,x2) f x1 , x2
s.t. h(x1,x2) = 0 dx2 x1
dx1 f x1 , x2
En específico, sean: x2
f(x1,x2) = 2x1 + x1x2 + 3x2 f x1 , x2
h(x1,x2) = x12 + x2 – 3 = 0 dx1 x2
,
Para x1 = 1, resulta x2 = 2 y f(x1,x2) = dx2 f x1 , x2
10. x1
Por tanto, de la ecuación, aplicando estas expresiones a la función
2x1 + x1x2 + 3x2 = 10 f(x1,x2) = 2x1 + x1x2 + 3x2,
10 2 x1
x2 x ;
se puede resolver para x 23
se obtiene:
1 dx2 2 x2
dx2
16
dx1 x1 3
2
dx1 x1 3
dx1 x 3
10 3 x2
x1
1
y resolver para x1: x1 3 dx2 2 x2
dx1
16 Cuando x1 = 1 y x2 = 2, la razón de cambio
2 x2
2
dx2
de x2 respecto a x2 es: 2 x2
1
x1 3
Estas ecuaciones establecen la razón 16
de cambio de una variable con 1
x1 3
2
respecto a la otra.
MULTIPLICADORES DE LAGRANGE
9 Por tanto, f g
dx1 x dx1 x
8
2 ; 2 ,
dx2 f dx2 g
7
x1 x1
6 e igualando ambas expresiones:
f(x1,x2) = 18 f h f f
5 x x x x
2 2 esto es : 1 2
4
f h h h
f(x1,x2) = 15
x1 x1 x1 x2
3 Denotando esta razón de cambio l, se obtiene:
2 f f
f(x1,x2) = 12 x2 x2 f h f h
; , esto es : 0; 0
1 f h x1 x1 x 2 x 2
h(x1,x2) x1 x2
1 2 3 4 5 6 7
Haciendo L = f(x1,x2) – lg(x1,x2), se obtiene:
En algún punto la gráfica f(x1,x2) L f h El factor l es el multiplicador
0 de Lagrange. La
tocará justamente a h(x1,x2). En dicho x1 x1 x1
punto las pendientes son iguales. La L f h transformación del problema a
razón de cambio de x1 con respecto a 0. uno sin restricciones de la de
x2 en f será igual a la razón de cambio
x2 x2 x2 la forma:
min f(x1,x2) – lh(x1,x2),
de x1 con respecto a x2 en h.
se conoce como el Método de
MULTIPLICADORES DE LAGRANGE
Se desea resolver: MÉTODO
optimizar y(x1,x2,x3) o en una notación simplificada:
s.t. f1(x1,x2,x3) = 0 dy y 1 f1 2 f 2 dx1 y 1 f1 2 f 2 dx2
x1 x 2
f2(x1,x2,x3) = 0
Se ha definido: y 1 f 2 f 2 dx3
x3
y y y
dy dx1 dx2 dx3 La función y + l1f1 + l2f2 se considera como
x1 x2 x3
una nueva función L no restringida llamada
f1 f f
dx1 1 dx2 1 dx3 0 función aumentada o función de Lagrange.
x1 x2 x3
f 2 f f Es necesario encontrar los puntos
dx1 2 dx2 2 dx3 0 estacionarios de la nueva función
x1 x2 x3
Multiplicando la 2ª ec. por l1 y la
L(x1,x2,x3,l1,l2) en cinco variables, por lo que
3ª ec. por l2; donde l1 y l2 son hay que hacer igual aL cero lasLderivadas
0 f1 0
constantes arbitrarias a parciales: x1 1
determinar, y sumando estas tres L L
0 f2 0
ecs. se obtiene: x2 2
y f1 f 2 y f1 f 2 L
dy 1 2 dx1 1 2 dx 2 0
x1 x1 x1 x 2 x 2 x 2 x3
y f1 f 2 Con n variables independientes y m
1 2 dx3
x3 x3 x3 ecuaciones de restricción, se debe resolver un
sistema de (m+n) ecuaciones para obtener
los puntos estacionarios.
INTERPRETACIÓN DE LOS
MULTIPLICADORES DE LAGRANGE
Para encontrar el significado físico de los multiplicadores de Lagrange,
considérese el siguiente problema de optimización involucrando una sola
restricción de igualdad:
min f(x) …(a)
s.t. h(x) = b o h(x) = b – h(x) = 0 …(b)
donde b es una constante.
Las condiciones necesarias a ser satisfechas para la solución del problema son:
f h
0, i 1, 2, , n (c)
xi xi
h 0, (d)
La solución para las Ecs. (c)-(d) son x*, l*, f*= f(x*)
Suponer que se quiere encontrar el efecto de una pequeña relajación o
endurecimiento de la restricción en el valor óptimo de la función objetivo (i.e., se
quiere encontrar el efecto de un pequeño cambio de b en f*). Por lo que se
db dh
diferencia la Ec.
0 (b) para obtener:
o
n
h
db dh dxi (e)
i 1 xi
INTERPRETACIÓN DE LOS
MULTIPLICADORES DE LAGRANGE
Por lo que la Ec. (c) puede reescribirse como
f h f h
i i 0 (f )
xi xi xi xi
o
hi f xi
, i 1, 2, , n (g)
xi
Sustituyendo la Ec (g) en la Ec. (e), se obtiene:
n
1 f df
db dxi (h)
i 1 xi
ya que
n
f
df dxi (i)
i 1 x i
La Ec. (h) da entonces
df df
o *
( j)
db db Así, l* denota la sensibilidad (o la tasa de
or
cambio) de f con respecto de b o el cambio
df *db (k)
marginal o incremental en f* con respecto de b
en x*. En otras palabras, l* indica qué tan
fuertemente está ligada la restricción en el
punto óptimo.
INTERPRETACIÓN DE LOS
MULTIPLICADORES DE LAGRANGE
Dependiendo del valor de l*(+,–,0) el siguiente
significado físico se puede atribuir a l*:
1. l* > 0. En este caso, un decremento unitario en b es
positivamente valorado, ya que se puede obtener un valor
más pequeño del mínimo de la función objetivo f. De hecho,
el decremento en f* será exactamente igual a l* ya que df =
l*(–1) = –l* < 0. De aquí, l* se puede interpretar como la
ganancia marginal en f* debido a un “endurecimiento” de
la restricción. Por otro lado, si b aumenta en una unidad, f
también lo hará a un nuevo nivel óptimo, con el aumento
del incremento en f* siendo determinado por la magnitud de
l* ya que df = l*(+1) > 0. En este caso, l* puede pensarse
como el (incremento) costo marginal en f* debido a un
relajamiento de la restricción.
INTERPRETACIÓN DE LOS
MULTIPLICADORES DE LAGRANGE
Dependiendo del valor de l*(+,–,0) el siguiente
significado físico se puede atribuir a l*:
2. l* < 0. En este caso, un incremento unitario en b es
positivamente valorado, ya que se puede disminuye el valor
óptimo de f. La ganancia marginal (reducción) en f*
debido a la relajación de la restricción por una unidad está
determinado por el valor de l* ya que df* = l*(+1) < 0. Si
disminuye el valor de b en una unidad, el costo marginal
(incremento) en f* por el “endurecimiento” de la restricción
es df* = l*(–1) > 0, ya que en este caso, el valor mínimo de
la función objetivo incrementa.
INTERPRETACIÓN DE LOS
MULTIPLICADORES DE LAGRANGE
Dependiendo del valor de l*(+,–,0) el siguiente
significado físico se puede atribuir a l*:
3. l* = 0. En este caso, cualquier cambio incremental en b no
tiene absolutamente ningún efecto en el valor óptimo de f y,
de aquí, la ec. de restricción no está vinculada. Ésto
significa que la optimización de f sujeta a h = 0 lleva al
mismo punto óptimo x* como en el caso de la optimización
sin restricciones de f.
CONDICIONES DE SUFICIENCIA
Una condición suficiente para que f(x) tenga un
mínimo relativo en x* es que el cuadrático, Q,
definido por n n
2L
Q dxi dx j
i 1 j 1 xi x j
evaluado en x = x* debe ser positivo-definido
para todos los valores de dx para los cuales las
restricciones sean satisfechas. La prueba de esta
condición es similar que para la de la matriz
hessiana. n n
2L
Si Q x * , λ * dxi dx j
i 1 j 1 xi x j
g2(x,y) = x + y ≤ 2
g3(x,y) = y ≥0
• Se busca definir una dirección factible de x+y–2=0
donde
u *j 0, j I ...(2)
e I es el conjunto de índices de las restricciones de desigualdad de atadura.
OPTIMIZACIÓN MULTIVARIABLE CON
RESTRICCIONES DE DESIGUALDAD
Condiciones de Karush–Kuhn–Tucker (KKT):
Enunciado Algebraico
En cualquier óptimo local restringido, ningún cambio (pequeño) permitido en
las variables del problema puede mejorar el valor de la función objetivo.
min f(x,y) = (x – 2)2 + (y – 1)2
g2
s.t. g1(x,y) = –y + x2 ≤ 0
(1,1)● –f
g2(x,y) = x + y ≤ 2
g1
g3(x,y) = y ≥0
Para que f caiga dentro del cono descrito, debe ser una combinación lineal no-negativa de los gradientes
negativos de las restricciones de atadura; esto es, deben existir multiplicadores de
Lagrange
f x* uju *tales
*
gquex* ...(1)
j j
jI
donde
e I es el conjunto de índices de las restricciones de desigualdad de atadura. u *j 0, jI ...(2)
Estos resultados se pueden reelaborar para incluir todas las restricciones definiendo el
multiplicador uj* como cero si gj(x*) < cj. En el ejemplo, u3*, el multiplicador de la restricción g3,
es cero.
Se puede decir que uj* ≥ 0 si gj(x*) = cj, y uj* = 0 si gj(x*) < cj, así el producto uj*[gj(x) – cj] es cero
para toda j. Esta propiedad de que las r
restricciones de desigualdad inactivas tengan
multiplicadores cero, se llama
entonces en:
f holgura
x* ucomplementaria.
j g j x
* *
Condiciones (1) y (2) se convierten
0 ...(3)
j 1
Condiciones
* * *
u j 0, u j g j x c j 0 ...(4a)
de Kuhn-Tucker
g j x* c j , j 1, , r ...(4b)
OPTIMIZACIÓN MULTIVARIABLE CON
RESTRICCIONES DE DESIGUALDAD
Condiciones de Karush–Kuhn–Tucker (KKT):
Enunciado Algebraico
Multiplicadores de Lagrange
Las condiciones KTC están íntimamente relacionadas con los resultados clásicos de
los multiplicadores de Lagrange para problemas con restricciones de igualdad. A
r
partir de la forma lagrangiana:
L x, u f x u j g j x c j
j 1
donde uj son vistos como los multiplicadores de Lagrange para las restricciones de
desigualdad gj(x) ≤ cj. Las Ecs.(3) y (4) establecen que L(x,u) deben ser
estacionarios en x en (x*,u*) con los multiplicadores u* satisfaciendo las Ecs. (4). La
estacionalidad de L es la misma condición que en el caso de restricciones de
igualdad. Las condiciones adicionales
r en las Ec. (4) surgen porque las restricciones
*
en este caso son desigualdades.
*
f x u j g j x * 0 ...(3)
j 1
Condiciones
u 0, u g j x c j 0 ...(4a)
*
j
*
j
*
de Kuhn-Tucker
g x* c ,
j j j 1, , r ...(4b)
OPTIMIZACIÓN MULTIVARIABLE CON
RESTRICCIONES DE DESIGUALDAD
Condiciones Necesarias y Suficientes de Segundo Orden
Las condiciones KT se satisfacen en cualquier mínimo local o máximo así como en
los puntos de silla. Si (x*, l*, u*) es un punto de Kuhn-Tucker, y las condiciones de
segundo orden de suficiencia se satisfacen en dicho punto, la optimalidad está
garantizada. Las condiciones de segundo orden involucran la matriz de segundas
derivadas parciales con respecto de x (la matriz hessiana de la función de
Lagrange), y se pueden escribir como:
y t 2x L x * , λ * , u * y 0 ...(a)
Lagrange
OPTIMIZACIÓN MULTIVARIABLE CON
RESTRICCIONES DE DESIGUALDAD
Los puntos estacionarios de la función de Lagrange se encuentran
al resolver las siguientes ecuaciones (condiciones necesarias):
L f m g j
x,s, λ j x 0,
x i 1, 2, , n …(b)
xi xi j 1 xi
L …(c)
x,s, λ G j x,s g j x s 2j 0, j 1, 2, , m
j
L …(d)
x,s, λ 2 j s j 0, j 1, 2, , m
s j
Las ecs. (b)–(d) representan (n+2m) ecuaciones en las (n+2m)
incógnitas, x, l, y s. La solución de las ecs. (b)–(d) dan como
resultado el vector solución x*, el vector de multiplicadores de
Lagrange l*, y el vector de variables de holgura, s*.
Las ecs. (c) aseguran que las restricciones gj(x) ≤ 0, j=1,2,
…,m, sean satisfechas, mientras que las ecs. (d) implican que ya
sea que lj = 0 o que sj = 0. Si lj = 0, significa que la j-ésima
restricción es inactiva y de aquí que pueda ser ignorada. Por otro
lado, si sj = 0, ésto significa que la restricción es activa (gj = 0) en
el óptimo.
OPTIMIZACIÓN MULTIVARIABLE CON
RESTRICCIONES DE DESIGUALDAD
Las restricciones se pueden dividir en dos subconjuntos, J1 y J2.
Sea J1 el conjunto de índices de aquellas restricciones que son
activas en el óptimo, y J2 incluye los índices de todas las
restricciones inactivas.
Así para j J1, sj = 0 (las restricciones están activas), para j J2, lj
f g j
= 0 (las restricciones
simplificar como xi j J1
están
j
xi
inactivas),
0, las
i 1, 2, ,ecs.(b)
n se …(e)
pueden
…(f)