Está en la página 1de 92

MATEMATICAS

PARA EL
ANLISIS ECONMICO

Contenidos

14.4 Autovalores 380


14.5 Diagonalizacin 385
14.6 El teorema espectral para las matrices simtricas 388

15 _ _ _ __
Funciones de varias variables

390

15.1 Funciones de dos o ms variables 390


15.2 Representacin geomtrica de las funciones de varias variables 395
15.3 Derivadas parciales en dos variables 401
15.4 Derivadas parciales y planos tangentes 406
15.5 Derivadas parciales de funciones de varias variables 409
15.6 Derivadas parciales en economa 412
15.7 Modelos lineales con objetivos cuadrticos 415
15.8 Formas cuadrticas en dos variables 420
15.9 Formas cuadrticas en varias variables 423

-16 _ _ _ __
Tcnicas de esttica comparativa 429
16.1 La regla de la cadena 429
16.2 Generalizaciones de la regla de la cadena 435
16.3 Derivadas de funciones definidas implcitamente 440
16.4 Elasticidades parciales 447
16.5 Funciones homogneas de dos variables 451
16.6 Funciones homogneas generales y funciones homotticas 455
16.7 Ms sobre derivacin implcita 460
16.8 Aproximaciones lineales y diferenciales 462
16.9 Sistemas de ecuaciones 467
16.10 El teorema de la funcin im.plcita (opcional) 473

17 _ _ __
Optimizacin en varias variables 475
17.1
17.2
17.3
17.4

Optimizacin en dos variables 476


Mximos y mnimos con nociones de Topologa 480
El teorema de los valores extremos y cmo usarlo 483
Puntos ptimos locales 488

xiii

xlv

Contenidos

17.5 Conjuntos convexos 494


17.6 Funciones cncavas y convexas 496
17.7 Condiciones tiles de concavidad y convexidad 502
17.8 Tests de la derivada segunda para concavidad y convexidad: El caso de dos
variables 505
17.9 Tests de la segunda derivada para concavidad y convexidad: El caso de n
variables 509
17.10 Funciones cuasi cncavas y cuasiconvexas 513
*

18 _ _ _ __

Optimizacin restringida

520

18.1 Dos variables y una restriccin de igualdad 521


18.2 El mtodo de los multiplicadores de Lagrange 523
18.3 Demostracin analtica del mtodo lagrangiano (opcional) 530
18.4 Condiciones suficientes 532
18.5 Problemas lagrangianos ms generales 535
18.6 Interpretaciones econmicas de los multiplicadores de Lagrange 539
18.7 Resultados sobre envolventes 542
18.8 Programacin no lineal: Una gua informal 544
18.9 Ms sobre programacin no lineal (opcional) 552
18.10 Resultados precisos (opcional) 558

==19 _ _ __
Programacin lineal
19.1
19.2
19.3
19.4
19.5

563

Preliminares 563
Introduccin a la teora de la dualidad 569
El teorema de dualidad 572
Una interpretacin econmica general 575
Holgura complementaria 576

20 _ _ __
Ecuaciones en diferencias
20.1
20.2
20.3
20.4

583

Ecuaciones en diferencias de primer orden 583


Inters compuesto y valor actual descontado 591
Ecuaciones lineales cQn coeficientes variables 593
Ecuaciones de segundo orden 5?5

Contenidos

20.5 Ecuaciones de segundo orden con coeficientes constantes 600

21 _ _ _ __
Ecuaciones diferenciales

607

21.1 Ecuaciones diferenciales de primer orden 607


21.3 Hallar el camino conociendo la direccin 610
21.3 Ecuaciones diferenciales de variables separables I 611
21.4 Ecuaciones diferenciales de variables separables 11 616
21.5 Ecuaciones diferenciales lineales de primer orden I 620
21.6 Ecuaciones diferenciales lineales de primer orden 11 624
21. 7 Teora cualitativa y estabilidad 626
21.8 Ecuaciones diferenciales de segundo orden 631
21.9 Ecuaciones de segundo orden con coeficientes constantes 634

==A ______
lgebra elemental
A.1
A.2
A.3
AA
A.5
A.6
A.7
A.8
A.9

641

Potencias 641
Races cuadradas 646
Reglas algebraicas 648
Factorizaciones 651
Fracciones 654
Ecuaciones sencillas y cmo resolverlas 659
Desigualdades 662
Ecuaciones cuadrtias o de segundo grado 667
Dos ecuaciones con dos incgnitas 672

- B ______
Sumas, productos e induccin 675
B.1
B.2
B.3
BA
B.5

Notacin sumatoria 675


Reglas de las sumas 679
Sumas dobles 684
Productos 686
Induccin 687

XV

Optimizacin en
varias variables

La lgica meramente sanciona las conquistas de la intuicin.


-J. Hadamard (1945)

En el Captulo 9 estudiamos los problemas de optimizacin de funciones de una variable.

Sin
embargo, los problemas ms interesantes de optimizacin econmica requieren varias variables. Por
ejemplo, una empresa que quiere maximizar beneficios elige cantidades variables de outputs o inputs.
Un consumidor decide comprar cantidades variables de varios bienes de consumo diferentes.
Los problemas de optimizacin se pueden describir usualmente de la siguiente forma matemtica. Hay una funcin objetivo f(xl) ... ,xn ), que es una funcin real de n variables de la que hay
que hallar los valores mximos o mnimos. Por ejemplo, los beneficios de una empresa son funcin
de las cantidades de output y de input. Tambin hay un conjunto de restricciones o un conjunto
de oportunidades S que es un subconjunto de Rn . Por ejemplo, un consumidor no puede comprar
cantidades mayores de las que le permite la restriccin presupuestaria, dados los precios a pagar y la
cantidad de dinero disponible. El problema es hallar los mximos o mnimos de f en S, siempre y
cuando existan.
Se pueden abarcar varios tipos distintos de problemas de optimizacin dando el conjunto S
adecuadamente. Si f tiene un punto ptimo en el interior de S se habla del caso clsico, que se
estudia en este captulo. Si S es el conjunto de todos los puntos (Xl, .. , Xn ) que verifican un
cierto nmero de ecuaciones tenemos un problema lagrangiano, que es maximizar o minimizar una
funcin sujeta a restricciones de igualdad. El problema general de programacin es aqul en que S
consta de los puntos (Xl) . ,xn ) de Rn que verifican m restricciones en forma de desigUaldades
(incluyendo, posiblemente, condiciones de no negatividad de x., ... ,xn ). Un ejemplo econmico
tpico de este problema es el de repartir m recursos escasos entre departamentos de una empresa
para maximizar beneficios y cumplir tambin otros requisitos. En el Captulo 18 se consideran
problemas de optimizacin con restricciones. Si la funcin objetivo y todas las restricciones son
lineales en (Xl, . ,xn ), entonces tenemos un problema de programacin lineal, que es el tema del
Captulo 19.

475

476

CapItulo 17/ Optimizacin en vartas variables

La seccin siguiente presenta algunos hechos bsicos de problemas de optimizacin de dos


variables. El resto del capitulo da una introduccin sistemtica a la optimizacin en varias variables.

17.1 OPTIMIZACiN EN DOS VARIABLES


Consideremos una funcin z = f(x, y) definida en un dominio S del plano xy, esto es, de JR2.
Supongamos que f alcanza su mayor valor (su mximo) en un punto interior (xo, Yo) de S, como
en la Figura 17.1. Si mantenemos Y fijo igual a Yo, la funcin g(x) = f(x, Yo) depende solamente
de x y tiene su mximo en x = xo. Geomtricamente, si P es el punto ms alto de la superficie
de la Figura 17.1, entonces P es el punto ms alto de la curva que pasa por P en la que Y = Yo.
Por el Captulo 9 sabemos que g'(xo) = O. Para todo x, la derivada g'(x) es la misma que la
derivada parcial f: (x, Yo), luego f:Cxo, Yo) = O. De la misma forma vemos que el punto (xo, Yo)
debe verificar que fHxo, Yo) = porque la funcin h(y) = f(xo, y) tiene su mximo en Y = Yo.
Hemos probado as que el punto (xo, Yo) debe verificar las dos ecuaciones

f{(x,y)'= 0,

(17.1)

p = (xo, Yo, f(xo, Yo))

f(x,y)

... .., ... --""

FIGURA 17.1
superficie.

x
La funcin f(x, y) tiene un mximo en (Xo, Yo) porque P e8 el punto ms alto de la
Yo)
Yo) o.

En general, los puntos que satisfacen las dos ecuaciones (17.1) se llaman puntos estacionarios de f. Un punto interior de S que un mximo para f debe ser un punto estacionario. Un
razonamiento semejante prueba que un mnimo interior debe verificar (17.1). Por tanto:

Teorema 17.1

(Condiciones de primer orden; dos variables)

Una condicin necesaria para que una funcin f(x, y) diferenciable tenga un mximo o un
mnimo en un punto interior (xo, Yo) de su dominio es que (xo, Yo) sea un punto estacionario
de f. esto es,

En la Figura 17.2, los tres puntos P, Q y R son estacionarios, pero slo P es un mximo. Ms
adelante veremos que Q es un mximo local, mientras que R es un punto de silla.
Ejemplo 17.1
Una empresa produce dos tipos distintos A y B de un bien. El coste diario de producir x
unidades de A e Y unidades de B es

C(x, y) = 0,04x2 + O,Olxy + O,O ly2 + 4x + 2y + 500

Sec. 17. 1/ Optlmlzscl6n en dos variables

477

z
p

S . _........--:""
----::..::::.:.:.:--:..:::---:.:.:.:---:.:::---:::.::----

x
FIGURA 17.2 El punto P es un mximo, Q es un mximo local y R es un punto de silla.

Supongamos que la empresa vende toda su produccin a un precio unitario de 15 dlares para
el tipo A y 9$ para B. Hallar los niveles de produccin x e y que maximizan el beneficio.

Solucin: El beneficio es 1r(x, y) = 15x + 9y - C(x, y), luego

1r(x, y) = 15x + 9y - 0,04x 2

O,Olxy - 0,01y2 - 4x - 2y - 500

Si x > e y > maximizan los beneficios, entonces (x, y) debe ser un punto estacionario de
la funcin 1r(x, y), o sea

81r
8x

15 - 0,08x

O,Oly

0,

81r

-8y = 9 -

O,Olx - 0,02y

2=0

Estas dos ecuaciones lineales en x e y tienen como solucin x = 100, Y = 300 con
1r(100,300) = 1.100. Sin embargo, todava no hemos probado que eso es, de hecho, un
mximo. (Vase Problema 7 en la Seccin 17.8).
Ejemplo 17.2
Supongamos que Y = F(K, L) es una funcin de produccin donde K es el capital y L es el
trabajo. Designemos por p al precio por unidad de output, por r al coste por unidad de capital,
y por w al precio (o tasa de salario) por unidad de trabajo. Las tres cantidades p, r and w son
positivas. El beneficio de producir y vender F(K, L) unidades es entonces

1r(K, L)

pF(K, L)

rK

wL

(17.2)

Si F es diferenciable y 1r tiene un mximo con K> y L > 0, entonces, por el Teorema 17.1,
las parciales de 1r deben anularse. Por tanto, las condiciones de primer orden son

1rk(K, L)

L) - r

L)

L)

w =

As. una condicin necesaria para que el beneficio tenga un mximo para K
es que

= r,

L"')

= K*

y L

L '"
(17.3)

Supongamos que incrementamos el capital en una unidad desde el nivel K"'. Cunto ganaremos? La produccin crece en, aproximadamente,
(K* , L"') unidades. Como cada una de
(K'" , L "') aproximadamente.
esas unidades tiene un precio p. el aumento de ingresos es de
Cunto se pierde en este aumento unitario de capital? Se pierde r, que es el coste de una
unidad de capital. Estas dos cantidades deben ser iguales por la primera ecuacin (17.3). La
segunda ecuacin (17.3) tiene una interpretacin anloga: incrementando el trabajo en una uni(K'" , L *), miendad desde el nivel L * se tendr un aumento aproximado de los ingresos de
tras que el coste de trabajo extra es w, y esas dos cantidades son iguales. El pUnto (K"', L '" )

478

capItulo 171 Optimizacin en varias variables

que maximiza el beneficio tiene la propiedad de que el ingreso extra generado por un aumento
unitario de capital o trabajo se compensa con el aumento de coste.
Ntese que las condiciones (17.3) son necesarias, pero no suficientes en general, para que
haya un mximo interior. Las condiciones suficientes para que haya un punto ptimo se estudian
en las Secciones 17.4 y 17.7 a 17.9.
Ejemplo 17.3
Consideremos el modelo anterior con

F(K,L)
Y P = 0,5, r

= 0,1, w = 1.

= 6Kl/2Ll/3

Hallar el beneficio mximo en este caso.

Solucin: La funcin de beneficios es

'Ir(K, L) = 0,5 . 6Kl/2 Ll/3 - O,IK - 1 L = 3Kl/2 Ll/3 - O,1K - L


Las condiciones de primer orden son

'lrK(K, L) = 1,5 K-l/2Ll/3 - 0,1

= O,

La primera ecuacin da Kl/2 = 15V/3 Llevando este valor de Kl/2 a la segunda ecuacin
obtenemos 15V/3L-2/3 = 1. As 15L-l/3 = 1, L = 153 Se deduce que, para maximizar
los beneficios, hay que tomar

L = 153 = 3.375

El valor de la funcin de beneficios es 'Ir = 3(154 )1/2(153 )1/3 - 0,1 . 154 - 153 = 0,5 . 153 =
1687,5 (vase el Ejemplo 17.20 de la Seccin 17.8 para una demostracin de que este punto es
verdaderamente un mximo).
Concluimos esta seccin con un ejemplo que prueba que se puede usar una transformacin para
convertir el problema en la forma que hemos estudiado.
Ejemplo 17.4
Una empresa tiene tres factonas que producen el mismo artculo. Sean x, y, z, respectivamente,
los nmeros de unidades que producen cada una de las tres factonas para cubrir un pedido total
de 2.000 unidades. As x + Y + z = 2.000. Las funciones de costes de las tres factonas son

C1(x)

= 200 + looX

C 2 (y)

= 200 + Y + 300 Y ,

C 3 (z) = 200 + 10z

El coste total de producir el pedido es

= C1(x) + C2 (y) + C 3 (z)

Hallar los valores de x, y y z que minimizan C. (Indicacin: Reducir el problema a uno en


slo dos variables despejando z de x + y + z = 2.000).

+ y + z = 2.000 en z se obtiene z
Sustituyendo el valor de z dado por esta expresin en C, tenemos

Solucin: Resolviendo la ecuacin x

1 2
1 3
=x -10x + - y 100
300

9y+ 20.600

Los puntos estacionarios de C deben verificar las ecuaciones

ac

ax

ac

= -x-lO=O

50

'

ay

1 2
= - y -9=0

100

= 2.000 -

x '-

y.

Seco 17.1 IOptlmlzscln en dos variables

479

La nica solucin es x = 500 e y = 30, lo que implica que z = 1.470. El valor correspondiente
de
es 17.920. En el Ejemplo 17.19 de la Seccin 17.8 probaremos que es un mnimo.

Problemas
1 La funcin f definida por f (x, y) = - 2x 2 - y2
los valores de x e y correspondientes.
2 La funcin f definida por f(x, y) = -2x 2
mximo. Hallarlo
3 (a)

La funcin f definida por f(x, y)


Hallarlo

+ 4x + 4y

2xy - 2y 2

X2

+ y2

3 para todo (x, y) tiene un mximo. Hallar

+ 36x + 42y

- 6x + 8y

+ 35

158 para todo (x, y) tiene un

para todo (x, y) tiene un mnimo.

(b) Probar que se puede escribir f(x, y) en la forma f(x, y) = (x - 3)2 + (y + 4)2
qu esto significa que se ha hallado realmente el mnimo de la primera parte.

+ 10.

Explicar por

4 Los beneficios anuales (en millones de dlares) de una empresa estn dados por

P(x, y) = _x2

y2

+ 22x + 18y

102

donde x es la cantidad invertida en investigacin (en millones de dlares) e y es el gasto publicitario


(tambin en millones de dlares).
(a) Hallar los beneficios cuando x

10, y

8 Y cuando x

= 12, Y =

10.

(b) Hallar los valores de x e y que maximizan los beneficios, junto con el beneficio correspondiente.
5 El monopolista discriminador del Ejemplo 15.25, Seccin 15.1, tena la funcin de beneficios
7r(Qll Q2) = (a - a)Q

+ (a2

- a)Q2 - bQi

b2Q;

Hallar los nicos valores positivos de Q y Q2 que pudieran maximizar los beneficios. Comparar los
resultados con los del Ejemplo 15.25.
6 Hallar el valor mnimo de X2 + y2 + Z2 cuando se exige que 4x + 2y Z
es: hallar el punto del plano 4x + 2y - Z = 5 ms cercano al origen.

= 5.

La interpretacin geomtrica

7 El monopsonista discriminador del Ejemplo 15.26, Seccin 15.7, tena la funcin de beneficios

7r(L, L 2 )

(P - a)L - {3Li

+ (P

(2)L 2

(32Li

Hallar los nicos valores positivos de L y L 2 que pudieran maximizar los beneficios. Comparar los
resultados con los del Ejemplo 15.26.
8 En la funcin de beneficios del Ejemplo 17.2, sea p = 1, r

F(K, L)

= 80

= 0,65, w =

(K - 3)2 - 2(L - 6)2

1,2 Y

(K - 3)(L - 6)

Hallar los valores de K y L que verifican (17.3) en este caso.


9 Si x, y, z son nmeros positivos tales que x + 3y + 4z
108, hallar el valor mximo del producto
P
xyz. (Indicacin: Convertir P en una funcin de y, z eliminando la variable x.) Interpretacin
econmica: xyz es la "utilidad" que obtiene una persona al consumir x, y, z unidades de tres bienes. Los
precios unitarios de los bienes son 1,3 Y 4 Y la disponibilidad presupuestaria es de 108.

480

Capitulo 17 I Optimizacin en varias variables

Problemas avanzados
10 Hallar los valores de x, y y z que maximizan Axayb ZC sujetos a la restriccin px + qy + r z
constantes A, a, b, e, p, q y r son todas positivas y a + b + e
1.
11 Hallar los valores de x, y, z que maximizan x a + ya
a, p, q, y r son positivas y a < 1.

+ za

sujetos a px + qy + rz

= m.

= m.

Las

Las constantes

17.2 MXIMOS Y MNIMOS CON NOCIONES DE TOPOLOGA


En la seccin anterior hemos presentado algunos problemas sencillos de optimizacin para funciones
de dos variables. El resto de este captulo extiende la teora en muchas direcciones. Como los
problemas ms interesantes de optimizacin econmica requieren funciones de varias variables, no
solamente de una o dos, damos la mayora de los resultados bsicos para esas funciones.

Definicin de mximo y de mnimo


Sea f una funcin de n variables x}, ... , X n definida en un dominio S e lR.n . Sea e =
(e}, ... , en) E S Y supongamos que f toma un valor en e. que es mayor o igual que todos los
valores de f enlos otros puntos x = (x}, "', x n ) deS. En smbolos,

f(x)

f(e)

para todo x E S

(17.4)

Entonces se llama a e un mximo global de f en S y a f(e) el valor mximo. De forma anloga definimos un mnimo global y el valor mnimo invirtiendo el signo de desigualdad en (17.4).
Normalmente se sobrentender el calificativo de global. Conjuntamente se usarn los nombres de
ptimos y valores ptimos para significar mximos o mnimos. En el caso de las funciones de dos
variables hemos dado en la seccin anterior unas interpretaciones geomtricas de estos conceptos.
f (e) para
Sea f una funcin de n variables definida en S e lR.n y e E S tal que f (x)
todo x E S, o sea que e maximiza f en S. Entonces - f(x) 2:: - f(e) para todo x E S. As
e maximiza a f en S si y slo si e minimiza a - f en S. Esta simple observacin nos permite
convertir problemas de maximizacin en problemas de minimizacin y viceversa. Recurdese el
caso de una variable en la Figura 9.1.

Un resultado til
Un resultado sencillo, que tiene sin embargo considerable inters en economa terica, se expresa
a menudo as: Maximizar una funcin equivale a maximizar una transformacin (estrictamente) creciente de esa funcin. Por ejemplo, supongamos que queremos hallar todos los pares (x, y) que
maximizan f(x, y) en un conjunto S del plano xy. Entonces tambin podemos tratar de hallar
aqullos (x, y) que maximizan, sobre S, cualquiera de las siguientes funciones objetivo alternativas:

+ b (a> O)
(2) e/(x,y)
(3) Inf(x, y)
En el caso (3) hay que exigir que f(x, y) > O en S. Los mximos son los mismos, pero los valores
(1) af(x, y)

mximos son distintos. En un caso concreto, el problema


maximizar e x2 +2xy2_ y 3 para (x, y) E S
tiene las mismas soluciones en x, y que el problema
maximizar X2

+ 2xy2 -

y3 para (x, y) E S

Seco 17.2/ Mximos y mfnimos con nociones de Topologfa

481

porque la funcin u -t eU es estrictamente creciente. En general es fcil probar el resultado


siguiente:

Teorema 17.2

f(XI, ... tXn) una funcin definida en un dominio S de]Rn y F una funcin de
Sea f(x)
una variable definida en un dominio que contenga al rango de f. Sea 9 la funcin definida en
S por la expresin
(17.5)
Entonces:
(a) Si F es creciente y c = (el!"" en) maximiza (o minimiza) a
maximiza (o minimiza) tambin a 9 sobre S.

(b) Si F es estrictamente creciente, entonces c maximiza (o minimiza) a


si c maximiza (o minimiza) a 9 sobre S.

sobre S, entonces c

sobre S si y slo

Demostracin: Se har solamente en el caso del mximo, porque en el del mnimo el razonamiento es anlogo.
(a) Como e maximiza a f en S, tenemos f(x) ::; f(e) para todo x de S. Pero entonces g(x) F(J(x::;
F(J(e = g(e) para todo x E S, porque F es creciente. Se deduce que e maximiza a gen S.
(b) Si F es, adems, estrictamente creciente y f(x) > f(e), se debe verificar que g(x) = F(J(x >
F(J(e = g(e). As g(x) ::; g(e) para todo x de S implica que f(x) ::; f(e) para todo x de S.

Nota: La demostracin del Teorema 17.2 es extraordinariamente sencilla. Se basa en los conceptos
de mximo y mnimo, y en el de funciones crecientes y estrictamente crecientes. Algunas personas
desconfan de estos razonamientos tan sencillos y directos, y los sustituyen por otros ineficaces o
incluso insuficientes basados en la regla de "diferenciar todo lo que est a la vista" para poder usar
las condiciones de primer o segundo orden. Esta desconfianza hace las cosas innecesariamente difciles y se corre el riesgo de introducir errores. Ntese que no hemos supuesto nada sobre continuidad
o derivabilidad en el Teorema 17.2, porque no hace falta.

Topologa del plano


Para muchos de los resultados sobre funciones de una variable que estudiamos en el Captulo 9 era
importante distinguir entre distintos tipos de dominios sobre los que estaban definidas. No es menos
importante esta distincin entre distintos tipos de dominios para el caso de las funciones de varias
variables. En el caso de una variable, la mayora de las funciones estaban definidas sobre intervalos,
y no hay muchos tipos distintos de intervalos. En el caso de las funciones de varias variables, hay
muchos tipos distintos de dominio. Afortunadamente se pueden poner de relieve las distinciones ms
relevantes usando unos pocos conceptos de topologa elementaL
Trabajamos con conjuntos del plano. Un punto (a, b) se llama un pW1to interior de un conjunto
S del plano si existe un crculo con centro (a, b) totalmente contenido en S. Un conjunto se llama
abierto si todos sus puntos son interiores. El punto (a, b) se llama un punto frontera de un conjunto
S si todo crculo con centro (a, b) contiene puntos de S y puntos no pertenecientes a S. Un punto
frontera de S no pertenece necesariamente a S. Si S contiene a todos sus puntos frontera se dice que
S es cerrado. Estos conceptos se representan en las Figuras 17.3 Y 17.4. Ntese que un conjunto
que contiene algunos de sus puntos frontera pero no a todos, como el ltimo de los de la Figura 17.4,
no es ni abierto ni cerrado. Un conjunto es cerrado si y slo si su complementario es abierto.

482

Caphulo 17 I Optmzacoo en varas variableS

interior

FIGURA 17.3

FIGURA 17.4

Las Figuras 17.3 Y 17.4 dan slo unas ligeras indicaciones de lo que significa que un conjunto sea abierto o cerrado. Desde luego, si ni siquiera est definido con precisin un conjunto, es
imposible decidir si es abierto o cerrado.
En muchos de los problemas de optimizacin que tratemos, los dominios estarn definidos por
una o ms desigualdades. Los puntos frontera pertenecen al conjunto all donde aparezcan signos de
menor o igual. Por ejemplo, si p, q y m son parmetros positivos, el conjunto (presupuestario) de
los puntos (x, y) que verifican las desigualdades
px

+ qy 5: m,

2::

0, y

2:: O

(1)

es cerrado. Este conjunto es un tringulo. como se muestra en la Figura 2.41 de la Seccin 2.5. Su
frontera es los tres lados del tringulo. Cada uno de los tres lados corresponde a que una de las
desigualdades de (1) sea una igualdad. Por otra parte, el conjunto que se obtiene sustituyendo 5: por
< y 2:: por > es abierto.
En general, si g(x, y) es una funcin continua y e es un nmero real, los tres conjuntos

2:: e},
{(x, y) : g(x, y) 5: e},
{(x,y): g(x,y) = e}
son cerrados. Si sustituimos 2:: por >, 5: por <. los conjuntos correspondientes son abiertos.
{(x,y): g(x,y)

Un conjunto se llama acotado si se puede encontrar un crculo que lo contenga. Los conjuntos
de las Figuras 17.4 y 2.41 son acotados. El conjunto de todos los (x, y) que verifican

x 2:: 1

2:: O

(2)

es cerrado no acotado (vase Figura 15.1). El conjunto es cerrado porque contiene a todos sus puntos
frontera. Cmo es el conjunto de la Figura 15.27 No es ni abierto ni cerrado, pero es acotado. Un
conjunto cerrado y acotado se llama compacto.
Los economistas tienen a menudo que considerar conjuntos definidos de formas complicadas. Es
difcil imaginarse cmo la presencia o ausencia de un punto frontera particular pueda tener relevancia
prctica. Sin embargo. hay que hacer la distincin con vistas a demostrar resultados matemticos.

Topologa en ]R."
Los conceptos topolgicos que acabamos de introducir se generalizan muy fcilmente a lRn . Recordemos que en la Seccin 12.4 se defina la distancia entre dos n-vectores a = (a, ... , an ) y
b = (b, ... , bn ) como lIa - bll = J(a - b)2 + ... + (a n - bn )2.
Una n-bola con centro a = (al, ... , a n ) y radio r es el conjunto de todos los puntos x =
(x, ... ,xn ) tales que Ilx - all < r. Si sustituimos la palabra "crculo" que usamos en las definiciones de topologa plana por "n-bola", siguen valiendo en lRn las definiciones de punto inte-

Seco 17.3/ El teorema de los valores extremos y c6mo usar/o

483

rior, conjunto abierto, punto frontera, conjunto cerrado, conjunto acotado y conjunto compacto. Un
entorno N de un punto a es un conjunto que contiene una n-bola con centro a.
Si g(x) = g(Xh ... ,xn ) es una funcin continua de n variables y c es un nmero real, los tres
conjuntos
{x: g(x)
c},
{x:g(x)=c}
son cerrados. Si
se sustituye por >,
por <, los conjuntos correspondientes son abiertos.
Si A es conjunto arbitrario de Rn , se define el interior de A como el conjunto de los puntos
interiores de A. Si A es abierto, coincide con su interior.

Problemas
1 Hallar los valores mximo o mnimo de las dos funciones siguientes (o probar que no existen) por un
razonamiento directo:

(a) f(x, y) = (x

+ 1)2 + (y

2 Probar que, siempre que A

3)2

10

";2 - (x 2 + y2)

=3

(b) f(x, y)

> O Y X > O, ... , Xn > O, el problema


sujeta a X

+ ... + Xn

= 1

tiene la misma solcin que el problema


maximizar lnA

+ alnx + ... + an lnx n

sujeta a

Xl

+ ... + x n

3 Simplificar el problema siguiente:

maxuruzar

1 [ x2+y2_2x

2"

- e _(X

2+ y2 _2X)]

para (x, y) E S

4 Sea g(x, y) = F(f(x, y), donde f y F son continuamente diferenciables con F '
(xo, Yo) es un punto estacionario de f si y slo si es un punto estacionario de g.

>

O. Probar que

5 Dar un ejemplo de una funcin discontinua 9 de una variable tal que el conjunto {x : g( x)
cerrado.

1} no sea

Problemas avanzados
6 (a) Probar que el conjunto S de los (x, y) tales que X2

+ xy + y2 =

3 es cerrado.

(b) Probar que S es acotado. (Indicacin: La ecuacin es equivalente a (x + y/2)2 + 3y2/4


tanto, 3y2/4
3, luego -2
Y 2. Probar de forma anloga que -2 x 2).
(c) Probar que el conjunto de los (x, y) tales que X2
(Indicacin: Todo par (x, y) con x =
+ 12
x -+ 00 e y -+ 00 cuando t -+ 00).

+ xy

= 3.

Por

- y2 = 3 es cerrado pero no acotado.

t) e y

t satisface la ecuacin. Sin embargo,

7 Decidir en cada uno de los casos de la Figura 17.5 si hay una funcin
g(x} = F(f(x)

estrictamente creciente tal que

17.3 EL TEOREMA DE LOS VALORES EXTREMOS


Y CMO USARLO
Como en el caso de una variable, es fcil hallar ejemplos de funciones de varias variables que no tengan ningn mximo o mnimo. El teorema de los valores extremos para una variable (Teorema 7.3,

484

CapItulo 17/ Optimizacin en varias variables

(a)

(e)

(b)

(d)

FIGURA 17.5
Seccin 7.2) fue muy til a la hora de dar condiciones suficientes que asegurasen la existencia de
puntos ptimos. Se le puede generalizar directamente a funciones de varias variables.

Teorema 17.3

(Teorema de los valores extremos)

Si f es una funcin continua en un conjunto cerrado y acotado S de ]Rn, entonces existen un


mximo e = (er, ... , en) y un mnimo d = (dI,"" dn ) en S; esto es, existen e y d en S
tales que

f(d) :5 f(x) :5 f(c)

para todo x de S

El Teorema 17.3 es un teorema de existencia puro. No nos dice c6mo hallar los puntos ptimos.
Se puede encontrar la demostracin en los libros de clculo ms avanzados. Tambin, aun cuando
las condiciones del teorema son suficientes para asegurar la existencia de puntos ptimos, no son ni
mucho
necesarias. Vase nuestra advertencia para el caso de funciones de una variable en la
Seccin 7.2.

Clculo de mximos y mnimos


En la Seccin 17.1 estudiamos algunos casos sencillos en los que podemos hallar los mximos
y mnimos de una funcin de dos variables hallando sus puntos estacionarios. En el caso de n
variables, el vector e = (eh"" en) se llama un punto estacionario de f(x, . .. , x n ) si x = e es
una solucin de las n ecuaciones

8f

-(x) = O,

8x

8f

8f

X2

Xn

-8 (x) = O, ... , -8 (x) = O

Se puede generalizar fcilmente el Teorema 17.1 a funciones de n variables.

Teorema 17.4 (Condiciones necesarias de primer orden)


Sea f una funcin definida en un conjunto S e ]Rn y sea e == (eh' .. , en) un punto interior
de S en el que f es diferenciable. Una condicin necesaria para que e sea un mximo o
mnimo para f es que e sea un punto estacionario para f, esto es,

fI(c) = O

(i=1, ... ,n)

(17.6)

Sec. t 7.3 / El teorema de los valores extremos y cmo usarlo

485

Demostracin: Sea i (1
i
n) un ldice fijo y definamos g(Xi) = (Cl" .. , Ci-Il Xi, Ci+Il' .. , en) en
el dominio fonnado por los Xi tales que (Cl' ... , Ci-Il Xi, Ci+!, , Cn) pertenece a S. Si e
(CIl ... , en) es
un mximo (o mfuimo) para , la funcin 9 de una variable debe alcanzar un mximo (o mfnimo) en Xi = C.
Como e es un punto interior a S, se deduce que Ci es tambin un punto interior del dominio de g. Por tanto,
en virtud del Teorema 7.4 de la Seccin 7.2, debe ser g'(Ci) = O. Pero g'(Ci) = HCI"" ,en), y de ah la
conclusin.
Si f(x, ... , x n ) est definida en un dominio S de Rn , los mximos y mfnimos (si loshay)

deben estar en el interior de S o en la frontera. Por el Teorema 17.4, si f es diferenciable, todo


mximo o mnimo que sea interior debe verificar las condiciones de primer orden (17.6). La mayora
de las funciones que estudiamos son diferenciables en todo el espacio. El procedimiento que describimos en el recuadro siguiente cubre la mayora de los problemas de optimizacin con los que nos
encontraremos.

Problema
Hallar los valores mximo y mnimo de una funcin diferenciable f(x) definida en un subconjunto S de Rn cerrado y acotado.
Solucin

1. Hallar todos los puntos estacionarios de

en el interior de S.

2. Hallar los valores mayor y menor de f(x) en la frontera de S. (Si conviene subdividir la
frontera en varias partes, hallar los valores mayor y menor en cada una de ellas.)
3. Calcular los valores de la funcin en todos los puntos hallados en 1 y 2.
4. El mayor valor de la funcin en 3 es el valor mximo de f en S.
5. El menor valor de la funcin en3 es el valor mnimo de f en S.

(17.7)

Apliquemos este procedimiento a la funcin cuya grfica es la de la Figura 17.6. Como no se


da una expresin analtica de la funcin, slo podemos dar un argumento geomtrico intuitivo.
Slo hay un punto estacionario de f en el interior del dominio rectangular S, a saber (xo, Yo),
que corresponde al punto P de la grfica. La frontera de S consta de cuatro segmentos. El punto R
sobre la vertical de un vrtice de S representa el valor mximo de f en la frontera; anlogamente,
Q representa el valor mnimo de f en la frontera. Los nicos candidatos para mximo o mnimo son
los tres puntos P, Q y R. Comparando los valores de f en esos puntos vemos que P representa el
valor mnimo, mientras R representa el valor mximo de f en S.
Al lector le gustar sllber que en la mayora de los problemas de optimizacin en economa,
especialmente en los de libros de texto, no aparecen las dificultades que se solventan con la receta.
Normalmente hay un punto ptimo interior que se puede hallar igualando a cero las derivadas parciales primeras. Ms adelante veremos condiciones suficientes para que este sencillo mtodo funcione.
No obstante estudiamos varios ejemplos de aplicacin de la receta (17.7).
Ejemplo 17.5
Hallar los puntos y los valores ptimos de la funcin

f (x, y)

X2

+ y2 + Y \'''tl'

-11

1,

f (x, y)

definida sobre S por

S = {(x, y) : X2

+ y2

:::; 1 }

Solucin: El conjunto S es el crculo


centro el origen y radio 1, que se ha representado en la
Figura 17.7. La funcin continua f alcanzar un mximo y un mnimo sobre S, por el teorema
de los valores extremos.

.l
,,\

_\
t

.:1-'/ '.: - '::,!


/"

"V

486

C8prtulo 17/ Optimizacin en varias variables

x
FIGURA 17.6

Aplicando la receta anterior, comenzamos hallando todos los puntos estacionarios del interior de S. Estos puntos estacionarios verifican las dos ecuaciones siguientes:

y) = 2x = 0,

y) = 2y + 1 =

Por tanto (x, y) = (O, -1/2) es el nico punto estacionario de f, y est en el interior de S.
Adems feO, -1/2) = -5/4.
La frontera de S es la circunferencia X2 + y2 = 1. Ntese que, si (x, y) est en esta
circunferencia, entonces en particular x e y estarn en el intervalo [-1, 1J. Sustituyendo X2 +
y2 = 1 en la expresin de f(x, y) se ve que, a lo largo de la frontera de S, el valor de f est
dado por la siguiente funcin de una variable:

g(y) = 1 + Y - 1 = Y

(y E [-1,1])

El valor mximo de 9 es 1, para y = 1 Y entonces x = O. El valor mnimo es -"- 1, para y := - 1


Y x = O. As hemos hallado los nicos tres posibles candidatos para puntos ptimos, a saber,
(O, -1/2), (0,1) Y (O, -l). Se tiene que feO, -1/2) = -5/4, feo, 1) = 1, Y feo, -1) =-1.
De aqu deducimos que el valor mximo de f en S es 1 y se alcanza en (O, 1), mientras que el
valorm{nimo es -5/4, que se alcanza en (O, -1/2).

Ejemplo 17.6
En un estudio de las cantidades x e y de gas natural que Europa debe importar de Noruega
y S iberia, respectivamente, se supuso que los beneficios se regan por la funcin f(x, y) =
9x + 8y - 6(x + y)2. El trmino -6(x + y)2 aparece porque el precio mundial del gas natural
aumenta conforme sube el total de las importaciones. Por restricciones de capacidad, x e y
deben verificar
x :::; 5 yO:::; y :::; 3. Finalmente, por razones polticas, las importaciones
de Noruega no deberan ser una fraccin demasiado pequea del total de importaciones, lo que
2(y - 1), o -x + 2y :::; 2. As se plantea el problema de
se traduce en que deben ser x
optimizacin de cmo maximizar la funcin

::;

f(x, y) = 9x + 8y - 6(x + y)2


sujeta a las restricciones

: :; x :::; : :; Y :::;
5,

3, -x

+ 2y :::; 2

Dibujar en el plano xy el conjunto S de los puntos que verifican esas tres restricciones y luego
resolver el problema.

Seco

/ El teorema de /os valores extremos y cmo usarlo

487

x
FIGURA 17.7 Dominio del Ejemplo 17.5.

FIGURA 17.8 Dominio del Ejemplo 17.6.

S. Claramente es cerrado y acotado, luego


la funcin continua f tiene un mximo en S.
Buscamos primero los puntos estacionarios del interior de S. Cualquiera de ellos debe
satisfacer las igualdades

Solucin: En la Figura 17.8 se representa el conjunto

af
ax

= 0,

9 - 12(x + y)

af
ay

8 - 12( x

+ y)

As debe ser 12(x + y) = 9 Y tambin 12(x 1il' 8, lo


es imposible. Por tanto, no
hay_ puntos estaciutiaoi:..El valor mXimo de f debe estar en la frontera, que consta de cinco
-partes:" O bien el valor mximo se alcanza en uno de los cinco vrtices o "puntos extremos" de
la frontera, o bien en un punto interior de uno de los cinco segmentos o "bordes". Los valores
de la funcin en los cinco vrtices son

f(O, O)

0,

f(5,0) = -105,

f(5,3) = -315,

f(4,3)

= -234,

f(O, 1) = 2

Vamos a estudiar el comportamiento de f en los puntos interiores de cada uno de los cinco
"
bordes que estn indicados con nmeros romanos en la Figura 17.8:

= y x E (0,5). As el comportamiento de f en este segmento


es el de la funcin 91 (x) = f(x, O) = 9x - 6x 2 para x E (0,5). Si esta funcin tiene un
mximo en (0,5), debe alcanzarlo en un punto en que
= 9 -12x = O. Por tanto, el
mximo es x = 3/4 Y 91(3/4)
f(3/4, O) 27/8.

(1) En el segmento (1) es y

(11) En el segmento (ll) es x = 5 e y E (0,3). Sea 92(y) = f(5, y) = 45 + 8y - 6(5 + y)2


para y E (0,3). Aqu
= 8 12(5 + y) -52 - 12y, que es negativa en todo el
intervalo (0,3), luego no hay puntos estacionarios en este segmento.
(111) En el segmento (m) es y = 3 Y x E (4,5). Sea 93(X) = f(x, 3) = 9x + 24 - 6(x + 3)2
para x E (4,5). Aqu
= 9 - 12(x + 3)
-27 - 12x, que es negativa en todo el
intervalo (4,5), luego no hay puntos estacionarios en este segmento.

(IV) En el segmento (IV) es -x + 2y = 2 y

94 (x)

f(x, x/2 + 1) = 9x + 8(x/2 + 1)

x/2 + 1, con x E (0,4). Sea


6(x + x/2 + 1)2 = -27x2/2 - 5x + 2

para x E (0,4). Aqu


= -27x - 5, que es negativa en (0,4), luego no hay puntos
estacionarios en este segmento.

(V) En el segmento (V) es x =


e y E (0,1). Sea 9s(y) = f(O,y) = 8y - 6y2. Aqu
= 8 - 12y = en y = 2/3. con 9s(2/3) f(O, 2/3) = 8/3.

488

capftulo 17/ Optimizacin en varias variables

Comparando los valores de f en los cinco vrtices de la frontera con los puntos ptimos
hallados en los segmentos (1) y (V), vemos que el valor mximo de f es 27/8, que se alcanza
en (3/4, O).

Problemas
1 Sea (x, y)

2x2 - 2y2, S

= 4x -

= {(x, y) : X2 + y2:::; 25}.

(a) Calcular i(x, y) y i,(x, y), hallando el nico punto estacionario de .


(b) Hallar los puntos ptimos de

sobre S.

2 Hallar los mximos y de mnimos de la funcin (x, y) definida sobre S en cada uno de los casos
siguientes:
(a) (x, y) = x 3 + y3 - 9xy + 27 sujeta a O :::; x :::; 4, O :::; Y :::; 4.

+ 2y2 - x sujeta a X2 + y2 :::; 1.


= 3 + x 3 - X2 - y2 sujeta a X2 + y' :::;

(b) (x, y) = X2

(e) (x, y)

1, x

O.

(d) (x, y) = (x - 2)e,,2_"(2y - 1)e(Y-2l2 sujeta a O:::; x :::; 2, O :::; Y :::; 1/2.
3 Sea h(x, y) =: x 2y(x - y - 1) definida sobre el dominio detenninado por las desigualdades 1 :::; x :::; 2
Y O :::; Y :::; x - 1. Probar que h tiene puntos ptimos globales y hallarlos.

4 Sea

(x,y) = (x+-1I)e-(,,+y l/4

sobre el dominio D definido por las desigualdades x

+y

1, Y

O.

(a) Dibujar en el plano xy el dominio D y hallar las parciales primeras de


(b) Se sabe que

f.

alcanza un mximo en D. Hallar el mximo y el valor mximo.

Problemas avanzados
5 Resolver el problema
maximizar (x 3 + y2)1/4 sujeta a x

O, Y

O, x

+y

:::; k

donde k es un nmero positivo.

6 Consideremos la funcin definida por by


(x, y)

= 3(x2 + y2)3/2 _ 4(x2 + y2)1/2 + Y

para todo (x, y)

(a) Hallar los puntos estacionarios de

f.

(Recordar que (y2)1/2

= Iyj).

(b) Sea S = {(x, y) : x


O Y X2 + y2 :::; l}. Explicar por qu
mnimo sobre S, y hallar los puntos correspondientes.

debe alcanzar un mximo y un

17.4 PUNTOS PTIMOS LOCALES


A veces nos interesa estudiar los puntos ptimos locales de una funcin. Se dice que el punto
e = (ClJ"" en) es un mximo local de f en S si f(x)
f(e) para todo x de S suficientemente
prximo a e. Ms precisamente, la condicin es que exista un nmero positivo r para el cual

f(x)

f(e) para todo x de S con Ilx - el!

<r

Seco 17.4/ Puntos ptimos locales

489

Se define un mnimo local de la manera obvia. as como los conceptos de valores mximo y mfnimo
local, puntos ptimos locales y valores ptimos locales. Ntese que estas definiciones implican que
un punto ptimo global es un punto ptimo local, pero la recproca no es cierta.
El Teorema 17.4, sobre condiciones necesarias de primer orden, ha sido muy til para la bsqueda de mximos y mnimos. El mismo resultado vale tambin para puntos ptimos locales: En un
punto ptimo local que sea interior al dominio de una funcin diferenciable, todlls las parciales primeras son O. Esta observacin es cierta porque la demostracin del Teorema 17.4 consideraba slo el
comportamiento de la funcin en un entorno pequeo del punto ptimo.
Estas condiciones de primer orden son necesarias para que una funcin diferenciable tenga un
punto ptimo local. Sin embargo no son suficientes porque un punto estacionario no tiene por qu
ser un punto ptimo local. Un punto estacionario e de f que no sea ni un mximo ni un mnimo
local se llama un punto de siDa de f.
Ejemplo 17.7
Probar que (O, O) es un punto de silla de

f(x,y)

= X2 _

y2

Solucin: Es fcil ver que (O, O) es un punto estacionario en el cual f(O, O)


O. Adems,
f(x, O)
x 2, luego f(x, y) toma valores positivos en puntos arbitrariamente cercanos al origen. Como f(O, y) = _y2, tambin f(x, y) toma valores negativos en puntos arbitrariamente
cercanos al origen. Por tanto (O, O) es un punto de silla. La grfica de la funcin es la de la
Figura 17.9.
z

FIGURA 17.9 La grfica de f(x, y)

=x2 -

y2. El punto (O, O) es un punto de silla.

Se pueden ilustrar estos conceptos imaginndose la cordillera del Himalaya. Toda cima es un
mximo local, pero slo la ms elevada, el Everest, es el mximo global. Los puntos de mxima
profundidad de los lagos son mnimos locales, y los desfiladeros de montaa son puntos de silla. Los
puntos estacionarios de un funcin se pueden entonces clasificar en tres categoras:

1. mximos locales
2. mnimos locales
3. puntos de silla

(17.9)

490

Cspftulo 17/ OptimizacIn en varias variables

Para decidir cundo un punto estaConario dado es de tipo 1, 2 3, se puede usar el test
de la derivada segunda. Consideremos ahora el caso de funciones de dos variables solamente y
pospongamos el caso general hasta la Seccin 17.9.

Condiciones de segundo orden


para funciones de dos variables
Consideremos una funcin z = I(x, y) definida en un dominio S. Sea (xo, Yo) un punto interioF de
S que sea tambin un punto estacionario de 1, o sea que

It(xo, Yo) = O
y

Yo) = O
Entonces (xo, Yo) es un mximo local, un mnimo local, o un punto de silla. Cmo podemos
diferenciar estos tres casos?
Consideremos primero el cas.o eq que z = 1(x, y) tenga un. mximo local en (xo, Yo). Las
funciones g(x) = I(x, Yo) Y h(y) = I(xo, y) describen el comportamiento de 1 sobre las rectas
Y = Yo Y x = Xo; respectivamente (vase Figura 17.1).
Esas funCones deben tener mximos locales en Xo e Yo respectivamente. Por tanto g"(xo) =
(xo, Yo) S; O Y h"(yo) =
Yo) S; O. Por otra parte, si g"(XO) < O Y h"(yo) < O, sabemos
que 9 y h alcanzan mximos locales en Xo e Yo, respectivamente.
Dicho de otro modo, las condiciones
(xo, Yo) < O Y
Yo) < O nos aseguran que
I(x, y) tiene un mximo local sobre las rectas que pasan por (xo, Yo) Y son paralelas a los ejes x e

fii

y.
Se debe notar, sin embargo, que los signos de Iti (xo, Yo) Y
Yo) no suministran muchos
datos sobre el comportamiento de la grfica de z = 1(x, y) cuando nos movemos alejndonos de
(xo, Yo) en otras direcciones que las dos mencionadas. Veamos un ejemplo.
Ejemplo 17.8
Estudiar el comportamiento de

1(x, y)
a lo largo de las rectas Y = O,

= 3xy - X2 _ y2

= OY =

x en un entorno del origen.

Solucin: Vemos que I(x, O) = _x2 tiene un mximo en x = O Y 1(0, y) = _y2 tiene un
mximo en Y = O. Sin embargo, si hacemos Y = x, entonces 1(x, x) = x 2, que tiene un
mnimo en x = O. Entonces la funcin 1 tiene un mximo en el origen en las direcciones de x
e y, y un mnimo en el origen en la direccin y = x.
El origen es un punto estacionario de 1 que es un punto de silla y, sin embargo, I{i (O, O) =
-2 Y
O) = -2.

El problema es que, si queremos tener un test correcto de derivada segunda para funciones
Yo). Se
tiene el resultado siguiente: 1

I(x, y) de dos variables, hay que considerar tambin la parcial segunda cruzada

1 El Teorema 17.S trata solamente de condiciones de segundo orden para puntos ptimos locales de una funcin de dos
variables. En la Seccin 17.8 se dan resultados sobre puntos ptimos globales de estas funciones. En la Seccin 17.9 se. dan
resultados para funciones de n variables, junto con sus demostraciones.

Seco 17.4/ Puntos ptimos locales

491

Teorema 17.5 (El test de la derivada segunda para funciones de dos variables)
Sea f (x 1 y) una funcin con derivadas parciales continuas de primero y segundo orden en
un dominio S, y sea (xo, Yo) un punto interior de S que sea un punto estacionario de f.
Pongamos

(xo, Yo),

Yo),

(17.10)

Yo)

Se tiene:

(a)
(b)
(c)
(d)

Si A < O Y AC - B2 > O, entonces (xo, Yo) es un mximo local.


Si A> O yAC B2 > O, entonces (xo, Yo) es un punto de mnimo local.
Si AC - B 2 < O, entonces (xo, Yo) es un punto de silla.
Si AC - B 2
O, entonces (xo 1 Yo) puede ser un mximo local, un mnimo local, o un
punto de silla.

Ntese que las condiciones A < O yAC B't > de (a) implican que AC > B 2 O, luego
AC > O. Dividiendo esta ltima desigualdad por el nmero negativo A se deduce que C < O. La
condicin
Yo) < O est as indirectamente incluida en las hiptesis de (a). Se puede hacer
una observacin anloga para el caso de mnimo.
La condiciones (a), (b) y (c) se llaman normalmente condiciones de segundo orden. Ntese que
son condiciones suficientes para que un punto estacionario sea respectivamente un mximo local,
un mnimo local, o un punto de silla. Ninguna de esas condiciones es necesaria. El resultado del
Problema 6 confirmar (d), porque muestra cmo un punto estacionario para el que AC B2 = O
puede ser de cualquiera de los tres tipos.
Ejemplo 17.9
Hallar los puntos estacionarios de

f(x, y) = _x 3 + xy + y2

+X

y clasificarlos. .
Solucin: Los puntos estacionarios deben verificar las dos ecuaciones siguientes:

fi(x,y)=-3x 2 +y+l=0

fi(x,y)=x+2y

La segunda ecuacin implica que y = -x/2. Llevando este valor a la primera ecuacin se
tiene que -3x2 x/2 + 1 O, 6x 2 + x
2 = O. sta es una ecuacin de segundo grado,
con soluciones x = 1/2 Y x = -2/3. Se pueden calcular los valores de y correspondientes
mediante la igualdad y = -x/2. As se concluye que (1/2, -1/4) Y (-2/3,1/3) son los
nicos puntos estacionarlos. Adems,
(x, y) = -6x,
y) = 1 Y
y)
2. Una
forma conveniente de clasificar los puntos estacionarios es hacer una tabla como la Tabla 17.1.
TABLA 17.1

AC-

Clasificacin

(1/2. -1/4)

-3

-7

Punto de silla

(-2/3.1/3)

Mnimolocal

Punto

Damos ahora un ejemplo ms complicado.

492

Capftulo 17/ Optimizacin en varias variables

Ejemplo 17.10

Clasificar los puntos estacionarios de f(x,y) = (x - 2)e x2 - x e(Y-2)2.

Solucin: Tenemos que


fi (x, y) = [e X2 - X + (x - 2)(2x - 1)eX2 - X] e(Y-2)2 = (ZX2 - 5x + 3)eX2 - x e(Y-2)2
y) = (x - 2)e X2 - X2(y - 2)e(Y-2)2 = 2(x - 2)(y _ 2)e X2 - x e(Y-2)2
Ntese que f{(x, y)
las dos races x =
solamente si y
2.
La parciales de

(x, y)

= O si y slo si ZX2 - 5x + 3 = O. Resolviendo esta ecuacin obtenemos


1 Y x = 3/2. Para cualquiera de esos dos valores de x, fi{x, y)
O
Se deduce que (1,2) Y (3/2,2) son los nicos puntos estacionarios.
segundo orden son (no es til simplificar estas expresiones)

= [{4x -

5)e x2 - x

+ (2x 2 -

5x

+ 3)(2x -

X2
1)e - X]e(Y-2)2

X2
y) = (2x 2 - 5x + 3)e - X2(y - 2)e(Y-2)2
y) = 2{x - 2)e X2 - X[e{Y-2)2 + (y - 2)2{y _ 2)e(1I- 2)2]
La Tabla 17.2 muestra la clasificacin de los puntos estacionarios.
TABLA 17.2

Punto

(1,2)

-1

C
-2

e3 / 4

_e3 / 4

(3/2,2)

AC-

Clasificacin

Mximo local

_e3 / 2

Punto de silla

Problemas
1 Sea la funcin f(x, y) = X2

+ 2xy2 + 2y2 definida para todo (x, y).


f.

(a) Calcular las parciales primeras y segundas de

(b) Probar que los puntos estacionarios son (O, O). (-1,1). (-1, -1). Y clasificarlos.
2 Hallar todos los puntos estacionarios de las funciones siguientes y estudiar qu dice el test de la derivada
segunda sobre ellos:
(a)

f(x, y) = x 3 + y3 - 3xy

f(x,y) = X2 y3(6 - x - y)
(e) f(x, y) = x 4 + 2y2 - 2xy

f(x, y) =

(e)

f(x, y)

JI - X2 -

y2 + X2 - 2y 2

= ln(l + x2y)

3 (a) Hallar los valores de las constantes a. b y e de tal forma que

f(x, y)

= ax2y + bxy + 2xy2 + e

tenga un mnimo local en el punto (2/3, 1/3) con valor mnimo local - 1/9.
(b) Con los valores de a b y e que acabamos de encontrar en (a), hallar los valores mximo y mnimo
O, Y O Y 2x + y $ 4.
de f en el dominio del plano xy definido por las desigualdades x
f

4 Sea g(x,y) = (x _1)2ye x +3tI.


(a) Hallar las curva de nivel g(x, y) = O. Dnde es g(x, y)
(b) Calcular g; y

> O?

Hallar los puntos estacionarios y clasificarlos.

(e) Averiguar si g tiene puntos ptimos globales.

Sec. 17.4 / Puntos ptimos locales

493

5 Sea f(x, y) = xe- Z (y2 - 4y) definida para todo x, y.

(a) Hallar todos los puntos estacionarios de


(b) Probar que

y clasificarlos usando el test de la derivada segunda.

no tiene ni mximo global ni mnimo global.

(e) Sea S
{(x,y): O
en S y hallarlos.

5, O

4}. Probar que

tiene un mximo y un mnimo global

(d) Hallar la pendiente de la tangente a la curva de nivel xe- Z (y2 - 4y)


Y 4 e.

=e-

4 en el punto x

= t,

6 Consideremos las tres funciones:

(a) z = _x4 _ y4

x 4 + y4

(b) Z

(e) z

= x 3 + y3

Probar que el origen es un punto estacionario para cada una de ellas y que AC - B 2 == O en el origen, en
cada caso. Estudiando las funciones directamente, probar que el origen es, respectivamente, un mximo,
un mnimo y un punto de silla.

Problemas avanzados
7 La funcin de produccin de una empresa depende del capital K y del nmero L de trabajadores. Su
expresin es

f(K, L)

v.x

+VL

El precio unitario del producto es p, el coste del capital es r, la tasa de salarios es W, de tal forma que el
beneficio es

1I'(K,L)

=pV.x +

(K 2:: O, L 2:: O)

VL-rK-wL,

(a) Supongamos que 1I'(K, L) tiene un mximo en su dominio; hallarlo. Cul es el mximo cuando
p = 32V2 Y w = r = 11
(b) Supongamos ahora que el control de la empresa pasa a los trabajadores y que se busca maximizar el
valor aadido por trabajador, esto es [1I'(K, L) + wLJ/ L. Si escribimos k = K/ L, explicar por qu
el valor aadido por trabajador es

h(L,k)

PVt + v'k. L-

3
!4 -

rk

= 32V2, r = 1, Y supongamos que la funcin correspondiente hlL,_k) tiene un mximo el! el


dominio A 9ue consta de todos los (L, k) con L 2:: 16 Y k > O. Sea (L, k) el mximo. Hallar L y
probar que k = 1. Hallar el valor mximo de h.

(e) Sea p

8 Consideremos la funcin f definida por f(x, y)


(a) La grfica de
xy en el que

z == f(x, y)

x 2)(y

= (y -

divide al plano xy,


es negativa.

2X2) para todo (x, y).

O, en dos parbolas. Dibujar el dominio del plano

(b) Probar que (O, O) es el nico punto estacionario. Usar la primera parte para probr que es un punto
de silla.
(e) Sea (h, k) -=fe (O, O) un vector direccin arbitrario. Sea g(t) = f(th, tk); probar que g tiene un
mnimo local en t = O, cualquiera que sea la direccin (h, k). As, aunque (O, O) es un punto de
silla, la funcin tiene un mnimo local en el origen, en cada direccin a travs del origen.

9 Sea

h(x, y) = x 4y4 + 2x2i

2x2

2y2

Hallar los puntos estacionarios de h y clasificarlos como mximos locales, mnimos locales, mxpos
globales, o mnimos globales.

494

Capftu/o 17/ Optimizacin en varias variables

Convexo

Convexo

No convexo

No convexo

FIGURA 17.10

17.5 CONJUNTOS CONVEXOS


Un conjunto S de puntos del plano se llama convexo si se puede unir cada par de puntos de S por
un segmento que est totalmente contenido en S. Se dan ejemplos en la Figura 17.10.
Se puede extender esta definicin de conjunto convexo a conjuntos de ]Rn. Sean x e y dos
puntos cualesquiera de ]Rn. Se define el segmento de extremos x e y como el conjunto

[x,yJ

{z: existe A E [O, lJ tal que z = (1 - A)X+ AY}

(17.11)

cuyos elementos son las combinaciones convexas z = {1 - A)X + AY, con O A 1, de los dos
extremos x e y.
Si z = (1 - A)X+ Ay y A = O, entonces z = x. En el otro extremo, A = 1 da z = y, y
+ el punto medio entre x e y. Ntese que, si A recorre todos los valores
A = 1/2 da z
reales, entonces z describe la recta entera L que pasa por x e y (vase Figura 17.11 y (12.20) en la
Seccin 12.5).

z=(1 - A)X+Ay

FIGURA 17.11

Se puede ahora dar fcilmente la definicin de conjunto convexo en ]Rn.

Un conjunto S en]Rn se llama convexo si

x E S, Y E S y A E [O,IJ

=::}

(1 - A)X + Ay E S

(17.12)

Ntese, en particular, que el conjunto vaco es convexo, as como lo es el conjunto con un


nico punto. Hablando intuitivamente, un conjunto convexo debe ser "conexo" y sin "agujeros"; su
frontera no se debe "curvar hacia adentro" en ningn punto.
Los conjuntos convexos son importantes en economa. Consideremos el siguiente ejemplo
pico.

Sec. 17.5/ Conjuntos COIJV8KOS

495

Ejemplo 17.11
Sea U(x)
U(x, ... , x n ) la funcin de utilidad de un individuo. Si U(xO) = a, el conjunto
sobrenivel r a = {x : U (x) 2': a} consta de todos los vectores de bienes que el individuo valora
al menos como xO. En teora del consumidor se supone frecuentemente que raes un conjunto
convexo. La Figura 17.12 muestra un conjunto sobrenivel tpico en el caso de dos bienes de
consumo.

FIGURA 17.12 raes convexo.

FIGURA 17.13

Si S y T son
conjuntos convexos en ]Rn, su interseccin S
Figura 17.13). Ms generalmente:

SI, ... , Sm convexos en]Rn

==}

nT

n T es convexo.
es tambin convexa (vase

SI n ... n Sm convexo

(17.13)

Demostracin: (Una de las ms sencillas del mundo!) Sean x e y pertenecientes al conjunto S SI n n


Sm. Entonces x e y pertenecen a Si para todo i = 1, ... , m. Como Si es convexo, el segmento [x, y] debe
S. Esto implica
estar contenido en Si para todo i = 1, ... , m y, por tanto, en la interseccin SI n n Sm
que S es convexo.

Problemas
1 Averiguar cules de los cuatro conjuntos de la Figura 17.14 son convexos:

(b)

(a)

(e)

(d)

FIGURA 17.14
2 Averiguar cules de los conjuntos siguientes son convexos, dibujando cada uno en el plano xy.
(a) {(x, y) : X2
(b) {(x,y): x
(c) {(x, y) : X2

+ y2 < 2}
O, Y

O}

+ y2 > 8}

496

Capftulo 17/ Optimizacin en varias variables

(d) {(x, y) : X?: O, y?: O, xy?: l}


(e) {(x,y):xYS1}

(f)

{(x, y) : Vx + v'Y S 2}

3 Supongamos que S es un conjunto convexo en]Rn con un nmero finito de elementos. Cuntos elementos
puede tener S?

+ bT al conjunto de todos
los puntos de la forma ax + by, donde x E S e y E T. Demostrar que, si S y T son convexos, tambin
lo es aS + bT.

4 Si S y T son dos conjuntos de ]Rn y a y b son nmeros, se designa por aS

5 Si S y T son dos conjuntos cualesquiera, se define el producto cartesiano de S y T por la relacin


S x T = {(s, t) : s E S, t E T}. En la Figura 17.15 se ha representado el caso en que S y T son
intervalos de la recta real. Probar que, si S y T son conjuntos convexos de ]Rn. entonces S x T es
tambin convexo.

__ 8

FIGURA 17.15

17.6 FUNCIONES CNCAVAS Y CONVEXAS


En las Secciones 9.5 y 9.6 hemos estudiado las funciones cncavas y convexas de una variable.
Generalizamos estos conceptos para funciones de varias variables cuyos dominios son conjuntos
convexos. Primeramente consideramos la funcin de dos variables z = f(x, y) de la Figura 17.16.
Esta funcin es cncava segn la siguiente adaptacin obvia de la Definicin (9.14), Seccin 9.6:

La funcin f(x, y) es cncava (convexa) si su dominio es convexo y el segmento que une


dos puntos cualesquiera de la grfica no est nunca por encima (por debajo) de la grfica.

(17.14)

Esta definicin es a menudo difcil de comprobar. En efecto, para una funcin definida por una
frmula complicada, no es evidente ni mucho menos si la condicin
(17.14) se verifica
o no. Nos vamos al lgebra en busca de un test de concavidad (convexidad) que generalice (9.15)
y (9.16), Seccin 9.6. En efecto, es fcil ver que la definicin (17.15) que vamos a dar es equivalente
a (17.14).

Definicin de funciones cncavas y convexas


La definicin general de funcin cncava es semejante a la del caso de una variable (vase la
Figura 17.17):

Seco 17.6/ Funciones c6ncsvas y COIMiIX8S

497

z
!(x,y)

FIGURA 17.16
fica de f.

La funcin f(x, y) es cncava; el segmento PQ yace completamente bajo la gll-

Definicin de funcin cncava


Una funcin f(x)

= f(xI, ... , x n ) definida en un conjunto convexo S es cncava en S


f(1 - A)XO

+ AX) 2:: (1

A)f(xo)

si

+ Af(x)

(17.15)

para todo xo, x E S y todo A E (0,1).

FIGURA 17.17
S es cncava.

TR

=f1

!(x)

A)x + Ax) 2:: TS

=(1 -

A)f(xo) + Af(x). La funcin f(x) definida sobre

Si se tiene una desigualdad estricta cuando x =f. XO en (17.15), se dice que f es estrictamente
cncava. En el caso de una funcin de dos variables estrictamente cncava, el segmento que une dos
puntos arbitrarios de la grfica yacer estrictamente debajo de la grfica, excepto en los extremos.
La funcin cuya grfica es la de la Figura 17.17 es estrictamente cncava.
La funcin f es convexa en S si - f es cncava o, equivalentemente, cuando se verifica (17.15)
con 2:: sustituido por
Adems, f es estrictamente convexa si -fes estrictamente cncava.
Damos unos ejemplos en los cuales se pueden usar fcilmente las definiciones.
Ejemplo 17.12
Consideremos la funcin lineal
f(x)

a . x + b = al Xl

+ ... + anXn + b

donde a = (al, ... ,an ) es un vector constante y b es una constante. Probar que
cncava y convexa.

es, a la vez,

498

capItulo 17/ Optimizacin en varias variables

Solucin: Para todo xo, x y todo>. E [0,1], la definicin de


escalar (vase (12.14), Seccin 12.4) implican que

y las reglas para el producto

+ b = (1 >.)a xo + >.a x + (1 >')b + >'b


= (1 - >.)(a Xo + b) + >.(a x + b) (1 - >.)f(xo) + >.f(x)
Ntese cmo hemos usado tambin el hecho de que b
(1 - >')b + >'b. Por tanto, se satisface (17.15) con igualdad, luego f es, a la vez, cncava y convexa pero no estrictamente

fl - >.)xo + >.x)

= a [(1

>.)xo + >.x]

cncava o estrictamente convexa.

Ejemplo 17.13
Supongamos que g(x) es una funcin cncava (convexa) de una variable definida en el intervalo
l. Sea f(x, y) = g(x) para todo x E 1 y todo y perteneciente a un cierto intervalo J.
Demostrar que f (x, y) es cncava (convexa) para x E 1 e y EJ.
Supongamos ahora que g(x) es estrictamente cncava (estrictamente convexa). Ser tambin f(x, y) estrictamente cncava (estrictamente convexa)?
Solucin: Ntese primero que el dominio de f es el producto cartesiano 1 x J, que es convexo
porque 1 y J son convexos en tanto que intervalos (vase Problema 5 de la Seccin 17.5).
Supongamos 'que 9 es cncava, digamos, y sean xl, X2 E 1, Yl, Y2 E J y >. E [0,1]. Entonces

fl

>.)Xl

+ >.X2, (1

- >')Yl

+ >'Y2) = gl

= (1 -

+ >'X2) (1 - >.)g(xI) + >.g(X2)


>.)f(xJ, YI) + >.f(X2, Y2)
>.)Xl

lo que demuestra que f(x, y) es cncava. Sin embargo, cuando XI = X2


se convierte en igualdad y as

fl - >.)XI

+ >.X2' (1

- >')YI

+ >'Y2) = (1

- >.)f(x); YI)

= x, la desigualdad

+ >.f( X2' Y2)

aun cuando g(x) sea estrictamente cncava (estrictamente convexa) e YI i= Y2, con < >. <
1. Vase la Figura 17.18. As f(x, y) no es estrictamente cncava (estrictamente convexa)
(excepto en el caso trivial en que J sea un nico punto).

Nota: Se puede generalizar el resultado del Ejemplo 17.13: Si f(XI' ... ,xp ) es cncava (convexa)
en las variables (XI,' .. ,xp), entonces F(xl; ... ,xp, Xp+l, ... ,xn )
f(xl; ... ,xp) es cncava
(convexa) en las variables (x), . .. , x n ), donde n
p. Sin embargo, F no va a ser estrictamente
cncava (estrictamente convexa) cuando n

> p, excepto en casos triviales.

Hay una caracterizacin de la concavidad/convexidad que es til a veces, y fcil de demostrar


(vase el Problema 4). Sea f una funcin cncava y designemos por MI al conjunto de todos los
puntos que estn en la grfica o debajo de ella, como se ve en la Figura 17.19. Entonces la funcin f
es cncava s y slo si MI es un conjunto convexo. Se tiene un enunciado semejante para funciones
convexas y as

f
f

es cncava
es convexa

{=:}
{=:}

= {(x, y) : x E S y Y $
NI = {(x, y) : x E S y Y

MI

f(x)} es convexo
f{x)} es convexo

(17.16)

Sea. 17.6/ FuncIonIJs c6ncavss y convexas

499

z
= (x, y) = g(x)

FIGURA 17.18 La funcin g(x) es estrictamente cncava, pero f(x, y) no lo es.


y
y

= (x)

FIGURA 17.19 La funcin f(x) es cncava si y slo si M, es convexo.

Desigualdad de Jensen
La desigualdad de Jensen para funciones cncavas de una variable 9.18), Seccin 9.6) se puede

generalizar a funciones de varias variables:

Desigualdad de Jeosen (versin discreta)


Una funcin f de n variables es cncava sobre un conjunto convexo S de Rn si y slo si la
O, ... , Am
O con
desigualdad siguiente se verifica para todo XI. , Xm de S y todo Al

+ ... + Am = 1:

f(AX

+ ... + AmXm)

Af(X) + ... + Amf(Xm)

(17.17)

Se llaman ponderaciones convexas a unos nmeros reales no negativos que suman uno. Poniendo
xO
Xl. X = X2, 1 - A = Al y A = A2' la Definicin (17.15) de funcin cncava se convierte
en (17.17) para m = 2. En particular, si se verifica (17.17) entonces f es cncava. Queda por
3.
probar que, si f es cncava, entonces se verifica (17.17) para todo m
Para demostrar (17.17) en el caso m = 3 tomamos ponderaciones convexas Al, A2, A3 Y
vectores x, X2, X3 E Rn . Suponemos, adems, que A2 + A3 > O pues si fuese A2
A3 = O,
entonces sera A
1 Y (17.17) se verificarla trivialmente. Ahora bien, A2 + A3
1 - A y as,
como A2 + A3 > O Y como (17.17) se debe verificar para m = 2 con las ponderaciones convexas

500

Capftulo 17/ Optimizacin en varias variables

X2 + A3 X3)
\
\
f ( AIXI + (1 - Al )A2/\2+/\3
Ad(x) + (1 - AI)f ( A2;: :

+ (1 - A) [A2; A3 f(X2) + A2; A3 f(X3 )]


Ad(x.) + A2!(X2) + AJ!(X3)
Ad(x)

Se puede probar (17.17) en el caso general, usando induccin matemtica sobre m, el nmero de
vectores.
Hay tambin una versin continua de la desigualdad de Jensen que requiere integrales. Nos
limitamos al caso de funciones de una variable real. En el Problema 3 de la Seccin 17.7 se indica
una demostracin del teorema siguiente2 :

Desigualdad de Jensen (versin continua)


Sean x(t) y A(t) funciones continuas en el intervalo [a,b], con A(t)
f es una funcin cncava definida en el rango de x(t), entonces

b
f(L A(t)X(t) dt)

OY

Lb A(t)f(x(t dt

J! A(t) dt = 1. Si
(17.18)

Nota: La desigualdad de Jensen es importante en Estadstica. Una aplicacin es sta: si f es


cncava en un intervalo 1 y si X es una variable aleatoria con esperanza finita E(X), entonces

f(E(X

E(f(X.

Ejemplo 17.14 (Suavizacin del consumo en tiempo continuo)


Supongamos que un consumidor espera vivir desde ahora, que es el tiempo t = O, hasta el
tiempo T. Designemos por e(t) al gasto de consumo en el tiempo t y por y(t) al flujo de renta.
Supongamos que Wo es riqueza en tiempo O. Supongamos que el consumidor desea elegir e(t)
para maximizar la funcin de utilidad intertemporal de cicio vital

foT e-atu(e(t dt

(1)

donde a: > O es la tasa de impaciencia o de descuento de utilidad y u(e) es una funcin


de utilidad cncava estrictamente creciente (como lne _e- 2 ). Supongamos que r es la tasa
instantnea del inters de ahorro, y que no se permite al consumidor sobrepasar el tiempo T
endeudado.
La riqueza inicial, junto con el valor actual descontado (VAD) de la renta futura, es

WT
2 Si

Wo + foT e-rty(t) dt

es convexa, las desigualdades de (17.17) Y (17.18) se deben invertir.

Sec. 17.6/ Funciones Cl'lC8vas y COIJ1I8XaS

501

La restriccin presupuestaria intertemporal se expresa exigiendo que el VAD del consumo no


exceda a WT:
(para todo c(t) admisible)

(2)

El hallar un patrn temporal ptimo de consumo en un problema como ste requiere generalmente tcnicas de teora de control ptimo -un tema avanzado que no tratamos en este libro.
Sin embargo, en el caso particular en que r
a, se puede hallar fcilmente un patrn temporal
ptimo mediante la desigualdad de Iensen. Sea e el nivel de consumo (constante) que verifica
la ecuacin

(3)
Ntese cmo e
yen el caso particular en que Wo = O e y(t)
y para todo t. Nuestra
afumacin es que se obtiene un patrn ptimo eligiendo c{t) = e para todo t, que es lo
que llamamos "suavizacin del consumo" porque las fluctuaciones en los ingresos se suavizan
mediante ahorros y prstamos, para que el consumo se conserve constante a lo largo del tiempo.

Ir

Vamos a demostrar esta afumacin. Definamos la constante a


e- rt dt. Entonces
(3) implica que e = WT /a. Ahora se aplica la desigualdad de Iensen a la funcin cncava u
con ponderaciones ..\(t) = (l/a)e- rt . Esto da
u (foT{l/a)e-rtC(t)dt)

foT{l/a)e-rtu(C(tdt

= (l/a) foT e-rtu(c(tdt

Las desigualdades (4) y (2), junto con el hecho de que e


respectivamente, implican que

foTe-rtu(C{t)}dt

e-rtc(t)dt)

WT /a y la definicin de

(4)

a,

aue;)

As hemos demostrado que ningn otro plan de consumo que satisfaga la restriccin presupuestaria (2) puede dar lugar a un valor mayor de la utilidad intertemporal de ciclo vital, dada por
(1), que el que suministra el patrn de "consumo suavizado" con c(t) = e para todo t. 3

Problemas
1 Averiguar qu funciones de entre aqullas cuyas grficas son las de la Figura 17.20 son cncavas, convexas,
estrictamente c6ncavas o estrictamente convexas
2 Demostrar que una funci6n
y s610 si es lineal.

definida en un conjunto convexo S de ]in es cncava y convexa a la vez si

3 Se define la funcin f por f(x)


Ilxll = (xi + ... +
para todo x E ]in. Demostrar que f es
convexa. (Indicaci6n: Usar la desigualdad triangular del Problema 8 de la Seccin 12.4.)
4 Demostrar las propiedades (17.16).
3 ste es, en efecto, un tema muy importante en econORa. El nivel de consumo que se puede sostener sin cambios es lo
que J. R. Hicks defini como "renta". M. Friedman llam "renta permanente" a un parmetro similar y enunci la "hiptesi
de renta permanente" segn la cual una medida del "consumo permanente" iguala a la renta permanente.

502

Capitulo 17/ Optimizacin en varias variables

(a)

(b)

(e)

FIGURA 17.20

17.7 CONDICIONES TILES DE CONCAVIDAD Y CONVEXIDAD


Los resultados siguientes se pueden usar a veces para comprobar si una funcin dada es c6ncava o
convexa.

Teorema 17.6
Sean

I y 9 funciones definidas sobre un conjunto convexo S de ]Rn.


I y 9 cncavas ya;::: O, b ;::: O :=;, al + bg cncava.
I y 9 convexas ya;::: O, b ;::: O :=;, al + bg convexas.

Entonces:

(a)
(b)
(e) I(x) cncava y F(u) cncava y creciente:=;, U(x) = F(f{x)) cncava.
(d) I(x) convexa y F(u) convexa y creciente:=;, U(x)
F(f(x convexa.
(e) I y 9 cncavas :=;, h(x) = min{ I(x), g(x) } es cncava.
(f) I y 9 convexas:=;' H(x) = max{ I(x), g(x)} es convexa.

Demostraci6n: Vamos a demostrar las partes (a), (e) y (e). Las demostraciones de (b), (d) Y (f) son anlogas,
con el cambio obvio del sentido de cada desigualdad.
(a) Sea G(x) = af(x) + bg(x). Si A E (0,1) Y ,(l, x E S, entonces

G1

A)Xo + Ax)

= af1

A)Xo + Ax) + bg1

A)Xo + Ax)

;::: a[(1 - A)f(xo) + Af(x)]

Hemos usado primero la definicin


desigualdad

+ b[(1 - A)g(xo) + Ag(x)]


= (1 - A)[af(xo) + bg(xo)] + A[af(x) + bg(x)]
= (1 - A)G(xo) + AG(x)
de G y luego la de concavidad de f y 9 junto con a ;::: O, b ;::: O.

GI - A)Xo + Ax) ;::: (1 - A)G(xo) + AG(x)

que se deduce de ah indica que G es cncava.


(e) Sean xO, x E S. y A E (0,1). Entonces

U1 - A)xo + Ax)

F(f1 - A)xo + Ax
;::: F1 -A)f(xo) + Af(x
;::: (1 A)F(f(xo + AF(f(x
= (1
A)U(Xo) + AU(x)

La

Seco 17.71 Condiciones tiles de concsvldad y convexidad

503

La primera desigualdad usa la concavidad de f y el hecho de que F es creciente. La segunda desigualdad es


debida a la concavidad de F.
(e) La funcin h asigna a x el menor de los nmeros f(x) y g(x). Con la notacin de (17.16). se deduce que
Mh = Mf n Mg. Dibujar las grficas para convencerse de que esto es cierto. La intersecci6n de conjuntos
convexos es convexo. de donde se deduce que Mh es convexo y as h es c6ncava.

Nota: Si /(x) = ax+b, o sea, si / es una funcin lineal de x, entonces se puede suprimir en (e) y
(d) la hiptesis de que F es creciente. En efecto, en la demostracin de (e). la primera desigualdad
usaba la concavidad de / y el hecho de que F era creciente. Cuando / es lineal, esta desigualdad
se convierte en igualdad y el resto del razonamiento funciona como antes. As:

Una funcin cncava (convexa) de una funcin lineal es cncava (convexa)

(17.19)

Ejemplo 17.15
Estudiar la concavidad o convexidad de las funciones siguientes:

(a) /(x, y, z)

= ax2 + by2 + cz 2

(b) g(x, y, z)

= e ax + by2+cz
2

(a, b y c son no negativas)

(a, b y c son no negativas)


(atXl

+ ... + anXn

es positiva)

Solucin: La funcin / es convexa por ser suma de funciones convexas. La funcin 9 es


tambin convexa. En efecto, g(x, y, z) = eU , con u = ax 2+by2+CZ 2. La funcin u -+ eU es
convexa y creciente, y u es convexa, luego, por el Teorema 17.6(d), 9 es convexa. Finalmente,
h es cncava por ser una funcin cncava creciente (u -+ 1n u) de una funcin lineal, luego
cncava.

El siguiente resultado que damos en esta seccin tiene una interpretacin geomtrica obvia.
Consideremos la Figura 17.16 en la Seccin 17.6 Y tomemos cualquier punto P de la grfica. El
plano tangente a la grfica en P est todo l por encima de la grfica. De hecho. es razonable esperar que esta propiedad geomtrica caracterice a las funciones cncavas diferenciables. El siguiente
teorema es un enunciado algebraico de esta importante propiedad: 4

Teorema 17.7

Supongamos que /(x)


abierto y convexo S de

/(x, ... , x n ) tiene derivadas parciales continuas en un conjunto

]Rn.

Entonces:

(a) / es cncava en S si y slo si, para todo xo, x ES,

/(x)

(17.20)

(b) / es estrictamente cncava si y slo si la desigualdad en (a) es estricta para todo x i: xO.
(e) Se obtiene el resultado correspondiente para funciones convexas (o estrictamente convexas) sustituyendo ::; ( <) por 2:: (o en la desigualdad de (a) ( (b)).
4 La desigualdad en (17.20) es vlida cuando

es c?ncava y tiene derivadas parciales en xo.

504

Capftufo 17 I Optimizacin en varias variables

Demostracin: (a) Supongamos primero que f es cncava, y sean xo, x E S. Una reordenacin de trminos
en la desigualdad (17.15.) de la Seccin 17.6 implica que, para todo A E (0,1). tenemos
f(x)

f(xo)::::; f1

A)X

AX) - f(xO)

(1)

Se define la funcin 9 por g(A) = f1 - A)XO + AX) = f(xO + A(X - Xo)). Entonces g(O) = f(xO), luego
g(O)J/ A. Por el Problema 11 de la Seccin 16.2. esto tiende a
el miembro de la derecha de (1) es [g(A)
g'(O) =
(8f(xO)/8xil(xi cuando A
0+. As, pasando al lmite en (1) cuando A
0+ se
tiene la desigualdad (17.20). Para demostrar la implicacin contraria, supongamos que xO, x E S y A E (0,1).
Introducimos la notacin vectorial y definimos los vectores fila:

'Vf(x)

(f:(x), ...
y
...
(2)
donde 'Vf(x) es el gradiente de f en x (vase Seccin 16.3 para el caso n = 2). Sea z
(1
A)XO + AX.
Entonces z E S y, segn la desigualdad de la parte (a) de (17.20), con z sustituyendo a xO, se tiene
f(x) f(z)::::; 'V f(z) . (x z)
(3)
Como se supone que la parte (a) de (17.20) se verifica en todo el conjunto S, la desigualdad (3) es tambin
cierta cuando x se sustituye por xO, y as
f(xO) - f(z) ::::; 'V f(z) . (xo - z)
(4)
Multipliquemos ahora (4) por 1 -

A > O y (3) por A > O, y sumemos despus. El resultado es

+ A[f(x) - f(z)] ::::; 'V f(z)[(l - A)(Xo - z) + A(X - z)]


(5)
El miembro de la izquierda de (5) es (1- A)f(xO) + Af(x) f(z), y la expresin entre corchetes en el miembro
de la derecha es (1 - A)XO + AX - z = O. As (5) prueba que f es cncava.
(b) Supongamos que f es estrictamente cncava en S. Entonces (1) se verifica con desigualdad estricta para
XO i x. Para z (1 A)XO + AX tenemos
f(x) f(xo) < f(z) A f(xO) ::::; 'V f(xO) (z - XO) = 'V f(xo) . (x _ xo)
(1 - A)[f(xo) - f(z)]

usando la parte (a) del Teorema 17.7 ya demostrada, as como el hecho de que z-xo = A(X-XO). As, la parte
(a) de (17.20) es vlida con desigualdad estricta. Si, Por otra parte, se verifica (17.20) con desigualdad estricta
para x i xO, entonces (3), (4) y (5) se verifican con::::; sustituido por <, y se deduce que f es estrictamente
cncava.
(e) Esto se prueba cambiando f por - f.

El Teorema 17.7 tiene una aplicacin muy importante en teora de la optimizacin. Supongamos
que f(x) = f(XI'" . , x n ) es diferenciable y cncava en un conjunto convexo S y que XO es un
punto interior de S en el cual todas las parciales de primer orden de f se anulan. Entonces, pensando
geomtricamente en el caso de dos variables, el plano tangente a la grfica de f en XO es horizontal.
Como la grfica est debajo del plano tangente, esta grfica no puede estar ms alta que xO. As
xO es un mximo global. Se verifica un resultado semejante para funciones convexas. El enunciado
formal y la demostracin son como sigue:

Teorema 17.8
Supongamos que f(x) tiene derivadas parciales continuas en un conjunto convexo S de Rn , y
sea XO un punto interior de S. Entonces:
Si f es cncava, XO es un mximo global de f en S si y slo si xO es un punto estacionario
de f.
(b) Si f es convexa, XO es un punto de mnimo global de f en S si y slo si XO es un punto
estacionario de f.
(a)

Seco 17.8/ Tests de la derivada segunda para concavidad y convexidad: El caso de dos variables

505

Demostracin: Si f tiene un mximo o un mnimo en xo, entonces Xo debe ser un punto estacionario --esto
es, todas las derivadas parciales de primer orden deben anularse.
Por otra parte, supongamos que Xo es un punto estacionario y que f es cncava. Aplicamos el Teorema 17.7. Como fI(xO)
O para i
1, ... , n, se deduce de la desigualdad en la parte (a) de (17.20) que
f(x) ::; f(xO) para todo x E S. Esto demuestra que XO es un mximo. El caso en que f sea convexa se
demuestra de la misma manera.
A veces es difcil usar los resultados de esta seccin para averiguar si una funcin dada es
cncava. convexa o ninguna de las dos. Para un mtodo ms prctico daremos los tests de la derivad:;
segunda en la seccin siguiente.

Problemas
1 Demostrar que f(x, y, z) = (x

+ 2y + 3Z)2 es convexa. (Indicacin: Usar (17.19)).

2 Hasta qu punto las partes (a), (e), y (e) del Teorema 17.6 siguen siendo vlidas si se consideran funciones estrictamente cncavas en lugar de cncavas?
3 Demostrar la desigualdad de Jensen (17.18) de la Seccin 17.6 en el caso en que f sea diferenciable,
usando la idea siguiente: Por (17.20), la concavidad de f implica que f(x(t - fez) ::; f'(z)[x(t) z].
Multiplicar ambos lados de esta desigualdad por ..\(t) e integrar con respecto a t. Hacer, entonces, z

J:

..\(t)x(t) dt.

17.8 TESTS DE LA DERIVADA SEGUNDA PARA CONCAVIDAD


Y CONVEXIDAD: EL CASO DE DOS VARIABLES
En el caso de funciones de una variable dos veces diferenciables, que se estudi en la Seccin 9.5.
se demostr que el signo de la derivada segunda sirve para determinar la concavidad o convexidad
de la funcin. Hay una caracterizacin correspondiente para funciones de dos variables. Vase la
siguiente seccin para la demostracin.

Teorema 17.9
Sea z = f (x, y) una funcin con derivadas parciales continuas de primero y segundo orden,
definida sobre un conjunto abierto y convexo S del plano. Entonces
(a) f es cncava

(b)

{:::::::}

es convexa {:::::::}

f"1 1
< -O' f"22< O, Y If" f" I >
- O
21
22

f"11 >- O, f"22 >- O, y

f{'z I>
O
-

donde todas las desigualdades se deben verificar en todo S.

Ejemplo 17.16
Sea f(x, y) = 2x - y

Solucin: En este caso, fi

X2

+ 2xy

y2 para todo (x, y). Es f cncava o convexa?

+ 2y Y fi
f 12" f 21" = 2,

2 - 2x

+ 2x y

2y, luego
=-2

506

C8pftulo 17 I Optimizacin en varias variables

Por tanto,

O,

O,

fll

1 21

Deducimos de aqu que

f (x, y)

ll

f 22

1 1- 2 21
2-2

02::0

es cncava.

Ejemplo 17.17
Probar que la funcin CES

f definida por
f(K,L) = A [oK-P + (1- o)L-p]-I/P

para K

> O, L > O es cncava para p 2::

(A> O, p =f; O, O

-1 Y convexa para P

1)

1.

Solucin: Despus de una buena cantidad de trabajo, hallarnos que

-(p + 1)0(1 - 0)AK-P- 2L-P[oK-P + (1

0)L-p]-(I/ Pl -2
fEL = -(p + 1)0(1 o)AK-P L -P-2[oK-P + (1 - 0)L- pr(I/ Pl -2
f'kL = (p+ 1)0(1- 0)AK-P- 1L-P-l[oK-P + (1- 0)L- pr(l/p)-2

f'kK

Se deduce que, para p 2:: -1, tenemos f'kK


O Y ffL
O, mientras que, para p
-1,
tenemos que f'kK 2:: O Y ffL 2:: O. Adems, f'kK fEL - (f'kL)2 == O. Esto es tambin una
consecuencia de ser f homognea de grado 1 (vase Problema 7 de la Seccin 16.5). Se sigue
la conclusin de las partes (a) y (b) del Teorema 17.9.
Una variante de este teorema da condiciones suficientes de concavidad o convexidad estricta.
En la seccin siguiente se da una demostracin.

Teorema 17.10

Sea z =

f (x, y)

una funcin con derivadas parciales continuas de primero y orden, definidas

i
f22
1f21 0I

(b)

;o:;n t'e

c::::

> OY 1

> O =} f

:::u:::c::ncava

es estrictamente convexa

donde todas las desigualdades se deben verificar en todo S.

Nota 1: No se pueden invertir las implicaciones de las partes (a) y (b). Por ejemplo, es fcil ver
(O, O) = O.
que f(x, y) = _x4 - y4 es estrictamente cncava en todo el plano, aun cuando
Nota 2: De las dos condiciones suficientes de la parte (a) se deduce que
se deduce en la parte (b) que
y) > O.

y)

< O.

Lo mismo

Ejemplo 17.18
Demostrar que la funcin de Cobb-Douglas y = AKa Lb, definida para todo K> O Y L > O,
es cncava si A > O, a 2:: O, b 2:: O Y a + b
1, Y es estrictamente cncava si a y b son
positivos y a + b < 1.

Seco 17.8/ Tests de la derIVada segunda para concavidad y convexidad: El caso d6 dos variables

I)AK a- 2L b, YKL

Solucin: Se tiene que YKK = a(a


YZL = b(b - I)AK aL b- 2. Adems,

y"
KK

YKL

IYLK"

YLL
"

1= a(a -

= YZK

507

= abAKa-1Lb- 1 y

I)AK a- 2L bb(b - I)AK aL b- 2 - (abAKa-lLh-I)2

= abA2K2a-2L2b-2(a -l)(b - 1) - ab]


abA2K 2a - 2L2b-2[1 (a + b)]

Las conclusiones se deducen inmediatamente del Teorema 17.9 (a) y del Teorema 17.10 (a).
Los resultados anteriores tienen implicaciones interesantes en la teora de la optimizacin. Si se
combinan los Teoremas 17.8 Y 17.9 se obtiene el siguiente resultado til.

Teorema 17.11

(Condiciones suficientes de ptimos globales)

Sea f(x, y) una funci6n con derivadas parciales primeras y segundas continuas en un dominio
convexo S. y sea (xo, Yo) un punto estacionarlo de f interior a S.
(a) Si, para todo

y)]2

(x, y) S, es fii (x, y) $. O,


y) $.. O, Y fii (x,
O, entonces (xo, Yo) es un mximo de f(x, y) en S.

y) -

(b) Si, para todo (x, y) E S, es


y)
O,
y)
O, Y fii(x, y)f!fz(x, y) O, entonces (xo, Yo) es un mfnimo de f(x, y) en S.

Ejemplo 17.19
Consideremos la funcin

G(x, y)

1 2
1 3
- x - 10x + - y - 9y + 20.600

100
300
definida para x
Oe Y
O. Hemos visto en el Ejemplo 17.4 que el nico punto estacionario
es (x, y)
(SOO, 30). Demostrar que es un mnimo.
Solucin: Se tiene que

"
Gil (x, y)
As
todo x

O, Y

1" x
Gd , y)

SO'

= O,

,,1

Gd x , y)

= soy

O, G!fz(x, y)
OY
= y/2Soo
O. Por tanto, por el Teorema 17.11 (b), (SOO, 30) es un mnimo.

Ejemplo 17.20
Demostrar que en el Ejemplo 17.3 hemos hallado el mximo.
Solucin: Tenemos 1f(K, L)
"
1fKK
-

Por tanto, 1f'kK

= 3KI/2 Ll/3 1f"

'KL -

O,IK - L con K

!K- 2L-2/3
2

1/

< O Y 1f1L < O para todo K> O y

1f1l
KK 1f"
LL - (1f")2
KL

1L- 4 /3
!K2

'

> O.

1L- 4 / 3
!K4

> O Y L > O, luego


1f1l LL -

Adems,
1L- 4 /3
!K4

>O

O para

508

Capftu/o 171 Optimizacin en varias variables

En virtud de la parte (a) del Teorema 17.11 tenemos que el punto estacionario (K, L)

(50.625, 3.375) maximiza los beneficios.

Problemas
1 Sea f(x, y)

x - y - X2 para todo x, y.

(a) Probar que f es cncava: (i) usando el Teorema 17.9; (ii) usando el Teorema 17.6 de la Seccin
17.7.
(b) Probar que -e- /(x,y) es cncava.
2 (a) Demostrar que la funcin cuadrtica general

f(x, y) = ax 2 + 2bxy + cy2

+ px + qy + r

es estrictamente cncava si ac -ll > O Y a < O, mientras que es estrictamente convexa si ac - b2 >
O ya> O. Usando la terminologa de la Seccin 15.8, esto significa, en particular, que si la forma
cuadrtica ax2 + 2bxy + cy2 es definida negativa (positiva), entonces es una funcin estrictamente
cncava (convexa).
(b) Hallar condiciones necesarias y suficientes para que f(x , y) sea cncava o convexa.

3 Averiguar para 'qu valores de la constante a la siguiente ,funcin es cncava, convexa, o ninguna de las
,

f(x, y)

-6x 2

+ (2a + 4)xy - y2 + 4ay

4 Estudiar la convexidad o concavidad de las funciones siguientes:

(a)

f(x, y) = x

+y-

eX -

X Y
+

(b) g(x, y) =

X Y
+

+ eX-Y -

S Se define la funcin f en el intervalo [-1,1] por las relaciones f(-I) = f(l) = 2 Y f(x) = /x/ para
/xl < 1. Dibujar la grfica de f y explicar por qu f es convexa. Ntese que f es discontinua en x = -1
yen x
1, y no es diferenciab1e en x = O.
6 Hallar el mayor dominio convexo S del plano xy en el cual la funcin f(x, y)
cncava.

X2 - y2 - xy - x 3 sea

7 Usar el Teorema 17.11 para comprobar que la solucin del Ejemplo 17.1 maximiza verdaderamente los
beneficios.

8 Usar el Teorema 17.11 para demostrar que la funcin f definida por f(x, y) = -2x2
para todo (x, y), tiene un mximo en (x, y) = (1,2).

y2 +4x+4y - 3

9 Probar que los puntos estacionarios que se hallaron en los Problemas 4, 7 Y 8 de la Seccin 17.1 son
mximos

10 Dos empresas A y B producen cada una su propia versin, X e Y, de un bien de consumo, en cantidades
x e y, que se venden a los precios unitarios p y q, respectivamente. Cada empresa fija su precio y produce
exactamente la cantidad demandada. Las demandas de los dos bienes estn dadas por x = 29 - 5p + 4q,
Y = 16 + 4p - 6q. La empresa A tiene costes totales 5 + x, y B tiene 3 + 2y. Supongamos tambin que
las funciones que hay que maximizar tienen mximos en precios positivos.
(a)

Inicialmente las dos empresas cooperan como si fueran un monopolista para maximizar sus beneficios
conjuntos. Hallar los precios (p, q), los niveles de produccin (x, y), y los beneficios de las empresas

AyB.
(b) Ms tarde deciden dejar de cooperar y cada una busca maximizar su propio beneficio. Si q es fijo.
qu precio p pondr A? (Hallar p como funcin p
PA(q) de q.) Si P es fijo, qu precio q
pondr B1 (Hallar q como funcin q qB(P) de p.)
.

Seco 17.9/ Tests de la segunda derivada para concavidad y convexidad: El caso de n varIabItJs

509

(c) Bajo las hiptesis de la parte (b). qu precios constantes de equilibrio son posibles? Cules son los
niveles de produccin y los ingresos netos en este caso?
(d) Dibujar un diagrama con P sobre el eje horizontal y q sobre el vertical. y representar en l las curvas
de "reaccin" PA(q) y qB(P). Mostrar en el diagrama cmo cambian los p"ecios con el tiempo si
A rompe la cooperacin en primer lugar haciendo mximo su beneficio mientras B mantiene fijo su
precio nicial.luego B responde maximizando su beneficio con el precio de A fijo. luego A responde,
y as sucesivamente.

Problemas avanzados
11 Consideremos la funcin I(x, y)
(lnx)a(lny)b definida para x
a + b < 1. Probar que 1 es estrictamente cncava.

>

1e y

>

1. donde a

> O, b > O Y

17.9 TESTS DE LA SEGUNDA DERIVADA PARA CONCAVIDAD


Y CONVEXIDAD: EL CASO DE n VARIABLES
Se pueden generalizar los resultados de los Teoremas 17.9 y 17.10 sobre concavidad y convexidad de
funciones de dos variables a funciones de n variables. Sea z = f(x) = f(Xh ... ,xn ) una funcin
2
en un dominio S de ]Rn. Recurdese de la Seccin 15.5 que la matriz

H(x) = [fIj(x)]nxn

(17.21)

se llama la hessiana, o la matriz hessiana, de f en x. En la Seccin 15.9 hemos llamado menores


principales dominantes de H(x) a los n determinantes

fii (x)

fii(x)

fii (x)

fii(x)

(k=I, ... ,n)

(17.22)

Se puede generalizar el Teorema 17.10 en la forma siguiente:

l)k Dk(X)

> O para k

= l ...

n y para todo x E S

es estrictamente cncava

(17.23)

es estrictamente convexa en S

(17.24)

==}

en S

Dk(X)

> O para k =

1... , n y para todo x E S

==}

Si n = 2, las condiciones de (17.23) se convierten en D(x)

D(x)

D 2 (x)

< O Y D 2 (x) > O.

fii(x)

(x)

fii(x)
fii(x)

Como

las condiciones de (17.23) se convierten en las de la parte (a) del Teorema 17.10 en la Seccin 17.8.
y las condiciones de (17.24) se reducen a las de la parte (b), con x = (x, y) en cada caso. Se puede
generalizar tambin el Teorema 17.9. Para ello hay que considerar los signos de todos los menores
principales de H(x) y no slo de los dominantes. Un menor principal arbitrario de orden r de H(x)

510

CapItulo 17 I Optimizacin en varias var1ables

se obtiene suprimiendo n - r filas y las n - r colunmas con los mismos ldices, y se designa por

Ar(x).
Ejemplo 17.21
Si n = 2, la matriz hessiana es

Los menores principales de orden 1 son los elementos diagonales


(x, X2) Y
X2).
Ntese que no se puede obtener el elemento
X2) suprimiendo una fila y la colunma
con el mismo ldice. El nico menor principal de orden 2 es el dado por IH(x, x2)1 =

fg (XI,

X2) -

X2)]2.

Dicho brevemente, si f(x) = f(x, . .. , x n ) es una funcin


y convexo S de R n , entonces:

e2 definida en un conjunto abierto

es cncava en

S <=> para todo Ar(x) Y todo x E S, (-Ir Ar (x) 2: o para r = 1, ... , n.

(17.25)

es convexa en

S <=> para todo Ar(x) Y todo x E S, Ar (x) 2: O para r = 1, ... , n.

(17.26)

Si n = 2, se deduce del Ejemplo 17.21 que las condiciones de (17.25) y (17.26) son las mismas que
las del Teorema 17.9.

Condiciones de segundo orden para ptimos locales


Enunciamos brevemente las condiciones de segundo orden para puntos ptimos local de una funcin
de n variables:

Teorema 17.12 (Condiciones necesarias y suftcientes para puntos 6ptimos locales)


Sea f(x], ... , x n ) una funcin e2 definida en un conjunto S de R n y sea XO un punto
estacionario de

interior a S. o sea

f:(xO)=O (i=l, ... ,n)


Sea Dk(Xo) definido en (17.22), y designemos por Ar(xO) a un menor principal arbitrario de
orden r de la matriz hessiana. Entonces:
(a) XO es un mximo local ::} (-I)r Ar(xo) 2: O para todos los menores principales Ar(xO) de
orden r = 1, ... , n.
(b) (_I)k Dk(XO) > O, k = 1, ... ,n ::} XO es un mximo local.
(c) XO es un mtimo local ::} Ar(xO) 2: O para todos los menores principales Ar(xO) de orden
r = 1, ... , n.
(d) Dk(XO) > O, k = 1, ... , n ::} XO es un mtimo local.

/'

511

Seco 17.9/ Tests de la segunda derivada para concavidad y conV8Kldsd: El CSSO da n variables

Las partes (b) Y (d) de lo anterior constituyen los resultados ms tiles. N6tese que todos
los determinantes se evalan en xo. De la continuidad de las parciales de segundo orden y de la
definicin de determinante se deduce que si las desigualdades determinantales de la parte (b), por
ejemplo, se verifican en xo, tambin se verifican en un entorno pequefio N de este punto.
En este caso, (17.23) implica que f es (estrictamente) c6ncava en N y la conclusin de la parte
(b) se deduce del Teorema 17.8 (a) en la Seccin 17.7.
Recordemos que un punto estacionario xo de f que no es ni un mximo local ni un mnimo
local se llama un punto de silla. El resultado siguiente da condiciones suficientes de punto de silla
(vase el Problema 3 para la demostracin):

Test de punto de silla

Si Dn(xO) -=J. y no se satisfacen ni las condiciones determinantales en (b) ni las de (d) del
Teorema 17.12, entonces el punto estacionario XO de f es un punto de silla.

Ejemplo 17.22
La funcin

f(x, y, z)

x 3 + 3xy + 3xz + y3

(17.27)

+ 3yz + Z3

tiene puntos estacionarios (-2, -2, -2) y (0,0, O): Clasificarlos usando el Teorema 17.12
y (17.27).

Solucin: La matriz hessiana es

j 21
"
j 31
"

J22I! JI!23
J32I! j"33

(6X3
3

Los menores principales dominantes evaluados en (-2, -2 - 2) valen

6(-2) = -12,
1

6(=-2)
3

3 1
6( -2) = 135,

6(-2)
3
3

3
6(-2)
3

3
3
6(-2)

1.350

Por tanto, (-2, -2, -2) es un mximo local.


Los menores principales dominantes evaluados en (0,0, O) valen
033

60 = 0,

= -9,

3
3
330

= 54

No se satisfacen las condiciones (b) ni (d). Adems, D 3 (0,0,0) = 54 -=J. O. Por (17.27),
(0,0, O) es un punto de silla.
Hasta ahora hemos enunciado los resultados principales de esta seccin en trminos de determinantes, porque los criterios determinantales son los que se usan ms frecuentemente en economa.
Sin embargo, podemos expresar esos resultados en trminos de la condicin de definida positiva o
negativa de la forma cuadrtica cuya matriz es la hessiana. En efecto, la forma natural de demostrar
esos resultados es estudiar las propiedades de esas formas cuadrticas.

512

Capitulo 17 I Optimlzaci6n en varias variables

Teorema 17.13
Sea z = f(x) una funcin 0 2 definida en un conjunto abierto convexo S de ]Rn. Si H(x) es
la matriz hessiana de f, entonces:
(a)
(b)

f
f

es cncava {:::::::} H(x) es semidefinida negativa para todo x E S.


es convexa {:::::::} H(x) es semidefinida positiva para todo x E S.

Demostracin: (a) Supongamos que J es cncava. Fijado x E S arbitrario y h E Rn , designemos por


x(t) a x + th, para cada nmero real t. Como S es un conjunto abierto, existe un nmero positivo 8 tal que
x(t) = x + th E S para todo ti < 8. Sea J el intervalo abierto (-8,8) y pongamos
g(t)

= J(x(t = J(x + th)

para t E J. Como J es una funcin


, el Problema 11 de la Seccin 16.2 implica que 9 es dos veces
diferenciab1e y gl/(t) = h'H(x(th. Como 9 es una funcin cncava J de la funcin lineal x(t) de t, el
resultado de (17.19) dice que 9 es cncava. Por tanto, g" (t) ::; O en J. Para t = O se pene x(O) x, lo que da
h'H(x)h ::; O. Esto es cierto para todo x E S y todo h E Rn , luego H(x) es semidefinida negativa para todo
xE

S.

Recprocamente, supongamos que H(x) es semidefinida negativa en todo S. Tomemos dos puntos cualesquiera XO y Xl de S. Para todo t E [0,1] se escribe x(t) = XO + t(x l - Xo) = (1 - t)XO + txl. Como S es
convexo se deduce que x(t) E S, Y as se puede definir
g(t)

:=

J(x(t = J(xo

+ t(x l

xo

(1)

Entonces el Problema 11 de la Seccin 16.2, para h = Xl - xO, implica que


g"(t) = (Xl - xO)'H(x(t(x l - xo)

(2)

Para todo t E [O, 1J eso es ::; O por la hiptesis de que H(x) es semidefinida negativa en todo S. Por tanto 9 es
cncava en [O, 1J. En particular,
Jl - t)xo

+ txl) = g(t)
=

(1

= gl

t)J(xo)

t) . O + t 1) ;::: (1 - t)g(O)

+ tJ(x

+ tg(l)

(3)

As, Jl - t)XO + txl) ;::: (1 - t)J(XO) + tJ(x 1 ) para todo xO, Xl E S Y todo t E [O, 1J, luego J es cncava.
Para demostrar la parte (b), sustituir J por - J en la parte (a).

Teorema 17.14
Sea z = f(x) una funcin 0 2 definida en un conjunto abierto convexo S de ]Rn. Si H(x)
designa a la matriz hessiana de f, entonces:
(a) f es estrictamente c6ncava si H(x) es definida negativa para todo x E S.
(b) f es estrictamente convexa si H(x) es definida positiva para todo x ES.

Demostracin: (a) Tomemos dos puntos arbitrarios x y Xo de S con x =f Xo Y definamos 9 como en (1)
para t E [O,IJ. Si H(x) es definida negativa en S, por (2) es g"(t) < O para todo t E (0,1), Y as 9 es
estrictamente cncava. Pero entonces hay desigualdad estricta en (3) cuando t E (0,1) Y deducimos que J es
estrictamente cncava.

Seco 17. 10 / Funciones cuas/cncavas y cuasIconvexas

513

Los resultados anteriores sobre concavidad o convexidad, estricta o no, en tnninos de los signos
de ciertos menores se deducen ahora inmediatamente de los Teoremas 17.13 y 17.14 usando los tests
de definida, o semidefinida, negativa o positiva que vimos en las Secciones 15.8 y 15.9.
Recordemos tambin que el hecho de que la matriz hessiana sea definida, o semidefinida, negativa o positiva se puede averiguar por los signos de los autovalores, como ya se estudi en el Teorema 15.2 de la Seccin 15.9. As, la parte (a) del Teorema 17.13 se puede enunciar de nuevo
diciendo que, si I es una funcin C 2 definida en un conjunto abierto convexo S, entonces I es
cncava si y slo si H(x) tiene sus autovalores no positivos para todo x E S. La parte (a) del
Teorema 17.14 se enuncia diciendo que I es estrictamente cncava si H(x) tiene sus autovalores
negativos para todo x ES. Se pueden enunciar, de manera obvia, las condiciones correspondientes
para que I sea convexa o estrictamente convexa.

Problemas
1 La funcin
(X, X2, X3)
est definida en todo

]R3

= xi +

+ 3x; -

XX2

+ 2XX3 + X2X3

y tiene un nico punto estacionario. Demostrar que es un mnimo local.

2 Clasificar los puntos estacionarios de las funciones siguientes:


(a) (x, y, z) = + 2y2 + 3z 2 + 2xy + 2xz

(h) (x, y, z)

x 3 + y3

(e) (Xl, X2, X3, X4)

+ Z3 - 9xy 9xz + 27x


+ 48x3 + 6X4 + 8XX2 -

20X2

4xf

12xi

X - 4xi

. Problemas avanzados
3 Demostrar (17.27). (Indicacin: Dn(xO) ::f. O implica que O no es un autovalor de la matriz hessiana. Si no
se satisfacen las condiciones de (b) ni las de (d) en el Teorema 17.12, entonces (usando los Teoremas 15.2
y 15.3 de la Seccin 15.9) la matriz hessiana debe tener autovalores positivos y negativos. As, la matriz
hessiana es indefinida.)

17.10 FUNCIONES CUASICNCAVAS y CUASICONVEXAS


Sea I(x) una funcin definida en un conjunto convexo S de IRn Para cada nmero real a se define
el conjunto Pa por la relacin
(17.28)
Pa = {x E s: f(x) a}
Entonces Pa es un subconjunto de S que se llama un conjunto sobrenivel de f. La Figura 17.22
muestra un ejemplo para una funcin de dos variables.
La funcin cuya grfica es la de la Figura 17.21 no es cncava. Por ejemplo, el segmento que
une los puntos P y Q de la grfica est por encima de la grfica de 1, no por debajo. Por otra
parte, la funcin es un ejemplo tpico de una funcin cuasicncava. Ntese que todos los conjuntos
sobrenivel de la funcin son convexos. La Figura 17.22 muestra un conjunto sobrenivel tpico de la
funcin. Damos la definicin siguiente:

La funcin 1, definida sobre un conjunto convexo S e IRn , es cuasicnC8va si el conjunto


sobrenivel Pa = {x E S: I(x)
a} es convexo para todo nmero a.

(17.29)

514

Capftulo 17/ Optjnizacin en varias variables

Xl

FIGURA 17.21

X2

La grfica de una funcin cuasicncava z

=f(X1. X2)'

Xl

FIGURA 17.22 Un conjunto sobrenivel para la funcin f(X1. X2) de la Figura 17.21.

Se dice que f es cuasiconvexa si - f es cuasicncava. Por tanto, f es cuasiconvexa si y slo


si el conjunto bajonivel pa = {x : f (x)
a} es convexo para todo nmero a. La Figura 17.21
muestra un ejemplo de una funcin cuasicncava que no es cncava. Por otra parte, una funcin
cncava (convexa) definida sobre un conjunto convexo S es cuasicncava (cuasiconvexa):

Si f(x) es cncava, entonces f(x) es cuasicncava.

(17.30)

Si f(x) es convexa, entonces f(x) es cuasiconvexa.

Demostracin: Para demostrar el primer enunciado de (17.30), supongamos que f es cncava en el conjunto
S. Tomemos dos puntos arbitrarios x,y E Pa y sea >. E [0,1]. Como S es convexo, (1 >.)x + >.y E S.
Adems, como f(x) 2:: a, f(y) 2:: a y >. E [0,1), la condicin de concavidad para f implica que
f1 - >.)x + >.y) 2:: (1 - >.)f(x) + >.f(y) 2:: (1 - >.)a + >.a

=a

Esto prueba que (1


>.)x + >.y E Pa. Por tanto, el conjunto sobrenivel Pa es convexo.
El segundo enunciado de (17.30) se deduce aplicando el primero a - f(x), como siempre.

La siguiente caracterizacin de funciones cuasicncavas es til.

Teorema 17.15
Sea f una funcin de n variables definida en un conjunto convexo S de Rn . Entonces
cuasicncava si y slo si, para todo x, xO E S y todo >. E [O, 1J, se tiene

es
(17.31)

Sea. 17. 10/ Funciones CU8Slc6ncavss y cuasJconvexss

515

Demostracin: Supongamos que f es cuasicncava, que x, XO E S y que>. E [0,1]. Supongamos que


f(x) 2:= f(xO) y sea a = f(xO). Se ve que x y XO pertenecen al conjunto sobrenivel Po = {u E S: f(u) 2:= a}.
Como Po es convexo, (1 - >.)x + >...!J E Po, lo que implica que f1 - >.)x + >'XO) 2:= a = f(..!J).
Recprocamente, supongamos que se verifica (17.31), y sea a un nmero arbitrario. Hay que probar que
Pa = {u E S : f(u) 2:= a} es convexo. Si Po es vaco o consta solamente de un punto, entonces Po es
convexo. Si Pa contiene ms de un punto, tomemos dos puntos arbitrarios x y
de Po, y sea >. E [0,1].
Supongamos, por ejemplo, que f(x) 2:=
Entonces, por (17.31), f1 - >.)x +
2:= f(xO). Como
2:= a, se deduce que (1 >.)x + >'xo E Pa y as Pa es convexo.

Damos a continuaci6n algunas propiedades tiles de las funciones cuasic6ncavas o cuasiconvexas:

Thorema 17.16
(a) Una suma de funciones cuasic6ncavas (cuasiconvexas) no es necesariamente cuasic6ncava
(cuasiconvexa) .
(b) Si f(x) es cuasicncava (cuasiconvexa) y F es estrictamente creciente, entonces tambin
F (f (x)) es cuasic6ncava (cuasiconvexa).
(e) Si f(x) es cuasic6ncav (cuasiconvexa) y F es estrictamente decreciente, entonces tambin F(f(x es cuasiconvexa (cuasicncava).

Demostracin: El lector se podr convencer a s mismo de que la parte (a) es cierta si hace a la vez el
Problema 3.
Las demostraciones de las partes (b) y (e) son casi idnticas, luego demostramos slo (b). Supongamos
que f(x) es cuasicncava y que F es estrictamente creciente. Si F(f(x 2:= F(f(xO)), entonces f(x) 2:= f(xO)
porque F es estrictamente creciente. Ahora bien, el Teorema 17.15 implica que f1 - >.)x + >.xO) 2:= f(xO)
para todo >. E [0,1] porque f es cuasicncava. Como F es creciente tenemos que F(f1 - >.)x + >'XO 2:=
lo que demuestra que F(f(x es cuasicncava. El caso de cuasiconvexa se demuestra de manera
anloga.

Ejemplo 17.23
Demostrar que f (x)
e _Z2 es cuasicncava. Sea FI (u) = In u para u > O Y F 2 (u)
para u > O. Ver si (b) y (e) del Teorema 17.16 se confinnan en este caso.

l/u

z2

Solucin: Los conjuntos sobrenivel de f estn definidos por {x : ea}. El mximo de


f es 1 en x = O. Por tanto, si a = 1, el conjunto sobrenivel consta del nico nmero O. Si
z2
a si y s610 si -x 2 Ina
a > 1, el conjunto sobrenivel es vaco. Si a < 1, entonces e10 que equivale a que X2
- In a. Los valores de x que satisfacen esta desigualdad estn en
un intervalo. As, todos los conjuntos sobrenivel son convexos, luego f es cuasicncava.
La funcin FI(U)
Inu es estrictamente creciente para u > O. Adems, FI(f(X =
Z2
ln(e- ) = -x 2 , que es cncava y, por tanto, cuasicncava.
La funcin F 2(u) = l/U es estrictamente decreciente para u > O. Adems, F 2(f(x))
z2
z2
l/e-x'- = e , que es convexa y, por tanto, cuasiconvexa. (Si y
e , entonces y'
2xe z ', y as
2 2
y" 2ex'- + 4x > O para todo x.)
Estos resultados estn de acuerdo con el Teorema 17.16.

516

Capftulo 17/ Optimizacin en varias variableS

Ejemplo 17.24
La funci6n de Cobb-Douglas est definida por
(a., a2 ... , a n y
para todo

> 0, ... , X n > O.

A positivos)

(1)

Tomando In en cada lado tenemos

Inz = InA + aInxl

+ ... + a n Inx n

Como suma de funciones cncavas, In z es cncava y. por tanto, cuasicncava. Ahora bien,
z = elnZ y la funcin u --+ e U es creciente. Por tanto, z es una funcin creciente de una
funcin cuasicncava, y as es cuasicncava. Ntese que la nica restriccin sobre las constantes
al,"" an es que sean todas positivas. Si al + ... + a n < 1, la funcin de Cobb-Douglas es
estrictamente cncava (vase el Ejemplo 17.18, Seccin 17.8 para el caso n = 2 y el Problema 6
de esta seccin para el caso general). Para al + ... + an > 1, no es cncava. Si ponemos
Xl
X n = X, entonces z = Ax a1 ++an , que es convexa para al + ... + an > 1. As la
funcin es convexa a 10 largo del rayo Xl = '" = Xn = X.) Si al + .. +an
1, la funcin de
Cobb-Douglas no slo es cuasicncava, sino tambin cncava.5 El recuadro siguiente enumera
algunas de las propiedades ms importantes de la funcin de Cobb-Douglas.

La funcin de Cobb-Douglas z = Axfl ... x:n , definida para Xl


A , al> ... , an son positivas, es:
(a) homognea de grado al

+ ... + an

(b) cuasicncava para todo al ... , a n


(e) cncava para al

+ '" + an

(d) estrictamente cncava para al

>

> 0,

... ,

Xn

>

0, donde

(17.32)

+ ... + an < 1

En el Ejemplo 17.11 de la Seccin 17.5, hemos sealado que los conjuntos sobrenivel de una
funcin de utilidad se suponen a menudo convexos, 10 que significa que la funcin de utilidad es
cuasicncava. Una hiptesis ligeramente ms restrictiva es que la funcin de utilidad es estrictamente
cuasicncava, segn la definicin siguiente:

Una funcin (x) es estrictamente euasieneava si

(17.33)

De la definicin y del Teorema 17.15 se deduce inmediatamente que, si (x) es estrictamente


cuasic6ncava, entonces ex) es cuasicncava.

Ejemplo 17.25
Una funcin (x) escuasicncava, pero no necesariamente cncava, si sus conjuntos sobrenivel
tienen la forma correcta. Recurdese que el problema de maximizar (x) es equivalente al
de maximizar F(f(x para toda funcin estrictamente creciente F de una variable (vase
Si l(xl, . .. ,Xn) es homognea de grado q E (0,1), se puede demostrar que 1 es cncava si y s6lo si es cuasicncava.
Vase P. Newman, "Sorne properties oC concave functions" Journal ofEconomic Theory l. (1969) pp. 291-314.

Seco 17.10 I Funciones cuaslcncavas y cuasIconvexas

517

Teorema 17.2 de la Seccin 17.2). Surge la cuestin de si una funcin cuasic6ncava f(x) se
puede convertir en una funcin cncava F(f(x)) mediante una transfonnacin F estrictamente
creciente. La funcin cuya grfica es la de la Figura 17.23 prueba que esto puede no ser posible.
y

FIGURA 17.23 La funcin fes cuasicncava, pero no se puede "concavHlcar" por una transformacin estrictamente creciente.

La definicin analtica de la funcin es


X,

f(x) =

1,

x -1,

si
si
si

x>

Esta funcin es cuasicncav porque es creciente. Los conjuntos {x E R : f(x) ;::: a} son los
intervalos convexos [a, (0) para a
1, Y [1 + a, (0) para a ;::: 1. Toda transfonnacin estrictamente
creciente F(f(x)) produce una funcin que es estrictamente creciente para x < 1, constante para
1
x 2, Y estrictamente creciente para x > 2. Ninguna funcin de este tipo puede ser cncava.

Un criterio determinantal para cuasiconcavidad


Finalizamos esta seccin con un criterio para comprobar la cuasiconcavidad de una funcin estudiando los signos de ciertos detenninantes, llamados hessianos ampliados. stos son los hessianos
ordinarios que se usan para detenninar la concavidad de una funcin, orlados con una fila y una
columna adicional que est fonnada por las parciales primeras de la funcin.

Teorema 17.17
Sea f una (J2 funcin definida en un conjunto abierto y convexo S de lRn
detenninantes hessianos ampliados Dr(x), r = 1, ... , n, por la relacin
O

Dr(x)

Se definen los

f{(x)

fi (x) fii (x)

(a) Una condicin necesaria para que


r = 1, ... , n y todo x E S.

sea cuasicncava es que (-Ir Dr(x) ;::: O para todo

(b)

.
sea cuasicncava es que (-Ir Dr(x)

condicin suficiente para que


1, ... , n y todo x E S.

> O para todo

y una restrtocln de iguBldsd

Seo. 18.1/ Dos

521

elegir de entre todos los vectores de bienes que satisfagan la restriccin presupuestaria uno que haga
mxima la utilidad. En smbol,\s, el problema es
max U(Xil"" x n ) sujeta a px

X, ,Xn

+ ... + Pnxn

(18.1)

Se supone tcitamente que Xl


O, ... , X n
O. Aqu tambin podremos despejar una de las
incgnitas de la restriccin presupuestaria, por ejemplo la X n , en trminos de XI, ,Xn-I' De
nevo el problema (18.1) se puede formular como uno de maximizacin no restringida.
Cuando la restriccin es una funcin complicada, o cuando hay todo un sistema de ecuaciones
para expresar las restricciones, el mtodo de sustitucin puede llegar a ser inaplicable en la prctica
o, al menos, muy difcil de aplicar. En estos casos hay que usar otras tcnicas. Los economistas
usan mucho, en particular, el mtodo de los multiplicadores de Lagrange. De hecho, tambin usan
ese mtodo incluso en casos de optimizacin no restringida. La razn es que los multiplicadores de
Lagrange tienen unas interpretaciones econmicas importantes. 1
Hay otros problemas de optimizacin, en los cuales las restricciones vienen expresadas por desigualdades en vez de por igualdades, y se llaman problemas de programacin. El estudio sistemtico
de estos problemas es relativamente reciente. En efecto, los resultados principales se han obtenido en
los ltimos 40 50 aos. Damos una breve introduccin a los problemas de programacin no lineal
en las Secciones 18.8 a 18.10. La programacin lineal, en la cual todas las funciones son lineales,
es el objeto de estudio del Captulo 19.
.

18.1 DOS VARIABLES Y UNA RESTRICCiN DE IGUALDAD


Consideremos el problema de maximizar (o minimizar) una funcin f (x, y) cuando X

e y deben
verificar una ecuacin g(x, y) = c. En el caso de maximizar f(x, y), el problema se enuncia as
max f(x, y) sujeta a g(x, y)

(18.2)

Se puede dar una interpretacin geomtrica del problema (18.2) como en la Figura 18.1.
z

!(x, y)

---+------------------------+x
x

FIGURA 18.1

FIGURA 18.2

La grfica de f es una superficie en forma de taza y la ecuacin g( x, y) = c representa una


curva en el plano xy. sta se levanta a la curva K sobre la taza, es decir, a una curva de la superficie
que yace verticalmente sobre ella. Tambin se dice que g(x, y) = c es la curva proyeccin de K
sobre el plano
Maximizando f (x, y) sin tener en cuenta la restriccin obtenemos la cima A
El mtodo toma el nombre de su descubridor, el matemtico francs Joseph Louis Lagrange (1736-1813). El economist dans Harald Westergaard parece haber sido el primero en usarlo en economa, en 1876. (Vase Thorltild Davidsen,
"Westergaard, Edgeworth and tbe use oi Lagrange multipliers in econornics" TIIe Economic Journal, (1986), pp. 808-811.)

518

CapItulo 171 Optimizacin en varias variables

Ejemplo 17.26
Sabemos por el Ejemplo 17.24 que la funcin de Cobb-Douglas Z =
definida
para todo X > O, ... , Xn > O es cuasicncava. Utilizamos el Teorema 17.17 para comprobar
este resultado.
Consideramos el caso n = 3, pero el razonamiento se puede generalizar fcilmente. Las
parciales primeras y segundas se pueden escribir

ai

z-z
l Xi '
Por tanto, el determinante D3

O
az/x
azz/xz
a3z/x3

az/x
a(a - l)z/xi
aZaz/xZx
a3 a l z / x 3x

D 3(x, xz, X3) es

azz/xz
aazz/xxZ
az(az a3aZz/x3xZ

a3z/x3
aa3z/xx3
aZa3z/xZx3
a3(a3 - l}z/xi

O
alaZ a 3 4 a
----::-z
(XIXZ X3)Z
az
a3

al - 1
al
az
az
1
a3
a3

Ntese que hemos sacado factor comn sistemticamente de cada fila y columna. Ahora
calculamos el ltimo determinante. Sumando a la primera fila las restantes se puede sacar factor
comn de sta el nmero al + az + a3 Y as el determinante vale

1
a

al - 1

En este determinante, restamos de cada columna la primera, obteniendo

1
al
az
a3

O
O
O
-1
O
O
O -1
O
O
0-1

As,

Si A, a, az, a3 son positivos, entonces

Unos clculos semejantes prueban que


(-I)zD

= aaZ(al +az) Z3 > O


(XIXZ}Z

al

( -1) D = 2 z

Xl

As deducimos del Teorema 17.17 (b) que la funcin de Cobb-Douglas z


cuasicncava, exigiendo solamente que A, al, az y al sean positivos.

>O
=

es

Seco 17. 10 I Funciones cuBSicncavas y cuasIconvexas

519

Problemas
1 Averiguar cules de las funciones siguientes son cuasic6ncavas:

(a) I(x) 3x + 4
(b) I(x, y) yeX ,
(c) I(x, y) = _X2 y 3,
(d) I(x)

(y

> O)
(x> O, y> O)

= x 3 + X2 + 1 si x < O; I(x)

= 1 si x ;::: O.

2 Demostrar que cualquier funcin creciente (o decreciente) de una variable definida en un intervalo es
cuasicncava.
3 Demostrar con un ejemplo que la suma de funciones cuasic6ncavas no es

en general cuasicncava.

4 Usar el Teorema 17.15 para demostrar que I(x) es cuasic6ncava si y slo si

11 -

.\)x + Axo) ;:::

mm {/(x), I(xo) } para todo .\ E

[0,1] Y todo x, x!l E

5 Qu dice el Teorema 17.17 (b) sobre las funciones de una variable?

Problemas avanzados
6 Considrese la funcin de Cobb-Douglas
z = Axf1 xf2 ...
,

del Ejemplo 17.24.

(a) Calcular el k-simo menor principal dominante del hessiano H(x) como en (17.22) y demostrar que
vale
al - 1
al

Dk =

al'" ak
(XI'"

Xk)2

a2

a2

(b) Demostrar que

(Indicacin: Sumar a la primera fila las restantes; sacar factor comn


columna del nuevo determinante la primera.)
(c) Demostrar que la funcin es estrictamente c6ncava para al

L:7=1 ai -

+ ... + a n <

1; restar de cada

1.

7 Sea F(x, y) una funcin 2 y supongamos que la ecuacin F(x, y)


e define implcitamente a y
q,(x) como funcin C2 de x. Demostrar que, si F es cuasicncava y Fi(x, y) > O, entonces q, es
convexa. (Indicacin: Usar (16.13), Seccin 16.3 y el Teorema 17.17 de esta seccin.)

18-----Optimizacin restringida

Las matemticas estn fuera de este tumulto


que es la vida humana, pero sus mtodos y relaciones
son un espejo, un espejo increblemente puro
de las relaciones que ligan los hechos de nuestra existencia.
-Konrad Knopp (1928)

Las variables que aparecen en los problemas econmicos de optimizacin estn casi siempre sometidas a ciertas restricciones. Por ejemplo, precios y cantidades son a menudo no negativos por
definicin, y la escasez impone que las cantidades que se consumen estn acotadas superiormente.
Adems, cuotas de produccin, limitaciones presupuestarias y otras condiciones pueden restringir el
rango de eleccin.
Comenzarnos este captulo estudiando el problema de maximizar o minimizar una funcin cuyas
variables deben satisfacer una o ms restricciones en forma de igualdades. Un ejemplo econmico
tpico puede ser el de un consumidor que decide qu cantidad m de su renta va a gastar en x
unidades de un bien al precio unitario P, y qu cantidad y va a reservar para gastar en otros bienes.
En este caso el consumidor se enfrenta a la restriccin presupuestarla px + y = m. Supongamos que
la funcin de utilidad u(x, y) representa las preferencias. En trminos matemticos el consumidor
debe resolver el problema de hallar el punto (x, y) que maximice u( X, y) sujeta a px + y m. Esto
es un problema de maximizacin restringida. En este caso, como y = m - px, se puede expresar el
mismo problema como uno de maximizacin no restringida de la funcin f(x) = u(x, m - px) con
respecto a la nica variable x. Ya vimos en la Seccin 17.1 este mtodo de reducir un problema de
optimizacin restringida a uno no restringido.
Ms generalmente, consideremos un consumidor que debe resolver el problema de decidir
cunto comprar de n bienes distintos en un cierto perodo. Designemos por U(xt, ... , x n ) a la
funcin de utilidad (vase Ejemplo 15.8, Seccin 15.1). Supongamos que el precio unitarlo del bien
i es fijo e igual a Pi. As PIX + ... + Pnxn es la cantidad que se necesita para adquirir el vector
de compra (o el vector de bienes) (XI,'" ,xn ). Ms an, supongamos que el consumidor quiere
gastarse una cantidad m en los n bienes. Entonces es posible comprar cualquier vector (Xl, ... ,xn )
de bienes que verifique la restriccin presupuestaria PI XI + ... + Pnxn = m. El problema es, pues,

520

522

Capftulo 18/ Optimizacin restringida

de la Figura 18.1. La solucin del problema (18.2) es el punto B, que es el punto ms alto de la
curva K. Si imaginamos que la grfica de f es una montaa y que K es un sendero, entonces
estamos buscando el punto ms elevado del sendero, que es B. Analticamente, el problema consiste
en hallar las coordenadas de B.
En la Figura 18.2 dibujamos algunas curvas de nivel de f y la curva restriccin g(x, y) = c. En
esa figura, A' es el punto en el que f(x, y) alcanza su mximo no restringido (libre). Cuanto ms
cerca del punto A' est una curva de nivel de f. mayor es el valor de f sobre esa curva de nivel.
Buscamos el punto de la curva g(x, y) = e para el que f alcance su valor mximo. Si comenzamos
a recorrer la curva desde el punto P hacia A', vamos encontrando curvas de nivel con valores de f
cada vez mayores.
Evidentemente, el punto Q de la Figura 18.2 no es el punto de g(x, y) = e en el cual f alcanza
su valor mximo, porque la curva restriccin pasa transversalmente a la curva de nivel de f en ese
punto. Por tanto, podemos seguir nuestro camino a lo largo de la curva restriccin y llegar a valores
de f ms altos. Sin embargo, al llegar al punto B ' no podemos subir ms. Es claro intuitivamente
hablando que B ' se caracteriza por ser el punto en que la curva restriccin tiene un contacto con la
curva de nivel de f, pero sin atravesarla.
Esta observacin quiere decir que la pendiente de la tangente en B ' = (x, y) a la curva
g(x, y) e es igual a la pendiente de la tangente a la curva de nivel de f en ese punto.
Recurdese de la Seccin 16.3 que la pendiente de la tangente a la curva de nivel F(x, y) = e
es dy/dx = -F{(x, y)/ Fi(x, y). As, la condicin de que la pendiente de la tangente a g(x, y) =
e sea igual a la pendiente de una curva de nivel de f (x, y) se expresa analticamente as: 2

-gi (x, y)/

y)

=-

f{(x, y)/

y)

f{(x,y)
gi(x,y)
=
fi(x, y)
gHx, y)

(18.3)

Para el problema de minimizar f(x, y) sujeta a g(x, y) = e se obtiene la misma condi


cin (18.3). Se deduce que una condicin necesaria para que (x, y) resuelva el problema (18.2)
(o el de minimizacin) es que (x, y) satisfaga (18.3) y g(x, y) = c. As se tienen dos ecuaciones
para hallar las dos incgnitas x e y.

Ejemplo 18.1
Hallar la nica solucin posible al problema
max xy

sujeta a 2x

+y = m
xy, g(x, y) = 2x + y, y
y) = 1. As (18.3) da

Solucin: Comparando el problema con (18.2) vemos que f(x, y)


x, gi (x, y) = 2, and
e = m. Por tanto, f{(x, y) = y, fHx, y)
Y

2
1

-=-

y=2x

Llevando y = 2x a la restriccin 2x + y
m se obtiene 2x + 2x = m. Por tanto,
= m/2. (Se puede resolver el problema directamente; despejando y en la
ecuacin de la restriccin se obtiene y = m - 2x, sustituyendo en la funcin tenemos que
xy = x(m - 2x) = _2x 2 + mx, cuya grfica es una parbola con un mximo en x
m/4.
As x = m/4 e y = m/2 resuelven el problema.)

= m/4 y as y

2 Olvdense por Wl momento los pWltos (x, y) en los cuales una o las dos parciales de
Vase Teorema 18.1 de la Seccin 18.3 para Wl resultado preciso.

y 9 con respecto a y se anulan.


.

Seco 18.2/ El mtodo de los multiplicadores de Lagrange

523

Ejemplo 18.2
Hallar la nica solucin posible al problema de demanda del consumidor
max xa y f3

sujeta a px

+y

= m

(1)

donde a y (3 son constantes positivas.


Solucin: Poniendo f(x, y) = xa y f3 y g(x, y) = px + y, tenemos f{(x, y)
fi(x, y) = (3x a yf3- I , (x, y) = p y
y) = 1. As (18.3) da
axa-1yf3
p
(3 x a y f3- 1 - 1

ax a - 1y f3,

ay
- - =p
(3x

Ntese que hemos simplificado la primera fraccin por x a - I e yf3- I . Despejando y de la


ltima ecuacin obtenemos y = ((3/ a )px que, llevado a la restriccin presupuestaria, da px +
((3/a)px = m px(a + (3) = am. Por tanto,

px = --(3-m,

a+

(3

y=--m
a+(3

(2)

Esta solucin es lgica. Dice que el consumidor debera gastar la fraccin a / (a + (3) de sus
ingresos en el primer bien y la fraccin (3/ (a + (3) en el resto. En el Problema 3 de la Seccin 18.10 comprobamos que sta es, efectivamente, la solucin. Si queremos una demostracin
alternativa, y mucho ms fcil, estudiamos la variacin de signo de la derivada de la funcin de
una variable x a (m - px)f3.
En los pocos problemas que completan esta seccin, hay que resolver algunos de optimizacin
restringida usando la condicin (18.3). En la seccin siguiente damos el mtodo de los multiplicadores de 'Lagrange, que es la tcnica ms conveniente para resolver la mayora de los problemas de
este tipo.

Problemas
Hallar las nicas soluciones posibles a los siguientes problemas de optimizacin restringida:

= x + y sujeta a g(x, y) = X2 + y =
(x, y) = X2 + y2 sujeta a X + 2y = 4.

1 (a) max (x, y)


(b) min

1.

+ y2 = 8.
+ y sujeta a X2 + 3xy + 3y2 = 3.

2 (a) max(min) 3xy sujeta a X2


(b) max(min) x
3 max (x, y)

= lOxl/2yl/3

sujeta a g(x, y)

= 2x + 4y = 9.

18.2 EL MTODO DE LOS MULTIPLICADORES DE LAGRANGE


Recurdese el problema (18.2) de optimizacin restringida, que consiste en maximizar f(x, y) sujeta
a g(x, y) = c. La condicin (18.3) de primer orden se puede expresar de una forma que sea fcil
de recordar y de generalizar. Primero se escribe (18.3) en la forma
f{(x, y)

fi(x, y)

(x, y)

gHx, y)

Si (xo, Yo) es una solucin del problema (18.2), las dos fracciones de (*) coincideq cuando se las
evala en (xo, Yo). El valor comn de esas fracciones se llama un multiplicador de Lagrange.

524

Capftulo 18/ Optimizaci6n restringida

La ecuacin (*) se puede expresar como


:(x,y) - Agi(x,y) = O,

y)

y) = O

(18.4)

Se define la funcin lagrangiana C por


C(x, y) = (x, y) - A(g(X, y)

e)

(18.5)

Las parciales de C(x,y) con respecto a x e y son Ci(x,y) = {(x,y) y


y)
yfrespectivamente. As las ecuaciones (18.4) representan las condiciones de
primer orden, que expresan el requerimiento de que las parciales de C se anulen. Este razonamiento
justifica el procedimiento siguiente:

El mtodo lagrangiano
Para hallar las soluciones del problema
max (mio) (x, y) sujeta a g(x, y) = e
se procede as:
1. Escribir la funcin lagrangiana
C(x, y)

= (x, y) -

A(g(X, y) -

e)

donde A es una constante.


2. Derivar C con respecto a x e y, e igualar a O las parciales.
3. Escribir el sistema fonnado por las dos ecuaciones de 2 junto con la restriccin:

:(x, y) = Agi (x, y)


y) =
g(x, y)
e

y)

4. Resolver esas tres eCuaciones en las tres incgnitas x, y y A.

Este mtodo nos va a dar en general unos pares de nmeros (x, y) que puede que resuelvan el pro
blema. Adems obtenemos el valor del multiplicador de Lagrange A. Vamos a ver dentro de un
momento que A tiene una interpretacin muy interesante que es til en muchos problemas econmicos de optimizacin. 3
.

Ejemplo 18.3
Usar el mtodo de Lagrange en el problema del Ejemplo 18.1.
Solucin: La funcin lagrangiana es

C(x, y)

xy - A(2x

+ y - m)

Algunos prefieren considerar a la funcin lagrangiana como una funcin de tres variables, .c(x, y, .>.). Entonces
e. Ms adelante, en la Seccin 18.8. apuntaremos algunos peligros de este procedimiento cuando estudiemos las restricciones en forma de desigualdades.

a.c/a.>. = -[g(x, y) - el, luego igualando a O esta parcial obtenemos la restriccin g(x, y)

525

Seco 18.2/ El mtodo de los multiplicadores de

As las condiciones necesarias para la solucip del problema son

Ci(x,y)=x..\

O,

2x+y=m

O,

(*)

Las dos primeras ecuaciones implican que y = 2..\ Y x = ..\. As y = 2x. Llevando este valor
a la restriccin tenemos 2x + 2x = m. Por tanto, x = m/4, y = m/2 y ..\ = x = m/4. st
es la misma solucin que la que hallamos en el Ejemplo 18.1.
Ejemplo 18.4
Resolver el problema
max.(min) f(x, y)

x'2

+ y'2

sujeta a g(x, y)

= x'2 + xy + y'2 =

(1)

Solucin: La funcin lagrangiana es en este caso

C(x, y)

x'2

+ y'2 _ ..\(x'2 + xy + y'2

3)

Las tres ecuaciones son

2x - ..\(2x + y) = O
Ci(x, y) 2y - ..\(x + 2y) = O
x'2 + xy + y'2 - 3 = O

(2)
(3)
(4)

Se pueden hallar de varias maneras las soluciones x, y y ..\ de estas tres ecuaciones. Damos un
mtodo sencillo. Primero se suman las ecuaciones (2) y (3), lo que da

2(x + y) = 3..\(x + y)

(5)

Supongamos que x + y =1= O; por (5) eS' ..\ = '2/3. Llevando este valor a (2), obtenemos x
y,
y (4) da X2 = 1, x =
As tenemos ds candidatos a solucin (x, y,..\) = (1,1,2/3) Y

(x,y,..\)
!

(-1,-1,2/3).

Supongamos que x + y = O. jo que implica que y = -x. Por (4), X2 = 3, Y (2) da ..\ = 2.
Tenemos, por tanto, los, dos candidatos (x, y,..\) =
2) Y (x, y,..\) =
2).

(V3, -V3,

(-,V3, V3,

Hemos hallado los linicos cuatro puntos (x, y) que pueden resolver el problema (1). Ms

an,

f(I,I)=f(-I,

1)

2,

f(V3, -V3) = f( ':'V3, V3) = 6

(6)

De aqu deducimos que, si el problema (1) tiene soluciones, entonces (1, 1) Y (-1, -1) resuelven el problema de minimizacin, mientras que
y
resuelven el de
maximizacin.
Cmo podemos estar seguros de que el problema tiene soluciones? La funcin f(x, y) =
X2 + y2 es continua y el conjunto de todos los (x, y) que verifican X2 + xy + y'2 = 3 es
cerrado y acotado (vase Problema 6 de la Seccin 117.2). El Teorema 17.3, el teorema de
los valores extremos, nos asegura que el problema (1) tiene soluciones. Geomtricamente, la
restriccin representa una elipse y el problema (1) consiste en hallar las distancias mxima y
mnima desde el origen a un punto de la elipse (vase Figura-18.3).

(V3, -V3)

(-V3, V3)

Una fonna alternativa de demostrar que se ha encontrado la solucin es la siguiente, aunque


este mtodo slo funciona en casos particulares. Demostraremos que (x, y)
(1, 1) minimiza a
(x, y) X2 + y2 sujeta a la restriccin X2 + xy + y2 = 3.. Los otros puntos se tratan.de la misma
fonna. Sean x = 1 + h e y = 1 + k. Entonces

(x, y)

= (1 + h)2 + (1 + k)2 = 2 + 2(h + k) + h2 + k 2

(7)

526

Capftulo 18/ Optimizacin restringida

(-1, -1)

FIGURA 18.3

Si (x, y) = (1

+ h, 1 + k) verifica la restriccin, entonces


(1

+ h)2 + (1 + h)(1 + k) + (1 + k)2

luego

h+k

Uevando a (7) esta expresin de h

(x, y) = 2 + 2
Como

(1, 1) =

-hk/3

= 3

(h 2 + k 2 )/3

+ k obtenemos
+ k 2 )] + h 2 + k 2 = 2 +

- k)2

- k)2 ;::: O para todo (h, k), es (x, y) ;::: 2 para todos los valores de (x, y). Como
2, esto significa que (1, 1) realmente minimiza (x, y) sujeta a la restriccin.

Interpretaciones econmicas del multiplicador de Lagrange


Consideremos de nuevo el problema
max f(x, y) sujeta a g(x, y) = e
Sean x* e y* los valores de x e y que resuelven este problema. En general, :i;* e y* dependen de e.
Vamos a suponer que x* = x* (e) e y* = y* (e) son funciones diferenciables de e. Entonces
f*(e)

f(x*(e), y*(e

(18.6)

es tambin funcin de e. A f* (e) se le llama funcin valor ptimo para el problema. Cuando
se use el mtodo lagrangiano, el valor correspondiente 'x(e) del multiplicador de Lagrange tambin
depende de e. Si se satisfacen ciertas condiciones de regularidad tenemos el notable resultado de
que

df*(e) = 'x(e)
de

(18.7)

As, el multiplicador de Lagrans.e ,X = 'x(e) es la tasa de variacin del valor ptimo de la funcin
objetivo cuando la constante de restriccin e cambia.
Demostracin de (18.7) bajo la hiptesis de que f* (e) es diferenciable:
Tomando la diferencial de (18.6) obtenemos

df*(c)

= d(x*,y*) = ;(x*,y*)dx* + ;(x\y*)dy*

(1)

Seco 18.2/ El mtodo de los multiplicadores de LsgnJnge

Por las condiciones de primer orden (18.4), f{(x*,y*) = >.g;(x*,y*) y f;(x*,y*) =


se puede escribir en la fonna

d/* (e) = >.g; (x.*, y*) dx*

527

luego (1)

y*) dy*

(2)

Tomando la diferencial de la igualdad g( x* (e), y* (e)) = e obtenemos

g; (x*, y*) dx*

y*) dy*

= de

luego (2) implica que d/*(e) = >'de.

En particular, si de es un cambio pequeo de e, entonces

j*(e + de) - j*(e)

A(e) de

(18.8)

En aplicaciones econmicas, e designa a menudo el stock disponible de un cierto recurso y f (x, y)


designa a la utilidad o beneficio. Entonces la medida aproximada del aumento de utilidad o beneficio
que se puede obtener de de unidades ms del recurso es A(e) de, con de > O. Los economistas
llaman a A un precio sombra del recurso.
Ejemplo 18.5
Consideremos el problema max xy sujeta a 2x + y = m del Ejemplo 18.3. Con la notacin
anterior, la solucin es x*(m) = m/4, y*(m) = m/2 y A(m) = m/4. Por tanto, el valor de
la funcin es f*(m) = (m/4)(m/2) = m 2/8. Se tiene que df*(m)/dm = m/4 = A(m).
As se confirma (18.7). Sea, en particular, m = 100. Entonces f*(loo) = 1002 /8. Qu ocurre
con el valor de la funcin si m = 100 aumenta en una unidad? Su nuevo valor es f*(101) =
1O2/8, luego f*(101) - f*(loo) = 1O2/8 - 1002 /8 = 1.275,125 - 1.250 = 25,125. Ntese
que la frmula (18.8) predice que f*(101) - f*(loo)
A(loo) . 1 = 251 = 25, que es una
buena aproximacin al valor verdadero de 25,125.
Ejemplo 18.6
Una empresa usa cantidades K y L de capital y trabajo, respectivamente, para producir una cantidad Q de un solo producto, siguiendo la funcin de produccin Q = F_( K, L) = K 1/2 V / 4
Los precios de capital y trabajo son r y w, respectivamente.
(a) Hallar las cantidades K y L que minimizan los costes, as como el coste mnimo, como
funciones de r, w y Q. Designemos por K*, L * y C* a estos valores.
(b) Comprobar que

K* _ ac*
- ar '

L* _ ac*
- aw'

ac*

A=

aQ'

aK*
aw

aL*
ar

donde A designa al multiplicador de Lagrange.


Solucin: (a) La empresa tiene que resolver el siguiente problema de minimizacin de coste:

minC = rK
La funcin lagrangiana es C(K, L)
a cero obtenemos

y W =
As, r =
igualando los resultados obtenemos

+ wL sujeta a Kl/2Ll/4 = Q
= r K + wL - A(Kl/2 Ll/4 - Q).

Igualando las parciales

Despejando A de estas dos ecuaciones e


{1)

528

CapItulo 18/ Optimizacin restringida

Simplificando por Kl/2Ll/4 obtenemos 2rK = 4wL, luego L = (r/2w)K. Llevando este
valor a la restriccin Kl/2Li/4 Q tenemos Kl/2(r/2w)I/4Kl/4 = Q luego

K3/4

= 21/4r- 1/4w 1/4Q

Elevando la ltima igualdad a 4/3 y usando superndices

K*

= 21/3 r -l/3W 1/ 3Q4/3

y as

* se tiene

= (r /2w)K

= Z-2/3 r 2/3 w -2/3Q4/3

El coste mnimo correspondiente es

= rK'" + wL'" = 3. r2/3r2/3wl/3Q4/3

(2)

Finalmente, usando (1) otra vez, hallamos>. = 24/3 r 2/3 w l/3Ql/3. Si se


una demostracin de que K'" y L'" resuelven realmente el problema de minimizacin, vase el Ejemplo 18.8
de la Seccin 18.4.
(b) Por (2) tenemos, en particular, que

aC* = 3.
ar

= 21/3 r -l/3 w l/3Q4/3 = K*

3
Ntese que la tercera igualdad de (b) es un caso particular de (18.7), y vemos que el valor
comn es >. = aC* / aQ = 24/3r2/3 w l/3Ql/3. Se comprueban fcilmente tambin las otras
igualdades.
Nota: Uno de los errores ms frecuentes que aparece en la literatura econmica en lo referente al
mtodo lagrangiano es la afirmacin de que transforma un problema de optimizacin restringida en
uno de hallar un ptimo no restringido de la funcin lagrangiana. El Problema 4 prueba que esto no
es cierto.

Problemas
1 Consideremos el problema max f(x, y) = x

+y

sujeta a g(x, y)

X2

+y =

(a) Escribir la funcin lagrangiana para el problema y resolver las condiciones necesarias en este caso.
(b) Explicar geomtricamente la solucin dibujando las curvas de nivel de f(x, y), junto a la grfica de
la parbola X2 + y = 1. Tiene solucin el correspondiente problema de minimizacin?
(e) Sustituir la restriccin por X2 + y = 1,1 Y resolver el problema en este caso. Hallar el cambio
del valor ptimo de f(x, y) = x + y y comprobar si es aproximadamente igual a ..\ . 0,1 como
indica (18.8).
2 Consideremos el problema

minf(x,y) =

X2

+t

sujeta a x

+ 1,y =

(a es constante)

(a) Resolver el problema usando primero la restriccin para eliminar y. Demostrar que se ha hallado
realmente el mnimo.
(b) Escribir la funcin lagrangiana del problema y resolver las condiciones necesarias en este caso.
CID. ESPOI,

(e) Resolver tambin el problema estudiando las curvas de nivel de f (x, y) = X2 + y2 junto con la
grfica de la recta x + 2y = a en el mismo diagrama. Dar una interpretacin geomtrica del
problema. Tiene solucin el correspondiente problema de maximizacin?
(d) Comprobar la ecuacin (18.7) para este problema.
3 Resolver los problemas siguientes por el mtodo lagrangiano. Probar en cada
la solucin ptima.

C8.W

que se ha encontrado
.

Seco 18.2 I El mtodo de tos multlpHcBdotes de Lsgrange

(a) max X2

+ 3xy + y2

sujeta a x

(b) max 12xvy sujeta a 3x

+ 4y

+y

529

= 100

12

4 Consideremos el problema max xy sujeta a x + y = 2. Usando el mtodo lagrangiano. demostrar que


(x, y) = (1, 1) resuelve el problema con >.
1. Demostrar tambin que (1, 1) no maximiza la funcin
lagrangiana C(x, y) = xy
1 (x + y 2) con>. = 1.

5 Consideremos el problema max lOX1/2yl/3 sujeta a 2x + 4y

= m.

(a) Escribir las condiciones necesarias en este caso, y resolverlas en x. y y >. como funciones de m.
(b) Comprobar (18.1).

= 100 - e-x

6 Consideremos el problema max U(x, y)

e-Y sujeta a px + qy

= m.

(a) Escribir las condiciones necesarias para la solucin del problema y resolverlas para x, y y >. como
funciones de p, q y m.
(b) Demostrar que x e y son homogneas de grado O como funciones de p, q y m. Explicar cmo se
puede llegar a esta conclusin estudiando el enunciado del problema. (Qu ocurre con la restriccin
cuando p, q y m se sustituyen por tp, tq, tm, respectivamente, para un t > 01)

7 Sea p un nmero real fijo y consideremos el problema


min (x, y) = x

+ 2y sujeta a p(x 2 +y2) + X'Zy2

(a) Hallar la solucin del problema para p

= O, suponiendo que x

(b) Para p arbitrario, probar que, para que un punto (x, y) con x
debe verificar las ecuaciones

- 4= O

Oe y

> Oe

O.

> O resuelva el problema (*),


(**)

(c) Supongamos que (* *) define a x e y como funciones continuamente diferenciables de p en un cierto


intervalo centrado en p = O. Por derivacin implcita de (**), hallar las derivadas x'(P) e y'(P) en
p O.
(d) Sea h(p) = x(P)

+ 2y(p); hallar h'(O).

8 Un productor de petrleo comienza la explotacin de un campo petrolfero en el instante t = O. Supongamos que se va a extraer todo el petrleo en el intervalo [O, y] de tiempo y que la produccin por unidad
de tiempo en el instante t E [O, y] es xt(y - t). Supongamos que el productor puede elegir las cantidades
x e y. La cantidad total de petrleo extrada en el tiempo dado viene expresada por la funcin siguiente
de x e y:
Y
g(x, y)
xt(y t) dt

Supongamos adems que el precio unitario p del petrleo es una fuil.ci6n creciente del tiempo, p = 1 + t,
Y que el coste unitario del petrleo extrado es igual a
donde a es una constante positiva. El ingreso
neto por unidad de tiempo es entonces (1 + t - o.y2)xt(y t) yel ingreso neto total en el intervalo [O, y]
es la funci6n de x e y dada por

0.11,

1+
11

(x, y) =

(1

t - o.y2)xt(y - t)dt

Si la cantidad de petrleo que se puede extraer es M, el productor s610 puede elegir valores de x e y tales
que g(x, y)
M. As el problema se formula de esta manera:

max (x, y) sujeta a g(x, y)

(a) Hallar explcitamente (x, y) y g(x, y) calculando las integrales dadas y resolver despus el problema (*).

530

Capftulo 18/ Optimizacin restringida

(b) Cuando o: -+ O, el valor de y que maximiza el ingreso neto tender a oo. Por qu?
(c) Comprobar la ecuacin (18.7) en este caso.

18.3 DEMOSTRACiN ANALTICA DEL MTODO


LAGRANGIANO (OPCIONAL)
El estudio que hemos hecho en la Seccin 18.2 no precisaba las condiciones bajo las que el mtodo
lagrangiano funciona. De hecho, algunos problemas de optimizacin pueden producir inconvenientes
a menos que se tenga buen cuidado. Un caso a tener en cuenta es el problema siguiente:
Ejemplo 18.7
max f(x, y)

= 2x + 3y sujeta a g(x, y) =

.x + .y = 5

Solucin: La funcin lagrangiana es C(x, y) = 2x + 3y - >'(.x + .Jij - 5). As, las tres
condiciones para que (x, y) sea una solucin parece que son
I

>.

C(x,y) = 2 -

r,;.

2yx

= O,

C2 (x,y)

1
= 3 - >.= O,

2.Jij

(1)

Las dos primeras ecuaciones de (1) dan >. = 4ft = 6.Jij. Elevando al cuadrado y eliminando >.2 obtenemos 16x = 36y, lo que implica que y = 4x/9. Llevando este valor a la
restriccin se obtiene (5/3).x = 5, luego x = 9. Se deduce que y = 4. As, el mtodo
lagrangiano indica la solucin (x, y) = (9,4). Adems f(9,4) = 2 9 + 3 4 = 30. Sin
embargo (x,y) = (25,0) tambin verifica la restriccin y f(25,0) = 50. Por tanto, (9,4) no
resuelve el problema dado.
y
(0,25

VX+..fY=5

._.-2x + 3y = 75
(25, O)
2x

+ 3y =

30

2x

+ 3y =

50

FIGURA 18.4 El punto P minimiza 2x+3y cuando Vx+yfy

=5, mientras que (O, 25) la maximiza.

Hay solucin al problema de maximizacin? S. De hecho, el conjunto de los puntos que


satisfacen la restriccin es la curva de la Figura 18.4, que es un conjunto cerrado y acotado. Por
tanto, la funcin continua f (x, y) = 2x + 3y alcanza en esta curva un mximo y un mnimo en
virtud del teorema de los valores extremos. Explicamos a continuacin cmo se casa esto con lo que
hemos obtenido por el mtodo de Lagrange.
La solucin al problema se logra estudiando las curvas de nivel de f(x, y) = 2x + 3y, que son
rectas. El valor mnimo de f(x, y) sujeta a la restriccin dada es el punto P = (9,4) que hemos
hallado con los clculos anteriores. El mximo se alcanza en el punto (0,25), con f(O, 25) = 75.
Este punto es indetectable por el mtodo lagrangiano.
El razonamiento que dimos para la condicin (18.3), que era la base del mtodo lagrangiano, es
vlido tambin para puntos ptimos locales de f(x, y) sujeta a g(x, y) = c. La Figura 18.5 iiustra

S8C; 18.3/ Demostracin analftica del mtodo lIiJgrangiano (opcional)

g(x,y)

531

e
=4
f(x, y) =3
f(x,y) = 2
J(x,y) = 1

-+-------------------------+x
FIGURA 18.5 Curvas de nivel para z

='(x, y), junto con la grfica de g(x, y) =c.

los conceptos de puntos ptimos locales y globales en este marco. El punto R es un mnimo local
de (x, y) sujeta a g(x, y) = e, y Q, P son mximos locales. El mximo global de (x, y) sujeta
a g(x, y) = e se alcanza solamente en P. Cada uno de los puntos P, Q y R de la Figura 18.5
verifica la condicin necesaria (18.3). Un resultado preciso es el siguiente:

Teorema 18.1 (Teorema de Lagrange)


Supongamos que (x, y) y g(x, y) tienen derivadas parciales continuas en un dominio A del
plano xy y que (xo, Yo) es un punto interior de A y un ptimo local para (x, y) sujeta
a la restriccin g( x, y) = e. Supongamos adems que no se anulan a la vez (xo, Yo) Y
Yo). Existe un nmero nico A tal que la funcin lagrangiana
(x, y) - A (g(x, y) - e)

C(x, y)

tiene un punto estacionario en (xo, Yo).

Demostracin: Supongamos que


Yo) '" O. Por el teorema de existencia de funciones implcitas (vase
la Nota al final de la Seccin 16.3), la ecuacin g(x, y) = e define a Y como funcin diferenciable de x en un
cierto entorno de (xo, Yo). Si designamos por Y = h(x) a esta funcin, entonces

y' = h' (x)

-g: (x, y)/

y)

Cuando g(x, y)
e se sustituye por y = h(x), el problema de maximizacin restringida (18.2) se reduce al
problema de maximizar z (x, y) = (x, h(x con respecto a la nica variable x. Una condicin necesaria
de mximo es que la derivada total de z con respecto a x sea O. Como

dz
dx

[(x, y) +

y)y'

(con y' = h'(x

sustituyendo y' por su valor se obtiene la siguiente condicin necesaria para que (xo, Yo) sea un punto ptimo
local:

dz
dx

)g;(xo, Yo)
1'(Xo, Yo ) - J'(
2 XO, Yo
,(
)
g2 Xo, Yo

= O

(18.9)

Poniendo>.
(xo, Yo)/
Yo) vemos que las condiciones (18.4) de punto estacionario de antes se verifican en (xo, Yo), luego la funcin lagrangiana tiene un punto estacionario en (x, Yo).
Hemos supuesto que
Yo) '" O. Si
Yo) = O, las hiptesis implican que g; (xo, Yo) '" O.
Entonces el teorema de la funcin implcita nos dice que g(x, y) = e define a x como funcin diferenciable dt'l
yen un entorno de (xo, Yo). El resto del razonamiento es anlogo, con x e y intercambiados.

532

Capftulo 18/ Optimizacin restringida

Reconsideremos la dificultad que encontramos en el Ejemplo 18.7 a la luz del Teorema 18.1.
La funcin f(x, y) = 2x + 3y es continuamente diferenciable en todo el plano. Sin embargo, la
funcin de restriccin g(x, y) = Vx + .fij est definida solamente para x
Oe y
O. Sus
1/2.fij. Vemos que 9 es continuamente
derivadas parciales son (x, y) = 1/2Vx Y gi(x, y)
diferenciable slo en el conjunto A de los puntos (x, y) tales que x > O e y > O. Ntese que gj y
son distintas de O en todos los puntos del conjunto abierto A. El Teorema 18.1 nos dice que un
punto de A que est sobre la curva de restriccin y resuelva nuestro problema debe satisfacer a (1)
del Ejemplo 18.7. All encontramos slo un punto con esta propiedad. a saber (9,4). Sin embargo.
hay que examinar otros dos puntos fuera de A: los puntos frontera (25, O) Y (0,25) sobre la curva
de restriccin. Como f(9,4) = 30, f(25,0) = 50 Y f(0,25)
75, deducimos que el mnimo es
(9,4) Y el mximo es (0,25). Por el razonamiento del Ejemplo 18.7 sabemos que se alcanzan el
mximo y el mnimo.

Problemas
1 El texto siguiente est tomado de un libro de matemticas de gestin y contiene errores graves. Detectarlos
y corregirlos. "Consideremos el problema general de hallar los puntos ptimos de z (x, y) sujeta a la
restriccin g(x, y) O. Claramente los puntos ptimos deben verificar el par de ecuaciones
y) = O,
(x, y) = O adems de la restriccin g(x, y) = O. Hay as tres ecuaciones que se deben verificar por el
par de incgnitas x, y. Como hay ms ecuaciones que incgnitas, el sistema se llama superdetenninado
y, en general. es difcil de resolver. Para facilitar los clculos ... " (Sigue una descripcin del mtodo
lagrangiano) .
2 Consideremos el problema

(a) Tratar de resolver el problema reducindolo a uno de minimizacin en (i) la variable x; (ii) la variable
y. Comentar.
(b) Resolver el problema usando el mtodo lagrangiano.
(c ) Dar una interpretacin geomtrica del problema.

Problemas avanzados
3 Sean

y 9 las funciones definidas por

(x, y)

(x

+ 2)2 + y2

Hallar el valor mnimo de (x, y) sujeta a g(x, y)


incluir todos los puntos que satisfagan g(x, y) = O)

= O.

g(x, y)

= y2

x(x + 1)2

(Sugerencia: Dibujar la grfica. Asegurarse de

18.4 CONDICIONES SUFICIENTES


Bajo las hiptesis del Teorema 18.1 el mtodo de los multiplicadores de Lagrange para el problema
max(min) f(x, y) sujeta a g(x, y) = e

(18.10)

da condiciones necesarias para la solucin del problema. Para poder asegurar que hemos hallado
realmente la solucin necesitamos ms argumentos. A veces podemos apoyarnos en el teorema de
los valores extremos (como en el Ejemplo 18.4 y el 18.7), o en mtodos ad hoc (como al final del
Ejemplo 18.4).
Si (xo, Yo) resuelve el problema (18.10), la lagrangiana C(x, y) = f(x, y)
,x(g(x, y) - e)
es estacionaria en (xo, Yo), pero no tiene necesariamente en l un mximo o mnimo (vase el

Sec. 18.4/ Condiciones sufiCIfIIIt8S

533

Problema 4 de la Seccin 18.2). Sin embargo, supongamos que (xo, Yo) maximiza a C(x, y) entre
todos los (x, y). Entonces

C(xo 1 Yo)

(xo 1 Yo)

).(g(xo, Yo)

C(x, y)

c)

(x, y)

).(g(x, y)

c)

(*)

para todo (x, y). Si (xo, Yo) verifica tambin la restriccin g(xo, Yo) = C, entonces (*) se reduce a
(x, y) para todo (x, y) tal que g(x, y) = c. Por tanto, (xo, Yo) resuelve realmente el
problema de maximizacin (18.10). Se obtiene un resultado correlativo para el problema de minimizacin (18.10), siempre que (xo 1 Yo) minimice a C( x, y) entre todos los pares (x, y). Combinando
esta observacin con el Teorema 17.8 se obtiene el siguiente:

(xo 1 Yo)

Teorema 18.2

(Suficiencia global)

Supongamos que las funciones (x, y) y g(x, y) del problema (18.10) son continuamente diferenciables en un conjUnto abierto convexo A de JR2 y sea (xo, Yo) E A un punto estacionario
para la funcin lagrangiana

C(x, y)
Supongamos adems que g(xo, Yo}

(x, y) - ).(g(x, y) - c)
c. Entonces

C(x, y) cncava ==:::;. (xo, Yo) resuelve el problema de maximizacin de (18.10)


C(x, y) convexa ==:::;. (xo, Yo) resuelve el problema de minimizacin de (18.10)
).(g(x, y) c) es cncava si (x, y) es cncava y ).g(x, y) es
Ntese que C(x, y) = (x, y)
convexa porque entonces C(x, y) = (x, y) + [-).g(x, y)] + ).c es suma de funciones cncavas.
Ejemplo 18.8
Consideremos el Ejemplo 18.6 de la Seccin 18.2. La funcin lineal r K + wL es convexa y la
funcin de Cobb-Douglas Kl/2V/4 es cncava (vase Ejemplo 17.18, Seccin 17.8). Como
).
O, la funcin lagrangiana

C(K, L) = rK + wL + (_).)(Kl/2V/4 - Q)
es suma de dos funciones convexas y. por tanto, es convexa. Por el Teorema 18.2, el par
(K* , L *) minimiza el coste.

Condiciones suficientes locales


Consideremos el problema de maximizacin (o minimizacin) local restringida
max(min) local (x, y) sujeta a g(x, y)

(18.11)

Nuestro razonamiento para las condiciones de primer orden es el siguiente. Cuando gi(x, y) ::/: O, el
objetivo z = (x, y) es, de hecho, una funcin de x nicamente por la presencia de la restriccin.
Hallando dz / dx, y teniendo en cuenta que Y depende de x, obtenemos una condicin necesaria de
puntos ptimos locales. Para hallar una condicin suficiente estudiamos el signo de z / dX2 Se
tiene que (18.9) implica que

dz
dx

= 1(X, y)

f' (x,
2

(x, y)
y)

(1)

534

Capftu!o 18/ Optimizacin restringida

La derivada tf2z/dx 2 es la derivada total de dz/dx con respecto a x. Suponiendo que f y 9 son
funciones continuamente diferenciables dos veces, y recordando que y es funcin de x, obtenemos

tf2 z
dX2

f" + f" '_ (f" + f" ') gl' _


II
12Y
21
nY

,./, + g12Y
" ' )g2' - ("
" ').'11,./
f' (.'In
g21 + g22Y
2

Como f y 9 son funciones continuamente diferenciables dos veces, fi;


fii y gii !lil' Ms an,
y' =
Tambin es fi =
y fi =
porque sas son las condiciones de primer orden.
Usando esas relaciones para eliminar y' y fi, as como algunos clculos algebraicos elementales,
obtenemos
1

11

(2)

(fu

La expresin larga entre corchetes se puede escribir de una forma simtrica que es mucho ms fcil

de recordar. En efecto, usando el resultado de (**) al final de la Seccin 15.8, si ponemos


O

D(x,y)
gHx, y)
entonces

gi(x, y)
ffi(x, y) fii (x, y) (x,y)

y) -

(18.12)
y)

tf2z
1
-dx-2 = - [gHx, y)]2 D(x, y)

(18.13)

Ntese que la matriz 2 x 2 abajo a la derecha de (18.12) es la hessiana de la funcin lagrangiana.


As se llama al determinante un bessiano ampliado.
As hemos llegado al resultado siguiente:

Una condicin suficiente para que (xo, Yo) resuelva el problema (18.11) es que satisfaga las
condiciones de primer orden y, adems, que el hessiano ampliado D(xo, Yo) dado por (18.12)
sea > O en el caso de maximizacin y < O en el de minimizacin.

(18.14)

Las condiciones sobre el signo del determinante D(x, y) se llaman las condiciones locales de
segundo orden para el problema (18.11).

Ejemplo 18.9
Consideremos el problema
max (mio) local f(x, y) = X2

+ y2 sujeta a g(x, y) = X2 + xy + y2

(vase Ejemplo 18.4). Las condiciones de primer orden producen los puntos (1,1) y (-1, -1)
con A = 2/3, as como (0, -0) y (-0,0) con A = 2. Comprobar las condiciones de
segundo orden en este caso.
Solucin: Se tiene que fti

= 2,

D(x, y)

= O,

= 2, gi'l = 2, gi2 = 1 Y

O
2x+y x+2y
2x+y 2-2A
-A
x +2y
-A
2 - 2A

= 2, luego

Seco 18.5/ Problemas lagranglsnos mis fJ6I1iHS/es

535

Calculando los cuatro detennmantes de orden 3 con el correspondiente valor de A obtenemos


D(I, 1) = D( -1, -1) -24 Y D( 0, -0) D( -0,0) = 24. Deducimos que (1,1)
Y (-1, -1) son mnimos locales, mientras que (0, - 0) y (- 0, 0) son mximos locales.
En el Ejemplo 18.4 hemos demostrado que esos puntos eran ptimos globales.

Problemas
1 Usar el Teorema 18.2 para comprobar la solucin ptima del Problema 5 de la Seccin 18.2.
2 Consideremos el problema min X2 + y2 sujeta a x + 2y
a. Calcular el D(x, y) de (18.12) en este caso.
Comparar con el resultado del Problema 2, Seccin 18.2.

18.5 PROBLEMAS LAGRANGIANOS MS GENERALES


Los problemas de optimizacin restringida que se tratan en economa necesitan usualmente de ms
de dos variables. Comenzamos considerando el problema
max(min) f(x, ... ,xn ) sujeta a g(X., ... , x n )

(18.15)

Se puede generalizar fcilmente el mtodo de Lagrange de las secciones anteriores. Como antes, se
asocia un multiplicador lagrangiano A a la restriccin y se forma la funcin lagrangiana

C(Xl""'X n )

= f(Xl'''''X n )

A(g(X, ... ,Xn)

e)

(18.16)

Despus se calculan las derivadas parciales de C y. se las iguala a cero, formando el sistema

f:(xl, ... ,xn )

,xn )

( 18.17)

... ,xn ) -

. .. , x n )

Estas n ecuaciones junto con la restriccin, forman un sistema de n


que calcular las n + 1 incgnitas xl, ... , Xn y A.

+ 1 ecuaciones con las que hay

Nota: Este mtodo no dar, en general, las condiciones necesarias correctas si todas las parciales
de primer orden de g(x, ... , x n ) se anulan en el punto estacionario de la funcin lagrangiana. En
caso contrario, la demostracin es una generalizacin fcil de la del Teorema 18.1. Si, por ejemplo,
ogjoxn i= O, "resolvemos" g(x, ... , x n ) = e en Xn y reducimos el problema a uno de ptimos
sin restricciones en x, ... , Xn-l (vase el Problema 11 para el caso n = 3).
Ejemplo 18.10
Hallar la nica solucin posible al problema

max X2 y 3 z sujeta a x+y+z

(1)

12

Soluci6n: La funcin lagrangiana es

C(x,y,z)=X 2y 3 z

A(x+y+z-12)

(2)

Las condiciones de primer orden (18.17) se reducen a

oC

= 2xy 3 Z - A

O,

oC

ay

= 3x2y2 Z - A

O,

oC
2 3
- = x y -A=O

OZ

(3)

Si una cualquiera de las variables X, y, z es 0, entonces X 2 y 3 z = 0, que no es el valor mximo.


Supongamos, por tanto, que x, y y z son todas i= O. De las dos primeras ecuaciones de (3)

536

Capftulo 18/ Optimizacin restringida

sacamos que 2xy 3 z = 3x 2y2 z, luego y


3x /2. De las ecuaciones primera y tercera de (3)
obtenemos anlogamente z
x/2. Llevando los valores y = 3x/2 y z = x/2 a la restriccin
deducimos que x + 3x/2 + x/2 = 12, luego x = 4. Entonces y
6 Yz
2. As, la nica
solucin posible es (x, y, z) = (4,6,2).

Ejemplo 18.11
En el problema (18.1) de la introduccin, la funcin lagrangiana es
C(XI"" ,xn ) = U(Xh'" ,xn ) - A(PIXI

+ ... + Pnxn

- m)

luego
,xn ) = U:(Xh"" x n ) - APi

(i=l, ... ,n)

Escribiendo x = (XI," ., x n ) tenemos


U(x) = Ui(x)

PI

...

P2

( 18.18)

Pn

Aparte de la ltima ecuacin, que sirve solamente para determinar el multiplicador de


Lagrange A, tenemos n - 1 ecuaciones. Para n
2 hay una ecuacin, para n
3 hay dos
ecuaciones, y as sucesivamente. Adems se tiene que verificar la restriccin. Tenemos as n
ecuaciones para determinar los valores de Xl, . ,Xn . La derivada parcial U:(x) = OU/OXi
se llama la utilidad marginal del i-simo bien.
Las ecuaciones (18.18) dicen que, si x = (Xl, .. ' ,Xn ) maximiza la utilidad sujeta a la
restriccin presupuestaria, entonces la razn entre la utilidad marginal de un bien y su precio
unitario debe ser el mismo para todos los bienes.
Supongamos que el sistema (18.18) con la restriccin presupuestaria se puede resolver
en xh"',X n como funciones de PI"",Pn Y m, dando Xi = Di(pI, ... ,Pn,m), i
1, ... ,n. Entonces Di (PI' ... ,Pn, m) representa la cantidad del i-simo bien que demanda el
individuo a los precios PI, ... ,Pn Y con una renta m. Por esta razn, DI, . .. , Dn se llaman
las funciones de demanda individuales.
.

Ejemplo 18.12
Un individuo compra cantidades a, b y e de tres bienes distintos cuyos precios son p, q y
r, respectivamente. La renta (exgena) del consumidor es m, con m > 2p, Y la funcin de
utilidad es U(a, b, e) = a + ln(be).
Hallar la demanda del consumidor de cada uno de los bienes como funcin de los precios
p, q, r y la renta m. Probar que el gasto en cada uno de los bienes segundo y tercero es
siempre igual a p.
Solucin: Aqu U{(a,b, e)
1, Ui(a,b,e)
Las ecuaciones (18.18) implican que

l
P

(l/be)e

= l/b Y U;(a,b,e) =

(l/be)b

l/e.

= l/b = l/e = A

q
De la primera igualdad obtenemos que qb

P Y de la segunda que re = p, luego el gasto


en cada uno de los bienes segundo y tercero es igual a p. Llevando qb
P y re = P a la
restriccin presupuestaria obtenemos pa + P + P = m, luego a = m / P 2. sta es positiva
cuando m > 2p. As, para m> 2p, las funciones de demanda son a = (m/p) - 2, b = p/q
ye

piro

Seco 18.5/ Problemas lagranglanos IMsgsneral86

537

El caso general
A veces los economistas tienen que trabajar con problemas de optimizacin con ms de una restriccin. El problema lagrangiano general correspondiente es

max(min) f(Xh ... ,xn ) sujeta a

{91(X' ... ,xn)

CI

.................. .

9m(Xh' .. ,xn)

(18.19)

Cm

Se puede extender el mtodo de los multiplicadores de Lagrange para resolver el problema (18.19).
Se asocian multiplicadores de Lagrange a cada una de las m restricciones, y se define la nueva
funcin lagrangiana por
m

C(x, ... ,xn ) = f(x, ... ,xn ) - Aj(9j(Xh'" ,xn ) - Cj)

(18.20)

j=l

Las condiciones necesarias de primer orden que un ptimo debe verificar son que se anulen las
derivadas parciales de la funcin lagrangiana con respecto a cada Xi. En smbolos:4

8C
8Xi

8f(XI,''''X n ) _
8
Xi

j=l

,].89j (XI""'X n ) =0
. 8Xi

(i=I,2, ... ,n)

Entre esas n ecuaciones y las m restricciones se forma un sistema de n


n + m incgnitas Xl, ,xn , Al, ... , Am.

(18.21)

+ m ecuaciones en las

Ejemplo 18.13
Resolver el problema max(min) x 2 + y2
X

+ Z2 sujeta a las restricciones


+ 2y + Z 1

2x Solucin: La funcin lagrangiana es


C(x,y,z) x 2 + y2 + Z2 - AI(X

3z

(1)
(2)

=4

+ 2y + z -

1)

A2(2x - y - 3z - 4)

Las condiciones de primer orden (18.21) son

8C

(3)

+ A2

(4)

Al + 3A2

(5)

8x = 2x - Al - 2A2

8C

8y

= 2y - 2AI

8C

-8z = 2z

As tenemos cinco ecuaciones, (1) a (5), para determinar las cinco incgnitas x, y,
Se pueden despejar Al y A2 de (3) y (4):

2
4
Al = sX + sy ,

4
sX

A2

2
sy

Z,

Al y A2.

(6)

Llevando estos valores a (5) y simplificando tenemos

x-y+Z

gi

(7)

4 En el Teorema 18.1 supusimos que


y
no se anulan simultneamente. La condicin correspondiente aqu es que
los vectores gradiente gl .. gm sean linealmente independientes en R n .
.

538

Captulo 18/ Optimizacin restringida

Esta ecuacin, junto con (1) y (2) forman un sistema de tres ecuaciones lineales en las incgnitas x, y y z. Resolvindolo por la regla de Cramer (o mejor por eliminacin) obtenemos

16
15 '

Y = 3" '

11
15

(8)

Los valores de los multiplicadores son Al 52/75 Y A2 = 54/75.


Vamos a dar una razn geomtrica de por qu (8) resuelve el problema de minimizacin.
Cada una de las dos restricciones representa un plano en ]ft3 y los puntos que verifican ambas
son los de la recta interseccin. Ahora bien, X2 + y2 + Z2 es el cuadrado de la distancia del
origen al punto (x, y, z). Por tanto, nuestro problema es hallar las distancias mnima y mxima
del origen a los puntos de una recta. Evidentemente no hay distancia mxima pero s mnima,
la cual se alcanza en el punto que hemos hallado.

Problemas

cy Consideremos el problema min

X2

+ y2 + Z2 sujeta a x + y + z

= 1.

(a) Escribir la funcin lagrangiana para este problema y hallar el nico punto (x, y, z) que verifica las
condiciones necesarias.
(b) Dar un razonamiento geomtrico para la existencia de solucin. Tiene solucin el problema correspondiente de maximiz.acin?

(3 Resolver el problema min x + 4y + 3z sujeta a

X2

+ 2y 2 +

= b. (Supongamos que b
.

problema tiene solucin.)

> O Y que el

Un individuo consume semanalmente las cantidades x e de dos bienes y trabaja durante


eligen esas cantidades de tal manera que maximicen la funcin utilidad

U(x, y,e) = ex lnx + 3lny + (1

e horas.

Se

ex - 3) ln(L - e)

definida para O S e < L, x, y > O, donde ex y 3 son parmetros positivos que verifican ex + 3 < 1.
El individuo tiene la restriccin presupuestaria px + qy = we + m, donde m (2:: O) designa renta no
salarial.

(a) Suponiendo que

ms
hallar las demandas x,

ex;3 3)WL

y y el trabajo edel individuo como funciones de p, q, r

-*

(b) Qu ocurre cuando se viola la desigualdad (*)?

y m.

4 Consideremos el problema del Ejemplo 18.13, y sea (x, y, z) =


+ k,
+e). Demostrar que,
si (x, y, z) satisface ambas restricciones, entonces k = -h ye = h. Probar entonces que (x, y, z)
(16/15)2 (1/3)2 + (-11/15)2 + 3h 2 Cul es la conclusin?

5 Resolver el problema siguiente, suponiendo que tiene solucin

min

X2 -

2x + 2y2

+ Z2 + z

sujeta a

{2x + yy-z
+z
X

6 (a) Usando el mtodo de Lagrange, hallar posibles soluciones del problema


max (min) x

+y+z

sujeta a

x 2 + y2 +z2 = 1
{ x -y
z=1

Seco 18. 6/lnterpretaciones econmicas de Jos muItipIIcIJtJDr de Ugtange,

539

(b) Dar una interpretacin geomtrica de las restricciones, y usar el teorema de los valores extremos para
demostrar que existen los valores mximo y mnimo. Hallar los mximos y mnimos.
@esolver el problema

max (mm) x

+" y

sUjeta a

{ X2
x

+ 2y 2 + z2 = 11
+ y + z

8 Un problema estadstico exige resolver

minaixi +

+ ... +

sujeta a X

+ X2 + ... + Xn = 1

Resolver el problema, supuesta la existencia de solucin.

Problemas avanzados
0<a) Supuesta la existencia de solucin, resolver el problema

min f(x,y,z)

= (y + z -

3)2 sujeta a

{xl +

Y/ 2Z = 22

x +y

(b) Las condiciones necesarias de la parte (a) tienen dos soluciones. Se puede pensar que una que no
resuelve el "problema de minimizacin debe resolver el de maximizacin. Probar que esto no ocurre
en este caso.
10 Consideremos el problema del Ejemplo 18.11. Hallar las funciones de demanda cuando (cf. Problemas 10
y 11 en la Seccin 17.1):
(a) U(XI>"" x n ) = Axfl ...
(b) U(x, .. ,xn )

(A > O, a > 0, ... , an


(O<a<l)

> O)

11 Consideremos el problema max (min) f(Xh X2, X3) sujeta a g(x, X2, X3) = c. Supongamos que la
restriccin define X3 como una funcin continuamente diferenciable de Xl y X2. Deducir (18.17) para
n = 3 usando la idea de la demostracin analtica de (18.9) en la Seccin 18.3. (Indicacin: Sea
A f;/gD.

L:

12 Consideremos el problema max x' Ax


L:;= aijXiXj sujeta a x'x =
ai 1 (con A simtrica).
Demostrar que todo vector solucin Xo debe ser un autovector de A. Si \, es el autovalor asociado, probar
As, el valor mximo de x' Ax sujeta a la restriccin dada es el mayor autovalor de
que Ao =
A. (Indicacin: Considerar primero el caso n
2.) Qu se puede decir del problema de minimizacin
correspondiente?

18.6 INTERPRETACIONES ECONMICAS DE LOS


MULTIPLICADORES DE LAGRANGE
En la Seccin 18.2 hemos visto que se puede dar una intetpretacin interesante del multiplicador de
Lagrange para el problema de maximizar (x, y) sujeta a g(x, y) = e, como un valor marginal.
En esta seccin se generaliza este resultado. Usando notacin vectorial x = (x\) . .. ,xn ), se puede
general (18.19) como
formular ms concisamente el problema lagI'l!tlgiano
/'

xr, .. :

max(min) (x)

sujeta a gj(x)

= ej,

j = 1, ... ,m

(18.22)

Sean
los valores de Xl, . ,Xn que verifican las condiciones necesarias para la solucin
de (18.22). En general,
...
dependen de los valores de' el, ... , Cm. Suponemos que xi
xi( eh ... ,Cm) (i = 1, ... , n) son funciones diferenciables de eh"" Cm. El valor asociado

540

CapItulo 18/ Optimizacin restringida

f* de j es tambin funcin de el, ... , Cm. En smbolos, si se pone x*


(el, ... , Cm), entonces
f*(e) = j(x*(c)) = j(x;(e), ... ,

(x;, ...

ye =

(18.23)

La funcin f* se llama la funcin valor ptimo del problema (18.22). Los multiplicadores de
Lagrange asociados a x* dependen tambin de el, ... , Cm. Bajo unas ciertas hiptesis de regularidad
se tiene

(i=l, ... ,m)

(18.24)

El multiplicador de Lagrange..\i = ..\i (e) de la i-sima restriccin es la tasa de variacin del valor
ptimo de la funcin objetivo respecto a los cambios de la constante C. El nmero ..\i se llama precio
sombra (o valor marginal) de una unidad del recurso i.

Demostracin informal de (18.24):


Tomando diferenciales en eI8.23) se obtiene
n

d*ec) = dfex*ec)) = "LJ:ex*ec)) dxiec)


i=l

Las condiciones de primer orden de eI8.21) implican que

fex*ec))

AJ' 8gj ex*ec))

Tomando tambin diferenciales en cada identidad gjex*ec))

i=l

= Cj

8gjex*ec)) d *e ) - d .
x e - cJ

8x'

ei=I, ... ,n)

8x'

j=l

se obtiene

(j = 1, ... ,m)

Por tanto,

= Ajdcj
j=l

Supongamos que e = (el, ... , Cm) vara en d.e = (del, ... , dCm). Segn la Seccin 16.8, si del,
... , dCm son pequeos en valor absoluto, entonces

f*(e

+ de) -

f*(e)

..\1 (e) del

+ ... + ..\m(e) dCm

(18.25)

Ejemplo 18.14
En el Ejemplo 18.11 de la Seccin 18.5, sea U*(PI, ... ,Pn,m) la utilidad mxima que se
obtiene cuando los precios son PI, ... , Pn Y la renta es m. A esta U* se la llama la funcin
de utilidad indirecta. Usando (18.24) vemos que
8U*

..\ = -

8m

(18.26)

Seco 18.6/ Interpretaciones econmicas de los muItJp/IoadtJr8 de I(IIaItgIJ

541

As, A es aproximadamente el aumento de utilidad mxima que proviene de aumenl:ar 1& renta
en una unidad. Por tanto, se llama a A generalmente la utilidad marginal de la renta.
Ejemplo 18.15
Consideremos el problema del Ejemplo 18.13 de la Seccin 18.5, y supongamos que se cambillD
las restricciones, tomando como primera x + 2y + z = 0,9 Y como segunda 2x -11 - 3z = 4,1.
Hacer una estimacin del cambio correspondiente en la funcin valor usando (18.25). Hallar el
nuevo valor de la funcin valor.
Solucin: Usando la notacin de (18.22) a (18.25) y los resultados del Ejemplo 18.13, tenemos
= 1, e2 4, del = -0,1, de2 = 0,1, A1(1,4) 52/75, A2(1,4) = 54/75 Y

el

l*(elle2)

= 1*(1,4) = (16/15)2 + (1/3)2 + (-11/15)2 = 402/225

Entonces (18.25) da

1*(1 - 0,1 ,4 + 0,1) - 1*(1 , 4)

Al (1, 4) del + A2(1 , 4)


(52/75)( -0,1) + (54/75)(0,1)

0,2/75

As, 1*(0,9,4,1) = 1*(1 - 0,1 , 4 + 0,1)


402/225 - 0,2/75 = 401,4/225 = 1,784. Para
hallar el valor exacto de 1*(0,9, 4,1), obsrvese que (7) del Ejemplo 18.13 sigue siendo vlida.
As tenemos las tres ecuaciones

2x - y - 3z = 4,1 ,
x-y+z=O
x + 2y + z = 0,9 ,
cuyas soluciones en x, y y z son 1,06,0,3 Y -0,76, respectivamente. As, 1*(0,9,4,1) =

(1,06)2 + (0,3)2

+ (-0,76)2 =

1,7912.

Problemas
1 Comprobar (18.24) para el Problema 2 de la Seccin 18.5.

2 Consideremos el problema
max (x, y, z)

4z - x

y2 - Z2 sujeta a g(x, y, z)

z - xy

(a) Usar el mtodo de Lagrange para hallar condiciones necesarias para una solucin del problema, y
hallar todos los (x, y, z) que las verifican.
(b) El punto (1, 1, 1) es un mximo de (*). Hallar un valor aproximado de la variacin del valor mximo
de si se cambia la restriccin de z xy = O a z xy = 0,1.

3 Consideremos el problema

(1)
max

XI

+ Xl + Xl + X4

sujeta a

(2)

XIX2X3X4

+ X4 =

144

(3) x, ... , X4 son todas

2: O

(a) Escribir las condiciones necesarias para la solucin de este problema.


(b) Probar que las condiciones necesarias implican que
tiene solucin. hallarla.

Xl

Xl

Y X3

= X4.

Suponiendo que el problema

(c) Supongamos que se cambia la restriccin (2) a XX2X3X4 = 145. Hallar el cambio aproximado en el
valor ptimo de Xl + Xl + Xl + X4 sin rehacer el problema completo

542

Captulo 18/ Optimizacin restringida

18.7 RESULTADOS SOBRE ENVOLVENTES


Los problemas de optimizacin en economa usan normalmente funciones que dependen de un
nmero de parmetros, como precios, porcentaje de impuestos, niveles de renta y dems. Aunque
esos parmetros se mantienen constantes durante la optimizacin, pueden variar segn la situacin
econmica. Por ejemplo, podemos calcular el beneficio mximo de una empresa considerando los
precios a que se enfrenta como parmetros, pero luego podemos querer averiguar cmo ese beneficio
mximo responde a los cambios de esos precios. As que es importante saber qu ocurre con la
solucin ptima cuando la situacin cambia -esto es, cuando cambian los parmetros. Los multiplicadores de Lagrange que hemos estudiado en la seccin anterior daban cierta informacin de este
tipo. Ms generalmente, consideremos el problema
maxf(x,r) sujetaagj(x,r) =0, j = 1, ... ,m
x

(18.27)

donde r = (r, ... , rk) es un vector de parmetros. Aqu r se mantiene constante durante la
maximizacin con respecto a x = (XI, ... , x n ). Ntese que los parmetros pueden aparecer tanto
en el objetivo como en las funciones de restriccin. El valor mximo de f(x, r) que se obtenga
para (18.27) depender de r y lo designaremos por f*(r). Suponiendo que existe ese valor mximo,
j*(r) = max {f(x, r) : gj(x, r) = 0, j = 1, ... , m}

(18.28)

As f* (r) es el mximo de todos los nmeros f(x, r) cuando x recorre el conjunto de los que
verifican que gj(x, r) = 0, j = 1, ... , m. La funcin f*(r) se llama la funcin valor del problema (18.27). Si designamos por xr(r), ...
los valores de XI, ,X n para los que se
alcanza el valor mximo en (18.28), entonces
j*(r) = f(x*(r), r) = f(x;(r), ... ,

rl, ... , rk)

(18.29)

Consideremos primero el caso en que no hay restricciones. Si n = 1, la funcin f* (r) es la


"envolvente" de todas las funciones f(x, r) en el sentido que especificamos en la Figura 18.6.
y

f(xI,r)

FIGURA 18.6 La funcin f*(r) es la "envolvente" de todas las funciones f(x, r) distintas.

El resultado siguiente muestra en general cmo derivar la funcin valor:

Si f*(r) = maxx f(x, r) y x*(r) es el valor de x que maximiza f(x, r), entonces

of(x*(r), r)
orj

(j=I, ... ,k)

(18.30)

Seco 18.7/ Resultados sobre envolventes

543

Los economistas llaman a (18.30) un teorema de envolvente. Es un resultado muy til que
se debe estudiar con atencin. Ntese que si vara r j, entonces f* (r) cambia por dos razones: En
primer lugar, un cambio en rj cambia el vector r y as cambia f(x, r) directamente. En segundo
lugar, un cambio en rj cambia todas las funciones xr(r), ... ,
y, por tanto, f(x"'(r), r) cambia
indirectamente. El resultado de (18.30) demuestra que el efecto total sobre la funcin valor de un
pequeo cambio en rj se puede hallar calculando la derivada parcial de f(x"'(r), r) con respecto a
r j, ignorando el efecto indirecto de la dependencia de x* de r. A primera vista esto es sorprendente.
Sin embargo, despus de una reflexin ms cuidadosa se puede ver que las condiciones de primer
orden para que x*(r) maximice a f(x, r) con respecto a x implican que cambios pequeos de x
inducidos por un cambio pequeo de r tienen efectos casi nulos sobre el valor de f (x'" , r). Esto se
confirma en la demostracin que damos un poco ms adelante.
Consideremos a continuacin el problema ms general (18.27) y supongamos que >'i = >.(r),
i = 1, ... , m, son los multiplicadores de Lagrange que se obtienen de las condiciones de primer
orden para el problema. Sea L:(x, r) = f(x, r)
'E,r; >'j9j(X, r) la funcin de Lagrange correspondiente. Entonces:

&f*(r)
&rj

&L:(x*(r), r)
=

(j = 1, ... , k)

&rj

(18.31)

Segn este resultado, el efecto total sobre el valor de f*(r) de un cambio pequeo de rj se puede
hallar derivando parcialmente la funcin lagrangiana L:(x, r) con respecto a rj, considerando como
constantes las x y las >.. ste es el teorema de la envolvente general. La demostracin de este
resultado que damos a continuacin supone que f*(r) es diferenciable y es muy semejante a la
de (18.24).
Demostracin de (18.31):
Usando la regla de la cadena para derivar (18.29) con respecto a Th obtenemos
n

I:
.=1

8f(x*(r),r) 8xi(r)

--

8X

8Th

+ 8f(x*(r),r)
8Th

(1)

Por las condiciones de primer orden para el problema (18.27), para todo i = 1, .. , n,

8f(x*(r),r)
8Xi

Por tanto, podemos escribir (1) en la forma

(2)

Ahora bien, usando la regla de la cadena para derivar la identidad gj (x* (r), r) = O con respecto a T h obtenemos

544

CapItulo 18/ Optimizacin restringIda

que se verifica para todo j = 1, ...

,m. As se puede escribir (2) como


8C(x*(r), r)
8Th

Como la diferencia entre los dos subndices h y j no tiene ninguna significacin, queda probado (18.31).

Nota: Esta demostracin usa slo las condiciones de primer orden para el problema (18.27). Por
tanto, los resultados de (18.30) Y (18.31) son igualmente vlidos si minimizamos f(x,r) con respecto a x en lugar de maximizar.

Ejemplo 18:16
Consideremos el problema
mio

rK + wL sujeta a Kl/2Ll/4

=Q

que estudiamos en el Ejemplo 18.6 de la Seccin 18.2. Sea G


G(r, w, Q) la funcin valor
para el problema y sea C = r K + wL - >.(Kl/2V/4 - Q) la funcin lagrangiana. Comprobar
las tres primeras igualdades del Ejemplo 18.6(b).

Solucin: Ntese que las derivadas parciales de C con respecto a r, w y Q son 8Cj8r
8Cj8w = L y 8Cj8Q = >.. As, segn (18.31),
.

8G

8G
-=K
8r
'

--=L,
8w

K,

8G
8Q

-=>.

Esto concuerda con los resultados del Ejemplo 18.6.

Problemas
1 Consideremos el problema siguiente: max U(x, y) 10x l / 2 yl/2 sujeta a px+qy = m. Sea U*(P, q, m)
la funcin valor ptimo y escribamos los resultados obtenidos en (18.31). Usando el mtodo lagrangiano,
hallar los valores de x e y (como funciones de p, q y m) que resuelven el problema y satisfacen (18.31)
directamente.
2 Explicar por qu (18.24) es un caso particular de (18.31).
3 Consideremos el problema
max

+ b - a)-b

sujeta a PIX

+ P2X2 =

con a y b constantes.
(a) Resolver el problema y hallar, por tanto, las funciones de demanda
D 2 (P1lP2,m).
(b) Estudiar los signos de las parciales de

XI

Xl

y X2 con respecto a PI, P2 Y m.

(c) Comprobar que D y D2 son homogneas de grado O.

18.8 PROGRAMACiN NO LINEAL: UNA GUA INFORMAL


Hasta ahora hemos estudiado en este captulo cmo maximizar o minimizar una funcin sujeta a
restricciones en forma de ecuaciones. Las ltimas secciones se ocupan de problemas de programacin no lineal, con restricciones en forma de desigualdades. Algunas formas especialmente simples
son las que requieren que ciertas variables sean no negativas. Este tipo de restricciones se tienen que

Seco 18.8/ Programacin no 1Ine8J: Una gullI irtformal

545

imponer para que la solucin tenga sentido econmico. Por otra parte, los lmites en la disponibilidad
de los recursos se expresan como desigualdades ms bien que como igualdades.
Un problema de programacin no lineal suficientemente general es el siguiente:
gl(Xh""

max !(XI! ... ,X n ) sujeta a

xn )

::; CI

.................. .
{
gm(x"" ,xn ) ::; Cm

(18.32)

El conjunto de vectores x = (x 1, , x n ) que verifican todas las restricciones se llama el coniunto


de restricciones, el cojiinto admisible o, ms frecuentemente, el conjunto factible.
Ntese que miiiimizar f(xl, ... ,;;n) es equivalente a maximizar - !(xl, ... ,xn ). Tambin
una desigualdad de la forma gj(xl, ... ,xn ) 2:: Cj se puede escribir como -gj(x, ... ,xn ) ::; -Cj,
y una igualdad gj(xl, ... , x n ) = Cj es equivalente a las dos desigualdades gj(Xl, ... , x n ) ::; Cj y
-gj(x, ... ,xn ) ::; -Cj. De esta manera la mayora de los problemas de optimizacin restringida
se pueden expresar en la forma (18.32).
En principio se pueden resolver estos problemas por los mtodos clsicos de la Seccin 17.3.
En ellos se estudian los puntos estacionarios de ! en el interior del conjunto factible S y el comportamiento de ! en la frontera de S. Sin embargo, desde los aos 50, los economistas han tratado
generalmente estos problemas usando una extensin del mtodo de los multiplicadores de Lagrange
que se debe originariamente a H. W. Kuhn y A. W. Tocker.

Un caso sencillo
Consideremos primero el problema sencillo de programacin no lineal
max !(x, y) sujeta a g(x, y) ::; e

(18.33)

Lo primero que haremos es escribir una regla que nos d todos los puntos (x, y) que pudieran
resolver el problema (18.33), excepto en casos raros. Esta regla se parece bastante a la que resuelve
el problema lagrangiano max !(x, y) sujeta a g(x, y) = c.

Regla para resolver max !(x, y) sujeta a g(x, y) ::; e


1. Asociar un multiplicador constante de Lagrange A a la restriccin g(x, y) ::; C y definir
la funcin lagrangiana

C(X, y)

= !(x, y)

A(g(X, y) -

c)

(18.34)

2. Igualar a cero las parciales de C(x, y):

ci (x, y)

!:(x,y) - Ag;(X,y)

y)

y) -

y)

=O

=O

(18.35)

3. Introducir la condicin de holgura complementaria


I A 2:: O (= O si g(x, y)
4. Exigir que (x, y) satisfaga la restriccin

g(x, y) ::; e

< c)'/

(18.36)

546

Cspftulo 18/ Optimizacin restringida

Si hallamos todos los pares (X, y) que, junto con valores adecuados de A, verifican todas esas condiciones, tenemos todos los candidatos para la solucin del problema (18.33). Ntese que las condiciones 1 y 2 son exactamente las que se usaron en el mtodo lagrangiano de la Seccin 18.2. Como
la condicin 4 se tiene que satisfacer obviamente, la nica novedad es la condicin 3.
La condicin 3 es artificiosa. Dice que A debe ser no negativa y, adems, que A = O si
g(x, y) < e. As, si A > O, se debe tener g(x, y) = e. Una formulacin alternativa de esta
condicin es que
(18.37)
A 2 O,
A' [g(x, y) el = O
Ms tarde veremos que, incluso en programacin no lineal, el multiplicador de Lagrange A se
interpreta como
asociado a un aumento unitario del miembro de la derecha, e, de la
"restriccin del recurso" g(x, y)
e. Con esta interpretacin, es lgico exigir que los precios sean
no negativos y, si la restriccin del recurso no se satura porque g(x, y) < e en el ptimo, esto quiere
decir que el precio asociado a un crecimiento unitario de e es O.
Ntese que es posible que sean A = O y g(x, y) = e a la vez en (18.36). Decimos que A 2 O
y g(x, y)
e son desigualdades complementarias en el sentido de que a lo ms se puede "dar
holgura" a una, esto es, a lo ms una es estricta. Equivalentemente, al menos una debe ser una
igualdad.
Advertencia: Con restricciones en forma de igualdad, el hacer cero la derivada parcial aC/aA
significa recuperar la restriccin g(x, y) = e, y as es un procedimiento vlido para deducir una
condicin
primer orden, como se apunt en la nota a pie de pgina que segua a la discusin del
mtodo lagrangiano de la Seccin 18.2. Sin embargo, cuando la restriccin es una desigualdad, se
puede tener aC/aA = -g(x, y) + e > O si la restriccin no se satura o est inactiva en un ptimo.
Por esta razn no aconsejamos derivar la funcin lagrangiana con respecto al multiplicador A, aun
cuando algunos libros aconsejen este procedimiento.

Ejemplo 18.17
Resolver el problema
max (x, y)

= X2 + y2 + Y -

1 sujeta a g(x, y)

= X2 + y2

Solucin: La funcin lagrangiana es

C(x,y)=x 2 +y2+ y - 1

A(X2 +y2

1)

(1)

Las condiciones de primer orden 'son:

= 2x -

2AX = O
y) = 2y + 1 2Ay = O

(2)
(3)

La condicin de holgura complementaria es

A2 O

O si X2

+ y2 <

1) /

(4)

Queremos hallar todos los pares (x, y) que verifican estas condiciones para un valor adecuado
de A.
Consideramos primero la condicin (2), que es 2x(1 - A) = O. Hay dos posibilidades:
A = 1 x = O. Si A 1, entonces (3) da 1 = O, que es una contradiccin. Por tanto, x O.
Supongamos que X2 + y2
1 Y as y
1 porque x O. Tomemos primero y = 1.
Entonces (3) implica que A = 3/2 Y as se verifica (4). Por tar1to, (0,1) con A
es
un candidato a ptimo porque se satisfacen todas las condiciones (2) a (4). Tomemos ahora
y = -1. La condicin (3) da A = 1/2 Y se verifica tambin (4). Por tanto, (0, -1) con
A = 1/2 es otro candidato a ptimo. -

=....ll2

Finalmente consideremos el caso en que x = y X2 + y2 = y2 < 1, esto es, -1


Entonces (4) implica que>. = y (3) da y = -1/2. Por tanto, (O, -1/2) con>.

candidato a ptimo.

< ti < l.

es un

La conclusin es entonces que hay tres candidatos a ptimo. Ahora bien,


f(O, 1) = 1,

feO, -1) = -1,

feo, -1/2) = ?4/4

(5)

Como queremos maximizar una funcin continua sobre un conjunto cerrado y acotado, por el
teorema de los valores extremos, hay solucin al problema. Como las nicas soluciones posibles
son los tres puntos que hemos hallado, deducimos de (5) que x = e y = 1 resuelven el
problema. El punto (O, -1/2) resuelve el problema de minimizacin correspondiente. Hemos
resuelto estos problemas en el Ejemplo 17.5 de la Seccin 17.3.

..

Por qu funciona la regla?


Supongamosque (x*,y*) resuelve el problema (18.33). Entonces o bien g(x*,y*) < e, en cuyo
_ caso se dice que la restriccin g(x*, y*) ::; e est inactiva o no saturada en (x*, y*), o bien
g(x*, y*)
e, en cuyo caso se dice que la restricci6n g(x*, y*) ::; e est activa o saturada en
(x*, y*). Se muestran los dos casos en las Figuras 18.7 y 18.8. La funcin objetivo crece conforme
las curvas de nivel se hacen ms pequeas. En la Figura 18.7, la solucin (x*, y*) al problema
(18.33) es un punto interior del conjunto factible. Por otra parte, en la Figura 18.8, la solucin
(x*, y*) est en la frontera del conjunto factible.
En el caso de que la soluci6n (x*,y*) satisfaga g(x*,y*) < e, como en la Figura 18.7, el
punto (x*, y*) es normalmente interior al conjunto factible y de mximo de la funcin f. Entonces,
es lln punto estacionario en el cual f{ (x* , y*) = fH x* , y*) = O. En este caso, si ponemos >. = 0,
se verifican las condiciones (2) a (4) de la regla.
Por otra parte, en el caso en que la restriccin sea saturada en (x*, y*), como en la Figura 18.8,
el punto (x"', y*) resuelve el problema lagrangiano
max f(x, y) sujeta a g(x, y) = e

(18.38)

con una restriccin en forma de igualdad. Siempre que se satisfagan las condiciones del Teorema 18.1 de la Seccin 18.3, existir un multiplicador de Lagrange >. tal que la funcin lagrangiana
(18.34) verifica las condiciones de primer orden (18.35) en (x*, y"'). Hace falta demostrar que ese
multiplicador de Lagrange >. verifica que >. 0, asegurando as que se verifica (18.36) en (x*, y*).
y

FIGURA 18.7 El punto P = (x*, y*) es interior al conjunto factible.

548

Capflulo 18/ Optimizacin restringida

9(X, y)

---..4------------X
e est saturada en P = (x*, y*).

FIGURA 18.8 La restriccin g(x, y)

Para ver por qu ..\


orden en la forma

O en este caso, ntese que se pueden escribir las condiciones de primer

V(x*,y*)

= ..\Vg(x*,y*)

que dice que el vector gradiente de en (x*,y*) es proporcional al de g. Segn (16.11) de la


Seccin 16.3, el gradiente apunta en la direccin de valores crecientes de la funcin. Ahora bien, si
..\ fuera negativo, los vectores V y V 9 en (x*, y*) apuntaran en direcciones opuestas. Por tanto,
alejndose un poco de (x*, y*) en la direccin V crecer mientras que 9 decrecer. Esto nos
nevar a un punto (x, y) con (x, y) > (x, y*) y g(x, y) < g(x*, y*)
c. Por tanto, (x, y*)
no podra ser una solucin ptima. As debe ser..\ O. De hecho, en la Figura 18.8, V (x*, y*) y
V g(x*, y*) apuntan en la direccin indicada.
Hay una explicacin alternativa, que se generaliza ms fcilmente al caso de varias variables y
varias restricciones, y que requiere considerar las dos funciones valor

v(b)
*(b)

max {J (x , y) : g(x, y) :$ b}
max{J(x,y): g(x,y) = b}

(18.39)

para las versiones del problema (18.33) en las que la constante e se ha sustituido por el parmetro
variable b, y donde f* (b) proviene del problema en el que la restriccin desigualdad se ha sustituido
por la igualdad correspondiente. Recurdese de (18.7) que'\ = df*(e)Jde si f* es diferenciable en
e. Vamos a demostrar ahora que f* es no decreciente en b = e, lo que implicar que ,\ 2 0, al
menos cuando f* es diferenciable.
En efecto, (18.39) implica que f*(b) :$ v(b) para todo b, porque la restriccin en forma de
igualdad es ms fuerte que la desigualdad, e imponer algo ms restrictivo nunca permite alcanzar un
valor mximo ms alto. Pero tambin en el caso b < e, la restriccin g(x, y) :$ b es ms fuerte
que g(x, y) :$ e, de donde se deduce que v(b) :$ v(c). Finalmente, como estamos discutiendo
el caso en que la restriccin g(x*, y*) = e se satura en la solucin al problema (18.33), debemos
f*(e). As la cadena f*(b) :$ v(b) :$ v(c)
f*(c) se satisface siempre que
tener v(e)
b < e. Se deduce de aqu que f*(b) :$ f*(e), luego f*(b) es creciente en b = e, y finalmente
,\ = df* (e) Jde 2 0, como queramos.

El caso general
Ahora ya es muy fcil dar una regla para resolver el problema general (18.32) de programacin no
lineal. Damos la regla en el siguiente recuadro:

Seco 18.8/ Programacin no llnBaI: tInII gui.1tIfIIIpnal

...,

Regla para resolver el problema general de programacin no lineal


max (min) f{x) sujeta a 9j{x)

ej

549

1, ... ,m)

donde x (Xl, . , x n ).
1. Escribir la funcin lagrangiana
m

I: Aj(9j(x) -

C(x) = f(x)

ej)

j=1

donde Al, ... , Am son multiplicadores de Lagrange asociados con las m restricciones.
2. Igualar a cero todas las parciales de primer orden de C(x):

8C(x) = 8f(x) _
8 Xi
8X

f
j=1

Aj 89j(X) = O
8 Xi

(i=I, ... ,n)

3. Imponer las condiciones de holgura complementaria:


Aj

O (= O si 9j(X)

U=l, ... ,m)

< ej)

4. Exigir que x satisfaga las restricciones

9j(x)

(j

ej

1, ... ,m)

Hallar todos los x, y los valores asociados de Al, ... , Am, que satisfagan todas esas condiciones. Estos son los candidatos a ptimo, y, si el problema tiene solucin, al menos uno de ellos
10 resuelve.

Los pasos 2 a 4 se llaman usualmente las condiciones de Kuhn-Tucker. Ntese que son
esencialmente condiciones necesarias para la solucin del problema (18.32). En general, no son
suficientes, ni mucho menos. En efecto, supongamos que se puede hallar un punto xO en el cual f
es estacionaria y 9j(X) < ej para j
1, ... , m. Entonces las condiciones de Ku1m-Tucker 2 a 4 se
verificarn automticamente para xO junto con los multiplicadores de Lagrange Al
... = Am O.
Entonces xO podra ser un mximo o mnimo local o global, o algn tipo de punto de silla. No
se sabe nada ms a menos que recurramos a condiciones de segundo orden de algn tipo. En la
Seccin 18.10 estudiamos condiciones suficientes de mximo con ms precisin.
Ejemplo 18.18
Una empresa dispone de L unidades de trabajo y produce tres bienes. La produccin de X,
y Y z unidades de esos bienes requiere ax 2, {3y2 Y Z2 unidades de trabajo respectivamente.
Resolver el problema
max ax + by + ez sujeta a ax 2 + {3y2

+ Z2

cuando los coeficientes a, b, e, a, {3 y son todos constantes positivas.


Solucin: La funcin lagrangiana es

C{x, y, z) = ax

+ by + ez

A{ax2 + {3y2 + Z2 - L)

(1)

550

Capltufo 18/ Optimizacin restringida

Las condiciones necesarias para que (X*, y*, z*) resuelva el problema son

BC
Bx
BC
By

=O

(2)

b - 2A{3y* = O

(3)

a -2AO:X*

BC
\ *
Bz = e - 21\"}'z
A

(4)

+ "}'(Z*)2 < L)

O si 0:(X*)2 + {3(y*)2

(5)

Como a, b y e son distintos de cero, se deduce de (2) a (4) que A, x*, y* y z* no son todos
cero. Por tanto, (2) a (4) implican que A aj20:x* = bj2{3y* = cj2"}'z*. As

o: b *
--x
{3 a '

y*

o: e *
--x

z*

(6)

"}'a

Tambin, como A :/:. O, la condicin de holgura complementaria (5) implica que


0:(X*)2

+ {3(y*)2 + "}'(Z*)2

(7)

Llevando las expresiones (6) de y* y z* a (7) obtenemos


0:(X*)2

0:2 b2
0:2 l
+ __
(X*)2 +
_(X*)2
2
2

{3 a

"}'

Despus de un poco ms de clculo algebraico se halla que la solucin positiva es

x* = aVLjo:p,
Va2 j o: + b2j {3 + j "}'. Anlogamente,

donde p, designa a la constante p,

y*

(8)

bVLj{3p"

z* =cVLj"}'p,

(9)

La restriccin o:x + {3y2 + "}'z2 ::; L define un conjunto cerrado y acotado, de hecho un
elipsoide, luego por el teorema de los valores extremos hay una solucin. Como los valores de
x*, y* y z* de (8) y (9) son las nicas soluciones positivas a las condiciones de Kuhn-Tucker,
resuelven el problema. El razonamiento del Ejemplo 18.21, Seccin 18.10 tambin prueba la
optimalidad.
2

En problemas ms complicados de programacin no lineal, es difcil a veces saber cmo comenzar


condiciones necesarias. En el ejemplo siguiente usamos un procedimiento sistemti59"Para hall, todos los candidatos.

\ ,jemplo 18.19)
problema max 4z - X2 - y2 - Z2 sujeta a las restricciones

\
,

'-.

z ::; xy

X2
Solucin: Ponemos !(x, y, z) = 4z

(1)
(2)

+- y2 + Z2 ::; 3
X2

gl (x, y, z) = z - xy ::; O,

y2

Z2. Representamos las restricciones por

g2(X, y, z)

X2

+ y2 + z2

::; 3

e introducimos la funcin lagrangiana

C(x, y, z)

= 4z -

x2 -

y2 - z2 - A(Z - xy)

p,(x2 + y2 + z2 - 3)

Seco 18.8/ Programacin no lineal: Una _

/l!tIIrIImaJ

551

Las condiciones necesarias son

ac = - 2x + Ay - 2.,x = O
ax
ac
-ay = - 2y + AX - 2.,y = O
ac
- = 4 - 2z - A - 2.,z = O
az
-

.,

(4)
(5)

O (= O si z < xy)
O (= O si X2 + y2 + Z2 < 3)

(6)

(7)

Para cada una de las dos restricciones tenemos bien igualdad (si la restriccin est activa) o
desigualdad (si la restriccin est inactiva). As, hay cuatro casos diferentes:
Caso /: (1) y (2) estn inactivas, esto es, z < xy y X2 + y2 + Z2 < 3. Entonces por (6) y (7),
A = ., = O. Llevando estos valores a las ecuaciones (3) a (5), se tiene x y O Y Z 2, lo
que contradice (2). No hay candidatos a solucin.
Caso 1/: (1) est inactiva y (2) activa. Entonces A = O por (6). As (3) da 2x(1 + .,) O. Por
tanto, x = O porque .,
O. Llevando esto a (4) obtenemos y(1 + .,) O, luego y O. De
X2 + y2 + Z2 = 3 deducimos que z = V3. Pero i ::; xy = O por (1), luego z
-V3 y
entonces (5) da 4 + 2V3 = -2V3." que contradice ., O. No hay candidatos a solucin.
Caso 1//: (1) est activa y (2) inactiva. Entonces xy = z y ., = O.,/'"
Si x =f. O entonces, por (4), A = 2y / x. Llevando este valor a (3) obtenemos 2x 2y2/ x,
luego X2 = y2, Y = x. Pero entonces A= 2y/x = 2, Y como A O, es A = 2. Por
tanto, Y = x. De (5) sacamos que z = 1; como (1) est activa se deduce que X2
y2
Entonces X2 + y2 + Z2 = 3, lo que contradice la_lli.>tesis
La nica posibilidad que resta en este caso es que
O. Por (4), Y O. Entonces z = O
Y por tanto (5) implica que A = 4. Entonces se satisfacen todas las condiciones (1) a (7). As,
(O, O, O) con A = 4 Y ., = Oes un candidato.

-x;;

CasoW: (1) y (2) estn activas. Entonces xy = z y X2+y2+Z2 = 3. De (3) y (4), obtenemos
que -2x+ Ay - 2.,x = -2y + AX - 2.,y, (y x)(2+ A+2.,) = O. Como 2+ A+2., > O,
se tiene y = x. As, z = X2 y X2 + X2 + x 4 = 3 (X 2)2 + 2(x 2) 3 O, lo que implica que
X2 = -1 v'4 = -1 2. Para x real, la nica posibilidad es que X2
1, Y as x = 1.
Entonces y = x = 1 Y z = xy = 1. Ahora, (3) y (4) implican que (-2 + A - 2.,)x
O
O porque z 1.
y as -2 + A - 2., = O porque x =f. O. Pero (5) implica que 2 A 2.,
Sumando estas dos ecuaciones en A y ., se obtiene -4.,
O. As ., O Y A 2. Esto nos
deja con los dos candidatos a solucin (1, 1, 1) Y
1, 1, 1), con A 2 Y ., Opara ambos.
Ahora bien,

1(0, O, O) = O,

1(1,1,1)

1,

1(-1,

1,1) = 1

luego (1, 1, 1) Y (- 1, - 1, 1) resuelven el problema. De nuevo el teorema de los valores extremos nos dice que hay solucin.
Nota: El mtodo general para hallar todos los candidatos a ptimo en un problema de programacin
no lineal se puede formular as: Estudiar primero el caso en que todas las restricciones estn activas,
luego estudiar la totalidad de los casos en que todas menos una estn activas, luego aqullos en
que todas menos dos estn activas, y as sucesivamente. Se termina por el estudio del caso en que
ninguna restriccin est activa. Por supuesto que el orden no importa, pero hay que considerar cada

552

CapItulo 18/ Optimizacin restringida

caso. En cada paso hallamos todos los vectores x, junto. con los valores asociados de los multiplicadores de Lagrange, que verifican todas las condiciones relevantes, si las hay. Luego buscamos entre
todas las posibilidades para hallar la mejor.

Problemas
el problema
(a) Escribir la funcin lagrangiana y las condiciones de primer orden de (18.35).
(b) Cul es la condicin de holgura complementaria?
(c) Hallar todos los pares (x, y) que verifican todas las condiciones necesarias. Hay cinco candidatos.
Hallar la soluci6n al problema.
2 Resolver los problemas siguientes, suponiendo que hay soluciones:
(a) max

tx - y

(b) max

Xl

+ e-x
X2 + y2

sujeta a x

+ 2y

sujeta a

y, x
5, Y

2:: O.

2:: O.

3 Resolver los problemas siguientes, suponiendo que existan soluciones:


(a) max y (b) max

sujeta a y

X2

xe Y - x -

2ey

2:: O,

y - x

sujeta a x

2:: O,

2::

-2, y2

x.

1 + x/2.

el problema
max x

+ ay

sujeta a

X2

+ y2

SI, x

+ y 2:: O

(a es constante)

(a) Escribir las condiciones necesarias.


(b) Hallar la solucin segn los valores de la constante a.

(3! Consideremos el problema

(a) Escribir las condiciones necesarias.


(b) Hallar todos los puntos que verifican las condiciones necesarias. (Indicacin: Hay infinitos.) Cul
es la solucin del problema?

Problemas avanzados
6 Resolver el problema
max ln(x 2 + 2y) -

y sujeta a 2

xy, x

2::

1, Y

2::

18.9 MS SOBRE PROGRAMACiN NO LINEAL (OPCIONAL) .


En esta seccin se estudia primero el caso en que las variables se suponen no negativas, y se enuncian
las condiciones de Kuhn-Thcker modificadas para l. Luego se describen algunas interpretaciones
econmicas de la programacin no lineal.

Seco

18.9/ Ms sobre

553

1'10

Condiciones de no negatividad para las variables


Consideremos una vez ms el problema general de programacin no lineal (18.32). Es
que las variables que aparecen en los problemas econmicos de optimizacin sean no negativas pot
su propia naturaleza. No es difcil incorporar esas restricciones a la formulacin de (18.32). Por,
- Xl:::; O, Y se \
ejemplo, la restriccin Xl :2: O se puede representar por 9m+ 1(X, ... , x n )
introduce un multiplicador de Lagrange adicional para ella. Sin embargo, para no tener que manejar .'
demasiados multiplicadores de Lagrange, se formulan: las condiciones necesarias de solucin de los .
problemas de programacin no lineal con restricciones de no negatividad de las variables de una
forma ligeramente distinta.
Consideremos primero el problema
max f(x, y) sujeta a 9(x, y) :::; e, x :2: O, Y :2: O

(18.40)

Introducimos las funciones 91 (x, y) = -x y 92(X, y)


-y, con lo que las restricciones del
problema (18.40) se convierten en 9(X, y) :::; e, 91 (x, y) :::; O Y 92(X, y) :::; O. Aplicando la regla
para resolver (18.32), tomamos la funcin lagrangiana

C(x, y) = f(x, y) - )..(9(X, y) - e) - J.t1( -x) - J.t2( -y)


Las condiciones de Kuhn-Tucker son

oC
I
OX = f1 (x, y)

+ J.tl

= O

(1)

oC
I
I
oy = f2(X, y) - )..92(X, y) + J.t2 = O

(2)

)..91 (x, y)

)..:2: O (= O si 9(X, y)
J.t1 :2: O (= O si x > O)
J.t2 :2: O (= O si y > O)

< e)

(3)
(4)
(5)

De (1) obtenemos fHx,y) - )..9f(x, y) = -J.t1. De (4) obtenemos que -J.tl :::; O Y -J.t1 = O si
x > O. As (1) y (4) equivalen conjuntamente a

f{(x,y) -

O si x> O)

(6)

O (= O si y >0)

(7)

De manera anloga, (2) y (5) equivalen conjuntamente a

Por tanto, las nuevas condiciones de Kuhn-Tucker son (6), (7) Y (3). Ntese que, despus de
sustituir (1) y (4) por (6), y (2) Y (5) por (7), slo el multiplicador).. asociado con' 9(x, y)
e
permanece.
Se puede extender la misma idea al problema de n variables
max.f(xt, ... ,xn ) con

91(Xt, ... ,Xn) el


................... ,
{
9m(Xt. ... , x n ) Cm

Xl

:2: O, ... ,

Xn

:2: O

(18.41)

Formuladas brevemente, las condiciones necesarias de solucin de (18.41) son que, para cada i
1, ... ,n:

f)...

of(x) _
OXi
. 1
}=

09j(x) < O
OXi -

)..j:2:0 (=Osi9j(X) <ej)

O si Xi

> O)

(j=I, ... ,m)

(18.42)
(18.43)

554

Capftulo 18/ Optimizacin restringida

Ejemplo 18.20 (Precios en horas punta)


Consideremos un productor que genera energa elctrica quemando combustible, como carbn o
gas natural. La demanda de electricidad vara entre horas punta y horas valle. En las primeras
hay que usar toda la capacidad de generar energa.
Consideremos un cierto intervalo de tiempo, por ejemplo un ao, dividido en n periodos
de igual longitud. Designemos por XI, Xz, ... ,Xn a las ventas de energa elctrica en esos n
periodos. Supongamos que una autoridad reguladora fija los precios unitarios correspondientes

apl,PZ, ,Pn
Se designa por C ( XI, ... , Xn ) al coste total operativo en los n periodos y por k a la capacidad de produccin en cada perodo. Finalmente, designemos por D( k) al coste de mantener
la capacidad de produccin k. El beneficio total del productor es entonces
n

1r(XI,' .. , Xn , k)

= LPiXi -

C(XI, ... , x n )

(1)

D(k)

i=l

Como el productor no puede exceder la capacidad k en ningn perodo, se enfrenta a las restricciones
XI

:s: k,

... , Xn

:s: k

(2)

Considerams el problema de hallar XI ;::: O, . , X n ;::: O Y k ;::: O que maximizan el beneficio


con las restricciones (2).
Este es un problema de programacin no lineal en n + 1 variables con n restricciones. La
funcin lagrangiana C es
n

C(x, ... , Xn , k) = LPiXi - C(Xl"'" x n )

D(k) - L

i=l

,\(X - k)

i=l

Los valores (x?, ... ,


kO) ;::: O resuelven el problema solamente si existen multiplicadores
de Lagrange Al ;::: O, , An ;::: O tales que

oC

(i=l, ... ,n)

OXi

oC = -D'(kO)
ok

+ {-- A' < O


l_

O si kO > O)

(4)

l=l

< k)
un ndice tal que x? > O.

(i=l, ... ,n)

O si x?

Sea i

(3)

(5)

Entonces (3) implica que


Pi

... ,

+ Ai

(6)

Si el perodo i-simo no es de horas puntas, entonces x? < kO Y as Ai = O por (5). De (6)


As vemos que el (x?, ... ,
que maximiza el beneficio
se deduce que Pi = Ci(x?, ... ,

igualar el precio puesto por la autoridad reguladora para los periodos fuera de las horas punta
y el coste operativo marginal correspondiente.
Por otra parte, Aj puede ser positivo en horas punta cuando

xj

= kG. Si kO

>

O se
D/(kO). Concluimos que la estructura de la produccin ser tal

deduce de (4) que Ei=1 Ai


que en horas punta el precio puesto por el regulador exceder al coste operativo marginal en una
cantidad Ai, que es realmente el "precio sombra" de la restriccin de capacidad Xi :s: k. La
suma de esos precios sombra sobre todos los periodos de hora punta es igual al coste marginal de

Seco 18.9/ Ms sobreprogrsms.cl6n m.IIItMI(OptittJIJIaI)

555

capacidad.

Una interpretacin econmica de los


problemas de programacin no lineal
Consideremos una empresa que produce un cierto bien mediante n "procesos de produccin" inter
medios distintos. Adems se necesitan m recursos distintos durante la produccin de los que se
dispone en total de las cantidades Ch' .. , Cm. Designemos por f(Xh' .. ,Xn ) al nffiero de unidades producidas de ese bien cuando los n procesos de produccin trabajan a los niveles Xl, , X n .
Sea gj(X, . .. , x n ) el nmero de unidades del recurso j-simo, j = 1, ... , m, que se necesitan en
esas circunstancias. El problema (18.41) se puede formular en este caso como sigue:
Hallar niveles no negativos de actividad a los cuales hay que hacer operar los procesos de produccin para obtener la mayor cantidad posible del bien, teniendo en cuenta la imposibilidad de usar
ms recursos de los que se dispone en total.
Para cada recurso j tomarnos un precio sombra unitario Aj. Para producir f(Xh ... , x n ) unidades del bien se requieren gj(xt, ... , x n ) unidades del recurso j al coste sombra Ajgj(Xh' .. , x n ).
Si hacemos igual a 1 el precio sombra unitario del bien producido, la funcin 7r ( Xl, ... ,Xn ) definida
por
m

7r(Xt, ... ,X n )

= f(xt, ... ,Xn ) -

(18.44)

:Ajgj(Xl, ... ,X n )
j=1

representa el beneficio sombra de hacer trabajar los procesos a los niveles del vector de actividad
(XI, ... , x n ). Supongamos que encontramos un vector de actividad xO = (x?, ... 1
Y precios
sombra no negativos Al, ... , Am tales que:

1. xO maximiza el beneficio sombm entre todos los vectores de niveles de actividad no negativos.
2. xO verifica cada restriccin de recursos gj(xO)

Cj, j

1, ... ,m.

3. Si no se usa en su totalidad el recurso j-simoporque gj(XO)


Aj de ese recurso es O.

< ej, entonces el precio sombra

En esas condiciones podemos demostrar que XO resuelve el problema (18.41):

Teorema 18.3
Consideremos el problema
maxf(x)

sujetaa

l, ... ,m,

Supongamos que existen nffieros A, ... , Am Y un vector factible xO = (x?, ... ,


que
m

(a) f(xo) -

I: Ajgj(XO)

:::: f(x) -

j=1

(b) Aj :::: O

tales

O si gj(xO)

I: Ajgj(X)

para todo x:::: O

j=1

< ej)

para j

1, ... , m

Entonces XO resuelve el problema.

Demostracin: Designemos por S al conjunto factible, es decir, al de los vectores x que verifican las restricciones gj(x) :::; ej, para j = 1, ... , m y :JI: ;:::: O. El smbolo x ;:::: O significa que todas las componentes del

556

Captulo 18/ Optimizacin restringida

vector x son mayores o iguales que cero. Reordenando los trminos de (a) tenemosS
m

f(xO) - f(x)

L Aj(9j(xo) -

9j(X)) para todo x

j=1

Pero (b) y la condicin 9j(x) ;:; ej implican conjuntamente que Aj9j(xO) = Ajej para j = 1, ... , m. Si
Aj
O, la igualdad es obvia. Si Aj > O, entonces (b) y la restriccin implican que 9j(il) = ej, y as
Aj9j(xO) = Ajej. Sumando estas igualdades para j obtenemos
m

j=1

j=1

L Aj9j(Xo) = L Ajej

( 18.45)

Por tanto, (*) implica que


m

f(xo) - f(x)

Aj(ej

9j(x)) para todo x E S

(**)

j=1

Sin embargo, la restriccin y Aj


O implica que Aj(Cj - 9j(X))
O para j
f(x) para todo x ES.
de la derecha de (**) es O. Por tanto, f(xO)

= 1, ... ,m, y as el miembro

No se requieren condiciones de regularidad para f ni 9h ... ,9m en el Teorema 18.3, excepto


cuando hemos supuesto implcitamente que las funciones estn definidas para x O.
Usando la terminologa econmica, (18.45) nos dice que, a los precios sombra dados para los
recursos, el valor total de los recursos usados en el ptimo XO es igual al valor sombra total de los
stocks iniciales.
El Teorema 18.3 suministra condiciones suficientes para que XO resuelva el problema (18.41).
Son tambin necesarias? Esto es, si xO
(x?, ...
resuelve el problema (18.41), es posible
siempre hallar precios no negativos Al, ... ,Am tales que se satisfagan (a) y (b) del Teorema 18.3?
La respuesta es no. Sin embargo, si la funcin 7r de (18.44) es cncava, y si imponemos una
condicin dbil adicional en el conjunto de restricciones, se puede demostrar la existencia de estos
precios Ah ... , Am. 6

Propiedades de la funcin valor


Volvamos al problema general (18.32) de programacin no lineal sin restricciones de no negatividad
explcitas. El valor del objetivo f(x) depende obviamente de e = (eh"" Cm). La funci6n definida
por
ej, j = 1, ... , m}
(18.46)
v(c) = max{ f(x) : 9j(x)
asigna a cada vector e el valor ptimo v(c) de f. Se le llama la funcin valor para el problema.
Las tres propiedades siguientes de v son muy tiles:

1. v(c) es no decreciente en cada variable e, ... , Cm.


2. Si existe 8v(c)/8ej, entonces es igual a Aj(C), j = 1, ... ,m.
3. Si f(x) es cncava Y 91 (x), ... , 9m(x) son todas convexas, entonces v(c) es cncava.
La propiedad 1 se demuestra inmediatamente porque si ej crece y todas las otras variables estn
fijas, el conjunto factible se agranda. Por tanto, v(c) no puede decrecer.
Respecto a la propiedad 2, cada Aj(C) es un multiplicador de Lagrange que proviene de las
condiciones de Kuhn-Tucker. Sin embargo, la funcin valor v no tiene por qu ser diferenciable.
s De hecho basta suponer que se verifica (*) para todo x que vejfu:a las restricciones.
6 Vase Dixit (1990).
-- .

557

Sec.

Aun cuando f y 91, ... ,9m sean todas diferenciables, la funcin valor puede tener cambios bmscos
de pendiente. 7 Damos una demostracin de la propiedad 3 que es importante en muchas aplicaciones
econmicas.
Demostracin: Probamos la propiedad 3. Designemos por x(e) a una solucin ptima al problema cuando el
vector de los miembros de la derecha de las desigualdades es e = (c, ... , Cm). Sean y ' dos vectores ;
arbitrarios de miembros de la derecha. Entonces v(e') = f(x(e')) y v(e") = f(x(', con 9j(x(e')) ::; cj .
y 9j(x(e")) ::;
para j = 1, ... , m. Sea t E [0,1]. Correspondiente al vector (1 - t)e' + te" hay una
solucin ptima x((1 - t)e' + te") para la cual

dJ,

v((1
Escribamos

x = (1 -

t)x(e')

t)e'

+ tx(e").

+ te") = f(x((1

- t)e'

+ te"))
= 1,. ", m, se tiene
t)cj + tc'J

La convexidad de 9j implica que, para j

gj(X) ::; (1

t)gj(x(e'

+ tgj(x(e"

::; (1

donde la ltima desigualdad se deduce del hecho de que los dos vectores x(e') y x(e") sean factibles. As
t )e' + te". Por definicin,
x((1 - t)e' + te") es ptimo para este problema. Por tanto,

x es factible para el problema cuyo miembro de la derecha es el vector (1 f(X) ::; f(x((1 - t)e'
Adems, la concavidad de

f(X)

+ te" = v((l

- t)e'

+ te")

(*)

implica que
(1

t)f(x(e'

+ tf(x(e"

(1

t)v(e') + tv(e")

La concavidad de v se deduce de las desigualdades (*) y (**).

Problemas

Resolver el problema max 1 x 2 y2 sujeta a x


O, Y
- las condiciones de Kulm-Thcker de la seccin anterior.

O; (a) por razonamiento directo y (b) usando

las condiciones (18.42) y (18.43) para resolver el problema de importacin de gas natural del Ejem17.6, Seccin 17.3, a saber
max 9x + 8y

X2

6(x

+ y)2

x::; 5
sujeta a

3,
{ -x+ 2yy ::;
::; 2

O, Y

que la utilizacin a capacidad ptima por una empresa exige que se elijan las cantidades
producidas y el nivel de capacidad k de tal manera que se resuelva el problema
max

Demostrar que k

Xl

+ 3X2 -

XI

xi

:= O no puede ser ptima y luego hallar la solucin.

Problemas avanzados
4 Supongamos que XO =
... ,
OYA = P
(Al!' .. ,Am )
O verifican las condiciones
suficientes (a) y (b) del Teorema 18.3, de tal manera que XO resuelve el problema (18.41). Supongamos
que
... ,
O resuelve tambin el problema. Demostrar que, para los Al,' . " Am asociados
a xO, el vector Xtambin verifica (a) y (b) (con sustituyendo a xO, claro).

x:=

S Considerar el problema
max f(x, r) sujeta a 9j(x, r) ::; O, j
x

1, ... , m

Para un estudio de las propiedades de la funcin valor puede verse Luenberger (1973), Seccin 10.6, y Dixit (1990).

558

Capftulo 1810ptlmlzacln restringida .

Supongamos que f es cncava en (x, r) y que cada gj(x, r) es convexa en (x, r). Demostrar que el valor
ptimo v(r) de f como funcin de r es cncava en r. (Indicacin: Usar la misma tcnica que en la
demostracin anterior de la propiedad 3.)
6 Para el problema (18.41), sea C(x, A) = f(x) - L:j: Aj(gj(X)
de silla en (x*, A*), con x*
O, A*
O, si

ej). Decimos que C tiene un punto

C(X,A*):::; C(X*,A*):::; C(x*, A) para todo x

O Y todo A

(a) Probar que, si C tiene un punto de silla en (X*,A*), entonces x* resuelve el problema (18.41).
(Indicacin: Usar la segunda desigualdad de (*) para probar que gj(x*) :::; ej para j = 1, ... , m.
Probar luego que L:j: Aj(gj(X*)
ej) = O. Usar despus la primera desigualdad de (*) para
completar la demostracin.)
(b) Supongamos que existe un vector factible x*
O Y precios A*
O tales que C(x, A*) :::; C(x*, A*)
siempre que x sea factible y con Aj = O si gj(x*) :::; ej para j
1, ... , m. Probar que C(x, A)
tiene un punto de silla (x*, A*) en este caso.

18.10 RESULTADOS PRECISOS (OPCIONAL)


Comenzamos demostrando que las condiciones de Kuhn,..Tucker son suficientes para ptimo, siempre
que se satisfagan ciertas condiciones de concavidad o convexidad.8

Teorema 18.4 (Condiciones suficientes de Kuhn-1Ucker)


Consideremos el problema de programacin no lineal
max f(x) sujeta a 9j(X)::; Cj, j = l, ...

,m

(18.47)

donde f y 91, ... , 9m son continuamente diferenciables, f es cncava y las 91, ... , 9m son
convexas. Supongamos que existen nmeros 1, . , m Y un vector factible XO tales que

(a) of(xo) _
OXi

(b) j

j 09j(XO) = O

. 1

J=

OXi

O si 9j(XO)

< Cj)

(i=l, ... ,n)

(j

1, ... ,m)

Entonces XO resuelve el problema.

Demostracin:

La funcin lagrangiana C(x) se puede escribir en la forma

f(x)

+ A(-g(x) + e) + ... + Am(-gm(x) + em )

sta es cncava por ser suma de funciones cncavas. Por (a), 8C(xO)j8x = O para i = 1, ... , n, y as el
Teorema 17.8 de la Seccin 17.7 implica que XO maximiza a C(x). El resultado se deduce del Teorema 18.3,.
que se sigue verificando sin las restricciones x
O.

Nota: Es fcil ver que el Teorema 18.4 es vlido para el problema (18.41) con las restricciones de
no negatividad de las variables, siempre que (a) y (b) se sustituyan por (18.42) y (18.43).
8 La referencia clsica es H. W. Kuhn, A. W. Tuclrer, "Non-linear programming" en Proceedings .01 Secomi Berkeley
Symposium on Mathematical Statstics ami Probabilty, J. Neyman (editor), University of California Press, Berkeley, (1951)
pp. 481-492. Ver tambin Dixit (1990).

Ejemplo 18.21
Qu puede decir el Teorema 18.4 sobre el problema del Ejemplo 18.18, Seccin 18.87
Solucin: La funcin objetivo (x, y, z) = ax+by+cz es lineal y, por tanto, cncava. Tambin
9(X, y, z) = ax 2 + {3y2 + Z2, con a
O, {3
OY
O, es suma de funclones convexas.
luego es convexa. Como los valores de x*, y* y z* dados por (8) y (9) son soluciones a la
condiciones (a) y (b) del Teorema 18.4, sabemos que son ptimas.
El Teorema 18.4 es muy conveniente cuando se satisfacen sus hiptesis. Sin embargo, la concavidad de y la convexidad de las funciones 9j son hiptesis ciertamente restrictivas. De hecho, en el
Ejemplo 18.17 de la Seccin 18.8, la funcin objetivo (x, y) no es cncava, y en el Ejemplo 18.19
la funcin de restriccin 91 (x, y, z) = z - xy no es convexa.
La siguiente generalizacin del Teorema 18.4 es til en muchas aplicaciones econmicas.9

Teorema 18.5 (Condiciones suficientes en programacin euasi-cneava)


Consideremos el problema del Teorema 18.4 donde las funciones , 9, ... , 9m son continuamente diferenciables. Supongamos que existen nmeros Ah ... , Am y un vector xO tales
que
(a) XO es factible y se verifican (a) y (b) del Teorema 18.4.
(b) (f{(XO), ...

=1=

(0, ... ,0).

(e) (x) es cuasi-cncava y Aj9j(x) es cuasi-convexa para j

1, ... , m.

Entonces XO resuelve el problema.

La condicin (b) es un aadido significativo a las condiciones correspondientes en el Teorema 18.4.


Se excluyen los puntos ,{J en los cuales es estacionaria. Esto es necesario porque un punto
estacionario de la funcin cuasi-cncava puede incluso no ser un mximo local, mucho menos una
solucin al problema de maximizacin restringida (vase Problema 5).

Ejemplo 18.22
Consideremos el siguiente problema estndar en teora de demanda del consumidor, en el cual
se permite al consumidor gastar por debajo de sus posibilidades:
max U(XI"" ,xn ) sujeta a PIXI

+ ... + Pnxn

:$ m

(1)

Supongamos que la funcin de utilidad U es continuamente diferenciable y cuasi-cncava y


que los precios PI, ... ,Pn son no negativos. Supongamos que XO = (x?, .. .
satisface la
restriccin presupuestaria, adems de (a) y (b) del Teorema 18.4, o sea

UI(xO) = APi

(i

1, ... ,n)

(2)
<m)

(3)

Supongamos adems que no todas las parciales U{(XO), ... ,


son cero. Entonces (2)
implica que A > O Y as PI x? + ... +
= m. Por tanto, se gasta todo el presupuesto y
xO resuelve el problema (1). Para tomar en cuenta explcitamente las restricciones Xl
O, ... ,
Xn
O, usar la Nota al Teorema 18.4.
.
9 Vase K. J. Arrow, A. C. Entboven, "Quasi-concave prograrnming" ECo1Wmetrica, 26 (1959), pp. 522-552.

560

CapItulo 18/0ptimizaci6n restringida

Condiciones necesarias
Hasta ahora hemos tratado en esta seccin de condiciones suficientes de ptimo en programacin no
lineal. Vamos a volver ahora a condiciones necesarias.
La regla de la Seccin 18.8 para el problema (18.32) nos da todos los candidatos a ptimo,
excepto en "casos raros". Para obtener condiciones verdaderamente necesarias tenemos que dar una
nueva: 10

Una cualificacin de restricciones


Las funciones 9j (j = 1, ... ,m) correspondientes a las restricciones que estn activas en XO
tienen gradientes en yfJ que son linealmente independientes.

(18.48)

En el Ejemplo 18.23 a continuacin se prueba que no se puede prescindir en el Teorema 18.6 de la


cualificacin de las restricciones.

Teorema 18.6 (Condiciones necesarias de Kuhn-Tucker)


Supongamos que x

... ,

resuelve el problema

max f(x) sujeta a 9j(X)

Cj'

j = 1, ... ,m

donde f, 91, ... ,9m son funciones continuamente diferenciables. Supongamos adems que se
verifica la cualificacin de las restricciones (18.48). Entonces, existen unos nicos nmeros
Al, ... , Am , tales que

(a) 8f(yfJ) _ fAj89j(XO) =0


8Xi

(b) Aj

j=1

(i

1, ... ,n)

8x

O si 9j(xO)

< Cj)

(j = 1, ... ,m)

Ejemplo 18.23
Consideremos el problema
max f(x, y)

xy sujeta a 9(X, y) = (x

+y -

2)2

Como (x + y - 2)2 es no negativa, la restriccin es equivalente a x + y - 2 = O. luego la


1 (vase Problema 4 de la Seccin 18.2). La condicin (a) del
solucin es x = 1 e y
Teorema 18.6 se reduce a
y - 2A(X

+y

2)

= O,

x - 2A(X + y - 2)

Haciendo x
1ey
1 se obtiene la contradiccin 1 = O en cada caso.
Ntese que 9i(x, y) = 9i(X, y)
2(x + y - 2) = O para x
y = 1, luego el gradiente
de 9 en (1,1) es (0,0), que no es un conjunto de vectores linealmente independientes. As, la
cualificacin de restriccin falla en (1, 1).
lO Ntese la semejanza de esta condicin y la condicin correspondiente para el problema lagrangiano de la nota a pie de
pgina 4 en (18.21), Seccin 18.5. Vase Luenberger (1973) para una demostracin del Teorema 18.6.

561

Seco

En virtud del Teorema 18.6, si XO resuelve el problema (18.32) y se satisface la cualificacin de


las restricciones en xO. entonces se verifican las condiciones (a) y (b). Esto significa que si no se
verifica la cualificacin de las restricciones en xO. entonces XO puede ser una solucin del problema
sin verificar (a) y (b), como era el caso de XO = (1,1) en el Ejemplo anterior. El mtodo correcto
para hallar todos los candidatos a ptimo en el problema (18.32) es por tanto el siguiente:
1. Hallar todos los puntos factibles donde se satisfacen la cualificacin de las restricciones y las
condiciones (a) y (b).
2. Hallar tambin todos los puntos factibles en los que la cualificacin de las restricciones falla.
Si sabemos que el problema tiene solucin, entonces los pasos 1 y 2 nos darn todos los posibles
candidatos a solucin. Despus de evaluar f en todos esos candidatos, podemos tomar el (o los) que
maximiza(n) f.
Nota: Un error comn al aplicar el Teorema 18.6 es el siguiente: Supongamos que se encuentra
un nico candidato a solucin XO a partir de las condiciones (a) y (b) del teorema. Entonces se
comprueba la cualificacin de las restricciones en xO. El error consiste en no comprobar si la cualificacin de las restricciones falla en otros puntos factibles. Si lo hace, esos puntos son tambin
candidatos a solucin, y el verdadero ptimo puede darse en uno de ellos. En el Problema 6 se
estudia esta posibilidad

Problemas
1 Consideremos el problema

maxf(x, y)

=2-

(x - 1)2

donde a es una constante positiva.


(a)

Demostrar que f(x, y) es cncava.

(b) Escribir las condiciones de Kuhn-Tucker para la solucin del problema. Hallar la nica solucin
posible, que depender de a, y demostrar que es ptima usando el Teorema 18.4.
2 (a) Resolver el problema siguiente por un razonamiento geomtrico.
max 2x

+y

sujeta a

(x
{

x2

+ 1)2 + y2 ::; 4
+ (y + 1)2 ::; 4

x 2: O, Y 2: O

(b) Escribir las condiciones de Kuhn-Tucker. Usando la Nota al Teorema 18.4, demostrar que el punto
hallado en la parte anterior resuelve el problema.
(e) Supongamos que se sustituye la restriccin x2 + (y + 1)2 ::; 4 por
estimacin del cambio aproximado del valor ptimo de 2x + y.

X2

+ (y + 1)2

::; 4,1. Dar una

3 Consideremos el problema del Ejemplo 18.2 de la Seccin 18.1. Usar el Teorema 18.5 para demostrar que
se ha hallado la solucin. (Indicacin: Usar (17.32)(b), Seccin 17.10.)
4 Consideremos el problema max f(x) sujeta a x E [a, b], a

< b.

(a) Escribiendo las restricciones en la forma 91 (x)


a - x ::; O Y 92 (x) = x - b ::; O, ver qu tienen
que decir las condiciones de Kuhn-Tucker sobre un punto x" que resuelva el problema. (Considerar
los tres casos x" = a, x" E (a, b) y x" = b.)
(b) Supongamos que f (x) es cncava. Entonces las condiciones de Kuhn-Tucker son suficientes para
ptimo. llustrar los tres casos que se pueden dar.
5 Consideremos el problema
max (x - 1)3 sujeta a 9(X)

-x::; O, 92(X) = x::; 2

562

Capftulo 18/ Optimizacin restringida

(a) Hallar grficamente la solucin.


(b) Demostrar que las condiciones (a) y (e) del Teorema 18.5 se satisfacen con
Se satisface (b) en X O 1? Es X O la solucin ptima?
6 Consideremos el problema
max 3x + y sujeta a y

(1 - X)3,

x:::: 0, y::::

XO

1 y Al

Az

= O,

(a) Hallar grficamente la solucin y demostrar que la cualificacin de restriccin (18,48) falla.

(b) Probar que la nica solucin a (a) y (b) del Teorema 18.6 es x = e y = 1, con multiplicadores
de Lagrange correspondientes (1,0,0). Ntese que, aun cuando se satisfaga la cualificacin de las
restricciones en (x,y) = (0,1), ste no es el ptimo.