Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Un problema habitual en ingenierı́a es hallar el valor mı́nimo de una función, llamada función
objetivo, que representa un coste, como el precio de los materiales que intervienen en la fabricación
de un producto o el error de un ajuste experimental, y que depende de una o varias variables
independientes. Por ejemplo, en la asignatura de “Matemáticas I” se ha estudiado un caso especial,
el de la regresión lineal, que conduce a un problema de esta clase: Dada una nube de puntos
(x1 , y1 ), (x2 , y2 ), . . . , (xn , yn ) que representan valores experimentales, se buscan los coeficientes de
la recta de ecuación y = ax + b que mejor se ajusta a estos datos en el sentido de los mı́nimos
cuadrados, esto es, que hacen mı́nima la suma de cuadrados
En otros casos la función objetivo representa un beneficio y se busca su valor máximo. Este
tipo de problemas que consisten en buscar máximos y mı́nimos de funciones que dependen de
varias variables independientes se conocen genéricamente como problemas de optimización sin
restricciones. Es más habitual que las variables no sean independientes, sino que estén ligadas
por una o varias relaciones; este tipo de problemas se conocen genéricamente como problemas de
optimización con restricciones. Dedicaremos esta lección a establecer las bases teóricas de este tipo
de problemas y dar las técnicas para resolver algunos ejemplos simples con dos o tres variables.
En las aplicaciones a la ingenierı́a el número de variables suele ser mucho mayor y es necesario
resolver los problemas de optimización de forma aproximada mediante técnicas numéricas que se
estudian en la asignatura “Métodos Matemáticos”, de segundo curso.
El caso particular en el que tanto la función objetivo como las restricciones son lineales, es de
especial importancia y se conoce como programación lineal. La resolución de los problemas de
programación lineal tiene técnicas muy especı́ficas que se basan en los resultados del álgebra lineal y
se estudian en las asignaturas “Estadı́stica e Investigación Operativa”, de primer curso, y “Métodos
Cuantitativos de Organización Industrial”, de tercer curso (GITI).
40
3. Optimización de campos escalares 41
Si recordamos el caso de las funciones de una variable, la determinación de los máximos y los
mı́nimos absolutos de una función en un intervalo se lleva a cabo usando las derivadas. En el
bachillerato se enseña que los puntos candidatos a que en ellos se alcance el máximo o el mı́nimo
absoluto de una función son los puntos en los que la derivada vale cero, los extremos del intervalo
y los puntos donde la derivada no existe; además, cuando la derivada primera es cero, entonces que
la derivada segunda sea positiva o negativa nos dice, respectivamente, si estamos ante un mı́nimo
relativo o un máximo relativo. Veremos que cuando la función objetivo depende de dos o más
variables, la diferenciabilidad también es la herramienta que permite resolver los problemas de
optimización.
Dedicaremos la primera sección a la optimización sin restricciones, donde analizaremos las nociones
de extremo absoluto, extremo relativo y punto de silla. En el caso de dos variables se intuye que en
un máximo, o en un mı́nimo, el plano tangente a la gráfica del campo escalar debe ser horizontal
y, por tanto, las derivadas parciales deben ser nulas; sin embargo, no está claro a priori el papel
que deben tener las derivadas parciales segundas para dilucidar si se trata de máximos o mı́nimos.
Esto lo estudiaremos también en esta sección, viendo que la herramienta esencial para determinar
cómo es dicho papel es la clasificación de la forma cuadrática asociada a la matriz hessiana.
El estudio de los problemas de optimización con restricciones lo empezamos en la segunda sección,
en la que abordaremos el problema de calcular los máximos y minimos relativos de una función de
dos o tres variables sobre una curva dada de forma implı́cita por una igualdad, en el plano, o dos
igualdades, en el espacio tridimensional. También analizaremos el caso en el que la restricción es
una superficie dada de forma implı́cita.
Finalmente, en la tercera sección, analizaremos la existencia de los máximos y mı́nimos absolutos
de una función escalar de dos o tres variables con restricciones generales y el procedimiento para
calcularlos.
Enunciaremos los resultados para funciones de tres variables aunque la mayorı́a son válidos para
funciones de más variables. Como venimos haciendo, usaremos el caso bidimensional, en el que
basta con suprimir la coordenada z (y cambiar “esfera” por “cı́rculo” en lo que sigue), para poner
ejemplos y dar las interpretaciones geométricas.
Los valores máximo y mı́nimo de f y, por abuso de lenguaje, los puntos en los que se alcanzan
dichos valores, se llaman extremos absolutos, o globales, de f en U .
Como ejemplo de partida, antes de abordar los problemas de optimización sin restricciones en el
caso general, nos detenemos en el caso particular de las formas cuadráticas que has estudiado en
“Matemáticas I”. La razón es doble: por un lado, porque es un caso simple en el que podemos ir
señalando las principales cuestiones con las que nos encontraremos y, por otro lado, porque será
esencial para determinar el carácter de los puntos crı́ticos, los puntos en los que se anulan las
derivadas parciales de la función objetivo. Empezamos recordando cómo se clasifican las formas
cuadráticas en términos del signo que pueden tomar sus autovalores y viendo cómo se relaciona
esto con sus extremos absolutos.
42 Matemáticas III (GIC y GITI, 2015–2016)
Forma cuadrática generada por una matriz simétrica. Sea A = [aij ] una matriz cuadrada,
real y simétrica de orden 3, entonces el campo escalar definido en R3 por
a11 a12 a13 x
ψ(x, y, z) = [x, y, z] a21 a22 a23 y
a31 a32 a33 z
se llama forma cuadrática generada por A y se puede escribir de forma desarrollada como
Clasificación de las formas cuadráticas. Se dice que una forma cuadrática no nula ψ o, por
extensión, la matriz real simétrica A que la genera, es:
(1) Definida positiva si ψ(x, y, z) > 0 para todo (x, y, z) ̸= (0, 0, 0) o, equivalentemente, si todos
los autovalores de A son positivos o, equivalentemente, si el origen es el único punto en el que se
alcanza el mı́nimo absoluto.
En dimensión dos, la gráfica de una forma cuadrática definida positiva es un paraboloide elı́ptico
con su vértice en el origen que se abre hacia arriba, por lo que no existe el máximo absoluto, ya
que los valores de ψ tienden a infinito cuando el punto (x, y) tiende a infinito.
(4) Semidefinida negativa si ψ(x, y, z) ≤ 0 para todo (x, y, z) y hay puntos (x, y, z) ̸= (0, 0, 0)
tales que ψ(x, y, z) = 0 o, equivalentemente, si 0 es un autovalor y los demás autovalores λ de A
cumplen λ ≤ 0 o, equivalentemente, si hay una recta o un plano de máximos absolutos que pasa
por el origen.
(5) Indefinida si no es definida ni semidefinida; o sea, si existen vectores (x, y, z) tales que
ψ(x, y, z) < 0 y existen vectores (x, y, z) tales que ψ(x, y, z) > 0 o, equivalentemente, si A tie-
ne algún autovalor positivo y algún autovalor negativo o, equivalentemente, si no tiene máximos
ni mı́nimos absolutos.
Desde el punto de vista geométrico, la gráfica de una forma cuadrática indefinida en dimensión
dos es un paraboloide hiperbólico, con centro en el origen, que se abre hacia arriba a lo largo de la
dirección del autovector asociado el autovalor positivo y hacia abajo a lo largo de la dirección del
autovector asociado al autovector negativo. Debido al parecido de esta gráfica con el de una silla
de montar a caballo, se dice que el origen es un punto de silla.
Más adelante en la sección aplicaremos esta clasificación a la matriz hessiana de un campo escalar
para determinar cuándo un punto en el que las derivadas parciales son cero es un mı́nimo relativo
o un máximo relativo.
Determinar los autovalores suele ser un trabajo complicado; sin embargo, lo único que necesitamos
conocer son los signos de los autovalores y para ello hay criterios relativamente simples de aplicar
en el caso bidimensional.
Criterios de clasificación para una matriz simétrica 2×2. Sea A una matriz real y simétrica
de orden 2. Sean t = a11 + a22 su traza y d = a11 a22 − a21 a12 su determinante. Entonces se cumple
lo siguiente:
(1) Si d > 0 y t > 0, entonces A es definida positiva.
(2) Si d > 0 y t < 0, entonces A es definida negativa.
(3) Si d < 0, entonces A es indefinida.
(4) Si d = 0 y t > 0, entonces A es semidefinida positiva.
(5) Si d = 0 y t < 0, entonces A es semidefinida negativa.
relativo: puntos donde la función alcanza su valor máximo o su valor mı́nimo entre los puntos
suficientemente cercanos. Como ya hemos comentado antes y hemos visto en el caso de las formas
cuadráticas de dos variables, la intuición geométrica nos dice que si una función definida en todos
los puntos del plano alcanza un extremo relativo en un punto, entonces el plano tangente a su
gráfica en dicho punto debe ser horizontal, lo que nos darı́a una condición práctica para restringir
la búsqueda de extremos absolutos. Vamos ahora a fijar todas estas ideas con precisión.
La gráfica de una función con dos máximos relativos; sólo uno de ellos es absoluto.
Criterio de las derivadas parciales nulas para los extremos relativos o condición nece-
saria de extremo relativo. Si la función objetivo f y tiene un extremo relativo en un punto P0
y es diferenciable en dicho punto, entonces Df (P0 ) = ⃗0.
∂f ∂f
En el caso de que f dependa de dos variables, tenemos (P0 ) = 0 y (P0 ) = 0, es decir,
∂x ∂y
efectivamente, el plano tangente a la gráfica de f es horizontal.
∂f ∂f ∂f
Para tres variables, tenemos (P0 ) = 0, (P0 ) = 0 y (P0 ) = 0.
∂x ∂y ∂z
Ejemplo. En el ejemplo de la recta de regresión, dados los puntos (x1 , y1 ), (x2 , y2 ), . . . , (xn , yn ) se
buscan los coeficientes de la recta de ecuación y = ax + b que hacen mı́nima la suma de cuadrados
∑n
∂f ∂f
f (a, b) = (axk + b − yk )2 . Imponiendo = = 0 obtenemos que los coeficientes óptimos
∂a ∂b
k=1
a, b son las soluciones del sistema de ecuaciones
( n ) ( n )
∑ ∑ ∑n
x2k a + xk b = xk yk
k=1 k=1 k=1
( )
∑
n ∑n
xk a + nb = yk
k=1 k=1
que son, como se ha visto en “Matemáticas I”, las ecuaciones normales de Gauss del sistema
[ ]T [ ]
x1 x2 . . . xn a T
sobredeterminado = [ y1 y2 . . . yn ] .
1 1 ... 1 b
3. Optimización de campos escalares 45
Puntos de silla. El teorema anterior nos dice que cualquier extremo relativo es un punto crı́tico.
Como ya hemos visto con las formas cuadráticas y es conocido del caso de una variable, el recı́proco
es falso en general. Ası́, hemos probado que la función objetivo f (x, y) = x2 − y 2 tiene un punto
crı́tico en (0, 0) y que, sin embargo, dicho punto no es un máximo relativo ni un mı́nimo relativo.
Los puntos crı́ticos de una función que no son extremos relativos de la misma se llaman puntos de
silla. Tan cerca como queramos de un punto de silla encontramos puntos en los que la función vale
más y puntos en los que la función vale menos que en el propio punto crı́tico.
Clasificación de los puntos crı́ticos. ¿Cómo podemos saber si un punto crı́tico es un máximo
relativo, un mı́nimo relativo o un punto de silla? Geométricamente, para funciones de dos variables,
el plano tangente a la gráfica en los puntos crı́ticos es un plano horizontal. En los máximos y
mı́nimos locales, cerca del punto el plano deja a un lado la superficie; en los puntos de silla, la
atraviesa. La geometrı́a de los puntos de silla se parece a la de los puertos de montaña: los puntos
más bajos hasta los que hay que subir para atravesar una sierra, por ello, a los puntos de silla
también se les llama puertos.
Como regla general, pero no siempre, si observamos las curvas de nivel, en torno a los máximos
y mı́nimos locales, las curvas de nivel aparecen como curvas cerradas. En los mı́nimos las curvas
se alejan del punto conforme el nivel crece; en los máximos se acercan al punto conforme el nivel
crece. En ambos casos, las curvas de nivel degeneran cuando nos acercamos al punto crı́tico; lo
que, recordando el teorema de la función implı́cita, nos dice que al ser ambas derivadas parciales
nulas, no podemos aplicar ese teorema para despejar una variable en función de la otra en la curva
de nivel, de hecho la curva de nivel en un máximo o un mı́nimo local se reduce a un punto; no es
propiamente una curva.
Un punto de silla o puerto. Máximos (A), mı́nimos (B) y puntos de silla (C).
En los puntos de silla las curvas de nivel aparentan acercarse y alejarse del punto sin llegar a
rodearlo y suelen aparecer dos curvas del mismo nivel que pasan justamente por el punto; en este
caso, no es posible aplicar el teorema de la función implı́cita para despejar una variable en función
de la otra, de hecho la ecuación implı́cita corresponde a dos curvas de nivel, no una sola.
se hace algo parecido aunque más complicado: utilizamos el teorema de Taylor y clasificamos la
forma cuadrática generada por la matriz hessiana. Para ello, observemos que si (x0 , y0 ) es un
punto crı́tico, de manera que Df (x0 , y0 ) = ⃗0 entonces el Teorema de Taylor nos dice que para
(x, y) suficientemente cerca de (x0 , y0 ) se tiene
[ ]
1[ ] 2 x − x0
f (x, y) ≈ f (x0 , y0 ) + x − x0 , y − y0 D f (x0 , y0 )
2 y − y0 ,
Por tanto, que f (x, y) sea mayor o menor que f (x0 , y0 ) depende del signo de la forma cuadrática
generada por la matriz hessiana D2 f (x0 , y0 ).
Ejemplos. (1) La(función)f (x, y) = x2 + ky 2 tiene un punto crı́tico en (0, 0). En dicho punto, la
2 0
matriz hessiana es . En función del signo de k obtenemos que:
0 2k
(1) Si k > 0, entonces la matriz es definida positiva y por tanto (0, 0) es un mı́nimo relativo.
(2) Si k < 0, entonces la matriz es indefinida y por tanto (0, 0) es un punto de silla.
(3) Si k = 0, entonces la matriz es semidefinida, por lo que el método no da información.
Si observamos la función en este caso vemos que f (x, y) = x2 ≥ 0 = f (0, 0), para todo
(x, y) ∈ R2 . Por tanto (0, 0) es un mı́nimo relativo de f .
(2) La función f (x, y) = x2 + ky 2 − y 3 tiene un(punto crı́tico
) en (0, 0). En dicho punto, la matriz
2 0
hessiana es la misma que en el ejemplo anterior . Sin embargo, en el caso en que la forma
0 2k
cuadrática es indefinida, el tipo de punto crı́tico es distinto. En efecto, en función del signo de k
obtenemos que:
(1) Si k > 0, entonces la matriz es definida positiva y por tanto (0, 0) es un mı́nimo relativo.
(2) Si k < 0, entonces la matriz es indefinida y por tanto (0, 0) es un punto de silla.
(3) Si k = 0, entonces la matriz es semidefinida, por lo que el método no da información. En
este caso vemos que f (x, y) = x2 − y 3 y, usando el mismo razonamiento que vimos antes
para x2 − y 2 , es fácil deducir que (0, 0) es un punto de silla de f .
EJERCICIOS DE LA SECCIÓN 1
Ejercicio 1. Halla y clasifica los puntos crı́ticos de los siguientes campos escalares (utiliza alguna
de las páginas web que se indican al final del guión para dibujar las gráficas y las curvas de nivel
del campo).
(1) f (x, y) = x4 − 2x2 y − 6x2 + 4y 2 (2) f (x, y) = x3 + 3xy 2 − 15x − 12y
f (x, y) = (x2 + y 2 )ex −y
2 2
(3) f (x, y) = 12x2 + 12y 2 − x3 y 3 + 5 (4)
(5) f (x, y) = x2 y + xy 2 + x + y (6) f (x, y) = (1 − x2 − y 2 )2
(7) f (x, y) = x2 y 2 (8) f (x, y) = cos(x) cos(y)
(9) f (x, y) = x3 + y 3 − 3xy (10) f (x, y) = x sen(y)
3. Optimización de campos escalares 47
Ejercicio 2. El origen es un punto crı́tico del campo escalar definido por f (x, y) = x2 + y 2 + αxy.
Determina qué tipo de punto crı́tico es según los valores de α.
Ejercicio 5. Sea f (x, y) = (x − cos(y)) ex − cos(y) un campo escalar de dos variables. Se pide:
(1) Calcular los infinitos puntos crı́ticos de f y clasificarlos.
(2) Comprobar que f (x, y) = 0 define y como función implı́cita y = y(x) cerca de P = (0, π/2).
(3) Hallar la recta tangente a la gráfica de y = y(x) en el punto P del apartado anterior.
Ejercicio 9. El origen es un punto crı́tico del campo escalar definido por f (x, y) = 3x4 −4x2 y +y 2 .
Comprueba que a lo largo de cada recta y = mx el origen es un mı́nimo pero que para el campo
dado el origen es un punto de silla (indicación: estudia qué ocurre sobre una parábola y = ax2 ).
Ejercicio 10. Del campo escalar f (x, y) = axy 2 + by − 4x3 se sabe que el valor máximo de
sus derivadas direccionales en el punto P = (1, 2) es 4 y se alcanza en la dirección del vector
⃗u = (0, −1). Halla los valores de las constantes a y b, calcula los puntos crı́ticos de f y clasifı́calos.
Ejercicio 11. Halla y clasifica los puntos crı́ticos de los siguientes campos escalares.
(1) f (x, y, z) = x4 + y 4 + z 4 − 4xyz (2) f (x, y, z) = x2 + y 2 + z 2 + xz + 3x − 2y
2 2 2
(3) f (x, y, z) = log(x + y + z + 1) (4) f (x, y, z) = x2 z + xy + 12z − z 3
48 Matemáticas III (GIC y GITI, 2015–2016)
Iniciamos en esta sección el estudio de los problemas de optimización con restricciones abordando
el problema de calcular los extremos relativos, máximos y mı́nimos, de una función de dos o
tres variables cuando estas variables no son independientes sino que están sobre una curva o una
superficie. Este tipo de problemas se conocen genéricamente como problemas de optimización con
restricciones de igualdad.
Problemas de optimización sobre curvas. Dada la función objetivo f , supongamos que te-
nemos una curva regular a trozos C contenida en el dominio de f y nos planteamos el problema
de hallar los valores máximo y mı́nimo que alcanza f sobre los puntos de la curva C.
Este problema puede resolverse por los métodos ya conocidos si podemos representar C mediante
una parametrización ⃗r(t), donde
( el)parámetro t recorre un cierto intervalo. En ese caso, pasamos a
una función objetivo ϕ(t) = f ⃗r(t) de una sola variable y hallamos su máximo y su mı́nimo sobre
el intervalo, si existen. A partir de los extremos de ϕ obtenemos los puntos de la curva C en los
que f alcanza sus extremos.
Sin embargo, a veces no se puede hallar una parametrización de C. En el plano esto ocurre
generalmente cuando C es una curva definida implı́citamente por g(x, y) = 0. En el espacio, ocurre
cuando la curva viene dada como la intersección de dos superficies definidas de forma implı́cita.
En esta sección abordaremos este tipo de problemas, primero en el caso bidimensional. Después
diremos como se extienden las técnicas al caso tridimensional, tanto para superficies como para
curvas definidas implı́citamente.
Extremos relativos restringidos en el plano. Dada la función objetivo f (x, y), supongamos
que tenemos una curva de ecuación implı́cita g(x, y) = 0 contenida en el dominio de f y sea (x0 , y0 )
un punto de dicha curva.
En la práctica, para hallar los extremos relativos de f sujetos a g(x, y) = 0, los puntos candidatos
se obtienen resolviendo un sistema de tres ecuaciones con tres incógnitas λ, x e y:
∂f ∂g ∂f ∂g
g(x, y) = 0, (x, y) = λ (x, y) y (x, y) = λ (x, y).
∂x ∂x ∂y ∂y
Como en el caso de la determinación de los puntos crı́ticos, la resolución de este sistema de ecua-
ciones puede ser complicada o, en algunos casos, imposible de hacer a mano y, en ese caso, hay
que emplear métodos numéricos para obtener soluciones aproximadas.
Para hallar los valores máximo y mı́nimo de f sobre la curva, a los puntos obtenidos resolviendo el
sistema hay que añadir los puntos de la curva g(x, y) = 0 en los que no se puede aplicar el teorema
de los multiplicadores, como los extremos de la curva, los puntos en los que Dg(x, y) no existe o
los puntos en los que se tiene Dg(x, y) = [0, 0].
∂f ∂g ∂f ∂g ∂f ∂g
g = 0, =λ , =λ , =λ .
∂x ∂x ∂y ∂y ∂z ∂z
De nuevo, a los puntos obtenidos resolviendo este sistema hay que añadir los puntos de la superficie
g(x, y, z) = 0 en los que no se puede aplicar el teorema de los multiplicadores, como el borde de la
superficie, los puntos en los que Dg(x, y, z) no existe o los puntos en los que Dg(x, y, z) = [0, 0, 0].
50 Matemáticas III (GIC y GITI, 2015–2016)
En el caso tridimensional también puede ocurrir que estemos trabajando en una curva definida
como la intersección de dos superficies de ecuaciones implı́citas g(x, y, z) = 0 y h(x, y, z) = 0.
En ese caso, la condición de que el diferencial de la restricción no sea cero hay que sustituirla
por una condición algo más exigente: que los diferenciales de las restricciones sean linealmente
independientes.
Si (x0 , y0 , z0 ) es un extremo relativo de la función objetivo f (x, y, z) sujeto a las restricciones
g(x, y, z) = 0 y h(x, y, z) = 0 y los diferenciales Dg(x0 , y0 , z0 ) y Dh(x0 , y0 , z0 ) son linealmente
independientes, entonces existen sendos multiplicadores λ y µ para cada restricción tales que
En este caso, los puntos candidatos para ser extremos relativos se obtienen con las soluciones del
correspondiente sistema de cinco ecuaciones con cinco incógnitas: x, y, z, λ y µ y, de nuevo, a
estos puntos hay que añadir los extremos de la curva restricción y los puntos en los que Dh(x, y, z)
y Dg(x, y, z) no son linealmente independientes o, simplemente, alguno de ellos no existe.
EJERCICIOS DE LA SECCIÓN 2
Ejercicio 3. Determina los posibles extremos relativos de la función f (x, y) = 2(x − 3)2 + (y − 4)2
siendo (x, y) puntos de la circunferencia unidad. Dibuja la restricción y las curvas de nivel de la
función objetivo e interpreta geométricamente el problema.
Ejercicio 5. Determina los puntos candidatos a ser extremos relativos de la función f (x, y) = xy
sujetos a la restricción x + y = 1
Ejercicio 6. Sea f (x, y, z) = 3x2 + 4xy + z 3 . Determina los puntos candidatos a ser extremos
relativos de f sujetos a x2 + y 2 = 1.
Ejercicio 7. Determina los puntos candidatos a ser extremos relativos de la función f (x, y) = xyz
sujetos a la restricción 2x + 4y + z − 6 = 0
Ejercicio 8. Determina los puntos candidatos a ser extremos relativos de la función objetivo
dada por f (x, y) = (x − 1)2 + y 2 + z 2 sujetos a la restricción x2 + (y − 1)2 = z 2 e interpreta
geométricamente el resultado.
Ejercicio 9. Calcula los puntos candidatos a ser extremos relativos del la función f (x, y, z) = z
sujetos a la curva intersección de la esfera x2 + y 2 + z 2 = 36 con el plano 2x + y − z = 6.
3. Optimización de campos escalares 51
Ejercicio 10. En los siguientes casos, calcula los puntos candidatos a ser extremos relativos de la
función f (x, y, z) = x2 + y 2 + z 2 sujetos a la restricciones que se dan
(1) x + 3z = 7, x + y + 3z = 9. (2) 2z 2 = x2 + y 2 , z = 1 + x + y.
(3) x2 + 2y2 + 3z 2 = 1, 2x2 + 3y 2 + z 2 = 1. (4) x2 + y 2 = 1, 2x + y + z = 4.
En las secciones anteriores hemos estudiado cómo detectar los extremos relativos de un campo
escalar sin restricciones o con restricciones de igualdad; apenas hemos visto nada sobre la existencia
y cálculo de sus extremos absolutos. Ahora analizaremos la existencia y los procedimientos de
obtención de máximos y mı́nimos absolutos de un campo escalar bajo restricciones generales.
Extremos absolutos. Los valores máximo y mı́nimo de f y, por abuso de lenguaje, los puntos
en los que se alcanzan dichos valores, se llaman extremos absolutos, o globales, de f en D.
lado, que la frontera viene dada por los tramos en los que alguna restricción es de igualdad, ası́
que los candidatos a extremos que estén en la frontera de D son los extremos relativos de f sujetos
a restricciones de igualdad — o sea, los que hemos estudiado en la segunda sección —.
Los resultados de las secciones anteriores requieren que la función objetivo sea, al menos, dife-
renciable y, si además queremos usar el test de las derivadas segundas para clasificar los puntos
crı́ticos, entonces de clase C 2 (U ), lo que ocurre en la práctica totalidad de los casos de interés. En
resumen, para determinar los extremos absolutos de una función objetivo de clase C 2 (U ) sobre un
conjunto cerrado y acotado D se hace, entonces, lo siguiente:
(1) Se descompone D en su frontera y su interior
(2) Se hallan los puntos crı́ticos de f en el interior de D.
(3) (a) Si son dos variables, entonces la frontera de D es una curva dada por igualdades. Para
hallar los extremos relativos de f en cada tramo de la frontera podemos hacer dos cosas:
– O bien la representamos (mediante )una parametrización (x(t), y(t)) y pasamos a una
función objetivo ϕ(t) = f x(t), y(t) de una sola variable, en cuyo caso se hallan los
puntos crı́ticos de ϕ y con estos valores crı́ticos del parámetro se obtienen los puntos
de la frontera en los que f podrı́a tener un extremo.
– O bien determinamos los candidatos a extremos relativos sujetos a la frontera usando
el teorema de los multiplicadores de Lagrange junto con los puntos en los que el
teorema no sea aplicable.
(b) Si tenemos tres variables, entonces la frontera de D es una superficie o una curva. En
este caso, o bien parametrizamos la frontera, o bien usamos el método de los multiplicadores
de Lagrange con una o dos restricciones según sea el caso.
(4) Se evalúa f en todos los puntos obtenidos y se escogen aquéllos donde f alcanza el valor
mayor (máximo absoluto) y el valor menor (mı́nimo absoluto).
En la siguiente figura vemos un ejemplo de optimización con restricciones. En rojo se representan
las curvas de nivel de la función objetivo y en azul el conjunto D de las restricciones; azul más
claro para el interior y más oscuro para la frontera. Los candidatos que están en el interior son
los puntos crı́ticos de la función objetivo: un máximo local A, un mı́nimo local B y dos puntos de
silla C. Los candidatos que están en la frontera son los seis puntos L dados por el teorema de los
multiplicadores de Lagrange (la frontera y la curva de nivel son tangentes en dichos puntos).
Para descartar errores o ahorrar en los cálculos, si f es de clase C 2 (U ), puede ser buena idea
clasificar los puntos crı́ticos obtenidos en el paso (1) mediante el test de las derivadas segundas; de
esa forma, si en el paso (4) obtenemos un máximo global en un punto crı́tico que hemos clasificado
como mı́nimo relativo entonces seguramente hay algún error en los cálculos
EJERCICIOS DE LA SECCIÓN 3
Ejercicio 2. Sea f : R2 → R la función definida por f (x, y) = cos(x) + sen(y). Halla y clasifica
sus puntos crı́ticos en el interior del cuadrado D dado por 1 ≤ x ≤ 7, 1 ≤ y ≤ 7.
Ejercicio 6. Determina el rectángulo de mayor área, con lados paralelos a los ejes, que puede
inscribirse en la elipse definida por la ecuación x2 /a2 + y 2 /b2 = 1.
Ejercicio 8. Determina los puntos donde el campo f (x, y) = 4x2 +y 2 −4x−3y alcanza sus valores
máximo y mı́nimo absolutos en la mitad superior de la elipse 4x2 + y 2 ≤ 13.
Ejercicio 9. En los siguientes casos, determina los puntos de la curva más próximos al origen de
coordenadas (en los problemas de hallar el mı́nimo o el máximo de una distancia es conveniente
tomar como función objetivo el cuadrado de la distancia para evitar la raı́z cuadrada).
(1) La recta x + y = 4.
(2) La circunferencia de centro (1, 2) y radio r = 8.
(3) El triángulo de vértices A = (−3, 2), B = (3, 8) y C = (−6, 1).
Ejercicio 10. Calcula las dimensiones de la pirámide recta de base cuadrada y máximo volumen
que puede construirse con un alambre de longitud L.
Ejercicio 11. Calcula los extremos absolutos de la función f (x, y) = xye−xy en la región D dada
por x2 + 4y 2 ≤ 1.
Ejercicio 12. Considera la región D del primer cuadrante limitada por las curvas: y 2 − x2 = 1,
x2 − y 2 = 1, x + y = 2, x + y = 4. Halla los extremos absolutos de f (x, y) = 2x3 + y 2 en D.
Ejercicio 13. Considera el campo escalar f (x, y) = 3x3 +9xy 2 +36x2 +47y +1. Sea S la superficie
de ecuación z = f (x, y) y sea P = (x, y, z) un punto de S. Sabiendo que una de las rectas tangentes
a S en P es paralela a la recta r dada por las ecuaciones x + y = 0 y x − y + z = 0, prueba que las
coordenadas (x, y) de P están sobre la parábola de ecuación x2 + y 2 − 2xy + 8x − 5 = 0 y halla el
punto de esta parábola más cercano al punto (−2, 0).
54 Matemáticas III (GIC y GITI, 2015–2016)
Ejercicio 15. Sea f (x, y, z) = 3x2 + 4xy + z 3 . Calcula los extremos absolutos de f en el cilindro
S = {(x, y, z) ∈ R3 : x2 + y 2 ≤ 1, −2 ≤ z ≤ 2}.
Ejercicio 18. Calcula los extremos absolutos de f (x, y, z) = x + 3xy − z 2 en la esfera unidad.
Ejercicio 20. Una sonda espacial con forma esférica de radio 6 unidades entra en la atmósfera y
su superficie empieza a calentarse. Pasada una hora, la temperatura en un punto (x, y, x) de su
superficie es de T (x, y, z) = 6x − y 2 + xz + 60. Determina los puntos de la superficie de la sonda
más frı́os y más calientes. Razona en ambos casos por qué podemos garantizar su existencia.
Ejercicio 21. Encuentra el punto más alto de la circunferencia definida por la intersección de la
esfera x2 + y 2 + z 2 = 36 con el plano 2x + y − z = 6.
Ejercicio 22. En los siguientes casos, determina los puntos de la curva más próximos al origen
de coordenadas
(1) La intersección del cono 2z 2 = x2 + y 2 con el plano z = 1 + x + y.
(2) La curva dada por la intersección de los elpsoides x2 + 2y2 + 3z 2 = 1 y 2x2 + 3y 2 + z 2 = 1.
(3) El triángulo de vértices A = (−3, 2, 2), B = (3, 8, −4) y C = (−6, 1, 0).
Ejercicio 23. Encuentra el punto del cono z 2 = x2 + (y − 1)2 más cercano al punto P = (1, 0, 0).
Ejercicio 24. Encuentra las dimensiones óptimas de un recipiente con forma de caja sin tapa de
superficie dada a.
Ejercicio 25. Encuentra las dimensiones óptimas de un recipiente con forma de caja sin tapa de
volumen dado v.
Ejercicio 26. Halla las distancias máxima y mı́nima desde el origen hasta la curva dada por la
intersección de los elipsoides x2 + 2y 2 + 3z 2 = 1 y 2x2 + 3y 2 + z 2 = 1.
Ejercicio 27. Calcula el punto más cercano al eje OY de la elipse dada por la intersección del
cilindro x2 + 2y 2 = 1 con el plano 3x = 4z.
Ejercicio 28. Calcula los extremos absolutos del campo escalar f (x, y, z) = x − y − z sobre la
elipse dada por la intersección del cilindro 2x2 + y 2 = 4 con el plano x + y + z = 1.
3. Optimización de campos escalares 55
Algunas notas históricas. Los problemas de optimización — el cálculo de máximos y mı́nimos — forman parte de
las matemáticas, y de sus aplicaciones a la mecánica y la ingenierı́a, desde sus orı́genes. Por ejemplo, los astrónomos
de Babilonia ya se dieron cuenta que los planetas parecı́an detenerse cuando aparentaban estar lo más lejos o cerca
posible. La leyenda de la reina Dido, fundadora de Cartago, cuenta cómo resolvió, mediante una circunferencia,
el problema de rodear una cantidad lo más grande posible de terreno cuando el perı́metro está dado. Este y otros
problemas de optimización fueron resueltos por los geómetras griegos. Por ejemplo, Herón descubrió, en torno al
siglo i ac, que la luz se refleja siguiendo el camino más corto.
Con la invención del cálculo infinitesimal se desarrollaron los primeros métodos sistemáticos para resolver problemas
de optimización. Ası́, Pierre de Fermat fue el primero, en 1636, en postular que la derivada vale cero en los extremos
locales de una función de una variable. También mostró en 1657 que la ley de Snell es una consecuencia de que la
luz viaja siguiendo el camino más corto también cuando se refracta al pasar de un medio a otro, aire y agua, por
ejemplo, en el que viaja a diferente velocidad. En 1696 Johann y Jacob Bernoulli y Newton plantean y resuelven al
problema de la braquistocrona: la propiedad que tiene la cicloide de ser la curva por la que un móvil sujeto a la acción
de la gravedad pasa en el menor tiempo posible de un punto a otro, ambos situados en un mismo plano vertical.
56 Matemáticas III (GIC y GITI, 2015–2016)
Este resultado y otros en problemas similares permiten a Leonhard Euler formular en 1740 los primeros criterios de
optimalidad de curvas y superficies, lo que se conoce como el cálculo de variaciones. Joseph Louis Lagrange resolvió
en 1755 algunas cuestiones planteadas por Euler, y su colaboración culminó con la formulación de las ecuaciones
de Euler-Lagrange que son el punto central de la teorı́a del cálculo de variaciones. En paralelo, Lagrange formuló
en 1759 el test de las derivadas segundas para funciones de dos variables y también fue de los primeros en estudiar
problemas de optimización con restricciones, formulando en 1788 su teorema de los multiplicadores.
A lo largo del siglo xix y primera mitad del xx se establecen los fundamentos teóricos de la disciplina y se formulan
métodos numéricos para resolver problemas de optimización. En 1806 Adrien M. Legendre y Carl F. Gauss inventan
el método de los mı́nimos cuadrados. Bernard Bolzano (1830, para funciones de una variable) y Karl Weierstrass
(1860, para varias variables) formulan la condición suficiente para la existencia de extremos; Carl Gustav Jacobi,
en 1850, y James Joseph Sylvester, en 1852, dan la clasificación de las cuádricas según los signos de los autovalores,
extendiendo el resultado de Lagrange a campos de varias variables. Augustin Cauchy formula en 1857 el método
del descenso más rápido.
La aparición de los computadores a mediados del siglo xx dieron un enorme impulso a los métodos numéricos
para resolver problemas de optimización que son esenciales en la ingenierı́a. Señalemos, sobre todo, el método del
sı́mplex que permite resolver problemas de optimización lineales de muchas variables sujetas a restricciones lineales,
inventado de forma independiente por Leonid V. Kantorovich en 1939 y George Dantzig en 1947. Este y otros
métodos serán estudiados en las asignaturas “Métodos Matemáticos”, “Estadı́stica e Investigación Operativa” y, en
GITI, “Métodos Cuantitativos de Organización Industrial”.
BIBLIOGRAFÍA