Está en la página 1de 22

VALORES EXTREMOS EN FUNCIONES DE VARIAS VARIABLES

JUAN CARLOS SALAZAR GUALDRÓN1

Resumen

El propósito de este artículo es mostrar resultados de la teoría de los valores


extremos para funciones reales de varias variables. Aunque la teoría se expondrá
para el caso de variables independientes, la ilustraremos con algunos ejemplos
para localizar estos valores en funciones reales de dos y tres variables
independientes y a su vez mostraremos su relación con el Álgebra Lineal.

Palabras Claves: Valores extremos en varias variables, Matrices definidas


positivas, negativas e indefinidas, Criterio de Sylvester.

Abstract

This article aims to show the findings on extreme values theory for real functions of
several variables. Though theory will be exposed for the case of n independent
variables, it will be illustrated with some examples to locate these values in real
functions of two and three independent variables and at the same time its
relationship with Linear Algebra will be shown.

Keywords: Extreme values in several variables, positive defined Matrices, negative


and indefinite, Criterion of Sylvester.

Introducción

Para la construcción de la gráfica de una función existen características


geométricas relevantes, una de ellas son los valores extremos, en los cuales la
función alcanza su mayor y menor valor. Es así, que el objetivo en este trabajo es
deducir un método que nos permita determinar estos valores que como es normal
en un curso de Cálculo Vectorial en donde se tratan las funciones de valor real de
varias variables, al abordar esta teoría de los valores extremos absolutos o
locales, ésta se presenta sólo con aplicaciones correspondientes al caso de dos

1
Docente tiempo completo Universidad Santo Tomás. Licenciado en Matemáticas - UIS, Magister en
Ciencias Matemáticas - UNAL. Correo electrónico: jcsalazargu@gmail.com
variables independientes. En el proceso de determinar estos valores pueden
identificar dos pasos importantes; la localización de los puntos y por otra parte el
hecho de decidir si en ese punto se presenta un máximo, un mínimo o ninguno de
los dos, es aquí donde la teoría encuentra su relación con el Álgebra Lineal, más
precisamente, con el concepto de Matriz y con el de determinante de una matriz.

Para nuestro propósito, primero daremos unas notas históricas de la teoría,


posteriormente se presentarán notaciones, definiciones y resultados tanto de la
teoría de los valores extremos de las funciones en variables independientes
como de las nociones del Álgebra Lineal necesarias y, por último ilustraremos la
teoría con ejemplos, en donde se presenta paso a paso la forma de resolverlos.
Notación

Conjunto de los números reales

Espacio vectorial real donde sus elementos son -uplas con entradas reales

Espacio vectorial complejo donde sus elementos son -uplas con entradas
complejas

La función real de variables independientes definida en un


abierto que toma valores reales, donde cada está dado por

La derivada parcial de con respecto a la variable independiente

La segunda derivada parcial de con respecto a

la variable independiente

La derivada mixta de segundo orden con


respecto a las variables independientes y con .

Se lee “ es de clase ” y significa que existe (la _ésima derivada de


)y es continua.

Espacio de las matrices de tamaño con entradas reales

Traspuesta de

Determinante de
1. Notas Históricas

Los problemas típicos que dieron origen al Cálculo Infinitesimal, comenzaron a


plantearse en la época clásica de Grecia (siglo III a.C.), pero, no se encontraron
métodos sistemáticos de resolución hasta 20 siglos después (en el siglo XVII por
obra de Newton y Leibnitz).

En lo que atañe a las derivadas, existen dos conceptos de tipo geométrico: el


problema de la tangente a una curva (concepto griego estático en contraste con el
concepto cinemático de Arquímedes) y el problema de los valores extremos de
una función (máximos y mínimos), que en su conjunto dieron origen a lo que
modernamente se conoce como Cálculo Diferencial.

En cuanto al problema de los valores extremos relativos de una función, fue el


abogado de profesión y matemático por vocación Pierre de Fermat (1601 – 1665)
quien en el año 1629, hizo dos importantes descubrimientos que están
relacionados con sus trabajos sobre lugares geométricos. En el más importante de
ellos, titulado Methodus ad disquirendam maximan et miniman ("Métodos para
hallar máximos y mínimos"), Fermat expone un método muy ingenioso para hallar
los puntos en los cuales una función polinómica de la forma , toma un
valor máximo o mínimo. Fermat comparaba el valor de en un cierto punto, con
el valor de en un punto próximo; en general, estos dos valores son
distintos, pero, en una "cumbre" o en el fondo de un "valle" de una curva "lisa" la
diferencia es casi imperceptible. Por lo tanto, para hallar los puntos que
corresponden a valores máximos o mínimos de una función, Fermat iguala
con , teniendo en cuenta que estos valores son "casi iguales". Cuanto más
pequeña sea la diferencia entre los dos puntos, más cerca está la igualdad de
ser verdadera, por último se divide todo por y luego se hace . A este
2
proceso se le denomino adigualación . Este resultado le permite calcular las
abscisas de los puntos donde se presentaban los máximos y mínimos de la
función polinómica. Aquí se puede ver ya en esencia, el proceso que ahora se
llama diferenciación, ya que el método de Fermat es equivalente a calcular
e igualar el límite a cero. Esta fue la razón que inspiro al astrónomo, físico y
matemático francés Pierre Simón Laplace (1749 - 1827) para aclamar a Fermat
como el verdadero padre del Cálculo Diferencial, aunque su proceso de
adigualación está lejos de las ideas de límite que más tarde entraran en escena.

2
El término adigualar, en latín adequatio, proviene del griego parisótes con el que Diofanto denota que un
número se aproxima a otro tanto como sea posible.
Es así, que son numerosos los precursores e historiadores que han considerado al
físico Inglés Sir Isaac Newton (1642 – 1727) y al matemático alemán Gottgried
Wilhelm Leibnitz (1646 – 1716) a quienes se les puede atribuir la invención de las
derivadas y de las integrales3. Poco tiempo después, aparece uno de los
matemáticos más prolíficos de la historia, el gran matemático y físico suizo
Leonhard Paul Euler (1707 -1783) considerado como el principal matemático del
siglo XVIII y como uno de los más grandes de todos los tiempos contribuyendo
con gran parte de la matemática relacionada con la teoría de los máximos y
mínimos de cantidades escalares, parte de esta teoría se expondrá en este
trabajo.

Por otra parte, la teoría de los valores extremos de una función, como ya se había
mencionado, tiene relación con el Álgebra Lineal, más precisamente al instante de
decidir si en el punto localizado se presenta un máximo, un mínimo o ninguno de
los dos. Uno de los conceptos más usados es el discriminante o determinante de
la matriz Hessiana o simplemente Hessiano, introducido en el año 1844 por Hess,
matemático alemán. Esto sucedió luego de que Carl Gustav Jacob Jacobi (1804-
1851) introdujera “los jacobianos”. Respecto a los detalles biográficos de Ludwig
Otto Hess se sabe que nació Konigsberg, Alemania (aunque actualmente es
Rusia) el 22 de abril de 1811. Estudió con Jacobi en su ciudad natal, donde se
desempeño como maestro de física y química. En 1856 se trasladó a Heidelberg,
donde permaneció dos años y posteriormente se trasladó a Múnich, donde falleció
el 4 de agosto de 1874. Ludwig Otto Hess se hizo famoso por ésta matriz que
introdujo en un artículo de 1842 referido a curvas cúbicas y cuadráticas.

3
Introducción histórica a la derivada. [En línea] http://huitoto.udea.edu.co/Matematicas/9.1.html.
Consultado agosto 20 de 2010.
2. Preliminares

En esta primera parte se enuncian las definiciones y resultados sin demostración


que serán usadas en el desarrollo de nuestro tema central, la localización de los
valores extremos de funciones en variables independientes.

Definición 2.1: Sea una función en las variables


tal que existen para , entonces el gradiente de , denotado por
, es el vector cuyas componentes son las derivadas parciales de
primer orden de , es decir,

Definición 2.2: Sea una función de valor real, un punto es


un mínimo absoluto de si para todo punto se tiene que . (Ver
la figura No. 1)

Definición 2.3: Sea una función de valor real, un punto es


4
un mínimo local de si existe una vecindad de tal que para todo punto
se tiene que . (Ver la figura No. 1)

Figura No. 1 Punto mínimo absoluto y local de una función en dos variables.
Fuente: http://www2.uah.es/fsegundo/calcTeleco/esquemas/140-FuncionesDosVariables.pdf

4
Un entorno o vecindad de es un disco abierto centrado y radio , esto es,
.
Definición 2.4: Sea una función de valor real, un punto es
un máximo absoluto de si para todo punto se tiene que . (Ver
la figura No. 2)

Definición 2.5: Sea una función de valor real, un punto es


un máximo local de si existe una vecindad de tal que para todo punto
se tiene que . (Ver la figura No. 2)

Figura No. 2 Punto máximo absoluto y local de una función en dos variables.
Fuente: http://www2.uah.es/fsegundo/calcTeleco/esquemas/140-FuncionesDosVariables.pdf

Definición 2.6: Para el punto , el valor es un valor extremo relativo o


local de , si es un máximo o mínimo local.

Surge una pregunta: ¿En qué puntos se presentan los valores extremos de una
función en variables independientes? La ubicación de los valores extremos de
una función en variables independientes está basada en el hecho que se conoce
desde el cálculo de una variable, todo valor extremo se presenta en un punto
crítico.

Definición 2.7: Sean, y con . El punto


es un punto crítico de , si se satisface una de las siguientes
condiciones:

1. para todo , esto es,


5

5
A este tipo de puntos que anulan todas las derivadas parciales de primer orden se les denomina puntos
críticos estacionarios, este nombre se debe a interpretaciones físicas.
2. no existe para algún con .

Nótese que la condición 1 es equivalente a que , donde es el


gradiente de .

Definición 2.8: Sea . Se dice que es simétrica, si .

Definición 2.9: Sea . Se llama submatriz principal a toda submatriz


de formada eligiendo los mismos índices para las filas y las columnas.

Definición 2.10: Sea . Las submatrices principales que son formadas


con las primeras filas y columnas de la matriz y que se denotan por , siendo
el orden de la submatriz, se denominan submatrices angulares.

Sea

Entonces, las submatrices angulares de son

Definición 2.11: Los menores principales de , son los determinantes


de las matrices para .

Afirmación 2.12: Sea

Entonces, el determinante de está dado por

donde . La anterior se conoce como la expansión por cofactores de


Laplace por cualquier fila de la matriz.
Definición 2.13: Sea . El número (real o complejo) se llama valor
propio de si existe un vector diferente de cero tal que

El vector se llama vector propio de correspondiente al valor propio .

Teorema 2.14: Sea . Entonces, es un valor propio de si, y sólo si,

A la ecuación anterior se llama ecuación característica de y se le


denomina polinomio característico de .

Nótese que, el teorema anterior garantiza que los valores propios de no son otra
cosa que las raíces o ceros de un polinomio, en este caso del polinomio
característicos.

Definición 2.15: Sean, una función definida en el abierto y


tal que es de clase en . Se define la matriz hessiana de en a la
matriz que se denota y está dada por

Nótese que es una matriz simétrica, este resultado se debe al Teorema de


Schwarz (Si las derivadas de primer y segundo orden de son continuas en ,
entonces las derivadas mixtas en son iguales, es decir, ).

Por otra parte, a la hora de calcular los valores extremos de una función ésta
matriz juega el mismo papel que la segunda derivada en funciones de una sola
variable, como lo mostraremos en la siguiente sección, para ello recordamos
primero lo que es una matriz definida positiva o negativa, para lo cual usaremos la
siguiente notación.
Si consideramos un vector , este lo podemos ver como
una matriz y así denotar por a su matriz traspuesta y, si podemos
escribir

Definición 2.16: Sea . Se dice que:

 es definida positiva, si para todo vector no nulo.


 es definida negativa, si para todo vector no nulo.
 es semidefinida positiva, si para todo vector .
 es semidefinida negativa si para todo vector .
 es indefinida en cualquier otro caso.

Dado que la matriz hessiana es simétrica, nuestro interés se centra en


caracterizaciones de las matrices definidas positivas o negativas en el caso
particular de las matrices simétricas, estas están dadas en términos de los valores
propios y de los determinantes de los menores principales.

Teorema 2.17: Sean, una matriz simétrica de tamaño y sus


valores propios. Entonces,

 es definida positiva si, y sólo si, para


 es definida negativa si, y sólo si, para
 es semidefinida positiva si, y sólo si, para
 es definida positiva si, y sólo si, para
 es indefinida si existen y tales que y

En algunos casos el hecho de calcular el polinomio característico para así hallar


los valores propios de una matriz a menudo no es práctico. Sin embrago, existe
otra caracterización de la matrices simétricas definidas positivas o negativas, tal
caracterización está dada en términos de los determinantes de los menores
principales y se denomina Criterio de Sylvester en honor al matemático británico
James Joseph Sylvester (1814-1897)6

6
James Joseph Sylvester. [En línea] http://es.wikipedia.org/wiki/James_Joseph_Sylvester. Consultado
agosto 25 de 2010.
Teorema 2.18: (Criterio de Sylvester) Sean, una matriz simétrica de tamaño
y las submatrices angulares de . Entonces,

 es definida positiva si, y sólo si, para


 es definida negativa si, y sólo si, para ,
es decir, los determinantes de los menores principales tienen signo alterno
comenzando con un valor negativo.
 En caso contrario y si , entonces es indefinida.
3. Condiciones necesarias para la existencia de los valores extremos
relativos.

Análogamente a una función en una variable, una función en varias variables


puede alcanzar los valores extremos relativos en puntos donde ella sea o no
diferenciable. Es así que surge la pregunta: ¿En cualquier punto donde la función
sea diferenciable puede alcanzar un máximo o mínimo? La respuesta la reúne el
siguiente teorema.

Teorema 3.1: Sean, y con . Si tiene un


valor extremo relativo en el punto , entonces es un punto crítico de .

Nota 3.2: El teorema anterior sólo garantiza condiciones necesarias de existencia


de puntos en donde posiblemente la función presenta los valores extremos, es
decir, nos indica unos candidatos y ellos son precisamente los puntos críticos.

Después de identificar estos candidatos, la discusión se centra en la clasificación


de estos puntos como máximos o mínimos o ninguno de los dos. Por lo cual surge
la siguiente afirmación.

Teorema 3.3: Sean, una función de clase en el abierto y


un punto crítico de . Entonces

 Si es definida positiva, entonces tiene un mínimo relativo en


 Si es definida negativa, entonces tiene un máximo relativo en
 Si es indefinida, entonces tiene un punto de silla , es decir, no es
ni un máximo ni un mínimo relativo.
 En cualquier otro caso el criterio No es concluyente.

Nota 3.4: Los puntos críticos que no son valores extremos, es decir, que no es ni
un máximo ni mínimo, se denominan puntos de silla, el nombre se debe a la
forma de la superficie cuádrica conocida como Paraboloide Hiperbólico, que
parece una silla de montar. El hecho del nombre se debe básicamente a que el
punto (donde nos sentamos) la gráfica tiene un máximo, pero a su vez es mínimo,
todo depende de la curva de aproximación (Ver figura No.3).
Figura No. 3 Punto de Silla
Fuente: http://www.cidse.itcr.ac.cr/cursos-linea/SUPERIOR/t2-Funciones-de-variasvariables/2-graficos-funciones/index.html

Nota 3.5 Cuando en una función se presenta un punto de silla en uno de sus
puntos críticos, esto NO significa que la gráfica de la función tenga
necesariamente la forma de una “silla de montar”, sino simplemente que cerca del
punto crítico la función toma valores mayores y menores al valor que toma en
dicho punto.
4. Ejemplos

En esta sección aplicaremos nuestros resultados obtenidos en la sección anterior,


mostrando paso a paso la localización de los valores extremos de una función en
varias variables.

Ejemplo 4.1: Hallar los valores extremos para la función

Solución:

Calculamos las derivadas parciales de primer orden de :

Los puntos críticos de se obtienen igualando a cero las derivadas parciales

y resolviendo el sistema se tiene y . Así, es el único punto


crítico.

Hallamos la matriz hessiana de en , para lo cual requerimos las segundas


derivadas parciales de :

Por lo tanto, la matriz hessiana está dada por

Por último, sacamos conclusiones de la matriz obtenida, para este ejemplo


utilizaremos el resultado del Teorema 2.17, calculando los valores propios de la
matriz . El polinomio característico está dada por
y así sus valores propios son y . Nótese que, para , esto
implica que la matriz es definida positiva. Por lo tanto, debido al
Teorema 3.3, la función tiene un mínimo
relativo en el punto .

Ejemplo 4.2: Hallar los valores extremos para la función

Solución:

Calculamos las derivadas parciales de primer orden de :

Los puntos críticos de se obtienen igualando a cero las derivadas parciales

y al resolver el sistema se tiene , y . Así, el punto es el único


punto crítico de la función.

Hallamos la matriz hessiana de en , para lo cual requerimos las


segundas derivadas parciales de :

Por lo tanto, la matriz hessiana está dada por


Por último, sacamos conclusiones de la matriz obtenida, para este ejemplo
utilizaremos el criterio de Sylvester, calculando los determinantes de los menores
principales:

Nótese que, para , esto implica que la matriz es


definida positiva. Por lo tanto, debido al Teorema 3.3, la función
tiene un mínimo relativo en el punto
.

Ejemplo 4.3: Hallar los valores extremos para la función

Solución:

Calculamos las derivadas parciales de primer orden de :

Los puntos críticos de se obtienen igualando a cero las derivadas parciales

y resolviendo el sistema se tiene , y Así, es el único


punto crítico.

Hallamos la matriz hessiana de en , para lo cual requerimos las


segundas derivadas parciales de :
Por lo tanto, la matriz hessiana está dada por

Por último, sacamos conclusiones de la matriz obtenida, para este ejemplo


utilizaremos el resultado del Teorema 2.17, calculando los valores propios de la
matriz . El polinomio característico está dada por

y así sus valores propios son y , esto se debe a que la matriz


es diagonal y sus valores propios son los valores sobre la diagonal principal.
Nótese que, pero , esto implica que la matriz es
indefinida. Por lo tanto, debido al Teorema 3.3, la función
tiene un punto de silla en el punto
.

Ejemplo 4.4: Hallar los valores extremos para la función

Solución:

Calculamos

Entonces, . Por lo tanto, los puntos críticos de


se obtienen cuando , esto implica que:
Al resolver la primera ecuación se tiene y , de manera similar las
soluciones de la segunda ecuación obtenemos y .Por últimos la
solución de la ecuación tres es . Así, los puntos críticos de la función son:

Hallamos la matriz hessiana de , para lo cual requerimos las segundas derivadas


parciales de :

Por lo tanto, la matriz hessiana está dada por

Por último, sacamos conclusiones de la matriz obtenida para cada punto crítico:

 En los puntos críticos , , , y las


matrices hessianas están dadas por:

Nótese que, las matrices son diagonales y sus valores propios son los
valores sobre la diagonal principal, los cuales son positivos y negativos.
Por el Teorema 2.17, éstas matrices son indefinidas y así los puntos críticos
son puntos de silla.
 En los puntos críticos , , y las matrices
hessianas están dadas por:

Nótese que, las matrices son diagonales y sus valores propios son los
valores sobre la diagonal principal, los cuales son positivos. Por el Teorema
2.17, éstas matrices son definidas positivas y así los puntos críticos son
mínimos relativos.

Ejemplo 4.5: Hallar los valores extremos para la función

Solución:

Calculamos

Entonces, . Por lo tanto, los puntos críticos


de se obtienen cuando , esto implica que:

Al resolver el sistema compuesto por la primera y tercera ecuación se obtiene los


valores: , ,y , , otro valor que se tiene es , pero NO es
solución del sistema. De la ecuación dos se tiene . Así, los puntos críticos de
la función son:
Hallamos la matriz hessiana de , para lo cual requerimos las segundas derivadas
parciales de :

Por lo tanto, la matriz hessiana está dada por

Por último, sacamos conclusiones de la matriz obtenida para cada punto crítico:

 En el punto crítico la matriz hessiana está dada por:

Utilizaremos el criterio Sylvester, calculando los determinantes de los


menores principales:

Nótese que, por el ítem tres del criterio Sylvester, la matriz hessiana es
indefinida, así el punto crítico es un punto de silla.

 En el punto crítico la matriz hessiana está dada por:

Calculando los determinantes de los menores principales se obtiene:

Nótese que, por el ítem dos del criterio Sylvester, la matriz hessiana es
definida negativa, así el punto crítico es un máximo relativo.
Bibliografía

1. Caicedo C. José F. “Cálculo Avanzado Introducción”. Facultad de Ciencias,


Universidad Nacional de Colombia. 2000.

2. Cálculo para la ingeniería, ejercicios resueltos, Salvador Vera [En Línea]


http://www.matap.uma.es/~svera/probres/pr3/pr3a3_1.html Consultado junio
de 2010.

3. Derivadas Parciales. [En línea] http://es.wikipedia.org/wiki/Derivada_parcial.


Consultada agosto de 2010.

4. Diferenciación y optimización en varias variables [En Línea]


http://docs.google.com/viewer?a=v&q=cache:51qPlv2VOKIJ:www.dmae.upct
.es/~cangosto/docencia/diferenciacionoptimizacionvarias.pdf+diferenciacion
+y+optimizacion+en+varias+variables&hl=es&gl=co&pid=bl&srcid=ADGEESj
SJkdImM6_jd46MT9Wd0H64qOCSJC_T5Hqhasl8gTirg7wiudFT_O8-ois-
gbgMsmjAkN3Ssx8lGHAnEOCqTkS9E39ulhqy-9rky4SJTKnz-OS-
YPWeLvLhlIP9nhLqoLIfm0x&sig=AHIEtbRW3DQvsWjx13kkfSGe8OsUmOd
V_g Consultado junio de 2010.

5. Discriminante o Hessiano (Matriz hessiana) para encontrar máximos,


mínimos y puntos de silla en funciones de varias variables. [En línea]
http://www.docstoc.com/docs/891262/Discriminante-o-Hessiano-%28Matriz-
Hessiana%29-para-Encontrar-M%C3%A1ximos-M%C3%ADnimos-y-Puntos-
de-Silla-en-Funciones-de-Varias-Variables. Consultado agosto de 2010.

6. Extremos de funciones en varias variables [En Línea]


http://www.scribd.com/doc/9112094/Extremos-de-Funciones-de-Varias-
Variables. Consultado junio de 2010.

7. Gráfica de funciones en dos variables. [En línea]


http://www.cidse.itcr.ac.cr/cursos-linea/SUPERIOR/t2-Funciones-de-
variasvariables/2-graficos-funciones/index.html Consultado en junio de 2010

8. Grossman, Stanley I. “Algebra Lineal”. Quinta Edición. 1996.

9. Introducción histórica a la derivada. [En línea]


http://huitoto.udea.edu.co/Matematicas/9.1.html. Consultado agosto de 2010.

10. Jiménez M. José A. “Álgebra Lineal II con aplicaciones en estadística”.


Notas de Clase, Facultad de Ciencias, Universidad Nacional de Colombia.
2004.
11. MARSDEN, Jerrold, E.; TROMBA, Anthony, J. “Cálculo Vectorial”. Tercera
Edición. 1991.

12. Más sobre máximos y mínimos de funciones en varias variables


independientes. [En Línea] http://ajlasa.com/mate3/max-min2.pdf.
Consultado agosto de 2010.

13. Matemáticas para economistas, capitulo 4, Carlos Orihuela Romero [En


Línea]http://tarwi.lamolina.edu.pe/~corihuela/mpeconomistas/capitulo%204-
Optimizacion.pdf Consultado junio de 2010.

14. Matriz Definida Positiva. [En Línea]


http://es.wikipedia.org/wiki/Matriz_definida_positiva. Consultada agosto de
2010.

15. Matriz Hessiana [en Línea] http://es.wikipedia.org/wiki/Matriz_hessiana


Consultada junio de 2010

También podría gustarte