Consideremos el caso que deseamos encontrar los valores extremos de F
sobre U sujeto a la restricción: G(x) = 0 donde la ∇G ≠ 0 sobre U. Tomamos P = { x / x ∈ U ∧ G(x) = 0}, entonces debemos determinar los valores extremos de F(X) tal que x ∈ P La idea es que estos valores extremos se obtienen cuando en x0∇G y ∇F son paralelas, entonces ∇F(x0) = λ∇G(x0) ∧ G(x0) = 0 Teorema: Supongamos que F y G son funciones de R3 en R que pertenecen a la clase C1 en un conjunto abierto U y ∇G ≠ 0 en U. Si G(x) = 0, entonces, para algún λ, (x0,y0,z0) es punto crítico de H(x,y,z) = F(x,y,z) – λG(x,y,z).
Cuando se quiere determinar los máximos o mínimos de una función sometida
a una o más condiciones por ejemplo el de encontrar la distancia mínima que hay de una superficie f(x,y,z) y el origen, no siempre es posible resolver la restricción para alguna de las variables en términos de las otras, pero se puede seguir un método para determinar dichos puntos máximos o mínimos; dicho procedimiento se denomina Método de los Multiplicadores de Lagrange, en honor al matemático francés Joseph Lagrange y consiste en lo siguiente: Si un campo escalar f (x1,x2,x3, … , xn) tiene un extremo relativo cuando está sometido a un conjunto de condiciones g1(x1,x2,x3, … , xn) = 0 … gm (x1,x2,x3, … , xn) = 0 siendo m < n, existen entonces escalares λ1, λ2, λ3, … λm tales que: ∇f = λ1∇ g1 + λ2∇ g2 + ... + λm∇ gm Para el caso de f, g funciones de dos variables cuyas primeras derivadas parciales son continuas, si tiene un extremo relativo en el punto ((x0,y0),f(x0,y0)) sujeta a la condición g = (x,y) = 0 y ∇f(x0,y0) + ∇g(x0,y0) = 0 Él método de los multiplicadores de Lagrange nos permite encontrar los puntos X ∈ Rn que optimizan (producen máximos y/o mínimos) una función dada f(x), sujeta a la condición g(x) = 0. Esta idea es esencialmente la extensión natural del método usual para funciones de una variable, buscar máximos y mínimos entre sus puntos críticos, es decir los puntos donde f’´´(x) = 0