Está en la página 1de 5

Jacobiano

En clculo vectorial, se llama jacobiano o determinante jacobiano al determinante de la matriz jacobiana. Tanto la matriz jacobiana como el
determinante jacobiano reciben su nombre en honor al matemtico Carl Gustav Jacobi.
En geometra algebraica, el jacobiano de una curva hace referencia a la variedad jacobiana, un grupo y variedad algebraica asociada a la curva, donde la
curva puede serembebida.
Matriz jacobiana[editar]
La matriz jacobiana es una matriz formada por las derivadas parciales de primer orden de una funcin. Una de las aplicaciones ms interesantes de esta
matriz es la posibilidad de aproximar linealmente a la funcin en un punto. En este sentido, el jacobiano representa la derivada de una funcin multivariable.
Propiamente deberamos hablar ms que de matriz jacobiana, de diferencial jacobiana o aplicacin lineal jacobiana ya que la forma de la matriz
depender de la base o coordenadas elegidas. Es decir, dadas dos bases diferentes la aplicacin lineal jacobiana tendr componentes diferentes an
tratndose del mismo objeto matemtico. La propiedad bsica de la "matriz" jacobiana es la siguiente, dada una aplicacin
cualquiera
lineal

continua, es decir

se dir que es diferenciable si existe una aplicacin

tal que:

(1)
Funcin escalar[editar]
Empecemos con el caso ms sencillo de una funcin escalar
. En este caso la matriz jacobiana ser una matriz formada por un vector fila que
coincide con el gradiente. Si la funcin admite derivadas parciales para cada variable puede verse que basta definir la "matriz" jacobiana como:

Ya que entonces se cumplir la relacin (1) automticamente, por lo que en este caso la "matriz jacobiana" es precisamente el gradiente.
Funcin vectorial[editar]
Supongamos
es una funcin que va del espacio eucldeo n-dimensional a otro espacio eucldeo m-dimensional. Esta funcin est
determinada por m funciones escalares reales:

Cuando la funcin anterior es diferenciable, entonces las derivadas parciales de estas m funciones pueden ser organizadas en una matriz m por n, la matriz
jacobiana de F:

Esta matriz es notada de diversas maneras:

Ntese que la fila, i-sima fila coincidir dada con el gradiente de la funcin yi, para i = 1,...,m.
Si p es un punto de Rn y F es diferenciable en p, entonces su derivada est dada por JF(p). En este caso, la aplicacin lineal descrita por JF(p) es la
mejor aproximacin linealde F cerca del punto p, de esta manera:

para x cerca de p. O con mayor precisin:

En ciertos espacios vectoriales de dimensin no finita, formados por funciones, puede generalizarse el concepto de matriz jacobiana definiendo
una aplicacin lineal jacobiana.
Ejemplos[editar]

Ejemplo 1. La matriz jacobiana de la funcin F : R3 R3 definida como:

es:

No siempre la matriz jacobiana es cuadrada. Vase el siguiente ejemplo.


Ejemplo 2. Supngase la funcin F : R3 R4, cuyas componentes son:

Aplicando la definicin de matriz jacobiana:

es cuadrada y podemos calcular su determinante, conocido como el determinante jacobiano o Determinante


jacobiano[editar]
Si m = n, entonces F es una funcin que va de un espacio n-dimensional a otro. En este caso la matriz jacobiana
simplemente jacobiano.
El determinante jacobiano en un punto dado nos da informacin importante sobre el comportamiento de F cerca de ese punto. Para empezar, una
funcin F es invertible cerca de p si el determinante jacobiano en p es no nulo. Ms an, el valor absoluto del determinante en p nos da el factor con el
cual F expande o contrae su volumen cerca de p.
Ejemplos[editar]
Ejemplo 1. El determinante jacobiano de la funcin F : R3 R3 definida como:

es:

El teorema de la funcin inversa garantiza que la funcin es localmente invertible en todo el dominio excepto quiz
donde

(es decir, los valores para los que el determinante se hace cero). Si imaginamos un objeto
pequeo centrado en el punto (1,1,1) y le aplicamos F, tendremos un objeto aproximadamente 40 veces ms voluminoso
que el original.
Ejemplo 2. Cambiando un poco la funcin anterior por sta:

El determinante jacobiano quedar:

En este caso existen ms valores que anulan al determinante. Por un lado

, y por otro:

con
Invertibilidad y jacobiano[editar]
Una propiedad interesante del jacobiano es que cuando ste es diferente de cero en el entorno de un punto dado, entonces
el teorema de la funcin inversa garantiza que la funcin admite una funcin inversa alrededor de dicho punto.
El teorema anterior expresa una condicin suficiente aunque no necesaria, ya que por ejemplo la funcin
por jacobiano
que se anula en el punto
, aunque alrededor de ese punto la funcin sigue teniendo
inversa

an cuando el jacobiano es nulo en el origen.

Matriz hessiana
En Matemtica, la matriz hessiana o hessiano de una funcin f de n variables, es la matriz cuadrada de n n, de las segundas derivadas parciales.
Definicin[editar]
Dada una funcin real f de n variables reales:

Si todas las segundas derivadas parciales de f existen, se define la matriz hessiana de f como:

, donde

.
tomando la siguiente forma

Adems, se tiene que si :


con A un conjunto abierto y f clase
, entonces la matriz hessiana est bien
definida, y en virtud del teorema de Clairaut ( teorema de Schwarz), es una matriz simtrica.
Esta matriz debe su nombre al matemtico alemn Ludwig Otto Hesse y fue introducido por James Joseph Sylvester.
Aplicacin de la matriz hessiana[editar]
Concavidad/Convexidad[editar]
Sea

un conjunto abierto y

1.

es convexa si y solo si,

una funcin con segundas derivadas continuas:

, la matriz hessiana

es positiva-definida.

tiene

2.

Si

3.

4.

la matriz hessiana

Si

la matriz hessiana

Si

es estrictamente convexa.

es una funcin convexa, entonces cualquier punto en que todas las derivadas parciales son cero, es un mnimo local.

es cncava si y solo si,

Si

es positiva-definida, entonces

, la matriz hessiana

es negativa-definida.

es negativa-definida, entonces f es estrictamente cncava.

es una funcin cncava, entonces cualquier punto en que todas las derivadas parciales son cero, es un mximo local.

Mtodo para determinar el carcter de los puntos crticos[editar]


Se ver a continuacin cmo hallar los puntos crticos (mximos, mnimos y puntos de inflexin -o silla o de ensilladura) de una funcin f de
mltiples variables.
1.

Se igualan las derivadas parciales primeras a cero.

2.

Se resuelven las ecuaciones anteriores y se obtienen las coordenadas de los puntos crticos.

3.

Se construye la matriz hessiana (derivadas segundas parciales).

4.

Se sustituyen los puntos crticos en la matriz hessiana para obtener tantas matrices como puntos crticos tengamos.

5.

Dependiendo del tipo de matriz resultante de evaluar la matriz Hessiana en los diferentes puntos crticos, estos puntos se
pueden evaluar mediante el criterio de Sylvester:

Si todos los menores principales son mayores que 0, o sea, |Hi|>0 i=1,...,n alcanza el mnimo relativo en el punto.

Si los menores principales de ndice par son mayores que 0 y los de ndice impar son menores que 0, o sea, |Himpar|<0 y |Hpar|>0 i=1,...,n
alcanza el mximo relativo en el punto.

Si los menores principales son distintos de 0, es decir, |Hi|0 i=1,...,n y no es ninguno de los casos anteriores, es un punto de silla.
Cuando algn |Hi|=0 no se puede determinar nada, por lo que hace un estudio particular. Para n=2. el criterio se mejora en el sentido de que si |
H1|=0 y |H2|<0 tiene un punto de silla en el punto.
De forma anloga podemos evaluar los extremos relativos de un campo escalar f:R^n--->R estudiando los autovalores de su matriz
hessiana.
Teorema 9.6(CALCULUS volumen 2. Tom M.Apostol): "Sea f un campo escalar con derivadas parciales segundas continuas Dijf en
una n-bola B(a), y designemos con H(a) la matriz hessiana en el punto estacionario a. Tenemos entonces:
a)Si todos los autovalores de H(a) son positivos, f tiene un mnimo relativo en a.
b)Si todos los autovalores de H(a) son negativos, f tiene un mximo relativo en a.
c)Si H(a) tiene autovalores positivos y negativos, f tiene un punto de ensilladura en a."
El el caso particular en el que la funcin a evaluar grafica una superficie en R^3, f(x,y)=z, y tiene segundas derivadas continuas, se
pueden estudiar los puntos crticos evaluando la matriz hessiana en ellos y luego utilizando el criterio de determinacin de extremos.
Si (a,b) es un punto crtico de f, (fx(a,b)=0 y fy(a,b)=0) entonces:
- Si el determinante de la matriz hessiana evaluado en el punto (a,b) es mayor que 0, |H|>0, y fxx(a,b)<0, decimos que f alcanza
un mximo relativo en(a,b).
- Si el determinante de la matriz hessiana evaluado en el punto (a,b) es mayor que 0, |H|>0, y fxx(a,b)>0, decimos que f alcanza
un mnimo relativo en(a,b).
- Si el determinante de la matriz hessiana evaluado en el punto (a,b) es menor que 0, |H|<0, decimos que f(a,b) es un Punto de silla.
- Si el determinante de la matriz hessiana evaluado en el punto (a,b) es igual a 0, |H|=0, el criterio no concluye resultado alguno.
Generalizaciones[editar]
Matriz hessiana orlada[editar]
La matriz hessiana orlada es una variante de la matriz hessiana utilizada en problemas de optimizacin restringida. El determinante de
sus principales menores se utiliza como criterio para determinar si un punto crtico de una funcin es un mnimo, mximo, punto silla o
no determinado (extremos condicionados).1
Aplicacin bilineal hessiana[editar]

El concepto de matriz hessiana puede generalizarse a espacios de dimensin infinita, concretamente a aplicaciones definidas sobre
espacios vectoriales normados. Si una aplicacin (o funcional) est definida es diferenciable en el sentido de Frchet y su diferencial
jacobiana tambin es diferenciable en el sentido de Frchet puede definirse una forma bilineal continua (y por tanto acotada) sobre el
espacio normado que generaliza la matriz hessiana.
Se dice que una aplicacin

entre espacios vectoriales normados

aplicacin lineal continua

tal que:

En ese caso se escribe:

Puede probarse que

es a su vez otro espacio vectorial normado con la norma:

La segunda derivadas cuando existe es:

La forma bilineal hessiana viene dada por:

es diferenciable si existe una

También podría gustarte