Documentos de Académico
Documentos de Profesional
Documentos de Cultura
En clculo vectorial, se llama jacobiano o determinante jacobiano al determinante de la matriz jacobiana. Tanto la matriz jacobiana como el
determinante jacobiano reciben su nombre en honor al matemtico Carl Gustav Jacobi.
En geometra algebraica, el jacobiano de una curva hace referencia a la variedad jacobiana, un grupo y variedad algebraica asociada a la curva, donde la
curva puede serembebida.
Matriz jacobiana[editar]
La matriz jacobiana es una matriz formada por las derivadas parciales de primer orden de una funcin. Una de las aplicaciones ms interesantes de esta
matriz es la posibilidad de aproximar linealmente a la funcin en un punto. En este sentido, el jacobiano representa la derivada de una funcin multivariable.
Propiamente deberamos hablar ms que de matriz jacobiana, de diferencial jacobiana o aplicacin lineal jacobiana ya que la forma de la matriz
depender de la base o coordenadas elegidas. Es decir, dadas dos bases diferentes la aplicacin lineal jacobiana tendr componentes diferentes an
tratndose del mismo objeto matemtico. La propiedad bsica de la "matriz" jacobiana es la siguiente, dada una aplicacin
cualquiera
lineal
continua, es decir
tal que:
(1)
Funcin escalar[editar]
Empecemos con el caso ms sencillo de una funcin escalar
. En este caso la matriz jacobiana ser una matriz formada por un vector fila que
coincide con el gradiente. Si la funcin admite derivadas parciales para cada variable puede verse que basta definir la "matriz" jacobiana como:
Ya que entonces se cumplir la relacin (1) automticamente, por lo que en este caso la "matriz jacobiana" es precisamente el gradiente.
Funcin vectorial[editar]
Supongamos
es una funcin que va del espacio eucldeo n-dimensional a otro espacio eucldeo m-dimensional. Esta funcin est
determinada por m funciones escalares reales:
Cuando la funcin anterior es diferenciable, entonces las derivadas parciales de estas m funciones pueden ser organizadas en una matriz m por n, la matriz
jacobiana de F:
Ntese que la fila, i-sima fila coincidir dada con el gradiente de la funcin yi, para i = 1,...,m.
Si p es un punto de Rn y F es diferenciable en p, entonces su derivada est dada por JF(p). En este caso, la aplicacin lineal descrita por JF(p) es la
mejor aproximacin linealde F cerca del punto p, de esta manera:
En ciertos espacios vectoriales de dimensin no finita, formados por funciones, puede generalizarse el concepto de matriz jacobiana definiendo
una aplicacin lineal jacobiana.
Ejemplos[editar]
es:
es:
El teorema de la funcin inversa garantiza que la funcin es localmente invertible en todo el dominio excepto quiz
donde
(es decir, los valores para los que el determinante se hace cero). Si imaginamos un objeto
pequeo centrado en el punto (1,1,1) y le aplicamos F, tendremos un objeto aproximadamente 40 veces ms voluminoso
que el original.
Ejemplo 2. Cambiando un poco la funcin anterior por sta:
, y por otro:
con
Invertibilidad y jacobiano[editar]
Una propiedad interesante del jacobiano es que cuando ste es diferente de cero en el entorno de un punto dado, entonces
el teorema de la funcin inversa garantiza que la funcin admite una funcin inversa alrededor de dicho punto.
El teorema anterior expresa una condicin suficiente aunque no necesaria, ya que por ejemplo la funcin
por jacobiano
que se anula en el punto
, aunque alrededor de ese punto la funcin sigue teniendo
inversa
Matriz hessiana
En Matemtica, la matriz hessiana o hessiano de una funcin f de n variables, es la matriz cuadrada de n n, de las segundas derivadas parciales.
Definicin[editar]
Dada una funcin real f de n variables reales:
Si todas las segundas derivadas parciales de f existen, se define la matriz hessiana de f como:
, donde
.
tomando la siguiente forma
un conjunto abierto y
1.
, la matriz hessiana
es positiva-definida.
tiene
2.
Si
3.
4.
la matriz hessiana
Si
la matriz hessiana
Si
es estrictamente convexa.
es una funcin convexa, entonces cualquier punto en que todas las derivadas parciales son cero, es un mnimo local.
Si
es positiva-definida, entonces
, la matriz hessiana
es negativa-definida.
es una funcin cncava, entonces cualquier punto en que todas las derivadas parciales son cero, es un mximo local.
2.
Se resuelven las ecuaciones anteriores y se obtienen las coordenadas de los puntos crticos.
3.
4.
Se sustituyen los puntos crticos en la matriz hessiana para obtener tantas matrices como puntos crticos tengamos.
5.
Dependiendo del tipo de matriz resultante de evaluar la matriz Hessiana en los diferentes puntos crticos, estos puntos se
pueden evaluar mediante el criterio de Sylvester:
Si todos los menores principales son mayores que 0, o sea, |Hi|>0 i=1,...,n alcanza el mnimo relativo en el punto.
Si los menores principales de ndice par son mayores que 0 y los de ndice impar son menores que 0, o sea, |Himpar|<0 y |Hpar|>0 i=1,...,n
alcanza el mximo relativo en el punto.
Si los menores principales son distintos de 0, es decir, |Hi|0 i=1,...,n y no es ninguno de los casos anteriores, es un punto de silla.
Cuando algn |Hi|=0 no se puede determinar nada, por lo que hace un estudio particular. Para n=2. el criterio se mejora en el sentido de que si |
H1|=0 y |H2|<0 tiene un punto de silla en el punto.
De forma anloga podemos evaluar los extremos relativos de un campo escalar f:R^n--->R estudiando los autovalores de su matriz
hessiana.
Teorema 9.6(CALCULUS volumen 2. Tom M.Apostol): "Sea f un campo escalar con derivadas parciales segundas continuas Dijf en
una n-bola B(a), y designemos con H(a) la matriz hessiana en el punto estacionario a. Tenemos entonces:
a)Si todos los autovalores de H(a) son positivos, f tiene un mnimo relativo en a.
b)Si todos los autovalores de H(a) son negativos, f tiene un mximo relativo en a.
c)Si H(a) tiene autovalores positivos y negativos, f tiene un punto de ensilladura en a."
El el caso particular en el que la funcin a evaluar grafica una superficie en R^3, f(x,y)=z, y tiene segundas derivadas continuas, se
pueden estudiar los puntos crticos evaluando la matriz hessiana en ellos y luego utilizando el criterio de determinacin de extremos.
Si (a,b) es un punto crtico de f, (fx(a,b)=0 y fy(a,b)=0) entonces:
- Si el determinante de la matriz hessiana evaluado en el punto (a,b) es mayor que 0, |H|>0, y fxx(a,b)<0, decimos que f alcanza
un mximo relativo en(a,b).
- Si el determinante de la matriz hessiana evaluado en el punto (a,b) es mayor que 0, |H|>0, y fxx(a,b)>0, decimos que f alcanza
un mnimo relativo en(a,b).
- Si el determinante de la matriz hessiana evaluado en el punto (a,b) es menor que 0, |H|<0, decimos que f(a,b) es un Punto de silla.
- Si el determinante de la matriz hessiana evaluado en el punto (a,b) es igual a 0, |H|=0, el criterio no concluye resultado alguno.
Generalizaciones[editar]
Matriz hessiana orlada[editar]
La matriz hessiana orlada es una variante de la matriz hessiana utilizada en problemas de optimizacin restringida. El determinante de
sus principales menores se utiliza como criterio para determinar si un punto crtico de una funcin es un mnimo, mximo, punto silla o
no determinado (extremos condicionados).1
Aplicacin bilineal hessiana[editar]
El concepto de matriz hessiana puede generalizarse a espacios de dimensin infinita, concretamente a aplicaciones definidas sobre
espacios vectoriales normados. Si una aplicacin (o funcional) est definida es diferenciable en el sentido de Frchet y su diferencial
jacobiana tambin es diferenciable en el sentido de Frchet puede definirse una forma bilineal continua (y por tanto acotada) sobre el
espacio normado que generaliza la matriz hessiana.
Se dice que una aplicacin
tal que: