Documentos de Académico
Documentos de Profesional
Documentos de Cultura
a1 b1 + a 2 b2 + + a n bn = ai bi
i=1
a1 b j c1 + a 2 b j c2 + + a n b j cn = ai b j ci
i=1
En el clculo tensorial aparecen con mucha frecuencia sumas del tipo de los dos ejemplos anteriores
en que la suma se verifica respecto de dos subndices repetidos de su trmino general. En este caso es
cmodo y abrevia mucho la escritura convenir que, para tales subndices, se suprimir el smbolo de
la suma, estableciendo as el siguiente convenio:
Cuando en una expresin monomia figuren dos subndices repetidos, se entender que se trata de
una suma en la que los subndices repetidos van sumados de 1 a n.
157
158
La letra n hace referencia a la dimensin del espacio y su valor resulta siempre claro del tema que
se est tratando. Es conveniente ser cuidadoso porque cuando no se quiera expresar la suma habr que
indicarlo explcitamente.
Usando el convenio de Einstein los ejemplos anteriores se escribiran como:
n
ai bi = a i bi
i=1
n
ai b j ci = a i b j ci
i=1
159
~u ~v = |~u||~v| cos
(A.2)
Definicin Analtica. En virtud de que los vectores e~1 , e~2 y e~3 son ortogonales, se cumplen las
siguientes relaciones:
~ei ~e j = i j
(A.3)
llamada matriz unidad de dimensin 3x3 (I) o tensor unidad de orden dos.
160
Usando las dos ltimas ecuaciones podemos expresar el producto escalar como:
~u ~v = ui vi
(A.4)
Si tenemos en cuenta que los vectores tambin pueden escribirse como matrices columna:
u1
0
u1
0
(A.5)
~u = 0 ~e1 + u2 ~e2 + 0 ~e3 = u2
u3
u3
0
0
v1
~u ~v = ut v = (u1 u2 u3 ) v2 = ui vi
v3
(A.6)
(A.7)
definir ms adelante.
161
Figura A.2: Vector resultante de hacer el producto vectorial de los vectores ~u y ~v.
~ei ~e j = i jk~ek
(A.8)
donde la letra griega representa al llamado smbolo de Levi-Civita 4 , cuya definicin es:
162
Figura A.3: Representacin del paraleleppedo construido sobre los vectores ~u, ~v y ~w.
(A.11)
donde es el ngulo formado por los vectores ~v y ~w; y es el ngulo que forma el vector ~u con
la normal al plano formado por los vectores ~v y ~w (ver figura ).
Grficamente ~u (~v ~w) representa el volumen de un paraleleppedo de lados u,v y w.
Definicin analtica. Teniendo en cuenta las definiciones de producto escalar y producto vectorial dadas por las ecuaciones (A.4) y (A.9), podemos expresar el producto mixto como sigue:
~u (~v ~w) = (ui~ei ) ( jkl vk wl ~e j ) = jkl ui vk wl (~ei ~e j ) = jkl ui vk wl i j =
= jkl u j vk wl
Como todos los subndices que aparecen en la ltima expresin se contraen debido a la suma
(convenio de Einstein), son simples subndices mudos, de manera que podemos cambiarles las
letras. Teniendo en cuenta esto, el producto mixto queda como:
~u (~v ~w) = i jk ui v j wk .
(A.12)
163
De forma anloga a como lo hicimos con el producto vectorial, podemos expresar el producto
mixto de tres vectores ~u, ~v y ~w como el desarrollo del determinante
u1 u2 u3
~u (~v ~w) = v1 v2 v3
(A.13)
w1 w2 w3
En virtud de esta manera de expresar el producto mixto de tres vectores como el determinante
formado por las componentes cartesianas de dichos vectores, podemos generalizar y expresar el determinante de una matriz genrica A en funcin de los elementos de matriz:
a11 a12 a13
(A.14)
|A| = a21 a22 a23 = i jk a1i a2 j a3k .
a31 a32 a33
Pero esta no es ms que una de las posibles formas de expresar el determinante. Tambin se podra
haber escrito:
|A| = i jk a2i a3 j a1k = i jk a3i a1 j a2k = i jk a1i a3 j a2k =
(A.15)
Una expresin general que engloba a todas las posibles combinaciones es:
|A| = lmn i jk ali am j ank
(A.16)
Si hacemos la suma sobre l,m y n nos daremos cuenta de que estamos sumando seis veces el
mismo trmino, de manera que la ecuacin general anterior se puede expresar usando el convenio de
Einstein de la siguiente forma:
1
(A.17)
|A| = i jk lmn ail a jm akn .
6
Propiedades del producto mixto
El producto mixto tiene las siguientes propiedades, que se deducen a partir de las del producto
escalar y vectorial.
[~u~v~w] = [~v~w~u] = [~w~u~v] = [~v~u ~w] = [~u ~w~v] = [~w~v~u]
~u (~v ~w) = 1 ~u, ~v y ~w son ortonormales y forman un triedro directo.
~u (~v ~w) = 0 ~u, ~v y ~w son coplanarios (si |~u|, |~v| y |~w| 6= 0).
(A.18)
(A.19)
164
Al contraer el producto didico con un vector ~w resulta otro vector que tiene la direccin de ~u si
se contrae por la derecha -ecuacin (A.18)- y de ~v si se contrae por la izquierda -ecuacin (A.19)-.
(~u ~v) ~w = ~u(~v ~w)
(A.20)
(A.21)
Teniendo en cuenta que ~u y ~v se pueden escribir en forma matricial, podemos expresar el producto
didico como el producto de una matriz columna por una matriz fila:
u1
(A.22)
~u ~v = u vt = u2 (v1 v2 v3 ) = M
u3
Siendo la matriz M de la forma M=
u1 v1 u1 v2 u1 v3
u2 v1 u2 v2 u2 v3
u3 v1 u3 v2 u3 v3
0 0 0
1 0 0
M = u 1 v1 0 0 0 + + u 3 v3 0 0 0
0 0 1
0 0 0
(A.23)
(A.24)
A ~ei ~e j se les denomina diadas unitarias. El concepto de diada es una generalizacin del concepto
de vector. Las componentes de la diada pueden representarse por los nueves coeficientes de una matriz
cuadrada 3 3. Una generalizacin de las diadas dar lugar a las poliadas, de 3 N componentes.
Principales propiedades del producto didico
Para se verifica
(A.25)
Esta relacin es una consecuencia directa de la definicin de producto didico, puesto que las
direcciones de los vectores no cambian al multiplicarlos por un nmero real.
El producto didico tiene la propiedad distributiva respecto de la suma, es decir,
~u (~v + ~w) = ~u ~v +~u ~w
(A.26)
(A.27)
(A.28)
(A.29)
En efecto,
165
Figura A.4: Dos sistemas de referencia cartesianos girados uno respecto al otro pero con un origen
comn.
(A.30)
mientras que el sistema 2 (con prima) es el formado por {O,~e 1 0 ,~e2 0 ,~e3 0 }, en el que un vector cualquiera
se expresa como combinacin lineal de estos vectores como:
~v0 = v0j ~e j 0
(A.31)
Para poder determinar las coordenadas del sistema 1 a partir de las coordenadas del sistema 2,
necesitamos conocer las componentes de los vectores bsicos de un sistema en funcin de la base del
otro. Por ejemplo, el vector ~ei 0 de la base 2 (con prima) referido a la base 1 (sin prima) se expresa
como:
(A.32)
~ei 0 = i j ~e j
donde i j son los cosenos directores. Usando la ecuacin (A.30) podemos expresar un vector genrico
~v como:
~v = vi~ei
pero haciendo uso de la ecuacin (A.31) podemos expresar el mismo vector haciendo referencia
a otra base:
~v = v0j ~e j 0
166
y como se trata del mismo vector, ~v, podemos igualar las dos expresiones anteriores:
vi~ei = v0j ~e j 0
(A.33)
(A.34)
que nos da la relacin de las coordenadas de un vector genrico en un sistema con las correspondientes
a otro sistema girado respecto a ste.
La transformacin inversa se otiene multiplicando escalarmente por ~e j 0 la expresin A.33, siendo
el resultado
v0j = ji vi
(A.35)
Como ambas bases son ortonormales, se cumple que:
~ei ~e j = i j
(A.36)
~ei 0 ~e j 0 = i j
(A.37)
ik jk = i j
(A.38)
Esas seis ecuaciones ponen de manifiesto que de los nueve cosenos directores () i j , slo tres son
independientes. Esta ecuacin puede expresarse tambin como
ik (k j )t = i j
(A.39)
que nos recuerda a la expresin en componentes del producto de dos matrices. El resultado, segn
corresponde, ser una matriz de orden 3 3. La delta de Kronecker i j puede entenderse como la
expresin en componentes de la matriz unidad de orden 3 3, en la que los elementos de la diagonal
(i = j) valen 1 y el resto (i 6= j) vale 0. Por tanto, la ecuacin (A.39) se escribe en forma matricial
como:
t = I
(A.40)
Observando esta ltima ecuacin bajo la perspectiva de las propiedades matriciales, se hace evidente
que la matriz t es la inversa de , por tanto se cumple que:
En componentes
t 1
(A.41)
1
i j = ji
(A.42)
A.6. INVARIANTES
167
(A.43)
~ei = 1
e j 0 = ji ~e j 0
ij ~
(A.44)
Segn la transformacin sufrida por una magnitud tras una rotacin, podemos introducir las siguientes definiciones: Una magnitud V cuyas componentes, tras una rotacin del sistema de coordenadas, se transforman de la forma
0
vi = i j v j
(A.45)
es un tensor de rango uno.
Una magnitud T cuyas componentes, tras una rotacin del sistema de coordenadas, se transforman
de la forma
0
Ti j = ik jl Tkl
(A.46)
es un tensor de rango dos. El tensor T puede expresarse en funcin de las diadas unitarias
T = Ti j~ei ~e j
(A.47)
Por generalizacin, un tensor T de rango n es una magnitud que tiene 3 n componentes y que bajo
una transformacin ortogonal sufre el siguiente cambio:
0
= i1 j1 i2 j2 iN jN T j1 j2... jN
Ti1i2...iN
(A.48)
(A.49)
Las diadas y poliadas unitarias constituyen la base de los tensores de rango dos y N respectivamente.
A.6. Invariantes
La mayor parte de las condiciones de simetra espacial recaen sobre las magnitudes que aparecen
en las leyes fsicas, pues deben poder expresar toda la variedad de sistemas y de leyes que existen.
En esta seccin nos centraremos en la invariancia frente a cambios de sistemas de referencia
ortogonales de los tensores y de los productos escalar, vectorial y didico.
Consideremos dos sistemas de referencia con el mismo origen pero girado uno respecto al otro.
Vamos a realizar una transformacin ortogonal para poner de manifiesto que los productos escalar,
vectorial y didico son invariantes frente a cambios de sistemas de referencia. Vamos a denotar por u i
0
0
y vi a las componentes de los vectores ~u y~v en un sistema de referencia, y por u j y v j a las componentes
en el otro sistema de referencia.
(A.50)
~v = vi~ei = v0j ~e j 0
(A.51)
168
(A.52)
u0j = jk uk
(A.53)
v0j = jl vl
(A.54)
jk jl = kl
(A.55)
dado que
(A.56)
(A.57)
~u ~v = 0i jk u0j v0k~ei 0
(A.58)
~ei 0 = im~em
(A.59)
0i jk = il jm kn lmn
(A.60)
(A.61)
(A.62)
teniendo en cuenta las relaciones (A.57) y (A.58) junto con las expresiones
podemos escribir
y si recordamos la definicin de la delta de Kronecker la ecuacin anterior quedar de la forma
Queda as demostrada la invariancia del producto vectorial.
La transformacin de i jk en las transformaciones ortogonales se comentar en la seccin de tensores istropos.
(A.63)
(A.64)
(A.65)
(A.66)
por tanto, si partimos de la expresin (A.64) y recordando las expresiones (A.53), (A.54) y (A.56)
obtenemos la expresin:
si usamos ahora la relacin (A.55) en la expresin anterior quedar demostrada la invariancia del
producto didico:
A.6. INVARIANTES
169
(A.67)
Tensores de orden tres. Los tensores de orden tres son de la forma i jk = i jk , donde es una
constante.
Un ejemplo de tensor istropo de orden tres es el smbolo de Levi-Civita, i jk , que como ya
hemos visto es usado en la definicin del producto vectorial. Basndonos en la invariancia del
producto vectorial, podemos concluir afirmando que dicho smbolo tiene que ser forzosamente
invariante.
Veamos ahora una demostracin ms detallada. Queremos evidenciar que la forma de i jk es la
misma que la de il jm kn lmn .
La expresin que relaciona al tensor de Levi-Civita en dos sistemas de referencia distintos es:
0i jk = il jm kn lmn
(A.68)
0 si i = j.
0 si i = j = k.
det =
1 para permutaciones pares de 1,2,3.
0i jk
que es precisamente la forma que tiene i jk . Por tanto, vemos que 0i jk tiene la misma forma que
i jk , lo que demuestra la invariancia.
Tensores de orden cuatro. Los tensores de orden cuatro son de la forma:
i jkl = i j kl + ik jl + il jk
(A.69)
170
R = Ri j~ei ~e j
(A.70)
Con el producto interno lo que conseguimos es disminuir el orden total en dos unidades.
Tambin podemos considerar la doble contraccin de T con R
T : R = Ti j Ri j
(A.71)
(A.72)
que es la traza del tensor T . Esta cantidad, como ya hemos comentado es un escalar verdadero y por
tanto un invariante.
Veamos la actuacin de un tensor de segundo orden sobre un vector:
Sea ~v el vector resultante de la contraccin del tensor T sobre el vector ~u.
~v = T ~u = Ti j~ei ~e j uk ~ek = Ti j uk (~ei ~e j ) ~ek =
= Ti j uk~ei (~e j ~ek ) = Ti j uk~ei jk = Ti j u j~ei = vi~ei
(A.73)
(A.74)
R = Ri j~ei ~e j
(A.75)
(A.76)
(A.78)
El rango de S viene dado por la suma de los rdenes de R y T , por tanto, en este caso S es un tensor
de orden cuatro.
La generalizacin a orden N es la siguiente:
R = R j,N+1 j,N+2... j2N~eN+1 ~eN+2 ~e2N
(A.77)
171
(A.79)
(A.80)
(A.81)
La condicin necesaria y suficiente para que este sistema homogneo tenga solucin distinta de la
trivial (~u = 0) es que el determinante de sus coeficientes sea cero:
det(T I) = 0
(A.82)
Si desarrollamos este determinante obtenemos un polinomio cbico denominado polinomio caracterstico. La ecuacin caracterstica tiene la forma
I3 I2 + I1 2 3 = 0
(A.83)
De esta ecuacin extraeremos tres soluciones, (1) , (2) y (3) que podrn ser, en general, una real y las
otras dos complejas conjugadas. A partir de estos autovalores podremos calcular las direcciones principales o autovectores ~u. Esto se entender mejor viendo el ejemplo del final de la seccin Invariantes
del tensor de segundo orden.
En el caso real y simtrico los tres autovalores sern reales y los autovectores correspondientes a
autovalores distintos sern ortogonales.
Los autovectores los podemos elegir de forma que constituyan una base ortonormal, {~v (1) ,~v(2) ,~v(3) }.
Si se cumple
~v(1) (~v(2) ~v(3) ) = 1
entonces {~v(1) ,~v(2) ,~v(3) } forman una base ortonormal directa y son el sistema de ejes principales del
tensor T . En el sistema de ejes principales el tensor es diagonal. Cuando nos refiramos al tensor T en
el sistema de ejes principales lo denotaremos por T .
Lo que hemos conseguido es una nueva base donde el tensor es diagonal. Vamos a demostrarlo:
Si se tiene
T = Ti j~ei ~e j
(A.84)
entonces la componente Ti j puede obtenerse como
(A.85)
(A.86)
172
(A.87)
(A.88)
(A.89)
(1) 0
0
T = 0 (2) 0
0
0 (3)
(A.90)
(A.91)
Invariante cuadrtico. Mediante un argumento anlogo al anterior vemos que esta cantidad es
un invariante.
T11 T12 T11 T13 T22 T23
=
+
+
I2 =
T21 T22 T31 T33 T32 T33
1
= (Tii T j j Ti j T ji ) =
2
= (1) (2) + (1) (3) + (2) (3)
(A.92)
Invariante cbico. Esta cantidad es un invariante ya que coincide con el valor de la traza de T ,
que es un escalar verdadero.
I3 = tr(T ) = Tii = (1) + (2) + (3)
1 4 6
Ai j = 4 3 2
6 2 2
(A.93)
(A.94)
173
Queremos reducirlo a la forma diagonal por una transformacin ortogonal. La ecuacin caracterstica
o secular es
1
4
6
4 3 2 = 3 + 63 + 162 = 0
(A.95)
6
2
2
cuyas raices son
1 = 3
2 = 9
3 = 6
3 0 0
Ai j = 0 9 0
0 0 6
(A.96)
La transformacin ortogonal que nos permite pasar de una base a otra se obtiene resolviendo los
sistemas:
Para 1 = 3:
4 4 + 6 = 0
4 2 = 0
6 2 + 5 = 0
= 2
= 2
1
(1 , 2 , 2)
3
8 4 + 6 = 0
4 12 2 = 0
6 2 7 = 0
= 2
= 2
1
(2 , 1 , 2)
3
7 4 + 6 = 0
4 + 3 2 = 0
6 2 + 8 = 0
174
= 13
5
11
= 5
(A.97)
xi xi (x j )
Ahora bien, para que esta transformacin est definida correctamente es necesario que sea invertible. Es decir, debe ser posible escribir tanto la relacin (A.97) como:
0
xi xi (x j )
(A.98)
Para que esto ocurra es necesario y suficiente que el jacobiano de la transformacin sea diferente
de cero en todos los puntos.Se llama jacobiano al determinante de la matriz jacobiana. Por su parte,
la matriz jacobiana no era ms que la matriz que relacionaba unas variables con otras a travs de
las derivadas parciales. Por tanto, la condicin necesaria y suficiente para que la transformacin sea
invertible es:
0
x
(A.99)
J = i 6= 0
x j
De forma ms explcita podemos escribir la expresin (A.99) como:
x x
x1
1
01
0
0
x1 x2
xn
x2 x2
x2
0
0
x0n
J = x. 1 x. 2 .
6= 0
..
. . ...
..
xn xn
xn
0
x
0
0
x1
x2
Visto esto, cabe cuestionarse la manera de expresar de forma ms genrica los escalares, los vectores, los tensores, etc.
En primer lugar construyamos la magnitud que vamos a usar como referencia para definir un
vector:
0
x
0
dxi = i dx j
(A.100)
x j
Cualesquiera tres magnitudes que en la transformacin dada por (A.97) se transforman como la
cantidad dx0i se dice que forman un vector contracovariante. Pues bien, a las componentes de este tipo
175
de vectores se les colocan superndices. Por tanto, debemos introducir una nueva notacin. As pues,
la transformacin general dada por (A.100) la escribimos ahora como:
0
xi xi (x j )
(A.101)
xi
A = j Aj
x
i0
(A.102)
No obstante, como es evidente, no todas las magnitudes de tres componentes se transforman de esta
manera. Por ejemplo, el gradiente de un escalar presenta una transformacin distinta. Vemoslo:
Suele definirse el gradiente de un escalar,A, como:
Bi =
A
xi
(A.103)
0j =
xi x0 j
x
(A.104)
x j A
x j
A
=
=
Bj
0
0
xi
xi x j
xi0
(A.105)
B0j =
y, si cambiamos el orden, nos queda:
0
Bi =
Pues bien, cualquier magnitud A que se transforma segn la relacin (A.105) es un vector covariante. En este caso, para nombrar las componentes de dicho vector se emplean subndices.
Ahora bien, podemos pensar que los vectores contravariantes y covariantes estn relacionados ya
que cualquier vector puede ser expresado tanto en componentes contravariantes como en componentes
covariantes. El tensor que relaciona ambos "tipos"de componentes es el llamado tensor mtrico.
El tensor mtrico no es ms que el conjunto de funciones que definen la mtrica del espacio, es
decir, la distancia entre dos puntos del espacio. En el caso del espacio tridimensional se tendrn seis
funciones independientes.Podemos hacernos las preguntas Cmo definimos la mtrica de un espacio
cualquiera? Cmo medimos distancias en cualquier sistema de referencia? Si tenemos dos puntos
infinitamente prximos, la distancia entre ellos viene dada por la ecuacin:
ds2 = gi j dxi dx j
(A.106)
(A.107)
176
g22 = 1
g12 = 0
y este tipo de mtrica se puede resumir en:
gi j = i j
(A.108)
Todas las mtricas cuyo tensor mtrico se hace cero cuando los subndices son distintos entre s
reciben el nombre de mtricas ortogonales.
(A.109)
donde
grr = 1
g = r2
gr = 0
La distancia entre dos puntos no viene dada por el teorema de Pitgoras.
Volvamos al concepto de tensor mtrico. Siempre debemos tener presente que el tensor mtrico
nos informa de cmo se mide en el espacio en el que se trabaje. Por otra parte recordemos que hemos
introducido el tensor mtrico para encontrar la relacin existente entre los vectores covariantes y
contravariantes. Veamos, pues, tal relacin:
Ai = g i j A j
(A.110)
Observando la expresin anterior se ve que cuando se contrae un tensor contravariante con un tensor
mtrico, se obtiene un tensor covariante. Ntese que el tensor mtrico tiene subndices en lugar de
superndices. Esto es debido a que es covariante. Volvamos a la primera forma fundamental. Segn lo
que acabamos de ver:
ds2 = gi j dxi dx j = dxi (gi j dx j ) = dxi dxi
(A.111)
Segn esta ltima ecuacin, la distancia entre dos puntos no vara; es decir, es un escalar verdadero.
En general tenemos que:
Si contraemos un vector covariante con un vector contracovariante, obtenemos un escalar verdadero.
Si contraemos un vector covariante con otro vector covariante, no se obtiene un escalar.
Si contraemos un vector contracovariante con otro vector contracovariante, no se tiene un escalar.
177
Ahora bien, segn todo lo que hemos visto hasta ahora, la operacin inversa de (A.110) resulta ser:
A j = g ji Ai
(A.112)
Es evidente que gi j son las componentes contravariantes del tensor mtrico (de ah que se usen superndices en lugar de subndices).Por definicin:
Consecuentemente:
gi j = (gi j )1
(A.113)
gi j g jk = ki
(A.114)
Como vemos, la expresin anterior no es ms que una nueva definicin de la delta de Krnecker.
Qu ocurre si estamos en coordenadas cartesianas? Como las "g"son la "", las componentes covariantes coinciden con las componentes contravariantes (es decir, son las mismas). Esto es lo que hace
que empleemos siempre subndices para nombrar a las componentes de los vectores sin preocuparnos
de si son contravariantes o covariantes.
Llegados a este punto debemos preguntarnos por las transformaciones entre tensores. Cmo
definimos un tensor de segundo orden dos veces covariante? Cmo lo definimos si es dos veces
contravariante? Cmo lo definimos si es mixto: una vez contravariante y otra covariante? De acuerdo
a la transformacin de coordenadas que hemos visto, se definen como sigue:
Si es dos veces contravariante:
T
ij
x i x i
= k l T kl
x x
(A.115)
xk xi
0
0 Tkl
x i x j
(A.116)
Ti j =
Si es mixto: covariante y contravariante:
xk x j l
Ti =
T
x0 i xl k
0j
(A.117)
Ahora bien, cmo pasamos de contravariante a covariante, es decir, cmo se suben y se bajan
ndices? Con el tensor mtrico. Por tanto:
Ti j = gik g jl T kl
(A.118)
Til = gik T kl
(A.119)
xi = i j x j
y de aqu se saca que:
i j =
y de
xi
x j
0
x j = i j xi
(A.120)
(A.121)
(A.122)
178
x j
0
xi
(A.123)
x j
x0i
= 0
x j
xi
(A.124)
i j =
entonces
i j =
y, por tanto
Ti j = ik jl Tkl = T
ij
(A.125)
de aqu que no haya que hacer diferenciacin entre componentes covariantes y contravariantes en un
sistema cartesiano: Se transforman de la misma manera! As pues, de aqu se deduce tambin el que
no se usen unas veces superndices y otras subndices. No obstante, hay materias de la fsica en la
que esto no se puede obviar. Es el caso de la relatividad, en la que s es importante diferenciar entre
vectores covariantes y contravariantes, siempre que las coordenadas sean curvilneas.
(A.126)
Vamos a ver la actuacin del operador nabla, ~, en coordenadas cartesianas sobre un tensor de segundo orden. La actuacin de nabla sobre un tensor sin contraer se denomina gradiente. La actuacin
de nabla sobre un tensor contrayendo se denomina divergencia.
Para referirnos al gradiente en varias dimensiones se usa el operador nabla: ~. Por su parte, el
gradiente se puede representar tambin por ~ o por ~. El que detrs de nabla no aparezca nada o
aparezca el smbolo significa que "no se contrae".
Veamos cmo se transforma la siguiente ecuacin en un cambio de coordenadas ortogonales:
Bi jk =
Ai j
xk
(A.127)
Podemos escribir
B0i jk
Ai j
(il jm Alm ) xn
Alm
=
0 = il jm kn
x
xn
xk
xk
n
il jm kn Blmn
=
(A.128)
179
(A.129)
como vemos, cuando tengamos uno o ms subndices separados del resto de subndices por una coma,
tendremos que derivar la expresin respecto a la componente que tenga esos subndices. En definitiva,
una coma dentro de un subndice implica una derivada.
Volvamos al operador nabla. El operador nabla 5 se define como:
~ =
xi
(A.130)
Cules son las operaciones que se pueden realizar con este operador sobre cualquier magnitud?
Estas operaciones dependen del tipo de magnitud sobre la que acten. As pues, tenemos:
El operador nabla actuando sobre un escalar.
En este caso el operador no puede actuar ms que de una manera: como gradiente. Por tanto, si
tenemos un escalar A, su gradiente vendr dado por ~A. Dicho gradiente es un vector:
~A = A
xi
(A.131)
Bi
x j
(A.132)
donde vemos que no se contrae sobre ningn ndice puesto que no hay ndices repetidos. Consecuentemente, el gradiente de un vector es un tensor de segundo orden.
Bi
Divergencia de ~B ~ ~B =
xi
(A.133)
(A.134)
donde vemos que para obtener un vector hemos tenido que introducir un tensor de tercer orden.
(A.135)
180
(A.136)
(A.137)
Si comparamos (A.137) con (A.135) vemos que son idnticas salvo en el orden de los sumandos del
segundo miembro. Como el orden de la suma (en este caso) no afecta al resultado, queda demostrada
la identidad (A.135) que es lo que se nos peda.
f ~ ~
(~A ~) f = Ai
= Af
f = Ai
xi
xi
(A.138)
(A.139)
(A.140)
Al igual que en los casos anteriores vamos a trabajar con componentes pero antes multiplicamos
el rotacional del producto vectorial de los vectores ~A y ~B por ~ p :
~ p [~ (~A ~B)] = pqk [k ji A j Bi ],q = pqk k ji A j Bi ,q + pqk k ji A j ,q Bi
(A.141)
(A.142)
(A.143)
Observando la ecuacin anterior vemos que es igual a la ecuacin (A.140) salvo en el orden de los
trminos. Dicho orden, en este caso, no afecta el resultado. As pues, queda demostrada la expresin
(A.140).
(A.144)
181
(A.145)
por lo tanto:
~ p [~ (~ ~A)] = pqr [r jk A j , j ],q = pqr r jk Ak , pk A p ,qq
= ( p j qk pk q j )Ak , jq =
= Ak , pk A p ,qq
(A.146)
(A.147)
(A.148)
f (x) |A xI| = 0
(A.149)
donde A es la matriz cuadrada dada, I es la matriz identidad y x es un nmero que permite que se
satisfaga la ecuacin.
El teorema de Hamilton-Cayley dice que si sustituimos el nmero x por la matriz cuadrada A, se
sigue satisfaciendo la ecuacin caracterstica, esto es:
f (A) = 0N
donde 0N representa a la matriz cuadrada nula de orden N. Expresado en forma matricial:
0 0 0
I3 I I2 A + I1 A2 A3 = 0 0 0
0 0 0
Ejemplo: Supongamos que tenemos la siguiente matriz cuadrada 2 2:
1 3
A=
4 5
(A.150)
(A.151)
(A.152)
182
(A.153)
x2 6x 7 = 0
(A.154)
Es evidente que hay varios valores de x que satisfacen esta ecuacin. Dichos valores se obtienen sin
ms que resolver la ecuacin. Ahora bien, el teorema de Hamilton-Cayley dice que la matriz cuadrada
A satisface dicha ecuacin, es decir, que se cumple:
2
0 0
1 0
1 3
1 3
(A.155)
=
7
6
0 0
0 1
4 5
4 5
Veamos si es cierto:
2
1 3
1
6
4 5
4
13 18
=
24 37
3
5
1
7
0
6 18
24 30
0
1
7 0
0 7
=
=0
(A.156)
(A.157)
(A.159)
183
(A.160)
La pregunta que se nos viene a la cabeza es qu significado tiene esta expresin? Pues bien, lo que
tenemos que hacer es remitirnos al desarrollo en serie de potencias de Taylor del seno. Es decir:
sin x = x
x3 x5 x7
+ +
3! 5! 7!
(A.161)
Una vez conocido el desarrollo oportuno, para definir el seno de la matriz basta con sustituir en el
desarrollo de Taylor la x por la matriz correspondiente:
sin A = A
A3 A5 A7
+
+
3! 5! 7!
(A.162)
Una propiedad interesante es que, a pesar de que el desarrollo en serie de potencias de Taylor del
seno de x tiene infinitos trminos, el desarrollo del seno de la matriz A no tiene infinitos trminos
puesto que, en virtud del corolario del teorema de Hamilton-Cayley, podemos expresar cualquier
potencia de A como combinacin lineal de matrices, siendo A m1 la matriz de mayor potencia si la
matriz A es de dimensin m m. Para el caso m = 3, se tiene:
sin A = c3 I + c2 A + c1 A2
(A.163)
Los coeficientes que acompaan a las potencias de la matriz en la combinacin lineal, aunque son
un nmero finito, pueden estar formados por una suma infinita de trminos; es decir c 1 , c2 y c3 (en
nuestro caso) pueden ser una suma de infinitos trminos, funciones de los invariantes de A.
1
Tr(A) I
3
(A.164)
(A.165)
184
AE tiene una componente independiente, mientras que A D tiene, por tanto, ocho componentes
independientes. La relacin que cumplen las componentes del desviador es que su traza es nula, es
decir:
Tr(AD ) = 0
(A.166)
Esta propiedad se demuestra de forma trivial a partir de las propias definiciones:
1
Tr(AD ) = Tr(A) Tr(A) Tr(I) = Tr(A) Tr(A) = 0
3
(A.168)
(A.169)
185
~
~B(~A C)
~ C(
~ ~A ~B)
~B(~A C)
~ = ~B(~A C)
~ C(
~ ~A ~B)
y verifique que ~A (~B C)
Ejercicio 2. Escriba cada una de las expresiones siguientes teniendo en cuenta el convenio de sumacin
de los ndices repetidos:
1
2
N
d = x
1 dx + x2 dx + + xN dx .
2
2
2
2
x1 + x2 + x3 + + xN .
Ejercicio 3. Escriba todos los trminos de cada una de las siguientes sumas indicadas:
a jk xk
A pq Aqr
grs
Ejercicio 4. Halle el ngulo formado por los vectores ~A = (2, 2, 1) y ~B = (6, 3, 2).
Ejercicio 5. Halle los ngulos que forma el vector ~A = (3, 6, 2) con los ejes coordenados.
Ejercicio 6. Halle la proyeccin del vector ~A = (1, 2, 1) segn la direccin de ~B = (4, 4, 7).
Ejercicio 7. Halle la ecuacin del plano perpendicular al vector ~A = (2, 3, 6) y que pasa por el extremo
del vector ~B = (1, 5, 3).
Ejercicio 8. Demuestre que
186
Ejercicio 10. Determine el vector unitario perpendicular al plano formado por ~A = (2, 6, 3) y
~B = (4, 3, 1).
Ejercicio 11. Siendo ~A = a1~i + a2~j + a3~k y ~B = b1~i + b2~j + b3~k, demuestre que
~i ~j ~k
~A ~B = a1 a2 a3
b1 b2 b3
Ejercicio 12. Demuestre que el valor absoluto de
~A (~B C)
~
~
es igual al volumen de un paraleleppedo de aristas ~A, ~B y C.
Ejercicio 13. Calcule (2~i 3~j) [(~i + ~j ~k) (3~i ~k)].
Ejercicio 14. Halle la ecuacin del plano formado por los puntos P1 (2, 1, 1), P2 (3, 2, 1) y P3 (1, 3, 2).
Ejercicio 15. Siendo (x, y, z) = 3x2 y y3 z, halle ~ (gradiente) en el punto (1, 2, 1).
Ejercicio 16. Siendo ~A = x2 z~i 2y3 z2~j + xy2 z~k, halle ~ A (divergencia) en el punto (1, 1, 1).
Ejercicio 17. Siendo ~A = xz3~i 2x2 yz~j + 2yz4~k halle ~ A (rotacional) en el punto (1, 1, 1).
Ejercicio 18. Demuestre que el producto exterior de dos vectores contravariantes A i y Bi , resulta un
tensor de segundo orden contravariante.
Ejercicio 19. Sean Ai j y Ai j las componentes de un tensor de segundo orden. Pruebe que = A i j Ai j
es un escalar.
ij
187
Demuestre que la contraccin de los ndices i y j produce A iik , el cual no es un tensor. Esto
muestra que, en general, el proceso de contraccin se aplica a ndices de distinto nivel.
Ejercicio 21. Encuentre los autovalores y autovectores asociados a la matriz A:
1 1 2
A= 1 2 1
2 1 1
Muestre que los autovectores son ortogonales.
188
Bibliografa
[1] Luis A. Santal: Vectores y tensores con sus aplicaciones, Editorial universitaria de Buenos Aires
(1970).
[2] Fred A. Hinchey: Vectores y Tensores, Editorial Limusa (1979).
[3] Murray R. Spiegel: Teora y problemas de anlisis vectorial y una introduccin al anlisis tensorial, Editorial McGraw-Hill (1974).
[4] J.H. Heinbockel: Introduction to tensor calculus and continuum mechanics.
[5] Barry Spain: Clculo Tensorial, Editorial Dossat (1960).
[6] Manuel Zamora: Termo I, Publicaciones de la Universidad de Sevilla (1998).
189