Está en la página 1de 33

Apndice A

Nociones bsicas sobre Clculo Tensorial


A.1. Introduccin
El concepto de tensor tiene su origen en la evolucin de la geometra diferencial de Gauss, Riemann y Christoffel. La necesidad del clculo tensorial, conocido tambin como clculo diferencial
absoluto, como rama sistemtica de la matemtica, se debe a Ricci y a su discpulo Levi-Civita, que
publicaron en colaboracin el primer trabajo sobre esta materia: Mtodos del clculo diferencial absoluto y sus aplicaciones, en "Mathematische Annalen", vol.54 (1901).
El objeto principal del clculo tensorial es la investigacin de las relaciones que permanecen
invariantes cuando se cambia de un sistema de coordenadas a otro. Las leyes de la fsica no pueden
depender del sistema de referencia que elija el fsico con fines descriptivos. Por eso, es estticamente
deseable y muchas veces conveniente, utilizar el clculo tensorial como fundamento matemtico en
que se puedan formular tales leyes. Einstein, en particular, lo consider un excelente instrumento para
la presentacin de su teora general de la relatividad.
El clculo tensorial alcanz gran importancia y es hoy da indispensable en sus aplicaciones en la
mayora de las ramas de la fsica terica.

A.2. El convenio de sumacin de Einstein


Una suma cuyos sumandos se obtengan dando los valores 1, 2, . . . , n a ciertos subndices de su
trmino general, se indica comnmente con el smbolo junto con la indicacin del intervalo de
variacin y la forma del trmino general. Por ejemplo:
n

a1 b1 + a 2 b2 + + a n bn = ai bi
i=1

a1 b j c1 + a 2 b j c2 + + a n b j cn = ai b j ci
i=1

En el clculo tensorial aparecen con mucha frecuencia sumas del tipo de los dos ejemplos anteriores
en que la suma se verifica respecto de dos subndices repetidos de su trmino general. En este caso es
cmodo y abrevia mucho la escritura convenir que, para tales subndices, se suprimir el smbolo de
la suma, estableciendo as el siguiente convenio:
Cuando en una expresin monomia figuren dos subndices repetidos, se entender que se trata de
una suma en la que los subndices repetidos van sumados de 1 a n.
157

APNDICE A. NOCIONES BSICAS SOBRE CLCULO TENSORIAL

158

La letra n hace referencia a la dimensin del espacio y su valor resulta siempre claro del tema que
se est tratando. Es conveniente ser cuidadoso porque cuando no se quiera expresar la suma habr que
indicarlo explcitamente.
Usando el convenio de Einstein los ejemplos anteriores se escribiran como:
n

ai bi = a i bi

i=1
n

ai b j ci = a i b j ci

i=1

A.3. Representacin de un vector en un sistema cartesiano


En primer lugar veamos cul es el sistema de referencia que vamos a emplear para representar a
los vectores. Vamos a distinguir entre dos tipos de sistemas de referencia atendiendo a la orientacin
relativa de sus vectores bsicos:
Directo: se llama as al S.R. que tiene sus vectores bsicos orientados de tal forma que el producto mixto1 de los tres resulta ser 1:
e~1 (~e2 ~e3 ) = 1
Dicho de otra manera, cuando un sacacorchos girando del primer vector al segundo por el
menor ngulo avanza en la direccin y sentido del tercer vector. Este tipo de sistema tambin es
llamado en ocasiones diestro o dextrgiro.
Inverso: Se trata del caso opuesto al anterior. Ahora tenemos:
e~1 (~e2 e~3 ) = 1
o si un sacacorchos girando del primer vector al segundo por el menor ngulo avanza en la
misma direccin pero sentido opuesto al del tercer vector. Este tipo de sistema tambin es
conocido con el nombre de levgiro.
Consideremos un sistema de coordenadas cartesianas ortogonales (x, y, z) con el origen en el punto
inicial del vector~v. El sistema se orienta de tal forma que cumpla la condicin de sistema de referencia
directo. El vector ~v queda representado por una terna ordenada de nmeros reales
~v = (v1 , v2 , v3 )
donde v1 , v2 y v3 son respectivamente las proyecciones del segmento rectilneo correspondiente a
~v, sobre los ejes x,y y z, como se puede observar en la figura .
Una descripcin alternativa del vector ~v se obtiene introduciendo los vectores unitarios e~1 , e~2 y e~3 ,
a lo largo de los ejes x,y y z. Estos vectores unitarios se conocen como los vectores unidad cartesianos.
Tambin suelen representarse por ~i, ~j y ~k. En funcin de ellos, el vector ~v queda representado por la
combinacin lineal:
~v = v1 e~1 + v2 e~2 + v3 e~3
(A.1)
donde v1 , v2 y v3 se conocen como las componentes cartesianas del vector ~v.
1 Este

producto ser definido ms adelante en la seccin A.4 (Algunos productos de vectores)

A.4. ALGUNOS PRODUCTOS DE VECTORES

159

Figura A.1: Componentes de un vector en un sistema de referencia cartesiano.

A.4. Algunos productos de vectores


En esta seccin vamos a definir cuatro productos de vectores (escalar, vectorial, mixto y didico). Las definiciones atendern a dos tipos: geomtrica, cuando se exprese el producto en funcin
del mdulo y la direccin del vector; y analtica, cuando se exprese el producto en funcin de las
componentes cartesianas del vector.

A.4.1. Producto escalar o contraccin


El resultado del producto escalar de dos vectores es un escalar (nmero), de modo que con dicho
producto se obtiene, en general, un tensor de orden inmediatamente inferior al de los factores, de
ah que el producto escalar sea conocido tambin por el nombre de contraccin. El smbolo que
representa al producto escalar es un punto centrado ().
Definicin Geomtrica:

~u ~v = |~u||~v| cos

(A.2)

donde es el ngulo que forman los dos vectores.

Grficamente, ~u ~v representa la proyeccin de ~u sobre ~v multiplicada por la norma de ~v.

Definicin Analtica. En virtud de que los vectores e~1 , e~2 y e~3 son ortogonales, se cumplen las
siguientes relaciones:
~ei ~e j = i j

donde i j se denomina smbolo de kronecker 2 y se define por:



1 si i = j
i j =
0 si i 6= j

(A.3)

Si expresamos los vectores ~u y ~v en funcin de sus componentes cartesianas -ver la ecuacin


(A.1)- y tenemos en cuenta las relaciones anteriores, obtenemos que
~u ~v = ui v j (~ei ~e j ) = ui v j i j
2 Tambin

llamada matriz unidad de dimensin 3x3 (I) o tensor unidad de orden dos.

APNDICE A. NOCIONES BSICAS SOBRE CLCULO TENSORIAL

160

Usando las dos ltimas ecuaciones podemos expresar el producto escalar como:
~u ~v = ui vi

(A.4)

Si tenemos en cuenta que los vectores tambin pueden escribirse como matrices columna:

u1
0
u1
0
(A.5)
~u = 0 ~e1 + u2 ~e2 + 0 ~e3 = u2
u3
u3
0
0

el producto escalar de ~u y ~v ser:

v1
~u ~v = ut v = (u1 u2 u3 ) v2 = ui vi
v3

(A.6)

Propiedades del producto escalar


Algunas propiedades del producto escalar son:
~u ~v =~v ~u
(~u + ~v) ~w = (~u ~w) + (~v ~w) siendo ,
~u ~u = u2 0 (u2 = 0 ~u = ~0)
~u ~v = 0 ~u y ~v son ortogonales (si |~u| y |~v| 6= 0).

A.4.2. Producto vectorial


El resultado del producto vectorial de dos vectores es otro vector. Dicho producto se simboliza
con un acento circunflejo centrado () o, en ocasiones, tambin se emplea un aspa (). El producto
vectorial, a diferencia del producto escalar, no es un producto de tipo interno porque para su definicin
hace uso de un elemento externo: el smbolo de Levi-Civita 3 . Sin este elemento no sera posible una
definicin analtica.
Definicin Geomtrica. El producto vectorial de los vectores ~u y ~v es un vector de direccin
perpendicular al plano formado por ambos, de sentido el de avance de un sacacorchos que gira
del primer vector al segundo por el ngulo menor y cuyo mdulo viene dado por:
|~u ~v| = |~u||~v| sin ,

(A.7)

donde es el ngulo que forman los vectores ~u y ~v (ver figura ).


Grficamente, |~u ~v| representa el rea de un paralelogramo de lados u y v.
Definicin Analtica. Para obtener la expresin del producto vectorial en funcin de las componentes debemos proceder de forma anloga a como lo hicimos con el producto escalar. Dado
que los vectores e~1 , e~2 y e~3 son ortogonales y que forman un triedro directo, se cumplen las
siguientes relaciones:
3 Se

definir ms adelante.

A.4. ALGUNOS PRODUCTOS DE VECTORES

161

Figura A.2: Vector resultante de hacer el producto vectorial de los vectores ~u y ~v.

~ei ~e j = i jk~ek

(A.8)

donde la letra griega representa al llamado smbolo de Levi-Civita 4 , cuya definicin es:

1 si ijk es una permutacin par de 1,2,3.


i jk =
1 si ijk es una permutacin impar de 1,2,3.

0 si dos subndices son iguales.

Teniendo en cuenta la definicin geomtrica de producto vectorial y las relaciones anteriores,


el vector resultante de hacer el producto vectorial de ~u sobre ~v viene dado segn sus componentes
cartesianas por la ecuacin:
~u ~v = i jk u j vk~ei
(A.9)
Existe una forma simblica de realizar el producto vectorial de dos vectores expresados en componentes cartesianas. Consiste en efectuar el desarrollo de un determinante un tanto peculiar, que
como tal no tiene sentido, pero que al ser desarrollado reproduce fielmente las operaciones propias
del producto vectorial. Sean ~u = u1~e1 + u2~e2 + u3~e3 y ~v = v1~e1 + v2~e2 + v3~e3 , entonces:


~e1 ~e2 ~e3


(A.10)
~u ~v = u1 u2 u3 = (u2 v3 u3 v2 )~e1 + (u3 v1 u1 v3 )~e2 + (u1 v2 u2 v1 )~e3
v1 v2 v3
con lo que se llega finalmente a la relacin (A.9).
Propiedades del producto vectorial
El producto vectorial cumple las siguientes propiedades:
~u ~u = ~v ~u (propiedad anticonmutativa)
~u (~v + ~w) = (~u ~v) + (~u ~w)
~u ~v = 0 ~u y ~v son paralelos (si |~u| y |~v| 6= 0.)
4 Tambin

llamado tensor unitario de orden 3 completamente antisimtrico.

162

APNDICE A. NOCIONES BSICAS SOBRE CLCULO TENSORIAL

Figura A.3: Representacin del paraleleppedo construido sobre los vectores ~u, ~v y ~w.

A.4.3. Producto mixto


El producto mixto se define como el producto escalar de ~u por el vector que se obtiene de multiplicar vectorialmente ~v y ~w. El resultado de hacer el producto mixto de tres vectores es un escalar. Se
puede notar de tres maneras distintas:
~u (~v ~w)
[~u~v~w]
(~u~v~w)
Definicin geomtrica. En virtud de las definiciones geomtricas del producto escalar y del
producto vectorial expresadas en las ecuaciones (A.2) y (A.7) respectivamente, obtenemos que:
~u (~v ~w) = |~u||~v||~w| cos sin

(A.11)

donde es el ngulo formado por los vectores ~v y ~w; y es el ngulo que forma el vector ~u con
la normal al plano formado por los vectores ~v y ~w (ver figura ).
Grficamente ~u (~v ~w) representa el volumen de un paraleleppedo de lados u,v y w.
Definicin analtica. Teniendo en cuenta las definiciones de producto escalar y producto vectorial dadas por las ecuaciones (A.4) y (A.9), podemos expresar el producto mixto como sigue:
~u (~v ~w) = (ui~ei ) ( jkl vk wl ~e j ) = jkl ui vk wl (~ei ~e j ) = jkl ui vk wl i j =
= jkl u j vk wl

Como todos los subndices que aparecen en la ltima expresin se contraen debido a la suma
(convenio de Einstein), son simples subndices mudos, de manera que podemos cambiarles las
letras. Teniendo en cuenta esto, el producto mixto queda como:
~u (~v ~w) = i jk ui v j wk .

(A.12)

A.4. ALGUNOS PRODUCTOS DE VECTORES

163

De forma anloga a como lo hicimos con el producto vectorial, podemos expresar el producto
mixto de tres vectores ~u, ~v y ~w como el desarrollo del determinante


u1 u2 u3


~u (~v ~w) = v1 v2 v3
(A.13)
w1 w2 w3

En virtud de esta manera de expresar el producto mixto de tres vectores como el determinante
formado por las componentes cartesianas de dichos vectores, podemos generalizar y expresar el determinante de una matriz genrica A en funcin de los elementos de matriz:


a11 a12 a13


(A.14)
|A| = a21 a22 a23 = i jk a1i a2 j a3k .
a31 a32 a33

Pero esta no es ms que una de las posibles formas de expresar el determinante. Tambin se podra
haber escrito:
|A| = i jk a2i a3 j a1k = i jk a3i a1 j a2k = i jk a1i a3 j a2k =
(A.15)
Una expresin general que engloba a todas las posibles combinaciones es:
|A| = lmn i jk ali am j ank

(sin sumar sobre l,m y n.)

(A.16)

Si hacemos la suma sobre l,m y n nos daremos cuenta de que estamos sumando seis veces el
mismo trmino, de manera que la ecuacin general anterior se puede expresar usando el convenio de
Einstein de la siguiente forma:
1
(A.17)
|A| = i jk lmn ail a jm akn .
6
Propiedades del producto mixto
El producto mixto tiene las siguientes propiedades, que se deducen a partir de las del producto
escalar y vectorial.
[~u~v~w] = [~v~w~u] = [~w~u~v] = [~v~u ~w] = [~u ~w~v] = [~w~v~u]
~u (~v ~w) = 1 ~u, ~v y ~w son ortonormales y forman un triedro directo.
~u (~v ~w) = 0 ~u, ~v y ~w son coplanarios (si |~u|, |~v| y |~w| 6= 0).

A.4.4. Producto didico o tensorial


Se define el producto didico de los vectores ~u y ~v por su efecto al contraerse con otro vector ~w a
travs de las relaciones:
(~u ~v) ~w = ~u(~v ~w)

(A.18)

~w (~u ~v) = (~w ~u)~v

(A.19)

APNDICE A. NOCIONES BSICAS SOBRE CLCULO TENSORIAL

164

Al contraer el producto didico con un vector ~w resulta otro vector que tiene la direccin de ~u si
se contrae por la derecha -ecuacin (A.18)- y de ~v si se contrae por la izquierda -ecuacin (A.19)-.
(~u ~v) ~w = ~u(~v ~w)

(A.20)

~w (~u ~v) = (~w ~u)~v

(A.21)

Teniendo en cuenta que ~u y ~v se pueden escribir en forma matricial, podemos expresar el producto
didico como el producto de una matriz columna por una matriz fila:

u1
(A.22)
~u ~v = u vt = u2 (v1 v2 v3 ) = M
u3
Siendo la matriz M de la forma M=

que puede escribirse como

u1 v1 u1 v2 u1 v3
u2 v1 u2 v2 u2 v3
u3 v1 u3 v2 u3 v3

0 0 0
1 0 0
M = u 1 v1 0 0 0 + + u 3 v3 0 0 0
0 0 1
0 0 0

(A.23)

~u ~v = u1 v1 (~e1 ~e1 ) + u1 v2 (~e1 ~e2 ) + + u3 v3 (~e3 ~e3 )

(A.24)

Esto puede expresarse como la suma de las componentes de los vectores ~u y ~v

A ~ei ~e j se les denomina diadas unitarias. El concepto de diada es una generalizacin del concepto
de vector. Las componentes de la diada pueden representarse por los nueves coeficientes de una matriz
cuadrada 3 3. Una generalizacin de las diadas dar lugar a las poliadas, de 3 N componentes.
Principales propiedades del producto didico
Para se verifica

(~u) ~v = ~u (~v) = (~u ~v)

(A.25)

Esta relacin es una consecuencia directa de la definicin de producto didico, puesto que las
direcciones de los vectores no cambian al multiplicarlos por un nmero real.
El producto didico tiene la propiedad distributiva respecto de la suma, es decir,
~u (~v + ~w) = ~u ~v +~u ~w

(A.26)

(~u +~v) ~w = ~u ~w +~v ~w

(A.27)

El producto didico no es conmutativo:


~u ~v 6= ~v ~u

(A.28)

~u ~v = ui v j (~ei ~e j ) 6= vk ul (~ek ~el ) =~v ~u

(A.29)

En efecto,

A.5. TRANSFORMACIONES ORTOGONALES DE EJES CARTESIANOS

165

Figura A.4: Dos sistemas de referencia cartesianos girados uno respecto al otro pero con un origen
comn.

A.5. Transformaciones ortogonales de ejes cartesianos


Una de las transformaciones lineales ms sencilla y til en la interpretacin de problemas fsicos es
la ortogonal. Consiste en pasar de un sistema de coordenadas cartesianas a otro sin que haya distorsin
o cambio de escala.
Supongamos dos sistemas de referencia cartesianos, como se muestra en la figura donde uno de
ellos est girado respecto del otro, compartiendo ambos el mismo origen.
El sistema 1 (sin prima) es el formado por {O,~e 1 ,~e2 ,~e3 }, en el que un vector cualquiera se expresa
como combinacin lineal de los vectores de esta base como:
~v = vi~ei

(A.30)

mientras que el sistema 2 (con prima) es el formado por {O,~e 1 0 ,~e2 0 ,~e3 0 }, en el que un vector cualquiera
se expresa como combinacin lineal de estos vectores como:
~v0 = v0j ~e j 0

(A.31)

Para poder determinar las coordenadas del sistema 1 a partir de las coordenadas del sistema 2,
necesitamos conocer las componentes de los vectores bsicos de un sistema en funcin de la base del
otro. Por ejemplo, el vector ~ei 0 de la base 2 (con prima) referido a la base 1 (sin prima) se expresa
como:
(A.32)
~ei 0 = i j ~e j
donde i j son los cosenos directores. Usando la ecuacin (A.30) podemos expresar un vector genrico
~v como:
~v = vi~ei
pero haciendo uso de la ecuacin (A.31) podemos expresar el mismo vector haciendo referencia
a otra base:
~v = v0j ~e j 0

APNDICE A. NOCIONES BSICAS SOBRE CLCULO TENSORIAL

166

y como se trata del mismo vector, ~v, podemos igualar las dos expresiones anteriores:
vi~ei = v0j ~e j 0

(A.33)

Si ahora hacemos uso de la ecuacin (A.32) podemos escribir


vi~ei = v0j jk ~ek
Multiplicando escalarmente por ~e i a ambos lados, se obtiene
vi = v0j ji

(A.34)

que nos da la relacin de las coordenadas de un vector genrico en un sistema con las correspondientes
a otro sistema girado respecto a ste.
La transformacin inversa se otiene multiplicando escalarmente por ~e j 0 la expresin A.33, siendo
el resultado
v0j = ji vi
(A.35)
Como ambas bases son ortonormales, se cumple que:
~ei ~e j = i j

(A.36)

~ei 0 ~e j 0 = i j

(A.37)

Sustituyendo la ecuacin (A.32) en la ecuacin (A.37) obtenemos


i j = ~ei 0 ~e j 0 = (ik ~ek ) ( jl~el ) = ik jl ~ek ~el = ik jl kl = ik jk
de donde deducimos que

ik jk = i j

(A.38)

Esas seis ecuaciones ponen de manifiesto que de los nueve cosenos directores () i j , slo tres son
independientes. Esta ecuacin puede expresarse tambin como
ik (k j )t = i j

(A.39)

que nos recuerda a la expresin en componentes del producto de dos matrices. El resultado, segn
corresponde, ser una matriz de orden 3 3. La delta de Kronecker i j puede entenderse como la
expresin en componentes de la matriz unidad de orden 3 3, en la que los elementos de la diagonal
(i = j) valen 1 y el resto (i 6= j) vale 0. Por tanto, la ecuacin (A.39) se escribe en forma matricial
como:
t = I
(A.40)
Observando esta ltima ecuacin bajo la perspectiva de las propiedades matriciales, se hace evidente
que la matriz t es la inversa de , por tanto se cumple que:

En componentes

t 1

(A.41)

1
i j = ji

(A.42)

En definitiva, podemos concluir que la matriz es ortogonal.

A.6. INVARIANTES

167

Por dicha ortogonalidad , podemos escribir la transformada inversa:


~ei 0 = i j ~e j

(A.43)

~ei = 1
e j 0 = ji ~e j 0
ij ~

(A.44)

Segn la transformacin sufrida por una magnitud tras una rotacin, podemos introducir las siguientes definiciones: Una magnitud V cuyas componentes, tras una rotacin del sistema de coordenadas, se transforman de la forma
0
vi = i j v j
(A.45)
es un tensor de rango uno.
Una magnitud T cuyas componentes, tras una rotacin del sistema de coordenadas, se transforman
de la forma
0
Ti j = ik jl Tkl
(A.46)
es un tensor de rango dos. El tensor T puede expresarse en funcin de las diadas unitarias
T = Ti j~ei ~e j

(A.47)

Por generalizacin, un tensor T de rango n es una magnitud que tiene 3 n componentes y que bajo
una transformacin ortogonal sufre el siguiente cambio:
0
= i1 j1 i2 j2 iN jN T j1 j2... jN
Ti1i2...iN

(A.48)

T podemos escribirlo en funcin de las poliadas:


T = Ti1i2...iN~ei1 ~ei2 ~eiN

(A.49)

Las diadas y poliadas unitarias constituyen la base de los tensores de rango dos y N respectivamente.

A.6. Invariantes
La mayor parte de las condiciones de simetra espacial recaen sobre las magnitudes que aparecen
en las leyes fsicas, pues deben poder expresar toda la variedad de sistemas y de leyes que existen.
En esta seccin nos centraremos en la invariancia frente a cambios de sistemas de referencia
ortogonales de los tensores y de los productos escalar, vectorial y didico.
Consideremos dos sistemas de referencia con el mismo origen pero girado uno respecto al otro.
Vamos a realizar una transformacin ortogonal para poner de manifiesto que los productos escalar,
vectorial y didico son invariantes frente a cambios de sistemas de referencia. Vamos a denotar por u i
0
0
y vi a las componentes de los vectores ~u y~v en un sistema de referencia, y por u j y v j a las componentes
en el otro sistema de referencia.

A.6.1. Invariancia del producto escalar


Vamos a demostrar que el producto escalar es invariante bajo cambios de coordenadas ortogonales.
Sean ~u y ~v dos vectores en las dos bases dadas a continuacin
~u = ui~ei = u0j ~e j 0

(A.50)

~v = vi~ei = v0j ~e j 0

(A.51)

APNDICE A. NOCIONES BSICAS SOBRE CLCULO TENSORIAL

168

el producto escalar de ~u por ~v ser:


~u ~v = u0j v0j = ( jk uk )( jl vl ) = jk jl uk vl

(A.52)

u0j = jk uk

(A.53)

v0j = jl vl

(A.54)

jk jl = kl

(A.55)

donde se han usado las relaciones

dado que

Podemos escribir la expresin (A.52) de la forma:


~u ~v = u0j v0j = kl uk vl = uk vk

(A.56)

por lo que queda demostrada la independencia con respecto al sistema de referencia.

A.6.2. Invariancia del producto vectorial


El producto vectorial de los vectores ~u y ~v en las distintas bases se expresa a continuacin:
~u ~v = i jk u j vk~ei

(A.57)

~u ~v = 0i jk u0j v0k~ei 0

(A.58)

~ei 0 = im~em

(A.59)

0i jk = il jm kn lmn

(A.60)

~u ~v = 0i jk u0j v0k~ei 0 = (il jm kn lmn )( jh uh )(kl vl )(im~em )

(A.61)

~u ~v = 0i jk u0j v0k~ei 0 = lm mh nl lmn uh vl~em = lmn um vn~el

(A.62)

teniendo en cuenta las relaciones (A.57) y (A.58) junto con las expresiones

podemos escribir
y si recordamos la definicin de la delta de Kronecker la ecuacin anterior quedar de la forma
Queda as demostrada la invariancia del producto vectorial.
La transformacin de i jk en las transformaciones ortogonales se comentar en la seccin de tensores istropos.

A.6.3. Invariancia del producto didico


El producto didico en dos sistemas de referencia ortogonales vendr dado por las expresiones
~u ~v = ui v j (~ei ~e j )

(A.63)

~u ~v = u0i v0j (~ei 0 ~e j 0 )

(A.64)

~u ~v = u0i v0j (~ei 0 ~e j 0 ) = (ik uk )( jl vl )(im~em ) ( jn~en )

(A.65)

~u ~v = u0i v0j (~ei 0 ~e j 0 ) = km ln uk vl~em ~en = uk vl~ek ~el

(A.66)

por tanto, si partimos de la expresin (A.64) y recordando las expresiones (A.53), (A.54) y (A.56)
obtenemos la expresin:
si usamos ahora la relacin (A.55) en la expresin anterior quedar demostrada la invariancia del
producto didico:

A.6. INVARIANTES

169

A.6.4. Tensores istropos


Un tensor es istropo cuando sus componentes no varan bajo una rotacin, es decir, es invariante
frente a rotaciones.
Tensores de orden cero. Los tensores istropos de orden cero son los escalares.
Tensores de orden uno. No hay tensores istropos de orden uno.
Tensores de orden dos. Los tensores istropos de orden dos son de la forma i j = i j , siendo
una constante.
La transformacin de 0i j en una rotacin de ejes ser:
0i j = ik jl kl = ik jk = i j

(A.67)

Tensores de orden tres. Los tensores de orden tres son de la forma i jk = i jk , donde es una
constante.
Un ejemplo de tensor istropo de orden tres es el smbolo de Levi-Civita, i jk , que como ya
hemos visto es usado en la definicin del producto vectorial. Basndonos en la invariancia del
producto vectorial, podemos concluir afirmando que dicho smbolo tiene que ser forzosamente
invariante.
Veamos ahora una demostracin ms detallada. Queremos evidenciar que la forma de i jk es la
misma que la de il jm kn lmn .
La expresin que relaciona al tensor de Levi-Civita en dos sistemas de referencia distintos es:
0i jk = il jm kn lmn

(A.68)

siendo il jm kn lmn el desarrollo del determinante de la matriz .


Segn habamos definido anteriormente, la matriz cumple las propiedades siguientes:

0 si i = j.

0 si i = j = k.
det =
1 para permutaciones pares de 1,2,3.

1 para permutaciones impares de 1,2,3.


Por tanto, 0i jk ser

0i jk

0 si hay subndices repetidos.


=
1 para permutaciones pares de 1,2,3.

1 para permutaciones impares de 1,2,3.

que es precisamente la forma que tiene i jk . Por tanto, vemos que 0i jk tiene la misma forma que
i jk , lo que demuestra la invariancia.
Tensores de orden cuatro. Los tensores de orden cuatro son de la forma:
i jkl = i j kl + ik jl + il jk

(A.69)

170

APNDICE A. NOCIONES BSICAS SOBRE CLCULO TENSORIAL

A.7. Producto interior de tensores (contraccin)


Sean T y R dos tensores de orden dos
T = Ti j~ei ~e j

R = Ri j~ei ~e j

se define el producto interno o contraccin de T y R como


T R = (Ti j~ei ~e j )(Rkl ~ek ~el ) = Ti j~ei (~e j ~ek ) Rkl~el =
= Ti j Rkl~ei ~el k j = Ti j R jl~ei ~el

(A.70)

Con el producto interno lo que conseguimos es disminuir el orden total en dos unidades.
Tambin podemos considerar la doble contraccin de T con R
T : R = Ti j Ri j

(A.71)

cuyo resultado es un escalar.


Si contraemos un tensor de segundo orden consigo mismo obtenemos
T : T = Tii

(A.72)

que es la traza del tensor T . Esta cantidad, como ya hemos comentado es un escalar verdadero y por
tanto un invariante.
Veamos la actuacin de un tensor de segundo orden sobre un vector:
Sea ~v el vector resultante de la contraccin del tensor T sobre el vector ~u.
~v = T ~u = Ti j~ei ~e j uk ~ek = Ti j uk (~ei ~e j ) ~ek =
= Ti j uk~ei (~e j ~ek ) = Ti j uk~ei jk = Ti j u j~ei = vi~ei

(A.73)

La contraccin tambin podramos haberla hecho por la izquierda:

~v = ~u T = uk Ti j ~ek (~ei ~e j ) = uk Ti j (~ek ~ei )~e j =


= uk Ti j ki ~e j = ui Ti j ~e j = v j ~e j

(A.74)

A.8. Producto exterior de tensores


Sean T y R dos tensores de orden dos
T = Ti j~ei ~e j

R = Ri j~ei ~e j

Definimos S como el producto tensorial de T y R de este modo


S = T R = Ti j Rkl~ei ~e j ~ek ~el = Si jkl~ei ~e j ~ek ~el

(A.75)

T = Ti1i2...iN~e1 ~e2 ~eN

(A.76)

S = T R = Ti1...iN R j,N+1... j2N~e1 ~eN ~eN+1 ~e2N

(A.78)

El rango de S viene dado por la suma de los rdenes de R y T , por tanto, en este caso S es un tensor
de orden cuatro.
La generalizacin a orden N es la siguiente:
R = R j,N+1 j,N+2... j2N~eN+1 ~eN+2 ~e2N

(A.77)

A.9. AUTOANLISIS DE TENSORES DE SEGUNDO ORDEN

171

A.9. Autoanlisis de tensores de segundo orden


Sean ~u y T un vector y un tensor de segundo orden respectivamente,
T = Ti j~ei ~e j
~u = uk ~ek

(A.79)

Se denomina autoanlisis del tensor T al estudio de las soluciones de la ecuacin


T ~u = ~u

(A.80)

donde ~u se denomina autovector y autovalor. Es decir, es la bsqueda de direcciones del espacio


en las que T acta simplemente como un escalar. Para resolver el problema planteado es conveniente
reescribir la ecuacin anterior pasando todos los trminos al primer miembro de la ecuacin:
(T I) ~u = 0

(A.81)

La condicin necesaria y suficiente para que este sistema homogneo tenga solucin distinta de la
trivial (~u = 0) es que el determinante de sus coeficientes sea cero:
det(T I) = 0

(A.82)

Si desarrollamos este determinante obtenemos un polinomio cbico denominado polinomio caracterstico. La ecuacin caracterstica tiene la forma
I3 I2 + I1 2 3 = 0

(A.83)

De esta ecuacin extraeremos tres soluciones, (1) , (2) y (3) que podrn ser, en general, una real y las
otras dos complejas conjugadas. A partir de estos autovalores podremos calcular las direcciones principales o autovectores ~u. Esto se entender mejor viendo el ejemplo del final de la seccin Invariantes
del tensor de segundo orden.
En el caso real y simtrico los tres autovalores sern reales y los autovectores correspondientes a
autovalores distintos sern ortogonales.
Los autovectores los podemos elegir de forma que constituyan una base ortonormal, {~v (1) ,~v(2) ,~v(3) }.
Si se cumple
~v(1) (~v(2) ~v(3) ) = 1
entonces {~v(1) ,~v(2) ,~v(3) } forman una base ortonormal directa y son el sistema de ejes principales del
tensor T . En el sistema de ejes principales el tensor es diagonal. Cuando nos refiramos al tensor T en
el sistema de ejes principales lo denotaremos por T .
Lo que hemos conseguido es una nueva base donde el tensor es diagonal. Vamos a demostrarlo:
Si se tiene
T = Ti j~ei ~e j
(A.84)
entonces la componente Ti j puede obtenerse como

Ti j =~ei T ~e j =~ei (Tkl~ek ~el ) ~e j = Tkl (~ei ~ek ) (~el ~e j ) = Tkl ik l j = Ti j

(A.85)

Las componentes de T en la base de los ejes principales,~e i * ortonormal, son:


Ti j * =~ei * T ~e j *

(A.86)

172

APNDICE A. NOCIONES BSICAS SOBRE CLCULO TENSORIAL

Pero como ~e j * es el autovector correspondiente al autovalor ( j) , entonces:


Ti j * =~ei *( j)~e j * = ( j)~ei * ~e j * = ( j) i j

(A.87)

En virtud de los ltimos resultados, podemos escribir


T * = ( j) i j~ei * ~e j * = (1)~e1 * ~e1 * + (2)~e2 * ~e2 * + (3)~e3 * ~e3 *

(A.88)

en los ejes principales.


Hemos demostrado de esta manera, que el tensor en los ejes principales lo podemos escribir como:
Tij = ik jl Tkl = (i) i j

(A.89)

(1) 0
0
T = 0 (2) 0
0
0 (3)

(A.90)

A.10. Invariantes del tensor de segundo orden


Sea T un tensor de segundo orden, T = Ti j~ei ~e j . En el espacio tridimensional, de todo tensor de
segundo orden se deducen tres invariantes, que se conocen como invariantes cannicos:
Invariante lineal. Este invariante coincide con el determinante de T . El determinante es un
invariante, como ya hemos visto, ya que es un escalar verdadero. Por tanto el valor del determinante de T es el mismo en todos los sistemas de referencia.
1
I1 = det(T ) = i jk lmn Til T jm Tkn = (1) (2) (3)
6

(A.91)

Invariante cuadrtico. Mediante un argumento anlogo al anterior vemos que esta cantidad es
un invariante.




T11 T12 T11 T13 T22 T23
=
+
+
I2 =
T21 T22 T31 T33 T32 T33
1
= (Tii T j j Ti j T ji ) =
2
= (1) (2) + (1) (3) + (2) (3)
(A.92)
Invariante cbico. Esta cantidad es un invariante ya que coincide con el valor de la traza de T ,
que es un escalar verdadero.
I3 = tr(T ) = Tii = (1) + (2) + (3)

Ejemplo: Sea el tensor Ai j , cuyas componentes son los elementos de la matriz

1 4 6
Ai j = 4 3 2
6 2 2

(A.93)

(A.94)

A.10. INVARIANTES DEL TENSOR DE SEGUNDO ORDEN

173

Queremos reducirlo a la forma diagonal por una transformacin ortogonal. La ecuacin caracterstica
o secular es


1
4
6

4 3 2 = 3 + 63 + 162 = 0
(A.95)


6
2
2
cuyas raices son

1 = 3
2 = 9

Por tanto, la forma diagonal buscada es

3 = 6

3 0 0
Ai j = 0 9 0
0 0 6

(A.96)

La transformacin ortogonal que nos permite pasar de una base a otra se obtiene resolviendo los
sistemas:
Para 1 = 3:

cuya solucin en funcin de es

4 4 + 6 = 0
4 2 = 0
6 2 + 5 = 0
= 2
= 2

De donde se obtiene el autovector (ya normalizado):


~u1 =
Para 2 = 9:

cuya solucin en funcin de es

1
(1 , 2 , 2)
3

8 4 + 6 = 0
4 12 2 = 0
6 2 7 = 0
= 2
= 2

De donde se obtiene el autovector (ya normalizado):


~u2 =
Para 3 = 6:

1
(2 , 1 , 2)
3

7 4 + 6 = 0
4 + 3 2 = 0
6 2 + 8 = 0

174

APNDICE A. NOCIONES BSICAS SOBRE CLCULO TENSORIAL


cuya solucin en funcin de es

= 13
5
11
= 5

De donde se obtiene el autovector (ya normalizado):


1
~u3 =
(13 , 5 , 11)
315

A.11. Tensores en coordenadas curvilneas


Podemos definir los tensores de modo ms general basndonos en una transformacin arbitraria.
0
Para ello consideramos dos conjuntos de variables independientes, x i y xi . Entre estos dos conjuntos de variables definimos la siguiente transformacin:
0

(A.97)

xi xi (x j )

Ahora bien, para que esta transformacin est definida correctamente es necesario que sea invertible. Es decir, debe ser posible escribir tanto la relacin (A.97) como:
0

xi xi (x j )

(A.98)

Para que esto ocurra es necesario y suficiente que el jacobiano de la transformacin sea diferente
de cero en todos los puntos.Se llama jacobiano al determinante de la matriz jacobiana. Por su parte,
la matriz jacobiana no era ms que la matriz que relacionaba unas variables con otras a travs de
las derivadas parciales. Por tanto, la condicin necesaria y suficiente para que la transformacin sea
invertible es:
0
x


(A.99)
J = i 6= 0
x j
De forma ms explcita podemos escribir la expresin (A.99) como:
x x

x1
1
01

0
0
x1 x2
xn
x2 x2
x2
0

0

x0n
J = x. 1 x. 2 .
6= 0
..
. . ...
..


xn xn
xn
0
x
0
0
x1

x2

Visto esto, cabe cuestionarse la manera de expresar de forma ms genrica los escalares, los vectores, los tensores, etc.
En primer lugar construyamos la magnitud que vamos a usar como referencia para definir un
vector:
0
x
0
dxi = i dx j
(A.100)
x j
Cualesquiera tres magnitudes que en la transformacin dada por (A.97) se transforman como la
cantidad dx0i se dice que forman un vector contracovariante. Pues bien, a las componentes de este tipo

A.11. TENSORES EN COORDENADAS CURVILNEAS

175

de vectores se les colocan superndices. Por tanto, debemos introducir una nueva notacin. As pues,
la transformacin general dada por (A.100) la escribimos ahora como:
0

xi xi (x j )

(A.101)

Por consiguiente, la transformacin entre los vectores contravariantes se define como:


0

xi
A = j Aj
x
i0

(A.102)

No obstante, como es evidente, no todas las magnitudes de tres componentes se transforman de esta
manera. Por ejemplo, el gradiente de un escalar presenta una transformacin distinta. Vemoslo:
Suele definirse el gradiente de un escalar,A, como:
Bi =

A
xi

(A.103)

La ley de transformacin en un cambio de coordenadas ser:


A xi
A

0j =
xi x0 j
x

(A.104)

x j A
x j
A
=

=
Bj
0
0
xi
xi x j
xi0

(A.105)

B0j =
y, si cambiamos el orden, nos queda:
0

Bi =

Pues bien, cualquier magnitud A que se transforma segn la relacin (A.105) es un vector covariante. En este caso, para nombrar las componentes de dicho vector se emplean subndices.
Ahora bien, podemos pensar que los vectores contravariantes y covariantes estn relacionados ya
que cualquier vector puede ser expresado tanto en componentes contravariantes como en componentes
covariantes. El tensor que relaciona ambos "tipos"de componentes es el llamado tensor mtrico.
El tensor mtrico no es ms que el conjunto de funciones que definen la mtrica del espacio, es
decir, la distancia entre dos puntos del espacio. En el caso del espacio tridimensional se tendrn seis
funciones independientes.Podemos hacernos las preguntas Cmo definimos la mtrica de un espacio
cualquiera? Cmo medimos distancias en cualquier sistema de referencia? Si tenemos dos puntos
infinitamente prximos, la distancia entre ellos viene dada por la ecuacin:
ds2 = gi j dxi dx j

(A.106)

Y esta expresin recibe el nombre de primera forma fundamental, donde:


gi j = gi j (xk )

(A.107)

es el tensor mtrico, el cual es simtrico.

Ejemplo: Veamos el tensor mtrico en el caso de las coordenadas cartesianas en el plano.


ds2 = dx2 + dy2
donde:
g11 = 1

APNDICE A. NOCIONES BSICAS SOBRE CLCULO TENSORIAL

176

g22 = 1
g12 = 0
y este tipo de mtrica se puede resumir en:
gi j = i j

(A.108)

Todas las mtricas cuyo tensor mtrico se hace cero cuando los subndices son distintos entre s
reciben el nombre de mtricas ortogonales.

Ejemplo: Veamos las coordenadas polares en el plano.


ds2 = dr2 + r2 d2

(A.109)

donde
grr = 1
g = r2
gr = 0
La distancia entre dos puntos no viene dada por el teorema de Pitgoras.

Volvamos al concepto de tensor mtrico. Siempre debemos tener presente que el tensor mtrico
nos informa de cmo se mide en el espacio en el que se trabaje. Por otra parte recordemos que hemos
introducido el tensor mtrico para encontrar la relacin existente entre los vectores covariantes y
contravariantes. Veamos, pues, tal relacin:
Ai = g i j A j

(A.110)

Observando la expresin anterior se ve que cuando se contrae un tensor contravariante con un tensor
mtrico, se obtiene un tensor covariante. Ntese que el tensor mtrico tiene subndices en lugar de
superndices. Esto es debido a que es covariante. Volvamos a la primera forma fundamental. Segn lo
que acabamos de ver:
ds2 = gi j dxi dx j = dxi (gi j dx j ) = dxi dxi
(A.111)
Segn esta ltima ecuacin, la distancia entre dos puntos no vara; es decir, es un escalar verdadero.
En general tenemos que:
Si contraemos un vector covariante con un vector contracovariante, obtenemos un escalar verdadero.
Si contraemos un vector covariante con otro vector covariante, no se obtiene un escalar.
Si contraemos un vector contracovariante con otro vector contracovariante, no se tiene un escalar.

A.11. TENSORES EN COORDENADAS CURVILNEAS

177

Ahora bien, segn todo lo que hemos visto hasta ahora, la operacin inversa de (A.110) resulta ser:
A j = g ji Ai

(A.112)

Es evidente que gi j son las componentes contravariantes del tensor mtrico (de ah que se usen superndices en lugar de subndices).Por definicin:

Consecuentemente:

gi j = (gi j )1

(A.113)

gi j g jk = ki

(A.114)

Como vemos, la expresin anterior no es ms que una nueva definicin de la delta de Krnecker.
Qu ocurre si estamos en coordenadas cartesianas? Como las "g"son la "", las componentes covariantes coinciden con las componentes contravariantes (es decir, son las mismas). Esto es lo que hace
que empleemos siempre subndices para nombrar a las componentes de los vectores sin preocuparnos
de si son contravariantes o covariantes.
Llegados a este punto debemos preguntarnos por las transformaciones entre tensores. Cmo
definimos un tensor de segundo orden dos veces covariante? Cmo lo definimos si es dos veces
contravariante? Cmo lo definimos si es mixto: una vez contravariante y otra covariante? De acuerdo
a la transformacin de coordenadas que hemos visto, se definen como sigue:
Si es dos veces contravariante:
T

ij

x i x i
= k l T kl
x x

(A.115)

xk xi
0
0 Tkl
x i x j

(A.116)

Si es dos veces covariante:


0

Ti j =
Si es mixto: covariante y contravariante:

xk x j l
Ti =
T
x0 i xl k
0j

(A.117)

Ahora bien, cmo pasamos de contravariante a covariante, es decir, cmo se suben y se bajan
ndices? Con el tensor mtrico. Por tanto:
Ti j = gik g jl T kl

(A.118)

Til = gik T kl

(A.119)

Esto contiene el caso de las transformaciones de las coordenadas ortogonales:


0

xi = i j x j
y de aqu se saca que:
i j =
y de

xi
x j
0

x j = i j xi

(A.120)

(A.121)
(A.122)

APNDICE A. NOCIONES BSICAS SOBRE CLCULO TENSORIAL

178

x j
0
xi

(A.123)

x j
x0i
= 0
x j
xi

(A.124)

i j =
entonces
i j =
y, por tanto

Ti j = ik jl Tkl = T

ij

(A.125)

de aqu que no haya que hacer diferenciacin entre componentes covariantes y contravariantes en un
sistema cartesiano: Se transforman de la misma manera! As pues, de aqu se deduce tambin el que
no se usen unas veces superndices y otras subndices. No obstante, hay materias de la fsica en la
que esto no se puede obviar. Es el caso de la relatividad, en la que s es importante diferenciar entre
vectores covariantes y contravariantes, siempre que las coordenadas sean curvilneas.

A.12. Diferenciacin de tensores cartesianos


Supongamos ahora que tenemos un campo tensorial representado por un tensor de segundo orden
siendo las componentes del tensor funciones de las coordenadas. As pues, nuestro tensor resulta ser:
Ai j (xk ). Pues bien, vamos a construir la siguiente magnitud:
Ai j
xk

(A.126)

Vamos a ver la actuacin del operador nabla, ~, en coordenadas cartesianas sobre un tensor de segundo orden. La actuacin de nabla sobre un tensor sin contraer se denomina gradiente. La actuacin
de nabla sobre un tensor contrayendo se denomina divergencia.
Para referirnos al gradiente en varias dimensiones se usa el operador nabla: ~. Por su parte, el
gradiente se puede representar tambin por ~ o por ~. El que detrs de nabla no aparezca nada o
aparezca el smbolo significa que "no se contrae".
Veamos cmo se transforma la siguiente ecuacin en un cambio de coordenadas ortogonales:
Bi jk =

Ai j
xk

(A.127)

Podemos escribir
B0i jk

Ai j

(il jm Alm ) xn
Alm
=
0 = il jm kn
x
xn
xk
xk
n
il jm kn Blmn
=

(A.128)

y esto no es ms que el gradiente.


Si observamos la expresin anterior, vemos que el gradiente ha hecho que el tensor nos aumente
en un grado; es decir, tenamos un tensor de segundo orden y al hacer el gradiente hemos obtenido un
tensor de tercer orden. As pues, en general, al hacer el gradiente de un tensor de orden N se obtiene
un tensor de orden N + 1.
El resultado anterior no es correcto en el caso de tensores no cartesianos.

A.12. DIFERENCIACIN DE TENSORES CARTESIANOS

179

Antes de continuar, consideremos la siguiente notacin:


Ai j
= A i j ,k
xk

(A.129)

como vemos, cuando tengamos uno o ms subndices separados del resto de subndices por una coma,
tendremos que derivar la expresin respecto a la componente que tenga esos subndices. En definitiva,
una coma dentro de un subndice implica una derivada.
Volvamos al operador nabla. El operador nabla 5 se define como:
~ =
xi

(A.130)

Cules son las operaciones que se pueden realizar con este operador sobre cualquier magnitud?
Estas operaciones dependen del tipo de magnitud sobre la que acten. As pues, tenemos:
El operador nabla actuando sobre un escalar.
En este caso el operador no puede actuar ms que de una manera: como gradiente. Por tanto, si
tenemos un escalar A, su gradiente vendr dado por ~A. Dicho gradiente es un vector:
~A = A
xi

(A.131)

El operador nabla actuando sobre un vector.


En este caso el operador nabla puede actuar sin contraer o contrayendo.
Por tanto, si tenemos un vector ~B = Bi , nos podemos encontrar con:
Gradiente de ~B ~~B =

Bi
x j

(A.132)

donde vemos que no se contrae sobre ningn ndice puesto que no hay ndices repetidos. Consecuentemente, el gradiente de un vector es un tensor de segundo orden.
Bi
Divergencia de ~B ~ ~B =
xi

(A.133)

La divergencia de un vector es un escalar.


Bk
Rotacional de ~B ~ ~B = i jk
x j

(A.134)

donde vemos que para obtener un vector hemos tenido que introducir un tensor de tercer orden.

Ejemplo: Demostracin en coordenadas cartesianas de que se verifica la siguiente identidad:


~ ( f ~A) = (~ f ) ~A + f (~ ~A)
5 Este

operador siempre en un vector, se le ponga o no la "flechita"encima.

(A.135)

180

APNDICE A. NOCIONES BSICAS SOBRE CLCULO TENSORIAL

Escribamos el rotacional de f ~A en componentes teniendo en cuenta que ~B = ~ ( f ~A), por tanto:


Bi = i jk ( f Ak ), j = i jk ( f Ak , j + f , j Ak ) = f i jk Ak , j +i jk f , j Ak

(A.136)

Esta ecuacin la podemos expresar vectorialmente:


~B = ~ ( f ~A) = f (~ ~A) + (~ f ) ~A

(A.137)

Si comparamos (A.137) con (A.135) vemos que son idnticas salvo en el orden de los sumandos del
segundo miembro. Como el orden de la suma (en este caso) no afecta al resultado, queda demostrada
la identidad (A.135) que es lo que se nos peda.

Ejemplo: Prueba en coordenadas cartesianas de que es cierta la siguiente identidad:


(~A ~) f = ~A ~ f
Expresemos el primer miembro de la igualdad en componentes:



f ~ ~
(~A ~) f = Ai
= Af
f = Ai
xi
xi

(A.138)

(A.139)

Ejemplo: Demostracin en coordenadas cartesianas de que es cierta la siguiente identidad:


~ (~A ~B) = ~A(~ ~B) ~B(~ ~A) + (~B ~)~A (~A ~)~B

(A.140)

Al igual que en los casos anteriores vamos a trabajar con componentes pero antes multiplicamos
el rotacional del producto vectorial de los vectores ~A y ~B por ~ p :
~ p [~ (~A ~B)] = pqk [k ji A j Bi ],q = pqk k ji A j Bi ,q + pqk k ji A j ,q Bi

(A.141)

Por otra parte, recordando la definicin de la delta de Krnecker, podemos escribir:


~ p [~ (~A ~B)] = ( p j qi pi q j )A j Bi ,q +( p j qi pi q j )A j ,q Bi
= A p Bi ,i Aq B p ,q +A p ,q Bq Aq ,q B p

(A.142)

Y reescribiendo la expresin anterior en forma vectorial tenemos:


~ (~A ~B) = ~A(~ ~B) (~ ~A)~B + (~B ~)~A ~B(~A ~)

(A.143)

Observando la ecuacin anterior vemos que es igual a la ecuacin (A.140) salvo en el orden de los
trminos. Dicho orden, en este caso, no afecta el resultado. As pues, queda demostrada la expresin
(A.140).

Ejemplo: Prueba en coordenadas cartesianas de la veracidad de la expresin:


~ 2~A
~ (~ ~A) = ~(~ ~A)

(A.144)

A.13. TEOREMA DE HAMILTON-CAYLEY

181

Vamos a seguir los mismos pasos que en el ejemplo anterior:


~ p (~ ~A) = i jk Ak , j

(A.145)

por lo tanto:
~ p [~ (~ ~A)] = pqr [r jk A j , j ],q = pqr r jk Ak , pk A p ,qq
= ( p j qk pk q j )Ak , jq =
= Ak , pk A p ,qq

(A.146)

y escribiendo la ecuacin (A.146) en forma vectorial queda:


~ (~ ~A) = ~(~ ~A) ~2~A

(A.147)

que es la expresin que queramos demostrar.

A.13. Teorema de Hamilton-Cayley


Toda matriz cuadrada satisface su ecuacin caracterstica. Su demostracin es complicada y
tediosa, por tanto no la vamos a hacer. Sin embargo, vamos a ver qu significa. Para ello vamos a ver
un caso particular.
Supongamos que tenemos una matriz cuadrada cualquiera de orden N. Llamemos a dicha matriz
A. Su polinomio caracterstico es de orden N y viene dado por:
det(A xI) |A xI|

(A.148)

f (x) |A xI| = 0

(A.149)

Por tanto, su ecuacin caracterstica es:

donde A es la matriz cuadrada dada, I es la matriz identidad y x es un nmero que permite que se
satisfaga la ecuacin.
El teorema de Hamilton-Cayley dice que si sustituimos el nmero x por la matriz cuadrada A, se
sigue satisfaciendo la ecuacin caracterstica, esto es:
f (A) = 0N
donde 0N representa a la matriz cuadrada nula de orden N. Expresado en forma matricial:

0 0 0
I3 I I2 A + I1 A2 A3 = 0 0 0
0 0 0
Ejemplo: Supongamos que tenemos la siguiente matriz cuadrada 2 2:


1 3
A=
4 5

(A.150)

(A.151)

(A.152)

182

APNDICE A. NOCIONES BSICAS SOBRE CLCULO TENSORIAL

En primer lugar, calculemos su ecuacin caracterstica:




1x
3
|A xI| =
= (1 x)(5 x) 12 = 0
4
5x

(A.153)

La ecuacin caracterstica ser por tanto:

x2 6x 7 = 0

(A.154)

Es evidente que hay varios valores de x que satisfacen esta ecuacin. Dichos valores se obtienen sin
ms que resolver la ecuacin. Ahora bien, el teorema de Hamilton-Cayley dice que la matriz cuadrada
A satisface dicha ecuacin, es decir, que se cumple:

 
2




0 0
1 0
1 3
1 3
(A.155)
=
7
6
0 0
0 1
4 5
4 5
Veamos si es cierto:


2

1 3
1
6
4 5
4

 
13 18
=

24 37

3
5

1
7
0
 
6 18

24 30

0
1

7 0
0 7

=


=0

(A.156)

As hemos comprobado el teorema para nuestro caso particular.

A.13.1. Corolario del teorema de Hamilton-Cayley


Cualquier potencia de una matriz cuadrada A (m m) se puede expresar como una combinacin
lineal de las matrices I, A, . . . , Am1 siendo An la potencia n-sima de A, donde los coeficientes de la
combinacin son funcin de los invariantes de A.
Para aclarar ideas, veamos un caso particular:
Supongamos que A es una matriz 3 3 y que buscamos A 3 .
Como A satisface la ecuacin caracterstica, ecuacin (A.151), podemos de ella despejar A 3 como
A3 = I3 I I2 A + I1 A2

(A.157)

Efectivamente, hemos podido expresar la potencia A 3 en funcin de I, A y A2 . Pero, qu ocurre si


nos piden A4 ? Podremos expresarla en funcin de I, A y A 2 o necesitaremos tambin expresarla en
funcin de A3 ? Segn el corolario no ser necesario A 3 , ya que

A4 = I3 A I2A2 + I1 A3 = I3 A I2 A2 + I1 I3 I I2 A + I1 A2 =

(I1 I3 ) I + (I3 I1 I2 ) A + I12 I2 A2
(A.158)
Como podemos ver, efectivamente la mxima potencia es m 1; en nuestro caso 3 1 = 2. De este
caso particular podemos deducir la expresin general:
An = bm I + bm1 A + bm2 A2 + + b1 Am1
donde los bi son funciones de los invariantes de A.

(A.159)

A.14. DESCOMPOSICIN ADITIVA DE TENSORES DE ORDEN 2

183

A.13.2. Funcin de una matriz


Para definir la funcin de una matriz es necesario conocer el desarrollo en serie de potencias
de Taylor de esa funcin para una variable "habitual". En dicho desarrollo se sustituye la variable
"habitual"por la matriz. Para verlo ms claro, hagamos un ejemplo concreto:
Supongamos que tenemos el seno de una matriz A cualquiera de dimensin m m, es decir:
f (A) = sin (A)

(A.160)

La pregunta que se nos viene a la cabeza es qu significado tiene esta expresin? Pues bien, lo que
tenemos que hacer es remitirnos al desarrollo en serie de potencias de Taylor del seno. Es decir:
sin x = x

x3 x5 x7
+ +
3! 5! 7!

(A.161)

Una vez conocido el desarrollo oportuno, para definir el seno de la matriz basta con sustituir en el
desarrollo de Taylor la x por la matriz correspondiente:
sin A = A

A3 A5 A7
+

+
3! 5! 7!

(A.162)

Una propiedad interesante es que, a pesar de que el desarrollo en serie de potencias de Taylor del
seno de x tiene infinitos trminos, el desarrollo del seno de la matriz A no tiene infinitos trminos
puesto que, en virtud del corolario del teorema de Hamilton-Cayley, podemos expresar cualquier
potencia de A como combinacin lineal de matrices, siendo A m1 la matriz de mayor potencia si la
matriz A es de dimensin m m. Para el caso m = 3, se tiene:
sin A = c3 I + c2 A + c1 A2

(A.163)

Los coeficientes que acompaan a las potencias de la matriz en la combinacin lineal, aunque son
un nmero finito, pueden estar formados por una suma infinita de trminos; es decir c 1 , c2 y c3 (en
nuestro caso) pueden ser una suma de infinitos trminos, funciones de los invariantes de A.

A.14. Descomposicin aditiva de tensores de orden 2


En esta seccin vamos a estudiar dos formas distintas de descomponer un tensor de segundo orden
en dos sumandos con unas caractersticas determinadas. Por un lado lo descompondremos de manera
tal que uno de los sumandos tenga como peculiaridad su isotropa.
Mediante la segunda forma de descomposicin obtendremos un sumando perfectamente simtrico
y otro antisimtrico.

A.14.1. Partes esfrica y desviador


Se denomina tensor esfrico a un tensor istropo, que puede descomponerse en dos partes,A =
AE + AD , donde la parte esfrica hace referencia a la componente istropa, es decir:
AE =

1
Tr(A) I
3

(A.164)

y la parte desviatoria o desviador se corresponde con la parte restante:


1
AD = A Tr(A) I
3

(A.165)

184

APNDICE A. NOCIONES BSICAS SOBRE CLCULO TENSORIAL

AE tiene una componente independiente, mientras que A D tiene, por tanto, ocho componentes
independientes. La relacin que cumplen las componentes del desviador es que su traza es nula, es
decir:
Tr(AD ) = 0
(A.166)
Esta propiedad se demuestra de forma trivial a partir de las propias definiciones:
1
Tr(AD ) = Tr(A) Tr(A) Tr(I) = Tr(A) Tr(A) = 0
3

A.14.2. Partes simtrica y antisimtrica


Como vamos a mostrar a continuacin, cualquier tensor se puede descomponer en uno que sea
simtrico y otro que sea antisimtrico:
A = A S + AA
(A.167)
donde AS se refiere a la parte simtrica,
1
AS = (A + At )
2

(A.168)

que tiene seis componentes independientes, y A A se refiere a la parte antisimtrica,


1
AS = (A At )
2

(A.169)

que tiene tres componentes independientes.


Sea A un tensor, que expresado en sus componentes simtrica y antisimtrica tendr la forma:
1
1
1
1
1
1
A = A + A + At At = (A + At ) + (A At )
2
2
2
2
2
2
donde el primero y el segundo sumando del ltimo trmino se corresponden, respectivamente, con un
tensor simtrico y uno antisimtrico.

A.15. EJERCICIOS PROPUESTOS

185

A.15. Ejercicios propuestos


Ejercicio 1. Exprese en notacin de ndices las siguientes cantidades:
~A (~B C)
~
~A (~B C)
~

~
~B(~A C)
~ C(
~ ~A ~B)
~B(~A C)

~ = ~B(~A C)
~ C(
~ ~A ~B)
y verifique que ~A (~B C)
Ejercicio 2. Escriba cada una de las expresiones siguientes teniendo en cuenta el convenio de sumacin
de los ndices repetidos:

1
2
N
d = x
1 dx + x2 dx + + xN dx .
2
2
2
2
x1 + x2 + x3 + + xN .

ds2 = g11 (dx1 )2 + g22 (dx2 )2 + g33 (dx3 )2 .


3p=1 3q=1 g pq dx p dxq .

Ejercicio 3. Escriba todos los trminos de cada una de las siguientes sumas indicadas:
a jk xk
A pq Aqr
grs

Ejercicio 4. Halle el ngulo formado por los vectores ~A = (2, 2, 1) y ~B = (6, 3, 2).
Ejercicio 5. Halle los ngulos que forma el vector ~A = (3, 6, 2) con los ejes coordenados.
Ejercicio 6. Halle la proyeccin del vector ~A = (1, 2, 1) segn la direccin de ~B = (4, 4, 7).
Ejercicio 7. Halle la ecuacin del plano perpendicular al vector ~A = (2, 3, 6) y que pasa por el extremo
del vector ~B = (1, 5, 3).
Ejercicio 8. Demuestre que

|~A ~B|2 + |~A ~B|2 = |~A|2 |~B|2

APNDICE A. NOCIONES BSICAS SOBRE CLCULO TENSORIAL

186

~ = (1, 2, 2), halle


Ejercicio 9. Si ~A = (3, 1, 2), ~B = (2, 1, 1) y C
~
(~A ~B) C.

Ejercicio 10. Determine el vector unitario perpendicular al plano formado por ~A = (2, 6, 3) y
~B = (4, 3, 1).
Ejercicio 11. Siendo ~A = a1~i + a2~j + a3~k y ~B = b1~i + b2~j + b3~k, demuestre que


~i ~j ~k


~A ~B = a1 a2 a3


b1 b2 b3
Ejercicio 12. Demuestre que el valor absoluto de
~A (~B C)
~
~
es igual al volumen de un paraleleppedo de aristas ~A, ~B y C.
Ejercicio 13. Calcule (2~i 3~j) [(~i + ~j ~k) (3~i ~k)].
Ejercicio 14. Halle la ecuacin del plano formado por los puntos P1 (2, 1, 1), P2 (3, 2, 1) y P3 (1, 3, 2).
Ejercicio 15. Siendo (x, y, z) = 3x2 y y3 z, halle ~ (gradiente) en el punto (1, 2, 1).
Ejercicio 16. Siendo ~A = x2 z~i 2y3 z2~j + xy2 z~k, halle ~ A (divergencia) en el punto (1, 1, 1).
Ejercicio 17. Siendo ~A = xz3~i 2x2 yz~j + 2yz4~k halle ~ A (rotacional) en el punto (1, 1, 1).
Ejercicio 18. Demuestre que el producto exterior de dos vectores contravariantes A i y Bi , resulta un
tensor de segundo orden contravariante.
Ejercicio 19. Sean Ai j y Ai j las componentes de un tensor de segundo orden. Pruebe que = A i j Ai j
es un escalar.
ij

Ejercicio 20. Sea Ak un tensor de tercer orden.


ij

Demuestre que la contraccin Ai es un tensor de primer orden contravariante.

A.15. EJERCICIOS PROPUESTOS

187

Demuestre que la contraccin de los ndices i y j produce A iik , el cual no es un tensor. Esto
muestra que, en general, el proceso de contraccin se aplica a ndices de distinto nivel.
Ejercicio 21. Encuentre los autovalores y autovectores asociados a la matriz A:

1 1 2
A= 1 2 1
2 1 1
Muestre que los autovectores son ortogonales.

Ejercicio 22. Exprese en forma tensorial:


la velocidad.
la aceleracin de una partcula en movimiento.
Ejercicio 23. Exprese la ley de Newton de la mecnica en forma matricial.

188

APNDICE A. NOCIONES BSICAS SOBRE CLCULO TENSORIAL

Bibliografa
[1] Luis A. Santal: Vectores y tensores con sus aplicaciones, Editorial universitaria de Buenos Aires
(1970).
[2] Fred A. Hinchey: Vectores y Tensores, Editorial Limusa (1979).
[3] Murray R. Spiegel: Teora y problemas de anlisis vectorial y una introduccin al anlisis tensorial, Editorial McGraw-Hill (1974).
[4] J.H. Heinbockel: Introduction to tensor calculus and continuum mechanics.
[5] Barry Spain: Clculo Tensorial, Editorial Dossat (1960).
[6] Manuel Zamora: Termo I, Publicaciones de la Universidad de Sevilla (1998).

189

También podría gustarte