Está en la página 1de 45

Analisis tensorial y geometra de Riemann

Nelson Merino Moncada

Alfredo Perez Donoso

December 19, 2003


Abstract
El objetivo que motiva a trabajar con el c
alculo tensorial es conseguir
que la fsica sea independiente del sistema coordenado usado para su descripci
on. En otras palabras, se requiere que bajo una transformaci
on de
coordenadas, las ecuaciones que expresan las leyes de la fsica permanez c
can invariantes. El
alculo tensorial nos permitir
a estudiar la geometra
de alg
un espacio, en particular la geometra de Riemann.

Introducci
on

Un espacio euclidiano se caracteriza por el hecho que admite sistemas coordenados cartesianos que lo cubren completamente. Sin embargo, existen espacios
de naturaleza m
as general, tal como una superficie curvada, la cual no permite
la existencia de un u
nico sistema coordenado que la cubra completamente.
Iniciamos nuestro estudio generalizando el concepto primitivo de vector, debido al siguiente hecho:
Algunas cantidades fsicas como la velocidad y la fuerza son representadas
indistintamente como vectores. Sin embargo, bajo una transformaci
on de coordenadas, sus componentes transforman de acuerdo a leyes distintas. Por lo
tanto, la velocidad y la fuerza son entes de distinto car
acter. Esto nos llevar
aa
introducir el concepto de vector contravariante y de vector covariante.
Luego, se presentan algunas cantidades que para su especificaci
on requieren
m
as de un ndice, como por ejemplo la multiplicaci
on de las componentes de
dos vectores (covariantes o contravariantes). Esto motiva a definir el concepto
general de tensor como un objeto cuyas componentes transforman seg
un una
determinada ley de transformaci
on. Al introducir los conceptos de conexi
on
y metrica, podremos hacer un estudio de las propiedades geometricas de un
espacio dado. En particular, nos concentraremos en aquellos espacios que poseen
una geometra de Riemann, como por ejemplos las superficies inmersas en el
espacio euclidiano tridimensional.

Variedades diferenciables

Definici
on: Una variedad diferenciable n-dimensional es un conjunto continuo
de puntos M, cubierto completamente por un conjunto contable de vecindades
1

abiertas U1 , ..., Un sobre los cuales pueden ser definidos sistemas coordenados, tales que en las intersecciones de dichas vecindades, sus correspondientes
sistemas est
an relacionados unos a otros por transformaciones de coordenadas
diferenciables.
Una variedad puede ser concebida r
usticamente como un espacio de dimensi
on n, an
aloga a una superficie n-dimensional. En general, ella no puede ser
cubierta completamente por un solo sistema coordenado. Curvas y superficies
en el espacio eucldeo tridimensional En representan ejemplos de variedades.

Figure 1:

Como se ve en la figura 1, sobre cada Ui est


a definido un sistema coordenado de modo que a cada punto P Ui es posible asignar unvocamente un
conjunto ordenado de n
umeros (x1 , ..., xn ) llamados coordenadas de P . Este
mapeo uno a uno debe ser continuo, de modo que, cuando P se mueve en Ui , la
correspondiente n-upla (x1 , ..., xn ) se mueve en un dominio D contenido en En .

Consideremos la figura 2. El conjunto M es una variedad diferenciable si


admite una construcci
on de modo tal que para todo punto P en la intersecci
on
de dos abiertos, U1 , U2 M , los correspondientes sistemas est
an relacionados
por transformaciones de coordenadas diferenciables:
x
j = x
j (xi ),
i

(1)

x = x (
x ).
Recordemos que:
x
j xi
xi x
j
i
=

y
= lj ,
k
x
j xk
xi x
l
2

(2)

Figure 2:

x1 , ..., xn )
(x1 , ..., xn ) (
= 1.
(
x1 , ..., x
n ) (x1 , ..., xn )

(3)

Luego, el jacobiano de la transformaci


on (1) no se anula sobre U1 U2 .

Escalares, vectores y tensores

Presentaremos ahora ciertas entidades matem


aticas que pueden ser asociadas
sobre una variedad. El caso m
as simple es una propiedad expresada por un
n
umero asociado a un punto P de la variedad, el cual por definici
on no cambia
bajo una transformaci
on de coordenadas (T.C.). Podemos pensar, por ejemplo,
en un campo de temperaturas en alguna regi
on del espacio.
Definici
on:Una funci
on real (xi ), definida en una regi
on de la variedad
M , es llamada campo escalar si bajo una transformaci
on de coordenadas se
verifica:
xj ) = (xi ).
(
(4)
Veamos c
omo transforma la diferencial de un campo escalar . Tenemos
j
xj ), luego la diferencial del campo es d = j d
= (
x
x .
Usando la regla de la cadena y las ecuaci
ones (1) y (4) tenemos:
xl

=
,
j
x

xl x
j
d
xj =

(5)

x
j i
dx .
xi

(6)

As tenemos:
d =

xl x

j
j i
d
x =
dx =
j
l
j
x

x x
xi
xl

xl x
j
j
x
xi

dxi =

xl

xl
xi

dxi . (7)

De este modo obtenemos:


d =

i
dx = d.
xi

(8)

Por lo tanto la diferencial de un campo escalar es nuevamente un campo


escalar.
El arreglo formado por las cantidades /xi es un objeto matem
atico llamado gradiente de , y otorga el incremento de como la suma de los produc
i
tos x
a asociada a un punto y transforma seg
un la
i dx . Esta entidad, que est
ecuaci
on (5), es el prototipo de lo que se conoce como vector covariante.
Por otro lado, el arreglo formado por las diferenciales de las coordenadas es
un ente cuya ley de transformaci
on para sus componentes es distinta (ecuaci
on
6) y constituye el prototipo de lo que llamamos vector contravariante.
Definici
on: Se dice que un conjunto de cantidades (A1 , ..., An ) son las componentes de un vector covariante en un punto P de coordenadas (xi ), si bajo
la T.C. x
j = x
j (xi ), dichas componentes obedecen la siguiente ley de transformaci
on:
xi
Ak =
Ai .
(9)
x
k
Para hallar la ley de transformaci
on inversa multiplicamos la ecuaci
on (9)
por x
k /xl :
x
k
xi x
x
k
x
k
k
Ak =
Ai =
Ak = li Ai =
Ak = A l .
l
k
l
l
x
x
x
x
xl

(10)

De este modo, la ley de transformaci


on (9) posee inversa y est
a dada por:
Ak =

x
i
Ai .
xk

(11)

Definici
on:Se dice que un conjunto de n
umeros (A1 , ..., An ), son las componentes de un vector contravariante en un punto P de coordenadas (x i ), si
bajo la T.C. x
j = xj (xi ), dichas componentes obedecen la siguiente ley de transformaci
on:
k i
k = x
B.
(12)
B
xi
An
alogamente se muestra que la ley de transformaci
on inversa est
a dada
por:
xk i
B.
(13)
Bk =
x
i
Se debe enfatizar que estos objetos est
an asociados a un punto de la variedad
pero no son elementos de dicho espacio.
Previamente probamos que la diferencial de un campo escalar es un invariante. Pero la diferencial de dicho campo es la suma del producto de las componentes de un vector covariante y uno contravariante. Por lo tanto, se infiere
que en general el producto de las componentes de un vector covariante y uno
4

contravariante, Ak B k , (ambos definidos en el mismo punto) es un escalar y se


le llama producto interno o producto escalar de los vectores A y B.
Consideremos el producto de las componentes Ai de un vector contravariante
y las componentes Bk de un vector covariante. Veamos c
omo transforma este
producto bajo una T. C.:
x
i xm l
i l xm
k = x
A
Bm =
A Bm .
Ai B
l
k
x
x

xl x
k

(14)

Las cantidades Ai Bk son las componentes de un ente que para ser especificado completamente necesita m
as de un ndice y que, bajo una transformaci
on
de coordenadas, sus componentes transforman en forma lineal y homogenea
seg
un la ecuaci
on (14). Esto motiva la siguiente definici
on:
Definici
on:Un conjunto de n2 cantidades Tki son las componentes de un
tensor de rango 2, de tipo ( 11 ), en un punto P , si bajo una T.C. dichas componentes transforman seg
un la ley:
x
i xm l
Tki =
T .
xl x
k m

(15)

De aqu podemos obtener una definici


on m
as general de objetos que para su
especificaci
on requieren varios ndices.:
...ir
Definici
on:Un conjunto de nr+s cantidades Tki11...k
son las componentes de
s
r
un tensor de rango r + s, de tipo ( s ), en un punto P si bajo una T.C. dichas
componentes transforman seg
un la ley:
ir xm1 xms l1 ...lr
x
i1 x
...ir
...
... ks Tm1 ...ms .
Tki11...k
=
s
xl1 xlr x
k1 x

(16)

...ir
es un tensor de car
acter mixto, contravariante de rango
Notemos que Tki11...k
s
r y covariante de rango s. Adem
as, la definici
on nuevamente hace referencia
explcita al punto P donde est
a definido el tensor, debido a que las coordenadas
xk del punto entran como argumento en cada una de las derivadas parciales.
Usando la ecuaci
on (2), se prueba que la ley de transformaci
on (16) posee
inversa y est
a dada por:
...ir
=
Tki11...k
s

m1 x
ms
xi1 xir x
r
... lr
... ks Tml11...l
...ms .
l
k
1
1
x

x
x
x

(17)

Claramente los dos tipos de vectores definidos previamente son casos especiales de tensores. Un vector contravariante es un tensor del tipo (10 ) y un vector
covariante es un tensor del tipo (01 ). Un escalar es llamado tensor de rango cero.
j
i
En particular la relaci
on xx i x
= lj puede ser escrita en la forma:
x
l
x
j xk i
lj =
,
xi x
l k

(18)

lo cual muestra que la delta de Kronecker es un tensor del tipo (11 ). Pero (18) se
reduce a lj = lj , de modo que esta es una de las muy pocas entidades tensoriales
numericamente invariantes que es posible definir en una variedad cualquiera.
5

Verifiquemos la validez de la propiedad transitiva para los tensores. Consideremos, por ejemplo, el caso de un vector covariante Ai , pues el razonamiento es
general. Por la T.C. x
i = x
i (xj ) se tiene (9) y por el nuevo cambio x
i = x
i (
xj ),
aplicando la misma regla, resulta:
x
i xj
xj
x
i
Ai =
Aj =
Aj
Ak =
k
k
i
x

x
x

x
k

(19)

Es decir, verificando sucesivamente las transformaciones x


i = x
i (xj ) y xi =
x
i (
xj ), se obtiene la misma ley que debe aplicarse para la transformaci
on x
i =
x
i (xj ).
Finalmente, de la ecuaci
on (16), se desprende que si todas las componentes
de un tensor son nulas en un sistema coordenado (S.C.) entonces ellas se anulan
en cualquier sistema coordenado. Esto se verifica directamente observando el
car
acter lineal y homogeneo de la ley de transformaci
on de las componentes de
un tensor.

Algebra tensorial sobre variedades

Consideremos ahora un tratamiento formal de los procesos algebraicos que


pueden ser aplicados a tensores en un punto P fijo de la variedad M .

4.1

Adici
on
...ir
Ski11...k
s

un tensor del tipo (rs ) definido en el punto P . Su ley de transforSea


maci
on, de acuerdo con (16), es:
x
i1 x
ir xm1 xms l1 ...lr
...ir
Ski11...k
=
...
... ks Sm1 ...ms ,
s
l
x 1 xlr x
k1 x

(20)

...ir
cuya ley de transformaci
on est
a dada por (16). La
y sea el tensor Tki11...k
s
i1 ...ir
...ir
es
dada
por:12
y
S
suma de los tensores Tki11...k
k1 ...ks
s


i1 x
ir xm1 xms
...ir
l1 ...lr
r
i1 ...ir = x
+
S
Tki11...k
...
... ks Tml11...l
...ms + Sm1 ...ms ,
k1 ...ks
s
xl1 xlr x
k1 x

(21)

...ir
...ir
lo cual muestra que la suma Tki11...k
+Ski11...k
son las componentes de un tensor de
s
s
r
tipo (s ) en P . De (16) vemos tambien que las multiplicaci
on de las componentes
de un tensor de tipo (rs ) por un escalar conduce a un tensor del mismo tipo. Esto
implica que el conjunto de todos los tensores de tipo (rs ) en el punto P de M
constituye un espacio vectorial de dimensi
on nr+s . En particular, el conjunto
de todos los vectores contravariantes en P definen un espacio n-dimensional
llamado espacio tangente Tn (P ), mientras que el conjunto de todos los vectores
covariantes en P constituye el espacio tangente dual Tn (P ) n-dimensional.
Es importante notar que la suma de tensores de distinto tipo no suministra
un nuevo tensor..

4.2

Multiplicaci
on

La multiplicaci
on de las componentes de dos tensores de tipo (rs11 ) y (rs22 ), definidos
2
en P , conduce a un tensor de tipo (rs11 +r
+s2 ) en P . Este proceso es llamado producto externo o directo.
Para ilustrar esto consideramos, por ejemplo, un tensor de tipo (21 ) y un
tensor de tipo (02 ), pues el razonamiento es general. Sus leyes de transformaci
on
son respectivamente:
l xp ik
x
j x
jl
T ,
Tm
=
xi xk x
m p
v
u
x x
Suv .
Sqr =
x
q x
r

(22)

El producto de las componentes de estos dos tensores se transforma de


acuerdo a:
x
j x
l xp xu xv ik
jl
T Suv
(23)
Tm
Sqr =
xi xk x
m x
q x
r p
lo cual es obviamente la ley de transformaci
on de las componentes de un tensor
ik
de tipo (23 ), Vpuv
= Tpik Suv .
El proceso de multiplicaci
on puede ser combinado con el proceso de adici
on
de tensores, con tal que sus respectivos tipos sean apropiados. Para estos claramente se satisfacen las leyes conmutativa, asociativa y distributiva.

4.3

Contracci
on

Dado un tensor de tipo (rs ) es posible seleccionar un superndice y un subndice


y reemplazarlos por dos ndices identicos. Luego, en virtud de la convenci
on de
suma, la suma es implcita y las cantidades obtenidas constituyen las compor1
nentes de un tensor de tipo (s1
). En efecto:
x
i1 x
i x
ir xm1 xm xms l1 ...l...lr
...i...ir
=
Tki11...i...k
...
... i ... ks Tm1 ...m...ms
...
s
xl1 xl  xlr x
k1
x


ir
m1
ms
i
m
i1

x
x

i
...i...i
...
...
T l1 ...l...lr
Tk11...i...ksr =
l
i
l
l
k
x x

x 1 x r x
1 x
ks m1 ...m...ms
ir xm1 xms l1 ...l...lr
x
i1 x
...i...ir
... ks Tm1 ...m...ms
= lm l1 ... lr
Tki11...i...k
s
x
x x
k1 x

i1
ir
ms
m1

x
x
...i...ir
r
Tki11...i...k
=
...
... ks Tml11...l...l
...l...ms ,
s
xl1 xlr x
k1 x

(24)

r1
la cual es la ley de transformaci
on de un tensor de tipo (s1
). Este proceso es
conocido como contracci
on.
Claramente, el proceso de contracci
on de un tensor de tipo (11 ) da origen a
un escalar. En particular, para el caso del delta de Kronecker tenemos:

jj = 11 + ...nn = n.

(25)

Adem
as, es posible formar el producto de las componentes de tensores de
tipo arbitrario, referidos al mismo punto, y luego contraerlos (con tal que los
procesos de multiplicaci
on conduzcan a tensores de tipo (rs ) con r 1 y s 1).

4.4

Simetrizaci
on

Un tensor es llamado simetrico con respecto a un par de superndices, o un par


de subndices, si el intercambiarlos no afecta el valor de las componentes de
dicho tensor. Si, por otro lado, este proceso afecta a cada componente multiplic
andola por 1, entonces el tensor es llamado antisimetrico en dichos ndices.
Finalmente se dice que un tensor es totalmente simetrico (antisimetrico) si lo es
con respecto a cualquier par de superndices o a cualquier par de subndices. En
general cuando hablemos de tensores simetricos (antisimetricos) nos referimos a
tensores totalmente simetricos (antisimetricos) salvo que se indique lo contrario.
Por ejemplo, si Aij y Bij son las componentes de tensores de tipo (02 ), entonces Aij es un tensor simetrico si:
Aij = Aji ,

(26)

y Bij ser
a un tensor antisimetrico si
Bij = Bji .

(27)

Como consecuencia inmediata de la forma de la ley de transformaci


on de
tensores, estas ecuaciones son v
alidas en cualquier sistema coordenado.
Teorema: Todas las propiedades de simetra y de antisimetra de los tensores son independientes de la elecci
on del sistema coordenado.
Dado un tensor de tipo (rs ) con r > 1 o s > 1, podemos construr a partir de
dicho tensor, un tensor simetrico y un tensor antisimetrico en cualquier par de
superndices o en cualquier par de subndices. Por ejemplo a partir del tensor
Aij podemos definir:
1
(Aij + Aji ) ,
2
1
Tij := (Aij Aji ) ,
2

Sij :=

(28)

los cuales son simetricos y antisimetricos respectivamente. El proceso que corresponde a Sij es referido como simetrizaci
on.
Vemos tambien que todo tensor de tipo (rs ) con r > 1 o s > 1, se puede
expresar como suma de un tensor simetrico y uno antisimetrico en cualquier par
de superndices o subndices. En el caso anterior tenemos:
Aij =

1
1
(Aij + Aji ) + (Aij Aji ) .
2
2

(29)

4.5

Invariancia de las ecuaciones tensoriales

Hemos visto que los tensores pueden ser sumados, restados o, m


as generalmente,
linealmente combinados con coeficientes escalares. Podemos formar productos
entre tensores y luego contraerlos con tal que los procesos de multiplicaci
on
conduzcan a tensores de tipo (rs ) con r 1 y s 1. Y todo esto es posible si y
s
olo si ellos se refieren al mismo punto de M .
Tambien se mencion
o que un importante tensor de cada tipo es el tensor
cero de ese tipo. Dicho tensor es numericamente invariante debido a que su ley
de transformaci
on es lineal y homogenea. Por ejemplo, esto tiene como conkl...
kl...
secuencia que una ecuaci
on como Spq...
= Tpq...
sea independiente del sistema
kl...
kl...
coordenado, ya que esto es equivalente a afirmar que Spq...
Tpq...
es el tensor nulo. Este hecho es el que garantiza el teorema de la invariancia de las
propiedades de simetra y antisimetra de los tensores. Obviamente si S y T son
de distinto tipo, o bien, si se refieren a puntos distintos, la ecuaci
on carece de
todo sentido invariante.
Consideremos ahora un tensor de tipo (rs ), r vectores covariantes, s vectores
contravariantes, y el siguiente producto contrado:
kl...
Spq...
Ak Bl ...F p Gq ... .

(30)

Entonces, de acuerdo con las reglas de producto externo e interno, esta


multiplicaci
on es un escalar.
La proposici
on inversa es tambien verdadera: Supongamos que no sabemos
...
si un arreglo de n
umeros S...
tiene caracter tensorial, pero sabemos que (30) es
...
un escalar para cualquier conjunto arbitrario de vectores A...G.... Entonces S ...
son las componentes de un tensor del tipo definido por sus ndices.
En efecto, para probar esto consideremos una transformaci
on particular y
...
llamemos S...
a las componentes de S transformadas como si fuera un ten...
...
sor. Llamemos S...
a cualquier conjunto de n
umeros que comparte con S...
la
propiedad de hacer (30) un escalar. Es decir tenemos:
kl...
q ... = S kl... Ak Bl ...F p Gq ... ,
Spq...
Ak Bl ...F p G
pq...
kl...
p q
kl...

Spq... Ak Bl ...F G ... = Spq...


Ak Bl ...F p Gq ... .

(31)

...
...
Estas ecuaciones expresan que S...
y S...
dejan (30) invariante. Rest
andolas
obtenemos:


kl...
kl...
l ...F p G
q ... = 0,
Ak B
(32)
Spq...
Spq...
kl...
kl...
Spq...
Spq...
= 0,
kl...
kl...
Spq...
= Spq...
.

Es decir, usando la arbitrariedad de los vectores A...G... hemos probado que


estos arreglos son iguales y por lo tanto bajo las hip
otesis mencionadas S debe
ser un tensor.

Densidades tensoriales.

Consideremos un campo vectorial contravariante Ak y las cuatro integrales:


Z
Ak dn x,
(33)
donde dn x = dx1 dx2 ...dxn y la integral se toma sobre una regi
on dada de M .
Observamos que estas integrales no son invariantes bajo T.C. y por lo tanto no
son las componentes de alg
un nuevo vector. Del mismo modo, consideremos la
integral de un campo escalar A:
Z
I = Adn x.
(34)
Veamos
k bajo una T.C.. El elemento de volumen queda:
k como transforma
n
x

d
x

,
donde
on.
dn x = x

xj es el determinante jacobiano de la transformaci
j
x

Luego:
k
Z
Z
Z
x
nx

I = Adn x = A j dn x 6= Ad
= I.
(35)
x

De este modo I no es invariante bajo una T.C. Pero nos interesa que la
integral I s sea un escalar. Por otra parte, sabemos que si sumamos s
olo
cantidades escalares el resultado es un escalar. En nuestro caso tenemos una
integral en vez de una suma. Luego si Adn x es un escalar entonces I ser
a un
sino:
escalar. Para esto la ley de transformaci
on de A no debe ser A = A,
i
x

(36)
A = k A,
x

de modo que:

I=

Ad x =

i k
Z
x
x n
nx


= I.
A k j d x = Ad
x
x

(37)

Ahora I es un escalar, pero A ya no lo es. Esto motiva la siguiente definici


on:
Definici
on: Una cantidad es llamada densidad escalar o pseudoescalar
de peso p si bajo una T.C. esta obdece la ley:
i p
x
(38)
= k .
x

De lo anterior se concluye que la integral de una densidad escalar de peso 1


es un escalar.
Vamos a extender la noci
on de densidad a entidades de m
as componentes.
...ir
son
las componentes
Definici
on: Un conjunto de nr+s cantidades ki11...k
s
de una densidad tensorial de peso p y tipo ( rs ), en un punto P , si bajo una T.C.
dichas componentes transforman seg
un la ley:
i p i
x x
1 x
ir xm1 xms l1 ...lr
...ir
= k
ki11...k
... lr
... ks Tm1 ...ms .
(39)
s
l
1
x

x
x x
k1 x

10

No se debe inferir que la integral de las componentes de una densidad tensorial es un tensor, pues no lo es (salvo el caso de una densidad escalar).
Consecuencias inmediatas de la definici
on de densidades tensoriales son:
(i) Si todas las componentes de una densidad son nulas en un S.C., entonces
son nulas en cualquier S.C.
(ii) La suma o diferencia de densidades del mismo tipo y referidas al mismo
punto es otra densidad del mismo tipo.
(iii) Ecuaciones entre densidades, referidas al mismo punto son independientes del S.C.
(iv) El producto de una densidad tensorial por un tensor es una densidad
tensorial.
(v) La contracci
on de ndices puede realizarse para densidades tensoriales
de tipo (rs ) con r, s 1, igual que para tensores, resultando una densidad de
r1
tipo (s1
).
Estas propiedades residen nuevamente en el caracter lineal y homogeneo de
la transformaci
on (39).
A continuaci
on se presentan algunas consideraciones con respecto a las densidades.
(1) Sea Ti1 ...in un tensor tipo (0n ) totalmente antisimetrico. Si denotamos
el valor numerico de T123...n por , entonces cualquier otra componente Ti1 ...in
ser
a de acuerdo a si la permutaci
on i1 ...in es par o impar, o bien ser
a nula
si se repite un ndice. Escribamos la ley de transformaci
on para T12...n :
xk1 xk2 xkn
... n Tk1 ...kn .
T12...n =
x
1 x
2
x

(40)

Escribiendo explcitamente la suma y usando las propiedades antisimetricas


de T se obtiene:
k
x

(41)
T12...n = i T12...n ,
x

es decir,

k
x
= i .
x

(42)

Esto significa que un tensor antisimetrico de tipo (0n ) puede ser considerado
alternativamente como una entidad con una sola componente, la cual es un
pseudoescalar.
(2) Sea A un escalar y i1 ...in una entidad que en cualquier S.C. est
a definido
como A de acuerdo con el signo de la permutaci
on i1 ...in es par o impar, pero
cero si los ndices no son todos diferentes. Una forma de expresar que A es un
escalar es:
k
i1 x

in
i1 ...in = x x
... kn k1 ...kn .
(43)


x
i
k
1
x
x

Esto se prueba usando las propiedades de definici


on del objeto . Desarrollando explcitamente la suma se obtiene un determinante que se cancela con el

11

del lado derecho de (43):


k k
x x

i1 ...in

= i i i1 ...in ,
x

x
i1 ...in = i1 ...in .

(44)
(45)

Esto expresa que A es un escalar. Por lo tanto, es una densidad tensorial


antisimetrica del tipo (n0 ). Es costumbre denotar el caso particular A = 1
como i1 ...in . Esta densidad es una herramienta muy u
til y recibe el nombre de
densidad tensorial de Levi-Civita.
(3) Consideremos una variedad de 4 dimensiones. A partir de klmn y un
tensor antisimetrico de tipo (02 ), kl , podemos formar los siguientes productos:
1 klmn

kl mn = 12 34 + 23 14 + 31 24 ,
8
1 klmn

kl = f mn .
2

(46)

los que son una densidad escalar y una densidad tensorial de tipo (20 ), respectivamente. De este modo vemos que podemos obtener densidades a partir
de tensores antisimetricos.
(4) Consideremos el tensor antisimetrico Aikl en una variedad de 4 dimensiones. Entonces se puede probar que, en principio, el n
umero de componentes
independientes de este tensor es 4. Si formamos la siguiente densidad vectorial
contravariante:
1 klmn

Aklm = n .
(47)
6
entonces las componentes de ser
an las componentes independientes de A. Por
lo tanto, un tensor antisimetrico de tipo (03 ), Aklm , puede ser mapeado a una
densidad vectorial contravariante, n , cuya n-esima componente corresponde
a la componente klm del tensor, donde (k, l, m, n) es una permutaci
on par de
(1, 2, 3, 4).
(5) A partir de un vector covariante Bk se puede formar la siguiente densidad
tensorial antisimetrica de tipo (30 ):
klm = klmn Bn .

(48)

Todo esto nos lleva al siguiente teorema:


Teorema: A todo tensor antisimetrico Ti1 ...ip de orden p n se le puede
hacer corresponder una densidad tensorial de tipo (np
0 ) cuyas componentes
contienen las componentes independientes del tensor. Las componentes de
est
an dadas por :
1
j1 ...jnp = j1 ... jnp i1 ...ip Ti1 ...ip ,
(49)
p!
y recibe el nombre de densidad adjunta o dual del tensor original.

12

(6) Sea gik un tensor de tipo (02 ) cuya ley de transformaci


on para sus componentes es:
xl xm
xl
xm
gik =
glm =
glm k .
(50)
i
k
i
x
x

Escribamos (49) en forma matricial:


m
= AGAT ,
(51)
gik = ali glm aT k o bien G
xl
x
i
xm
=
.
x
k

con ali =

y aT

m
k

Calculamos el determinante de ambos lados de la ecuaci


on (50) tenemos:
= det(A) det(G) det(AT )
det G
= det(A) det(G) det(A)
det G

(52)

= det 2 (A) det(G).


det G

(53)



= g, det(G) = g y det(A) = xki , tenemos:
Si denotamos det(G)
x

i 2
x
g = k g.
x

Ahora calculamos la raz cuadrada y obtenemos:


i
x

g = k g.
x

(54)

(55)

Por lo tanto, concluimos que:


Proposici
on: (i) La raz del determinante de cualquier tensor covariante
de rango 2 es una densidad escalar de peso 1.
(ii) La raz del determinante de cualquier tensor contravariante de rango 2
es una densidad escalar de peso 1.
La afirmaci
on (ii) se prueba en forma an
aloga al que usamos para llegar a
(i).
De este modo, si gij es un tensor y su menor lo denotamos por M ij , entonces
podemos escribir:
l
gmk M lk = m
g
lk

gmk

M
g

(56)

l
= m

Notemos que (56) es v


alido en cualquier sistema coordenado siempre que
M lk sea el menor de glk en ese sistema. Ahora bien:
(*) las cantidades M lk /g est
an completamente determinadas,
l
(*) sabemos que m
es un tensor de tipo (11 ) y gmk es un tensor de tipo (02 ),
13

(*) la ecuaci
on (56) es invariante bajo transformaciones coordenadas.
Por lo tanto, las cantidades M lk /g deben ser las componentes de un tensor.
Teorema: Los menores normalizados de un tensor covariante de rango 2
forman un tensor contravariante de rango 2 denotado por:
g lk =

M lk
.
g

(57)

Se puede probar f
acilmente lo inverso, es decir, si formamos los menores
normalizados de g lk obtenemos un tensor covariante de rango 2. M
as a
un, ese
tensor es justamente glk .
Si multiplicamos (57) por la raz del determinante de gik obtenemos obviamente una densidad tensorial contravariante de rango 2:
M lk
%lk =
g
lk
lk
% = gg

(58)

Una importante consideraci


on final tiene que ver con el producto externo. Si
este es puramente externo, es decir, no envuelve contracciones, entonces dicho
producto puede ser nulo si y s
olo si uno de sus factores es el tensor cero. En otras
palabras, en el a
lgebra de tensores y densidades tensoriales no hay divisores de
cero.

6
6.1

An
alisis tensorial
Derivada ordinaria

Salvo el caso de un escalar, la derivada de las componentes de un tensor no


tiene sentido invariante (independiente de las coordenadas), ya que resulta de
la sustracci
on de tensores referidos a puntos distintos. Aqu no importa que
los puntos sean cercanos pues precisamente en la derivada se contempla el
cambio de la componente del tensor producido por un peque
no cambio de las
coordenadas.
Veamos, por ejemplo, c
omo transforma la derivada de un vector covariante
Ak y que se denota por Ak,i . La ley de transformaci
on de Ak es:
xl
Al ,
Ak =
x
k

(59)

de modo que
xl xm Al
2 xl
Ak
=
+ i k Al .
(60)
Ak,i =
i
k
i
m
x

x
x
x
x
x

Vemos que la derivada parcial de un campo tensorial con respecto a las


coordenadas xi se comporta como un tensor tipo (02 ) excepto por el segundo. La
14

ley de transformaci
on es lineal pero no homogenea, lo que implica que si nuestro
arreglo de derivadas se anula en un S.C. entonces no se anula necesariamente
en otro.
Un resultado an
alogo se obtiene cuando uno procede a derivar las componentes de cualquier tensor o pseudotensor. Por ejemplo, la ley de transformaci
on
de un tensor tipo (02 ) es:

,
Ajk = j xl k xm Alm , donde i =
x
i

(61)

luego:

Ajk,i = i Ajk = j xl k xm i xn n Alm + i j xl k xm + j xl i k xm Alm .
(62)
Hay dos terminos restantes que son combinaciones lineales de las componentes no derivadas, y cuyos coeficientes son segundas derivadas de las coordenadas.
Vamos a considerar ahora algunas construcciones que incluyen derivadas
parciales y, sin embargo, si son tensores.
(I) Sabemos que la derivada de un campo escalar, , es un vector covariante,
,k . Calculamos ahora ,ki y ,ik y formemos lo que se llama rotor del gradiente
de :
,k = k xl l = k xl ,l ,
(63)
l

,i = i x ,l ,
(64)
l
l
m
,ki = k x i x ,lm + i k x ,l ,
,ik = i xl k xm ,lm + k i xl ,l = i xm k xl ,ml + k i xl ,l ,
,ki ,ik = k xl i xm (,lm ,ml ).
Notar que en la tercera lnea se intercambiaron los ndices mudos m y l. As
vemos que el rotor es un tensor tipo (02 ). Claramente el rotor del gradiente de
un campo escalar es cero (asumimos que es de clase C 2).
(II) Del mismo modo se verifica que el rotor de un campo vectorial covariante
cualquiera Ak : k Ai i Ak es un tensor tipo (02 ):
Ak = k xl Al = Ai = i xl Al ,
i Ak = k xl i xm m Al + i k xl Al ,
k Ai = i xl k xm m Al + k i xl Al ,

(65)

i Ak k Ai = k xl i xm (m Al l Am ) .
De este modo, el rotor de un vector covariante es un tensor antisimetrico de
tipo (02 ).
(III) Formemos ahora lo que llamamos divergencia cclica de un rotor:
l (i Ak k Ai ) + i (k Al l Ak ) + k (l Ai i Al ) = 0.
15

(66)

Vemos que la divergencia cclica de un rotor es nula. Veremos a continuaci


on que la divergencia cclica de cualquier tensor antisimetrico tipo ( 02 ) (por
supuesto, el rotor cuenta entre ellos) es un tensor antisimetrico tipo (03 ). En
efecto, sea Tik un tensor antisimetrico. Entonces:
Tik = i xl k xm Tlm .

(67)

Queremos mostrar que j Tik + i Tkj + k Tji es un tensor. Para esto calculemos dichos sumandos a partir de (67):

j Tik = i xl k xm j xn n Tlm + j i xl k xm + i xl j k xm Tlm ,
(68)

i Tkj = k xl j xm i xn n Tlm + i k xl j xm + k xl i j xm Tlm ,
(69)

l
m
n
l
m
l
m
k Tji = j x i x k x n Tlm + k j x i x + j x k i x Tlm .
(70)

Si se suman los tres terminos, se combinan adecuadamente los ndices mudos


l, m y n, y se usan las propiedades de antisimetra de T , se obtiene:
j Tik + i Tkj + k Tji = i xl k xm j xn (n Tlm + l Tmn + m Tnl )

(71)

lo cual prueba que la divergencia cclica de un tensor antisimetrico tipo (02 )


es un tensor antisimetrico tipo (03 ).
Debemos tener cuidado si queremos continuar. Si formamos las derivadas
parciales de las componentes de un tensor antisimetrico tipo (03 ) y sumamos las
permutaciones cclicas, debemos inclur un signo () cuando la permutaci
on sea
impar.
Estos son casos en que combinaciones lineales de las primeras derivadas de
tensores tiene caracter tensorial. As:
-Si el gradiente de un campo escalar es nulo, entonces es constante.
-Si el rotor de un vector covariante es nulo, entonces el vector es un gradiente
de alguna funci
on escalar.
Todo esto no es suficiente para establecer un an
alisis tensorial exhaustivo sobre una variedad. Una simple pregunta a
un no tiene respuesta: Que condici
on
caracteriza un campo vectorial covariante constante? Obviamente la respuesta
no es Ak,i = 0, pues esta ecuaci
on no es invariante bajo T.C.

6.2

Derivada invariante de tensores

Queremos establecer cu
anto vara un tensor de un punto al siguiente. Consideremos nuevamente el caso de la derivada de un vector covariante:
Ak
xl xm Al
2 xl
=
+
Al .
x
i
x
k x
i xm
x
i x
k

(72)

Supongamos que tenemos raz


on para afirmar que Ak es constante si Ak /xi =
0. En otro S.C. esto se expresa como:
2 xl
Ak

Al = 0.
x
i
x
i x
k
16

(73)

Pero, Al =

x
n
A .
xl n

Luego para expresar (73) consistentemente escribimos:

Si definimos:

Ak
x
n 2 xl
An = 0.

i
x

xl x
i x
k

(74)

n 2 xl
nki = x

,
xl x
i x
k

(75)

entonces (74) se escribe:


Ak n
(76)
ki An = 0,
x
i
la cual expresa en un S.C. arbitrario que el arreglo de derivadas parciales
Ak /xi se anula en el S.C. original. Puesto que la T.C. xk = x
k (xi ) es arbitraria, en particular puede ser la transformaci
on identidad. Entonces (43) nos
dice que, necesariamente en el S.C. original, nki = 0. En realidad, nki = 0 en el
S.C. original y en todos los que se relacionen con el mediante transformaciones
lineales de coordenadas, ya que para estas se anulan las segundas derivadas en
(42). Pero el hecho de que estos sistemas sean distinguidos, por el hecho de
que los nki sean nulos, es un problema que milita contra la idea de invarianza
general. Sin embargo, esto se supera de una manera muy simple: abandonamos
tal suposici
on. Esto nos lleva al concepto de conexi
on afn.
Definici
on: Llamamos conexi
on afn o afinidad, nki , a un arreglo de n3
funciones para las cuales:
(i) Asumimos un conjunto de valores arbitrarios en un S.C. particular y
(ii) Est
an sujetos a una ley de transformaci
on que hace a la siguiente expresi
on un tensor:44
(77)
Ak,i An nki Ak;i
donde Ak,i es la derivada ordinaria de Ak y Ak;i es llamado derivada invariante de Ak con respecto a la conexi
on nki .
n
Se debe notar que ki est
a impuesta sobre nuestra variedad, y es una nueva
entidad.
Nuestra consideraci
on inicial es un caso particular de (i) donde elegimos
nki = 0.
Inferimos que (ii) se satisface si adoptamos para nki la siguiente ley de
transformaci
on:
x
n 2 xl
n xr xs l
n = x
rs +
.
(78)

ik
l
i
k
x x
x

xl x
i x
k
El termino adicional es independiente de nki , depende s
olo de la transformaci
on de coordenadas. Esto es coherente con el hecho de que la conexi
on no
es nula en todos los S.C. a
un cuando puede serlo en algunos. Notamos que la
conexi
on no es un tensor, puesto que (77) es lineal pero no homogenea. Adem
as,
es claro de (77) que la conexi
on es simetrica con respecto a los subndices.
Ahora bien, el hecho de que la parte no homogenea sea la misma para
cualquier afinidad tiene consecuencias relevantes. Consideremos dos afinidades,

17

k , en la misma variedad. Entonces la diferencia es un tensor. En efecto,


klm y
lm
bajo una T.C. se tiene:
n
x
n 2 xl
x
n xr xs l
x
n 2 xl
n xr xs l
ik = x
nik

rs
rs
xl x
i x
k
xl x
i x
k
xl x
i x
k
xl x
i x
k
(79)

n
r
s 
n

x
x
lrs .
ik =
nik
lrs

xl x
i x
k

k es un tensor.
Luego la diferencia klm
lm
Si ahora pensamos en una conexi
on klm y una variaci
on infinitesimal de esta,
k
k
lm + lm , entonces la diferencia klm es un tensor. De este modo concluimos
que la suma de una afinidad y un tensor es una afinidad. Veamos que sucede si
k :
sumamos dos afinidades, klm y
lm
n
n xr xs l
x
n 2 xl
x
n xr xs l
x
n 2 xl
ik = x
nik +

+
+
,
xl x
i x
k rs
xl x
i x
k
xl x
i x
k rs
xl x
i x
k
(80)


n
n
r
s
2
l
n
x
x x
l + 2 x
= x
n +
lrs +

.
rs
ik
ik
l
i
k
x x
x

xl x
i x
k

Luego la suma de dos afinidades no es una afinidad. Pero si y son


n
umeros tales que + = 1 entonces tenemos:

n
n xr xs l
x
n 2 xl
x
n xr xs l
x
n 2 xl
= x
n +

ik
ik
xl x
i x
k rs
xl x
i x
k
xl x
i x
k rs
xl x
i x
k
(81)

n
n 2 xl
x
n 2 xl
n xr xs  l
lrs + x
nik +
ik = x

rs
xl x
i x
k
xl x
i x
k
xl x
i x
k

r
s 
2 l
n
n
n
x
x x
lrs + x
nik +
ik = x
lrs +
.

xl x
i x
k
xl x
i x
k

l es una afinidad si y s
Por lo tanto, lrs +
olo si + = 1.
rs
Las conexiones afn o afinidades son un tipo relevante de entidades, adem
as
de los tensores y densidades. La noci
on de derivada invariante introducida es
(76) no es un concepto absoluto sino que se refiere a una cierta afinidad, la
cual debe ser indicada. Si se han introducido m
as que una, entonces debemos
distinguir las derivadas tomadas con respecto a afinidades distintas.
Se extender
a ahora la noci
on de derivada invariante a otros tensores. Parece
natural exigir a la derivaci
on invariante lo siguiente:
(i) que la regla ordinaria de la derivaci
on de un producto se mantenga en la
derivaci
on invariante del producto de tensores,
(ii) que la derivada invariante de un escalar sea la derivaci
on ordinaria.
Desde la igualdad Ak = kl Al , la regla del producto nos dice que:
l
Ak;m = k;m
Al + kl Al;m ,

18

(82)

l
y puesto que (82) debe mantenerse para cualquier S.C. se debe tener que k;m
=
0. Es decir, la derivada invariante del tensor delta de kronecker considerado
como un campo debe ser cero con respecto a cualquier afinidad.
Consideremos ahora el invariante Ak B k . De acuerdo con (i) y (ii) tenemos:


Ak B k ,i = Ak B k ;i ,
(83)

Ak B,ik + Ak,i B k = Ak B;ik + Ak;i B k = Ak B;ik + (Ak,i An nki ) B k .

Por cancelaci
on de terminos obtenemos:
Ak B;ik = Ak B,ik + An B k nki .

(84)

Si escribimos (84) intercambiando los ndices mudos n y k del u


ltimo termino,
tenemos:

Ak

Ak B;ik = Ak B,ik + Ak B n kni ,



B;ik B,ik B n kni = 0,

(85)

pero Ak es arbitrario, luego:

B;ik = B,ik + B n kni .

(86)

Esta u
ltima ecuaci
on expresa la derivada invariante de un vector contravariante donde obviamente B,ik = B k /xi . Para verificar que B;ik es un tensor

miramos la ecuaci
on (83) donde tenamos Ak B k ,i = Ak B;ik + Ak;i B k . El vector Ak es arbitrario y todos los terminos, salvo el primero del lado derecho, son
vectores. Luego B;ik es un tensor.
Es B,ik + B n kin un tensor? (notar que se intercambiaron los subndices i,
n) Obviamente s, si es simetrico. Sin embargo si es antisimetrico entonces
dicha expresi
on tambien es un tensor, pero es la derivada invariante de B k con
respecto a otra afinidad que resulte de intercambiar los subndices de la primera.
kl...
Para un tensor general Tpq...
aplicamos consideraciones similares al invarinte:
kl...
Tpq...
Al Bl ...F p Gq ,

(87)

con Al , Bl , ..., F p , Gq vectores arbitrarios. Se obtiene entonces que para la


derivada ordinaria hay terminos adicionales, uno por cada ndice de T , cada
uno de los cuales consta de una contraci
on entre las componentes de T y .
Siguiendo el modelo anterior se obtiene:53
kl...
kl...
nl... k
kn... l
kl... n
kl... n
Tpq...;i
= Tpq...,i
+ Tpq...
ni + Tpq...
ni + ... Tnq...
pi Tpn...
qi ...

(88)

Notar que el ndice de diferenciaci


on es siempre el segundo ndice covariante
de y los restantes lugares son ocupados para asignar el que falta de T .

19

6.3

Transporte paralelo

Una forma interesante de introducir el concepto de derivada invariante y conexi


on
es la siguiente. Hemos visto que la derivada ordinaria de un campo vectorial
covariante tiene problemas:
Ai (xk + dxk ) Ai (xk )
.
dxj
0

Ai,j = lim
j
dx

(89)

Para que la definici


on sea consistente debemos transportar paralelamente
Ai (xk ) desde el punto de coordenadas xk hasta xk + dxk y luego realizar la
diferencia. Denotamos por Ai al cambio en las coordenadas de Ai luego de
transportarlo paralelamente a lo largo de dxk , como se ve en la figura.

Figure 3:

Es de esperar que Ai sea proporcional al desplazamiento dxk y tambien a


Al . Por lo tanto suponemos:
Ai = lik Al dxk .

(90)

donde los lik son funciones de las coordenadas y caracterizan el desplazamiento paralelo. Estas funciones son las componentes de lo que llamamos una
conexi
on.
Ahora s podemos hacer la diferencia en (89):
Ai (xk + dxk ) Ai (xk ) Ai
dxj
dx 0
dxl
Ai (xk + dxk ) Ai (xk )
lim
kil Ak j
j
j
dx
dx
dx 0
Ai (xk + dxk ) Ai (xk )
kij Ak
lim
dxj
dxj 0
Ai,j kij Ak .
lim
j

20

(91)

Esto nos lleva a la definici


on de la derivada invariante de un vector covariante
mediante la siguiente ecuaci
on:
Ai;j := Ai,j kij Ak .

(92)

Para encontrar la expresi


on de la derivada invariante de un vector contravariante, debemos determinar el transporte paralelo de este vector.
Para esto consideramos que el transporte paralelo del escalar Ai Bi es nulo:
(Ai Bi ) = 0,
i

(93)

Ai B + Ai B = 0,
jik Aj dxk B i + Ai B i

Ai ijk dxk B j + B i

= 0,
= 0.

Usando la arbitrariedad de Ai tenemos:

B i = ijk dxk B j .

(94)

Por lo tanto, la derivada invariante de un vector contravariante utilizando


la idea del transporte paralelo es:
i
B;i j := B,j
+ kij Ak .

(95)

kl...
Para un tensor general, Tpq...
, aplicamos consideraciones similares al escalar
kl...
p q
Tpq... Ak Bl ...F G ..., con Ak , Bl , ...,F p , Gq ...,vectores arbitrarios. Lo que ahora
pedimos es que la expresi
on que determina el desplazamiento paralelo de dicho
kl...
escalar, Tpq...
, sea nulo. Siguiendo el modelo anterior se obtiene:
kl...
kl...
nl... k
kn... l
kl... p
kl... q
Tpq...;
i = Tpq..., i + Tpq... ni + Tpq... ni + ... Tnq... ni Tpn... ni ... . (96)

Torsi
on

Dada una conexi


on es posible definir el tensor de torsi
on.
Definici
on:
Se define el tensor de torsi
on como:
Tijk := kij kji .

(97)

Notemos que este transforma como tensor debido a que al hacer la diferencia
de las conexiones, se anula el termino no homogeneo de la ley de transformaci
on.
Una interesante interpretaci
on geometrica de la torsi
on es la siguiente:

21

Figure 4:
Consideremos tres puntos P , Q , S de la variedad, infinitesimalmente cercanos, tal que las coordenadas de P son xk , dxk1 es la diferencia de las coordenadas de los puntos P y Q, y dxk2 es la diferencia de las coordenadas de
los puntos P y S (ver figura 4). Si transportamos las diferenciales dxk1 y dxk2 ,
ambos vectores definidos en P , de tal manera que se forme un paralel
ogramo,
encontremos la condici
on para que el paralelogramo se cierre.
(1) Desplacemos primero el vector dxk2 (P ) a traves de dxk1 .As tendremos
que
d
xk2 (Q) = dxk2 + dxk2 = dxk2 kij dxi2 dxj1
(98)

es el nuevo vector transportado en Q. Este


nos permite definir las coorde1
nadas de un nuevo punto R , cuyas coordenadas son: xk +dxk1 +dxk2 kij dxi2 dxj1 .
(2) Desplacemos el vector dxk1 (P ) a traves de dxk2 .Ahora encontramos:
d
xk1 (S) = dxk1 + dxk1 = dxk2 kij dxi1 dxj2 .

(99)

Este nuevo vector transportado en S nos permite definir las coordenadas de


un nuevo punto R2 cuyas coordenadas son: xk + dxk2 + dxk1 kij dxi1 dxj2 .
Si queremos que el paralel
ogramo se cierre es necesario que los puntos R 1 y
R coincidan. Igualando las coordenadas de ambos puntos, encontramos:
2

xk + dxk2 + dxk1 kij dxi1 dxj2 = xk + dxk1 + dxk2 kij dxi2 dxj1 ,
kij

kji

= 0.

(100)
(101)

Por lo tanto la condici


on para que el paralel
ogramo se cierre es que la torsi
on
sea nula, o equivalentemente que la conexi
on sea simetrica en sus ndices covariantes. Notemos que esta condici
on es independiente del sistema coordenado
debido a que la torsi
on es un tensor.
22

Figure 5:

Integrabilidad y Curvatura

Anteriormente definimos el transporte paralelo de un tensor desde un punto P


de coordenadas xj a un punto Q de coordenadas xj + dxj . Podemos hacer una
sucesi
on de transportes comenzando desde un punto P de tal manera de volver
al mismo punto original P, formando un circuito cerrado. La pregunta natural
que surge es si el vector transportado coincide con el vector original, es decir, si
el transporte entre dos puntos es independiente de la trayectoria.

Figure 6:

Definici
on:
Decimos que una conexi
on kij es integrable si el transporte paralelo asociado
a ella es independiente de la trayectoria.

23

Encontremos las condiciones que debe satisfacer una conexi


on para que sea
integrable.
Para ello, consideremos un vector contravariante Ak asociado a un punto P
de coordenadas xj . Definamos un campo vectorial tal que el vector asociado a
un punto Q coincida con el vector Ak transportado desde P a Q, es decir,
Ak + dAk = Ak + Ak ,
como dAk =

Ak
j
xj dx

(102)

y Ak = kij Ai dxj tenemos que


Ak
+ kij Ai = 0.
xj

(103)

Esta
es la condici
on que debe satisfacer un vector contravariante A k en el
k
caso que ij sea integrable.
Las segundas derivadas parciales cruzadas de Ak deben ser iguales, es decir:
2 Ak
2 Ak
=
.
m
j
x x
xj xm

(104)

De las ecuaciones (103) y (104) se obtiene la condici


on:



kij Ai j kim Ai = 0.
m
x
x

(105)

Esta condici
on tambien se puede obtener imponiendo la condici
on que Ak
k
sea una diferencial exacta. De esta forma, si transportamos A a traves de
una curva continua, obtenemos por el teorema fundamental del c
alculo que
el transporte es independiente de la trayectoria. Apliquemos la condici
on de
exactitud. Como Ak = kij Ai dxj , entonces se debe satisfacer:



k A i =
k A i ,
xm ij
xj im
que corresponde a la ecuaci
on (105). Desarrollando obtenemos que
Ai m kij + kij m Ai Ai j kim kim j Ai = 0.

(106)

Como Ak = kij Ai dxj es una diferencial exacta, tenemos que j Ak =


Reemplazando j Ak en (106) tenemos:

kij Ai .

Ai m kij Ai j kim + klm lij Ai klj lim Ai = 0,



Ai m kij j kim + klm lij klj lim = 0.

(107)

m kij j kim + klm lij klj lim = 0.

(109)

(108)

Como Ai es un vector arbitrario, la condici


on de integrabilidad es:

Definici
on:
24

Figure 7:
Se define el tensor de curvatura como:
k
Rimj
:= m kij j kim + klm lij klj lim .

(110)

Teorema:
Una conexi
on es integrable si y s
olo si su curvatura es igual a cero.
Una interpretaci
on geometrica de la curvatura es la siguiente:

Consideremos cuatro puntos P, Q, R, S como en la figura (??), donde las


coordenadas de P son xk , dxk1 es la diferencial que une los puntos P y Q, dxk2 la
diferencial que une los puntos P y S. Si consideramos una conexi
on simetrica,
es decir con torsi
on nula, el paralel
ogramo que se obtiene al transportar las
diferenciales es cerrado. Esto nos permite definir un circuito cerrado.
Sea Ak (P ) un vector contravariante definido en el punto P . Traslademos este
vector a traves del circuito hasta volver el punto P y obtengamos la diferencia
entre el vector transportado y el vector original: Ak Ak .
(1) Transportemos Ak de P a Q:
B k (Q) = Ak + Ak = Ak kli (xj )Al dxi1 .

(111)

C k (R) = B k + Bk = B k kmn (Q)B m (dxn2 + (dxn2 )),

(112)

(2) Transportemos B de Q a R:

dxn2

(dxn2 )

donde transportamos B a traves del vector


+
que corresponde a
dxk2 transportado hasta el punto Q. Como la conexi
on est
a evaluada en el punto
Q, de coordenadas xk + dxk1 , debemos hacer una expansi
on en serie, es decir:
kmn (xi + dxi1 ) = kmn (xi ) +
25

kmn (xi ) j
dx1 ,
xj

(113)

donde despreciamos los terminos de segundo orden. Reemplazando en la ecuaci


on
(112) y utilizando (111) obtenemos:
C k (R) = Ak kli Al dxi1 kmn Am dxn2 + kmn nrs Am dxs1 dxr2

j kmn Am dxj1 dxn2

(114)

l
i
n
kmn m
li A dx1 dx2 .

(3) Traslademos el vector C k (R) al punto S realizando el mismo procedimiento anterior, pero a traves del vector (dx1 + (dx1 ))(R),tal que Dk (S) =
C k + C k .
(4) Finalmente, traslademos el vector D k hasta el punto P . As, finalmente
se obtiene:
 q r s
k p
Ak Ak = s kqr r kqs + kms m
(115)
qr pr qs A dx1 dx2 .

Pero el termino entre parentesis corresponde a la curvatura. Por lo tanto


podemos escribir:
k
Ak Ak = Rrsq
dxr1 dxs2 Aq .
(116)

Es decir, la diferencia entre el vector transportado y el original es proporcional a la curvatura.


k
Notemos de la ecuaci
on (116) que Rimj
debe transformar como un tensor,
por lo tanto si la curvatura se anula en un sistema coordenado, entonces se
anular
a en todos los dem
as.
En el caso de un plano con coordenadas cartesianas, sabemos que el trans

porte no modifica el vector, es decir kij = 0 ( utilizamos el smbolo = para


denotar que esta igualdad es v
alida en un sistema coordenado paricular ). En
l
= 0, por lo
este caso, seg
un (110), tenemos que la curvatura se anula, Rijk
tanto, la conexi
on es integrable.
En general, si existe un sistema coordenado donde kij 0 en todo punto de
l
0 en esa
una regi
on dada, entonces la curvatura es identicamente cero Rijk
regi
on. Adem
as, como la curvatura es un tensor, esta se anular
a en cualquier
sistema coordenado.
El contrarecproco tambien es v
alido. Si existe un sistema coordenado en el
l
cual la curvatura sea distinto de cero, Rijk
6= 0 , entonces no existir
a ning
un
sistema coordenado en el cual la conexi
on se anule identicamente en la regi
on
dada.
Podemos expresar esto diciendo que la condici
on necesaria y suficiente para
encontrar un sistema coordenado donde la conexi
on se anule identicamente kij
l
0 y Tijk 0.
0, es que Rijk
Al considerar la derivada covariante de un tensor se encuentra que esta, en
general, no es independiente del orden de derivaci
on. Al estudiar las condiciones
para que esta sea independiente del orden de derivaci
on encontramos que ella
tambien est
a relacionada con la curvatura y la torsi
on.
La derivada covariante de un vector contravariante es:
A = A + A .
26

(117)

Consideremos la segunda derivada covariante de A :


A = A + A +A + A +A A
A .
(118)
Permutemos los ndices , obtenemos


A = A + A +A + A +A A
A .
(119)

Haciendo la diferencia entre (118) y (119) obtenemos:





A A = R
A + A .

(120)

Por lo tanto, la derivada covariante es independiente del orden de derivaci


on

si y s
olo si R
= 0 y T
= 0.

La geod
esica de una conexi
on afn

Figure 8:

Consideremos dos puntos infinitesimalmente cercanos P (xk ) y P 0 (xk + dxk )


en una variedad provista de una conexi
on . Como se ve en la figura (??), el
vector dxk que une dichos puntos se transporta paralelamente a P 0 resultando
el vector dx0k . Con el punto P 0 y el vector dx0k podemos construir el nuevo
punto P 00 (xk + dxk + dx0k ) y luego transportar dx0k desde P 0 a P 00 resultando
el vector dx00k , y as sucesivamente.
De este modo, se obtiene una lnea poligonal que se aproxima a una curva
en el lmite infinitesimal, es decir, cuando dxk es realmente infinitesimal y el
n
umero de pasos se incrementa sin lmite. Esta curva se denomina geod
esica
afn y posee la siguiente propiedad:
(*) Si Ak (xi ) es un vector tangente a la curva en P y se transporta de acuerdo
a la conexi
on al punto P 0 , entonces el vector resultante en P 0 tambien es
paralelo a la curva.
En general, una curva es representada dando sus coordenadas como funciones de un par
ametro continuo (en general quiere decir que en lugar de
27

podemos escoger cualquier funci


on continua de ). As tenemos la curva representada por xi = xi () y Ak = dxk /d el vector que indica en cada punto la
direcci
on de la curva. Para que esta curva tenga la propiedad (*) se exige que
el vector Ak transportado de P a P 0 sea proporcional a Ak (P 0 ):
Ak (xi + dxi ) = M Ak (xi + dxi ),


Ak (xi ) + Ak = M Ak (xi ) + d Ak ,

(121)

donde M es una constante de proporcionalidad, que en general depende de


. Pero
d 2 xk
dxk
)=
d,
(122)
d(Ak ) = d(
d
d2
y
Ak = klm Al dxm = klm

dxl dxm
dxl m
dx = klm
d,
d
d d

(123)

de modo que (121) queda:


l
m
d 2 xk
dxk
k dx dx
M
d
+

d
=
(1

M
)
,
lm
d2
d d
d


dxk
d 2 xk
dxl dxm
d = (1 M )
+ klm
.
M
2
d
d d
d

(124)

Resulta natural que la diferencia entre M y la unidad debe ser del orden
de d, por lo cual podemos reemplazar M por 1 en el primer termino de
(124). Adem
as, esta diferencia puede cambiar de un punto a otro, de modo
que podemos dejar el factor 1 M dependiendo de . Para esto escribimos
1 M = ()d, de modo que:

 2 k
l
m
dxk
d x
k dx dx
d = ()d
+

,
(125)
lm
2
d
d d
d
dxl dxm
dxk
d 2 xk
+ klm
= ()
.
2
d
d d
d

Bajo el cambio de par


ametro s = s(), la ecuaci
on (125) se transforma en:
l
m
d 2 xk
s0 s00 dxk
k dx dx
+

=
,
(126)
lm
ds2
ds ds
s02
ds
donde s0 = ds/d. El segundo miembro de esta ecuaci
on se anula si y s
olo
si s0 s00 = 0, es decir, si:
"Z 0
#
Z

s=

(u)du d0 .

exp

28

(127)

De este modo, siempre es posible escoger un par


ametro tal que el segundo
miembro de (127) se anule:
dxl dxm
d 2 xk
+ klm
= 0.
2
ds
ds ds

(128)

Se verifica directamente que esta ecuaci


on se mantiene bajo cualquier transformaci
on lineal de par
ametro (
s = as+b, con a, b constantes). De este modo, las
soluciones de la ecuaci
on (128), xi = xi (s), son representaciones parametricas
de las geodesicas afn.

10

M
etrica

La metrica es el instrumento matem


atico que permite introducir el concepto de
distancia.
Definici
on: Se denomina espacio m
etrico al espacio que cuenta con una
ley para medir distancias.
Sean xk y xk +dxk las coordenadas de dos puntos infinitesimalmente cercanos
en una variedad. La expresi
on para la distancia entre estos puntos puede ser
muy general, pero se le debe exigir que sea un escalar, es decir, que su valor sea
independiente del sistema coordenado. El caso m
as estudiado es el que supone
que la distancia elemental entre dichos puntos est
a dada por una expresi
on de
la forma:
ds2 g dx dx ,
(129)

donde las g son funciones de las coordenadas x . Adem


as, por definici
on, las
g son las componentes de un tensor covariante de segundo orden, simetrico y
recibe el nombre de tensor m
etrico. Esto asegura que ds sea efectivamente
un escalar y se denomina elemento de lnea.
A continuaci
on veremos que una metrica introducida sobre la variedad es
una poderosa herramienta.
Definici
on: Longitud de una curva:

Definition 1 Sea C una curva en la variedad dada por xi = xi (), con i


f . Definimos la longitud de la curva como el escalar
Z f r
Z f
Z f
p
dx dx
g dx dx =
g
d.
(130)
ds =
L :=
d d
i
i
i
Definici
on: Longitud de un vector:

Definition 2 Sea A un vector contravariante definido en un punto P de la


variedad. Llamamos m
odulo de A al escalar:
|A|2 g A A .

(131)

Obviamente en la ecuaci
on (131) g , A y A deben estar evaluados en el
mismo punto P .
Definici
on: Producto escalar:
29

Definition 3 Sean A y B dos vectores contravariantes definidos en un punto


P de la variedad. Se define el producto interno entre dichos vectores como:
A B g A B .

(132)

Definici
on: Angulo
entre vectores:
Definition 4 Se define el a
ngulo ^(A, B) entre los vectores A y B mediante
la relaci
on:
cos ^(A, B) :=

g A B
AB
p
=p
.
|A| |B|
g A A g B B

(133)

Definici
on: Los espacios metricos en los cuales la distancia elemental se
define por una expresi
on de la forma (129) con det(g ) g 6= 0 se llaman
espacios de Riemann.
Adem
as si det(g ) 6= 0 se dice que g es no-degenerada.
Por ejemplo, en el espacio euclidiano n-dimensional y en coordenadas cartesianas la metrica es g = , de modo que:
X
dx dx ,
(134)
ds2 =

donde = 1, 2, ..., n. La longitud de una curva C est


a dada por:
s
Z f X
dx dx
L=
d,
d d
i

(135)

el m
odulo de un vector A, el producto escalar de dos vectores A y B y el
a
ngulo entre ellos est
an dados por:
X
2
|A|
A A ,
(136)

AB

A B ,

cos ^(A, B) = pP

A A

A B
pP

BB

Ahora bien, si det(g ) g =


6 0, entonces existe g (xi ) un tensor con
travariante g tal que:
g g = .
(137)
y recibe el nombre de metrica inversa de g .
Consideremos ahora un vector contravariante A . Es posible definir un vector covariante A0 como:
A0 g Av .
(138)
30

Con g podemos definir un vector A00 como:


A00 g A0 .

(139)

De este modo vemos que usando la metrica podemos mapear vectores contravariantes (en el espacio tangente) en vectores covariantes (en el espacio cotangente) y viceversa.
Adem
as, si usamos (138) en (139) obtenemos:
A00 = g A0 = g g A = A = A ,

(140)

lo cual prueba que hay una relaci


on uno a uno entre vectores del espacio
tangente y cotangente. En espacios en que g 6= 0 se puede hablar por tanto
de vectores como objetos geometricos, cada uno de los cuales puede definirse
tanto por sus componentes covariantes como contravariantes. Por ejemplo, el

espacio Euclidiano es un espacio de Riemann en el cual g = , de modo que


las componentes covariantes y contravariantes de cualquier vector coinciden en
numericamente en coordenadas cartesianas. De aqu que no sea necesaria tal
distinci
on en espacios euclidianos estudiados en coordenadas cartesianas.

Figure 9:

La utilidad del tensor metrico para subir o bajar ndices tambien vale

para tensores en general. Por ejemplo, a partir del tensor T


podemos definir
el tensor:

T = g T
.
(141)

10.1

La geod
esica m
etrica

Consideremos dos puntos P y Q en una variedad provista de metrica. Se define


la geod
esica como la curva de longitud mnima entre P y Q.
31

Si C es una curva representada parametricamente por x = x (), entonces


C es una geodesica entre P y Q si y s
olo si
L=

ds

(142)

es extremal, es decir, si y s
olo si:
L = 0.
Pero (143) es equivalente a las ecuaciones de Lagrange:
!
L
S
S
d
= 0,
=


x
x
d x

donde

S=

dx dx
.
d d

(143)

(144)

(145)

Se puede probar que (144) es equivalente a la ecuaci


on:
dx dx
dx
d 2 x
u
+
{
}
=
f
()
,

d2
d d
d

(146)

donde

1
g [ g + g g ] ,
(147)
2
es llamado smbolo de Christoffel de segunda especie. La funci
on f , an
aloga a
la funci
on () de la ecuaci
on (125), siempre puede ser elegida f = 0 eligiendo
un par
ametro s adecuado:
n

d 2 x
dx dx

+
{
}
= 0.

ds2
ds ds

(148)

Obvservamos que (148) tiene la misma forma que la ecuaci


on (128) para la

geodesica afn, de donde se deduce que {


} debe ser una conexi
on.

Por ejemplo, en el espacio euclidiano y en coordenadas cartesianas {


} = 0,
de modo que seg
un (148) las geodesicas de este espacio son rectas con ecuaciones
x () = xo + u , con xo y constantes.

11

Introducci
on a la geometra de Riemann

Para empezar vamos a demostrar dos importantes teoremas.


Teorema: Sea Mn una variedad con una metrica g y una conexi
on .
Entonces, la longitud de un vector bajo transporte paralelo es conservada si y
s
olo si:
g = 0.
(149)
32

En efecto, sea A (x ) un vector definido en P (x ) y A (x + dx ) el vector


que resulta de transportar A desde P a Q(x + dx ), es decir:


A (Q) = A A dx
.
(150)
P

Las longitudes de A y A son respectivamente:


2

pero

|A| = (g A A )P ,

(151)

2

A = g A A ,
Q

(152)

g (Q) = (g + g dx )P ,

(153)

por lo tanto:
i
h
2

A = [g + g dx ] A A dx A A dx .

(154)

Desarrollando el producto y despreciando los terminos de segundo orden en


dx , se obtiene:
2
A = g A A g A A dx g A A dx + (g ) A A dx .

(155)
Igualando (151) y (155) se obtiene:
g A A dx g A A dx + (g ) A A dx = 0.

(156)

Intercambiando adecuadamente los ndices mudos se obtiene:


(g ) A A dx g A A dx g A A dx = 0


g g g A A dx = 0.

(157)

Usando la arbitrariedad de A y dx obtenemos:

g g g = 0

(158)

g = 0,

lo cual demuestra el teorema.


Teorema: La u
nica conexi
on que satisface:

(i) T
= 0 (torsi
on nula o equivalentemente simetrico)
(ii) g = 0 (o equivalentemente que conserva la longitud de un vector
bajo transporte paralelo)
es el smbolo de Christoffel:
n

1
g [ g + g g ] .
2
33

(159)

En efecto, de (ii) tenemos:


g = g g g = 0.

(160)

g = g + g .

(161)

Luego:

Escribamos las ecuaciones que se obtienen por permutaci


on circular de los
ndices , , :
(162)
g = g + g
g = g + g .

(163)

Sumando (161) a (162) y restando (163) se obtiene:







g + g g = g + +g +g .

(164)

Usando la condici
on (ii) tenemos:

g + g g = 2g ,

(165)

1
[ g + g g ] [] .
(166)
2
Los smbolos [] se denominan smbolos de Christoffel de primera especie.
Multiplicando por g , obtenemos:
g =

1
g [ g + g g ] ,
2
n o
1

= g [ g + g g ]
.
2

(167)

Esta particular conexi


on, se denomina smbolo de Christoffel de segunda
6= que satisface las hip
especie. Si suponemos que existe otra conexi
on
otesis

del teorema se llega a una contradicci


n o on, pues se obtiene que es un smbolo

es la u
nica conexi
on que satisface (i) y (ii).
de Christoffel. De este modo,
Es directo verificar que la derivada covariante de la metrica con respecto a la
conexi
on metrica (smbolo de Christoffel) es identicamente nula. Para la inversa
tambien se tiene g = 0. En efecto, g g = = (g g ) = 0 =
g = 0. Sin embargo, de la derivada covariante de la metrica con respecto
a otras conexiones no podemos decir nada.
Un espacio posee geometra de Riemann si satisface:

T
=0

(168)

g = 0.

(169)

y
Corolario: Si en un espacio de Riemann existe un sistema coordenado en el
cual las componentes de la metrica son constantes, entonces el espacio es plano,
es decir tiene curvatura cero.
34

n o

= 0 = R
= 0. Ejemplos de estos
En efecto, g = cte =
espacios son el espacio de Minkowsky de la relatividad especial o el espacio
euclidiano.
Por supuesto el contrarrecproco es verdadero:

Si R
6= 0 entonces no existe un sistema coordenado donde g = cte y
= 0.

12

M
etrica y conexi
on inducidas

Sea MN una variedad de dimensi


on N y sea Sn una variedad de dimensi
on
n N tal que Sn este contenida en MN . Representaremos la subveriedad
parametricamente por x = x (z i ), = 1, 2, .., N , i = 1, 2, .., n. Utilizaremos
letras griegas cuando los ndices corren hasta N , y letras latinas cuando los
indices corren hasta R.
Si MN posee una metrica g y una conexi
on , deseamos encontrar la
metrica y la conexi
on que se induce sobre SR .

Figure 10:

12.1

Inducci
on de la m
etrica

Un elemento de lnea en MN est


a dado por:
ds2 = g dx dxv .
Como x = x (z i ), tenemos que dx =
elemento de lnea inducido es
ds2 = g

x
z i

dz i . Por lo tanto, sobre SR el

x x i j

dz dz = gij
dz i dz j ,
z i z j
35

(170)

(171)

con
x x
z i z j
corresponde al tensor metrico inducido sobre SR .

gij
= g

donde gij

12.2

(172)

Inducci
on de la conexi
on

Sea Ai un vector contravariante definido sobre SR tal que dz i = Ai . Necesitamos una expresi
on para el vector asociado a Ai sobre MN .

Como dx = x
z i dz tenemos dx = z i A . Esto induce un vector B en
MN
x i
A
(173)
B =
z i
donde B corresponde al vector asociado a Ai en MN .
Como tenemos una conexi
on definida sobre MN podemos transportar el
vector B desde el punto P de coordenadas x al punto Q de coordenadas
x + dx , el cual est
a dado por:
(Q) = B B dx .
B

(174)

Reemplazando la ec. (173) tenemos que el vector transportado es:

(Q) = x Ai x x Ai dz j .
B

i
i
z
z z j

(175)

Como deseamos encontrar la conexi


on de SR transportemos el vector Ak
desde el punto P de coordenadas z i al punto Q de coordenadas z i + dz i con la
conexi
on k
ij que deseamos encontrar.
j
K
Ai (Q) = Ai i
jk A dz .

(176)

k (Q) sobre SR e igualarlo con Ai (Q).


Ahora debemos proyectar el vector B
Pero vemos de la ec. (173) que no podemos obtener directamente un vector

sobre SR a partir de un vector en MN , pues aparece un factor x


z i , el cual no
es invertible por ser una matriz no cuadrada.
Por lo tanto, debemos definir alg
un tipo de proyecci
on, de tal manera de
poder recuperar la ec. (173). Esta proyecci
on nos permitira obtener un vector
en SR a partir de un vector en MN .
Dado un vector B en MN definimos su proyecci
on Ai sobre SR como:
Ai = g ij

x
g B ,
z j

(177)

donde g ij corresponde a la inversa de la metrica inducida.


Veamos si podemos recuperar la ec. (173). Para ello multipliquemos a ambos

lados por gik


x

Ai gik
= kj j g B .
(178)
z
36

Reemplazando la ec. (171) tenemos:


Ai g

x x
x
=
g B ,
i
k
z z
z k
x
Ai i = B .
z

(179)
(180)

Donde la ec. (180) es igual a la ec. (173). Por lo tanto nuestra definici
on de
proyecci
on satisface la condici
on requerida. Notemos que para esta definici
on
de proyecci
on es necesario utilizar la metrica. Por lo tanto, en espacios que no
poseen metrica no podemos realizar este procedimiento.
sobre SR .
Proyectemos ahora el vector B
i
satisface:
Si C corresponde a la proyecci
on de B
C i (Q) = g ij (Q)

x
.
(Q)g (Q)B
z j

(181)

Igualemos C i con Ai

.
gij
(z k + dz k )Aj = g (Q) i (Q)B
z
Expandiendo en serie g (x + dx ) y

x
k
z i (z

(182)

+ dz k ),encontramos:

g (x + dx ) = g (x ) + g dx ,

(183)

x
x
x
(z k + dz k ) =
(z k ) + j i dz j .
i
i
z
z
z z

(184)

Reemplazando en (182) y expandiendo en serie gij


(z k + dz k ) obtenemos:


2 x
x
j
,
+ j i dz B
+

= (g + g dx )
z i
z z
(185)


 

x
x
x
j
j l
j
.
gij
A gij
lm A dz m + s gij
A dz s = g i + g j i dz j + g i dx B
z
z z
z
(186)

(gij

s gij
dz s )(Aj

l
m
j
lm A dz )

de (175) y multiplicando tenemos:


Reemplazando B


2 x x l j
x x l
j
j l
j
A
+
g
A dz
gij
A gij
lm A dz m + s gij
A dz s = g i

z z l
z j z i z l
(187)
+ g

37

x x l
x x x m n
A dx g i
A dz .
i
l
z z
z z m z n


Desarrollando la expresi
on s gij
, llegamos a :



x x

(188)
s gij
= s g i
z z j


x x x
2 x x
2 x x
= g i
+
g
+
g
.

z z j z s
z s z i z j
z s z j z i
Reemplazando en (187) y reduciendo los terminos semejantes, encontramos
j l
gij
lm A dz m = g

2 x x j s
x x x m n
A dz + g i
A dz .
s
j
i
z z z
z z m z n

(189)

Cambiando algunos ndices mudos y factorizando, llegamos a

j l
gij
lm A dz m

x
= g i
z

j
gij
lm = g

x
z i




2 x
x x
+

z m z l
z l z m

2 x
x x
+ l
m
l
z z
z z m




Al dz m ,

(190)

(191)

Finalmente despejando j
lm , encontramos
k
lm

=g

ki

x
g i
z

2 x
x x
+

z m z l
z l z m

(192)

La ecuaci
on anterior nos entrega la conexi
on inducida sobre SN .

13
13.1

Resultados de la conexi
on y m
etrica inducidas
Aplicaci
on a la teora de superficies

En la teora de superficies, consideramos una variedad bidimensional sumergida


en R3 , por lo tanto, debemos ser capaces de encontrar la teora de superficies a
partir de los resultados anteriores.
Para ello debemos considerar el hecho que la conexi
on de R3 en coordenadas
cartesianas es cero, y la metrica es la metrica euclidiana . En este caso los
ndices griegos toman los valores 1, 2, 3 y los ndices latinos 1, 2. Apliquemos
estas condiciones primero al caso de la metrica y luego al de la conexi
on.
13.1.1

Primera forma fundamental

Sabemos por la ecuaci


on (171) que la metrica inducida es

gij
= g

x x
ui uj

38

(193)

Utilizando la notaci
on vectorial, y considerando los subndices como derivadas
tenemos:

gij
= x i xj .
(194)
Por lo tanto, el elemento de lnea sobre la superficie es:
I = ds2 = (xi xj ) dui duj

(195)

que corresponde a la primera forma fundamental de la teora de superficies.


13.1.2

Ecuaciones de Gauss

Utilicemos la ecuaci
on (191), en notaci
on vectorial toma la forma:
xi xml = (xi xj ) j
ml .

(196)

si existe N tal que xi N =0 podemos escribir la ecuaci


on anterior como:
xml = j
ml xj + bml N,

(197)

que corresponden a las ecuaciones de Gauss de la teora de superficies.

13.2

Caractersticas de una variedad que est


a contenida
dentro de un espacio con geometra de Riemann

Queremos ver que sucede con la conexi


on inducida si MN posee una geometra
de Riemann. Es decir, queremos saber si SR posee tambien una geometra
de Riemann. Para ello supongamos que la conexi
on de MN es el smbolo de
Christoffel:
1
= g ( g + g g ).
(198)
2
Reemplazando en (192), obtenemos:
ki
k
g
lm = g

x 2 x
1
x
x x
+ g ki g i g ( g + g g )
i
m
l
z z z
2
z
z l z m
(199)

x 2 x
1 ki x
x x
+
g
(
g
+

g
)

z i z m z l
2
z i
z l z m
(200)


2

x
1
x x
x
. (201)
= g ki i g m l + ( g + g g )
z
z z
2
z l z m

= g ki g

Si SR posee una geometra de Riemann debe satisfacer que su conexi


on es
el smbolo de Christoffel, es decir:
k
lm =

1 ki

g (l gmi
+ m gli i glm
)
2

39

(202)

Desarrollemos esta expresi


on e intentemos llegar a (201). Si gij
= g x
z i
entonces

g x x x
2 x x
2 x x
gmi
=
+ g l m i + g l i m
l

l
m
i
z
x z z z
z z z
z z z
gli
g x x x
2 x x
2 x x
=
+
g
+
g

z m
x z m z l z i
z m z l z i
z m z i z l

g x x x
2 x x
2 x x
glm
=
+
g
+
g

z i
x z i z l z m
z i z l z m
z i z m z l

Reemplazando en (202) obtenemos:





2 x
1
x x
ki x
k
=
g
g
+
(
g
+

g
)




lm
z i
z m z l
2
z l z m

x
z j

(203a)
(203b)
(203c)

(204)

que corresponde a la ec. (201).


Por lo tanto la conexi
on de SR es (202), que es el smbolo de Christoffel
asociado a la metrica inducida sobren SR . As, hemos demostrado el siguiente
teorema.
Teorema:
Si una variedad dada posee una geometra de Riemann, entonces cualquier
variedad que este contenida en ella tambien tendr
a una geometra de Riemann.
Esto explica el hecho de que la conexi
on asociada a una superficie inmersa
en R3 es el smbolo de Christoffel y que no es posible encontrar una superficie
que posea otro tipo de conexi
on, respetando la proyecci
on definida en (177)

13.3

Proyecci
on sobre un vector.

Podemos definir la proyecci


on de un vector en MN sobre un vector en SR de la
siguiente forma:
Si B es un vector en MN y C i es un vector en SR , entonces la proyecci
on
de B sobre C i est
a dada por:


x
m
g B z
mC
i
i Ci.
Bp = h
(205)
x x m j
g zm zj C C
Probemos que a partir de esta definici
on podemos recuperar la expresi
on
(177).
Si queremos que Bpi coincida con C i tenemos:

40


 

x x
x
C i g m j C m C j = g B m C m C i ,
z z
z

gmj
C m C j = g B m C m ,
z

j
x
gmj C = g B
,
m
z
x
C k = g km g B m .
z

(206)
(207)
(208)
(209)

Es decir, a partir de la proyecci


on definida por (205), podemos reobtener
(177).

14

Isometras (simetras de la m
etrica)

Figure 11:

Sean P y Q dos puntos cercanos de coordenadas x y x + dx respectivamente y = (x ) un campo vectorial sobre una cierta variedad con metrica.
Como se ve en la figura, podemos construir dos nuevos puntos R y S cuyas
coordenadas est
an dadas por:
R : x + (P )
S : x + dx + (Q),

(210)

donde es un par
ametro infinitesimal. Se dice entonces que (x ) describe
una isometra de la variedad, si para puntos arbitrarios P y Q se cumple:
2
dlP2 Q = dlRS
.

41

(211)

Ahora, veremos que condici


on debe satisfacer el campo para que describa
una isometra. Tenemos:
dlP2 Q = g (P )dx dx ,
2
dlRS

(212)

= g (R) [dx + ( (Q) (P ))] [dx + ( (Q) (P ))] ,

donde
g (R) = (g + g )P ,

(Q) = + dx P .

(213)

Reemplazando (213) en (212), desarrollando el producto y despreciando


terminos de orden superior, obtenemos:
2
dlRS
= g dx dx + [g dx dx + g dx dx + dx dx g ] .
(214)
Cambiando adecuadamente los ndices mudos, la ecuaci
on (214) toma la
forma:
2
dlRS
= g dx dx + [g + g + g ] dx dx ,

(215)

de modo que la condici


on (211) nos queda:
[g + g + g ] dx dx = 0.

(216)

Aqu , dx y dx son infinitesimales, pero arbitrarios. Por lo tanto:


g + g + g = 0.

(217)

Esta
es una ecuaci
on diferencial parcial que debe satisfacer para describir
una isometra. Si esta ecuaci
on tiene m
as de una soluci
on linealmente independiente, entonces existe m
as de una direcci
on de isometra, y los vectores se
denominan vectores de Killing.

15
15.1

Aplicaciones
Plano euclidiano: M
etrica, curvatura, geod
esicas y
simetras

En el plano euclidiano y en coordenadas cartesianas (x1 = x, x2 = y), la metrica

es g = . Luego, de la ecuaci
on (147) tenemos que los smbolos de Christoffel
son nulos y por lo tanto la curvatura tambien es nula.
La ecuaci
on de las geodesicas (148) es
d 2 x
= 0.
d2
Por lo tanto, las geodesicas en el plano son rectas.
42

Para las simetras tenemos que la ecuaci


on (217) queda:
+ = 0,
+ = 0.

(218)

Escribimos explcitamente estas ecuaciones:


1 1 + 11 = 0,

(219)

1 2 + 2 1 = 0,

(220)

2 2 + 2 2 = 0.

(221)
1

De (219) y de (221) se obtiene respectivamente que = (y) y = 2 (x).


De este modo la ecuaci
on (220) toma la forma:
d 1
d 2
+
= 0.
dx
dy

(222)

Usando el hecho de que x e y son coordenadas independientes, vemos que


esta ecuaci
on se satisface si y s
olo si:
d 1
= = cte,
dy
d 2
= ,
dx

(223)

de modo que:
1 = y + ,

(224)

= x + .
Esta soluci
on se puede expresar como combinaci
on lineal de tres soluciones
independientes:

= 1 , 2 = (y + , x + ) ,
(225)
= (y, x) + (1, 0) + (0, 1) ,

= (1)
+ (2)
+ (3)
,

donde

(1)
:= (y, x) ,

(2)

(3)

:= (1, 0) ,
:= (0, 1) .

43

(226)

Figure 12:

15.2

La esfera: M
etrica inducida, curvatura, geod
esicas y
simetras

Consideremos como segundo ejemplo la metrica que el espacio euclidiano tridimensional E3 induce sobre la esfera unitaria. Sabemos que en coordenadas
cartesianas la metrica de E3 es g = y la restricci
on a los puntos de la
esfera es:
x1 = sin cos ,

(227)

x = sin sin ,
x3 = cos ,
de modo que las coordenadas sobre la esfera son y . Usamos (172) para
calcular g :
x x
x x
=
= 1.
(228)
g =


An
alogamente, se obtienen las otras componentes:


1
0
gij =
,
(229)
0 sin
donde i, j = , . Usando (147) obtenemos que las componentes no nulas
del smbolo de Christoffel son:

(230)
= sin cos ,
n o n o

= = cot .

De este modo, se obtiene directamente que las ecuaciones para las geodesicas
sobre la esfera son:
 2
d
d2

sin

cos

= 0,
(231)
d2
d
d2
d d
+ 2 cot
= 0.
d2
d d
44

Tambien, mediante un c
alculo directo, encontramos que las componentes no
nulas de la curvatura de la esfera son:

R
= R
= sin2 ,

(232)

= 1.

A continuaci
on se estudiar
an las simetras de la esfera. El sistema de ecuaciones para los vectores de Killing sobre la esfera unitaria, seg
un (217) es:
g1 1 + g1 1 + g11 = 0,
g1 2 + g2 1 + g12 = 0,

(233)

g2 2 + g2 2 + g22 = 0.
Puesto que la metrica sobre la esfera es:


1
0
g =
,
0 sin

(234)

tenemos:
g11 1 1 + g11 1 1 + g11 = 0,
1

(235)

g11 2 + g22 1 + g12 = 0,


g22 2 2 + g22 2 2 + g22 = 0.
Luego:
1 1 + 1 1 = 0,
1

(236)

2 + sin 1 = 0,
2 sin 2 2 + 1 1 (sin ) = 0.
La primera ecuaci
on nos dice que 1 = 1 (), de modo que la segunda y
tercera ecuaci
on nos queda:
2 1 + sin 1 2 = 0,
2

(237)

2 sin 2 + cos = 0.
Se puede verificar, reemplazando directamente en estas ecuaciones, que el
sistema tiene por soluci
on:

= 1 , 2 = (0, ) = (0, 1) ,
(238)
donde es una constante. Esta soluci
on representa una rotaci
on en la direcci
on .

45

También podría gustarte