Está en la página 1de 26

Álgebra exterior y formas diferenciales

9 de diciembre de 2014

1. Álgebra exterior
Sea V un espacio vectorial (real) de dimensión finita y sea k  0. Definimos los
siguientes espacios vectoriales asociados a V. Para k = 0 definimos

 0 (V ) = R
y para k  1 definimos
 k (V ) = f f : V k ! R : f es multilineal y alternanteg:

Aclaramos un poco esta definición. Por Vk denotamos el producto cartesiano de k


copias de V. En este caso, decimos que f : Vk ! R es multilineal si

vi 7! f (v1 ; : : : ; vi ; : : : ; vk )
es una transformación lineal para cada i, una vez fijos los vj con j 6= i. Por otro lado,
decimos que f es alternante si para cada par 1  i < j  k se tiene que

f (: : : ; vi ; : : : ; vj ; : : :) = f (: : : ; vj ; : : : ; vi ; : : :) (1)

para todos vi ; vj 2 V, es decir, intercambiando vi con vj cambia el signo del resultado.


A veces también se dice que una f con esta propiedad es (totalmente) antisimétrica.
Los elementos de k (V ) se denominan k-formas algebraicas.
Es fácil ver que k (V ) es un espacio vectorial con la suma y el producto por escalar
para funciones que llegan a R. Es decir, para f; g 2 k (V ) definimos

(f + g)(v1 ; : : : ; vk ) = f (v1 ; : : : ; vk ) + g(v1 ; : : : ; vk )


y para  2 R,
(f )(v1 ; : : : ; vk ) = f (v1 ; : : : ; vk ):
Sea Sk el grupo simétrico en k elementos, es decir

Sk = f : f1; : : : ; kg ! f1; : : : ; kg :  es biyectivag:

1
Para i; j 2 f1; : : : ; kg, i 6= j , denotamos por i;j la transposición en i; j . Es decir, i;j
es el elemento de Sk tal que i;j (i) = j , i;j (j ) = i y i;j (h) = h para todo h 6= i; j .
Observemos que i;j = j;i y (i;j ) 1 = i;j . Recordemos que para toda  2 Sk existen
transposiciones 1 ; : : : ; m 2 Sk tales que
 = 1      m :
Más aún, la paridad de m está unívocamente determinada por  . Esto permite definir
lo que se llama el signo de una permutación  2 Sk como
sgn  = ( 1)m :
Se dice que  es una permutación par (resp. impar ) si sgn  = 1 (resp. sgn  = 1).
Observemos que Sk actúa en en el espacio de transformaciones multilineales en Vk
de la siguiente manera: si  2 Sk y f : Vk ! R es multilineal, se define   f como
(  f )(v1 ; : : : ; vk ) = f (v(1) ; : : : ; v(k) )
para todos v1 ; : : : ; vk 2 V. Es fácil ver que, en efecto,   f : Vk ! R es multilineal.
Además, la asignación (; f ) 7!   f es una acción, en el sentido que
id f = f , en donde id denota el elemento neutro en Sk , y
  (  f ) = (   )  f , para todas ;  2 Sk .
Proposición 1.1. Sea f : Vk ! R multilineal. Son equivalentes:
1. f es alternante, o sea, f 2 k (V );

2. f (v1 ; : : : ; vk ) = 0 siempre que vi = vj para algún par i 6= j ;


3.   f = (sgn )f para toda  2 Sk .
Demostración. 1 ) 2 es inmediato de la definición. Para ver 2 ) 1 sean i < j y
v1 ; : : : ; vk 2 V, entonces
0 = f (v1 ; : : : ; v| i + vj ; : : : ; v| i +
{z }
vj ; : : : ; v k )
{z }
lugar i lugar j
= f (v1 ; : : : ; vi ; : : : ; vi ; : : : ; vk ) + f (v1 ; : : : ; vi ; : : : ; vj ; : : : ; vk ) +
f (v1 ; : : : ; vj ; : : : ; vi ; : : : ; vk ) + f (v1 ; : : : ; vj ; : : : ; vj ; : : : ; vk )
= f (v1 ; : : : ; vi ; : : : ; vj ; : : : ; vk ) + f (v1 ; : : : ; vj ; : : : ; vi ; : : : ; vk );
luego se cumple (1). Para probar 3 ) 1 observemos que para i;j 2 Sk , se tiene
i;j  f = (sgn i;j )f = f;
y por ende se cumple (1). Finalmente, si  2 Sk y escribimos  = 1      m como
producto de transposiciones, entonces
  f = (1      m )  f = ( 1)m f = (sgn )f
pues ya probamos que i  f = f . Esto prueba 1 ) 3.

2
1.1. Producto exterior
Dadas f 2 k (V ) y g 2 ` (V ) definimos f ^ g 2 k+` (V ) como sigue

(f ^ g)(v1 ; : : : ; vk+` ) = 1
X
(sgn )f (v(1) ; : : : ; v(k) )g(v(k+1) ; : : : ; v(k+`) ) (2)
k!`! 2Sk+`
Llamaremos a f ^ g el producto exterior de f con g . Sigue de la siguiente proposi-
ción, entre otras propiedades, que f ^ g es efectivamente un elemento de k+` (V ).

Proposición 1.2. Sean f; f 0 2 k (V ), g; g0 2 ` (V ), h 2 s (V ). Se tiene que:


1. f ^ g 2 k+` (V );
2. ^ es asociativo, o sea, f ^ (g ^ h) = (f ^ g) ^ h;
3. ^ es anticonmutativo, o sea f ^ g = ( 1)k` g ^ f ;

4. para todo  2 R, valen

f ^ (g + g0 ) = f ^ g + f ^ g0 ;
(f + f 0 ) ^ g = f ^ g + f 0 ^ g:
Demostración. Sean 1  i < j  k + `, v 2 V, y calculemos (f ^ g )(: : : ; v; : : : ; v; : : :), en
donde el vector v aparece en los lugares i y j . Dada  2 Sk+` , si i; j 2 f (1); : : : ;  (k)g
o i; j 2 f (k + 1); : : : ;  (k + `)g, entonces el sumando correspondiente a  en (2) es
nulo. En el otro caso, podemos suponer sin perder generalidad que i 2 f (1); : : : ;  (k)g
y j 2 f (k + 1); : : : ;  (k + `)g. Luego, si  ~ = i;j  , entonces
f (v(1) ; : : : ; v(k) )g(v(k+1) ; : : : ; v(k+`) ) = f (v~(1) ; : : : ; v~(k) )g(v~(k+1) ; : : : ; v~(k+`) )
y por ende, como sgn  = sgn ~ ,
(sgn )f (v(1) ; : : : ; v(k) )g(v(k+1) ; : : : ; v(k+`) )
+ (sgn ~ )f (v~(1) ; : : : ; v~(k) )g(v~(k+1) ; : : : ; v~(k+`) ) = 0:
Esto prueba que la suma (2) es nula y por lo tanto vale 1.
Probemos 2. En primer lugar, tenemos que

f ^ (g ^ h)(v1 ; : : : ; vk+`+s ) =
= 1 X
(sgn )f (v(1) ; : : : ; v(k) )(g ^ h)(v(k+1) ; : : : ; v(k+`+s) )
k!(` + s)! 2Sk+`+s
= 1 X X
(sgn )(sgn )  (3)
k!`!s!(` + s)! 2Sk+`+s 2S`+s
 f (v(1); : : : ; v(k))g(v(k+(1)); : : : ; v(k+(`)))h(v(k+(`+1)); : : : ; v(k+(`+s))):
3
La idea de la prueba es reagrupar los sumandos en la suma (3) de manera adecuada.
~ 2 Sk+`+s , existen (` + s)! permutaciones  2 Sk+`+s tales que
En efecto, dada 
(i) = ~ (i)
i = 1; : : : ; k
para
y para cada  con esta propiedad, existe una única  2 S`+s tal que
(k + (i)) = ~ (k + i) para i = 1; : : : ; ` + s:
Además, observemos que se puede escribir como  ~ =   ~ con ~ 2 Sk+`+s definida
como 8
i; < i = 1; : : : ; k
~(i) = :
k + (i k); i = k + 1; : : : ; k + ` + s:
Se ve fácilmente que sgn ~ = sgn  (considerando el monomorfismo canónico de S`+s en
Sk+`+s que consiste en permutar los últimos `+s elementos dejando fijos los primeros k).
Luego, reordenamos la suma (3) y obtenemos que
f ^ (g ^ h)(v1 ; : : : ; vk+`+s ) = (4)

= 1
X
(sgn ~ )f (v~(1) ; : : : ; v~(k) )g(v~(k+1) ; : : : ; v~(k+`) )h(v~(k+`+1) ; : : : ; v~(k+`+s) ):
k!`!s! ~2Sk+`+s
Razonando de manera análoga se prueba que (f ^ g ) ^ h(v1 ; : : : ; vk+`+s ) coincide con (4).
Veamos 3. En efecto,

(g ^ f )(v1 ; : : : ; vk+` ) = 1
X
(sgn )g(v(1) ; : : : ; v(`) )f (v(`+1) ; : : : ; v(`+k )
`!k! 2Sk+`
Sea  2 Sk+` definida por
8
<` + i; i = 1; : : : ; k
(i) = :
i k; i = k + 1; : : : ; k + `
Entonces se cumple que
f (v(`+1) ; : : : ; v(`+k) ) = f (v((1)) ; : : : ; v((k)) )
y
g(v(1) ; : : : ; v(`) ) = g(v((k+1)) ; : : : ; v((k+`)) ):
Además, sgn  = ( 1)k` , pues podemos escribir  = 1      ` con
j = j +k 1;j +k  j +k;j +k+1      i+1;i+2  i;i+1 :
Así, haciendo el cambio de variables  ~ =    tenemos que
(g ^ f )(v1 ; : : : ; vk+` ) =
= ( 1)
k` X
sgn(  )f (v((1)) ; : : : ; v((k)) )g(v((k+1)) ; : : : ; v((k+`)) )
`!k! 2Sk+`
= ( 1)
k` X
(sgn ~ )f (v~(1) ; : : : ; v~(k) )g(v~(k+1) ; : : : ; v~(k+`) )
k!`! ~2Sk+`
= ( 1)k` (f ^ g)(v1 ; : : : ; vk+` ):

4
La parte 4 queda como ejercicio.

Nota 1.3. Sigue de la parte 2 de la proposición anterior que si f 2 k (V ), g 2 ` (V )


y h 2 s (V ), entonces tiene sentido hacer f ^ g ^ h 2 k+`+s (V ). Además, sigue de la
demostración que esto se calcula como

(f ^ g ^ h)(v1 ; : : : ; vk+`+s ) =
= 1
X
(sgn )f (v(1) ; : : : ; v(k) )g(v(k+1) ; : : : ; v(k+`) )h(v(k+`+1) ; : : : ; v(k+`+s) ):
k!`!s! 2Sk+`+s
Nota 1.4. Observemos que si c 2 0 (V ) = R y f 2 k (V ) entonces

c^f =
1 X (sgn ) c (  f ) = 1 (sgn )2 k! c f = c f:
k! 2Sk k!
Esta propiedad justifica la constante multiplicativa 1=(k!`!) que usamos en la definición
del producto exterior (2).
Definimos el álgebra exterior de V como
1
(V ) = k (V ):
 M

k=0

Los elementos de (V ) son sumas formales del tipo f = 1 k=0 fk , con fk 2  (V ), en
k 
P

donde hay sólo una cantidad finita de sumandos no nulos. Por lo tanto, tiene sentido
extender el producto exterior a todo (V ), poniendo para g = 1 `=0 g` ,
P

1 1 1
f ^g = fk ^ g` = fk ^ g` :
XX X X

k=0 `=0 r=0 k+`=r

Esto hace de (V ) un álgebra asociativa sobre los números reales. A continuación
probarmos que el álgebra exterior de un espacio de dimensión finita es también de
dimensión finita.

Proposición 1.5. Sea n = dim V y sean fe1; : : : ; eng una base de V y fe1; : : : ; eng
su base dual. Entonces:

1. k (V ) = f0g si k > n;


2.fei1 ^    ^ eik : 1  i1 <    < ik  ng forma una base de k (V);
 
3. en particular, dim k (V ) = nk y dim (V ) = 2n .

Ejemplo 1.6. 1. Sean f; g 2 V , v; w 2 V. Entonces


!

(f ^ g)(v; w) = f (v)g(w) f (w)g(v) = det f (v) f (w) :


g (v ) g (w )

5
2. Más generalmente, si f1 ; : : : ; fk 2 V y v1; : : : ; vk 2 V, entonces
f1 (v1 ) f1 (v2 )    f1 (vk )
0 1

f2 (v1 ) f2 (v2 )    f2 (vk )


B C
B C
(f1 ^    ^ fk )(v1 ; : : : ; vk ) = det B
B
B
.. .. .. ..
C
C
C
= det(fi (vj ))ij :
@ . . . . A

fk (v1 ) fk (v2 )    fk (vk )


En efecto, ya hemos probado el caso k = 2. Procedemos de manera inductiva.
Para k > 2, tenemos
(f1 ^    ^ fk )(v1 ; : : : ; vk ) =
= 1 (sgn )f1 (v(1) )(f2 ^    ^ fk )(v(2) ; : : : ; v(k) )
X

(k 1)! 2Sk
= 1
k X
(sgn )f1 (vj )(f2 ^    ^ fk )(v(2) ; : : : ; v(k) )
X

(k 1)! j=1 2Sk


(1)=j

=
k
X
f1 (vj )
1 X
(sgn )(f2 ^    ^ fk )(v(2) ; : : : ; v(k) )
j =1 (k 1)! 2Sk
(1)=j

=
k
X
f1 (vj )
( 1)j+1X
(sgn )2 (f2 ^    ^ fk )(v2 ; : : : ; vj 1 ; vj+1 : : : ; vk ) (5)
j =1 (k 1)! 2Sk
(1)=j
k
( 1)j+1 f1 (vj )(f2 ^    ^ fk )(v2 ; : : : ; vj 1 ; vj+1 : : : ; vk )
X
=
j =1
k
( 1)j+1 f1 (vj ) det(fi (v` ))i` (1 j j ) = det(fi (vj ))ij :
X
=
j =1
En la igualdad (5), el paso
(f2 ^    ^ fk )(v(2) ; : : : ; v(k) ) =
= ( 1)j+1 (sgn )(f2 ^    ^ fk )(v2 ; : : : ; vj 1 ; vj+1 ; : : : vk ) (6)
puede justificarse como sigue. Consideremos la permutación
 = 1;2  2;3      j 2;j 1  j 1;j ;
entonces es claro1 que
(1; 2; : : : ; k) = (j; 2; : : : ; j 1; j + 1; : : : ; k) y sgn  = ( 1)j+1 :
Luego
(   1 )((1); : : : ; (k)) = (j; 2; : : : ; j 1; j + 1; : : : ; k);
y como  (1) = j , podemos pensar a    1 como un elemento de Sk 1 (¡con el mismo
signo!), de donde sigue (6).
Aquí hacemos un abuso de la notación: cuando escribimos  (i1 ; : : : ; ik )
1
= (j1 ; : : : ; jk ) para una
permutación  , queremos decir que  (i1 ) = j1 ; : : : ;  (ik ) = jk .

6
Demostración de la Proposición 1.5. Sea k > n y sean v1 ; : : : ; vk 2 V. Como k >
n = dim V, estos k vectores son linealmente dependientes, y por tanto alguno de estos
vectores es combinación lineal de los k 1 restantes. Sin perder generalidad, podemos
suponer que existen a1 ; : : : ; ak 1 2 R tales que vk = a1 v1 +    + ak 1 vk 1 . Luego, para
toda f 2 k (V ) se tiene que
kX1
f (v1 ; : : : ; vk ) = ai f (v1 ; : : : ; vk 1 ; vi ) = 0;
i=1
lo cual prueba 1.
Para probar 2, sea f 2 k (V ) y sean v1 ; : : : ; vk 2 V. Escribimos vj = ni=1 aij ei .
P

Luego, usando la multilinealidad de f y reordenando los índices de menor a mayor para


los elementos de la base (usando la alternancia), tenemos que
X
f (v1 ; : : : ; vk ) = i1 ;:::;ik f (ei1 ; : : : ; eik );
1i1 <<ik n
en donde el coeficiente i1 ;:::;ik está dado por

(sgn )ai1 (i1 )    aik (ik ) :


X
i1 ;:::;ik =
2Sk

Por otro lado, usando la segunda parte del Ejemplo 1.6, tenemos que

(ei1 ^    ^ eik )(v1 ; : : : ; vk ) = det(ei` (vj ))`j = (sgn )ai1 (i1 )    aik (ik ) ;
X

2Sk

de donde sigue que

f (ei1 ; : : : ; eik )ei1 ^    ^ eik :


X
f=
1i1 <<ik k
Para verificar la independencia lineal, observemos que usando nuevamente el Ejem-
plo 1.6 se tiene que si 1  i1 <    < ik  n y 1  j1 <    < jk  n entonces
8
1; < si i1 = j1 ; : : : ; ik = jk ;
(ei1 ^    ^ eik )(ej1 ; : : : ; ejk ) = :
0; en caso contrario.

Usando esto se obtiene que si

i1 ;:::;ik ei1 ^    ^ eik


X
0=
1i1 <<ik n
cada coeficiente i1 ;:::;ik debe ser nulo.
La parte 3 sigue fácilmente de 2.

7
1.2. Transformaciones lineales en (V)
Un endomorfismo lineal ` : (V ) ! (V ) se dice:
1. un homomorfismo de álgebras si `(f ^ g) = `(f ) ^ `(g) para todos f; g 2 (V );
2. una derivación si `(f ^ g) = `(f ) ^ g + g ^ `(g) para todos f; g 2 (V );
3. una antiderivación si `(f ^ g) = `(f ) ^ g + ( 1)k f ^ `(g) para todos f 2 k (V ),
g 2 (V );
4. de grado j si ` : k (V ) ! k+j (V ) para todo k.
Ejercicio 1.7. Probar que ` 2 End((V )) es una antiderivación si y sólo si
k
`(f1 ^    ^ fk ) = ( 1)i+1 f1 ^    ^ `(fi ) ^    ^ fk
X

i=1

para todo k, para todos f1 ; : : : ; fk 2 1(V)


Definición 1.8. Dado v 2 V definimos la multiplicación interior por v como la
aplicación lineal i(v ) : k (V ) ! k 1 (V ) dada por

i(v)(f )(v2 ; : : : ; vk ) = f (v; v2 ; : : : ; vk )


para todos f 2 k (V ), v2 ; : : : ; vk 2 V. Notar que i(v) se extiende naturalmente a un
endomorfismo de (V ).

Proposición 1.9. Sea v 2 V. Entonces i(v) es una antiderivación de grado 1.


Demostración. Claramente i(v ) es de grado 1. Para probar que es una antiderivación
usaremos el Ejercicio 1.7. En efecto, sean f1 ; : : : ; fk 2 V y v1 ; : : : ; vk 2 V. Sabemos que
i(v1 )(f1 ^    ^ fk )(v2 ; : : : vk ) = det(fi (vj ))ij . Desarrollando este determinante por la
primera columna, tenemos que
k
i(v1 )(f1 ^    ^ fk )(v2 ; : : : vk ) = ( 1)`+1 f` (v1 ) det(fi (vj ))ij (` j 1)
X

`=1
k
( 1)`+1 i(v1 )(f` ) det(fi (vj ))ij (` j 1)
X
=
`=1
k
( 1)`+1 (f1 ^    ^ i(v1 )(f` ) ^    ^ fk )(v2 ; : : : ; vk );
X
=
`=1
de donde sigue que
k
i(v1 )(f1 ^    ^ fk ) = ( 1)`+1 f1 ^    ^ i(v1 )(f` ) ^    ^ fk
X

`=1
como queríamos probar.

8
1.3. Transformaciones inducidas
Si` : V ! W es lineal, entonces ` se extiende a una transformación lineal `:
(V ) ! (W ) definiendo
`(f1 ^    ^ fk ) = `(f1 ) ^    ^ `(fk ):
En particular, si T : W ! V es una transformación lineal, su transpuesta T : V ! W
se extiende a una transformación lineal T : (V ) ! (W ).

2. Formas diferenciales
Sea M una variedad diferenciable. Dado k  0, definimos el k-fibrado exterior
sobre M como la unión disjunta

((Tp M ) )
[
k (M ) =
p2M

y el fibrado álgebra exterior sobre M como la unión disjunta

  (M ) = ((Tp M ) )
[

p2M

Notar que para k = 0, el 0-fibrado exterior es la unión disjunta de copias de R


sobre p 2 M . Por ende, 0 (M ) tiene estructura de variedad diferenciable, cuando lo
identificamos con M  R. Si k  1, entonces k (M ) también tiene una estructura
natural de variedad diferenciable. En efecto, si (U; ' = (x1 ; : : : ; xn )) es un sistema de
coordenadas en M , entonces para p 2 U , las bases f@=@xi : i = 1; : : : ; ng de Tp M y
fdxi : i = 1; : : : ; ng de (TpM ) inducen la base
fdxi1 ^    ^ dxik : 1  i1 <    < ik  ng
de k ((Tp M ) ). Usando estas bases, se pueden definir funciones de la preimagen de
U en k (M ), vía la proyección canónica  : k (M ) ! M , en espacios euclídeos de
las dimensiones apropiadas. Es decir, un elemento ! 2 k (M ) con  (! ) 2 U puede
escribirse en la forma

ai1 ;:::;ik dxi1 j(!) ^    ^ dxik j(!) :


X
!=
1i1 <<ik n
n
Luego, tenemos definida una función de  1 (U ) en Rn+(k ) que le asigna a ! las coorde-
nadas x1 ( (! )); : : : ; xn ( (! )) y ai1 ;:::;ik con 1  i1 <    < ik  n. Un trabajo análogo
puede hacerse con  (M ), pero en este caso la dimensión será n +2n , pues en este caso,
un elemento ! 2  (M ) con  (! ) 2 U se escribe como
n
ai1 ;:::;ik dxi1 j(!) ^    ^ dxik j(!) :
X X
!=
k=0 1i1 <<ik n

9
Si uno pide que estas funciones sean sistemas de coordenadas, se obtienen las estructuras
naturales de variedad diferenciable para los fibrados k (M ) y  (M ). Los detalles de la
prueba son similares a los que ya se hicieron para el fibrado tangente T M y el fibrado
cotangente T  M . Más aún, notar que 1 (M ) = T  M .

Proposición 2.1. Para k  0, los fibrados k (M ) y (M ) tienen una estructura


natural de variedad diferenciable de dimensión n + nk y n + 2n respectivamente.
Más aún, con esta estructura diferenciable, la proyección canónica sobre M es
una función C 1 .

Definición 2.2. Una función C 1 de M en k (M ) o  (M ) cuya composición con la


proyección canónica es la identidad se dice una k-forma diferencial en el primer caso
o una forma diferencial en el segundo.

En lo que sigue omitiremos la palabra “diferencial” y nos referiremos a k-formas y


formas, asumiendo diferenciabilidad, salvo que sea necesario indicar lo contrario.
Nota 2.3. Un levantamiento (es decir, una función que compuesta con la proyección
canónica da la identidad) : M ! k (M ) es una k-forma (diferencial) si y sólo si para
cada sistema de coordenadas (U; ' = (x1 ; : : : ; xn )) de M , se escribe

jU = ai1 ;:::;ik dxi1 ^    ^ dxik ;


X

1i1 <<ik n
en donde ai1 ;:::;ik 2 C 1 (U ). Un criterio similar se tiene para levantamientos : M !
 (M ). La prueba es análoga a la que hicimos para probar los criterios de diferencia-
bilidad de campos vectoriales.

Definición 2.4. Denotaremos por E k (M ) el conjunto de todas las k-formas en M y


por E  (M ) el conjunto de todas las formas diferenciables en M . E 0 (M ) se identifica
naturalmente con C 1 (M ), pues si : M ! 0 (M ) = M R es un elemento de E 0 (M ),
entonces (p) = (p; f (p)) para cierta f 2 C 1 (M ). Identificamos entonces con f , lo
cual nos da una biyección entre E 0 (M ) y C 1 (M ). Observemos también que las formas
se pueden sumar, multiplicar por escalares real, y multiplicar entre si con el producto
^. En efecto, dadas ; 2 E (M ) y c 2 R, tenemos que + , c y ^ son elementos
de E  (M ) cuyos valores en p están dados por p + p , c p y p ^ p respectivamente.
En el caso en que f sea una 0-forma y 2 E  (M ) escribiremos f ^ = f . Así, E  (M )
tiene estructura de C 1 (M )-módulo y álgebra asociativa sobre R (con el producto ^).

Ejercicio 2.5. Verificar que + , c y ^ como en la definición anterior son


efectivamente formas diferenciables (usar coordenadas).

Nota 2.6. Sea ! 2 E k (M ). Entonces !p 2 k ((Tp M ) ) es una función multilineal y


alternante en (Tp M )k para cada p 2 M . Luego si X1 ; : : : ; Xk 2 X(M ) tiene sentido
hacer ! (X1 ; : : : ; Xk ), la función C 1 definida por

!(X1 ; : : : ; Xk )(p) = !p (X1 (p); : : : ; Xk (p)):


10
Luego la k-forma ! induce una función
! : |X(M )  {z   X(M )} ! C 1 (M ) (7)
k veces
que es alternante y C 1 (M )-multilineal. Aquí, por C 1 (M )-multilineal, queremos decir
que si X1 ; : : : ; Xi 1 ; X; Y; Xi+1 ; : : : ; Xk 2 X(M ) y f 2 C 1 (M ), entonces

!(X1 ; : : : ;Xi 1 ; X + fY; Xi+1 ; : : : ; Xk ) =


= !(X1 ; : : : ; Xi 1 ; X; Xi+1 ; : : : ; Xk ) + f!(X1 ; : : : ; Xi 1 ; Y; Xi+1 ; : : : ; Xk ):
Recíprocamente, es útil observar que cualquier función C 1 (M )-multilineal y alternante
de la forma (7) define una k-forma. En efecto, ser afirma que si ! es una tal función, en-
tonces ! (X1 ; : : : ; Xk )(p) depende solamente de X1 (p); : : : ; Xk (p). Si usamos esto, dados
v1 ; : : : ; vk 2 Tp M podemos definir
!p (v1 ; : : : ; vk ) = !(V1 ; : : : ; Vk )(p);
en donde V1 ; : : : ; Vk son campos cualesquiera en M con Vi (p) = vi . Así se tiene que
!p 2 k ((Tp M ) ) para todo p. Para ver que la asignación p 7! !p es diferenciable, solo
tenemos que componer con los sistemas de coordenadas del k-fibrado exterior, en este
caso las coordenadas de la k-forma omega en la base fdxi1 ^    ^ dxik : i  i1 <    <
ik  ng asociadas a un sistema de coordenadas (U; ' = (x1 ; : : : ; xn )) están dadas por
x1  ; : : : ; xn   y
!
@ @
! ;:::; ; 1  i1 <    < ik  n;
@xi1 @xik
en donde estás últimas son funciones diferenciables por (7). (En realidad, uno debería
extender los campos coordenados a campos globales en M para aplicar la definición,
pero esto siempre puede hacerse.)
Probemos entonces la afirmación anterior. Antes que nada, notemos que razonando
de manera inductiva, basta probarlo para k = 1. Es decir, hay que ver que si ! :
X(M ) ! C 1 (M ) es C 1 (M )-lineal, entonces ! (X )(p) depende solo de X (p). Usando la
linealidad, basta ver que si X (p) = 0, entonces ! (X )(p) = 0. Sea (U; ' = (x1 ; : : : ; xn ))
un sistema de coordenadas en p y escribamos X = ni=1 ai  (@=@xi ) en U . Entonces
P

ai (p) = 0 para todo i. Sea f 2 C 1 (M ) una función que vale idénticamente 1 en un


entorno V  U , p 2 V , y se anula en M U . Sea Xi el campo que vale f  (@=@xi ) en
U y 0 en M U y a~i la función que vale fai en U y 0 en M U . Entonces Xi 2 X(M ),
a~i 2 C 1 (M ) y se cumple
n
X = a~i Xi + (1 f 2 )X:
X

i=1
Luego
n
!(X )(p) = a~i (p)!(Xi )(p) + (1 f (p)2 )!(X )(p) = 0
X

i=1
como queríamos probar.

11
Observemos que si !;  2 E 1 (M ) y X; Y 2 X(M ) entonces vale la fórmula del
determinante
(! ^ )(X; Y ) = !(X )(Y ) !(Y )(X ):
Definición 2.7. Si f 2 C 1 (M ), la diferencial df de f es (como función de v 2 T M )
una función suave de T M en R que es lineal en cada espacio tangente. Luego df puede
pensarse como una 1-forma df : M ! 1 (M ). La 1-forma df es llamada la derivada
exterior de la 0-forma f y la operación d : f 7! df se llama operador de diferenciación
exterior.

El operador de diferenciación exterior d tiene una importante extensión a toda el


álgebra E  (M ), de la siguiente manera.

Teorema 2.8 (Existencia y unicidad de la diferencial exterior). Existe una única


antiderivación d : E  (M ) ! E  (M ) de grado +1 tal que

1. d2 = 0;
2. df es la diferencial de f para toda f 2 C 1 (M ) = E 0 (M ) .
Demostración. Antes que nada, observemos que un operador con estas propiedades, es
un operador local. Es decir, si !;  2 E  (M ) son tales que ! jU =  jU para algún abierto
U en M , entonces (d!)p = (d)p para todo p en U . Por la linealidad, basta probar que
si ! jU = 0 entonces (d! )p = 0 para p 2 U . En efecto, dado p 2 U , sea f 2 C 1 (M ) tal
que f vale idénticamente 1 en un abierto V  U que contiene a p y f es idénticamente
nula en M U . Luego f! = 0 y por ende

0 = (d(f!))p = df jp !p + f (p)(d!)p = (d!)p :


Existencia. Por lo dicho anteriormente, baste definir d localmente. Sea (U; ' =
(x1 ; : : : ; xn )) un sistema de coordenadas en M . Definimos un operador d(U;') como
sigue. Dada ! 2 E  (U ), escribimos
n
ai1 ;:::;ik dxi1 ^    ^ dxik ;
X X
!=
k=0 1i1 <<ik n

con ai1 ;:::;ik 2 C 1(U ). Sea


n
dai1 ;:::;ik ^ dxi1 ^    ^ dxik 2 E  (U ):
X X
d(U;') ! =
k=0 1i1 <<ik n

Observemos que si ! 2 E k (U ) entonces d(U;') ! 2 E k+1 (U ), o sea d(U;') es de grado


+1 en E  (U ). Además, con el mismo argumento que usamos al principio de la prueba
vemos que d(U;') es un operador local en E  (U ). También tenemos que d(U;') es R-lineal,
es decir, si !;  2 E  (U ) y c 2 R, entonces

d(U;') (! + c) = d(U;') ! + c d(U;') :


12
Verifiquemos que d(U;') es una antiderivación en E  (U ), es decir, que para ! 2 E k (U ),
 2 E  (U ) se cumple
d(U;') (! ^ ) = d(U;') ! ^  + ( 1)k ! ^ d(U;') : (8)

Usando la linealidad, basta probarlo para ! = f dxi1 ^  ^ dxik y  = g dxj1 ^  ^ dxj` ,


con f; g 2 C 1 (U ). Primero observemos que si fi1 ; : : : ; ik g \ fj1 ; : : : ; j` g 6= ? entonces
ambos miembros de (8) son nulos. Si la intersección fuera vacía, entonces

! ^  = "fg dxh1 ^    ^ dxhk+` ;


en donde " es el signo de la permutación que reordena los índices i1 ; : : : ; ik ; j1 ; : : : ; j` en
h1 <    < hk+` . Luego, como d(U;') (fg) = g df + f dg,
d(U;') (! ^ ) = " d(fg) ^ dxh1 ^    ^ dxhk+`
= "g df ^ dxh1 ^    ^ dxhk+` + "f dg ^ dxh1 ^    ^ dxhk+`
= g df ^ dxi1 ^    ^ dxik ^ dxj1 ^    ^ dxj`
+ f dg ^ dxi1 ^    ^ dxik ^ dxj1 ^    ^ dxj`
= (df ^ dxi1 ^    ^ dxik ) ^ (g dxj1 ^    ^ dxj` )
+ ( 1)k (f dxi1 ^    ^ dxik ) ^ (dg ^ dxj1 ^    ^ dxj` )
= d(U;') ! ^  + ( 1)k ! ^ d(U;') :
Ahora chequeemos que (d(U;') )2 = d(U;')  d(U;') = 0. Debemos ver que d(U;') (d(U;') ! ) = 0
para toda ! 2 E  (U ), pero por la linealidad basta verlo cuando ! es de la forma ! =
f dxi1 ^  ^ dxik . Más aún, como ya probamos que d(U;') es antiderivación y coincide con
la diferencial en funciones (por definición), es suficiente probar que d(U;') (d(U;') f ) = 0
para toda f 2 C 1 (U ). En efecto,
!
Xn @f Xn @f
d(U;') (d(U;') f ) = d(U;') (df ) = d(U;') dxi = d dx
i=1 @xi i=1 @xi i
n X n @ 2f
dxj ^ dxi
X
=
i=1 j =1 @xj @xi
@ 2f @ 2f
!

dxi ^ dxj = 0;
X
=
1i<j n @xi @xj @xj @xi
pues los campos coordenados conmutan.
Para poder definir d en toda el álgebra E  (M ) veamos que si (V; = (y1 ; : : : ; yn ))
es otro sistema de coordenadas en M , entonces los operadores d(U;') y d(V; ) coinciden
sobre U \ V . Por la linealidad de d(V; ) basta ver que coincide con d(U;') en elementos

13
de la forma f dxi1 ^    ^ dxik . En efecto,
d(V; ) (f dxi1 ^    ^ dxik ) = d(V; ) f ^ dxi1 ^    ^ dxik + f ^ d(V; ) (dxi1 ^    ^ dxik )
= df ^ dxi1 ^    ^ dxik
k
( 1)` 1 f dxi1 ^ d(V; ) (dxi` ) ^    ^ dxik
X
+
`=1
= d(U;') (fdxi1 ^    ^ dxik );
en donde la sumatoria es nula pues d(U;') y d(V; ) coinciden con la diferencial en funciones
y al cuadrado dan cero, por ende

d(V; ) (dxi` ) = d(V; ) (d(V; ) xi` ) = 0:


Por lo tanto, existe un operador d : E  (M ) ! E  (M ) con las propiedades deseadas que
localmente coincide con d(U;') , en donde (U; ') es un sistema de coordenadas de M .
Unicidad. Supongamos que existe otra antiderivación d0 del álgebra E  (M ) que
coincide con la diferencial en funciones y tal que (d0 )2 = 0. Con las mismas cuentas que
hicimos para d(V; ) en el párrafo anterior vemos que d0 coincide con d(U;') en E  (U ).
Como d0 es un operador local, debe ser d0 = d.

Nota 2.9. Sigue de la demostración que d!jU = d(!jU ) para toda ! 2 E  (M ) y para
todo U abierto en M .

Definición 2.10. Sea X 2 X(M ) y sea ! 2 E  (M ). La multiplicación interior de


! por X , es la forma i(X )(!) que en el punto p vale la multiplicación interior de
!p 2 ((Tp M ) ) por Xp 2 Tp M . Es decir,
(i(X )(!))p = i(Xp )(!p ):
Es fácil ver, tomando coordenadas, que i(X )(! ) es efectivamente una forma dife-
rencial y que además la aplicación i(X ) : E  (M ) ! E  (M ) es una antiderivación de
grado 1.

2.1. Pull-back de una forma diferencial


Sea f : M ! N una función diferenciable. Dado p 2 M tenemos asociadas la
diferencial df : Tp M ! Tf (p) N , su transpuesta f : (Tf (p) N ) ! (Tp M ) y la trans-
formación lineal inducida f : ((Tf (p) N ) ) ! ((Tp M ) ). Luego, dada ! 2 E  (N )
podemos definir el pull-back f (! ) 2 E  (M ) como

f (!)jp = f (!f (p) ):


El pull-back de formas diferenciales tiene las siguientes propiedades.

Proposición 2.11. Sea f :M !N una función C 1 . Entonces,


14
1. f : E  (N ) ! E  (M ) es un homomorfismo de álgebras;
2. f conmuta con d, es decir d(f (! )) = f (d! ), para toda ! 2 E  (N ) (ob-
servar que utilizamos la misma letra d para denotar a los operadores de
diferenciación exterior de M y N );

3. f (!)(X1 ; : : : ; Xk )(p) = !f (p) (df (X1 (p)); : : : ; df (Xk (p))) para toda ! 2 E k (M ) y
para todos X1 ; : : : ; Xk 2 X(M ).

Demostración. Las parte 3 y el hecho de que f preserva el producto ^ en cada punto


siguen de la definición del pull-back en elementos descomponibles. Antes de verificar
que f (! ) es diferenciable para ! 2 E  (M ), veamos que f conmuta con d en funciones.
En efecto, sea g 2 C 1 (N ). Observemos que f (g ) = g  f . Luego (d  f )(g ) = d(g  f ).
Pero por otro lado, por definición tenemos que f (dg ) = dg  df = d(g  f ).
Por linealidad, basta verificar 2 en un elemento de la forma g dxi1 ^    ^ dxik en
donde (U; ' = (x1 ; : : : ; xn )) es un sistema de coordenadas en N . Por un lado

d(f (!)) = d(f (g dxi1 ^    ^ dxik ))


= d(f (g) f (dxi1 ) ^    ^ f (dxik ))
= d((g  f ) d(xi1  f ) ^    ^ d(xik  f ))
= d(g  f ) ^ d(xi1  f ) ^    ^ d(xik  f );
pues la diferencial es una antiderivación, y por otro lado

f (d!) = f (d(g dxi1 ^    ^ dxik ))


= f (dg ^ dxi1 ^    ^ dxik )
= f (dg) ^ f (dxi1 ) ^    ^ f (dxik )
= d(f (g)) ^ d(f (xi1 )) ^    ^ d(f (xik ))
= d(g  f ) ^ d(xi1  f ) ^    ^ d(xik  f );
pues la diferencial es antiderivación y conmuta con f en funciones.
Finalmente, toda ! 2 E  (N ) se escribe localmente como
n
ai1 ;:::;ik dxi1 ^    ^ dxik
X X
!=
k=0 1i1 <<ik n

y sigue de los cálculos anteriores que


n
(ai1 ;:::;ik  f ) d(xi1  f ) ^    ^ d(xik  f )
X X
f (!) =
k=0 1i1 <<ik n

lo que prueba que f (!) 2 E  (M ) para toda ! 2 E  (N ).

15
2.2. Derivada de Lie de formas diferenciales
Como ya vimos antes, es posible medir la variación de un campo vectorial en la
dirección de otro campo dado. Esto es lo que se conoce como la derivada de Lie y
este concepto puede generalizarse para medir la variación de formas diferenciales a lo
largo de un campo. Recordemos la definición de la derivada de Lie de campos. Dado un
campo X en M , denotemos por X t su flujo local. Si Y es otro campo en M , definimos
la derivada de Lie LX Y de Y con respecto a X , en el punto p como

dXt (YXt (p) ) Yp d X


(LX Y )p = lt!m0 = d t (YXt (p) ):


t dt 0
Ya hemos probado que t 7! dXt (YXt (p) ) es una curva diferenciable en Tp M para
valores pequeños de t y por ende este límite siempre existe. Más aún (LX Y )p = [X; Y ]p
para todo p 2 M . En particular, LX Y es un campo diferenciable en M .

dXt
YXt (p)

dXt(Yxt(p)) Xt (p)

Yp

Si ahora ! es una forma diferencial en M , entonces !Xt (p) es una forma algebraica
en TXt (p) M , y haciendo pull-back por el flujo de X , obtenemos una forma algebraica
 Xt (!Xt (p) ) en Tp M . Dejamos como ejercicio verificar que t 7!  Xt (!Xt (p) ) define una
curva diferenciable en (el espacio vectorial) ((Tp M ) ). Luego, tiene sentido definir la
derivada de Lie de ! con respecto a X en p como

 X (! X ) !p d X

(LX !)p = lt!m0 t t (p) =  t (!Xt (p) ):


t dt 0
Proposición 2.12. Sea X 2 X(M ). Entonces
1. LX f = X (f ) para toda f 2 C 1 (M ).
2. LX Y = [X; Y ] para todo Y 2 X(M ).
3. LX : E  (M ) ! E  (M ) es una derivación que conmuta con d.

16
4. En E  (M ), LX = i(X )  d + d  i(X ).
5. Sean ! 2 E k (M ), Y0 ; Y1 ; : : : ; Yk 2 X(M ), entonces
X k
LY0 (!(Y1 ; : : : ; Yk )) = (LY0 !)(Y1 ; : : : ; Yk ) + !(Y1 ; : : : ; Yi 1 ; LY0 Yi ; Yi+1 ; : : : ; Yk ):
i=1

6. Bajo las hipótesis del ítem anterior se tiene que


k
X
d!(Y0 ; : : : ;Yk ) = ( 1)i Yi (!(Y0 ; : : : ; Yi 1 ; Yi+1 ; : : : ; Yk ))
i=0
( 1)i+j !([Yi ; Yj ]; Y0 ; : : : ; Yi 1 ; Yi+1 ; : : : ; Yj 1 ; Yj+1 ; : : : ; Yk ):
X
+
0i<j k

Demostración. Para 1 observamos que


(LX f )p = d  Xt (f (Xt (p))) = d f (Xt (p)) = Xp (f ):


dt 0 dt 0
La parte 2 ya ha sido probada. Para la parte 3 consideremos LX como un opera-
dor sobre E  (M ) que devuelve formas a priori no necesariamente diferenciables. Sean
!;  2 E  (M ). Por la Proposición 2.11, tenemos que el pull-back de formas es un
homomorfismo de álgebras (incluso punto a punto si no se asume diferenciabilidad).

17
Luego,

(LX (! ^ ))p = lt!m0 1 ( Xt (!Xt (p) ^ Xt (p) ) !p ^ p )


t
1
= lt!m0 ( Xt (!Xt (p) ) ^  Xt (Xt (p) ) !p ^ p )
t
1
= lt!m0 ( Xt (!Xt (p) ) ^  Xt (Xt (p) ) !p ^  Xt (Xt (p) )
t
+ !p ^  Xt (Xt (p) ) !p ^ p )
= lt!m0 1 ( Xt (!Xt (p) ) !p ) ^  Xt (Xt (p) )


t
1
+ !p ^ ( t (t (p) p )
X X


t
= (LX !)p ^ p + !p ^ (LX )p :
Verifiquemos ahora que LX conmuta con d en funciones, es decir, que dados f2
C 1 (M ) y p 2 M ,
(LX (df ))p = (d(LX f ))p : (9)
Como ambos miembros de esta igualdad son elementos de (Tp M ) , basta verificar que
coinciden aplicados a un vector cualquiera v 2 Tp M . El lado derecho aplicado a v da

(d(LX f ))p (v) = v(LX f ) = v(X (f )):


Por otro lado,
!

(LX (df ))p (v) = d  Xt (df jXt (p) ) (v) = d  Xt (df jXt (p) )(v)

dt 0 dt 0

= d df (dXt (v)) = d v(f  Xt )


dt 0 dt 0
!

= v d (f  Xt ) = v(X (f ));


dt 0
en donde el último renglón de igualdades vale en primer lugar porque X t (q ) es una
función C de (t; q ) y podemos tomar elegir un campo V (t; q ) tal que V (0; p) = (0; v ) '
1
v y [d=dt; V ] = 0, y en segundo lugar, pues
!
d d d
( f   t ) (q ) = (f  t )(q ) =
X X f ( (q )) = Xq (f ) = X (f )(q ):
X
dt 0 dt 0 dt 0 t
Esto prueba (9). Para ver que LX ! es diferenciable y que LX conmuta con d, escribimos
! en coordenadas locales y usamos lo ya probado. Completar los detalles como ejercicio.
Para probar 4, primero observamos que tanto LX como i(X )  d + d  i(X ) son
derivaciones que conmutan con d. En efecto, ya probamos esto para LX . Si ! 2 k (M )

18
y  2  (M ), entonces
(i(X )  d + d  i(X ))(! ^ ) = i(X )(d(! ^ )) + d(i(X )(! ^ ))
= i(X )(d! ^  + ( 1)k ! ^ d)
+ d(i(X )(!) ^  + ( 1)k ! ^ i(X )())
= i(X )(d!) ^  + ( 1)k+1 d! ^ i(X )()
+ ( 1)k i(X )(!) ^ d + ( 1)2k ! ^ i(X )(d)
+ d(i(X )(!)) ^  + ( 1)k 1 i(X )(!) ^ d
+ ( 1)k d! ^ i(X )() + ( 1)2k ! ^ d(i(X )())
= (i(X )  d + d  i(X ))(!) ^ 
+ ! ^ (i(X )  d + d  i(X ))():
Luego, usando la linealidad, resulta que i(X )  d + d  i(X ) es una derivación y con-
muta con d, pues d2 = 0. Observemos además que si f 2 C 1 (M ) = E 0 (M ), entonces
i(X )(f ) = 0, pues i(X ) es de grado 1. Luego
(i(X )  d + d  i(X ))(f ) = i(X )(df ) = df (X ) = X (f )
y por ende (i(X )  d + d  i(X ) tienen el mismo efecto aplicadas a funciones. Para
probar 4, aplicamos ambos operadores a una forma ! escrita en coordenadas locales y
usando lo anterior vemos que coinciden.
Dejamos las partes 5 y 6 como ejercicio.

3. Orientación
Recordemos la noción de orientación en un espacio vectorial. Sea V un espacio
vectorial de dimensión n. Decimos que dos bases ordenadas (e1 ; : : : ; en ) y (e01 ; : : : ; e0n )
de V definen la misma orientación en V si el determinante de la matriz cambio de base

det(ei (e0j )) = (e1 ^    ^ en )(e01 ; : : : ; e0n )


es positivo. Esto define una relación de equivalencia  en el conjunto de todas las ba-
ses ordenadas de V, pidiendo que (e1 ; : : : ; en )  (e01 ; : : : ; e0n ) si y sólo si (e1 ; : : : ; en ) y
(e01 ; : : : e0n ) definen la misma orientación. Es claro que esta relación de equivalencia tiene
sólo dos clases de equivalencia, lo cual permite definir lo que se llama una orientación
para V como una clase clase de equivalencia de dicha relación de equivalencia. Fija-
da una orientación para V y un representante de esta clase de equivalencia, digamos
(e1 ; : : : ; en ) decimos que una base (e01 ; : : : ; e0n ) de V está positivamente orientada (resp.
negativamente orientada) si (e1 ; : : : ; en )  (e01 ; : : : e0n ) (resp. (e1 ; : : : ; en ) 6 (e01 ; : : : ; e0n )).
Verificar que esta definición no depende de la elección del representante (e1 ; : : : ; en ).
En el lenguaje de formas algebraicas, se puede definir una orientación en V como
una componente conexa n (V ) f0g. Notar que n (V ) ' R. Con esta definición, una

19
orientación en V queda determinada por una n-forma no nula ! . En este caso, una
base (e01 ; : : : ; e0n ) se dice positivamente orientada si ! (e01 ; : : : ; e0n ) > 0.
Estas dos enfoques sobre orientación son equivalentes, pues dada una base (e1 ; : : : ; en )
de V, tenemos que n (V ) = fc e1 ^    ^ en : c 2 Rg.

Ejemplo 3.1. Por un cálculo directo pueden probarse las siguientes afirmaciones.

1. Si fu; vg es una base de R2 y R es la rotación en un ángulo , entonces (u; v) y


(R u; R v) definen la misma orientación.
2. Si (e1 ; : : : ; en ) es una base ordenada de V y  2 Sn , entonces (e1 ; : : : ; en ) y
(e(1) ; : : : ; e(n) ) definen la misma orientación si y sólo si  es una permutación
par.

Definición 3.2. Una variedad diferenciable M de dimensión n se dice orientable si


existe una n-forma continua en M que no se anula en ningún punto.

Aclaremos que una n-forma continua ! es una función ! : M ! n (M ) tal que


  ! = idM y ! compuesta con cualquier carta coordenada de n (M ) da una función
continua. Es decir, ! es una función continua de M en n (M ).
Si M es orientable, es posible definir lo que llamaremos una orientación para M ,
pero hay que distinguir los casos en que M es conexa o no.
En primer lugar, si M es una variedad diferenciable conexa y orientable, entonces
existe una n-forma continua nunca nula ! en M . Si  es otra n-forma continua nunca
nula en M , entonces  = f! , en donde f es una función continua y nunca nula en
M . Como M es conexa, f es siempre positiva o siempre negativa. Similarmente al caso
de un espacio vectorial, esto define una relación de equivalencia  en el conjunto de
todas las n-formas continuas nunca nulas de M : !   si y sólo si se escribe  = f!
con f estrictamente positiva. Una orientación para M es una clase de equivalencia de
esta relación, y queda determinada por la elección de una n-forma continua nunca nula
en M .
Si M no es conexa, entonces M es la unión disjunta de sus componentes conexas
[
M= Mi ;
i2 I

las cuales son subvariedades abiertas de M . Si ! es una n-forma nunca nula en M ,


entonces cada Mi es orientable, considerando en Mi la n-forma nunca nula ! jMi . Una
orientación para M , es la elección de una orientación en cada Mi .
Diremos que una variedad diferenciable orientable M está orientada si hemos ele-
gido una orientación para M .
Si M es orientable y orientada, y ! define una orientación para M , decimos que un
sistema de coordenadas (U; ' = (x1 ; : : : ; xn )) es positivo si

!jU = f dx1 ^    ^ dxn


20
con f una función estrictamente positiva. Es decir, se cumple
!
@ @
! ;:::; >0
@x1 @xn
en U . Si (V; = (y1 ; : : : ; yn )) es otro sistema de coordenadas positivo, es fácil ver que
!
@yi
det > 0; en U \ V:
@xj ij
Teorema 3.3. Sea M una variedad diferenciable de dimensión n. Entonces M
es orientable si y sólo si podemos elegir una familia de sistemas de coordenadas
(U ; ' = (x 1 ; : : : ; x n )), 2 A, tales que
0 1

det @ @xi A > 0
[
M= U y
2A @xj ij
en U \ U , para todos ; 2 A con U \ U 6= ?. Más aún, en este caso existe
una n-forma diferencial nunca nula en M .
Demostración. Supongamos primero que M es orientable y sea ! una n-forma continua
nunca nula en M . Dado p 2 M siempre existe un sistema de coordenadas (U; ' =
(x1 ; : : : ; xn )) en p que es positivo con respecto a !. En efecto, siempre podemos tomar
un sistema de coordenadas centrado en p (es decir, tal que las funciones coordenadas
manda p al origen) con U conexo, y en este caso ! = f dx1 ^  ^ dxn , en donde f es una
función nunca nula que no cambia de signo. Si f es estrictamente positiva, ya está, si no,
podemos cambiar el sistema de coordenadas por (U; ~ = ( x1 ; x2 ; : : : ; xn )), para algún
entorno abierto U ~  U de p (teorema de la función inversa). Sigue del comentario previo
al teorema que los cambios de coordenadas asociados a estos sistemas de coordenadas
tienen determinante positivo.
Recíprocamente, supongamos que existe una familia de sistemas de coordenadas
como en las hipótesis del teorema y sea ff : 2 Ag una partición de la unidad
subordinada al cubrimiento fU : 2 Ag con la misma familia de índices. Definimos
entonces la n-forma diferencial

f dx 1 ^    ^ dx n ;
X
!=
2A
en donde el sumando f dx 1 ^  ^
dx n vale cero fuera de U . Es estándar probar que !
f 2 g
es diferenciable usando que la familia sop f : A es localmente finita. Veamos que
2 f 2 2 g
! es nunca nula. Dado p M sea B = A : p U . Observemos que si ; B , 2
entonces
!
@ @
dx
1 ^  ^ dx n = (dx 1 ^  ^ dx n ) ;:::; dx1 ^    ^ dxn

0 1
@x1 @xn

= det @ @xi A dx 1 ^    ^ dx n :
@xj ij

21
Luego, fijado 2 B , tenemos que
0 0 1 1

@x i A C
f (p) dx 1 jp ^    ^ j ^    ^ dx njp
X X
!p = dxn = @ f (p) det
B
@ A dx1 p
@x j p ij

2B 2B

es un múltiplo positivo de la n-forma no nula dx 1 jp ^    ^ dx n jp en Tp M .


Ejemplo 3.4. La esfera S n es orientable. En efecto, dado p 2 S n , identificamos Tp S n
con fpg? = fv 2 Rn+1 : hv; pi = 0g. Consideremos en Tp S n la n-forma

!p (v1 ; : : : ; vn ) = det(v1 ; : : : ; vn ; p)
en donde (v1 ; : : : ; vn ; p) denota la matriz cuyas columnas son v1 ; : : : ; vn ; p. Verificar que
! define una n-forma diferencial nunca nula.
Un ejercicio importante es probar que el espacio proyectivo P n es orientable si y
sólo si n es impar. La idea es ver cuándo la n-forma ! definida para la esfera, desciende
a una n-forma en el espacio proyectivo P n = S n =, donde  es la relación antipodal.

El ejemplo anterior puede generalizarse a hipersuperficies que admiten un campo


normal nunca nulo. Por una hipersuperficie de Rn+1 entendemos una subvariedad n-
dimensional i : M ! Rn+1 . Un campo normal N a lo largo de M , es un campo
N : M ! T Rn+1 a lo largo de M , tal que N (p) es ortogonal a dijp (Tp M ) para todo
p 2 M (con las identificaciones usuales).

N (p) 2 (T M )? p

p
M

Teorema 3.5. Sea M una hipersuperficie de Rn+1 . Entonces M es orientable si y


sólo si existe un campo normal continuo y nunca nulo a lo largo de M . Más aún,
si M es orientable, entonces existe un campo normal C 1 y nunca nulo a lo largo
de M .

Demostración. Ejercicio.

Ejercicio 3.6. Probar usando el teorema anterior que la cinta de Möebius no es orien-
table y que las hipersuperficies que se obtienen por el teorema de la función implícita
sí son orientables.

22
4. Definición de la integral
Sea M una variedad diferenciable de dimensión n orientable y orientada (es decir,
asumimos que ya se ha elegido una orientación para M ). Dada una n-forma continua 
en M con soporte compacto, queremos definir la integral M  de  sobre M .
R

Para poder dar la definición general es necesario analizar antes algunos casos parti-
culares. Primero supongamos que tenemos una n-forma continua  en Rn con soporte
compacto. En este caso podemos escribir

 = f dt1 ^    ^ dtn ;
en donde t1 ; : : : ; tn son las coordenadas canónicas de Rn. Definimos
Z Z Z 1 Z 1

Rn
=
Rn
f=
1
   1 f (t1; : : : ; tn) dt1 : : : dtn;
la cual está bien definida porque f es una función continua y con soporte compacto
en Rn .
Supongamos ahora que  es una n-forma continua en M con soporte compacto
contenido en U , donde (U; ' = (x1 ; : : : ; xn )) es un sistema de coordenadas positivo en
M . En este caso definimos
Z Z Z

= ' 1 ( ) = f  ' 1; (10)


M Rn Rn
en donde jU = f dx1 ^    ^ dxn , es la expresión de  en las coordenadas locales
asociadas a (U; '). Debemos verificar que esta definición es independiente de la elección
del sistema de coordenadas. En efecto, supongamos que (V; = (y1 ; : : : ; yn )) es otro
sistema de coordenadas positivo en M tal que el soporte de  está contenido en V .
Observemos que en U \ V , dx1 ^    ^ dxn = det(@xi =@yj )ij dy1 ^    ^ dyn , luego, en
coordenadas (V; ),  se escribe como
!
@xi
jU \V = f det dy1 ^    ^ dyn :
@yj ij

Como det(@xi =@yj )ij > 0, usando el teorema del cambio de variables para Rn , vemos
que
0 ! 1
Z
@xi Z Z

(f  1 ) @det  1A = (f  1 )J ('  1) = f  ' 1:


Rn @yj ij Rn Rn

Así, la definición (10) no depende de la elección del sistema de coordenadas. Observemos


que si !;  son n-formas continuas con soporte compacto contenido en un mismo sistema
de coordenadas, y c 2 R, entonces lo mismo vale para  + c y además se cumple que
Z Z Z

( + c) = +c :
M M M

23
Para dar la definición en el caso general, sea  una n-forma continua en M con
soporte compacto. Como M es orientable y orientada, podemos elegir una familia de
sistemas de coordenadas positivos f(U ; ' ) : 2 Ag que satisfacen la condición del
Teorema 3.3 (es decir, tales que el determinante del jacobiano de cada cambio de coor-
denadas es positivo). Tomemos una partición de la unidad ff : 2 Ag subordinada
al cubrimiento fU : 2 Ag con la misma familia de índices. Definimos  = f .
Entonces es claro que el soporte de  está contenido en U y que  = 2A  . Luego,
P

definimos Z
X
Z

=  :
M 2A M
Esta suma está bien definida, pues al ser sop  compacto, tenemos que sop   U sólo
para una cantidad finita de índices . Luego, en la suma anterior sólo hay una cantidad
finita de sumandos no nulos. Sin embargo, debemos verificar que nuestra definición no
depende de la elección de la familia f(U ; ' ) : 2 Ag. Para ver esto, tomemos otra
familia de sistemas de coordenadas positivos f(V ; ) : 2 B g como en las hipótesis
del Teorema 3.3 y una partición de la unidad fg : 2 B g subordinada al cubrimiento
fV : 2 B g con la misma familia de índices. Como antes, escribimos  = g . Ahora
bien, observemos que  = 2A f  = 2A f g , en donde esta suma tiene a lo
P P

sumo una cantidad finita de sumandos no nulos, pues sop  es compacto, y por ende está
contenido en a lo sumo una cantidad finita de abiertos U . Además, sop(f  )  V para
todo . Luego, por la propiedad de linealidad que ya probamos para formas contenidas
en un solo entorno coordenado tenemos
Z Z Z Z
X X X
 = f  = f  = f g 
M M 2A 2A M 2A M
y por consiguiente Z Z
X X X
 = f g :
2B M 2B 2A M
Análogamente Z Z
X X X
 = g f :
2A M 2A 2 B M
Como estas dos sumas coinciden (están bien definidas y se puede intercambiar el orden
de los sumandos pues ambas son sumas finitas), queda bien definida la integral de 
sobre M para una n-forma continua con soporte compacto arbitraria.
Probar como ejercicio las propiedades de linealidad para la integral de n-formas.

Definición 4.1. Sea M una variedad diferenciable orientable y orientada. Una n-forma
diferencial nunca nula ! en la clase de equivalencia de la orientación de M se dice
un elemento de volumen de M . Si f 2 C 1 (M ) tiene soporte compacto, definimos la
integral de f con respecto a ! como M f! .
R

En particular, si M es compacta, se define el volumen de M (con respecto a ! como


Z Z

vol! (M ) = 1! = !:
M M

24
4.1. Formulación del teorema de Stokes
Sea M una variedad diferenciable de dimensión n y sea D un dominio en M , es
decir un abierto conexo. Sea dice que D tiene borde diferenciable si para cada punto
p 2 @D en la frontera de D existe un sistema de coordenadas (U; ' = (x1 ; : : : ; xn )) de
M en p tal que
U \ D = fq 2 U : xn (q)  xn (p)g (11)

D

U
En este caso, puede probarse que @D es una subvariedad cerrada de M de dimensión
(n 1). Más aún, si M es orientable entonces @D es orientable. Se dice que una orienta-
ción en @D es compatible con la orientación de M si para todo sistema de coordenadas
positivo (U; ' = (x1 ; : : : ; xn )) que satisface (11), se tiene que (x1 ; : : : ; xn 1 ) define un
sistema de coordenadas positivo en @D.
Observemos que si  es una (n 1)-forma diferenciable en M , y denotamos por
i : @D ! M la inclusión, entonces i(R) es una (n 1)-forma diferencial en @D y por
ende tiene sentido calcular su integral @D i(), la cual a veces se denota simplemente
por @D .
R

Teorema 4.2 (Stokes). Sea M una variedad diferenciable n-dimensional orienta-


ble y orientada. Sea D un dominio con borde diferenciable en M tal que D  es
compacto. Sea  una (n 1)-forma diferencial en M , entonces
Z Z

d = ;
D @D
en donde la integral del miembro derecho de la igualdad anterior se calcula con
respecto a la orientación de @D compatible con la orientación de M .
Corolario 4.3. Sea M es una variedad diferenciable compacta, n-dimensional,
orientable y orientada. Si ! es una (n 1)-forma diferencial en M entonces
Z

d = 0:
M
Demostración. Es una consecuencia inmediata del teorema de Stokes, pues tomando
D = M resulta @D = ?.
El teorema de Stokes en variedades generaliza varios resultados conocidos para dis-
tintos Rn como el teorema de Barrow, el teorema de Green, el teorema de la divergencia,
etc. A continuación ejemplificamos esta situación.

25
Ejemplo 4.4 (Teorema de Green). Denotemos por (x; y ) las coordenadas usuales en
R2 y sea D un dominio un dominio en el plano encerrado por una curva regular C . Una
1-forma  en R2 se escribe como
 = P dx + Q dy
y su diferencial como !
@Q @P
d = dx ^ dy
@x @y

D
C = D
d = (Qx Py ) dx ^ dy

 = P dx + Q dy

Luego por el Teorema 4.2 tenemos que


!
I ZZ
@Q @P
(P dx + Q dy) = dx dy:
C D @x @y

26

También podría gustarte