Documentos de Académico
Documentos de Profesional
Documentos de Cultura
05 Tensores PDF
05 Tensores PDF
9 de diciembre de 2014
1. Álgebra exterior
Sea V un espacio vectorial (real) de dimensión finita y sea k 0. Definimos los
siguientes espacios vectoriales asociados a V. Para k = 0 definimos
0 (V ) = R
y para k 1 definimos
k (V ) = f f : V k ! R : f es multilineal y alternanteg:
vi 7! f (v1 ; : : : ; vi ; : : : ; vk )
es una transformación lineal para cada i, una vez fijos los vj con j 6= i. Por otro lado,
decimos que f es alternante si para cada par 1 i < j k se tiene que
f (: : : ; vi ; : : : ; vj ; : : :) = f (: : : ; vj ; : : : ; vi ; : : :) (1)
1
Para i; j 2 f1; : : : ; kg, i 6= j , denotamos por i;j la transposición en i; j . Es decir, i;j
es el elemento de Sk tal que i;j (i) = j , i;j (j ) = i y i;j (h) = h para todo h 6= i; j .
Observemos que i;j = j;i y (i;j ) 1 = i;j . Recordemos que para toda 2 Sk existen
transposiciones 1 ; : : : ; m 2 Sk tales que
= 1 m :
Más aún, la paridad de m está unívocamente determinada por . Esto permite definir
lo que se llama el signo de una permutación 2 Sk como
sgn = ( 1)m :
Se dice que es una permutación par (resp. impar ) si sgn = 1 (resp. sgn = 1).
Observemos que Sk actúa en en el espacio de transformaciones multilineales en Vk
de la siguiente manera: si 2 Sk y f : Vk ! R es multilineal, se define f como
( f )(v1 ; : : : ; vk ) = f (v(1) ; : : : ; v(k) )
para todos v1 ; : : : ; vk 2 V. Es fácil ver que, en efecto, f : Vk ! R es multilineal.
Además, la asignación (; f ) 7! f es una acción, en el sentido que
id f = f , en donde id denota el elemento neutro en Sk , y
( f ) = ( ) f , para todas ; 2 Sk .
Proposición 1.1. Sea f : Vk ! R multilineal. Son equivalentes:
1. f es alternante, o sea, f 2 k (V );
2
1.1. Producto exterior
Dadas f 2 k (V ) y g 2 ` (V ) definimos f ^ g 2 k+` (V ) como sigue
(f ^ g)(v1 ; : : : ; vk+` ) = 1
X
(sgn )f (v(1) ; : : : ; v(k) )g(v(k+1) ; : : : ; v(k+`) ) (2)
k!`! 2Sk+`
Llamaremos a f ^ g el producto exterior de f con g . Sigue de la siguiente proposi-
ción, entre otras propiedades, que f ^ g es efectivamente un elemento de k+` (V ).
f ^ (g + g0 ) = f ^ g + f ^ g0 ;
(f + f 0 ) ^ g = f ^ g + f 0 ^ g:
Demostración. Sean 1 i < j k + `, v 2 V, y calculemos (f ^ g )(: : : ; v; : : : ; v; : : :), en
donde el vector v aparece en los lugares i y j . Dada 2 Sk+` , si i; j 2 f (1); : : : ; (k)g
o i; j 2 f (k + 1); : : : ; (k + `)g, entonces el sumando correspondiente a en (2) es
nulo. En el otro caso, podemos suponer sin perder generalidad que i 2 f (1); : : : ; (k)g
y j 2 f (k + 1); : : : ; (k + `)g. Luego, si ~ = i;j , entonces
f (v(1) ; : : : ; v(k) )g(v(k+1) ; : : : ; v(k+`) ) = f (v~(1) ; : : : ; v~(k) )g(v~(k+1) ; : : : ; v~(k+`) )
y por ende, como sgn = sgn ~ ,
(sgn )f (v(1) ; : : : ; v(k) )g(v(k+1) ; : : : ; v(k+`) )
+ (sgn ~ )f (v~(1) ; : : : ; v~(k) )g(v~(k+1) ; : : : ; v~(k+`) ) = 0:
Esto prueba que la suma (2) es nula y por lo tanto vale 1.
Probemos 2. En primer lugar, tenemos que
f ^ (g ^ h)(v1 ; : : : ; vk+`+s ) =
= 1 X
(sgn )f (v(1) ; : : : ; v(k) )(g ^ h)(v(k+1) ; : : : ; v(k+`+s) )
k!(` + s)! 2Sk+`+s
= 1 X X
(sgn )(sgn ) (3)
k!`!s!(` + s)! 2Sk+`+s 2S`+s
f (v(1); : : : ; v(k))g(v(k+(1)); : : : ; v(k+(`)))h(v(k+(`+1)); : : : ; v(k+(`+s))):
3
La idea de la prueba es reagrupar los sumandos en la suma (3) de manera adecuada.
~ 2 Sk+`+s , existen (` + s)! permutaciones 2 Sk+`+s tales que
En efecto, dada
(i) = ~ (i)
i = 1; : : : ; k
para
y para cada con esta propiedad, existe una única 2 S`+s tal que
(k + (i)) = ~ (k + i) para i = 1; : : : ; ` + s:
Además, observemos que se puede escribir como ~ = ~ con ~ 2 Sk+`+s definida
como 8
i; < i = 1; : : : ; k
~(i) = :
k + (i k); i = k + 1; : : : ; k + ` + s:
Se ve fácilmente que sgn ~ = sgn (considerando el monomorfismo canónico de S`+s en
Sk+`+s que consiste en permutar los últimos `+s elementos dejando fijos los primeros k).
Luego, reordenamos la suma (3) y obtenemos que
f ^ (g ^ h)(v1 ; : : : ; vk+`+s ) = (4)
= 1
X
(sgn ~ )f (v~(1) ; : : : ; v~(k) )g(v~(k+1) ; : : : ; v~(k+`) )h(v~(k+`+1) ; : : : ; v~(k+`+s) ):
k!`!s! ~2Sk+`+s
Razonando de manera análoga se prueba que (f ^ g ) ^ h(v1 ; : : : ; vk+`+s ) coincide con (4).
Veamos 3. En efecto,
(g ^ f )(v1 ; : : : ; vk+` ) = 1
X
(sgn )g(v(1) ; : : : ; v(`) )f (v(`+1) ; : : : ; v(`+k )
`!k! 2Sk+`
Sea 2 Sk+` definida por
8
<` + i; i = 1; : : : ; k
(i) = :
i k; i = k + 1; : : : ; k + `
Entonces se cumple que
f (v(`+1) ; : : : ; v(`+k) ) = f (v((1)) ; : : : ; v((k)) )
y
g(v(1) ; : : : ; v(`) ) = g(v((k+1)) ; : : : ; v((k+`)) ):
Además, sgn = ( 1)k` , pues podemos escribir = 1 ` con
j = j +k 1;j +k j +k;j +k+1 i+1;i+2 i;i+1 :
Así, haciendo el cambio de variables ~ = tenemos que
(g ^ f )(v1 ; : : : ; vk+` ) =
= ( 1)
k` X
sgn( )f (v((1)) ; : : : ; v((k)) )g(v((k+1)) ; : : : ; v((k+`)) )
`!k! 2Sk+`
= ( 1)
k` X
(sgn ~ )f (v~(1) ; : : : ; v~(k) )g(v~(k+1) ; : : : ; v~(k+`) )
k!`! ~2Sk+`
= ( 1)k` (f ^ g)(v1 ; : : : ; vk+` ):
4
La parte 4 queda como ejercicio.
(f ^ g ^ h)(v1 ; : : : ; vk+`+s ) =
= 1
X
(sgn )f (v(1) ; : : : ; v(k) )g(v(k+1) ; : : : ; v(k+`) )h(v(k+`+1) ; : : : ; v(k+`+s) ):
k!`!s! 2Sk+`+s
Nota 1.4. Observemos que si c 2 0 (V ) = R y f 2 k (V ) entonces
c^f =
1 X (sgn ) c ( f ) = 1 (sgn )2 k! c f = c f:
k! 2Sk k!
Esta propiedad justifica la constante multiplicativa 1=(k!`!) que usamos en la definición
del producto exterior (2).
Definimos el álgebra exterior de V como
1
(V ) = k (V ):
M
k=0
Los elementos de (V ) son sumas formales del tipo f = 1 k=0 fk , con fk 2 (V ), en
k
P
donde hay sólo una cantidad finita de sumandos no nulos. Por lo tanto, tiene sentido
extender el producto exterior a todo (V ), poniendo para g = 1 `=0 g` ,
P
1 1 1
f ^g = fk ^ g` = fk ^ g` :
XX X X
Esto hace de (V ) un álgebra asociativa sobre los números reales. A continuación
probarmos que el álgebra exterior de un espacio de dimensión finita es también de
dimensión finita.
Proposición 1.5. Sea n = dim V y sean fe1; : : : ; eng una base de V y fe1; : : : ; eng
su base dual. Entonces:
5
2. Más generalmente, si f1 ; : : : ; fk 2 V y v1; : : : ; vk 2 V, entonces
f1 (v1 ) f1 (v2 ) f1 (vk )
0 1
(k 1)! 2Sk
= 1
k X
(sgn )f1 (vj )(f2 ^ ^ fk )(v(2) ; : : : ; v(k) )
X
=
k
X
f1 (vj )
1 X
(sgn )(f2 ^ ^ fk )(v(2) ; : : : ; v(k) )
j =1 (k 1)! 2Sk
(1)=j
=
k
X
f1 (vj )
( 1)j+1X
(sgn )2 (f2 ^ ^ fk )(v2 ; : : : ; vj 1 ; vj+1 : : : ; vk ) (5)
j =1 (k 1)! 2Sk
(1)=j
k
( 1)j+1 f1 (vj )(f2 ^ ^ fk )(v2 ; : : : ; vj 1 ; vj+1 : : : ; vk )
X
=
j =1
k
( 1)j+1 f1 (vj ) det(fi (v` ))i` (1 j j ) = det(fi (vj ))ij :
X
=
j =1
En la igualdad (5), el paso
(f2 ^ ^ fk )(v(2) ; : : : ; v(k) ) =
= ( 1)j+1 (sgn )(f2 ^ ^ fk )(v2 ; : : : ; vj 1 ; vj+1 ; : : : vk ) (6)
puede justificarse como sigue. Consideremos la permutación
= 1;2 2;3 j 2;j 1 j 1;j ;
entonces es claro1 que
(1; 2; : : : ; k) = (j; 2; : : : ; j 1; j + 1; : : : ; k) y sgn = ( 1)j+1 :
Luego
( 1 )((1); : : : ; (k)) = (j; 2; : : : ; j 1; j + 1; : : : ; k);
y como (1) = j , podemos pensar a 1 como un elemento de Sk 1 (¡con el mismo
signo!), de donde sigue (6).
Aquí hacemos un abuso de la notación: cuando escribimos (i1 ; : : : ; ik )
1
= (j1 ; : : : ; jk ) para una
permutación , queremos decir que (i1 ) = j1 ; : : : ; (ik ) = jk .
6
Demostración de la Proposición 1.5. Sea k > n y sean v1 ; : : : ; vk 2 V. Como k >
n = dim V, estos k vectores son linealmente dependientes, y por tanto alguno de estos
vectores es combinación lineal de los k 1 restantes. Sin perder generalidad, podemos
suponer que existen a1 ; : : : ; ak 1 2 R tales que vk = a1 v1 + + ak 1 vk 1 . Luego, para
toda f 2 k (V ) se tiene que
kX1
f (v1 ; : : : ; vk ) = ai f (v1 ; : : : ; vk 1 ; vi ) = 0;
i=1
lo cual prueba 1.
Para probar 2, sea f 2 k (V ) y sean v1 ; : : : ; vk 2 V. Escribimos vj = ni=1 aij ei .
P
Por otro lado, usando la segunda parte del Ejemplo 1.6, tenemos que
(ei1 ^ ^ eik )(v1 ; : : : ; vk ) = det(ei` (vj ))`j = (sgn )ai1 (i1 ) aik (ik ) ;
X
2Sk
7
1.2. Transformaciones lineales en (V)
Un endomorfismo lineal ` : (V ) ! (V ) se dice:
1. un homomorfismo de álgebras si `(f ^ g) = `(f ) ^ `(g) para todos f; g 2 (V );
2. una derivación si `(f ^ g) = `(f ) ^ g + g ^ `(g) para todos f; g 2 (V );
3. una antiderivación si `(f ^ g) = `(f ) ^ g + ( 1)k f ^ `(g) para todos f 2 k (V ),
g 2 (V );
4. de grado j si ` : k (V ) ! k+j (V ) para todo k.
Ejercicio 1.7. Probar que ` 2 End((V )) es una antiderivación si y sólo si
k
`(f1 ^ ^ fk ) = ( 1)i+1 f1 ^ ^ `(fi ) ^ ^ fk
X
i=1
`=1
k
( 1)`+1 i(v1 )(f` ) det(fi (vj ))ij (` j 1)
X
=
`=1
k
( 1)`+1 (f1 ^ ^ i(v1 )(f` ) ^ ^ fk )(v2 ; : : : ; vk );
X
=
`=1
de donde sigue que
k
i(v1 )(f1 ^ ^ fk ) = ( 1)`+1 f1 ^ ^ i(v1 )(f` ) ^ ^ fk
X
`=1
como queríamos probar.
8
1.3. Transformaciones inducidas
Si` : V ! W es lineal, entonces ` se extiende a una transformación lineal `:
(V ) ! (W ) definiendo
`(f1 ^ ^ fk ) = `(f1 ) ^ ^ `(fk ):
En particular, si T : W ! V es una transformación lineal, su transpuesta T : V ! W
se extiende a una transformación lineal T : (V ) ! (W ).
2. Formas diferenciales
Sea M una variedad diferenciable. Dado k 0, definimos el k-fibrado exterior
sobre M como la unión disjunta
((Tp M ) )
[
k (M ) =
p2M
(M ) = ((Tp M ) )
[
p2M
9
Si uno pide que estas funciones sean sistemas de coordenadas, se obtienen las estructuras
naturales de variedad diferenciable para los fibrados k (M ) y (M ). Los detalles de la
prueba son similares a los que ya se hicieron para el fibrado tangente T M y el fibrado
cotangente T M . Más aún, notar que 1 (M ) = T M .
1i1 <<ik n
en donde ai1 ;:::;ik 2 C 1 (U ). Un criterio similar se tiene para levantamientos : M !
(M ). La prueba es análoga a la que hicimos para probar los criterios de diferencia-
bilidad de campos vectoriales.
i=1
Luego
n
!(X )(p) = a~i (p)!(Xi )(p) + (1 f (p)2 )!(X )(p) = 0
X
i=1
como queríamos probar.
11
Observemos que si !; 2 E 1 (M ) y X; Y 2 X(M ) entonces vale la fórmula del
determinante
(! ^ )(X; Y ) = !(X )(Y ) !(Y )(X ):
Definición 2.7. Si f 2 C 1 (M ), la diferencial df de f es (como función de v 2 T M )
una función suave de T M en R que es lineal en cada espacio tangente. Luego df puede
pensarse como una 1-forma df : M ! 1 (M ). La 1-forma df es llamada la derivada
exterior de la 0-forma f y la operación d : f 7! df se llama operador de diferenciación
exterior.
1. d2 = 0;
2. df es la diferencial de f para toda f 2 C 1 (M ) = E 0 (M ) .
Demostración. Antes que nada, observemos que un operador con estas propiedades, es
un operador local. Es decir, si !; 2 E (M ) son tales que ! jU = jU para algún abierto
U en M , entonces (d!)p = (d)p para todo p en U . Por la linealidad, basta probar que
si ! jU = 0 entonces (d! )p = 0 para p 2 U . En efecto, dado p 2 U , sea f 2 C 1 (M ) tal
que f vale idénticamente 1 en un abierto V U que contiene a p y f es idénticamente
nula en M U . Luego f! = 0 y por ende
dxi ^ dxj = 0;
X
=
1i<j n @xi @xj @xj @xi
pues los campos coordenados conmutan.
Para poder definir d en toda el álgebra E (M ) veamos que si (V; = (y1 ; : : : ; yn ))
es otro sistema de coordenadas en M , entonces los operadores d(U;') y d(V; ) coinciden
sobre U \ V . Por la linealidad de d(V; ) basta ver que coincide con d(U;') en elementos
13
de la forma f dxi1 ^ ^ dxik . En efecto,
d(V; ) (f dxi1 ^ ^ dxik ) = d(V; ) f ^ dxi1 ^ ^ dxik + f ^ d(V; ) (dxi1 ^ ^ dxik )
= df ^ dxi1 ^ ^ dxik
k
( 1)` 1 f dxi1 ^ d(V; ) (dxi` ) ^ ^ dxik
X
+
`=1
= d(U;') (fdxi1 ^ ^ dxik );
en donde la sumatoria es nula pues d(U;') y d(V; ) coinciden con la diferencial en funciones
y al cuadrado dan cero, por ende
Nota 2.9. Sigue de la demostración que d!jU = d(!jU ) para toda ! 2 E (M ) y para
todo U abierto en M .
3. f (!)(X1 ; : : : ; Xk )(p) = !f (p) (df (X1 (p)); : : : ; df (Xk (p))) para toda ! 2 E k (M ) y
para todos X1 ; : : : ; Xk 2 X(M ).
15
2.2. Derivada de Lie de formas diferenciales
Como ya vimos antes, es posible medir la variación de un campo vectorial en la
dirección de otro campo dado. Esto es lo que se conoce como la derivada de Lie y
este concepto puede generalizarse para medir la variación de formas diferenciales a lo
largo de un campo. Recordemos la definición de la derivada de Lie de campos. Dado un
campo X en M , denotemos por X t su flujo local. Si Y es otro campo en M , definimos
la derivada de Lie LX Y de Y con respecto a X , en el punto p como
dXt
YXt (p)
Yp
Si ahora ! es una forma diferencial en M , entonces !Xt (p) es una forma algebraica
en TXt (p) M , y haciendo pull-back por el flujo de X , obtenemos una forma algebraica
Xt (!Xt (p) ) en Tp M . Dejamos como ejercicio verificar que t 7! Xt (!Xt (p) ) define una
curva diferenciable en (el espacio vectorial) ((Tp M ) ). Luego, tiene sentido definir la
derivada de Lie de ! con respecto a X en p como
X (! X ) !p d X
16
4. En E (M ), LX = i(X ) d + d i(X ).
5. Sean ! 2 E k (M ), Y0 ; Y1 ; : : : ; Yk 2 X(M ), entonces
X k
LY0 (!(Y1 ; : : : ; Yk )) = (LY0 !)(Y1 ; : : : ; Yk ) + !(Y1 ; : : : ; Yi 1 ; LY0 Yi ; Yi+1 ; : : : ; Yk ):
i=1
dt 0 dt 0
La parte 2 ya ha sido probada. Para la parte 3 consideremos LX como un opera-
dor sobre E (M ) que devuelve formas a priori no necesariamente diferenciables. Sean
!; 2 E (M ). Por la Proposición 2.11, tenemos que el pull-back de formas es un
homomorfismo de álgebras (incluso punto a punto si no se asume diferenciabilidad).
17
Luego,
t
1
+ !p ^ ( t (t (p) p )
X X
t
= (LX !)p ^ p + !p ^ (LX )p :
Verifiquemos ahora que LX conmuta con d en funciones, es decir, que dados f2
C 1 (M ) y p 2 M ,
(LX (df ))p = (d(LX f ))p : (9)
Como ambos miembros de esta igualdad son elementos de (Tp M ) , basta verificar que
coinciden aplicados a un vector cualquiera v 2 Tp M . El lado derecho aplicado a v da
(LX (df ))p (v) = d Xt (df jXt (p) ) (v) = d Xt (df jXt (p) )(v)
dt 0 dt 0
dt 0 dt 0
!
dt 0
en donde el último renglón de igualdades vale en primer lugar porque X t (q ) es una
función C de (t; q ) y podemos tomar elegir un campo V (t; q ) tal que V (0; p) = (0; v ) '
1
v y [d=dt; V ] = 0, y en segundo lugar, pues
!
d d d
( f t ) (q ) = (f t )(q ) =
X X f ( (q )) = Xq (f ) = X (f )(q ):
X
dt 0 dt 0 dt 0 t
Esto prueba (9). Para ver que LX ! es diferenciable y que LX conmuta con d, escribimos
! en coordenadas locales y usamos lo ya probado. Completar los detalles como ejercicio.
Para probar 4, primero observamos que tanto LX como i(X ) d + d i(X ) son
derivaciones que conmutan con d. En efecto, ya probamos esto para LX . Si ! 2 k (M )
18
y 2 (M ), entonces
(i(X ) d + d i(X ))(! ^ ) = i(X )(d(! ^ )) + d(i(X )(! ^ ))
= i(X )(d! ^ + ( 1)k ! ^ d)
+ d(i(X )(!) ^ + ( 1)k ! ^ i(X )())
= i(X )(d!) ^ + ( 1)k+1 d! ^ i(X )()
+ ( 1)k i(X )(!) ^ d + ( 1)2k ! ^ i(X )(d)
+ d(i(X )(!)) ^ + ( 1)k 1 i(X )(!) ^ d
+ ( 1)k d! ^ i(X )() + ( 1)2k ! ^ d(i(X )())
= (i(X ) d + d i(X ))(!) ^
+ ! ^ (i(X ) d + d i(X ))():
Luego, usando la linealidad, resulta que i(X ) d + d i(X ) es una derivación y con-
muta con d, pues d2 = 0. Observemos además que si f 2 C 1 (M ) = E 0 (M ), entonces
i(X )(f ) = 0, pues i(X ) es de grado 1. Luego
(i(X ) d + d i(X ))(f ) = i(X )(df ) = df (X ) = X (f )
y por ende (i(X ) d + d i(X ) tienen el mismo efecto aplicadas a funciones. Para
probar 4, aplicamos ambos operadores a una forma ! escrita en coordenadas locales y
usando lo anterior vemos que coinciden.
Dejamos las partes 5 y 6 como ejercicio.
3. Orientación
Recordemos la noción de orientación en un espacio vectorial. Sea V un espacio
vectorial de dimensión n. Decimos que dos bases ordenadas (e1 ; : : : ; en ) y (e01 ; : : : ; e0n )
de V definen la misma orientación en V si el determinante de la matriz cambio de base
19
orientación en V queda determinada por una n-forma no nula ! . En este caso, una
base (e01 ; : : : ; e0n ) se dice positivamente orientada si ! (e01 ; : : : ; e0n ) > 0.
Estas dos enfoques sobre orientación son equivalentes, pues dada una base (e1 ; : : : ; en )
de V, tenemos que n (V ) = fc e1 ^ ^ en : c 2 Rg.
Ejemplo 3.1. Por un cálculo directo pueden probarse las siguientes afirmaciones.
f dx1 ^ ^ dxn ;
X
!=
2A
en donde el sumando f dx1 ^ ^
dxn vale cero fuera de U . Es estándar probar que !
f 2 g
es diferenciable usando que la familia sop f : A es localmente finita. Veamos que
2 f 2 2 g
! es nunca nula. Dado p M sea B = A : p U . Observemos que si ; B , 2
entonces
!
@ @
dx
1 ^ ^ dxn = (dx 1 ^ ^ dxn ) ;:::; dx1 ^ ^ dxn
0 1
@x1 @xn
= det @ @xi A dx1 ^ ^ dxn :
@xj ij
21
Luego, fijado 2 B , tenemos que
0 0 1 1
@xi A C
f (p) dx1 jp ^ ^ j ^ ^ dxnjp
X X
!p = dxn = @ f (p) det
B
@ A dx1 p
@xj p ij
2B 2B
!p (v1 ; : : : ; vn ) = det(v1 ; : : : ; vn ; p)
en donde (v1 ; : : : ; vn ; p) denota la matriz cuyas columnas son v1 ; : : : ; vn ; p. Verificar que
! define una n-forma diferencial nunca nula.
Un ejercicio importante es probar que el espacio proyectivo P n es orientable si y
sólo si n es impar. La idea es ver cuándo la n-forma ! definida para la esfera, desciende
a una n-forma en el espacio proyectivo P n = S n =, donde es la relación antipodal.
N (p) 2 (T M )? p
p
M
Demostración. Ejercicio.
Ejercicio 3.6. Probar usando el teorema anterior que la cinta de Möebius no es orien-
table y que las hipersuperficies que se obtienen por el teorema de la función implícita
sí son orientables.
22
4. Definición de la integral
Sea M una variedad diferenciable de dimensión n orientable y orientada (es decir,
asumimos que ya se ha elegido una orientación para M ). Dada una n-forma continua
en M con soporte compacto, queremos definir la integral M de sobre M .
R
Para poder dar la definición general es necesario analizar antes algunos casos parti-
culares. Primero supongamos que tenemos una n-forma continua en Rn con soporte
compacto. En este caso podemos escribir
= f dt1 ^ ^ dtn ;
en donde t1 ; : : : ; tn son las coordenadas canónicas de Rn. Definimos
Z Z Z 1 Z 1
Rn
=
Rn
f=
1
1 f (t1; : : : ; tn) dt1 : : : dtn;
la cual está bien definida porque f es una función continua y con soporte compacto
en Rn .
Supongamos ahora que es una n-forma continua en M con soporte compacto
contenido en U , donde (U; ' = (x1 ; : : : ; xn )) es un sistema de coordenadas positivo en
M . En este caso definimos
Z Z Z
Como det(@xi =@yj )ij > 0, usando el teorema del cambio de variables para Rn , vemos
que
0 ! 1
Z
@xi Z Z
( + c) = +c :
M M M
23
Para dar la definición en el caso general, sea una n-forma continua en M con
soporte compacto. Como M es orientable y orientada, podemos elegir una familia de
sistemas de coordenadas positivos f(U ; ' ) : 2 Ag que satisfacen la condición del
Teorema 3.3 (es decir, tales que el determinante del jacobiano de cada cambio de coor-
denadas es positivo). Tomemos una partición de la unidad ff : 2 Ag subordinada
al cubrimiento fU : 2 Ag con la misma familia de índices. Definimos = f .
Entonces es claro que el soporte de está contenido en U y que = 2A . Luego,
P
definimos Z
X
Z
= :
M 2A M
Esta suma está bien definida, pues al ser sop compacto, tenemos que sop U sólo
para una cantidad finita de índices . Luego, en la suma anterior sólo hay una cantidad
finita de sumandos no nulos. Sin embargo, debemos verificar que nuestra definición no
depende de la elección de la familia f(U ; ' ) : 2 Ag. Para ver esto, tomemos otra
familia de sistemas de coordenadas positivos f(V ; ) : 2 B g como en las hipótesis
del Teorema 3.3 y una partición de la unidad fg : 2 B g subordinada al cubrimiento
fV : 2 B g con la misma familia de índices. Como antes, escribimos = g . Ahora
bien, observemos que = 2A f = 2A f g , en donde esta suma tiene a lo
P P
sumo una cantidad finita de sumandos no nulos, pues sop es compacto, y por ende está
contenido en a lo sumo una cantidad finita de abiertos U . Además, sop(f ) V para
todo . Luego, por la propiedad de linealidad que ya probamos para formas contenidas
en un solo entorno coordenado tenemos
Z Z Z Z
X X X
= f = f = f g
M M 2A 2A M 2A M
y por consiguiente Z Z
X X X
= f g :
2B M 2B 2A M
Análogamente Z Z
X X X
= g f :
2A M 2A 2 B M
Como estas dos sumas coinciden (están bien definidas y se puede intercambiar el orden
de los sumandos pues ambas son sumas finitas), queda bien definida la integral de
sobre M para una n-forma continua con soporte compacto arbitraria.
Probar como ejercicio las propiedades de linealidad para la integral de n-formas.
Definición 4.1. Sea M una variedad diferenciable orientable y orientada. Una n-forma
diferencial nunca nula ! en la clase de equivalencia de la orientación de M se dice
un elemento de volumen de M . Si f 2 C 1 (M ) tiene soporte compacto, definimos la
integral de f con respecto a ! como M f! .
R
vol! (M ) = 1! = !:
M M
24
4.1. Formulación del teorema de Stokes
Sea M una variedad diferenciable de dimensión n y sea D un dominio en M , es
decir un abierto conexo. Sea dice que D tiene borde diferenciable si para cada punto
p 2 @D en la frontera de D existe un sistema de coordenadas (U; ' = (x1 ; : : : ; xn )) de
M en p tal que
U \ D = fq 2 U : xn (q) xn (p)g (11)
D
U
En este caso, puede probarse que @D es una subvariedad cerrada de M de dimensión
(n 1). Más aún, si M es orientable entonces @D es orientable. Se dice que una orienta-
ción en @D es compatible con la orientación de M si para todo sistema de coordenadas
positivo (U; ' = (x1 ; : : : ; xn )) que satisface (11), se tiene que (x1 ; : : : ; xn 1 ) define un
sistema de coordenadas positivo en @D.
Observemos que si es una (n 1)-forma diferenciable en M , y denotamos por
i : @D ! M la inclusión, entonces i(R) es una (n 1)-forma diferencial en @D y por
ende tiene sentido calcular su integral @D i(), la cual a veces se denota simplemente
por @D .
R
d = ;
D @D
en donde la integral del miembro derecho de la igualdad anterior se calcula con
respecto a la orientación de @D compatible con la orientación de M .
Corolario 4.3. Sea M es una variedad diferenciable compacta, n-dimensional,
orientable y orientada. Si ! es una (n 1)-forma diferencial en M entonces
Z
d = 0:
M
Demostración. Es una consecuencia inmediata del teorema de Stokes, pues tomando
D = M resulta @D = ?.
El teorema de Stokes en variedades generaliza varios resultados conocidos para dis-
tintos Rn como el teorema de Barrow, el teorema de Green, el teorema de la divergencia,
etc. A continuación ejemplificamos esta situación.
25
Ejemplo 4.4 (Teorema de Green). Denotemos por (x; y ) las coordenadas usuales en
R2 y sea D un dominio un dominio en el plano encerrado por una curva regular C . Una
1-forma en R2 se escribe como
= P dx + Q dy
y su diferencial como !
@Q @P
d = dx ^ dy
@x @y
D
C = D
d = (Qx Py ) dx ^ dy
= P dx + Q dy
26