Está en la página 1de 69

Algebra tensorial y diferencial

Giuseppe i Piero
20-2-2005
2

Indice General
1

Algebra Lineal Tensorial 5
1.1 Deniciones. Construcciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Espacios vectoriales. Espacio vectorial dual . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Producto tensorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4

Algebra exterior n-esima de un espacio vectorial . . . . . . . . . . . . . . . . . . . . . 15
1.5 Metricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.6 Producto exterior y contraccion interior . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.7

Algebra tensorial simetrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.8 Modulo de diferenciales. Derivaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.9 Diferencial, contraccion por un campo, derivada de Lie . . . . . . . . . . . . . . . . . . 31
1.10 Calculo valorado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2 Calculo Tensorial en Geometra Diferencial 37
2.1 Desarrollo de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.2 Espacio tangente en un punto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.3 Derivaciones. Modulo de diferenciales . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.4 Variedades diferenciables. Haces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.5 Anillo de funciones diferenciables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.6 Localizacion en el algebra tensorial diferencial . . . . . . . . . . . . . . . . . . . . . . . 49
2.7 Integracion. Formula de Stokes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.8 Gradiente, divergencia y rotacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
2.9 Apendice 1. Normas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.10 Apendice 2. Teorema de existencia y unicidad en sistemas de ecuaciones diferenciales . 56
2.11 Apendice 3. Inmersion de variedades compactas . . . . . . . . . . . . . . . . . . . . . . 61
3 Aplicaciones de la teora 63
3.1 Sistemas de ecuaciones lineales. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . 63
3.2 Maximos y mnimos bajo condiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.3 Longitudes, areas y vol umenes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.4 Ejemplos en Fsica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3
4

INDICE GENERAL
Captulo 1

Algebra Lineal Tensorial


Estas notas son provisionales. El captulo 2 todava no es logicamente consistente (y
puede contener erratas).
El calculo diferencial tensorial es una de las teoras m as hermosas que aparecen en toda la Ma-
tematica. En ella conviven en perfecta armona el

Algebra, el Analisis, la Geometra Diferencial y La
Fsica.
El ochenta por ciento de lo que aqu se dice debiera constituir los conocimientos basicos (junto
con otros!) de todo matematico. Alguna vez he cado en la tentacion de detenerme en ciertas
cuestiones algebraicas que me preocupaban y que al lector quizas no le interesen tanto. El que
escribe es de formacion algebraica y aunque pueda parecer lo contrario ha renunciado muchas veces
a una profundizacion mayor (y compresion mas clara) de los conceptos desarrollados. Por ejemplo,
no he escrito las propiedades universales del algebra exterior y simetrica de un espacio vectorial y
no se si perdonarmelo. En los nuevos planes de estudios que se estan perlando no aparecen las
palabras: producto tensorial, tensores, formas diferenciales, etc. Este hecho por s solo calica a toda
la comunidad matematica espa nola.
1.1 Deniciones. Construcciones
1. Comentario: El punto de partida de las Matematicas son los n umeros naturales, a partir de
ellos vamos deniendo y construyendo toda la Matematica, Dios nos dio los n umeros naturales, el
resto de las Matematicas la hicimos los hombres (creo que dijo Kronecker). La piedra clave de las
deniciones y construcciones es la palabra sea, y a los matematicos nos parece bien (como en el
Genesis!). Demos algunos ejemplos.
1. Los matematicos sabemos sustituir con todo rigor la palabra equivalente por la palabra igual,
sabemos identicar una cosa con sus equivalentes. En efecto, consideremos una relacion de equiva-
lencia en un conjunto X. Un punto de X y todos sus equivalentes, los podemos identicar, hacerlos
todos una misma cosa, diciendo simplemente: Sea el subconjunto de X formado por un punto x y
todos sus equivalentes. Denotemos este subconjunto por x. Del mismo modo dado un punto y X y
todos sus equivalentes, sea el subconjunto de X formado por y y todos sus equivalentes y denotemos
este subconjunto y. Ahora tendremos que x es equivalente a y si y solo si x es igual a y. Llamemos

X el conjunto que se obtiene al identicar en X cada elemento con sus equivalentes, es decir,

X := x, x X, donde x = x
t
si y solo si x es equivalente a x
t

5
6 Captulo 1.

Algebra Lineal Tensorial
Mision cumplida.
1.1 Si establecemos en Z la relacion de equivalencia n m si y solo si n m es m ultiplo de 5,
tendremos que n = m si y solo n m es m ultiplo de 5. Si identicamos en Z cada entero con sus
equivalentes, tenemos solo cinco elementos distintos, es decir,

Z =

0,

1 . . . ,

4.
1.2 Sea A un anillo. Dado un ideal I A, establezcamos la siguiente relacion de equivalencia:
a A es equivalente a a
t
A si y solo si a a
t
I, es decir, si y solo si existe alg un i I de modo
que a = a
t
+ i. En este caso,

A := a, a A, de modo que a = a
t
si y solo si a a
t
I se denota
A/I. Resulta que A/I tiene una estructura natural de anillo, deniendo la suma y el producto como
sigue
a +

b := a +b a

b := a b
el elemento neutro para la suma es

0 y para el producto

1.
2. Dado el anillo de n umeros naturales N, denamos o construyamos el anillo de los n umero
enteros Z. Para ello, en Matematicas, no podremos hablar de grados bajo cero ni de deudas como
se hace con los ni nos peque nos. Antes de empezar a construir Z, cualquiera que sea su construccion
o denicion, sabramos decir si n m es igual a n
t
m
t
(para n, m, n
t
, m
t
N), sabramos sumar,
multiplicar etc. Basta con saber esto, es decir, en saber como se comporta Z, para que un matematico
sepa ya denirlos, gracias a la palabra sea: Sea Z el conjunto de parejas de n umeros naturales
(n, m), que preferimos denotar nm, donde diremos que nm es igual a n
t
m
t
si n+m
t
= m+n
t
(observemos que con esta denicion nm = nm, que si nm = n
t
m
t
entonces n
t
m
t
= nm,
y que si nm = n
t
m
t
y n
t
m
t
= n
tt
m
tt
entonces nm = n
tt
m
tt
). Denido queda Z, como
denimos la suma? (n m) + (n
t
m
t
) := (n + n
t
) (m + m
t
). Dena el lector el producto. Mas
ejemplos.
3. Hemos denido ya el anillo de los n umeros enteros Z, denamos el cuerpo de los n umeros
racionales Q. En Matematicas no podemos hablar de pasteles y porciones de pasteles, como a los ni nos.
Pero antes de empezar a construir Q, sabramos decir cuando
n
m
es igual a
n

(n, m, n
t
, m
t
Z) y
sabemos sumar n umero racionales y multiplicarlos. No necesitamos nada mas, salvo la palabra sea:
Sea Q el conjunto de parejas de n umeros enteros (n, m), que preferimos denotar
n
m
, donde diremos
que
n
m
es igual a
n

si existen r, r
t
,= 0 tales que
rn
rm
y
r

tienen el mismo numerador y denominador


(observemos que
n
m
=
n
m
, que si
n
m
=
n

entonces
n

=
n
m
, y que si
n
m
=
n

y
n

=
n

entonces
n
m
=
n

). Denido queda Q como denimos la suma?


n
m
+
n

:=
m

n+mn

mm

. Dena el lector el
producto. Mas ejemplos.
3.1 Sea A un anillo y S A, un subconjunto que cumpla 1 S y si s, s
t
S entonces s s
t
S.
Queremos denir el anillo (que denotaremos por A
S
) formado por las fracciones a/s, a A, s S.
Obviamente, queremos que se cumpla que
a
s
=
ta
ts
, para todo t S. No hay mayor problema, digamos
que son equivalentes y a los equivalentes hagamoslos iguales:
A
S
:=
a
s
, con a A y s S [
a
s
=
a
t
s
t
si existen t, t
t
S tales que las fracciones
ta
ts
y
t
t
a
t
t
t
s
t
tienen el mismo numerador y denominador
Como denimos la suma?
a
s
+
b
t
:=
at+bs
st
Y el producto?
a
s

b
t
:=
ab
st
.
4. Hemos denido Q, denamos ahora R. Aqu a los ni nos se les habla de los n umeros reales
de un modo muy aproximado a lo que hacemos en Matematicas (la construccion de n umero real en
Matematicas es la objetivacion formal de la experiencia fsica de aproximacion (interminable)). Se
les dice algo as como: Vamos a ver cuanto mide media circunferencia. Mido y veo que es casi
1.2. Espacios vectoriales. Espacio vectorial dual 7
3, pero si preciso mas es 3, 1, si preciso mas es 3, 14 y as sucesivamente nos va saliendo que mi-
de 3, 141592... con innitas cifras innitesimales. As, nos decan que los n umeros reales son los
n umeros con innitas cifras decimales (despues nos decan que 0, 999999999.... era el mismo n umero
que 1 Identicabamos dos n umeros equivalentes!). La construccion que damos en Matematicas de los
n umeros reales es esencialmente la misma que la que damos para completar cualquier espacio metrico
(como la construccion de Q a partir de Z, es la misma esencialmente que la que damos para construir
A
S
a partir de A y S). Tenemos claro cuando una sucesion de n umeros racionales se aproximan a
algo
1
, es decir, denimos primero que es una sucesion de Cauchy. Tenemos claro tambien, cuando
dos aproximaciones son iguales o equivalentes (cuando la diferencia de las dos sucesiones de Cauchy
se aproximen a 0). As pues, dar un n umero real equivale a dar las aproximaciones a el, siempre que
identiquemos estas aproximaciones. Nos basta con esto para denir R, salvo la palabra sea: Sea
R el conjunto de todas las sucesiones de Cauchy, donde diremos que dos sucesiones de Cauchy son
iguales si son equivalentes. Denido queda R.
1.2 Espacios vectoriales. Espacio vectorial dual
Un espacio vectorial es un conjunto en el que podemos sumar sus elementos y multiplicar cada
elemento por un escalar, y estas operaciones cumplen propiedades muy naturales.
Sea k un cuerpo (ejemplos: k = Q, R o C).
1. Denicion: Un k-espacio vectorial es un conjunto, E, dotado de dos operaciones, una llamada
suma E E E y se escribe (e, e
t
) e +e
t
, y otra llamada producto por escalares k E E y se
escribe (, e) e, vericando:
1. (E, +) es un grupo abeliano, es decir,
(a) e + (e
t
+e
tt
) = (e +e
t
) +e
tt
, para todo e, e
t
, e
tt
E.
(b) Existe un elemento que denotamos por 0 tal que 0 +e = e + 0 = e, para todo e E.
(c) Para cada e E existe otro elemento que denotamos e tal que e + (e) = 0.
(d) e +e
t
= e
t
+e, para todo e, e
t
E.
2. (e +v) = e + v, k, e, v E
3. ( +) e = e + e , k, e E
4. ( ) e = ( e), , k, e E
5. 1 e = e, e E.
Los elementos de un espacio vectorial se denominan vectores y los de k escalares. Si k es un anillo
y no un cuerpo (ejemplo: k = Z) se dice que E es un k-modulo.
k
n
, con la suma (
i
)+(
i
) := (
i
+
i
) y el producto por escalares (
i
) := (
i
) es un k-espacio
vectorial. R
3
que es el espacio en el que pensamos que vivimos es un ejemplo de R-espacio vectorial.
Sea X un conjunto y C(X) = Aplic(X, k). C(X) con la suma estandar de funciones (f +g)(x) :=
f(x) +g(x) y producto estandar por escalares ( f)(x) := f(x) es un k-espacio vectorial.
1
Aunque ese algo no sea un n umero racional. En realidad, lo real, real de verdad son las aproximaciones, que estas
se aproximen a algo realmente existente es otra cuestion. Ese algo es una abstraccion, sin embargo suele pensarse que
este algo es muy real y la aproximacion una abstraccion matematica, pero esto es otro tema...
8 Captulo 1.

Algebra Lineal Tensorial
Observemos que 0 e = (0 +0) e = 0 e +0 e y por tanto 0 e = 0. Observemos que si e +e
t
= 0
sumando e, obtenemos que e
t
= e. Como 0 = (1 1) e = e +(1) e, tenemos que (1) e = e.
Las aplicaciones que conservan la estructura de espacio vectorial (los morsmos de la categora
de k-espacios vectoriales) son las aplicaciones lineales. Con precision: Sean E, E
t
dos k-espacios
vectoriales,
2. Denicion : Una aplicacion T : E E
t
es un morsmo de k-espacios vectoriales (o aplicacion
k-lineal ) si
T(e +v) = T(e) +T(v) y T( e) = T(e)
para cualesquiera e, v E, k.
Es claro que la composicion T
1
T
2
: E G de dos aplicaciones lineales T
2
: E F, T
1
: F G,
es una aplicacion lineal.
3. Denicion : Una aplicacion lineal T : E E
t
es un isomorsmo si existe otra aplicacion lineal
S : E
t
E tal que T S = Id
E
, S T = Id
E
.
T es un isomorsmo de espacios vectoriales si y solo si es una aplicacion biyectiva (lineal).
4. Denicion: Decimos que F E es un subespacio vectorial de E si f +f
t
F y f F, para
todo f, f
t
F y k.
F con la suma y producto por escalares es un espacio vectorial y la inclusion F E es una
aplicacion k-lineal. Si F
i
son subespacios vectoriales de E entonces
i
F
i
es un subespacio vectorial
de E.
Sea E un espacio vectorial y F E un subespacio vectorial. Consideremos la relacion de equi-
valencia que dice que dos vectores e
1
, e
2
E son equivalentes si y solo si dieren en un vector de
F (los vectores de F son equivalentes a 0). Si identicamos cada vector de E con sus equivalentes,
obtenemos el conjunto que denotamos E/F, que es el siguiente
E/F := e [ e E, de modo que e
1
= e
2
e
1
e
2
F
Observemos que e = 0 si y solo si e F y que e = v si y solo si existe un vector e
t
F tal que
v = e +e
t
.
E/F es de modo natural un espacio vectorial: e + v := e +v y e := e. El morsmo natural
: E E/F, (e) := e es una aplicacion lineal epiyectiva.
Dada una aplicacion lineal T : E E
t
, se denomina n ucleo de la aplicacion lineal T, que denotamos
por Ker T, a
Ker T := T
1
(0) := e E [ T(e) = 0
Es facil comprobar que Ker T es un subespacio vectorial de E. T(e) = T(v) si y solo si T(e) T(v) =
T(e v) = 0, es decir, e v Ker T. Es decir, T(e) = T(v) si y solo si existe un e
t
Ker T tal que
v = e +e
t
. Por tanto, T es inyectiva si y solo si Ker T = 0.
La aplicacion

T : E/ Ker T E
t
,

T( e) := T(e), esta bien denida, pues si e = v existe un
e
t
Ker T tal que v = e + e
t
y T(v) = T(e) + T(e
t
) = T(e) (luego

T( v) =

T( e), como ha ser si
hablamos con sentido). Ademas, la aplicacion

T : E/ Ker T E
t
es inyectiva: 0 =

T( e) = T(e) si y
solo si e Ker T, es decir, si y solo si e = 0.
Denimos la imagen de T, que denotamos por ImT como
ImT := T(E) := T(e) E
t
, e E
Es facil comprobar que ImT es un subespacio de E
t
.
1.2. Espacios vectoriales. Espacio vectorial dual 9
Se tiene el siguiente diagrama conmutativo
E
T
//

E
t
E/ Ker T

T

//
ImT
?
i
OO
e

//
_

T(e)
e

//
T( e) = T(e)
_
OO
Donde la echa horizontal inferior es isomorsmo porque es epiyectiva e inyectiva.
Si C = c
i

iI
, con c
i
E. Llamamos subespacio vectorial de E generado por C al mnimo
subespacio vectorial de E que contiene a C, y lo denotamos C). Es facil probar que
C) = e E [ e =
1
c
1
+ +
n
c
n
, c
i
C,
i
k, n N
Si C = e
1
, . . . , e
r
entonces denotamos e
1
, . . . , e
r
) = C) y se cumple que e
1
, . . . , e
r
) =
1
e
1
+
+
r
e
r
,
i
k.
Se dice que los vectores de C son un sistema generador de E si C) = E. Decimos que un espacio
vectorial E es nito generado si existen e
1
, . . . , e
r
E de modo que e
1
, . . . , e
r
) = E. Se dice que los
vectores de C son linealmente independientes si
1
c
1
+ +
n
c
n
,= 0 si alg un
i
,= 0, para todo n
y c
1
, . . . , c
n
C. Se dice que los vectores de C forman una base de E si son un sistema generador
de E y son linealmente independientes.
Los vectores (1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0. . . . , 1) forman una base de k
n
, denominada base
estandar de k
n
.
5. Teorema de la base: Todo espacio vectorial E ,= 0 contiene alguna base. Todas las bases de E
tienen el mismo n umero de vectores, tal n umero se dice que es la dimension de E y se denota dim
k
E.
Demostracion. Voy a suponer que E es nito generado, para no embarullar al lector con la teora de
cardinales, lema de Zorn, etc.
Supongamos, pues, que E = e
1
, . . . , e
n
). Sea I 1, . . . , n un subconjunto maximo con la
condicion de que los vectores e
i

iI
sean linealmente independientes. Obviamente I ,= , pues si
I = entonces e
i
= 0 para todo i y E = 0. Veamos que los vectores e
i

iI
forman una base de
E. Tenemos que probar que e
i
)
iI
= E. Dado e
j
, 1 j n, si e
j
/ e
i
)
iI
entonces e
j
, e
i

iI
seran linealmente independientes, pues si
j
e
j
+

i
e
i
= 0 entonces: 1. Si
j
,= 0 tendremos
que e
j
=

i
i
j
e
i
y e
j
e
i
)
iI
, contradiccion. 2. Si
j
= 0, entonces

i

i
e
i
= 0 y entonces

i
= 0, para todo i I, pues los vectores e
i

iI
son linealmente independientes. En conclusion,

j
=
i
= 0 para todo i, luego e
j
, e
i

iI
son linealmente independientes. Ahora bien, por la
maximalidad de I, esto es contradictorio. En conclusion, e
j
e
i
)
iI
, para todo 1 j n. Por
tanto, E = e
1
, . . . , e
n
) e
i
)
iI
y E = e
i
)
iI
.
Veamos que todas las bases tienen el mismo n umero de vectores. Sea n el n umero de vectores de
una base (hay muchas) con el mnimo n umero de vectores. Voy a proceder por induccion sobre n. Si
n = 1, entonces E = e) para cierto vector no nulo e. Dados dos vectores no nulos cualesquiera e
t
1
, e
t
2
tendremos que e
t
1
=
1
e y e
t
2
=
2
e, con
1
,
2
,= 0, entonces
1
1
e
1
+
1
2
e
2
= e e = 0, luego e
t
1
y e
t
2
no son linealmente independientes. En conclusion, las bases de E han de estar formadas todas
por un unico vector.
Supongamos que el teorema es cierto hasta n 1 1, veamos que es cierto para n. Sea aho-
ra e
1
, . . . , e
n
y e
t
1
, . . . , e
t
m
dos bases de E. Tenemos que e
1
=

i

i
e
t
i
, reordenando la base
e
t
1
, . . . , e
t
m
, podemos suponer que
1
,= 0. Pruebe el lector que e
2
, . . . , e
n
y e
t
2
, . . . , e
t
m
son bases
de E/e
1
) (le costara un poco mas ver que la segunda lo es). Obviamente, el n umero de vectores
10 Captulo 1.

Algebra Lineal Tensorial
de una base de E/e
1
) con el n umero mnimo de vectores es menor que n. Por induccion sobre n,
tendremos que n 1 = m1, luego n = m.
Si k es un anillo (y no un cuerpo) no es cierto en general que los k-modulos tengan bases. Por
ejemplo el Z-modulo Z/5Z no tiene bases, pues para todo n Z/5Z, 5 n = 0. Los k-modulos que
tienen bases se denominan k-modulos libres. k
n
es un k-modulo libre y una base de el es la base
estandar.
Si e
i

iI
son linealmente independientes y e
j

jJ
es una base de E/e
i
)
iI
entonces e
i
, e
j

iI,jJ
es una base de E: Son linealmente independientes, pues si

i

i
e
i
+

j

j
e
j
= 0 entonces 0 =

i
e
i
+

j

j
e
j
=

j

j
e
j
, luego
j
= 0, para todo j, luego

i

i
e
i
= 0 y
i
= 0 para todo i.
Generan, pues dado e E, tendremos que e =

j

j
e
j
, luego e =

j

j
e
j
+ e
t
, con e
t
e
i
)
iI
, es
decir, e
t
=

i
e
i
y e =

j

j
e
j
+

i
e
i
.
Como consecuencias tenemos que si F es un subespacio vectorial de E entonces dimE = dimF +
dimE/F, y todo sistema de vectores linealmente independiente se puede ampliar a un sistema de
vectores que formen base.
Dado un conjunto de espacios vectoriales E
i

iI
, el conjunto

iI
E
i
es de modo natural un
espacio vectorial:
(e
i
)
iI
+ (e
t
i
)
iI
:= (e
i
+e
t
i
)
iI
(e
i
)
iI
:= ( e
i
)
iI
Diremos que

i
E
i
es el producto directo de los espacios vectoriales E
i
.
Denimos la suma directa de los espacios vectoriales E
i
, que denotamos
iI
E
i
, como

iI
E
i
= (e
i
)
iI

iI
E
i
: todos los e
i
salvo un n umero nito son nulos
e
i

iI
es un sistema generador de E si y solo si el morsmo

iI
k E, (
i
)
iI

i
e
i
es epiyectivo; son linealmente independientes si y solo si es inyectivo, y son una base si y solo si es un
isomorsmo. Por tanto, todo espacio vectorial es isomorfo a un
iI
k, pues siempre existen bases.
Observemos que si #I < entonces
iI
E
i
=

iI
E
i
.
Si F, F
t
son dos subespacios vectoriales de E se denota F +F
t
como el mnimo subespacio vectorial
que contiene a F y F
t
. Es facil probar que
F +F
t
= f +f
t
E, f F, f
t
F
t

El morsmo natural F F
t
F + F
t
, (f, f
t
) f + f
t
es epiyectivo y es inyectivo si y solo si
F F
t
= 0. Se dice que E es la suma directa de dos subespacios F, F
t
si y solo si F F
t
= 0 y
F + F
t
= E, es decir, el morsmo F F
t
E, (f, f
t
) f + f
t
es un isomorsmo, es decir, todo
vector e E se escribe de modo unico como suma de un vector f F y otro vector f
t
F
t
.
Sea Hom
k
(E, E
t
) el conjunto de aplicaciones lineales de E en E
t
, que es un espacio vectorial de
modo natural, con la suma y producto por escalares siguientes:
(T +T
t
)(e) := T(e) +T
t
(e) y ( T)(e) := T(e)
Se cumple que el morsmo

iI
Hom
k
(E, E
t
i
) Hom
k
(E,

i
E
t
i
), (T
i
)
iI
T, T(e) := (T
i
(e))
iI
1.2. Espacios vectoriales. Espacio vectorial dual 11
es un isomorsmo de morsmo inverso T (
i
T)
iI
, con
i
:

j
E
t
j
E
t
i
,
i
((e
t
j
)
jI
) := e
t
i
.
Se cumple que el morsmo

i
Hom
k
(E
i
, E
t
) Hom
k
(
iI
E
i
, E
t
), (T
i
)
iI
T, T((e
i
)
iI
) :=

i
T
i
(e
i
)
es isomorsmo de morsmo inverso T (T
i
)
iI
, T
i
(e
i
) := T((0, . . . ,
i
e
i
, . . . , 0)).
Sea e
i

iI
una base de E. Toda aplicacion lineal T : E E
t
, esta determinada por los valores
T(e
i
), i I, pues dado e E entonces e =

i

i
e
i
y T(e) =

i

i
T(e
i
). Recprocamente, dados
v
i
E
t
, i I, la aplicacion lineal S: E E
t
denida por S(e) :=

i
v
i
, para e =

i
e
i
, cumple
que S(e
i
) = v
i
. Formalmente,
Hom
k
(E, E
t
) = Hom
k
(
iI
k, E
t
) =

iI
Hom
k
(k, E
t
) =

iI
E
t
, T (T(e
i
))
iI
Si e
t
j
es una base de E
t
, entonces T(e
i
) =

j

ji
e
t
j
, para ciertos
ij
k (jado i, todos los

ji
son nulos salvo un n umero nito) y existe una correspondencia biunvoca entre T y las uplas de
escalares (
ji
)
(i,j)IJ
, caja de n umeros que es denominada matriz asociada a T en las bases e
i

y e
t
j
de E y E
t
respectivamente.
As pues, T, que es una transformacion de un espacio en otro que supera facilmente nuestra
capacidad de ideacion geometrica, esta determinada por unos cuantos escalares
ij
k, que pueden
ser mecanicamente tratados.
Fijada una base e
1
, . . . , e
n
(por sencillez digamos que n < ) de un espacio vectorial E, dado
un vector e =

i

i
e
i
suele escribirse de modo abreviado e = (
1
, . . . ,
n
) (es decir, tenemos un
isomorsmo E = k
n
). Igualmente, dada una base e
t
1
, . . . , e
t
m
de E
t
, escribiremos T(e) = e
t
=
(
t
1
, . . . ,
t
m
), ahora bien, T(e) = T(

i
e
i
) =

i

i
T(e
i
) =

i

i
(

j

ji
e
t
j
) =

j
(

ji

i
)e
t
j
,
luego
t
j
=

ji

i
, para todo j. Ecuaciones que escribimos de modo abreviado
_
_
_

t
1
.
.
.

t
m
_
_
_ =
_
_
_

11

1n
.
.
.
.
.
.

m1

mn
_
_
_
_
_
_

1
.
.
.

n
_
_
_
o de modo mucho mas abreviado e
t
= T(e).
Si T : E E
t
es una aplicacion lineal de matriz asociada (
ji
), entonces la matriz asociada a T
es (
ji
). Escribiremos
(
ji
) = (
ji
)
y diremos que es el producto de una matriz por un escalar.
Si T, T
t
: E E
t
son dos aplicaciones lineales de matrices asociadas (
ji
) y (
t
ji
) entonces la
matriz asociada a T +T
t
es (
ji
+
t
ji
). Escribiremos
(
ji
) + (
t
ji
) = (
ji
+
t
ji
)
y diremos que es la suma de matrices.
Sea T : E E
t
y S: E
t
E
tt
dos aplicaciones lineales. Sea e
i

iI
, e
t
j

jJ
y e
tt
k

kK
bases de
E, E
t
y E
tt
respectivamente. Sea (
ji
) y (
kj
) las matrices respectivas de T y S. Calculemos la matriz
(c
ki
) de ST: (ST)(e
i
) = S(

j

ji
e
t
j
) =

j

ji
S(e
t
j
) =

j

ji
(

k

kj
e
tt
k
) =

k
(

j

kj

ji
) e
tt
k
.
En conclusion, c
ki
=

j

kj

ji
. Seguiremos la notacion,
(
kj
) (
ji
) = (c
ki
)
y diremos que (c
ki
) es el producto de las matrices (
kj
) y (
ji
).
12 Captulo 1.

Algebra Lineal Tensorial
6. Proposicion: Una aplicacion lineal T : E E
t
es inyectiva si y solo si aplica una (o toda) base
en un sistema de vectores linealmente independientes. T es epiyectiva si y solo si aplica una base (o
toda) en un sistema generador. T es un isomorsmo si y solo si aplica una base (o toda) en una base.
7. Denicion: El espacio vectorial formado por el conjunto de aplicaciones lineales de un k-espacio
vectorial E en k se denomina espacio vectorial dual de E y se denota E

, es decir,
E

:= Hom
k
(E, k)
Los vectores w E

se denominan formas lineales.


8. Proposicion : Si E es un espacio vectorial de dimension nita, de base e
1
, . . . , e
n
entonces
las formas lineales w
1
, . . . , w
n
, determinadas por w
i
(e
j
) =
ij
forman una base de E

. Se dice que
w
1
, . . . , w
n
es la base dual de e
1
, . . . , e
n
.
Demostracion. Dada w E

se tiene que w = w(e


1
)w
1
+. . .+w(e
n
)w
n
, porque ambas formas lineales
coinciden sobre los vectores e
i
de la base de E. Si

i
w
i
= 0 entonces 0 = (

i
w
i
)(e
j
) =
j
, para
todo j. En conclusion, w
1
, . . . , w
n
son un sistema generador de E

y son linealmente independientes,


es decir, son una base.
9. Teorema de reexividad: Sea E un espacio vectorial de dimension nita. La aplicacion lineal
canonica
E (E

, e e, e(w) := w(e)
es un isomorsmo.
Demostracion. Sea e
1
, . . . , e
n
una base de E y w
1
, . . . , w
n
la base dual. Es inmediato que
e
1
, . . . , e
n
es la base dual de w
1
, . . . , w
n
. La aplicacion canonica aplica la base e
1
, . . . , e
n
en la
base e
1
, . . . , e
n
y es un isomorsmo.
Sera usual escribir E = (E

y e = e.
Dada una aplicacion lineal T : E E
t
sea T

: E
t
E

la aplicacion lineal denida por T

(w
t
) :=
w
t
T. Se dice que T

es el morsmo transpuesto de T.
Si e
1
, . . . , e
n
y e
t
1
, . . . , e
t
m
son bases de E y E
t
y (
ji
) es la matriz asociada a T en estas bases,
calculemos la matriz (

ij
) de T

, en las bases duales w


1
, . . . , w
n
, w
t
1
, . . . , w
t
m
: T

(w
t
j
) =

ij
w
i
.
Entonces,

ij
= T

(w
t
j
)(e
i
) = w
t
j
(T(e
i
)) = w
t
j
(

ki
e
t
k
) =
ji
que se expresa diciendo que la matriz de T

es la transpuesta de la matriz de T.
1.3 Producto tensorial
Queremos denir o construir el producto tensorial de dos espacios vectoriales E, E
t
. Veamos que
cosas queremos y como queremos que operen.
Quiero un producto que denotare , entre los vectores de E (que escribire en primer lugar) y
los de E
t
(en segundo lugar). Dados e E y e
t
E
t
, quiero construir e e
t
. Quiero sumar cosas de
estas, quiero cosas de la forma
1
(e
1
e
t
1
) + +
n
(e
n
e
t
n
), con e
i
E y e
t
i
E
t
,
i
k. Por
ultimo quiero que el producto verique las siguientes propiedades (lineales):
1.3. Producto tensorial 13
(e
1
+e
2
) e
t
= e
1
e
t
+e
2
e
t
e e
t
= e e
t
= (e e
t
)
e (e
t
1
+e
t
2
) = e e
t
1
+e e
t
2
y no quiero imponer ninguna condicion mas (salvo las que se deriven de estas condiciones). Esto es
muy facil, con la palabra sea.
Hablemos con todo rigor.
Sean E y E
t
dos k-espacios vectoriales. Consideremos el conjunto de las sumas formales nitas
M :=
1
(e
1
e
t
1
) + +
n
(e
n
e
t
n
) [ e
i
E, e
t
i
E
t
,
i
k, n N, es decir,
M :=
EE

k
1
(e
1
e
t
1
) + +
n
(e
n
e
t
n
) (0, . . . , 0,
e1e

1
, 0, . . . , 0,
ene

n
, 0 . . . , 0)
M es un k-espacio vectorial (con la suma obvia de sumas formales y el producto obvio por esca-
lares).
Queremos identicar (e
1
+e
2
) e
t
con e
1
e
t
+e
2
e
t
; e e
t
con e e
t
y con (e e
t
); y
e (e
t
1
+e
t
2
) con e e
t
1
+e e
t
2
.
Sea N el subespacio vectorial de M, generado por las sumas formales, (e
1
+e
2
)e
t
e
1
e
t
e
2
e
t
,
e e
t
e e
t
, (e e
t
) e e
t
, y e (e
t
1
+e
t
2
) e e
t
1
e e
t
2
, es decir,
N :=
_
(e
1
+e
2
) e
t
e
1
e
t
e
2
e
t
e e
t
e e
t
, (e e
t
) e e
t
e (e
t
1
+e
t
2
) e e
t
1
e e
t
2
_
e,e1,e2E,e

,e

1
e

2
E

,k
()
1. Denicion : Llamaremos producto tensorial de E por E
t
, que denotaremos por E
k
E
t
, a
E
k
E
t
:= M/N
2. Notacion: Dado e e
t
M, denotaremos e e
t
M/N = E E
t
por e e
t
.
Pues bien, E E
t
esta generado por los vectores e e
t
, variando e E y e
t
E
t
(porque los
vectores e e
t
son una base de M y E E
t
= M/N). Tomando clases en () se tienen las igualdades
(e
1
+e
2
) e
t
= e
1
e
t
+e
2
e
t
e e
t
= e e
t
= (e e
t
)
e (e
t
1
+e
t
2
) = e e
t
1
+e e
t
2
()
Calculemos las aplicaciones lineales de E E
t
en otro espacio vectorial V . Como E E
t
= M/N,
dar una aplicacion lineal : E E
t
V equivale a dar una aplicacion lineal : M V que se
anule en N (de modo que (e e
t
) = (e e
t
)). Ahora bien, M es un k-espacio vectorial de base
e e
t

eE,e

E
, as pues, esta determinado por (e e
t
) (variando e E, e
t
E
t
) y se anula en
N si y solo si
((e
1
+e
2
) e
t
) = (e
1
e
t
) +(e
2
e
t
)
(e e
t
) = (e e
t
) = (e e
t
)
(e (e
t
1
+e
t
2
)) = (e e
t
1
) +(e e
t
2
)
En conclusion, dar : E
k
E
t
V , equivale a denir (e e
t
) (para todo e E, e
t
E
t
) de
modo que se cumpla
((e
1
+e
2
) e
t
) = (e
1
e
t
) +(e
2
e
t
)
(e e
t
) = (e e
t
) = (e e
t
)
(e (e
t
1
+e
t
2
)) = (e e
t
1
) +(e e
t
2
)
14 Captulo 1.

Algebra Lineal Tensorial
(De un modo mas elegante, esta conclusion se expresa en los textos diciendo que se tiene la igualdad
Hom
k
(E
k
E
t
, V ) = Bil
k
(E, E
t
; V )).
Dadas dos aplicaciones lineales T : E V , T
t
: E
t
V
t
podemos denir el morsmo E E
t

V V
t
, e e
t
T(e) T
t
(e
t
), morsmo que lo denotaremos por T T
t
.
3. Proposicion : 1. E
k
E
t
= E
t

k
E.
2. (E E
t
)
k
V = (E
k
V ) (E
t

k
V ).
3. (
iI
E
i
)
k
V =
i
(E
i
V ).
4. k
k
E = E.
Demostracion. 1. Tenemos el morsmo EE
t
E
t
E, ee
t
e
t
e y su inverso E
t
E EE
t
,
e
t
e e e
t
.
2. Tenemos el morsmo (E E
t
) V (E V ) (E
t
V ), (e, e
t
) v (e v, e
t
v) y el
inverso (E V ) (E
t
V ) (E E
t
) V , (e v, e
t
v
t
) (e, 0) v + (0, e
t
) v
t
.
3. Idem que 2.
4. Tenemos el morsmo k E E, e e y el inverso E k E, e 1 e.
4. Teorema : Si E es un espacio vectorial de base e
1
, . . . , e
n
y E
t
es un espacio vectorial de base
e
t
1
, . . . , e
t
m
entonces E
k
E
t
es un espacio vectorial de base e
i
e
t
j

1in,1jm
.
Demostracion. E
k
E
t
= e e
t
)
eE,e

E
. Dados e E y e
t
E
t
entonces e =

i
e
i
y e
t
=

t
j
e
t
j
y
e e
t
= (

i
e
i
) (

j
e
t
j
) =

i,j

t
j
e
i
e
t
j
Por tanto, E E
t
= e
i
e
t
j
)
1in,1jm
.
Ademas, E E
t
= k
n
k
m
= (k k
m
)
m
(k k
m
) = k
m

m
k
m
= k
nm
, luego E E
t
es un espacio vectorial de dimension nm, de base e
i
e
t
j

1in,1jm
(de hecho puede comprobar
el lector que esta base se aplica va las igualdades en la base estandar de k
nm
).
Del mismo modo que hemos denido el producto tensorial de dos espacios vectoriales podramos
haber denido el producto tensorial de tres espacios vectoriales, e igualmente dar una aplicacion lineal
: E
1

k
E
2

k
E
3
V equivale a denir los (e
1
e
2
e
3
), para todo e
1
E
1
, e
2
E
2
, e
3
E
3
,
de modo que sea k-lineal en cada uno de los tres factores, es decir, Hom
k
(E
1

k
E
2

k
E
3
, V ) =
Multilin(E
1
E
2
E
3
, V ). Igualmente podemos denir el producto tensorial de n-espacios vectoriales.
5. Proposicion : Hom
k
(E
k
E
t
, E
tt
) = Hom
k
(E, Hom
k
(E
t
, E
tt
)).
Demostracion. Asignamos a Hom
k
(E
k
E
t
, E
tt
),

Hom
k
(E, Hom
k
(E
t
, E
tt
)), denido por

(e) := (e ), donde (e )(e


t
) := (e e
t
). Recprocamente, asignamos al morsmo
Hom
k
(E, Hom
k
(E
t
, E
tt
)), Hom
k
(E
k
E
t
, E
tt
), denido por (e e
t
) := ((e))(e
t
).
6. Proposicion : (E
1

k

k
E
n
)
k
(E
t
1

k

k
E
t
m
) = E
1

k

k
E
n

k
E
t
1

k

k
E
t
m
.
1.4.

Algebra exterior n-esima de un espacio vectorial 15
Demostracion. Sea
Hom
k
(E
1

k

k
E
n
, Hom
k
(E
t
1

k

k
E
t
m
, E
1

k

k
E
n

k
E
t
1

k

k
E
t
m
))
denido por (e
1
e
n
)(e
t
1
e
t
m
) := e
1
e
n
e
t
1
e
t
m
. Por la proposicion anterior
tenemos el morsmo (E
1

k

k
E
n
)
k
(E
t
1

k

k
E
t
m
) E
1

k

k
E
n

k
E
t
1

k

k
E
t
m
,
denido por (e
1
e
n
) (e
t
1
e
t
m
) e
1
e
n
e
t
1
e
t
m
.
El morsmo E
1

k

k
E
n

k
E
t
1

k

k
E
t
m
(E
1

k

k
E
n
)
k
(E
t
1

k

k
E
t
m
),
e
1
e
n
e
t
1
e
t
m
(e
1
e
n
) (e
t
1
e
t
m
) es el morsmo inverso.
Hemos demostrado, ademas, la propiedad asociativa del producto tensorial, pues facilmente tene-
mos que
E
1

k
(E
2

k
E
3
) = E
1

k
E
2

k
E
3
= (E
1

k
E
2
)
k
E
3
7. Teorema : Sean E
i
k-espacios vectoriales de dimension nita. La aplicacion lineal
E

1

k
. . .
k
E

(E
1

k

k
E
n
)

= Multilin
k
(E
1
E
n
, k)
w
1
w
n


w
1
w
n
con

w
1
w
n
(e
1
e
n
) := w
1
(e
1
) w
n
(e
n
), es un isomorsmo lineal.
Demostracion. Sea e
ij

i
una base de E
j
y w
ij

i
la base dual. Por tanto, una base de E

k

k
E

n
es w
i11
w
inn

i1,...,in
, que resulta ser va la base dual de la base e
i11
e
inn

i1,...,in
de
E
1

k

k
E
n
.
8. Notacion: Por abuso de notacion suele denotarse

w
1
w
n
por w
1
w
n
. Recprocamente,
w
1
w
n
suele pensarse como la aplicacion multilineal

w
1
w
n
.
Otra formula importante es:
9. Proposicion : Sea E
t
un k-espacio vectorial de dimension nita. Entonces
E
t

k
E = Hom
k
(E
t
, E)
Demostracion. Si E
t
= k es obvio. En general, E
t
= k
n
. Como Hom
k
(, E) y
k
E conmutan con
sumas directas nitas, hemos concluido.
Explcitamente, el morsmo E
t

k
E Hom
k
(E
t
, E), we

w e, donde

w e(e
t
) := w(e
t
) e,
es un isomorsmo canonico.
1.4

Algebra exterior n-esima de un espacio vectorial
Queremos denir ahora un producto , con las propiedades multilineales de y de modo que
v
1
v
r
sea cero si y solo v
1
, . . . , v
n
E no son linealmente dependientes. Basta imponer solo
que v
1
. . . v
r
es nulo si dos de los v
i
son iguales.
Sea V el k-subespacio vectorial de E
k
n

k
E, generado por los vectores
e
1
e
j1
e e
k1
e e
n
variando e
i
, e, j, k.
16 Captulo 1.

Algebra Lineal Tensorial
1. Denicion : Llamaremos algebra exterior n de E, que denotaremos por
n
E, a

n
E := (E
k
n

k
E)/V
2. Notacion: Denotaremos e
1
e
2
e
n
(E
k
n

k
E)/V =
n
E por e
1
e
2
e
n
.
Observemos que ademas de las propiedades de multilinealidad heredadas de , cumple que
e
1
e e e
n
= 0. Si e
i
es combinacion lineal de los e
j

j,=i
, entonces e
1
e
2

e
i
e
n
= 0: e
i
=

j,=i

j
e
j
, luego
e
1
e
2
e
n
= e
1
e
i1
(

j,=i

j
e
j
) e
i+1
e
n
=

j,=i

j
e
1
e
i1
e
j
e
i+1
e
n
= 0
Como 0 = e
1
(e+e
t
) (e+e
t
) e
n
= e
1
e (e+e
t
) e
n
+e
1
e
t

(e+e
t
) e
n
= e
1
e e e
n
+e
1
e e
t
e
n
+e
1
e
t

e e
n
+e
1
e
t
e
t
e
n
= e
1
e e
t
e
n
+e
1
e
t
e e
n
obtenemos que
e
1
e
j
e
k
t
e
n
= e
1
e
j
t
e
k
e
n
Recordemos que toda permutacion es producto de transposiciones y que el signo de la permutacion
es igual a 1 elevado al n umero de las transposiciones. Por tanto, dada una permutacion , de
1, . . . , n, tenemos que
e
(1)
e
(2)
e
(n)
= signo() e
1
e
2
e
n
3. Como
n
E = (E
n
E)/V , dar un morsmo lineal :
n
E F equivale a dar un morsmo
E
n
E F, que se anule en V , es decir, equivale a denir (e
1
e
n
) (para todo e
1
, . . . , e
n
E)
que sea k-lineal en cada factor y de modo que (e
1
e e e
n
) = 0.
Dada una aplicacion lineal T : E E
t
induce el morsmo
n
T :
n
E
n
E
t
, denido por

n
T(e
1
e
n
) := T(e
1
) T(e
n
).
4. Notacion: Diremos que
0
E = k y que
1
E = E.
5. Teorema: Sea E un espacio vectorial de base e
1
, . . . , e
n
. Entonces e
i1
e
ir

1i1<i2<<irn
es una base de
r
E.
Demostracion. Sabemos que e
i1
e
ir

1ijn
es una base de E
r
E. Por tanto, tomando
clases tenemos que e
i1
e
ir

1ijn
es un sistema generador de
r
E. Si en el producto exterior
de r-vectores aparecen vectores repetidos entonces es nulo. Ademas
e
(1)
e
(2)
e
(r)
= signo() e
1
e
2
e
r
Por tanto, e
i1
e
ir

1i1<i2<<irn
es un sistema generador de
r
E.
Supongamos que existe una combinacion lineal

1i1<i2<<irn

i1,i2, ,ir
e
i1
e
ir
= 0, con
alg un
i1,i2, ,ir
,= 0. Reordenando la base, podemos suponer que
1,2, ,r
,= 0.
1.4.

Algebra exterior n-esima de un espacio vectorial 17
Sea w
i
la base dual de e
i
. Consideremos la aplicacion lineal
w:
r
E k, v
1
v
r

signo() w
1
(v
(1)
) w
r
(v
(r)
)
Se cumple que 0 = w(

1i1<i2<<irn

i1,i2, ,ir
e
i1
e
ir
) =
1,2, ,r
.
6. Corolario : v
1
, . . . , v
n
E son linealmente independientes si y solo si v
1
v
n
,= 0.
Demostracion. Si v
1
, . . . , v
n
E son linealmente independientes entonces forman parte de una base,
luego v
1
v
n
forma parte de una base de
n
E y es distinto de cero.
Si E es un espacio vectorial de dimension n y base e
1
, . . . , e
n
entonces
n
E es un espacio vectorial
de dimension 1 de base e
1
e
n
. Dados v
1
, , v
n
E, con v
i
=

ij
e
j
, tendremos que
v
1
v
n
= (
11
e
1
+ +
1n
e
n
) (
n1
e
1
+ +
nn
e
n
) =

i1,=, =in

1i1

nin
e
i1
e
in
=

Sn

1(1)

n(n)
e
(1)
e
(n)
= (

Sn
signo()
1(1)

n(n)
) e
1
e
n
7. Denicion : Sea E un espacio vectorial de dimension n y T : E E un endomorsmo lineal.
Entonces
n
E = k y
n
T :
n
E
n
E es la homotecia por cierto escalar de k, que llamaremos
determinante de T y denotaremos det(T).
Si e
1
, . . . , e
n
es una base de E y la matriz de T en esa base es (
ij
), entonces T(e
1
) T(e
n
) =
(

Sn
signo()
1(1)

n(n)
) e
1
e
n
, luego det(T) =

Sn
signo()
1(1)

n(n)
.
8. Proposicion : Sea E un espacio vectorial de dimension nita. T : E E es un isomorsmo si
y solo si det(T) ,= 0.
Demostracion. Sea e
1
, . . . , e
n
una base de E. T es un isomorsmo T(e
1
), . . . , T(e
n
) son
linealmente independientes T(e
1
) T(e
n
) ,= 0 det(T) ,= 0.
9. Teorema : det(T T
t
) = det(T) det(T
t
).
Demostracion. Se verica que
n
(T)
n
(T
t
) =
n
(T T
t
): (
n
(T)
n
(T
t
))(e
1
e
n
) =

n
(T)(T
t
(e
1
) T
t
(e
n
)) = (T T
t
)(e
1
) (T T
t
)(e
n
) =
n
(T T
t
)(e
1
e
n
).
Por tanto, multiplicar (en
n
E = k) por det(T
t
) y despues multiplicar por det(T) es igual a
multiplicar por det(T T
t
). Es decir, det(T T
t
) = det(T) det(T
t
).
10. Denici on: Dada una matriz A = (a
ij
) llamaremos menor pq de la matriz, que denotaremos
por A
q
p
, al determinante de la matriz que se obtiene suprimiendo en (a
ij
) la columna p y la la q.
11. Proposicion : det(a
ij
) =

q
(1)
q
a
1q
A
q
1
.
18 Captulo 1.

Algebra Lineal Tensorial
Demostracion. Sea e
i
una base. Entonces
det(a
ij
)e
1
e
n
= (

j
a
1j
e
j
) (

j
a
nj
e
j
) =

k
a
1k
e
k
(

j
a
2j
e
j
) (

j
a
nj
e
j
)
= a
11
e
1
(

j,=1
a
2j
e
j
) (

j,=1
a
nj
e
j
) + +a
1n
e
n
(

j,=n
a
2j
e
j
) (

j,=n
a
nj
e
j
)
= a
11
A
1
1
e
1
e
n
+ +a
1n
A
n
1
e
n
e
1
e
n1
= (

j
(1)
j
a
1j
A
j
1
) e
1
e
n
y hemos concluido.
Sea T : E E un isomorsmo lineal y sea A = (a
ij
) la matriz de T en una base e
j
de E.
Calculemos la matriz B = (b
ij
) de T
1
: T
1
(e
i
) =

j
b
ij
e
j
, luego
T
1
(e
i
) e
1
e
j
e
n
= b
ij
e
j
e
1
e
j
e
n
= (1)
j
b
ij
e
1
e
n
Aplicando
n
T, obtenemos
e
i
T(e
1
) e
j
T(e
n
) = b
ij
(1)
j
det(T)e
1
e
n
Como e
i
T(e
1
) e
j
T(e
n
) = A
i
j
(1)
i
e
1
e
n
, entonces
b
ij
= (1)
i+j
A
i
j
det(a
ij
)
Hablemos, primero sin rigor, de orientacion de un R-espacio vectorial, para ligar la intuicion vaga
que tenemos de orientacion con la denicion matematica de orientacion que daremos mas adelante.
Decimos que un espacio vectorial E de dimension 1 (una recta) lo tenemos orientado, si sabemos
decir que esta a la derecha del cero y que esta a la izquierda del cero. Para esto es necesario y suciente
con que tengamos un vector no nulo e E, de modo que diremos que un punto e
t
E distinto de 0,
esta a la derecha de 0 si e
t
= e, con > 0, diremos que esta a la izquierda si < 0. Otro vector, v
dene la misma orientacion que e si y solo si v = e, con > 0. En conclusion, dar una orientacion
en E, equivale a dar un e E (o cualquier otro e, con > 0).
Sea ahora E un plano. Decimos que en el plano E estamos orientados, si siempre que tengamos
una recta (pongamos que pasa por el origen) orientada sabemos decir que esta a la derecha de la recta
o que esta a la izquierda de la recta. As si tenemos una recta orientada r = e) E (donde e orienta
la recta), dado e
t
(que no yazca en la recta) sabemos decir si esta a la derecha o a la izquierda de la
recta. Ademas, si e
t
esta a la derecha de la recta, entonces los puntos de la derecha son de la forma
e +e
t
, con > 0. As si jamos la recta orientada r = e) y decimos que e
t
esta a la derecha de r,
denamos e e
t
que es una base de
2
E, entonces v = e + e
t
esta a la derecha de r, si y solo si
e v = e e
t
con > 0. En conclusion, dada una dos coforma c
2

2
E, tenemos una orientacion
en E: Dada una recta orientada r = e) (donde e, o e con > 0, orienta la recta) diremos que e
t
esta a la derecha de la recta r, si e e
t
= c
2
, con > 0. As pues, dar una orientacion en E, es dar
una c
2

2
E (o cualquier otra c
2
, con > 0).
Sea ahora E un R-espacio vectorial de dimension 3. Decimos que estamos orientados en E, si
dado un plano orientado sabemos decir que esta a su derecha y que esta a su izquierda. Dar un plano
V E orientado, es dar una dos coforma c
2

2
V (o cualquier otra c
2
, con > 0). As si tengo,
una tres coforma c
3

3
E (o cualquier otra c
3
, con > 0), dado e
t
E, dire que esta a la derecha
1.4.

Algebra exterior n-esima de un espacio vectorial 19
de V si c
2
e
t
= c
3
, con > 0. Observemos, que si e
tt
= e
t
+v, con > 0 y con v V , entonces
c
2
e
tt
= c
2
e
t
= c
3
. En conclusion, dar una orientacion en E, es dar una c
3

3
E (o cualquier
otra c
3
, con > 0).
12. Denicion: Dar una orientacion en un R-espacio vectorial E de dimension n, es dar una n-
coforma no nula c
n

n
E. Decimos que dos orientaciones c
n
y c
t
n
son iguales si c
n
= c
t
n
, con
> 0.
Como
n
E R, en E solo podemos dar dos orientaciones, una y su opuesta.
Dada una orientacion c
n

n
E existe una unica w
n

n
E

, salvo un factor multiplicativo positi-


vo, de modo que w
n
(c
n
) 0. Equivalentemente, dada una n-forma w
n
, salvo un factor multiplicativo
positivo, tenemos denida una orientacion.
Sea E un R-espacio vectorial de dimension n orientado, y e
1
. . . e
n

n
E una n-coforma que
orienta E (o equivalentemente una n-forma w
n
que orienta E).
13. Denicion : Diremos que una base ordenada e
t
1
, . . . , e
t
n
esta positivamente ordenada si e
t
1

e
t
n
= e
1
e
n
, con > 0 (o equivalentemente si w
n
(e
t
1
, . . . , e
t
n
) > 0).
14. Proposicion : Sea e
t
i
=

ij
e
j
. Entonces e
t
1
, . . . , e
t
n
esta positivamente ordenada si y solo si
det(
ij
) > 0.
Demostracion. e
t
1
e
t
n
= det(
ij
) e
1
e
n
.
15. Denicion: Una aplicacion multilineal H: E . . . E V es una aplicacion hemisimetrica si
H(e
1
, , e
n
) = 0 si e
i
= e
j
, para un i ,= j.
Observemos que si e
i
es combinacion lineal de los demas e
j
, por la multilinealidad y hemisimetra
de H, se cumple que H(e
1
, . . . , e
n
) = 0. Por otra parte,
0 = H(e
1
, , e +v, , e +v, , e
n
) = H(e
1
, , e, , v, , e
n
) +H(e
1
, , v, , e, , e
n
)
Luego H(e
1
, , e, , v, , e
n
) = H(e
1
, , v, , e, , e
n
) y en general
H(e
1
, , , e
n
) = signo() H(e
(1)
, , e
(n)
)
Denotemos Hem
k
(E E, V ), el conjunto de aplicaciones hemisimetricas de E E en
V .
16. Proposicion : Hem
k
(E
m
E, k) = (
m
E)

.
Demostracion. Estamos repitiendo 1.4.3. Toda aplicacion hemisimetrica H: E
m
E k, dene
la aplicacion

H: E
m
. . . E k,

H(e
1
e
m
) = H(e
1
, . . . , e
m
), que factoriza va
m
E k,
e
1
e
m
H(e
1
, . . . , e
m
). Recprocamente, dada una aplicacion lineal,
m
E k, la composicion
E
m
E
m
E k es hemisimetrica.
17. Proposicion : Sea E un espacio vectorial de dimension nita. Entonces,

m
E

= (
m
E)

Demostracion. La aplicacion,
m
E


(
m
E)

,
1

m

1

m
, donde

1

m
(v
1
v
m
) :=

Sm
signo()
1
(v
(1)
)
m
(v
(m)
)
20 Captulo 1.

Algebra Lineal Tensorial
es un isomorsmo. Porque si e
1
, . . . , e
n
es una base de E y w
1
, . . . , w
n
la base dual, entonces aplica
la base w
i1
w
im

i1<<im
de
m
E

en la base dual de la base e


i1
e
im

i1<<im
de

m
E.
Con las dos proposiciones anteriores obtenemos la siguiente proposicion.
18. Proposicion : Sea E un espacio vectorial de dimension nita. Entonces

m
E

= Hem
k
(E
m
E, k)
Explcitamente,
m
E

Hem
k
(E E, k), w
1
w
m


w
1
w
m
, donde

w
1
w
m
(e
1
, . . . , e
m
) :=

w
1
w
m
(e
1
. . . e
m
) =

Sm
signo() w
1
(e
(1)
) w
m
(e
(m)
)
es un isomorsmo lineal.
Sea E un R-espacio vectorial de dimension n, con una orientacion. La funcion F : E E R
que asigna a n-vectores el volumen del pareleleppedo denido por los n-vectores, multiplicado por
(1) si los n vectores no estan positivamente orientados, es una funcion hemisimetrica. Por tanto,
podemos denir F :
n
E R, que asigna a e
1
e
n
el volumen del paraleleppedo denido por
e
1
, . . . , e
n
(multiplicado por (1) si los n vectores no estan positivamente orientados). Si e
t
i
=

ij
e
j
,
como e
t
1
e
t
n
= det(
ij
) e
1
e
n
, tendremos que
F(e
t
1
e
t
n
) = F(det(
ij
) e
1
e
n
) = det(
ij
)F(e
1
e
n
)
En conclusion, el volumen del paraleleppedo denido por los vectores e
t
1
, , e
t
n
es [ det(
ij
)[ por
el volumen del paraleleppedo denido por los vectores e
1
, . . . , e
n
.

n
E

= F). Al hablar de volumen hemos cometido un error. Debemos jar una unidad de
volumen. Debemos decir que cierto paraleleppedo tiene volumen 1. Debemos jar un generador de

n
E

. A los vectores de
n
E

se les llama formas de volumen.


1.5 Metricas
Uno de los conceptos difciles de denir en la ense nanza basica es la nocion de angulo. Se dice algo
as como que el angulo entre dos semirectas concurrentes es (el area de) la region que hay entre las
dos rectas. Que es la region? Como se dice que una regi on es mayor que otra es un n umero?
Pero la region es muy grande! Intentemos asignar a cada par de semirectas concurrentes un n umero:
Consideremos un vector de modulo uno sobre cada semirecta. Midamos la longitud de la proyeccion
ortonormal de un vector de una recta en la otra. Esta medida, este n umero, nos dara una idea exacta
del angulo. Esta asignacion de un n umero a cada par de semirectas concurrentes, puede extenderse
a una asignacion de un n umero a cada par de vectores. En efecto, dados dos vectores e
1
, e
2
sean [e
1
[
y [e
2
[ sus modulos y consideremos e
t
1
=
e1
]e1]
y e
t
2
=
e2
]e2]
. Sea N(e
1
, e
2
) el n umero que se obtiene de
multiplicar la longitud de la proyeccion de e
t
1
sobre e
t
2
por [e
1
[ y [e
2
[. Resulta que N: E E R,
(e
1
, e
2
) N(e
1
, e
2
) es una aplicacion bilineal. En conclusion, la nocion de angulo en un espacio
eucldeo esta estrechamente relacionada con la nocion de aplicacion bilineal. Veamos como a partir
de una aplicacion bilineal denimos lo que es espacio eucldeo, angulo y modulo.
1.5. Metricas 21
Sea E un k-espacio vectorial de dimension nita. Sea e
1
, . . . , e
n
una base de E y w
1
, . . . , w
n
E

la base dual. Sabemos que


Bil
k
(E E, k) = E

k
E

Una base de E


k
E

es w
i
w
j
. As pues, dada una aplicacion bilineal T
2
Bil
k
(E E, k),
tendremos que T
2
=

i,j

ij
w
i
w
j
y
T
2
(e, e
t
) =

i,j

ij
w
i
(e) w
j
(e
t
)
En particular, T
2
(e
i
, e
j
) =
ij
.
Por otra parte, E

= Hom
k
(E, E

). Explcitamente, dada T
2
=

i,j

ij
w
i
w
j
tenemos un
morsmo, denominado la polaridad asociada a T
2
y que denotamos tambien T
2
, T
2
: E E

denido
por
T
2
(e) :=

ij

ij
w
i
(e) w
j
En particular, T
2
(e
i
) =

ij
w
j
, luego la matriz de T
2
es (
ij
). Observemos que T
2
(e)(e
t
) = T
2
(e, e
t
).
Recprocamente, dado una aplicacion lineal T
2
: E E

, podemos denir una aplicacion bilineal


que seguimos denotando T
2
, T
2
(e, e
t
) := T
2
(e)(e
t
).
1. Denicion : Se dice que T
2
es no singular si det(
ij
) ,= 0, es decir, T
2
: E E

es un isomorsmo.
Si T
2
: E E

es un isomorsmo, entonces T
2
:= (T
2
)
1
: E

E es un isomorsmo. Por tanto,


T
2
dene una aplicacion bilineal en E

(pues E = (E

). Si la matriz de T
2
es (
ij
) la matriz de T
2
es (
ij
) := (
ij
)
1
. Si T
2
=

ij

ij
w
i
w
j
, entonces T
2
=
ij
e
i
e
j
. Por ultimo observemos que si
w = T
2
(e) y w
t
= T
2
(e
t
) entonces
T
2
(w, w
t
) = T
2
(w)(w
t
) = T
2
(T
2
(e))(T
2
(e
t
)) = e(T
2
(e
t
)) = T
2
(e
t
)(e) = T
2
(e
t
, e)
2. Denicion : Se dice que T
2
es una metrica simetrica si T
2
(e, e
t
) = T
2
(e
t
, e), para todo e, e
t
E.
Si T
2
es simetrica entonces
ij
= T
2
(e
i
, e
j
) = T
2
(e
j
, e
i
) =
ji
. Recprocamente, si
ij
=
ji
, para
todo i, j, entonces T
2
(e, e
t
) = T
2
(e
t
, e) para todo e, e
t
E. Es decir, T
2
es simetrica si y solo si la
polaridad T
2
coincide con su morsmo transpuesto T

2
.
Supongamos a partir de ahora que T
2
es simetrica. Se dice que e es ortogonal a e
t
(respecto de T
2
)
si T
2
(e, e
t
) = 0. Se dice que dos subespacios E
t
, E
tt
de E son ortogonales si T
2
(e
t
, e
tt
) = 0 para todo
e
t
E
t
y e
tt
E
tt
. Se dice que E es la suma ortogonal de dos subespacios E
t
y E
tt
si son ortogonales
y E es la suma directa de los dos subespacios. En este caso escribiremos E = E
t
E
tt
. Observemos
que
T
2
(e
t
1
+e
tt
1
, e
t
2
+e
tt
2
) = T
2
(e
t
1
, e
t
2
) +T
2
(e
tt
1
, e
tt
2
)
para todo e
t
1
, e
t
2
E
t
y e
tt
1
, e
tt
2
E
tt
.
Si E
t
y E
tt
son dos espacios vectoriales con sendas metricas T
t
2
y T
tt
2
entonces podemos denir en
E = E
t
E
tt
la metrica
T
2
(e
t
+e
tt
, v
t
+v
tt
) := T
t
2
(e
t
, v
t
) +T
tt
2
(e
tt
, v
tt
)
Obviamente, E es la suma ortogonal de E
t
y E
tt
.
22 Captulo 1.

Algebra Lineal Tensorial
3. Denicion: Se denomina radical de T
2
, que denotaremos RadT
2
, al n ucleo de la polaridad T
2
,
es decir,
RadT
2
:= e E [ T
2
(e, e
t
) = 0 para todo e
t
E
Si E
t
es cualquier subespacio suplementario de RadT
2
entonces E = RadT
2
E
t
. La restriccion
de T
2
a RadT
2
es la metrica nula. La restriccion de la metrica T
2
a E
t
es no singular, porque dado
e
t
E
t
si T
2
(e
t
, v) = 0 para todo v E
t
, entonces T
2
(e
t
, e) = 0 para todo e E y tendramos que
e
t
RadT
2
y por tanto e
t
= 0. En general, si E = E
t
E
tt
entonces RadT
2
= RadT
2]E
RadT
2]E
.
Dado un subespacio V E diremos que V

:= e E [ T
2
(v, e) = 0 para todo v V es el
espacio ortogonal de V .
Dado un subespacio vectorial V E diremos que V
0
:= w E

[ w(v) = 0 para todo v V es


el subespacio (de E

) incidente de V . Si tomamos una base e


1
, . . . , e
r
de V y la ampliamos a una
base e
1
, . . . , e
n
de E y consideramos la base de E

dual w
1
, . . . , w
n
entonces w
r+1
, . . . , w
n
es
una base de V
0
. Por tanto, dimV
0
= dimE dimV .
Va el teorema de reexividad, dado W E

se tiene que W
0
= e E [ w(e) = 0 para todo
w W. Dado V E se tiene que
V

= e E [ 0 = T
2
(v, e) = T
2
(v)(e) para todo v V = T
2
(V )
0
Si dado un subespacio W E

pensamos de modo inmediato en W


0
, entonces podremos decir
que la polaridad T
2
aplica cada subespacio vectorial de E en su ortogonal
4. Proposicion : Si T
2
es una metrica simetrica no singular de un espacio vectorial de dimension
nita E y V E es un subespacio vectorial entonces dimV

= dimEdimV . Ademas, (V

= V .
Demostracion. dimV

= dimT
2
(V )
0
= dimE

dimT
2
(V ) = dimE dimV .
(V

= V . Si v
t
V

entonces T
2
(v
t
, v) = 0 para todo v V . Por tanto, V (V

. Por
otra parte, dim(V

= dimE dimV

= dimE (dimE dimV ) = dimV . Por dimensiones,


(V

= V .
5. Denicion : Se dice que una base e
1
, . . . , e
n
de E es ortonormal si T
2
(e
i
, e
j
) = 0 si i ,= j y
T
2
(e
i
, e
i
) = 1.
6. Teorema : Sea E un R-espacio vectorial de dimension nita y T
2
una metrica simetrica no
singular en E. Entonces existe una base ortonormal e
1
, . . . , e
n
de E, luego matriz asociada a T
2
en
esta base es
_
_
_
1 0 0
0
.
.
. 0
0 0 1
_
_
_
Demostracion. Veamos en primer lugar que si T
2
(e, e) = 0 para todo e E entonces T
2
= 0: Sean
e, e
t
E, 0 = T
2
(e +e
t
, e +e
t
) = T
2
(e, e) +T
2
(e, e
t
) +T
2
(e
t
, e) +T
2
(e, e
t
) = 2T
2
(e, e
t
), luego T
2
= 0.
Sea, pues, e E tal que T
2
(e, e) ,= 0. Sea E
t
= e)

. Se tiene que e) E
t
= 0, por tanto, por
dimensiones, E = e)E
t
. La restriccion de T
2
a E
t
es no singular, pues 0 = RadT
2
= RadT
2]e)

RadT
2]E
. Por induccion sobre la dimension, existe una base ortonormal e
2
, . . . , e
n
en E
t
. Si
consideramos e
1
=
1

]T2(e,e)]
e tenemos que e
1
, . . . , e
n
es una base ortonormal de E.
7. Denicion : Se dice que E con la metrica simetrica T
2
es un espacio eucldeo si T
2
(e, e) > 0 para
todo vector no nulo de E.
1.5. Metricas 23
En particular, en los espacios eucldeos, T
2
es no singular.
Reordenando la base, podemos suponer en el teorema anterior que
T
2

_
_
_
_
_
_
_
_
_
_
_
1
r
.
.
.
1
1
.
.
.
1
_
_
_
_
_
_
_
_
_
_
_
Veamos que el n umero r no depende de la base escogida: para todo e E
t
= e
1
, . . . , e
r
), no nulo,
se tiene que T
2
(e, e) > 0; del mismo modo para todo e E
tt
= e
r+1
, . . . e
n
) no nulo se cumple que
T
2
(e, e) < 0. Supongamos que existe un subespacio vectorial V tal que para todo v V no nulo
T
2
(v, v) > 0. Obviamente V E
tt
= 0, luego dimV dimE dimE
tt
= dimE
t
= r. En conclusion,
r es la dimension maxima de los subespacios eucldeos de E.
8. Denicion: Se dene el modulo de un vector e como
_
[T
2
(e, e)[. Supongamos que E es eucldeo,
se dene el angulo entre dos vectores no nulos e, e
t
como el n umero 0 < tal que cos = T
2
(e, e
t
).
Por ejemplo, dos vectores (no nulos) son perpendiculares si y solo si el angulo entre ellos es /2.
Toda metrica en E extiende de modo natural a
m
E: Dar una metrica T
2
en E, equivale a
denir la polaridad T
2
: E E

, T
2
(e)(e
t
) := T
2
(e, e
t
). La polaridad T
2
dene el morsmo,

m
T
2
:
m
E
m
E

, e
1
e
m
T
2
(e
1
) T
2
(e
m
). Ahora bien,
m
E

= (
m
E)

, luego
tengo un morsmo
m
E (
m
E)

, luego una metrica


m
T
2
en
m
E denida por

m
T
2
(e
1
e
m
, e
t
1
e
t
m
) = (T
2
(e
1
) T
2
(e
m
))(e
t
1
e
t
m
)
=

Sm
signo() T
2
(e
1
)(e
t
(1)
) T
2
(e
m
)(e
t
(m)
)
=

Sm
signo() T
2
(e
1
, e
t
(1)
) T
2
(e
m
, e
t
(m)
)
Si T
2
es una metrica simetrica en E, entonces
m
T
2
tambien lo es, porque (
m
T
2
)

=
m
T

2
=

m
T
2
.
Si e
1
, . . . , e
n
es una base ortonormal de E entonces e
i1
e
im

i1<<im
es una base ortonormal
de
m
E. Si S: E E es una isometra, entonces det(S) = 1: S(e
1
), . . . , S(e
n
) es una base
ortonormal de E y S(e
1
) S(e
n
) = det(S) e
1
e
n
tiene modulo 1, luego det(S) = 1.
Si E es un R-espacio vectorial de dimension n, entonces
n
E es un R-espacio vectorial de dimension
1. Si T
2
es una metrica simetrica no singular de E, existe salvo signo una unica forma de volumen de
modulo 1. Si e
1
, . . . , e
n
es una base de E y T
2
(
ij
). Entonces,

n
T
2
(e
1
e
n
, e
1
e
n
) = (T
2
(e
1
) T
2
(e
n
))(e
1
e
n
)
= det(
ij
) w
1
w
n
(e
1
e
n
) = det(
ij
)
As pues, la coforma de volumen es
1

] det(ij)]
e
1
e
n
. Igualmente, la forma de volumen es
w
E
=
1
_
[ det(
ij
)[
w
1
w
n
=
_
[ det(
ij
)[ w
1
w
n
24 Captulo 1.

Algebra Lineal Tensorial
Observemos que si e
1
, . . . , e
n
es una base ortonormal de E entonces w
E
= w
1
w
n
y
w
E
(e
1
, . . . , e
n
) = 1.
Sea E un R-espacio vectorial eucldeo de dimension 3 orientado. Sea w
3

3
E

la unica 3-forma
que sobre una base ortonormal e
1
, e
2
, e
3
positivamente orientada, vale w
3
(e
1
, e
2
, e
3
) = 1. Es decir, si
w
1
, w
2
, w
3
es la base dual de e
1
, e
2
, e
3
entonces w
3
= w
1
w
2
w
3
(que con la metrica inducida por
la metrica de E

, w
3
es de modulo 1 y w
3
dene la orientacion dada en E).
Dados dos vectores v
1
, v
2
E, llamamos producto vectorial de v
1
por v
2
, que denotamos por
v
1
v
2
, al vector determinado por
T
2
(v
1
v
2
, e) = w
3
(v
1
, v
2
, e)
Observemos que v
1
v
2
es ortogonal a v
1
y v
2
. El producto vectorial, , es multilineal hemi-
simetrico. Si v
1
y v
2
son linealmente independientes entonces v
1
, v
2
, v
1
v
2
es una base positivamente
orientada, pues 0 < = T
2
(v
1
v
2
, v
1
v
2
) = w
3
(v
1
, v
2
, v
1
v
2
). Si v
1
y v
2
son ortogonales, entonces
v
1
v
2
es el vector ortonormal a v
1
y v
2
, de modulo el producto de los modulos de v
1
y v
2
, de modo que
v
1
, v
2
, v
1
v
2
estan positivamente orientados: por la multilinealidad del producto vectorial podemos
suponer que v
1
y v
2
son de modulo 1. Sea v
3
, tal que v
1
, v
2
, v
3
sea una base ortonormal positivamente
orientada. Entonces, e
1
e
2
e
3
= v
1
v
2
v
3
y T
2
(v
1
v
2
, v
3
) = w
3
(v
1
, v
2
, v
3
) = w
3
(e
1
, e
2
, e
3
) = 1.
Por tanto, v
1
v
2
= v
3
y hemos terminado.
Observemos que si v
i
=

ij
e
j
, entonces T
2
(v
1
v
2
, v
3
) = det(
ij
), pues v
1
v
2
v
3
= det(
ij
)
e
1
e
2
e
3
y T
2
(v
1
v
2
, v
3
) = w
3
(v
1
, v
2
, v
3
) = det(
ij
).
1.6 Producto exterior y contraccion interior
Si un morsmo : E E
t
E
tt
se anula sobre los elementos e e
t
para todo e V E y e
t
E
t
entonces factoriza va el morsmo

: (E/V ) E
t
E
tt
,

( e e
t
) := (e e
t
).
El morsmo composicion
(E
n
E) (E
m
E) = E
n+m
E
n+m
E
(e
1
e
n
) (e
n+1
e
n+m
) e
1
e
n+m
factoriza va el morsmo, que llamaremos producto exterior de formas,
n
E
m
E
n+m
E,
(e
1
e
n
) (e
n+1
e
n+m
) e
1
e
n+m
.
1. Proposicion : El producto exterior de formas es asociativo: (
n

m
)
r
=
n
(
m

r
),
con
i

i
E.
El producto exterior de formas es anticonmutativo:
n

m
= (1)
nm

m

n
, para toda

n

n
E y
m

m
E.
Demostracion. La asociatividad es clara, en cuanto a la anticonmutatividad digamos solo que
(e
1
e
n
) (e
n+1
e
n+m
) = (1)
nm
(e
n+1
e
n+m
) (e
1
e
n
)
Dado w E

y E E
t
consideremos el morsmo de contraccion interior por w en el primer
factor i
1
w
: E E
t
E
t
, i
1
w
(e e
t
) := w(e) e
t
. Por otra parte, sea en E
n
E

i
w
: E
n
E E
n1
E,

i
w
(e
1
e
n
) :=

i
(1)
i1
w(e
i
) e
1
e
i
e
n
1.6. Producto exterior y contraccion interior 25
que llamaremos contraccion interior hemisimetrica, que es la suma de la contraccion interior por w
en cada factor afectada de un signo.
TE := k E (E E) (E
n
E) . . ., con la suma, +, y con el producto, , se dice
que es el algebra tensorial asociada a E. E := k E (
2
E) (
n
E) . . ., con la suma,
+, y con el producto, , se dice que es el algebra exterior asociada a E. El epimorsmo TE E,
e
1
e
n
e
1
e
n
es un morsmo de algebras (= de anillos).
2. Proposicion : La contraccion interior hemisimetrica es una antiderivacion del algebra tensorial,
es decir, dadas T
n
(E
n
E) y T
m
(E
m
E), entonces

i
w
(T
n
T
m
) = (

i
w
T
n
) T
m
+ (1)
n
T
n
(

i
w
T
m
)
Demostracion. Basta demostrar la proposicion para T
n
= e
1
e
n
y T
m
= e
t
1
e
t
m
. Ahora
bien, la suma de las contracciones interiores por w en cada factor (afectado por un signo) es contraer
primero en los n-primeros factores mas contraer despues en los ultimos m factores. La cuestion del
signo se la dejamos al lector.
La contraccion interior hemisimetrica en el algebra tensorial dene por paso al cociente un aplica-
cion lineal que denominaremos la contraccion interior en el algebra exterior. En efecto, si v
i
= v
j
(i < j) entonces

i
w
(v
1
v
r
) =
= (1)
i1
w(v
i
) v
1
v
i
v
j
v
r
+ (1)
j1
w(v
j
) v
1
v
i
v
j
v
r
= ((1)
i1
+ (1)
j1
(1)
ji1
)w(v
i
)v
1
v
i
v
j
v
r
= 0
Tenemos pues el morsmo
i
w
:
r
E
r1
E, i
w
(v
1
v
r
) :=

i
w
(v
1
v
r
) =

i
(1)
i1
w(v
i
) v
1
v
i
v
r
3. Corolario : La contraccion interior es una antiderivacion del algebra exterior, es decir, dadas

n

n
E y
m

m
E, entonces
i
w
(
n

m
) = (i
w

n
)
m
+ (1)
n

n
(i
w

m
)
Las n-formas se identican con las aplicaciones hemisimetricas de orden n. Veamos que es la
contraccion interior por un vector de una aplicacion hemisimetrica: Sea e E y
n
= w
1
w
n

n
E

= Hem
k
(E
n
. . . E, k) entonces
(i
e1

n
)(e
2
, . . . , e
n
) = (i
e
(w
1
w
n
))(e
2
, . . . , e
n
)
= (

i
(1)
i1
w
i
(e
1
)w
1
w
i
w
n
))(e
2
, . . . , e
n
)
1
=

Sn1
(1)
i1
signo()w
1
(e
(2)
) w
i
(e
1
) w
n
(e
(n)
)
2
= w
1
w
n
(e
1
, e
2
, . . . , e
n
) =
n
(e
1
, e
2
, . . . , e
n
)
1
= Consideramos S
n1
como el subgrupo de S
n
formado por las permutaciones que dejan el 1 jo.
26 Captulo 1.

Algebra Lineal Tensorial
2
= Si denimos
i
S
n
, la permutacion que transforma 1, . . . , n en 2, . . . , i 1, 1, i, . . . , n,
entonces signo() = (1)
i1
y S
n
= S
n1

1

S
n1

n
(porque S
n1

i
son las permutaciones
que transforman el 1 en el i).
Para los ejercicios que siguen observemos que dado un subespacio vectorial V E, tomando
duales tenemos el morsmo de restriccion E

, w w
]V
(w
]V
(v) := w(v), para toda v V ),
tenemos pues morsmos
i
E


i
V

, w
1
w
i
(w
1
w
i
)
]V
:= w
1]V
w
i]V
.
4. Ejercicio : Sea E un espacio eucldeo orientado de dimension n y E
t
E un hiperplano. Sea N
un vector normal a E
t
de modulo 1. Sea w
E
la forma de volumen de E.
1. Probar que i
N
w
E
restringida a E
t
es igual a la forma de volumen w
E
de E
t
que lo orienta, de
modo que si e
2
, . . . , e
n
es una base positivamente orientada de E
t
entonces N, e
2
, . . . , e
n
es una
base positivamente orientada de E.
2. Dado e E, (i
e
w
E
)
]E
= T
2
(e, N) w
E
.
5. Ejercicio : Sea (E, T
2
) un espacio vectorial eucldeo y R E un subespacio vectorial de dimension
1. Sea r un vector de R de modulo 1 que oriente a R y sea w
R
la forma de longitud de R. Dado
e E probar que (i
e
T
2
)
]R
= T
2
(e, r) w
R
.
1.7

Algebra tensorial simetrica
Queremos denir ahora un producto conmutativo, con las propiedades multilineales de .
Sea V el k-subespacio vectorial de E
n
E, generado por los vectores
e
1

j
e
j
e
k
e
n
e
1

j
e
k
e
j
e
n
variando e
i
, j, k.
1. Denicion : Llamaremos algebra exterior n de E, que denotaremos por S
n
E, a
S
n
E := (E
k
n
E)/V
2. Notacion: Denotaremos e
1
e
n
(E
k
n
E)/V = S
n
E por e
1
e
n
.
Observemos que ademas de las propiedades multilineales heredadas de , cumple que
e
1
e
n
= e
(1)
e
(n)
para todo S
n
.
3. Como S
n
E = (E
n
E)/V , dar un morsmo lineal : S
n
E F equivale a dar un morsmo
E
n
E F que se anule en V , es decir, equivale a denir (e
1
e
n
) (para todo e
1
, . . . , e
n
E)
que sea k-lineal en cada factor y de modo que (e
1
e
n
) = (e
(1)
e
(n)
) para todo S
n
. Es
decir,
Hom
k
(S
n
E, F) = T Mult
k
(E
n
E, F) [ T(e
1
, , e
n
) = T(e
(1)
, , e
(n)
), S
n

= Aplic. n-mult. simetricas de E en F =: Sim


k
(E
n
E, F)
4. Teorema : Sea E un espacio de base e
1
, . . . , e
n
. Entonces e
i1
e
ir

1i1irn
es una base
de S
r
E.
1.7.

Algebra tensorial simetrica 27
Demostracion. Sabemos que e
i1
e
ir

1ijn
es una base de E
r
E. Por tanto, tomando cla-
ses tenemos que e
i1
e
ir

1ijn
es un sistema generador de S
r
E. Como e
i1
e
ir
= e
i
(1)
e
i
(r)
para todo S
r
, tendremos que e
i1
e
ir

1i1irn
es un sistema generador de S
r
E.
Nos falta probar que son linealmente independientes. Sea t =

1i1irn

i1,...,ir
e
i1
e
ir
= 0.
Sea w
1
, . . . , w
n
la base dual de e
1
, . . . , e
n
. Dado i
1
i
r
sea J el conjunto de todas las
combinaciones con repeticion de este conjunto y w =

j1,...,jr]J
w
j1
w
jr
Hom
k
(S
r
E, k).
Entonces,

i1,...,ir
= w(t) = 0
S
n
opera de modo natural en E
n
E permutando los factores: dada S
n
y e
1
e
n
,
(e
1
e
n
) := e
(1)
e
(n)
. Sea
(E
n
E)
Sn
:= T E
n
E [ (T) = T para todo S
n

El morsmo composicion
(E
n
E) (E
m
E) = E
n+m
E S
n+m
E
(e
1
e
n
) (e
n+1
e
n+m
) e
1
e
n+m
factoriza va el morsmo, que llamaremos producto simetrico de tensores simetricos, S
n
E S
m
E
S
n+m
E, (e
1
e
n
) (e
n+1
e
n+m
) e
1
e
n+m
=: (e
1
e
n
) (e
n+1
e
n+m
).
5. Proposicion : El producto simetrico de tensores simetricos es asociativo: (T
n
T
m
) T
r
= T
n

(T
m
T
r
), con T
i
S
i
E.
El producto simetrico de tensores simetricos es conmutativo: T
n
T
m
= T
m
T
n
, para toda T
n
S
n
E
y T
m
S
m
E.
S

E := k E (S
2
E) (S
n
E) . . ., con la suma, +, y con el producto, , se dice que es el
algebra simetrica asociada a E. El epimorsmo TE S

E, e
1
e
n
e
1
e
n
es un morsmo
de algebras (= de anillos). Denotaremos S
0
E = k y S
1
E = E.
Sea w E

, llamaremos al morsmo

i
w
: E
n
E E
n1
E,

i
w
(e
1
e
n
) :=

i
w(e
i
) e
1
e
i
e
n
contraccion interior simetrica, que es la suma de la contraccion interior por w en cada factor.
6. Proposicion: La contraccion interior simetrica es una derivacion del algebra tensorial, es decir,
dadas T
n
(E
n
E) y T
m
(E
m
E), entonces

i
w
(T
n
T
m
) = (

i
w
T
n
) T
m
+T
n
(

i
w
T
m
)
Demostracion. Basta demostrar la proposicion para T
n
= e
1
e
n
y T
m
= e
t
1
e
t
m
. Ahora
bien, la suma de las contracciones interiores por w en cada factor es contraer primero en los n-primeros
factores mas contraer despues en los ultimos m factores.
28 Captulo 1.

Algebra Lineal Tensorial
La contraccion interior simetrica en el algebra tensorial dene por paso al cociente un aplicacion
lineal que denominaremos la contraccion interior en el algebra simetrica. En efecto, el morsmo
i
w
: S
r
E S
r1
E, i
w
(v
1
v
r
) :=

i
w(v
i
) v
1
v
i
v
r
esta bien denido.
7. Corolario : La contraccion interior es una derivacion del algebra simetrica, es decir, dadas
T
n
S
n
E y T
m
S
m
E, entonces
i
w
(T
n
T
m
) = (i
w
T
n
) T
m
+T
n
(i
w
T
m
)
Sea E un espacio vectorial de dimension nita. Va el isomorsmo lineal E
n
E Mult
k
(E

n
E

, k), tenemos que (E


n
E)
Sn
= Sim
k
(E

n
E

, k).
8. Proposicion : Supongamos que la caracterstica de k es primo con n!. El morsmo S: S
n
E
E
n
E, S(e
1
e
n
) =

Sn
e
(1)
e
(n)
establece un isomorsmo entre S
n
E y (E
n
E)
Sn
(cuyo morsmo inverso es precisamente
1
n!
, donde : E
n
E S
n
E es el morsmo natural
de paso a cociente).
Demostracion. Es una comprobacion inmediata.
En caracterstica cero, los tensores simetricos de orden n se identican con las aplicaciones simetricas
de orden n. Veamos que es la contraccion interior por un vector de una aplicacion simetrica: Sea
e E y T
n
= w
1
w
n
S
n
E

= Sim
k
(E
n
. . . E, k) entonces
(i
e1
T
n
)(e
2
, . . . , e
n
) = (i
e
(w
1
w
n
))(e
2
, . . . , e
n
)
= (

i
w
i
(e
1
) w
1
w
i
w
n
)(e
2
, . . . , e
n
)
1
=

Sn1
w
1
(e
(2)
) w
i
(e
1
) w
n
(e
(n)
)
2
= w
1
w
n
(e
1
, e
2
, . . . , e
n
) = T
n
(e
1
, e
2
, . . . , e
n
)
1
= Consideramos S
n1
como el subgrupo de S
n
formado por las permutaciones que dejan el 1 jo.
2
= Si denimos
i
S
n
, la permutacion que transforma 1, . . . , n en 2, . . . , i 1, 1, i, . . . , n,
entonces S
n
= S
n1

1

S
n1

n
(porque S
n1

i
son las permutaciones que transforman el
1 en el i).
1.8 Modulo de diferenciales. Derivaciones
Sea k un cuerpo, A un anillo y k A un morsmo de anillos (en este caso se dice que A es una
k-algebra y escribiremos ). Sea E el A-modulo libre de base db, para todo b A, es decir,
E son las sumas formales nitas

bB
a
b
db (a
b
A y casi todos nulos). Sea E
t
el A-submodulo de E
generado por los elementos d(b +b
t
) db db
t
, d(b) db y d(bb
t
) b
t
db bdb
t
(para todo
b, b
t
A y k).
1.8. Modulo de diferenciales. Derivaciones 29
1. Denicion: Llamaremos A-modulo de diferenciales de Kahler de A sobre k, que denotaremos
por
A/k
, a

A/k
:= E/E
t
2. Notacion:: Denotaremos adb por adb.
Observemos que d(b +b
t
) = db +db
t
, db = db y d(bb
t
) = b
t
db +bdb
t
.
Dar un morsmo de A-modulos :
A/k
M, equivale a dar un morsmo de A-modulos E M,
que se anule sobre E
t
, es decir, equivale a dar (db), para todo b A, de modo que (d(b + b
t
)) =
(db) +(db
t
), (db)) = (db) y (dbb
t
) = b
t
(db) +b(db
t
).
3. Denicion: Sea A una k-algebra y M un A-modulo. Diremos que una aplicacion D: A M es
una k-derivacion si verica las siguientes condiciones:
1. D es un morsmo de k-modulos.
2. D(ab) = bD(a) +aD(b) para todo a, b B.
Observemos que D(1) = D(1 1) = 1D(1) +1D(1) = 2D(1), luego D(1) = 0. Ademas, dado k,
D() = D(1) = 0.
El conjunto de todas las k-derivaciones de A en M se denota por Der
k
(A, M). Si denimos
(D +D
t
)(a) := D(a) +D
t
(a) (aD)(b) := aDb
tenemos que el conjunto de todas las k-derivaciones de A en M tiene estructura de A-modulo.
4. Proposicion : Sea A una k-algebra y M un A-modulo. Se cumple que
Hom
A
(
A/k
, M) = Der
k
(A, M)
Demostracion. Dado un morsmo de A-modulos T :
A/k
M consideremos la derivacion D
T
: A
M, D
T
(a) := T(da). Recprocamente, dada una derivacion D: A M, consideremos el morsmo
de A-modulos T
D
:
A/k
M, T
D
(db) = Db. Las asignaciones D T
D
, T D
T
son inversas entre
s.
El morsmo natural d: A
A/k
, a da, es una derivacion, es decir, verica que d(a + a
t
) =
da +da
t
, d(ab) = adb +bda. Ademas d se anula sobre k.
Sea A = k[x
1
, . . . , x
n
] el anillo de polinomios y M un A-modulo. Si una k-derivacion
D: k[x
1
, . . . , x
n
] M
se anula sobre los x
i
entonces D = 0: Por linealidad basta probar que es nula sobre los monomios x

y para ello procedamos por induccion sobre [[ =


1
+. . . +
n
. Supongamos
1
,= 0, sea , tal que

1
=
1
1 y
i
=
i
, para i > 1 (luego [[ < [[), entonces D(x

) = D(x
1
x

) = x

Dx
1
+x
1
Dx

=
0 + 0 = 0.
Dado m M, sea m

xi
la derivacion denida por m

xi
(p(x)) :=
p(x)
xi
m. Dada una derivacion D
entonces D =

i
(Dx
i
)

xi
, pues la diferencia entre los dos terminos de la igualdad es una derivacion
que se anula en todos los x
i
. Ahora ya es claro el teorema siguiente.
5. Teorema : Der
k
(k[x
1
, . . . , x
n
], M) = M

x1
M

xn
.
6. Corolario :
k[x1,...,xn]/k
= k[x
1
, . . . , x
n
]dx
1
k[x
1
, . . . , x
n
]dx
n
.
30 Captulo 1.

Algebra Lineal Tensorial
Demostracion. La diferencial d: k[x
1
, . . . , x
n
]
k[x1,...,xn]/k
es una derivacion, luego d =

i
dx
i


xi
por el teorema anterior y dp(x) =

i
p(x)
xi
dx
i
. Por tanto, dx
1
, . . . dx
n
es un sistema generador de

k[x1,...,xn]/k
. Por otra parte, el morsmo
k[x1,...,xn]/k
k[x
1
, . . . , x
n
]dx
1
k[x
1
, . . . , x
n
]dx
n
,
dp(x)

i
p(x)
xi
dx
i
, esta bien denido, lo que muestra que dx
1
, . . . dx
n
es una base.
Otro metodo de demostracion estandar en Matematicas, que esencialmente hemos seguido, dice:
de la igualdad (funtorial) para todo M, de los dos extremos de las igualdades,
Hom
k[x1,...,xn]
(
k[x1,...,xn]/k
, M) = Der
k[x1,...,xn]
(k[x
1
, . . . , x
n
], M) = M

x
1
M

x
n
= Hom
k[x1,...,xn]
(k[x
1
, . . . , x
n
]dx
1
k[x
1
, . . . , x
n
]dx
n
, M)
se deduce que
k[x1,...,xn]/k
= k[x
1
, . . . , x
n
]dx
1
k[x
1
, . . . , x
n
]dx
n
.
Sea m

A un ideal maximal tal que A/m

= k como k-algebras. Dado a A, denotemos


a() = a k = A/m

. La aplicacion
d

: A m

/m
2

, d

a := a a()
es una k-derivacion: Observemos que m

/m
2

es un A-modulo, a m := am = a() m (porque


(a a()) m m
2

). Ahora ya,
d

(a b) = a b a() b() = a (b b()) +b() (a a()) = a() d

b +b() d

a
Dado un A-modulo M, denotemos M() = M/m

M.
7. Teorema :
A/k
() = m

/m
2

.
Demostracion. El morsmo
A/k
() m

/m
2

, adb a()d

b esta bien denido y el morsmo


inverso es m

/m
2


A/k
(),

b db.
Dado k
n
, el n ucleo del morsmo k[x
1
, . . . , x
n
] k, p(x
1
, . . . , x
n
) p(), es el ideal maximal
m

= (x
1

1
, . . . , x
n

n
). El morsmo natural,
k[x1,...,xn]/k
() = m

/m
2

, asigna dp d

p =
p(x) p(). Como dp =

i
p
xi
dx
i
entonces d

p =

i
p
xi
() d

x
i
.
Si M es un A-modulo e I A un ideal entonces
r
A
M/I
r
A
M =
A/I
(M/I M), pues los
morsmos m
1
m
r
m
1
m
r
, m
1
m
r
m
1
m
r
son inversos entre s. Por
lo tanto,
(
r
A

A/k
)() =
r
k
m

/m
2

Si N es un A-modulo anulado por un ideal I, en particular es un A/I-modulo, a n := a n.


Recprocamente, si N es un A/I-modulo es en particular un A-modulo a n :=n. Si N
t
es otro A/I-
modulo entonces Hom
A
(N, N
t
) = Hom
A/I
(N, N
t
). Si M y N son A-modulos y N es un A-modulo
anulado por un ideal I, entonces todo morsmo de A-modulos f : M N se anula en I M, luego
podemos denir

f : M/I M N, m f(m) y f =

f , donde : M M/I M, (m) := m.
Tenemos Hom
A
(M, N) = Hom
A
(M/I M, N), f

f.
8. Teorema : Sea N un A-modulo anulado por m

(es decir, un A/m

-modulo). Entonces,
Hom
k
(m

/m
2

, N) = Der
k
(A, N)
1.9. Diferencial, contraccion por un campo, derivada de Lie 31
Demostracion. Hom
k
(m

/m
2

, N) = Hom
A
(m

/m
2

, N) = Hom
A
(
A/k
(), N) = Hom
A
(
A/k
, N) =
Der
k
(A, N).
Explcitamente, dado f : m

/m
2

N tenemos f d

: A N; dado D: A N, tenemos
m

/m
2

N, d

b Db.
1.9 Diferencial, contraccion por un campo, derivada de Lie
1. Teorema: El morsmo natural d: A
A/k
extiende de modo unico a una antiderivacion de gra-
do 1 del algebra exterior de
A/k
de cuadrado nulo, es decir, existen morsmos unicos d
i
:
i

A/k

i+1

A/k
, de modo que d
0
= d, d
i+1
d
i
= 0 y
d
n+m
(
n

m
) = (d
n

n
)
m
+ (1)
n

n
(d
m

m
)
Demostracion. Estamos obligados a denir d
1
:
A/k

2

A/k
, adb da db (que esta bien
denida) y en general d
n
(w
1
w
n
) :=

i
(1)
i1
w
1
d
1
(w
i
) w
n
.
Observese que d
n
(adb
1
db
n
) = da db
1
db
n
, luego d
i+1
d
i
= 0.
2. Notacion: Denotaremos d
n
= d, si no induce a equivocacion,
i
=
i

A/k
, siendo
0
= A.
Denotaremos

i=0

i
.

, con el producto exterior es un algebra anticonmutativa.


3. Proposicion : Sea D Der
k
(A, A) = Hom
A
(
A/k
, A). Entonces D
L
:= i
D
d + d i
D
es una
derivacion de grado cero de

, que sobre A es D (sobrentendemos que i


D
sobre A es nulo).
Demostracion. Por ser i
D
y d antiderivaciones de grado 1 y 1 respectivamente entonces D
L
es una
derivacion de grado cero (compruebese).
4. Proposicion : D
L
d = d D
L
.
Demostracion. D
L
d = (i
D
d +d i
D
) d = d i
D
d. d D
L
= d (i
D
d +d i
D
) = d i
D
d.
Por tanto, D
L
(adb
1
db
n
) = Da db
1
db
n
+

i
adb
1
d(Db
i
) db
n
.
Dadas D, D
t
Der
k
(A, A), denamos [D, D
t
] := D D
t
D
t
D que resulta ser una deriva-
cion de A. Por otra parte, la derivacion D
L
sobre
A/k
induce de modo natural una derivacion,
denotemosla tambien D
L
, sobre Der
k
(A, A) = Hom
A
(
A/k
, A): Dada D
t
denimos D
L
D como sigue,
(D
L
D
t
)(w) :

= D(w(D
t
)) (D
L
w)(D
t
), para cada w
A/k
. Se cumple que D
L
D
t
= [D, D
t
]: basta
comprobar la igualdad para w = db,
[D, D
t
](db) = (D D
t
D
t
D)(b)
(D
L
D
t
)(db) = D(db(D
t
)) (D
L
(db))(D
t
) = D(D
t
b) (dDb)(D
t
) = D(D
t
b) D
t
(Db)
De hecho, podramos haber denido D
L
D
t
:= [D, D
t
], despues podramos haber denido D
L
w,
para toda w
A/k
(suponiendo que
A/k
= Der
k
(A, A)

) y despues podramos haber extendido


D
L
como antiderivacion sobre el algebra exterior de
A/k
. Por ultimo, nos quedara probar que
D
L
= i
D
d +d i
D
.
32 Captulo 1.

Algebra Lineal Tensorial
5. Proposicion : Sean D, D
t
Der
k
(A, A) dos derivaciones. Entonces
D
L
i
D
i
D
D
L
= i
[D,D

]
Demostracion. Por ser D
L
una derivacion de grado cero y i
D
una antiderivacion de grado 1. en-
tonces D
L
i
D
i
D
D
L
es una antiderivacion de grado 1, que estara determinada por lo que vale
sobre
A/k
, que es i
[D,D

]
, por

=.
6. Formula de Cartan : Dada w
A/k
entonces
dw(D, D
t
) = D(w(D
t
)) D
t
(w(D)) w([D, D
t
])
Demostracion. dw(D, D
t
) = i
D
(i
D
dw) = i
D
((D
L
d i
D
)(w)) = (D
L
i
D
i
[D,D

]
)wD
t
w(D) =
D(w(D
t
)) w([D, D
t
]) D
t
w(D).
1.10 Calculo valorado
1. Denicion : Una aplicacion d: M M
A

A/k
diremos que es una diferencial en M, si
1. d(m+m
t
) = dm+dm
t
.
2. d(am) = adm+mda.
La diferencial d: M M
A/k
extiende a M

A/k
: d(m
i
) := dm
i
+ m d
i
(observemos que dm =

j
m
j
w
j
, con w
j

A/k
y denotamos dm
i
=

j
m
j
w
j

i
). Los
elementos de M
i
los llamaremos i-formas valoradas en M.
Dada otra diferencial d: M
t
M
t

A/k
, tenemos la diferencial d: M
A
M
t
M
A
M
t

A/k
,
d(mm
t
) := dmm
t
+mdm
t
(reordenando en el primer sumando los factores del producto tensorial
para que todo tenga sentido).
Dadas m
i
M
i
y m
t

j
denotemos (m
i
) (m
t

j
) := m m
t

i

j

M M
t

i+j
. Tenemos un morsmo
(M

) (M
t

)

M M
t

w
i
w
j
w
i
w
j
Se cumple que d(w
i
w
j
) = dw
i
w
j
+ (1)
i
w
i
dw
j
. Dado D Der
k
(A, A), sea i
D
: M

, i
D
(m
i
) = m i
D

i
. Obviamente, i
D
(w
i
w
j
) = i
D
w
i
w
j
+ (1)
i
w
i
i
D
w
j
.
Denamos D
L
:= i
D
d +d i
D
, que resulta ser una derivacion, es decir
D
L
(w
i
w
j
) = D
L
w
i
w
j
+w
i
D
L
w
j
Denotaremos D
L
m = i
D
dm =: D

m. Es sencillo comprobar que


D
L
i
D
i
D
D
L
= i
[D,D

]
Dada una 1-forma valorada w M , tenemos que
dw(D
1
, D
2
) = i
D2
(i
D1
dw) = i
D2
(d(w(D
1
)) +D
L
1
w) = D

2
(w(D
1
)) +D

1
(w(D
2
)) w([D
1
, D
2
])
1.10. Calculo valorado 33
2. Denicion : Una conexion en un A-modulo M es una aplicacion Der
k
(A, A) M M, donde
seguimos la notacion (D, m) D

m, cumpliendo
1. (D +D
t
)

m = (D

m) + (D
t

m).
2. (aD)

m = a(D

m).
3. D

(am) = (Da) m+aD

m.
4. D

(m+m
t
) = D

m+D

m
t
.
Para todo a A, m, m
t
M, D, D
t
Der
k
(A, A).
Toda diferencial d: M M
A

A/k
, dene la conexion dada por D

m := i
D
(dm), que cumple
que D

(am) = i
D
(d(am)) = i
D
(m da + adm) = (Da)m + ai
D
dm = (Da)m + aD

m y las demas
propiedades exigidas a las conexiones.
A partir de ahora supondremos que
A/k
es un A-modulo libre nito generado
Der
k
(A, A) es un A-modulo libre nito generado y
A/k
y Der
k
(A, A) son duales entre s. Ademas,
M
A

A/k
= Hom
A
(Der
k
(A, A), M), mw pensado en Hom
A
(Der
k
(A, A), M) es la aplicacion lineal
(mw)(D) := w(D)m.
3. Proposici on : Supongamos que
A/k
es un A-modulo libre nito generado. Existe una corres-
pondencia biunvoca entre conexiones en M y diferenciales de M.
Demostracion. A cada diferencial le hemos asignado ya una conexion lineal. Recprocamente, dada
la conexion sea d(m), tal que dm(D) = D

m.
Si tenemos dos modulos M, N con sendas diferenciales, podemos denir una diferencial en Hom
A
(M, N):
d: Hom
A
(M, N) Hom
A
(M, N)
A/k
= Hom
A
(M, N
A/k
)
d(T)(m) := d(T(m)) (T 1)(dm). Como sabemos esta diferencial extiende a Hom
A
(M, N)

.
Se cumple que dado T Hom
A
(M, N)
n
= Hom
A
(M, N
n
) su diferencial como elemento de
Hom
A
(M, N)

coincide con la diferencial de T pensado como elemento de Hom


A
(M, N
n
).
Un morsmo T : M N de A-modulos diremos que es diferencial si dT = 0, es decir, d T =
T d. Si el morsmo T es diferencial, entonces T : M

M
t

conmuta con d, i
D
, D
L
y
(T T)(w w
t
) = T(w) T(w
t
). El morsmo Hom
A
(M, N) M N, m (m), resulta ser
diferencial. Cuando tengamos una n-forma w
n
valorada en Hom
A
(M, N) y otra m-forma w
m
valorada
en N, entendemos va este morsmo que w
n
w
m
es una n +m-forma valorada en N.
4. Denicion : El morsmo A-lineal d
2
: M M
2
diremos que es el tensor de curvatura.
5. Proposicion : d
2
(m)(D
1
, D
2
) = D

1
D

2
mD

2
D

1
m[D
1
, D
2
]

m.
Demostracion. i
D2
(i
D1
d
2
m) = i
D2
(D
L
1
dmdi
D1
dm) = D
L
1
(i
D2
(dm))dm([D
1
, D
2
])(dD

1
m)(D
2
) =
D

1
D

2
mD

2
D

1
m[D
1
, D
2
]

m.
Si
A/k
es un A-modulo libre nito generado, entonces Hom
A
(M, M
2
) = End
A
M
2
.
Denotare por R End
A
(M)
2
al tensor correspondiente a d
2
. Observemos que R(D
1
, D
2
, m) =
D

1
D

2
mD

2
D

1
m[D
1
, D
2
]

m.
6. Proposicion : Dada w M
i
, entonces
d
2
w = R w
34 Captulo 1.

Algebra Lineal Tensorial
Demostracion. Escribamos w = m
i
. Entonces, d
2
(m
i
) = d(dm
i
+ m d
i
) = d
2
m

i
dmd
i
+dmd
i
+md
2

i
) = d
2
m
i
= R w.
7. Identidad diferencial de Bianchi : dR = 0.
Demostracion. La diferencial del morsmo M
d
2
M
2
es nula ya que el cuadrado
M
d
2
//
d

M
2
d

M
d
2
//
M
3
es conmutativo.
8. Denicion : Una conexion sobre M = Der
k
(A, A) se llama conexion lineal.
Supongamos que
A/k
es un A-modulo libre nito generado y que tenemos una conexion lineal.
Pensemos Id Hom
A
(
A/k
,
A/k
) = Der
k
(A, A) como una 1-forma valorada (no como endomor-
smo). Denotemos d Id = Tor

Der
k
(A, A)
2
y calculemos
Tor

(D
1
, D
2
) = D

1
(Id(D
2
)) D
2
(Id(D
1
)) Id([D
1
, D
2
]) = D

1
D
2
D

2
D
1
[D
1
, D
2
]
Supongamos que es una conexion lineal simetrica, es decir, Tor

= 0. Entonces, 0 = d
2
(Id) =
R Id.
9. Identidad lineal de Bianchi : Si es una conexion lineal simetrica entonces
R Id = 0
Interpretemos esta igualdad: 0 = RId(D
1
, D
2
, D
3
) = (i
D1
(RId))(D
2
, D
3
) = (i
D1
R) Id+R
i
D1
Id)(D
2
, D
3
) = R(D
1
, D
2
)(Id(D
3
)) R(D
1
, D
3
)(Id(D
2
)) +R(D
2
, D
3
)(Id(D
1
)). Luego,
R(D
1
, D
2
)(D
3
) +R(D
3
, D
1
)(D
2
) +R(D
2
, D
3
)(D
1
) = 0
10. Proposicion : Sea una conexion lineal, d: la diferencial denida por y
:
2
el morsmo natural de paso al cociente. Sea d
C
la diferencial de Cartan. Se cumple
que
d d
C
= Tor

Der
k
(A, A)
2
Una conexion lineal es simetrica si y solo si d = d
C
Demostracion. (d(w))(D
1
, D
2
) = D

1
w(D
2
) D

2
w(D
1
) = D
1
(w(D
2
)) w(D

1
D
2
) D
2
(w(D
1
)) +
w(D

2
D
1
). Por la formula de Cartan, d
C
(w)(D
1
, D
2
) = D
1
(w(D
2
)) D
2
(w(D
1
)) w([D
1
, D
2
]). Por
tanto, ( d d
C
)(w, D
1
, D
2
) = Tor

(w, D
1
, D
2
).
Si denimos D

D
t
= D

D
1
2
Tor

(D, D
t
), se tiene que
t
es simetrica.
Consideremos los morsmos canonicos
1
:
2
,
2
: S
2
. Consideremos el
isomorsmo : =
2
S
2
, (w) = (
1
(w),
2
(w)). Dada una conexion lineal simetrica y
el morsmo diferencial d: , tenemos que
1
d = d
C
y
2
d = d
s
, con d
s
(w)(D
1
, D
2
) =
(D

1
w)(D
2
) +(D

2
w)(D
1
). Se cumple que d
s
es k-lineal y d
s
(f w) = (df) w+f d
s
w y diremos que
d
s
es una diferencial simetrica.
1.10. Calculo valorado 35
Dar la conexion lineal simetrica equivale a dar la diferencial simetrica d
s
: S
2
.
Sea d
s
: S
m
S
m+1
, d
s
(w
1
w
m
) :=

i
w
1
w
i1
d
s
w
i
w
m
. Para m = 0 denimos
d
s
= d.
Supongamos que A es una k-algebra lisa, es decir, el morsmo natural S
n

n
/
n+1
es un
isomorsmo, para todo n.
11. Teorema : Los morsmos
(AA)/
n+1
n
A S
n
, a b a (b, db, d
2
s
b/2, . . . , d
n
s
b/n!)
son isomorsmos de A-algebras y los diagramas
0
//

n
/
n+1 //
(AA)/
n+1 //
n

(AA)/
n
//
n1

0
0
//
S
n

//
A S
n

//
A S
n1

//
0
son conmutativos.
Demostracion. Es facil comprobar que
n
es un morsmo de A-algebras. Obviamente
n
(a 1 1 a) =
(0, da, , ..., ), luego,
n
es la identidad sobre
n
/
n+1
. Ahora es facil ver que el diagrama es con-
mutativo y demostrar por induccion que los
n
son isomorsmos.
12. Corolario : El morsmo A/m
n+1
x
k m
x
/m
2
x
m
n
x
/m
n+1
x
,

f
n

i=0
d
i
s
f
i!
(x), es un
isomorsmo de k-algebras.
Se dice que
d
2
s
f
2
(x) es el Hessiano de f en x.
Sea M un A-modulo. Se dice que F : A M es un operador diferencial de orden 0 si F(a) =
a F(1), para todo a A, es decir, si F es un morsmo de A-modulos.
13. Denicion: Una aplicacion k-lineal F : A M se dice que es un operador diferencial de orden
n 1 si

i1,...,ir]j1,...,jnr]=1,...,n]
(1)
r
a
i1
a
ir
F(a
j1
a
jnr
) = 0
para todo a
1
, . . . , a
n
A.
Las derivaciones son operadores diferenciales de orden 1.
14. Proposicion : F : A M es un operador diferencial de orden n > 0 si y solo si [F, a] :=
F a a F es un operador diferencial de orden n 1 para todo a A.
15. Proposicion : Hom
A
(A
k
A/
n+1
, M) = Di
n
k
(A, M).
Tenemos la cadena de inclusiones (en Hom
k
(A, A))
Di
1
k
(A, A) Di
2
k
(A, A) Di
n
k
(A, A)
El dual de la sucesion exacta 0 S
n
(AA)/
n+1
(AA)/
n
0 es
0 Di
n1
k
(A, A) Di
n
k
(A, A)
n
S
n
Der
k
(A, A) 0
Se dice que
n
(F) es el smbolo del operador F.
36 Captulo 1.

Algebra Lineal Tensorial
16. Denicion : Di
k
(A, A) =

i=0
Di
i
k
(A, A).
17. Teorema : S

Der
k
(A, A)

= Di
k
(A, A), (D
1
D
n
)(a) :=
d
n
s
a
n!
(D
1
, . . . , D
n
) y se tiene el
diagrama conmutativo
0
//
n1

i=0
S
i
Der
k
(A, A)

//
n

i=0
S
i
Der
k
(A, A)

//
S
n
Der
k
(A, A)
Id
//
0
0
//
Di
n1
k
(A, A)

//
Di
n
k
(A, A)
//
S
n
Der
k
(A, A)
//
0
Ademas se verica la formula de Leibnitz
(D
1
D
n
)(a b) =

i1,...,ir]j1,...,jnr]=1,...,n]
(D
i1
D
ir
)(a) (D
j1
D
jnr
)(b)
Ahora, Di
k
(A, A) va , tiene estructura de algebra conmutativa graduada:
(D
1
D
n
) (D
t
1
D
t
m
) := (D
1
D
n
D
t
1
D
t
m
)
Sea T
2
una metrica simetrica no singular y denotemos la polaridad tambien por T
2
: Der
k
(A, A)
. Sea d
s
: S
2
, d
s
(w) := T
2
(w)
L
T
2
. Tenemos pues denida una conexion lineal simetrica en
Der
k
(A, A), denominada conexion de Levi-Civita asociada a T
2
.
Captulo 2
Calculo Tensorial en Geometra
Diferencial
2.1 Desarrollo de Taylor
El teorema de Bolzano arma que si f es una funcion continua en [a, b] tal que f(a) > 0 y f(b) < 0
(o al reves) entonces existe un (a, b) tal que f() = 0 (la se obtiene por el metodo de biseccion).
Si f
t
(c) > 0 para un c (a, b), entonces existe un
c
> 0 de modo que f(c + t) > f(c) y
f(c) > f(c t), para todo 0 t <
c
. Si f
t
> 0 en (a, b) entonces f es creciente en (a, b). Como
consecuencia se obtiene el teorema de Rolle que dice que si f es una funcion continua en [a, b], derivable
en (a, b) y f(a) = f(b), entonces existe c (a, b) tal que f
t
(c) = 0: Si f
t
> 0 en (a, b) entonces f sera
creciente y f(a) < f(b), si f
t
< 0 en (a, b) entonces f sera decreciente y f(a) > f(b). Por tanto, f
t
es
negativa en alg un punto y positiva en alg un otro, por Bolzano f
t
se anula en alg un punto intermedio.
Recordemos el Teorema del valor medio: si f(x), g(x) son funciones derivables en (a, b) y continuas
en [a, b], dados a < b existe (a, b) tal que (f(b) f(a))g
t
() (g(b) g(a))f
t
() = 0 (si g
t
() ,= 0
y g(b) g(a) ,= 0, habramos escrito (f(b) f(a))/(g(b) g(a)) = f
t
()/g
t
()): Sea H(x) = (f(b)
f(a))g(x) (g(b) g(a))f(x), como H(a) = H(b), entonces existe un (a, b) tal que H
t
() = 0.
En particular, si f
t
(x) existe para todo x ,= a y existe lim
xa
f
t
(x), entonces f
t
(a) existe y coincide
con este lmite : f
t
(a) = lim
xa
f(x)f(a)
xa
= lim
xa
f
t
() = lim
xa
f
t
(x).
Lema de LHopital: Si F, G son funciones diferenciables tales que F(0) = G(0) = 0, G
t
no se
anule en un entorno de 0 (salvo quizas en 0), y lim
x0
F

(x)
G

(x)
existe, entonces por el Teorema del valor
medio lim
x0
F(x)
G(x)
= lim
x0
F

(x)
G

(x)
.
Sea C
n
(U) el anillo de las funciones n veces derivables de derivadas continuas en un abierto
0 U R.
1. Lema fundamental: Dada f(x) C
n
(U), si f(0) = 0, entonces existe h(x) C
n1
(U), tal que
f(x) = x h(x).
1
Demostracion. Demos una demostracion con el mnimo de conocimientos de Analisis de Funciones.
La funcion, h(x) =
f(x)
x
(donde h(0) := f
t
(0)) es una funcion continua, que tenemos que probar que
1
Hay una demostracion maravillosa de este teorema, pero que hace uso de ciertos resultados de Analisis: Derivemos
e integremos y saquemos algo! f(x) = f(x) f(0) =

1
0

t
f(tx) dt =

1
0
f

(tx) x dt = x

1
0
f

(tx)dt
37
38 Captulo 2. Calculo Tensorial en Geometra Diferencial
pertenece a C
n1
(U).
Considerando en vez de f, f
n

i=1
a
i
x
i
, con a
i
=
1
i!
f
i)
(0), podemos suponer que f(0) = f
t
(0) =
. . . = f
n)
(0) = 0.
Tenemos que probar que h
t
= f
t
/x f/x
2
C
n2
(U). Por induccion sobre n, podemos suponer
que f
t
/x C
n2
(U). Tenemos que probar que f/x
2
C
n2
(U). Probemos que si f(0) = f
t
(0) =
. . . = f
n)
(0) = 0 entonces f/x
2
C
n2
(U). Observemos que f/x
2
es continua pues por LHopital
lim
x0
f/x
2
= f
tt
(0)/2. Tenemos que probar que (f/x
2
)
t
= f
t
/x
2
f/2x
3
C
n3
(U). Por induc-
cion sobre n, podemos suponer que f
t
/x
2
C
n3
(U). Tenemos que probar que f/x
3
C
n3
(U).
Argumentando as sucesivamente llegaremos a que tenemos que probar que f/x
n
C
0
(U), lo cual es
cierto porque aplicando LHopital sucesivamente tenemos que lim
x0
f/x
n
= f
n)
(0)/n!.
2. Corolario : Si f(x) C

(U) cumple que f(0) = 0, entonces existe h(x) C

(U) tal que


f(x) = h(x) x. Entonces, por cambio de variable x = x , tendremos que si U y f() = 0
entonces existe h(x) C

(U) de modo que f(x) = h(x) (x ).


As dada f(x) C
n
(U), entonces f(x) f() = g(x) (x ) con g(x) C
n1
(U). Luego
f(x) = f() +(x) g(x). Repitiendo el argumento con g(x), tendremos que f(x) = f() +(x)
(g() +(x) h(x)) = f() +g()(x) +h(x)(x)
2
, (con h(x) C
n2
(U)). As sucesivamente,
tendremos que
f(x) = a
0
+a
1
(x ) + +a
n1
(x )
n1
+z(x) (x )
n
a
i
R, z(x) C
0
(U). Ademas, a
i
= lim
x
f(x)
i1

j=0
aj(x)
j
(x)
i
=
f
(i
()
i!
.
Ahora en varias variables.
3. Denicion : Se dice que una funcion real f denida en un entorno de un punto R
n
es
diferenciable en si existe una matriz A = (a
1
, . . . , a
n
) de modo que
lim
x
f(x) f() A (x )
t
[[x [[
= 0
Observemos que en tal caso, tomando x = (x
1
+h,
2
, . . . ,
n
) tenemos que
0 = lim
h0
f(
1
+h,
2
, . . . ,
n
) f() A (h, 0, . . . , 0)
t
[h[
= lim
h0
f(
1
+h,
2
, . . . ,
n
) f() a
1
h
[h[
Luego, lim
h0
f(1+h,2,...,n)f()a1h
h
= 0 y a
1
=
f
x1
(). Igualmente, a
i
=
f
xi
(). Si las de-
rivadas parciales existen en un entorno de y son continuas entonces f es derivable, con A =
(
f
x1
(), . . . ,
f
xn
()):
lim
x
f(x)f()

i
ai(xii)
]]x]]
= lim
x
f(x)f(a1,x2,...,xn)+f(a1,x2,...,xn)f()

i
ai(xii)
]]x]]
= lim
x
(fx
1
(,x2,...,xn)a1)(x11)+f(1,x2,...,xn)f()

i>1
ai(xii)
]]x]]
= lim
x
(fx
1
(,x2,...,xn)a1)(x11)
]]x]]
+ lim
x
f(1,x2,...,xn)f()

i>1
ai(xii)
]]x]]
que es igual a cero, por induccion sobre n (observando que [[(x )[[ es mayor que [x
1

1
[ y que
[[(x
2
, . . . , x
n
) (
2
, . . . ,
n
)[[).
2.2. Espacio tangente en un punto 39
Es obvio que si f es derivable en entonces es continua en . Se dice que f es de clase r en un
abierto si

r
f

m
1
x1
mnxn
son continuas en el abierto para todo m
1
+ +m
n
= r.
Sea U un entorno abierto de y f C
2
(U). Se verica que

2
f
yx
() =

2
f
xy
(): Por cambio
de variable podemos suponer que = (0, 0). Sustituyendo f(x, y), por f(x, y) f(0, y), podemos
suponer que f(0, y) = 0.
f
xy
(0, 0) =

y
( lim
x0
f(x, y)
x
)(y = 0) = lim
y0
lim
x0
f(x,y)
x
lim
x0
f(x,0)
x
y
= lim
y0
lim
x0
f(x,y)f(x,0)
x
y
= lim
y0
lim
x0
f
y
(x, ) y
xy
= f
yx
(0, 0)
Por simplicar notaciones supongamos que = 0. De nuevo, dada f(x, y) C
n
(U) si f(0, y) = 0
entonces
f
x
C
n1
(U). As, dada f C
n
(U), tendremos que f(x, y) = f(0, y) + x g(x, y), con
g(x, y) C
n1
(U). Por tanto, si f(0, 0) = 0, entonces f(0, y) = y h(y), con h(y) C
n1
(U), en
conclusion f(x, y) = x h
1
+yh
2
, con h
1
, h
2
C
n1
(U).
4. Proposicion : Sea U R
m
un abierto y f(x
1
, . . . , x
m
) C
n
(U). Si f() = 0, entonces
f =

i
h
i
(x
i

i
) con h
i
C
n1
(U).
5. Corolario : Dada f(x
1
, . . . , x
m
) C
n
(U) y b U entonces
f = (

]]<r
a

(x b)

) +

]]=r
h

(x b)

donde h

C
nr
(U) y a

=
1
!


||
f

1x1
nxn
(b).
2.2 Espacio tangente en un punto
Sea U R
m
un abierto.
1. Corolario : El ideal m

(U) de todas las funciones que se anulan en U esta generado


por x
1

1
, . . . , x
m

m
, es decir,
m

= (x
1

1
, . . . , x
m

m
)
2. Corolario : Una base de m

/m
2

es d

x
1
= x
1

1
, . . . , d

x
m
= x
m

m
.
Por el teorema 1.8.8 se tiene que Der
R
((

(U), R) = Hom
R
(m

/m
2

, R) =: (m

/m
2

. Explci-
tamente, dada D Der
R
((

(U), R) y d

f entonces D(d

f) = Df. Denotemos por D =

i
(

xi
)

la derivacion denida por Df :=



i

i
f
xi
(). La base dual de d

x
1
, . . . , d

x
m
es
(

x1
)

, . . . , (

xm
)

.
Geometricamente, la derivacion

i
(

xi
)

se interpreta como el vector (


1
, . . . ,
n
) en el punto
U y se dice que Der
R
((

(U), R) = (m

/m
2

es el espacio tangente (intrnseco) a U R


m
en
. Se dice que m

/m
2

es el espacio cotangente (intrnseco) a R


m
en . As,

i
d

x
i
se interpreta
como el plano de R
m
que pasa por de ecuaciones

1
(x
1

1
) + +
m
(x
m

m
) = 0
Dada f (

(R
m
) entonces f = f() +

i
f
xi
()(x
i

i
) +

ij
f
ij
(x)(x
i

i
) (x
j
). El plano
tangente a la supercie de U, f f() = 0, en es claramente

i
f
xi
()(x
i

i
) = 0, es decir, el
plano correspondiente a d

f m

/m
2

.
40 Captulo 2. Calculo Tensorial en Geometra Diferencial
Sean U R
m
, V R
n
sendos abiertos.
3. Denicion : Una aplicacion F : U V se dice que es diferenciable en U si existe una matriz
F
t
() = (a
ij
) de m-columnas y n-las tal que
lim
x
[[F(x) F() F
t
() (x )
t
[[
[[x [[
= 0
Es facil ver que F = (f
1
, . . . , f
n
) es diferenciable si y solo si f
1
, . . . , f
n
son diferenciables y que
A = (
fi
xj
()).
Desarrollando por Taylor, tenemos que F(x) = F()+F
t
()(x)
t
+

ij
G
ij
(x)(x
i

i
)(x
j

j
).
Consideremos la recta + tv, t R que pasa por y de vector director v, entonces F( + tv) =
F() +F
t
()(tv) +t
2
H(t, v). Para t peque no F( +tv) es aproximadamente F() +F
t
()(tv). Es
decir, F aplica el vector innitesimal tv, de origen , en el vector innitesimal F
t
()(tv) de origen
F().
R
2
F
a
v
F'(a)(v)
F(a)
Por otra parte, el morsmo F induce en los anillos el morsmo de anillos F

: (

(V ) (

(U),
F

(g) := g F y por tanto el morsmo m


F()
m

, g (g F). En conclusion, tenemos el morsmo


(intrnseco)
F

: m
F()
/m
2
F()
m

/m
2

, d
F()
g d

(g F)
F

(d
F()
x
i
) = d

(x
i
F) =

j
fi
xj
() d

x
j
. Por tanto, la matriz del morsmo F

: m
F()
/m
2
F()

m

/m
2

es (
fi
xj
()). Tomando duales tenemos la aplicacion lineal tangente en asociada a F
(intrnseca)
F

: (m

/m

= Der
R
((

(U), R) Der
R
((

(V ), R) = (m
F()
/m
2
F()
)

que aplica (como puede comprobarse) cada derivacion D en F

(D) denida por F

(D)(g) = D(F

(g)) =
D(g F). Directamente, o por dualidad, tenemos que la matriz de F

es F
t
() = (
fi
xj
()). Geo-
metricamente, F

aplica en el vector tangente v = (


1
, . . . ,
n
) en en el vector tangente en F(),
F
t
() v.
2.3 Derivaciones. Modulo de diferenciales
Sea U R
m
un abierto y =
c

(U)/R
. Dada w deseara que cumpliera la propiedad de que
si w() = w /m

es nulo para todo entonces w = 0 y que esta propiedad se mantuviera al


tomar la diferencial.
2.3. Derivaciones. Modulo de diferenciales 41
Sea M un (

(U)-modulo. Denotemos Nul(M) =


U,n>0
m
n

M y

M = M/ Nul(M). Se cumple
que

M =

M. Tambien es claro que

C

(U) = C

(U).
1. Teorema : Sea M tal que Nul(M) = 0 (por ejemplo si M es un modulo libre). Entonces,
Der
R
((

(U), M) = M

x
1

m
. . . M

x
m
Demostracion. Asignemos a cada derivacion D Der
R
((

(U), M),

i
(Dx
i
)

xi
.
Veamos que esta asignacion es inyectiva: Tenemos que ver que si Dx
i
= 0, para todo i, entonces
D = 0. Sobre los polinomios p(x
1
, . . . , x
m
) es facil ver que D(p(x
1
, . . . , x
n
)) =

i
p(x1,...,xm)
xi
D(x
i
)
(argumentando por induccion sobre el grado del polinomio). Es claro que D(m
n

) m
n1

M. Toda
f C

(U) es igual a un polinomio p de grado n modulo m


n

, f = p + g, g m
n

. Por tanto,
D(f) = D(p) +D(g) = 0 +D(g) m
n1

M, para todo n y , luego D(f) = 0 y D = 0.


La asignacion es obviamente epiyectiva, porque

i
m
i

xi
es la imagen de la derivacion D denida
por D(p) :=

i
p
xi
m
i
.
Por tanto, si Nul M = 0 entonces toda D Der
R
((

(U), M) es D =

i
Dx
i


xi
.
2. Teorema :

(U)/R
= C

(U) dx
1
C

(U) dx
n
Demostracion.
Hom
C

(U,R
(

(U)
, M) = Hom
C

(U)
(
C

(U)/R
, M) = Der
R
(C

(U), M)
= M

x1
M

xn
= Hom
C

(U)
(C

(U)dx
1
C

(U)dx
n
, M)
Por tanto,

(U)/R
=
1i1<<inm
(

(U) dx
i1
dx
in
3. Notacion : A partir de ahora escribiremos
U
=

(U)/R
y
r
U
=
r

U
.
Observemos que
U
() =
c

(U)/R
() = m

/m
2

. En general el morsmo

r
U
()
r
(m

/m
2

), df
1
df
r
d

f
1
d

f
r
es un isomorsmo.
Todo morsmo de k-algebras f : A B induce el morsmo
A/k

B/k
, adb f(a)df(b). Sean
U R
m
, V R
N
sendos abiertos. Dado un morsmo F : U V diferenciable, tenemos el morsmo
de anillos F

: (

(V ) (

(U), F

(g) = g F, que induce el morsmo


F

:
V

U
, F

(gdh) = (g F)d(h F)
que induce el morsmo m
F()
/m
2
F()
=
R
m(F())
R
n() = m

/m
2

, ya conocido. Tomando
algebras exteriores tenemos un morsmo natural F

:
r
V

r
U
4. Lema de Poincare : Una r-forma diferenciable w
r

r
R
n es cerrada, es decir, cumple que
dw
r
= 0 si y solo si es exacta, es decir, existe una r 1-forma diferenciable w
r1

r1
R
n tal que
w
r
= dw
r1
.
42 Captulo 2. Calculo Tensorial en Geometra Diferencial
Demostracion. Consideremos el grupo uniparametrico : R R
n
R
n
, ((t, x)) = e
t
x, cuya
derivacion asociada es D =

i
x
i


xi
. Sea
t
(x) = (t, x) y denotemos

t
w
r
=: w
r
(t). Se cumple
que w
r
(t)
t
= (D
L
w
r
)(t). Entonces
w
r
= w
r
(0) w
r
() =
_
0

w
r
(t)
t
dt =
_
0

(D
L
w
r
)(t) dt =
_
0

(i
D
d +d i
D
)w
r
(t) dt
=
_
0

d i
D
w
r
(t) dt = d
_
0

i
D
w
r
(t) dt = dw
r1
2.4 Variedades diferenciables. Haces
1. Denicion : Sean f
1
, . . . , f
n
(
n
(U), U R
n
abierto. Se dice que f
1
, . . . , f
n
es un sistema de
coordenadas en U, si la aplicacion
F : U R
n
, F(x) := (f
1
(x), . . . , f
n
(x))
cumple que F(U) = V es un abierto, F establece un homeomorsmo entre U y V , y la aplicacion
inversa de F es diferenciable de clase n, es decir, F es un difeomorsmo de clase n.
En tal caso, el morsmo de anillos F

: (
n
(V ) (
n
(U), F

(g) = g F es un isomorsmo,
luego para cada funcion diferenciable g en U existe una ( unica) funcion diferenciable h(y
1
, . . . , y
n
)
(
n
(V ) de modo que g(x) = h(f
1
(x), . . . , f
n
(x)) (las funciones diferenciables en U son las funciones
diferenciables en las coordenadas f
1
, . . . , f
n
).
2. Denicion : Se dice que f
1
, . . . , f
n
son un sistema de coordenadas en un punto x, si existe un
entorno de x en el que f
1
, . . . , f
n
son un sistema de coordenadas.
Dado F = (f
1
, . . . , f
n
) denotemos por F
t
= (
fi
xj
).
3. Teorema de la funcion inversa: Sean U, V sendos abiertos de R
n
y F : U V un morsmo
de clase n. Dado U, si det(F
t
()) ,= 0, entonces F es un difeomorsmo de clase n en un entorno
de .
Con otras palabras, si f
1
, . . . , f
n
son funciones diferenciables de clase n en un entorno de R
n
.
Entonces, f
1
, . . . , f
n
es un sistema de coordenadas en si y solo si d

f
1
, . . . , d

f
n
son linealmente
independientes, es decir, det(
fi
xj
())) ,= 0.
Demostracion. Sin perdida de generalidad podemos suponer que = 0.
1. Probemos que la aplicacion F = (f
1
, . . . , f
n
): U R
n
en un entorno abierto peque no
U de (0) es inyectiva: Tenemos que f
i
(x) f
i
(y) =

j
H
ij
(x, y) (x
j
y
j
), pues en general si
g(x
1
, . . . , x
r
, 0, . . . , 0) = 0 para todo x
1
, . . . , x
r
entonces g =

j
g
r+j
x
r+j
. Escribamos de forma
reducida F(x) F(y) = H(x, y) (x y), donde H(x, y) es la matriz (H
ij
(x, y)) y (x y) el vector
(x
1
y
1
, . . . , x
n
y
n
). Observemos que H(0, 0) = (
fi
xj
(0)). Consideremos un entorno V de 0, de
modo que para todo (x, y) V V , det(H(x, y)) ,= 0. Si 0 = F(x) F(y) = H(x, y) (x y), para
alg un (x, y) V V , entonces x y = 0 y x = y.
2. F(U) es un entorno de F(0): Reduciendo U, podemos suponer que F es inyectiva en U y
que det(F
t
(x)) ,= 0 para todo x U. Sea B una bola centrada en el origen, tal que su cierre este
incluido en U, y sea S
n
el borde. Por ser F inyectiva F(S
n
) no contiene a F(0). Sea m = nmo
2.4. Variedades diferenciables. Haces 43
d(0, F(s)) [ s S
n
que es mayor estricto que cero porque d(0, F(S
n
)) es un compacto (imagen de
compacto) de R
+
que no contiene a 0. Sea B
t
una bola centrada en F(0) de radio m/2. Basta que
probemos que B
t
F(B).
Sea y B
t
y g(x) := d(F(x), y) que la denimos sobre

B. La funcion continua g alcanza un mnimo
sobre

B, que no yace en S
n
, puesto que d(F(s), y) +m/2 d(F(s), y) +d(F(0), y) d(F(0), F(s))
m, luego d(F(s), y) m/2 d(F(0), y). As pues, la funcion, g
2
= (F(x) y) (F(x) y) alcanza un
mnimo en B. Si c B es tal que g
2
(c) es mnimo, entonces 0 = (g
2
)
t
(c) = 2(F(c) y) F
t
(c). Por
tanto, F(c) = y y B
t
F(B).
3. La aplicacion F : F
1
(B
t
) B
t
es un homeomorsmo: Es biyectiva y continua. Dado un
cerrado C F
1
(B
t
) B, tenemos que F(C) = F(

C) B
t
es un cerrado porque

C es compacto,
luego F(

C) es un cerrado. En conclusion, F es homeomorsmo.
4. Aconsejamos al lector que rescriba este apartado suponiendo n = 1, luego F = f(x) es una
funcion real en una sola variable.
Supongamos ya que tenemos un homeomorsmo F : U V . Reduciendo U, podemos suponer
que

U y

V son compactos, que F :

U

V es homeomorsmo. Recordemos que F(x
t
) F(x) =
H(x, x
t
) (x
t
x). Podemos suponer tambien, que det(H(x, x
t
)) ,= 0 y
2
[[H(x, x
t
)
1
[[ m (para
cierto m > 0) para todo x, x
t
U. En particular, [[(H(x, x)
1
= (F
t
(x))
1
[[ m.
Veamos que G = F
1
es diferenciable de clase n.
Dado y = F(x), probemos que la matriz (F
t
(x))
1
cumple que lim
y

y
]]G(y

)G(y)(F

(x))
1
h]]
]]y

y]]
= 0.
Sea x
t
tal que F(x
t
) = y
t
, entonces
lim
y

y
]]G(y

)G(y)(F

(x))
1
(y

y)]]
]]y

y]]
= lim
x

x
]]G(F(x

))G(F(x))(F

(x))
1
(F(x

)F(x))]]
]]F(x

)F(x)]]
= lim
x

x
]](x

x)(F

(x))
1
(F(x

)F(x))]]
]]F(x

)F(x)]]
= lim
x

x
]](F

(x))
1
[(F

(x))(x

x)(F(x

)F(x))]]]
]]F(x

)F(x)]]
m lim
x

x
]](F

(x))(x

x)(F(x

)F(x))]]
]]F(x

)F(x)]]
= m lim
x

x
]](F

(x))(x

x)(F(x

)F(x))]]
]]x

x]]

]]x

x]]
]]F(x

)F(x)]]
m
2
lim
x

x
]](F

(x))(x

x)(F(x

)F(x))]]
]]x

x]]
= 0
Por tanto, G
t
(y) = (F
t
(x))
1
y G es derivable. Como G
t
(y) := (F
t
(x))
1
= (F
t
(G(y)))
1
es
continua G es C
1
G
t
(y) es C
1
G(y) es C
2
, etc.
Veamos que la esfera unidad S
2
x
2
+y
2
+z
2
= 1 localmente es difeomorfa a abiertos de R
2
:
Sea = (
1
,
2
,
3
) S
2
, supongamos
1
,= 0. Las funciones f
1
= x
2
+ y
2
+ z
2
1, f
2
= y, f
3
= z
forman un sistema de coordenadas en , por el teorema de la funcion inversa. Existe un entorno abierto
U R
3
de , y un abierto V R
3
de modo que la aplicacion F : U V , F(x) = (f
1
(x), f
2
(x), f
3
(x)))
es un homeomorsmo. Va F, U S
2
es homeomorfo a V (0R
2
) = 0V
t
, (para el correspondiente
abierto V
t
R
2
). Tenemos pues el homeomorsmo
U S
2
V
t
, x (f
2
(x), f
3
(x))
Se dice que la restriccion de f
2
y f
3
a U S
2
es un sistema de coordenadas en U S
2
.
4. Denicion: Un cerrado Y R
n
se dice que es una subvariedad diferenciable de dimension m de
R
n
, si para cada punto y Y existe un sistema de coordenadas f
1
, . . . , f
n
de en un entorno U R
n
en y, de modo que U Y = x U tales que f
1
(x) = . . . = f
nm
(x) = 0.
2
Dada una aplicacion lineal T : R
n
R
n
, se dene ||T|| := sup{||T(e)||, para todo e R
n
tal que ||e|| = 1}
44 Captulo 2. Calculo Tensorial en Geometra Diferencial
5. Denicion : Sea Y R
n
un cerrado. Se dice que una funcion f : Y R es diferenciable si
para cada y Y existe un entorno abierto U R
n
de y y una funcion F (

(U) de modo que


F
]Y U
= f
]Y U
.
6. Proposicion: Toda funcion diferenciable sobre un subespacio cerrado Y R
n
es la restriccion a
dicho cerrado de una funcion diferenciable de R
n
. Es decir,
(

(Y ) = (

(R
n
)/I
donde (

(Y ) es el anillo de funciones diferenciables de Y e I es el ideal de las funciones diferenciables


de R
n
que se anulan en Y .
Demostracion. Sea f : Y R una funcion diferenciable. Existen abiertos U
i
y funciones f
i

(

(U
i
) de modo que U
i
Y recubren Y y f
]UiY
) = f
]UiY
.
Sea
i
, una particion de la unidad subordinada al recubrimiento U
i
, R
n
Y . Prolongando
por 0 el producto
i
f
i
en el complementario de U
i
, se obtiene una funcion diferenciable y la familia
de soportes de tales funciones es localmente nita. Luego, la suma F =

i

i
f
i
es una funcion
diferenciable en R
n
. La restriccion de F a Y es f, pues dado y Y
F(y) =

i
(y)f
i
(y) =

i
(y)f(y) = f(y)
7. Denicion : Se dene variedad diferenciable como las subvariedades diferenciables de los R
n
.
Puede darse una denicion en principio mas general de variedad diferenciable (el teorema de Whit-
ney arma que es equivalente a la anterior): Un espacio topologico X se dice que es una variedad
diferenciable de dimension m si existe un recubrimiento por abiertos U
i
de X y homeomorsmos

i
: U
i
V
i
(V
i
abierto de R
m
) de modo que los homeomorsmos (de cambio de sistema de coorde-
nadas)

j

1
j
:
i
(U
i
U
j
)
j
(U
i
U
j
)
son aplicaciones diferenciables (entre abiertos de R
m
).
El lector, al pensar en la variedad X, debe identicar U
i
con V
i
. Debe pensar que un espacio
topologico X es una variedad diferenciable si y solo si localmente es difeomorfo a abiertos de R
n
.
Una aplicacion continua f : X R se dice que es diferenciable si localmente lo es, es decir, con
rigor, f se dice que es diferenciable si las composiciones
V
i

1
i
U
i
f
|U
i
R
son diferenciables. Una aplicacion continua entre variedades diferenciables f : X X
t
se dice que es
diferenciable si localmente lo es, es decir, las composiciones

i
(U
i
f
1
(U
t
j
))

1
i
U
i
f
1
(U
t
j
)
f
U
t
j

j
V
t
j
son diferenciables. Resulta que f es diferenciable si y solo si para toda funcion diferenciable g : X
t
R,
entonces g f : X R es diferenciable.
Veamos la estructura de haz de Der
X
:
Dada una derivacion D Der
X
y f (

(X) si f es nula en un entorno abierto U de un punto


X entonces Df tambien es nula en dicho entorno: Basta ver que (Df)() = 0. Sea h (

(X)
2.4. Variedades diferenciables. Haces 45
nula en X U e igual a 1 en un entorno de . Entonces 0 = h f y 0 = f Dh + h Df, luego
0 = f() (Dh)() + h() (Df)() = (Df)(). Por tanto, si f = g en un entorno de entonces
D(f) = D(g) en ese entorno. Tenemos un morsmo natural
Der
X
Der
U
, D D
]U
donde (D
]U
f)() := D(F)(), siendo F (

(X) cualquier funcion que es igual a f en un entorno


abierto de .
1. Si U
i
es un recubrimiento por abiertos de X y D
]Ui
= 0 para todo i entonces D = 0, pues
(Df)
]Ui
= D
]Ui
f
]Ui
= 0, para todo i, luego Df = 0 y D = 0. Por tanto, D = D
t
si y solo si
D
]Ui
= D
t
]Ui
para todo i.
2. Por otra parte, si tenemos para cada i, una derivaci on D
i
Der
Ui
de modo que (D
i
)
]UiUj
=
(D
j
)
]UiUj
, para todo i, j, entonces podemos denir una D Der
X
, tal que D
]Ui
= D
i
, para todo i:
D(f) se dene como la funcion que cumple que (Df)
]Ui
= D
i
f
]Ui
.
Las propiedades 1. y 2. se expresan diciendo que Der
X
es un haz. Por ejemplo, (

(X) tambien
es un haz. Igualmente Der

X
es un haz (el (

(X)-modulo de las aplicaciones n-multilineales es un


haz):
Dado w Der

X
y D Der
X
, si D
]U
= 0 entonces w(D)
]U
= 0. En efecto, dada U basta
probar que w(D)() = 0. Sea h nula en X U e igual a 1 en un entorno de ). Entonces 0 = h D y
0 = w(h D) = h w(D), luego 0 = h() w(D)() = w(D)(). Por tanto si D = D
t
en un entorno
abierto de entonces w(D) = w(D
t
) en dicho entorno. Tenemos un morsmo natural
Der

X
Der

U
, w w
]U
donde (w
]U
(D))() := w(

D)(), donde

D Der
X
es cualquier derivacion que coincide con D en un
entorno de .
1. Si U
i
es un recubrimiento por abiertos de X y w
]Ui
= 0 para todo i entonces w = 0, pues para
todo D, (w(D))
]Ui
= w
]Ui
(D
]Ui
) = 0, para todo i, luego w(D) = 0 y w = 0. Por tanto, w = w
t
si y
solo si w
]Ui
= w
t
]Ui
para todo i.
2. Por otra parte, si tenemos para cada i, una w
i
Der

Ui
de modo que (w
i
)
]UiUj
= (w
j
)
]UiUj
,
para todo i, j, entonces podemos denir una w Der

X
, tal que w
]Ui
= w
i
, para todo i: w(D) se
dene como la funcion que cumple que (w(D))
]Ui
= w
i
(D
]Ui
).
Sea m
x
C

(X) el ideal de funciones de X que se anulan en x y m


t
x
C

(U) el ideal de
funciones de U que se anulan en x. El morsmo natural : m
x
/m
2
x
m
t
x
/m
t
2
x
, (

f) = f
]U
es un
isomorsmo: sea h (

(X) igual a 1 en un entorno abierto de x y nula en un entorno de X U,


entonces el morsmo m
t
x
/m
t
2
x
m
x
/m
2
x
,

f hf es el morsmo inverso.
Dada una 1-forma diferencial w
X
, si 0 = w(x) = w
X
(x) = m
x
/m
2
x
, para todo x X,
entonces w Nul(
X
) = 0. Sea U
i
un recubrimiento por abiertos de X, si w
]Ui
= 0 para todo i,
entonces w(x) = 0 para todo x X y w = 0. () Por tanto, si w
]Ui
= w
t
]Ui
para todo i, entonces
w = w
t
.
Consideremos X como subvariedad cerrada de un R
n
.
X
es cociente del (

(R
n
)-modulo
R
n, que
esta generado por dx
1
, . . . , dx
n
, por tanto,
X
es un (

(X)-modulo generado por dx


1]X
, . . . , dx
n]X
,
luego es nito generado.
Sea dimX = r. Dadas w
1
, . . . , w
r

X
sea U = y Y tales que w
i
(y) = w
i

X
(y) =
m
y
/m
2
y
sea una base de m
y
/m
2
y
. Se cumple que U es un abierto de X y que
U
es un (

(U)-
modulo libre de base w
i]U
:
Sea y
1
, . . . , y
r
un sistema de coordenadas en un entorno abierto V
y
de y. Tendremos que w
i
= f
ij
dy
j
(en tal entorno V
y
). Entonces w
i
(y) es una base de m
y
/m
2
y
si y solo si det(f
ij
(y)) ,= 0. Es claro que
46 Captulo 2. Calculo Tensorial en Geometra Diferencial
U es un abierto. Ademas, en V
y
podemos despejar las dy
j
en funcion de los w
i
y es facil probar que
en V
y
las w
i
son base. Por tanto, dada w
U
, tendremos que w
]Vy
=

i
g
i
w
i
, para g
i
(

(V
y
)
unicas. Por ser (

(U) un haz, existen G


i
(

(U) unicas de modo que w =



i
G
i
w
i]U
, lo que
muestra que w
i]U
son una base.
8. Lema : Sea : M N un epimorsmo de A-modulos. Si s: N M es una seccion de , es
decir, s = Id, entonces M Ker N.
Demostracion. El morsmo N Ker M, (n, n
t
) s(n) + n
t
es un isomorsmo: Es inyectiva,
porque si s(n) + n
t
= 0, aplicando tenemos que n = 0 y por tanto n
t
= 0. Es epiyectiva, porque
dado m, tenemos que ms((m)) Ker y m = s((m)) + (ms((m))).
Si M = M
t
M
tt
y M es un A-modulo nito generado entonces M
t
es un A-modulo nito generado:
Consideremos la inclusion M
tt
M, m
tt
(0, m
tt
) y denotemos la imagen de esta inclusion M
tt
. El
morsmo M
t
M/M
tt
, m
t
(m
t
, 0) es un isomorsmo. M/M
tt
es nito generado porque lo es M,
entonces M
t
es nito generado.
9. Denicion: Se dice que un A-modulo P es proyectivo si es sumando directo de un A-modulo
libre.
Si P es un A-modulo proyectivo entonces tenemos un isomorsmo P P
t
= A
n
. En tal caso
el epimorsmo A
n
P, (p, p
t
) p, tiene seccion (p (p, 0)). Recprocamente si un epimorsmo
: A
n
P tiene seccion entonces P es proyectivo porque A
n
= P Ker .
10. Proposicion :
X
es un es un (

(X)-modulo nito generado proyectivo.


Demostracion. Consideremos de nuevo el epimorsmo : (

(X) dx
1
(

(X) dx
n

X
.
Dado = i
1
, . . . , i
r
1, . . . , n sea U

= y X [ d
y
x
i1
, . . . , d
y
x
ir
sea una base de m
y
/m
2
y
. Sea

una particion de la unidad subordinada al recubrimiento de X, U

#=r
. Sea s

la composicion
de los morsmos

X

U
= (

(U

) dx
i1
(

(U

) dx
ir

(X) dx
i1
(

(X) dx
ir
se tiene que s =

es una seccion del epimorsmo .


Como Nul((

(X)) = 0 todo submodulo M de un (

(X)-modulo libre cumple que Nul(M) = 0.


El producto tensorial de modulos proyectivos es proyectivo: si P P
t
= A
n
, QQ
t
= A
m
entonces
A
nm
= A
n

A
A
m
= (P P
t
)
A
(QQ
t
) = (P Q) (P Q
t
) (P
t
Q) (P
t
Q
t
), luego P P
t
es proyectivo.
Si P es proyectivo entonces P

es proyectivo, pues si P P
t
= A
n
entonces P

P
t

= (P P
t
)

=
(A
n
)

= A
n
. Si P es un A-modulo proyectivo nito generado entonces P = P

, como se deduce del


diagrama conmutativo
P P
t

A
n
(P P)

= P

P
t

(A
n
)

Igualmente, si P es un A-modulo proyectivo nito generado P

A
M = Hom
A
(P, M).
Si P es proyectivo entonces
r
P es proyectivo: Si la composicion de dos morsmos de A-modulos
P
s
A
n

P es el morsmo identidad, entonces la composicion
r
P
r
A
n
= A
(
n
r
)

r
P es la
identidad.
2.5. Anillo de funciones diferenciables 47
En conclusion,
r

X
=:
r
X
y

X
= Der
X
, etc., son (

(X)-modulos nito generados proyecti-


vos, Nul(
r
X
) = Nul(Der
X
) = 0, Der

X
=

X
=
X
, etc.
Con los mismos argumentos que para
X
Todas las proposiciones de las secciones 1.9 y 1.10 son igualmente validas sustituyendo A por
(

(X) y
i
por
i
X
.
2.5 Anillo de funciones diferenciables
Sea (X, d) un espacio metrico. Si F : R
+
R
+
es una funcion estrictamente creciente y de crecimiento
cada vez mas peque no (F
t
> 0 y F
tt
0) y F(0) = 0 entonces d
t
= F d es una distancia y (X, d
t
)
es homeomorfo a (X, d). Consideremos F =
x
1+x
, en este caso d
t
(p, q) =
d(p,q)
1+d(p,q)
y d
t
(p, q) < 1 para
todo p, q X.
Sean ahora dos distancias d
1
, d
2
en X y consideremos en X la topologa menos na que contenga
a las topologas denidas por d
1
y d
2
, que es justamente la topologa denida por d
1
+ d
2
. Como
la topologa denida por una distancia d es la misma que la denida por d, > 0, entonces la
topologa denida por d
1
+d
2
es la misma que la denida por
1
d
1
+
2
d
2
,
1
,
2
> 0.
Sea ahora un conjunto numerable d
i

iN
de distancias en X y supongamos (como podemos) que
d
i
1/2
i
, para cada i N. La topologa menos na que contiene a las topologas denidas por todos
los d
i
coincide con la topologa denida por la distancia d :=

i
d
i
.
Sea U R
n
un abierto y U
1
, U
2
, . . . abiertos tales que sus cierres cumplen que

U
i
U
i+1
y son
compactos, y tales que
i
U
i
= U.
Sea (
k
(U) las funciones en U de clase k. Para cada compacto K U sea d
K
: (
k
(U) R la
distancia denida por
d
k
K
(f, g) := max[D

(f g)(x)[, [[ k, x K
donde D

=

||

1
x
1

n
xn
y [[ =
1
+ +
n
.
Consideremos (
k
(U) la topologa menos na que contiene a las topologas denidas por las dis-
tancias d
k
K
, para todo compacto K. Esta topologa es igual a la topologa menos na que contiene a
las topologas denidas por d
k

Ui
(o
d
k

U
i
1+d
k

U
i
), i = 1, 2, . . ., que coincide con la topologa denida por
d =

i
1
2
i

d
k

Ui
1 +d
k

Ui
Si en (

(U) consideramos la topologa menos na que contiene a las topologas denidas por las
distancias d
k
K
, para todo compacto K y k N, entonces esta topologa coincide con la topologa
denida por
d =

i
1
2
i

d
i

Ui
1 +d
i

Ui
1. Teorema : (
k
(U) es un espacio metrico completo para toda 0 k .
Demostracion. Sea f
i

iN
una sucesion de Cauchy. Para todo K, D

f
i

iN
es una sucesion de
Cauchy en (
0
(U), para el que suponemos bien conocido que es completo. Sean f

C
0
(U) el lmite
48 Captulo 2. Calculo Tensorial en Geometra Diferencial
de la sucesion D

f
i

iN
. Basta probar que D

f
0
existe y coincide con f

para todo , con [[ k.


Si = (
1
, . . . ,
j
+ 1, . . . ,
n
), basta probar que
f

xj
= f

.
Por el teorema del valor medio, dado a U, D

f
i
(x) D

f
i
(a) = D

f
i
(
i
)(x
j
a
j
), con x =
(a
1
, . . . , x
j
, . . . , a
n
) y
i
en el segmento que une a y x. Existe una subsucesion i
k
de modo que

i
k
converge a un (perteneciente al segmento que une a y x). Tomando lmite cuando i
k

obtenemos
f

(x) f

(a) = f

() (x
j
a
j
) = f

(a) (x
j
a
j
) +o(x
j
a
j
)
donde o(x
j
a
j
)/x
j
a
j
tiende a cero cuando x
j
a
j
. Por tanto,
f

xj
(a) existe y coincide con f

(a).
Veamos ahora que el morsmo (

(R
n
) R[[x
1
, . . . , x
n
]] que asigna a cada funcion diferenciable
su desarrollo de Taylor innito, en un punto R
n
cualquiera, es epiyectivo (sorprendentemente a
primera vista).
2. Lema : Sea f (

(R
n
), tal que D

(f)(0) = 0, para todo , con [[ m. Dado > 0 existe


g (

(R
n
), que se anula en un entorno abierto de 0 tal que
[[f g[[
m
<
con [[f g[[
m
:= sup[D

(f g)(a)[, a R
n
, [[ m.
Demostracion. Sea (x) (

(R
n
), tal que (x) = 0, si [[x[[ 1/2 y (x) = 1 si [[x[[ 1. Para > 0,
denamos
g

(x) = (
x

) f(x)
Claramente g

(R
n
) y se anula en un entorno abierto de 0. Calculemos [[f g

[[
m
.
Tenemos que f g

= f (1 (x/)) que es nula para [[x[[ > y [[(x)[[


m
< . Observemos que
por las hipotesis lim
x0
D

f(x)/[[x[[
m]]
= 0, luego
[D

(f g

)[ = [D

f (1 (x/)) +

0<
_

_
D

f
(]]]])
D

(x/)[
para todo x, cuando es peque no. En conclusion, [[f g

[[
m
, para peque no.
3. Teorema de Borel sobre los desarrollos de Taylor: El morsmo (

(R
n
) R[[x
1
, . . . , x
n
]]
que asigna a cada funcion diferenciable su desarrollo de Taylor innito en 0 R
n
es epiyectivo.
Demostracion. Sea

R[[x
1
, . . . , x
n
]]. Sea T
m
=

]]=m+1
c

y g
m
(

(R
n
) tal que se
anule en un entorno abierto de 0 y tal que [[T
m
g
m
[[
m
1/2
m
.
Entonces f = c
0
+

m
(T
m
g
m
) (

(R
n
) y el desarrollo de Taylor de f en el 0 es

.
2.6. Localizacion en el algebra tensorial diferencial 49
2.6 Localizacion en el algebra tensorial diferencial
1. Teorema : Sea X una variedad diferenciable y U X un abierto. Se cumple que
(

(U) = (

(X)
U
con (

(X)
U
:= (

(X)
S
, donde S es el conjunto de las funciones que no se anulan en ning un punto
de U.
Demostracion. 1. Supongamos que X = R
n
. Sea U
1
, U
2
, . . . un recubrimiento de U por cubos
abiertos cuyas adherencias esten contenidas en U. Sean
i
: R
n
R funciones diferenciables positivas
sobre U
i
y nulas en el complementario. Dada f (

(U) sea

i
= sup
]]i
[D

(f
i
)[,
i
= sup
]]i
[D

(
i
)[
donde D

=

||

1
x
1

n
xn
y [[ =
1
+ +
n
. Las series
g =

i=1
1
2
i
f
i
1 +
i
+
i
; h =

i=1
1
2
i

i
1 +
i
+
i
son funciones diferenciables, por el teorema anterior. Es evidente que f = g/h.
2. Caso general. Sumerjase X como subvariedad cerrada de un R
m
. Sea V un abierto de R
m
tal
que V X = U y F (

(V ) su restriccion a V X = U sea f. Sean G, H (

(R
m
), tal que H no
se anule en ning un punto de V y G/H coincida con F sobre V . Las restricciones de G y H a X, g y
h respectivamente, cumplen que h no se anula en ning un punto de U y f = g/h en U.
2. Observacion: La funcion h construida en la primera parte de la demostracion es positiva sobre
U y nula en el complementario. Por tanto, usando el teorema de inmersion de Whitney, concluimos
que todo cerrado de una variedad son los ceros de una funcion diferenciable.
Igualmente se puede probar que (
k
(U) = (
k
(X)
U
.
3. Corolario :
3
Sea X una variedad diferenciable y U X un abierto. Entonces
(
X
)
U
=
U
, (
r
X
)
U
=
r
U
Demostracion. Sea A una k-algebra y S A un sistema multiplicativamente cerrado. El morsmo
A A
S
, a
a
1
, induce el morsmo
A/k

A
S
/k
, adb
a
1
d
b
1
, que induce el morsmo (
A/k
)
S

A
S
/k
,
da
s

1
s
d
a
1
. El morsmo inverso es
A
S
/k
(
A/k
)
S
, d
a
s

da
s

ads
s
2
. Por tanto,
(
A/k
)
S
=
A
S
/k
, luego (
X
)
U
=
U
,
df
s
s
1
]U
df
]U
.
Ahora ya,
(
r
X
)
U
= (
r
c

(X)

X
)
U
=
r
c

(U)

U
=
r
U
3
Este corolario es un caso particular de un teorema de la teora de brados vectoriales: Sea X

X un morsmo
entre variedades diferenciables y E X un brado vectorial. Se cumple que
Hom
X
(X

, E
X
X

) = C

(X

)
C

(X)
Hom
X
(X, E)
que se prueba, sumergiendo E en un brado vectorial trivial, considerando un brado vectorial suplementario y redu-
ciendo, pues, el teorema al caso de brado vectoriales triviales.
50 Captulo 2. Calculo Tensorial en Geometra Diferencial
4. Lema : Si M es un A-modulo proyectivo nito generado entonces (M

)
S
= (M
S
)

(denoto
(M
S
)

= Hom
A
S
(M
S
, A
S
)).
Demostracion. Sea N tal que M N = A
n
. Es facil comprobar que ((A
n
)
S
)

= ((A
n
)

)
S
. Del
diagrama conmutativo
(M

)
S
(N

)
S
= (M

)
S

((A
n
)

)
S
(M
S
)

(N
S
)

= (M
S
N
S
)

((A
n
)
S
)

se deduce que (M

)
S
= (M
S
)

.
5. Proposicion : (Der
X
)
U
= Der
U
.
2.7 Integracion. Formula de Stokes
Formula de cambio de variable en integracion.
Sea e
1
, . . . , e
n
R
n
la base estandar de R
n
y w
1
, . . . , w
n
la base dual. Supongamos R
n
orientado
con la orientacion estandar w
1
w
n
.
Dados n-vectores v
1
, . . . , v
n
R
n
, llamamos paleleppedo generado por v
1
, . . . , v
n
al subconjunto
de R
n
, P(v
1
, . . . , v
n
) =

i
v
i
, 0 <
i
< 1. La aplicacion V : R
n

n
. . . R
n
R
V (v
1
, . . . , v
n
) :=
_
_
P(v1,...,vn)
dx
1
dx
n
si v
1
, . . . , v
n
esta positivamente orientada

_
P(v1,...,vn)
dx
1
dx
n
si v
1
, . . . , v
n
esta negativamente orientada
es una aplicacion multilineal alternada (al lector) y como sobre la base estandar de R
n
vale 1, tenemos
que V = w
1
w
n
. Diremos que V (v
1
, . . . , v
n
) es el volumen (afectado de signo) del paraleleppedo
generado por v
1
, . . . , v
n
.
Consideremos ahora una aplicacion lineal T : R
n
R
n
. Obviamente T transforma el parale-
leppedo generado por v
1
, . . . , v
n
en el paraleleppedo generado por T(v
1
), . . . , T(v
n
) y
V (T(v
1
), . . . , T(v
n
)) = w
1
w
n
(T(v
1
) T(v
n
)) = w
n
(det(T)v
1
v
n
) = det(T)V (v
1
, . . . , v
n
)
1. Teorema: Sean U y U
t
abiertos de R
n
y T : U
t
U, T(y) = (T
1
(y), . . . , T
n
(y)) un difeomorsmo
de clase C
1
. Sea f(x) (
0
(U) de soporte compacto. Entonces,
_
U
f(x) dx
1
dx
n
=
_
U

f(T(y)) [ det(
T
i
y
j
)[ dy
1
dy
n
Demostracion. Podemos suponer que f 0.
Consideremos un cubo cerrado C que contenga a U
t
y sea l la longitud de los lados de C. Sea
C

= [, ]
n
[, ] y supongamos que l es un m ultiplo entero de . Sean y
k
puntos de C, de
modo que C =
k
(y
k
+C

) y los cubos y
k
+C

sean de interiores disjuntos.


T(y
t
) T(y) = H(y
t
, y) (y
t
y) para cierta matriz de funciones continuas H. Recordemos
que H(y, y) = (
Ti
yj
). As pues, T(y
t
) = T(y) + H(y, y)(y
t
y) + (H(y
t
, y) H(y, y))(y
t
y). Sea
2.7. Integracion. Formula de Stokes 51
G(y
t
, y) = H(y
t
, y) H(y, y). Como G(y, y) = 0 entonces [[G(y, y)[[

= 0 y dado > 0 existe un


de modo que para [[y
t
y[[

< entonces [[G(y


t
, y)[[

< , es decir, G(y


t
, y) C

. Por tanto,
T(y +C

) T(y) +H(y, y) C

+C

T(y) +H(y, y) C
(1+

)
con
t
=

n (la longitud de la diagonal del cubo C

). Por tanto,
Vol(T(y +C

)) Vol(H(y, y) C
(1+

)
) = det(H(y, y)) Vol(C
(1+

)
)
= det(H(y, y)) Vol(C

) (1 +
t
)
n
Por tanto,
_
C
f(T(y)) [ det(
Ti
yj
)[ dy
1
dy
n
= lim
0

k
f(T(y
k
)) [ det(
Ti
yj
(y
k
))[ Vol(C

)
lim
0

k
f(T(y
k
)) Vol(T(y
k
+C

)) (1 +
t
)
n
=
_
T(C)
f(x) dx
1
dx
n
(1 +
t
)
n
Por tanto,
_
U

f(T(y)) [ det(
Ti
yj
)[ dy
1
dy
n

_
U
f(x) dx
1
dx
n
.
Si consideramos el morsmo inverso T
1
: U
t
U y como funcion continua g(y) = f(T(y))
[ det(
Ti
yj
)[, entonces, f(x) = g(T
1
(x)) [ det(
T
1
i
xj
)[ y
_
U
f(x) dx
1
dx
n
=
_
U
g(T
1
(x)) [ det(
T
1
i
x
j
)[ dx
1
dx
n

_
U

g(y) dy
1
dy
n
y concluimos que
_
U
f(x) dx
1
dx
n
=
_
U

f(T(y)) [ det(
Ti
yj
)[ dy
1
dy
n
.
Integracion de formas.
Sea U R
n
un abierto, con la orientacion dx
1
. . . dx
n
. Sea w = f dx
1
. . . dx
n

n
U
y
supongamos que sopf es compacto.
2. Denicion : Se dene
_
U
w :=
_
U
f dx
1
dx
n
.
Sea U
t
R
n
un abierto y escribamos ahora las coordenadas y
1
, . . . , y
n
. Si : U
t
U es un
difeomorsmo que conserve la orientacion, entonces el teorema del cambio de variables en integracion
(

=, mas abajo) implica que


_
U

=
1
U

w =
_
U
w
En efecto,

w = f(
1
, . . . ,
n
) d
1
d
n
= f(
1
, . . . ,
n
) (

i
1
yi
dy
i
) (

i
n
yi
dy
i
) =
f(
1
, . . . ,
n
) det(
i
yj
) dy
1
dy
n
y
_
U

=
1
U

w =
_
U

f(
1
, . . . ,
n
) det(

i
y
j
) dy
1
dy
n

=
_
U
f(x
1
, . . . , x
n
) dx
1
dx
n
=
_
U
w
Sea X una variedad diferenciable orientada de dimension n. Dada w una r-forma denimos sopw =
x X tales que w
x
,= 0. Sea w una n-forma diferenciable y supongamos que sopw es compacto.
Supongamos que existe un difeomorsmo : X U
t
R
n
orientado. Tenemos pues un difeomorsmo

: C

(U
t
) C

(X), f f = f(
1
, . . . ,
n
). Entonces existe una n-forma diferenciable en U
t
,
52 Captulo 2. Calculo Tensorial en Geometra Diferencial
w
t
= f(x
1
, . . . , x
n
) dx
1
dx
n
, tal que

w
t
= w (luego, w = f(
1
, . . . ,
n
) d
1
d
n
) y
denimos
_
X
w =
_

1
(U

w
t
:=
_
U

w
t
:=
_
U

f(x
1
, . . . , x
n
) dx
1
dx
n
Veamos que la denicion no depende del considerado. Sea
tt
: X U
tt
R
n
otro difeomorsmo
orientado, entonces =
t

tt
1
: U
tt
U
t
, y (
1
(y), . . . ,
n
(y) es un difeomorsmo orientado.
Denamos w
tt
=

w
t
, que cumple que
tt

(w
tt
) =
tt

w
t
=
t

w
t
= w. Por tanto,
_
X
w
va

=
_
U

w
tt
=
_

1
(U

w
t
=
_
U

w
t
va

=
_
X
w
Sea X una variedad diferenciable de dimension n orientada y w una n-forma diferenciable de
soporte compacto. Sea un n umero nito de abiertos coordenados U
1
, . . . , U
n
que recubran sopw y
consideremos el recubrimiento de X, U
1
, . . . , U
n
, X sopw. Sea f
1
, . . . , f
n
, f una particion de la
unidad subordinada al recubrimiento. Observemos que w = f
1
w + + f
n
w (y f w = 0) y que
sopf
i
w U
i
. Denimos
_
X
w :=
_
U1
f
1
w + +
_
Un
f
n
w
Esta denicion no depende del recubrimiento ni de la partici on: Sea V
1
, . . . , V
m
abiertos coordenados
que recubran sopw y g
1
, . . . , g
m
, g una particion de la unidad subordinada a V
1
, . . . , V
m
, Xsopw.
Entonces
n

i=1
_
Ui
f
i
w =
n

i=1
_
Ui
m

j=1
f
i
g
j
w =
n

i=1
m

j=1
_
UiVj
f
i
g
j
w =
n

i=1
m

j=1
_
Vj
f
i
g
j
w
=
m

j=1
_
Vj
n

i=1
f
i
g
j
w =
m

j=1
_
Vj
g
j
w
Dejamos ya que el lector pruebe:
1. Si w
1
, . . . , w
r
son n-formas con soporte compacto entonces
_
X

i
w
i
=

i
_
w
i
.
2. Si : X X
t
es un difeomorsmo orientado entre variedades diferenciables orientadas entonces
para toda n-forma diferenciable w
t
de X
t
de soporte compacto se satisface que
_
X=
1
(X

w
t
=
_
X

w
t
Formula de Stokes.
3. Denicion: Sea X una variedad diferenciable, B X un cerrado y B el borde de B. Diremos
que B es una variedad con borde si para todo p B existe un entorno coordenado U, u
1
, . . . , u
n
de
p en X de modo que B U = x U : u
1
(x) 0.
Observemos que BU u
1
= 0, luego B es una subvariedad diferenciable de X. Si w
X
es una
forma diferenciable de volumen en X que lo orienta, podemos denir una orientacion en B: Sea w
t
una n 1-forma diferenciable en U tal que du
1
w
t
= w
X
, entonces w
t
]BU
dene una orientacion
en B U. Observemos que i
u1
w
X
= w
t
du
1
i
u1
w
X
, luego w
t
]BU
= (i
u1
w
X
)
]BU
. Solo
tenemos que probar que esta orientacion no depende de la u
1
escogida: Si B U v
1
0 entonces
2.7. Integracion. Formula de Stokes 53
v
1
= u
1
F con F > 0 en B U (F ,= 0 incluso en B U, porque dv
1
= Fdu
1
+u
1
dF es no nula en
todo punto). Sea w
tt
tal que dv
1
w
tt
= w
X
. La n 1 forma w
t
]BU
coincide con la restriccion de
i
u1
w
X
= i
u1
(dv
1
w
tt
) = (F +u
1

F
u1
) w
tt
+v
1
i
u1
w
tt
a B, que coincide con F w
tt
]partialBU
.
Nota: Cuando escribamos
_
B
w querremos decir
_
0
B
w.
4. Lema : Sea X una variedad diferenciable orientada de dimension n y B X una variedad
con borde. Para cada x X existe un entorno abierto U de x de modo que para toda n 1-forma
diferenciable w sobre X de soporte compacto contenido en U se cumple que
_
B
dw =
_
B
w
Demostracion. 1. Si x / B, tomese U = XB. Si w tiene soporte compacto contenido en U entonces
_
B
dw = 0 =
_
B
w.
2. Si x
0
B, sea U, u
1
, . . . , u
n
un entorno coordenado de x, contenido en
0
B, isomorfo a un cubo,
es decir, tenemos
U
(u1,...,un)

U R
n
,

U = (a
1
, b
1
) . . . (a
n
, b
n
)
Si w es una n 1 forma con soporte compacto incluido en U entonces
_
B
w = 0. Veamos que
_
B
dw = 0: Por la linealidad de la integral podemos suponer que w = fdu
2
du
n
. Entonces
_
B
dw =
_
U
d(fdu
2
du
n
) =
_
U
f
u
1
du
1
du
n
=
_
bn
an

_
b1
a1
f
u
1
du
1
du
n
=
_
bn
an

_
b2
a2
(
_
b1
a1
f
u
1
du
1
) du
2
du
n
=
_
bn
an

_
b2
a2
(f(b
1
, u
2
, . . . , u
n
) f(a
1
, u
2
, . . . , u
n
)) du
2
du
n
= 0
porque w es nula sobre los hiperplanos u
1
= a
1
, u
1
= b
1
.
3. Si x B sea U, u
1
, . . . , u
n
un entorno coordenado de x tal que BU u
1
0 y de modo que
U sea isomorfo a un cubo (a
1
, b
1
) (a
n
, b
n
), como en el caso anterior. Observemos que B U
esta coordenado por u
2
, . . . , u
n
y es difeomorfo al cubo (a
2
, b
2
) (a
n
, b
n
). Consideremos una
n 1-forma diferenciable con soporte compacto incluido en U.
Escribamos w =

i
f
i
du
1


du
i
du
n
. Entonces, w
]B
= f
1
(0, u
2
, . . . , u
n
)du
2
du
n
y
_
B
w =
_
BU
=
_
(a2,b2)(an,bn)
f
1
(0, u
2
, . . . , u
n
) du
2
du
n
Por otra parte,
_
B
dw =
_
BU
dw =
_
u1=0
u1=a1
_
u2=b2
u2=a2

_
un=bn
un=an

i
(1)
i1
f
i
u
i
du
1
du
n
=
_
u1=0
u1=a1
_
u2=b2
u2=a2

_
un=bn
un=an
f
1
u
1
du
1
du
n
pues,
fi
ui
du
1
du
n
son formas como en 2. nulas sobre los hiperplanos u
i
= a
i
, u
i
= b
i
. Por tanto,
54 Captulo 2. Calculo Tensorial en Geometra Diferencial
_
B
dw =
_
u2=b2
u2=a2

_
un=bn
un=an
(
_
0
a1
f
1
u
1
) du
1
du
n
=
_
u2=b2
u2=a2

_
un=bn
un=an
f
1
(0, u
2
, . . . , u
n
) du
2
du
n
5. Teorema de Stokes: Sea w una n 1-forma de soporte compacto sobre X. Se cumple que
_
B
dw =
_
B
w
Demostracion. Sea U
1
, . . . , U
n
abiertos coordenados que recubran el soporte de w y que satisfagan
el lema anterior. Sea f
1
, . . . , f
n
, f una particion de la unidad subordinada a U
1
, . . . , U
n
, X B.
Entonces
_
B
dw =
_
B
d(

i
f
i
w) =

i
_
B
d(f
i
w
i
) =

i
_
B
f
i
w
i
=
_
B
f
i
w
i
=
_
B
w
2.8 Gradiente, divergencia y rotacional
Vayamos con el ejemplo fundamental. Consideremos el anillo (

(R
n
) y el (

(R
n
)-modulo libre de
rango n,
R
n.
4
Der
R
n es el C

(R
n
)-modulo dual de
R
n.
Sea T
2
: Der
R
n Der
R
n (

(R
n
) una aplicacion (

(R
n
)-bilineal. Sea w
1
, . . . , w
n
una base de

R
n. Sabemos que T
2
=

ij
a
ij
w
i
w
j
, a
ij
(

(R
n
), de modo que
T
2
(D
1
, D
2
) =

ij
a
ij
w
i
(D
1
) w
j
(D
2
)
T
2
induce la polaridad, T
2
: Der
R
n
R
n, T
2
(D) := i
D
T
2
=

ij
a
ij
w
i
(D) w
j
. Supongamos que
la polaridad T
2
es un isomorsmo. Denotemos por T
2
el morsmo inverso de T
2
.
1. Denicion : Dada f (

(R
n
) se dene gradf = T
2
(df).
2. Proposicion : Se cumple que
1. grad(f) = gradf, R, f (

(R
n
).
2. grad(f +g) = grad(f) + gradg, f, g (

(R
n
).
3. grad(fg) = f gradg +g gradf.
Interpretacion geometrica de las diferenciales, campos, gradiente,.....
Fijemos una forma de volumen w
X

n
R
n de modo que
n
= (

(R
n
) w
X
. Observemos que

n+1
R
n = 0 y por tanto, dw
X
= 0.
4
Podramos desarrollar la teora correspondiente considerando una k-algebra A tal que
A/k
fuese un A-modulo
nito generado localmente libre...
2.8. Gradiente, divergencia y rotacional 55
3. Denicion: Dado D Der
R
n se dene la divergencia de D, que denotaremos por div D, como
la funcion que cumple
D
L
w
X
= (div D) w
X
Observemos que D
L
w
X
= (di
D
+i
D
d)w
X
= di
D
w
X
. As pues,
di
D
w
X
= (div D) w
X
4. Teorema de la divergencia: Sea B X una subvariedad con borde compacta. Sea w
X
una
forma de volumen en X, N un campo normal al borde B de modulo 1 y w
B
la forma de volumen
en B. Sea D un campo diferencial de vectores en X. Entonces por el teorema de Stokes
_
B
(div D) w
X
=
_
B
i
D
w
X
=
_
B
(D N) w
B
5. Proposicion : div(fD) = f div D +Df.
Demostracion. div(fD) w
X
= (fD)
L
w
X
= (di
fD
)w
X
= di
fD
w
X
= d(f i
D
w
X
) = df i
D
w
X
+
fdi
D
w
X
= i
D
(df w
X
) +i
D
df w
X
+fD
L
w
X
= Df w
X
+f div D w
X
.
Consideremos ahora el (

(R
3
)-modulo libre de rango 3,
R
3. Sea T
2
= dx
1
dx
1
+dx
2
dx
2
+
dx
3
dx
3
y w
R
3 = dx
1
dx
2
dx
3
la forma diferencial de volumen de R
3
. El morsmo Der
R
3
2
R
3,
D
t
i
D
w
R
3 es un isomorsmo de (

(R
3
)-modulos.
6. Denicion : Dado D Der
R
3 se dene el rotacional de D, que denotamos por rot D, como el
campo que cumple que
i
rot D
w
R
3 = di
D
T
2
7. Teorema : Sea S una subvariedad diferenciable compacta de R
3
de dimension 2, y N un vector
normal a S de modulo 1. Sea B S una subvariedad con borde y sea T un vector tangente a B de
modulo 1. Sea D un campo diferencial de vectores en R
3
. Entonces por el teorema de Stokes
_
B
((rot D) N) w
B
=
_
B
i
rot D
w
R
3 =
_
B
i
D
T
2
=
_
B
(D T) w
B
8. Teorema : rot(D) = 0 Existe una funcion f (

(R
3
) tal que D = gradf.
Demostracion. rot D = 0 0 = i
rot D
w
R
3 = d(T
2
(D)) T
2
(D) = df, para cierta f (

(R
3
)
D = T
2
(df) = gradf para cierta f (

(R
3
).
Un campo de fuerzas es conservativo si y solo si es un gradiente
9. Teorema : div D
t
= 0 Existe una derivacion D tal que D
t
= rot D.
Demostracion. div(D
t
) = 0 0 = div(D
t
) w
R
3 = d(i
D
w
R
3) Existe w
R
3 tal que
i
D
w
R
3 = dw. Ahora bien, para toda w
R
3 existe una ( unica) derivacion D tal que w = T
2
(D).
Por tanto, div(D
t
) = 0 Existe D tal que i
D
w
R
3 = dT
2
(D) D
t
= rot D, para cierto D.
10. Ejercicio : rot fD = f rot D + grad(f) D.
56 Captulo 2. Calculo Tensorial en Geometra Diferencial
2.9 Apendice 1. Normas
1. Denicion : Sea E un R-espacio vectorial. Una norma es una aplicacion E R
+
, e
Not.
[[e[[ que
cumple
1. [[e[[ = 0 e = 0.
2. [[ e[[ = [[ [[e[[, para todo R y e E.
3. [[e +e
t
[[ [[e[[ +[[e
t
[[, para todo e, e
t
E.
2. Ejemplo : Supongamos E = R
n
y consideremos la norma [[ [[
1
denida por [[(
1
, ,
n
)[[
1
:=
[x
1
[ + + [x
2
[ Otra norma que podemos denir en R
n
es [[ [[
2
denida por [[(
1
, ,
n
)[[
2
:=
_

2
1
+. . . +
2
n
. Otra norma que podemos denir en R
n
es [[ [[

denida por [[(


1
, ,
n
)[[

:=
max[x
1
[, . . . , [x
n
[.
E, [[ [[ se dice que es un espacio normado. La norma [[ [[ dene en E una distancia, d, d(e, e
t
) :=
[[e e
t
[[ que cumple que d(e, e
t
) = 0 e = e
t
(por la propiedad 1.), que d(e, e
t
) = d(e
t
, e) (por la
propiedad 2.) y que d(e, e
tt
) d(e, e
t
) +d(e
t
, e
tt
) (por la propiedad 3.). Luego [[ [[ dene una topologa
en E, para la cual una base de entornos de cada punto e E es
B(e, ) := e
t
E: d(e
t
, e) < = e
t
E: [[e e
t
[[ <
3. Teorema : Si E es un R espacio vectorial de dimension nita entonces todas las normas de E
denen la misma topologa.
Demostracion. Podemos suponer que E = R
n
y que e
1
, . . . , e
n
es la base estandar. Sea [[ [[ una norma
en E y M = max[[e
1
[[, . . . , [[e
n
[[. Entonces, dado e =

i

i
e
i
tenemos que [[e[[ = [[

i
e
i
[[

i
[
i
[[[e
i
[[

i
[
i
[ M = M [[e[[
1
. Por tanto, [[ [[ M [[ [[
1
.
Consideremos en R
n
la topologa estandar denida por [[ [[
1
(que es la misma que la denida por
[[ [[
2
). La norma R
n
R, e [[e[[ es una aplicacion continua, pues
[ [[e[[ [[e
t
[[ [ [[e e
t
[[ M [[e e
t
[[
1
Sea m el mnimo de [[ [[ sobre el compacto K = e R
n
: [[e[[
1
= 1. Por tanto, [[ [[ m [[ [[
1
.
En conclusion, la topologa denida por [[ [[ es la misma que la denida por [[ [[
1
.
Sea E, [[ [[ un espacio vectorial normado de dimension nita. Podemos denir una norma en
End
k
E del siguiente modo: Dado T End
k
E, [[T[[ := max[[T(e)[[ : [[e[[ = 1. Por tanto, [[T(e)[[
[[T[[ [[e[[, para todo e E.
2.10 Apendice 2. Teorema de existencia y unicidad en siste-
mas de ecuaciones diferenciales
Consideremos el sistema de ecuaciones diferenciales
dx1
dt
= f
1
(x
1
, . . . , x
n
)
. . .
dxn
dt
= f
n
(x
1
, . . . , x
n
)
2.10. Apendice 2. Teorema de existencia y unicidad en sistemas de ecuaciones diferenciales 57
Dar una solucion de este sistema de ecuaciones diferenciales con condiciones iniciales a
1
(), . . . , a
n
()
es dar funciones
i
(t, ) tales que
di
dt
= f
i
(
1
, . . . ,
n
) y
i
(t
0
, ) = a
i
().
Si escribimos x = (x
1
, . . . , x
n
) y F = (f
1
, . . . , f
n
) podemos escribir de modo reducido el sistema
anterior como
dx
dt
= F(x)
y dada la condicion inicial a() = (a
1
(), . . . , a
n
()), buscamos (t, ) = (
1
(t, ), . . . ,
n
(t, )) tal
que
d
dt
= F()
y (t
0
, ) = a().
El sistema de ecuaciones diferenciales (con condicion inicial a()) es equivalente a la ecuacion
x = a() +
_
t
t0
F(x) dt
Dada si denotamos

= a() +
_
t
0
F() dt, buscamos tal que =

.
Vamos a ver que bajo ciertas condiciones, si consideramos una cualquiera y tomamos in-
nitas veces obtenemos una tal que al tomar una vez mas obtenemos , es decir,

= . As
demostraremos que el sistema de ecuaciones diferenciales anterior tiene solucion.
1. Lema : Sea X, d un espacio metrico completo y T : X X una aplicacion contractiva, es decir,
tal que exista una constante 0 c < 1 tal que d(T(x), T(y)) c d(x, y), para todo x, y X. Entonces
existe un unico punto p X tal que T(p) = p.
Demostracion. Sea x X un punto cualquiera. La sucesion x
n
:= T
n
(x) es una sucesion de Cauchy:
Sea a = d(x, T(x)) entonces d(T
n
(x), T
n+1
(x)) c d(T
n1
(x), T
n
(x)) c
n
d(x, T(x)) = c
n
a.
Entonces, dado n m se cumple que
d(T
m
(x), T
n
(x)) d(T
m
(x), T
m+1
(x)) +d(T
m+1
(x), T
m+2
(x)) + +d(T
n1
(x), T
n
(x))
c
m
a +c
m+1
a +. . . +c
n1
a = a
c
m
c
n
1 c
c
m

a
1 c
que es todo lo peque no que se quiera para n, m grandes.
Por tanto, la sucesion converge a un punto p. Por ser T contractiva es continua, luego T(p) =
T(lim
n
x
n
) = lim
n
T(x
n
) = lim
n
x
n+1
= p.
Si T(p
t
) = p
t
entonces d(p, p
t
) = d(T(p), T(p
t
)) c d(p, p
t
), luego d(p, p
t
) = 0 y p
t
= p.
2. Teorema : Sea F (
1
(R
n
, R
n
) con soporte compacto y a(t
1
, . . . , t
m
) (
0
(R
m
, R
n
). Entonces
existe una unica solucion (t, t
1
, . . . , t
m
) (
0
(RR
m
, R
n
) (derivable en t) del sistema de ecuaciones
diferenciales
dx
dt
= F(x)
con condiciones iniciales, para t = t
0
, (t
0
, t
1
, . . . , t
m
) = a(t
1
, . . . , t
m
).
58 Captulo 2. Calculo Tensorial en Geometra Diferencial
Demostracion. Sea U un cubo abierto de R
m
y E = = (
1
, . . . ,
n
) (
0
((t
0
, t
0
+) U, R
n
),

j
acotadas, para todo j.
Dada una funcion real acotada g denoto por [[g[[

como el supremo de g en su dominio de


denicion. Deno en E la norma [[[[

:= max[[
j
[[

, para todo j. E, [[ [[

es un espacio
normado completo.
F(x) F(y) = H(x, y) (x y), siendo H(x, y) una matriz de funciones con soportes compacto.
Sea K = max[[H(x, y)[[

, x, y R
n
. Por tanto, [[F() F(
t
)[[

K [[
t
[[

. Tomemos
= 1/2K (que depende solo de F, y no de quien sea t
0
ni a(t
1
, . . . , t
m
)).
La aplicacion T : E E, T() := a(t
1
, . . . , t
m
) +
_
t
t0
F((s, t
1
, . . . , t
m
)) ds es contractiva, pues
[[T() T(
t
)[[

= [[
_
t
t0
F() F() ds[[

[
_
t
t0
[[F() F(
t
)[[

ds[
[
_
t
t0
K [[
t
[[

ds[ K [[
t
[[

=
1
2
[[
t
[[

As pues, por el lema existe una unica E, tal que T() = , es decir una unica E solucion
del sistema de ecuaciones diferenciable con condicion inicial (t
0
, t
1
, . . . , t
m
) = a(t
1
, . . . , t
m
).
Si existiese otra
t
(
0
((t
0
, t
0
+ ) U, R
n
) solucion del sistema, entonces reduciendo (todo
lo poco que se quiera) los cubos (t
0
, t
0
+ ) y U, se cumplira que
t
es acotada, luego habra de
coincidir con . En conclusion
t
= .
Como U es una cubo abierto, todo lo grande que se quiera, existe una unica (
0
((t
0
, t
0
+
) R
m
, R
n
) solucion del sistema con condiciones iniciales (t
0
, t) = a(t).
Sea ahora t
t
0
= t
0
+ /2. Del mismo modo dado el sistema
dx
dt
= F(x) con condicion inicial
x(t
t
0
) = (t
t
0
), existe un unica solucion
t
(
0
((t
t
0
, t
t
0
+) R
m
, R
n
). Ahora bien las restricciones
de y
t
a (t
t
0
/2, t
t
0
+/2) R
m
son soluciones del sistema en este abierto, luego coinciden. Luego
tenemos una solucion
tt
(
0
((t
0
, t
0
+1.5 ) R
m
, R
n
) del sistema de ecuaciones, con condicion
inicial x(t
0
) = a(t), que es unica porque cualquier otra sobre (t
0
, t
0
+ ) R
m
coincide con y
por tanto sobre (t
t
0
/2, t
t
0
+/2) R
m
con
t
. Argumentando as sucesivamente, demostramos que
existe una unica (
0
(R R
m
, R
n
) solucion del sistema con condiciones iniciales x(t
0
) = a(t).
Como habra podido observar el lector la existencia y unicidad de la solucion es un problema
esencialmente local.
3. Teorema : Sea F (
1
(R
n
, R
n
) y a(t
1
, . . . , t
m
) (
0
(R
m
, R
n
). Dado b = (b
0
, b
1
, . . . , b
m
) R
m+1
,
existe un entorno abierto conexo V de b y una unica solucion (t, t
1
, . . . , t
m
) (
0
(V, R
n
) (derivable
en t) del sistema de ecuaciones diferenciales
dx
dt
= F(x)
con condiciones iniciales, para t = b
0
, (b
0
, t
1
, . . . , t
m
) = a(t
1
, . . . , t
m
).
Demostracion. Sea U un entorno abierto de a(b
1
, . . . , b
m
) R
n
y H C

(U) con soporte compacto


en U y que en un entorno mas peque no U
t
de a(b
1
, . . . , b
m
) es H
]U
= 1.
Sea

F = H F y

la unica solucion de la ecuacion diferencial
dx
dt
=

F(x), con condicion inicial

(b
0
, t
1
, . . . , t
m
) = a(t
1
, . . . , t
m
). Sea V

1
(U
t
) un entorno abierto conexo de b. Es claro que
:=

]V
es una solucion del sistema
dx
dt
= F(x), con condicion inicial (b
0
, t
1
, . . . , t
m
) = a(t
1
, . . . , t
m
).
Ademas si
t
es otra solucion sobre V , entonces es tambien solucion sobre V
t
1
(U), del sistema
2.10. Apendice 2. Teorema de existencia y unicidad en sistemas de ecuaciones diferenciales 59
dx
dt
=

F(x) luego ha de coincidir (como vimos en la demostracion del teorema anterior) con

]V
, sobre
la componente conexa de V
t
1
(U) que contenga a b. Los puntos donde coinciden
t
y

]V
es un
cerrado, luego V
t
1
(U) = V y
t
=

]V
.
Dependencia diferenciable de las condiciones iniciales:
Si F (
k
(R
n
, R
n
) y a(t
1
, . . . , t
m
) (
k
(R
m
, R
n
) entonces la solucion tambien es de clase k:
Es un problema local. Veamos que podemos proceder como en el teorema 2.10.2.
Sea U un cubo abierto de R
m
y U

= (t
0
, t
0
+). Dada una funcion g(t, t
1
, . . . , t
m
) (
k
(U

U, R
n
), denotemos g

0t
mtm
. Dada = (
1
, . . . ,
n
) (
k
(U

U, R
n
) denamos [[[[ :=
max[[
j,
[[

, para todo j y [[ k. Sea K


t
= [[a
]UU
[[.
Sea E = (
k
(U

U, R
n
), tales que [[[[ 2K
t
, que es un espacio metrico completo.
Dada , con [[ k, tendremos que F
i
(
1
, . . . ,
n
)

= G
i,
(
j,
)
j,]]k
, para cierta funcion
G
i,
(
0
(R
N
, R
n
), con N = n #: [[ k, que no depende de . Sea G = (G
j,
)
j,]]k
. Dado
K
t
> 0, existe una constante K, tal que
1. [[G(x
j,
) G(y
j,
)[[

K [[(x
j,
) (y
j,
)[[

, para todo (x
j,
) y (y
j,
) tales que [[(x
j,
)[[

,
[[(y
j,
)[[

< K
t
2. [[G(x
j,
)[[

< K [[(x
j,
)[[

, para todo (x
j,
) tal que [[(x
j,
)[[

< K
t
.
En tal caso, [[F() F(
t
)[[ < K [[
t
[[ y [[F()[[ < K [[[[, si [[[[ y [[
t
[[ < K
t
. Sea
=
1
2K
. La aplicacion T : E E, T() = a(t
1
, . . . , t
n
) +
_
t
t0
F((s, t
1
, . . . , t
n
)) ds esta bien denida
y es contractiva. Veamos que T() E:
[[T()[[ [[a[[+[[
_
t
t0
F()ds[[ K
t
+[
_
t
t0
[[F()[[ds[ K
t
+[
_
t
t0
K[[[[ds[ K
t
+K2K
t
= 2K
t
Veamos que T es contractiva:
[[T() T(
t
)[[ = [[
_
t
t0
F() F() ds[[ [
_
t
t0
[[F() F(
t
)[[ ds[
[
_
t
t0
K [[
t
[[ ds[ K [[
t
[[ =
1
2
[[
t
[[
Por tanto, existe E tal que T() = , que es la solucion local del sistema de ecuaciones
diferenciales.
Curvas integrales de un campo
Sea D =

i
f
i


xi
Der
R
n. Nos planteamos la existencia (local) de una aplicacion diferenciable
: R R
n
R
n
, (t, x) (t, x)
tal que

((

t
)
(t,x)
) = D
(t,x)
y (0, x) = x.
Si escribimos = (
1
, . . . ,
n
), sabemos que

((

t
)
(t,x)
) = (

i
i
t

xi
)
(t,x)
. Por tanto,

((

t
)
(t,x)
) =
D
(t,x)
si y solo si
i
t
= f
i
(). Si escribimos F = (f
1
, . . . , f
n
) entonces es justamente la solucion
del sistema de ecuaciones diferenciales
d
dt
= F()
60 Captulo 2. Calculo Tensorial en Geometra Diferencial
con condiciones iniciales (0, x) = x. Si D es un campo con soporte compacto sabemos que existe
una unica global. En general, para cada x R
n
existe un entorno abierto U
x
de x, un
x
) R y
una unica aplicacion diferenciable : U
x
U
x
R
n
, de modo que

(

t (t,x)
) = D
(t,x)
y (0, x) = x.
Por tanto, si W =
xR
nU
x
U
x
R R
n
tenemos denida una unica aplicacion diferenciable
: W R
n
, de modo que

(

t (t,x)
) = D
(t,x)
y (0, x) = x.
Denotemos
t
: U R
n
,
t
(x) = (t, x). Se cumple que
t

s
=
t+s
(donde todo este denido).
En efecto, cumplen el mismo sistema de ecuaciones diferenciales
d(t, (s, x))
dt
= F((t, (s, x))),
d(t +s, x)
dt
= F((t +s, x))
y cumplen las mismas condiciones iniciales (0, (s, x)) = (s, x) = (0 + s, x). Se dice que
t
(x) es
el grupo uniparametrico asociado a D.
Observemos que si jamos un x R
n
, obtenemos una curva

x
: U

R
n
,
x
(t) = (t, x)
en R
n
cuyo campo tangente en
x
(t) = (t, x) es
x,
((

t
)
t
) =

i
i(t,x)
dt
(

xi
)
x(t)
= D
x(t)
. Se dice
que
x
es la curva integral de D en x.
Sea W RR
n
un abierto conexo maximo, que contenga a 0R
n
y para el que existe : W R
n
una ( unica) aplicacion diferenciable tal que

(

t (t,x)
) = D
(t,x)
y (0, x) = x. Sean y = (t, x) W,
U

= (, ), U
y
entorno abierto de y y : U

U
y
R
n
. Si U
x
es un entorno abierto conexo de x tal
que
t
(U
x
) U
y
, entonces la aplicacion : (t , t +) U
x
R
n
, ((t
t
, x
t
)) :=
t

t
(
t
(x
t
)), coincide
con : W R
n
sobre W ((t , t +) U
x
). Por tanto, (t , t +) U
x
W. Es facil concluir
que, dado x R
n
entonces (R x) W

R
n
es la curva integral maxima de D que pasa por x.
Reduccion local de un campo a forma canonica
Si F : U V es un difeomorsmo entre abiertos de R
n
, entonces todo lo que digamos en U
podemos traducirlo a V . Dada una funcion en g en U, tenemos la correspondiente funcion en V :
gF
1
. Dada una derivacion D en U, tenemos la derivacion F(D) en V , determinada por el diagrama
conmutativo
(

(U)
F
1
D

(V )
F(D)

(U)
F
1
(

(V )
Es decir, F(D)g := D(g F) F
1
. Puede comprobarse que F(D)
F()
= F

. D =

x1
en
un sistema de coordenadas x
1
, . . . , x
n
si y solo si F(D) =

y1
en el sistema de coordenadas y
1
=
x
1
F, . . . , y
n
= x
n
F.
Sigamos las notaciones del apartado anterior. Supongamos que D
p
,= 0, por tanto f
i
(p) ,= 0 para
alg un i. No hay perdida de generalidad si suponemos que f
1
(p) ,= 0. Sea V = (y
1
, y
2
, . . . , y
n
) R
n
tales que (y
1
, x
1
(p), y
2
, . . . , y
n
) U

U y consideremos la composicion de morsmos


V
i
U

U

R
n
(y
1
, y
2
, . . . , y
n
) (y
1
, x
1
(p), y
2
, . . . , y
n
)
A nivel tangente tenemos

y1
i

yi
i


xi
, i > 1

D
(

xi
)
0,q

j
j(0,x)
xi


xj
)
q
= (

xi
)
q
2.11. Apendice 3. Inmersion de variedades compactas 61
En conclusion, la matriz de ( i)

en el punto (0, p
2
, . . . , p
n
) es
_
_
_
_
_
f
1
(p) 0 . . . 0
f
2
(p) 1 . . . 0
.
.
.
.
.
.
.
.
.
f
n
(p) 0 . . . 1
_
_
_
_
_
Luego i es un difeomorsmo de un entorno abierto V
t
de (0, p
2
, . . . , p
n
) con un entorno abierto U
de p y tenemos
V
t
U

y1
D
y en las coordenadas z
1
= y
1
( i)
1
, . . . , z
n
= y
n
( i)
1
, D =

z1
.
Sea w
r
una r-forma diferencial en un abierto U R
n
y D una derivacion. Veamos que
D
L
w
r
= lim
t0

t
(w
r
) w
r
t
Si D
p
,= 0 entonces en un entorno V de p, D =

z1
en cierto sistema de coordenadas z
1
, . . . , z
n
.
Entonces
t
((z
1
, . . . , z
n
)) = (z
1
+ t, z
2
, . . . , z
n
), como es de comprobacion inmediata. Escribamos
w
r
=

f
i1...ir
dz
i1
dz
ir
, entonces en V
lim
t0

t
(w
r
) w
r
t
=

f
i1...ir
z
1
dz
i1
dz
ir
= D
L
w
r
Si D = 0 en un entorno abierto V de p entonces
t
(x) = x para todo x V , como es de
comprobacion inmediata. Entonces en V , D
L
w
r
= 0 = lim
t0

t
(wr)wr
t
.
En conclusion, D
L
w
r
= lim
t0

t
(wr)wr
t
en un abierto denso de puntos de U, luego son iguales.
2.11 Apendice 3. Inmersion de variedades compactas
1. Denicion: Sea : Y X una aplicacion diferenciable entre dos variedades. Se dice que es
una inmersion local en y Y si la aplicacion lineal tangente en y es inyectiva.
Obviamente es una inmersion local en y si y solo si la aplicacion lineal cotangente

: m
(y)
/m
2
(y)
m
y
/m
2
y
es epiyectiva. En este caso, si d
(y)
x
1
, . . . , d
(y)
x
n
es una base de m
(y)
/m
2
(y)
, reordenando
la base, podemos suponer que d
y
(x
1
), . . . , d
y
(x
r
) es una base de m
y
/m
2
y
. Sea V un entorno
abierto de y en el que y
1
= x
1
, . . . , y
r
= x
r
sean un sistema de coordenadas. Por tanto,
para j > r, x
j
= f
j
(x
1
, . . . , x
r
), para ciertas funciones diferenciables f
j
. Las funciones
z
1
= x
1
, . . . , z
r
= x
r
, z
r+1
= x
r+1
f
r+1
(x
1
, . . . , x
r
), . . . , z
n
= x
n
f
n
(x
1
, . . . , x
r
) son un sistema de
coordenadas en un entorno U de (y). Reduciendo V si es preciso para que (V ) U, tenemos
: V, x
1
, . . . , x
r
U, z
1
, . . . , z
n

p = (p
1
, . . . , p
r
) (p) = (p
1
, . . . , p
r
, 0, . . . , 0)
Recprocamente, si existen sistemas de coordenadas en los que se expresa de este modo entonces
es una inmersion local.
62 Captulo 2. Calculo Tensorial en Geometra Diferencial
2. Denicion: Sea : Y X una aplicacion diferenciable entre dos variedades. Se dice que es
una inmersion si es inyectiva e inmersion local an cada punto.
A pesar del nombre, puede ocurrir que la imagen de Y no se identica con una subvariedad de
X, como sucede con el ocho en el plano, parametrizado convenientemente. Ahora bien, si ademas
: Y (Y ) es un homeomorsmo entonces (Y ) es una subvariedad diferenciable de X y ademas
: Y (Y ) es un difeomorsmo.
3. Observacion : Si Y es compacta, entonces : Y (Y ) es un homeomorsmo, y, por tanto,
(Y ) es una subvariedad de X.
Sea X una variedad diferenciable compacta. Queremos encontrar una inmersion
= (f
1
, . . . , f
m
): X R
m
,
con lo cual, tendremos identicada la variedad X con una subvariedad de R
m
.
4. Proposicion : Sea = (f
1
, . . . , f
m
): X R
m
una aplicacion diferenciable. Entonces, es una
inmersion si y solo si las funciones f
1
, . . . , f
m
separan puntos de X y separan vectores tangentes de
X.
(Separan puntos si, para cualesquiera x, x
t
X entonces f
i
(x) = f
i
(x
t
) para todo i, si y solo
si x = x
t
. Separan vectores tangentes si, para todo punto x X y todo par de vectores tangentes
D
x
, D
t
x
T
x
X se cumple que si d
x
f
i
(D
x
) = d
x
f
i
(D
t
x
), para todo i, entonces D
x
= D
t
x
).
Demostracion. Que separe puntos equivale a que sea inyectiva. Que separe vectores tangentes
equivale a que la aplicacion lineal tangente sea inyectiva en todo punto.
5. Teorema de inmersion en el caso compacto: Toda variedad diferenciable compacta es difeo-
morfa a una subvariedad diferenciable de alg un R
m
.
Demostracion. Buscamos funciones f
1
, . . . , f
m
que separen puntos y separen vectores tangentes.
Sea U
1
, . . . , U
r
un recubrimiento nito por abiertos coordenados de X y u
i1
, . . . , u
in
el sistema de
coordenadas en U
i
. Sea f
1
, . . . , f
r
(

(X) una particion de la unidad subordinada al recubrimien-


to (sopf
i
U
i
,

i
f
i
= 1). Consideremos ahora la siguiente coleccion de funciones f
i
, f
i
u
ik

i,k
,
todas denidas en X, si extendemos f
i
u
ik
por cero fuera del abierto U
i
.
Comprobemos que esta coleccion separa puntos y vectores tangentes, y con ello habremos acabado
la demostracion.
Separan puntos: dados dos puntos x, x
t
X, para alg un j se cumple f
j
(x) ,= 0. Si 0 ,= f
j
(x) =
f
j
(x
t
) entonces x, x
t
U
j
. Ahora ya, si f
j
(x) u
jk
(x) = f
j
(x
t
) u
jk
(x
t
) para todo k, entonces
u
jk
(x) = u
jk
(x
t
) y x = x
t
.
Separan vectores tangentes: Dados dos vectores tangentes D
x
, D
t
x
T
x
X, existe i tal que f
i
(x) ,=
0. Si d
x
f
i
(D
x
) = d
x
f
i
(D
t
x
) y d
x
(f
i
u
ik
)(D
x
) = d
x
(f
i
u
ik
)(D
t
x
) para todo k, entonces f
i
(x)d
x
u
ik
(D
x
) =
f
i
(x)d
x
u
ik
(D
t
x
) para todo k. Por tanto, d
x
u
ik
(D
x
) = d
x
u
ik
(D
t
x
) para todo k y D
x
= D
t
x
.
Captulo 3
Aplicaciones de la teora
3.1 Sistemas de ecuaciones lineales. Regla de Cramer
Consideremos el sistema de ecuaciones lineales

11
x
1
+ +
n1
x
n
= b
1
. . .

1m
x
1
+ +
nm
x
n
= b
m
Sea T : R
n
R
m
la aplicacion lineal de matriz asociada (
ij
) en las bases estandar y e
t
= (b
1
, . . . , b
m
).
Las soluciones del sistema de ecuaciones lineales se corresponden con los vectores e = (x
1
, . . . , x
n
) R
n
tales que T(e) = e
t
.
Sea T : E E
t
una aplicacion k-lineal entre k-espacios vectoriales de dimension nita.
1. Denicion : Se llama rango de T, que denotaremos rango T, a la dimension de ImT.
Como E/ Ker T = ImT, e T(e), se tiene que rango T = dimImT = dimE dimKer T.
Si e
1
, . . . , e
n
es una base de E, entonces ImT = T(e
1
), . . . , T(e
n
)) y hemos denido rango T
como el n umero maximo de T(e
i
) que son linealmente independientes entre s. Si (
ij
) es una matriz
asociada a T entonces rango T es el n umero maximo de columnas linealmente independientes entre s.
Sea v
1
, . . . , v
n
una base de un espacio vectorial V y u
i
=

j

ij
v
j
, 1 i s. Tendremos que
u
1
u
s
=

j1,...,js
v
j1
v
js
Calculemos
j1,...,js
. Sea i : u
1
, . . . , u
s
) V , la inclusion y : V v
j1
, . . . , v
js
) tal que (v
j
) = 0
si j ,= j
1
, . . . , j
s
y (v
ji
) = v
ji
, para 1 i s. Entonces
det( i) v
j1
. . . v
js
=
s
( i)(u
1
u
s
) =
s
()(u
1
u
s
)
=
s
(

1
,...,j

s
v
j

1
v
j

s
) =
j1,...,js
v
j1
v
js
En conclusion,

j1,...,js
= det( (
ij
)
jj1,...,js]
)
Recordemos que u
1
, , u
s
son linealmente independientes si y solo u
1
u
s
,= 0, luego u
1
, . . . , u
s
son linealmente independientes si y solo si alg un
j1,...,js
,= 0.
63
64 Captulo 3. Aplicaciones de la teora
2. Proposicion : Sea (
ij
) una matriz asociada a T : E E
t
. El rango de T es el maximo de los
ordenes de los menores de la matriz (
ij
) de determinante no nulo.
Demostracion. Sea e
1
, . . . , e
n
una base de E y e
t
1
, . . . , e
t
m
una base de E
t
de modo que T(e
i
) =

j

ij
e
t
j
. El rango de T es el n umero maximo de los T(e
1
), . . . , T(e
n
) linealmente independientes.
3. Corolario : El n umero maximo de columnas linealmente independientes de una matriz coincide
con el n umero maximo de las linealmente independientes.
Dada una aplicacion lineal T : E E
t
, e
t
E
t
cumple que e
t
ImT si y solo si dimImT =
dimImT +e
t
). As pues, si e
1
, . . . , e
n
es una base de E, e
t
1
, . . . , e
t
m
es una base de E
t
, T(e
i
) =

j

ij
e
t
j
y e
t
=

j
b
j
e
t
j
, tendremos que e
t
ImT si y solo si el rango de la matriz (
ij
) es igual al
rango de la matriz (
ij
) ampliada por la columna (b
1
, . . . , b
m
).
Supongamos que el sistema de ecuaciones lineales

11
x
1
+ +
n1
x
n
= b
1
. . .

1m
x
1
+ +
nm
x
n
= b
m
tiene solucion. Supongamos que el menor M obtenido de las columnas i
1
, . . . , i
r
y las j
1
, . . . , j
r

de la matriz (
ij
) es de determinante no nulo (r = rango T). Por tanto, las las j
t
/ j
1
, . . . , j
r

dependen linealmente de las las j


1
, . . . , j
r
y para calcular las soluciones del sistema las podemos
quitar. Pasemos las variables x
i
, con i
t
/ i
1
, . . . , i
r
al otro lado de la igualdad. Tendremos que
M
_
_
_
x
i1
.
.
.
x
ir
_
_
_ =
_
_
_
b
j1

/ i1,...,ir]

j1
x
i

.
.
.
b
jr

/ i1,...,ir]

jr
x
i

_
_
_
_
_
_
x
i1
.
.
.
x
ir
_
_
_ = M
1

_
_
_
b
j1

/ i1,...,ir]

j1
x
i

.
.
.
b
jr

/ i1,...,ir]

jr
x
i

_
_
_
3.2 Maximos y mnimos bajo condiciones
Sea U un entorno abierto de a R y f(x) (
1
(U).
1. Proposicion : Si f(x) alcanza un maximo relativo en a (es decir, f(a) f(x), para todo x V ,
para cierto entorno abierto V de a, V U) entonces f
t
(a) = 0.
Demostracion. En efecto, tenemos que f(x) = f(a)+h(x) (xa), donde h(x) ((U) y h(a) = f
t
(a).
Si h(a) > 0 entonces en un entorno (a , a + ) la funcion h(x) sera estrictamente mayor que cero,
entonces f(x) > f(a) para x (a, a+) (y f(x) < f(a) para x (a, a)). Llegamos a contradiccion.
Del mismo modo se llega a contradiccion si h(a) < 0.
Sea ahora U un entorno abierto de a R
n
y f(x) (
1
(U).
2. Proposicion : Si f(x) alcanza un maximo relativo en a entonces d
a
f = 0.
Demostracion. Por la proposicion anterior
f
xi
(a) = 0 para todo x
i
(considerando f como funcion en
la variable x
i
).
3. Proposicion : Supongamos ahora que f(x) (
2
(U) y que d
a
f = 0. Tenemos que f(x) =
f(a) +(x a) H(x) (x a)
t
, siendo H(x) una matriz simetrica (de funciones continuas) y H(a) =
(

2
f
xixj
(a)). Si H(a) es una matriz no singular entonces
3.3. Longitudes, areas y vol umenes 65
1. f(x) alcanza un maximo relativo en a si y solo si (

2
f
xixj
(a)) es denida negativa.
2. f(x) alcanza un mnimo relativo en a si y solo si (

2
f
xixj
(a)) es denida positiva.
Demostracion. H(a) es una matriz denida positiva si y solo si para todo v S
n
, v H(a) v
t
> 0.
Si H(a) es denida positiva entonces H(x) es denida positiva en un entorno de a, y por tanto en ese
entorno f(x) > f(a), para x ,= a, y a es un mnimo relativo. Del mismo modo se razona si H(a) es
denida negativa.
Nos falta ver que si H(a) no es denida positiva ni negativa entonces a no es mnimo ni maximo
relativo. Existen v, v
t
S
n
de modo que v H(a) v
t
< 0 y v
t
H(a) v
t
t
> 0. Existe un entorno
abierto V de a, de modo que v H(x) v
t
< 0 y v
t
H(x) v
t
t
> 0, para todo x V . Por tanto, para
x = a +
v
n
, para todo n >> 0, se tiene que f(x) < f(a) y para x = a +
v

n
, para todo n >> 0, se tiene
que f(x) > f(a).
Sea ahora Y R
n
una subvariedad diferenciable. Dada una funcion f(x
1
, . . . , x
n
) nos planteamos
si f
]Y
alcanza un maximo (o un mnimo) relativo en a Y .
Recordemos que podemos identicar (localmente) Y con un abierto de R
nr
y por tanto podemos
aplicar la teora recien desarrollada. En efecto, sea un abierto U R
n
y un sistema de coordenadas
y
1
, . . . , y
n
en U de modo que U Y y
1
= . . . = y
r
= 0. Tenemos que f(x
1
, . . . , x
n
) = g(y
1
, . . . , y
n
)
y f
]Y
= g(0, . . . , 0, y
r+1
, . . . , y
n
). Es decir, podemos considerar f
]Y
como una funcion diferenciable
en las variables y
r+1
, . . . , y
n
. Por tanto si a es un maximo o un mnimo relativo de f
]Y
entonces
0 = d
a
f
]Y
m
a
/ m
2
a
, donde m
a
es el ideal de todas las funciones diferenciables de Y que se anulan
en a. Observemos que dim
R
m

/ m
2
a
= n r. El epimorsmo natural m
a
m
a
, h h
]Y
, dene el
epimorsmo
: m
a
/m
2
a
m
a
/ m
2
a
, (

h) =

h
]Y
Por tanto, d
a
f
]Y
= 0 si y solo si d
a
f Ker . Ker contiene a d
a
y
1
= y
1
, . . . , d
a
y
r
= y
r
. Por
dimensiones, Ker = d
a
y
1
, . . . , d
a
y
r
). En conclusion, si a es un maximo o mnimo relativo de f
]Y
entonces d
a
f es combinacion lineal de d
a
y
1
, . . . , d
a
y
r
.
Las funciones y
r+1
, . . . , y
n
son un sistema de coordenadas en a de Y . Por tanto, si la matriz
(

2
f
|Y
yiyj
(a))
i,j>r
= (

2
f
yiyj
(a))
i,j>r
es no singular, entonces a es un maximo relativo en Y de f
]Y
si es denida negativa. El problema que nos planteamos es como calcular

2
f
yiyj
, suponiendo que
conocemos las funciones y en terminos de las x. Tenemos que

xi
=

j
yj
xi


yj
, es decir,
_
_
_

x1
.
.
.

xn
_
_
_ = (
y
j
x
i
)
_
_
_

y1
.
.
.

yn
_
_
_
_
_
_

y1
.
.
.

yn
_
_
_ = (
y
j
x
i
)
1

_
_
_

x1
.
.
.

xn
_
_
_
3.3 Longitudes, areas y vol umenes
El volumen (en dimension dos area, en dimension uno longitud) de una variedad diferenciable rie-
manniana es la integral de su forma de volumen.
Longitud de una curva
1. Calculemos la longitud de una curva dada en cartesianas.
66 Captulo 3. Aplicaciones de la teora
Sea R R
n
, (t) = (x
1
(t), . . . , x
n
(t)) una curva. R
n
es una variedad riemanniana con la metrica
T
2
= dx
1
dx
1
+ +dx
n
dx
n
. La curva con la metrica T
2
es una variedad riemanniana.
T
2
= dx
1
(t) dx
1
(t) + +dx
n
(t) dx
n
(t) =

i
x
t
i
(t)
2
dt dt
La forma de longitud de , w

en la coordenada t es w

=
_
i
x
t
i
(t)
2
dt
Longitud de entre t
0
y t
1
:=
_
t1
t0

i
x
t
i
(t)
2
dt
2. Ahora calculemos la longitud de una curva plana dada en coordenadas polares , .
Sea : R 0 R S
1
, (t) = ((t), (t)). Recordemos que la relacion entre las coordenadas
cartesianas y las polares es x
1
= cos , x
2
= sen. Luego,
dx
1
= cos d sen d
dx
2
= sen d + cos d
y T
2
= dx
1
dx
1
+dx
2
dx
2
= . . . = d d +
2
d d. Ahora ya,
T
2](t)
= (
t
2
+
2

t
2
) dt dt
y
Longitud de entre t
0
y t
1
=
_
t1
t0
_

t
2
+
2

t
2
dt
3. Supongamos ahora que la curva viene dada en implcitas C p(x, y) = 0 (x, y las coordenadas
cartesianas de R
2
). Un campo normal a la curva es D = T
2
(dp(x, y)) = p
x


x
+ p
y


y
. Sea N =
D/
_
p
2
x
+p
2
y
. Por tanto, la forma de longitud de C es w
C
= i
N
(dx dy) =
pxdypydx

p
2
x
+p
2
y
. Supongamos
que x, p(x, y) forman un sistema de coordenadas, entonces en C, 0 = dp(x, y) = p
x
dx + p
y
dy y
dy =
px
py
dx. En conclusion si parametrizamos C por x, tenemos que
Longitud de entre x
0
y x
1
=
_
C
p
x
dy p
y
d
_
p
2
x
+p
2
y
= . . . =
_
x1
x0

1 +
p
2
x
p
2
y
dx
que coincide con el calculo de 1., si consideramos la parametrizacion x (x, y(x)) (y es funcion de x
en en C), y recordamos que y
x
=
px
py
en C.

Area de una supercie


1. El area del crculo de radio r, que en coordenadas polares es la region C 0 < r, 0 <
2, es igual a
_
C
_
[T
2
[ d d =
_
0 < r
0 < 2
d d =
_
r
0
2 d =
2
[
r
0
= r
2
El area de la region del plano limitada por la graca de una funcion y = f(x) (supongamos
f(x) 0 y coordenadas cartesianas x, y) , es por denicion
_
A
dxdy, donde A es la region del plano
3.3. Longitudes, areas y vol umenes 67
limitada por la graca L
1
= (x, f(x)) [ a x b, el eje OY, L
2
y = 0, a x b y las rectas
L
3
= x = a, 0 y f(a), L
4
= x = b, 0 y f(b) (no me preocupo por las orientaciones, pero
s del resultado nal). Por el teorema de Stokes
_
A
dx dy =
_
L1L4
y dx =
_
L1
y dx =
_
b
a
f(x) dx
2. Calculemos el area del triangulo T limitado por la graca de una funcion (dada en polares)
= () y el origen:

Area del triangulo T =


_
T
_
[T
2
[ d d =
_
T
d d =
_
T

2
2
d =
_
1
0
()
2
2
d
3. Calculemos el area de la supercie S que se obtiene al girar la graca de la funcion f(x)
alrededor del eje OX.
Consideremos coordenadas cilndricas en R
3
, x, , , es decir, x = x, y = sen, z = cos . En
estas coordenadas S = = f(x), a x b, 0 2, x, son un sistema de coordenadas en S y
d = df(x) = f
t
dx en S.
T
2
= dx dx +d d +
2
d d en coordenadas cilndricas. Por tanto, T
2]S
= (1 +f
t
2
) dx
dx +f
2
d d y

Area de S =
_
S
_
[T
2]S
[ dx d =
_
S
_
1 +f
t
2
f dx d =
_
b
a
2f(x)
_
1 +f
t
(x)
2
dx
Igualmente se tiene que el area de la supercie S que se obtiene al girar la curva plana parametrizada
(x
1
(t), x
2
(t)) alrededor del eje OX
1
es
_
t1
t0
2 x
2
(t)
_
x
t
1
(t)
2
+x
t
2
(t)
2
dt ()
El area de la supercie de la esfera (que se obtiene al girar la semicircunferencia (r cos t, r
sent), 0 t alrededor del eje OX
1
) es
_

0
2 r sent

r
2
dt = 4 r
2
El area de la supercie torica que se obtiene al girar la circunferencia (r cos t, a+r sent), a r
alrededor del eje 0X
1
es
_
2
0
2 (a +r sent)

r
2
dt = 4
2
a r
Veamos que la formula () esta diciendo que el area de una supercie de revolucion es la longitud de
una seccion por el permetro de la circunferencia que describe el centro de gravedad de una seccion: Si
tenemos dos masas m y m
t
en los puntos del plano x = (x
1
, x
2
) y x
t
= (x
t
1
, x
t
2
) el centro de gravedad
de ambas masas es
xm+x

m+m

. Si tenemos una curva (homogenea) en el plano, que troceamos en


68 Captulo 3. Aplicaciones de la teora
incrementos
i
, el centro de gravedad de la curva es

xii

i
es decir, el centro de gravedad de la
curva C (x
1
(t), x
2
(t), de forma de longitud w
C
=
_
x
t
1
(t)
2
+x
t
2
(t)
2
dt es
_
C
x w
C
_
C
w
C
=
(
_
C
x
1
w
C
,
_
C
x
2
w
C
)
Long. C
El permetro de la circunferencia (alrededor del eje OX
1
) que describe el centro de gravedad es
2
_
C
x
2
w
C
Long. C
Por tanto,
2
_
C
x
2
w
C
Long. C
Long. C =
_
t1
t0
2 x
2
(t)
_
x
t
1
(t)
2
+x
t
2
(t)
2
dt
Vol umenes
1. Consideremos en el plano una region A y sea V R
3
el cuerpo de revolucion obtenido al girar
la region S alrededor del eje OX
1
. Sean x
1
, x
2
, x
3
coordenadas cartesianas y x
1
, , coordenadas
cilndricas, es decir, x
1
= x
1
, x
2
= sen, x
3
= cos . Un punto (x
1
, x
2
, x
3
) V (x
1
, ) A
y [0, 2]. Por tanto, el volumen del cuerpo revolucion es
_
V
dx
1
dx
2
dx
3
=
_
A[0,2]
dx
1
d d =
_
A
2 dx
1
d =
_
A
2x
2
w
A
donde w
A
es la forma de area de A y la ultima igualdad es un simple cambio de notacion. Argu-
mentando como mas arriba el lector puede probar que el volumen de un cuerpo de revolucion es el es
el area de una seccion por el permetro de la circunferencia que describe el centro de gravedad de la
seccion.
Calculemos el volumen del toro macizo, Toro, que se obtiene al girar el crculo C de radio
r y centrado en (0, a) alrededor del eje OX
1
. Consideremos en el plano las coordenadas , , con
x
1
= sen y x
2
= a + cos , entonces
Vol. Toro =
_
C
2 x
2
w
C
=
_
[0,r][0,2]
2(a + cos ) d d =
_
r
0
4
2
a d = 2
2
a r
2
Calculemos el volumen del cuerpo de revolucion obtenido al girar alrededor del eje OX el triangulo
T de vertice el origen y lado opuesto un arco de curva = () (en coordenadas polares).
Vol. T =
_
T
2x
2
w
T
=
_
0<(),[0,1]
2 sen d d =
_
1
0
2
3
()
3
sen d
2. Calculemos el volumen del cuerpo de revolucion V obtenido al girar alrededor del origen,
pasando por el eje OZ cada punto del triangulo de vertice el origen y lado opuesto un arco de curva
= f() es
4
3
_

f
3
() d. Consideremos coordenadas esfericas , , , es decir,
x
1
= cos cos , x
2
= sen cos , x
3
= sen
3.4. Ejemplos en Fsica 69
Entonces (x
1
, x
2
, x
3
) V
0

1
, 0 2 y 0 < () y
Vol. V =
_
V
dx
1
dx
2
dx
3
=
_

2
[ cos [ d d d =
_
4
2
d d =
4
3
_
1
0
()
3
d
La esfera de radio r se obtiene al girar la curva = r (con [0, ]) alrededor del origen, luego su
volumen es
4
3
r
3
.
Hipervolumen
Calculemos el volumen de la bola de radio r, B = (x
1
, . . . , x
4
) [ x
2
1
+ . . . + x
2
4
r
2
, de R
4
.
Consideremos coordenadas hiperesfericas , , , , es decir,
x
1
= cos cos cos , x
2
= sen cos cos , x
3
= sencos , x
4
= sen
B = 0 < r, 0 < 2, /2 /2, /2 /2 y dx
1
dx
4
=
3
cos cos
2

d d d d y
Vol. B. =
_
[0,r][0,2][/2,/2][/2,/2]

3
cos cos
2
d d d d =

2
r
4
2
3.4 Ejemplos en Fsica
Quiero establecer justicadamente los principios mnimos o basicos de la fsica Newtoniana y la Re-
lativista.
Todo individuo tiene conocimiento solo de un entorno relativamente peque no (innitesimal) suyo.
En cada instante de tiempo y lugar el individuo observara un tiempo y un espacio. El espacio fsico X
en una variedad diferenciable de dimension cuatro (innitesimalmente T
x
X = R
4
). Dar un individuo-
observador es dar una curva C X (curva espacio-temporal) y un punto c C digamos que es el
individuo en un instante y lugar determinados.
Cada individuo innitesimalmente tiene una concepcion de tiempo y espacio, rompera su realidad
observada en dos bien diferenciadas: tiempo y espacio. Ademas suponemos que cada individuo le
puede comunicar a uno cercano que hora tiene y que lugar ocupa. Innitesimalmente el individuo
rompe su realidad fsica en tiempo y espacio y lo puede comunicar. Es decir, T
c
X = T
c
C E
c
,
donde diremos que T
c
C es el tiempo innitesimal del individuo-observador C en c y E
c
es el espacio
del observador C en c. La condicion de comunicabilidad (que no hemos expresado o detallado con
rigor) se traduce en que T
c
X sucede una de las dos posibilidades siguientes:
1. Existe una metrica simetrica (de Lorentz) que en una base ortogonal es de la forma
_
_
_
_
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
y E
c
= T
c
C

.
2. Existe una metrica simetrica que en una base ortogonal es de la forma
T
2

_
_
_
_
1 0 0 0
0 0 0 0
0 0 0 0
0 0 0 0
_
_
_
_
y E
c
= radT
2

También podría gustarte