Está en la página 1de 112

Notas de clase de Geometría Diferencial (optativa de

cuarto curso del Grado de Matemáticas)

Vicente Miquel Molina

curso 2019-20, otoño 2019

versión 0.03
ii

Para un alumno de secundaria:


"Si un alumno no aprende por el camino que el docente enseña, el docente deberá buscar el
camino por el que cada alumno aprende". (Dra. Isabel Galli, Argentina)

Para quien ya está estudiando en la Universidad, yo diría:

"Si un estudiante no aprende con el modo de enseñar de su profesor, deberá descubrir su propio
modo de aprender”. Jamás deberá tirar la toalla y pensar que él no puede aprender.
Ese “modo personal de aprender” es una de las principales enseñanzas que ha de dar la
Universidad.1

Pero hay algo más que ningún estudiante puede olvidar: todo aprendizaje requiere estudio y
esfuerzo.

1
Es decir, la Universidad ha de darle la oportunidad de que encuentre su modo personal de aprender, lo que
requiere darle tiempo para ir a la biblioteca, para leer y pensar, y no atosigarlo con miles de ejercicios que ha de
entregar cada semana.

ii
Índice general

0. PRELIMINARES ix
0.1. ORIENTACIÓN DE ESPACIOS VECTORIALES. . . . . . . . . . . . . . . . . . . . . ix
0.2. GRUPOS DE TRANSFORMACIONES DE Rn . . . . . . . . . . . . . . . . . . . . . x
0.3. PRODUCTO VECTORIAL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xii
0.4. ESPACIO TANGENTE A Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xvi

1. Variedad diferenciable y espacio tangente 1


1.1. Comentario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Concepto de variedad diferenciable (subvariedad de Rm ) . . . . . . . . . . . . . . . . 1
1.3. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.4. Diferenciabilidad de los cambios de cartas . . . . . . . . . . . . . . . . . . . . . . . . 5
1.5. Aplicaciones diferenciables. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.6. Introducción al espacio tangente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.7. Vectores tangentes y derivaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

2. Diferencial de una aplicación. Inmersiones y sumersiones 12


2.1. La diferencial de una aplicación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2. Inmersiones y sumersiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

3. Teorema de la función implícita. Campos vectoriales 18


3.1. Teoremas de la función inversa y de la función implícita . . . . . . . . . . . . . . . . 18
3.2. El fibrado tangente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.3. Campos vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.4. El corchete de Lie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.5. Campos a lo largo de una aplicación . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.6. Campos f -relacionados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.7. Curvas integrales de campos vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . 24

4. Grupos de Lie 29
4.1. Grupos de Lie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.1.1. Álgebra de Lie de un grupo de Lie . . . . . . . . . . . . . . . . . . . . . . . . 32
4.2. Flujo de un c.v. invariante a la izquierda en un grupo de Lie . . . . . . . . . . . . . 33

5. Variedades semi-riemannianas y ejemplos 34


5.1. Variedades (semi)-Riemannianas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
5.2. Ejemplos de variedades semi-Riemannianas . . . . . . . . . . . . . . . . . . . . . . . 35

6. Existencia de métricas. Conexiones 42


6.1. Derivada covariante o conexión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
6.2. Gradiente, divergencia, laplaciana y derivada de Lie . . . . . . . . . . . . . . . . . . 46
6.3. Isometrías: conservan la derivada covariante . . . . . . . . . . . . . . . . . . . . . . . 47

iii
iv ÍNDICE GENERAL

7. Subvariedades. Formalismo de Cartan. Transporte paralelo. 49


7.1. La conexión de Levi-Civita de una subvariedad semi-riemanniana . . . . . . . . . . 49
7.2. Formalismo de Cartan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
7.3. Derivada covariante a lo largo de una curva . . . . . . . . . . . . . . . . . . . . . . . 51
7.4. Transporte paralelo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
7.5. Apéndice B. Sobre las formas diferenciales y la diferencial exterior . . . . . . . . . 53

8. Geodésicas, aplicación exponencial y lema de Gauss 56


8.1. Geodésicas y aplicación exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
8.2. Coordenadas normales y coordenadas geodésicas esféricas. Lema de Gauss . . . . 58

9. El tensor curvatura 63
9.1. Tensor curvatura y curvatura seccional . . . . . . . . . . . . . . . . . . . . . . . . . . 63
9.2. El formalismo de Cartan para la curvatura . . . . . . . . . . . . . . . . . . . . . . . . 66
9.3. La ecuación de Gauss de una subvariedad . . . . . . . . . . . . . . . . . . . . . . . . 67
9.4. Dos lemas útiles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

10. Curvatura de Ricci y variedades de Einstein 69


10.1. Curvatura de Ricci y curvatura escalar . . . . . . . . . . . . . . . . . . . . . . . . . . 69
10.2. Curvatura seccional constante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
10.3. Derivada covariante de los tensores curvatura . . . . . . . . . . . . . . . . . . . . . . 70
10.4. Espacios de Einstein . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72

11. Interpretación geométrica de las curvaturas 74


11.1. Desarrollo de Taylor en coordenadas normales . . . . . . . . . . . . . . . . . . . . . 74
11.2. Interpretación geométrica de las curvaturas . . . . . . . . . . . . . . . . . . . . . . . 76

12. Campos de Jacobi 80


12.1. Campos de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
12.2. Puntos conjugados, puntos de corte y campos de Jacobi . . . . . . . . . . . . . . . . 83
12.3. Teorema de Cartan de determinación de la métrica por la curvatura . . . . . . . . . 84

13. Las variedades riemannianas como espacios métricos y su topología 86


13.1. Las variedades riemannianas como espacios métricos . . . . . . . . . . . . . . . . . . 86
13.2. Topología de la distancia intrínseca . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

14. Variedades completas 90


14.1. Variedades completas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
14.2. Teorema de Hopf-Rinow . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91

15. 94
15.1. Segunda forma fundamental de las esferas geodésicas . . . . . . . . . . . . . . . . . 94
15.2. Teoremas de de comparación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
15.3. Teorema de Myers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
15.4. Teorema de Hadamard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94

16. 95
16.1. Sobre acciones de grupos y espacios recubridores . . . . . . . . . . . . . . . . . . . 95

iv
Presentación de la asignatura

¿Qué es la Geometría?

Punto de vista clásico:

Geometría Euclídea: Geometrías no euclídeas


1. Dos puntos cualesquiera determinan un seg-
mento de recta.

Geometría hiperbólica
2. Un segmento de recta se puede extender
5H. Por un punto exterior a una recta, se
indefinidamente en una linea recta.
puede trazar infinitas paralelas (rectas que no
cortan a la inicial).

3. Se puede trazar una circunferencia dados


un centro y un radio cualquiera. Geometría elíptica
4. Todos los ángulos rectos son iguales.
5. Por un punto exterior a una recta, se pue- 5E. Dos rectas no coincidentes se cortan en
de trazar una única paralela. un punto

¿Como estudiamos ahora la Geometría Euclídea?.

Espacio Rn medir ángulos


tiene dimensión (finita)
es un espacio vectorial y medir distancias
tiene un cálculo diferencial
que permiten medir n-volúmenes
definir rectas
bien relacionado con la derivada de un
tiene un producto escalar que permite campo vectorial

v
vi ÍNDICE GENERAL

Modelo Geometría Elíptica Esfera en el plano

esfera / espacio proyectivo esfera

Modelo Geometría Hiperbólica Hiperbólico como paraboloide del Espacio


de Minkowski

disco de Poincaré espacio hiperbólico

Como estudiamos ahora las Geometrías no Euclídeas. (todas, no sólo la elíptica y la hiperbólica)

Espacio Rn Espacio M
tiene dimensión (finita) tiene dimensión (finita)
es un espacio vectorial y tiene un cálculo diferencial de funciones
tiene un cálculo diferencial esencial es un producto escalar en cada
que permiten punto de M, que permite
definir rectas
medir ángulos
tiene un producto escalar que permite
medir ángulos medir longitudes

medir distancias medir n-volúmenes


medir n-volúmenes
bien relacionado con una definición ade-
bien relacionado con la derivada de un cuada de derivada de un campo vectorial
campo vectorial que permite definir rectas (geodésicas)

vi
ÍNDICE GENERAL vii

Además, recordemos que hay dostipos de métricas no degeneradas:

Espacio Rn Espacio M

espacio euclídeo variedad de Riemann

espacio de Minkowski (físico) variedad de Lorentz (físico)

La curvatura

la curvatura distingue un espacio curvado de uno lineal,


es lo que hace que la geometría no euclídea sea distinta de la euclídea.

Una curvatura en dimensión 2, que se desdobla en 3 en dimensión superior.

Relación de la curvatura con todas las propiedades

Aprendiendo con los ejemplos (trabajo del alumno)

Esfera

Espacio hiperbólico

Espacio De Sitter

Espacio Anti De Sitter

Esfera de Berger o grupo SU(2) (dos versiones)

Grupo de Heisenberg (dos versiones)

Productos y productos alabeados (arpwd products)

espacio proyectivo complejo

Espacio de Schwarzschild

...

Nombres propios de la GD

Por ejemplo:

C. F. Gauss Alexandrov Nash


B. Riemann M. Berger J. Cheeger
Hadamard A. Besse M. Gromov
R. Hamilton
E. Cartan Klingenberg
G. Perelman
Rauch Kobayashi
T. Aubin
Blaschke Nomizu S. T. Yau
S.S. Chern Singer R. Schoen
L. Santaló Milnor A. Ros

vii
viii ÍNDICE GENERAL

viii
Capítulo 0

PRELIMINARES

0.1. ORIENTACIÓN DE ESPACIOS VECTORIALES.


Intuitivamente, en el espacio ordinario, el concepto de orientación corresponde a la posibilidad
2
de distinguir entre mano derecha e izquierda. Son “intrínsecamente iguales , sin embargo, es
imposible hacer coincidir exactamente una con la otra. La idea para "formalizar.ese concepto, en
una teoría lineal, es sustituir las manos por sistemas de referencia. Así, en el plano (R2 ), los
sistemas de referencia de la fig. 1 hacen el papel de la mano derecha y la mano izquierda y,
además, solo hay dos manos (sistemas de referencia) : la derecha y la izquierda (ver 0.2 para una
demostración de este hecho en dimensión finita arbitraria).

sistema de referencia sistema de referencia


derecho izquierdo
Definición 0.1. Dado un R-espacio vectorial V de dimensión finita n, decimos que dos bases
ordenadas e = {e1 , ..., en }, f = {f1 , ..., fn } tienen
Pn la imisma orientacióni si la matriz de cambio de
base tiene determinante positivo (i.e.: si fj = i=1 fj ei , entonces det(fj ) > 0).
Proposición 0.2. Si en el conjunto B de las bases ordenadas de V definimos la relación
e∼f sii e y f tienen la misma orientación,
se ve fácilmente que ∼ es una relación de equivalencia en B. Como el determinante de una matriz
de cambio de base es positivo o negativo (no puede ser cero), hay dos clases de equivalencia en
B.
Demostración. En efecto: B/ ∼ tiene al menos dos elementos: si e = {e1 , e2 , ..., en } ∈ B, entonces
e 0 = {e2 , e1 , ..., en } no es equivalente a e.
Sean [e], [e 0 ] las clases de quivalencia de e y e 0 respectivamente. Entonces B/ ∼ = {[e], [e 0 ]}.
En efecto: sea g ∈ B, si g ∼ e, [g ] = [e]; si g no es equivalente a e, sean G y F las matrices
tales que g = Ge, e = Fe 0 . Entonces g = GFe 0 , pero g no equivalente a e, y e no equivalente a e 0
implican detG < 0 y detF < 0 respectivamente, luego det(GF ) > 0 y g ∼ e 0 .

ix
x PRELIMINARES

Definición 0.3. Se llama orientación de un espacio vectorial V a la elección de un elemento


de B/ ∼.
Se llama espacio vectorial orientado (V , or) a un espacio vectorial V en el que se ha elegido
una orientación or ∈ B/ ∼.
Diremos que una base ordenada e de (V , or) está orientada positivamente si e ∈ or, y diremos
que está orientada negativamente si pertenece a la otra orientación −or de V .
De acuerdo con estas definiciones, si e ∈ or, otra base ordenada f está orientada positivamente
si la matriz de cambio de base F de e a f tiene determinante positivo, y negativamente orientada
si detF < 0.
Definición 0.4. En el caso V = Rn , como hay una base canónica, llamaremos orientación
canónica (can) de Rn a aquella clase de equivalencia a la que pertenece la base canónica;
denotaremos por −can la otra orientación. Si no decimos lo contrario, consideraremos a Rn siempre
con la orientación can.

0.2. GRUPOS DE TRANSFORMACIONES DE Rn


Recordemos que un espacio vectorial euclídeo (V , h, i) es un espacio vectorial V sobre el que
se ha dado una forma bilineal simétrica h, i definida positiva.
En este apartado consideraremos Rn con su estructura euclídea y su orientación canónicas.
Recordemos que el grupo Gl(n, R) de isomorfismos del espacio vectorial Rn es naturalmente
isomorfo al grupo de matrices cuadradas n × n no singulares (i.e. de determinante no nulo o
inversibles).
Definición 0.5. Una transformación lineal F : Rn −→ Rn se dice que es una transformación
ortogonal si para cualesquiera X , Y ∈ Rn , hFX , FY i = hX , Y i.
Obsérvese que las transformaciones ortogonales son biyectivas, puesto que si FX = 0, entonces
0 = hFX , FX i = hX , X i, de donde X = 0, luego son aplicaciones lineales e inyectivas entre
espacios vectoriales de la misma dimensión, por lo tanto son isomorfismos.
El conjunto de las transformaciones ortogonales forman un grupo, que se llama grupo ortogonal
O(n, R), es un subgrupo del grupo lineal Gl(n, R), y es isomorfo al grupo de las matrices n × n
ortogonales (i.e. las matrices A tales que At = A−1 , y que, por lo tanto, verifican detA = ±1).
Evidentemente una transformación ortogonal conserva distancias.
Si una transformación ortogonal transforma una base ordenada en otra con la misma orien-
tación, se dice que conserva la orientación. De la definición de orientación se deduce que una
transformación ortogonal A conserva la orientación sii detA > 0, lo cual, de acuerdo con las
propiedades de las matrices ortogonales, equivale a detA = 1.
El grupo de las transformaciones ortogonales que conservan la orientación se llama grupo
especial ortogonal SO(n, R), y los elementos de ese grupo se llaman rotaciones.
Definición 0.6. Se llama traslación de vector c a la aplicación Tc : Rn −→ Rn definida por
Tc (X ) = X + c.
Claramente las traslaciones constituyen un grupo abeliano isomorfo al grupo aditivo de vectores
de Rn . Denotaremos por Tn este grupo.
También es claro que las traslaciones conservan las distancias.
Definición 0.7. Se llama isometría de Rn a toda aplicación F : Rn −→ Rn que conserva las
distancias, i.e. tal que |FX − FY | = |X − Y | para todo X , Y ∈ Rn .

x
0.2 GRUPOS DE TRANSFORMACIONES DE Rn xi

Las isometrías de Rn forman un grupo que denotaremos por Isn .


Como ya vimos, las transformaciones ortogonales y las traslaciones son isometrías. El siguiente
resultado establece que estas son básicamente todas las isometrías.
Teorema 0.8. Dada una isometría F , existen una traslación única T = TF (0) y una transfor-
mación ortogonal única C = T −1 ◦ F (i.e. CX = FX − F (0)) tales que F = T ◦ C .
Demostración. Supongamos primero que F (0) = 0. Vamos a ver que en este caso F es una
transformación ortogonal. En efecto, observemos primero que, por ser F una isometría,

|F (x)| = d(F (x), 0) = d(F (x), F (0)) = d(x, 0) = |x| (1) 0.8.1

para todo x ∈ Rn . Por otro lado, para todo x e y de Rn ,

hF (x) − F (y ), F (x) − F (y )i = |F (x) − F (y )|2 = d(F (x), F (y ))2


= d(x, y )2 = |x − y |2 = hx − y , x − y i2 . (2)

De donde, desarrollando los productos escalares y aplicando (1), se tiene

hF (x), F (y )i = hx, y i . (3) 0.8.2

Falta ver que F es lineal. Para ello, consideremos la base ortonormal canónica {e1 , ..., en } de
Rn . De
P (3) resulta que {F (e1 ), ..., F (en )} es también una base ortonormal, por lo tanto, para todo
x = ni=1 x i ei ∈ Rn se tiene, usando de nuevo (3) y la expresión de las componentes de un vector
en una base ortonormal, que
n
X n
X n
X
F (x) = hF (x), F (ei )i F (ei ) = hx, ei i F (ei ) = x i F (ei ),
i=1 i=1 i=1

de donde resulta que, para todo x e y de Rn , y todo a, b de R


n
X n
X
F (a x + b y ) = F ( (a x i + b y i ) ei ) = (a x i + b y i ) F (ei )
i=1 i=1
n
X n
X
i
=a x F (ei ) + b y i F (ei ) = a F (x) + b F (y ). (4)
i=1 i=1

Supongamos ahora F (0) 6= 0. Sea T la traslación de vector F (0). Entonces T −1 es la traslación


de vector −F (0). Como el conjunto de las isometrías es un grupo con la ley composición de
aplicaciones, se tiene que T −1 ◦ F es una isometría y, además, T −1 ◦ F (0) = F (0) − F (0) = 0,
luego T −1 ◦ F es una transformación ortogonal, de donde F = T ◦ C , siendo C = T −1 ◦ F .
Para ver que T y C son únicas, supongamos que existen una traslación T 0 y una rotación C 0
tales que F = T 0 ◦ C 0 . Se tiene entonces que T ◦ C = T 0 ◦ C 0 , de donde C = T −1 ◦ T 0 ◦ C 0 , y
como C (0) = 0 = C 0 (0) por ser transformaciones ortogonales, se tiene que T −1 ◦ T 0 (0) = 0, lo
que implica que T −1 ◦ T 0 = I por ser T −1 ◦ T 0 una traslación. Resulta de aquí que T 0 = T y que
C0 = C.
Obsérvese que, en general, C ◦ Ta 6= Ta ◦ C .
Definición 0.9. Un difeomorfismo (aplicación diferenciable con inversa diferenciable) f de Rn
se dice que conserva la orientación si para todo p ∈ Rn , df (p) conserva la orientación.
Como consecuencia se tiene que: Una isometría F = Ta ◦ C conserva la orientación si y solo
si C la conserva ( pues df (p) = C para todo p ∈ Rn ).

xi
xii PRELIMINARES

0.10 Definición 0.10. Dada una isometría F = Ta ◦ C , se llama signo (sgnF ) de F al determinante
de su parte ortogonal C (que solo puede ser ±1).

De esta definición y de lo dicho en 0.9, resulta que una isomatría F = Ta ◦ C conserva la


orientación si tiene signo positivo, y la invierte si tiene signo negativo.
Ejercicios
(a). Demuéstrese que C ◦ Ta = TC (a) ◦ C .
(b). Dadas las isometrías F = Ta ◦ A y G = Tb ◦ B, encuéntrense las partes de traslación y
transformación ortogonal de F ◦ G y G ◦ F .
(c). Demuéstrese que una isometría F = Ta ◦ C tiene una aplicación inversa F −1 , que también
es isometría. Encuéntrense las partes de traslación y transformación ortogonal de F −1 .
(d) En cada uno de los casos siguientes, decídase si F es una isometría de R3 . De ser así,
enontrar su componente traslación y su componente transformación ortogonal.
(1) F (p) = −p.
(2) F (p) = hp, ai a, donde |a| = 1.
(3) F (p) = (p3 − 1, p2 − 2, p1 − 3).
(4) F (p) = (p1 , p2 , 1).
(e)(1) Demostrar que una isometría F = T ◦ C transforma el plano que pasa por p y es
ortogonal a q en el plano que pasa por F (p) y es ortogonal a C (q). (2) Si P es el plano que pasa
por (1/2, −1, 0) y es ortogonal a (0, 1, 0), encontrar una isometría F = T ◦ C tal que F (P) sea el
plano que pasa por (1, −2, 1) y es ortogonal a (1, 0, −1).
(f) Probar que si C es una transformación ortogonal, entonces

C (v ∧ w ) = det(C ) C (v ) ∧ C (w ).

(g) Sea a un punto de R3 de norma unidad. Demostrar que la fórmula

C (p) = a ∧ p + hp, ai a

define una transformación ortogonal. Describir su efecto general en R3 .

0.3. PRODUCTO VECTORIAL


Vamos a dar una definición de producto vectorial de n − 1 vectores en un espacio vectorial real
euclídeo orientado de dimensión n que generaliza la definición usual de producto vectorial de dos
vectores en R3 .
Recordemos que, dados dos vectores X , Y de R3 , se define su producto vectorial como el vector
Z de R3 perpendicular al plano determinado por X e Y , verificando la regla de la mano derecha 2

tal que |Z | = |X ||Y | sen ∠(X , Y ). Si los vectores X e Y son linealmente dependientes, entonces
su producto vectorial es 0.
Obsérvese que verificar la regla de la mano derecha en R3 equivale a decir que {X , Y , Z } ∈
can.
Por otro lado

|X |2 |Y |2 sen2 ∠(X , Y ) = |X |2 |Y |2 (1 − cos2 ∠(X , Y )) =


hX , Y i2
= |X |2 |Y |2 (1 − ) = |X |2 |Y |2 − hX , Y i2 . (5)
|X |2 |Y |2

Resulta entonces natural la siguiente generalización:

xii
0.3 PRODUCTO VECTORIAL xiii

0.12 Definición 0.11. Sea (V ; h, i ; or) un espacio vectorial real euclídeo orientado de dimensión n.
Se define el producto vectorial de n−1 vectores X1 , ... , Xn−1 de V como el vector Z = X1 ∧...∧Xn−1
que verifica las propiedades:
(a) |Z |2 = det(hXi , Xj i)1≤i,j≤n−1 ,
(b) Si |Z | 6= 0, entonces {X1 , ..., Xn−1 , Z } ∈ or, y Z es ortogonal al espacio generado por
{X1 , ..., Xn−1 }.
Resulta de esta definición que:
0.12.1 Corolario 0.12. Si se cambia la orientación, el producto vectorial cambia de signo.
0.12.2 Proposición 0.13. X1 ∧ ... ∧ Xn−1 = 0 si y solo si {X1 , ..., Xn−1 } son linealmente dependientes.
(Esto prueba también que no hay ambigüedad en la definición 0.12).
Demostración. En efecto: si {X1 , ..., Xn−1 } son linealmente independientes, entonces (hXi , Xj i)1≤i,j≤n−1
es la matriz de la métrica h, i restringida al espacio generado por {X1 , ..., Xn−1 } en la base for-
mada por esos mismos vectores, lo que exige |Z |2 = det(hXi , Xj i)1≤i,j≤n−1 P 6= 0. Recíprocamente, si
{X1 , ..., Xn−1 } son linealmente dependientes, existe un i tal que Xi = j6=i λj Xj , y
 D P E 
hX1 , X1 i ... hX1 , Xi−1 i X1 , j6=i λj Xj ... hX1 , Xn−1 i
 
2
 ... 
|Z | = det 
 =
 ... D E


P
hXn−1 , X1 i ... hXn−1 , Xi−1 i Xn−1 , j6=i λj Xj ... hXn−1 , Xn−1 i
 
hX1 , X1 i ... hX1 , Xi−1 i hX1 , Xj i ... hX1 , Xn−1 i
X  ... 
= λj det   = 0,
 ... 
j6=i
hXn−1 , X1 i ... hXn−1 , Xi−1 i hXn−1 , Xj i ... hXn−1 , Xn−1 i
por haber dos columnas repetidas en cada sumando.
Este resultado será también una consecuencia inmediata del siguiente teorema
0.13 Teorema 0.14. Sea {eP 1 , ..., en } una base ortonormal positivamente orientada de (V , h, i , or).
Dados los vectores Xk = ni=1 Xki ei , 1 ≤ k ≤ n − 1, se tiene que:
 
e1 ... en
 X11 ... X1n 
X1 ∧ ... ∧ Xn−1 = (−1)n−1 det   ... ... ... 

1 n
Xn−1 ... Xn−1

Demostración. Veamos primero que el segundo miembro de la igualdad es independiente de la


base Portonormal de or elegida. En efecto: Sea {f1 , ..., fn } ∈ or otra base ortonormal. Entonces
n i i
fj = i=1 fj ei , j = 1, ..., n. La matriz del cambio de base F = (fj ) será una matriz ortogonal
(F t = F −1 ) con detF > 0 (y, por lo tanto detF = 1) por ser las bases e y f ortonormales y con la
misma orientación. En las distintas bases los vectores Xk , k = 1, ..., n − 1, se escriben de la forma
n
X n
X
0 j
Xk = Xki ei = X k fj ,
i=1 j=1

lo que da la relación
n
X
0 j
Xki = X k fj i ,
j=1

xiii
xiv PRELIMINARES

de donde, usando que F t = F −1 , resulta


n
X
0
Xkj = Xki fji .
i=1

Se tiene entonces que


 Pn i
... P ni=1 fni ei
  P   
f1 ... fn Pni=1 f1i ei i e1 ... en
 0 X11 ... 0 X1n  n i i  1

i=1 X1 f1 ... X f 
i=1 1 n  = det  X 1 ... X1n  det(F t ),
det 
 ...
 = det 
... ...  
Pn ... i ... P ...   ... ... ... 
0 1 0 n i n i i 1 n
Xn−1 ... Xn−1 i=1 Xn−1 f1 ... i=1 Xn−1 fn Xn−1 ... Xn−1

donde hemos tenido en cuenta que el determinante de un producto de matrices es el producto de


los determinantes. Aplicando de nuevo que det(F t ) = det(F ) = 1, se obtiene lo que queríamos
demostrar.
Demostremos ahora la fórmula. Si X1 , ..., Xn−1 son linealmente dependientes la igualdad es
evidente. Si son linealmente independientes, determinan un hiperplano. Sea {e1 , ..., en−1 } una
base ortonormal de ese hiperplano. Sea en el vector unitario ortogonal al hiperplano tal que
{e1 , ..., en−1 , en } ∈ or. Entonces Xkn = 0 para todo k, luego
 
e1 ... en−1 en  1 n−1

1
 X1 ... X1 n−1 X 1 ... X1
0
Z ≡ (−1)n−1 det 
 ... ... ... ... = det
  ... ... ...  en .
1 n−1
1 n−1 Xn−1 ... Xn−1
Xn−1 ... Xn−1 0

Resulta de aquí que la matriz de cambio de base de {e1 , ..., en } a {X1 , ..., Xn−1 , Z } tiene como
determinante |Z |2 , luego {X1 , ..., Xn−1 , Z } ∈ or. Por otro lado
 2
X11 ... X1n Xn−1
2
|Z | = det  ... ... ...  = det( Xik Xjk ) = det(hXi , Xj i).
1 n
Xn−1 ... Xn−1 k=1

0.14 Corolario 0.15. El producto vectorial es una aplicación (n − 1)-lineal alternada sobre V .

Demostración. Es consecuencia de que el determinante es una aplicación (n − 1)-lineal alternada.

0.15 Proposición 0.16. {X1 , ..., Xn } es una base de V positivamente orientada (con respecto a or)
si y solo si hX1 ∧ ... ∧ Xn−1 , Xn i > 0.

Demostración. Es consecuencia de que este producto escalar es justamente el determinante de


la matriz (Xki ) de las componentes de los vectores Xk en una base ortonormal {ei } positivamente
orientada. En efecto, aplicando el teorema 0.14,
   1 
* e1 ... en + Xn ... Xnn
 X11 ... X1n   1 n 
hX1 ∧ ... ∧ Xn−1 , Xn i = (−1)n−1 det   , Xn = (−1)n−1 det  X1 ... X1  .
 ... ... ...   ... ... ... 
1 n 1 n
Xn−1 ... Xn−1 Xn−1 ... Xn−1

xiv
0.3 PRODUCTO VECTORIAL xv

0.16 Corolario 0.17. Para toda permutación σ ∈ Sn ,




Xσ(1) ∧ ... ∧ Xσ(n−1) , Xσ(n) = sign(σ) hX1 ∧ ... ∧ Xn−1 , Xn i .

0.17 Proposición 0.18. hX1 ∧ ... ∧ Xn−1 , Y1 ∧ ... ∧ Yn−1 i = det(hXi , Yj i).

Demostración. Si Y1 , ..., Yn−1 son linealmente dependientes, entonces Y1 ∧ ...P


∧ Yn−1 = 0. Por otra
parte, si Y1 , ..., Yn−1 son linealmente dependientes, existe un i tal que Yi = j6=i λj Yj, y
 D P E 
hX1 , Y1 i ... hX1 , Yi−1 i X1 , j6=i λj Yj ... hX1 , Yn−1 i
 
 ... 
det(hXi, Yji) = det  =

 ... D E


P
hXn−1 , Y1 i ... hXn−1 , Yi−1 i Xn−1 , j6=i λj Yj ... hXn−1 , Yn−1 i
 
hX1 , Y1 i ... hX1 , Yi−1 i hX1 , Yj i ... hX1 , Yn−1 i
X  ... 
= λj det   = 0,
 ... 
j6=i
hXn−1 , Y1 i ... hXn−1 , Yi−1 i hXn−1 , Yj i ... hXn−1 , Yn−1 i
por haber dos columnas repetidas en cada sumando. Si Y1 , ..., Yn−1 son linealmente independientes,
sea {e1 , ..., en−1 } una base ortonormal del espacio generado
Pn−1pori {Y1 , ..., Yn−1 }, y sea en = e1 ∧
... ∧ en−1 , entonces, aplicando 0.13 se tiene que, si Yj = i=1 Yj ei , Xk = ni=1 Xki ei , entonces
P

hX1 ∧ ... ∧ Xn−1 , Y1 ∧ ... ∧ Yn−1 i


   
* e1 ... en e1 ... en−1 en +
 X11 n−1
... X1n   1
 ,  Y1 ... Y1 0
= (−1)n−1 (−1)n−1 det 
 ...

... ...   ... ... ... 0
1 n 1 n−1
Xn−1 ... Xn−1 Yn−1 ... Yn−1 0
n−1 n−1
   
X11 ... X1 1
Y1 ... Y1
= det  ... ... ...  det  ... ... ... 
1 n−1 1 n−1
Xn−1 ... Xn−1 Yn−1 ... Yn−1
X1n−1
 1   1 1

X1 ... Y1 ... Yn−1
= det  ... ... ...  det  ... ... ... 
1
Xn−1 ... n−1
Xn−1 Y1n−1 ... Yn−1 n−1
 ! 
n−1
X
= det  Xki Yji  = det(hXi , Yj i). (6)
i=1 1≤k,j≤n−1

0.18 Proposición 0.19. Sea I un intervalo abierto de R, sean X1 , ..., Xn−1 : I −→ R aplicaciones
diferenciables. Entonces
n−1
d X d
(X1 ∧ ... ∧ Xn−1 ) = X1 ∧ ... ∧ Xi ∧ ... ∧ Xn−1 .
dt i=1
dt

Proposición 0.20. Es consecuencia de la regla de derivación de determinantes (o de aplica-


ciones multilineales).

Proposición 0.21 (0.19.Producto vectorial en R3 ). Coincide con el ya conocido.

xv
xvi PRELIMINARES

Recordemos otra propiedad útil de este producto vectorial:

(X ∧ Y ) ∧ Z = hX , Z i Y − hY , Z i X .

Producto vectorial en R2 .
En este caso el producto vectorial es de un solo vector. Dado un vector X , denotaremos su
producto vectorial por JX . Si {e1 , e2 } ∈ can y X = X 1 e1 + X 2 e2 , JX será
 
e1 e2
JX = −det = −X 2 e1 + X 1 e2 ,
X1 X2

i. e., JX es el vector perpendicular a X con la misma norma que X tal que {X , JX } es una base
positivamente orientada de R2 (si X 6= 0).
Obsérvese que si se considera el vector X como un número complejo X1 + i X2 , entonces JX
es justamente el vector que resulta de multiplicar X por el número i. (Es decir, si R2 se identifica
con C, el producto vectorial se identifica con la multiplicación por i).

0.4. ESPACIO TANGENTE A Rn


Rn como espacio vectorial corresponde intuitivamente al conjunto de flechas saliendo del origen
0. Dado un punto x ∈ Rn , podemos considerar también el conjunto de flechas saliendo de x, y, si la
intuición anterior era buena, este conjunto de flechas corresponderá a un nuevo espacio vectorial.
Este es justo el espacio vectorial que definiremos como espacio tangente a Rn en x.
0.20 Definición 0.22. Dado x ∈ Rn , se llama espacio tangente a Rn en x al conjunto Tx Rn =
{(x, v ) : v ∈ Rn } = x × Rn dotado con las operaciones
i) (x, v ) + (x, w ) = (x, v + w ),
ii) a(x, v ) = (x, av ), para todo a ∈ R,
iii) h(x, v ), (x, w )i = hv , w i
con las cuales es un espacio vectorial euclídeo isométrico a Rn mediante la isometría canónica
(x, v ) 7→ v .
Con frecuencia usaremos también las notaciones vx ≡ (x, v ) y Rnx ≡ Tx Rn .
Es evidente que la aplicación

Φx : Tx Rn −→ Rn ; Φx (x, v ) = v (7) Phi

es un isomorfismo, que emplearemos con mucha frecuencia incluso sin escribirlo cuando sea cómodo
identificar Tx Rn con Rn .
0.21 Definición 0.23. Dado un abierto U de Rn , llamaremos fibrado tangente TU de U al conjunto
TU = ∪{Tx Rn , x ∈ U} ≡ U × Rn .
0.22 Nota 0.24. Usando el concepto de espacio tangente se pueden reinterpretar los conceptos de
diferencial de una función en un punto y de diferencial de una función del siguiente modo:
Sea U un abierto de Rn , F : U −→ Rm una función diferenciable, entonces la diferencial
dF (p), p ∈ U, se puede considerar como

dF (p) : Tp Rn −→ TF (p) Rm /(p, v ) 7→ (F (p), dF (p)(v )),

donde la segunda dF (p) en el renglón anterior tiene el significado habitual en análisis.


Del mismo modo se puede considerar dF como

dF : TU −→ T Rm /(p, v ) 7→ (F (p), dF (p)(v )).

xvi
0.4 ESPACIO TANGENTE A Rn xvii

Figura 2

0.23 Definición 0.25. Un campo vectorial X sobre un abierto U de Rn es una aplicación X : U −→


TU tal que a cada p ∈ U le hace corresponder un vector X (p) ∈ Tp Rn .

Si definimos p1 : TU −→ Rn por p1 (p, v ) = p, entonces la condición X (p) ∈ Tp Rn equivale a


p1 ◦ X = id.
Un campo vectorial X sobre U se dice que es diferenciable de clase C k si y solo si lo es como
aplicación de U en TU = U × Rn .
Dado un campo vectorial X sobre U, se le asocia unívocamente una aplicación 0 X : U −→ Rn
dada por 0 X = p2 ◦ X , donde p2 : TU −→ Rn se define por p2 (p, v ) = v (y, naturalmente, toda
aplicación 0 X : U −→ Rn determina univocamente un campo vectorial X sobre U definido por
X (p) = (p, 0 X (p)). Entonces

Definición 0.26. Un campo vectorial X sobre U es de clase C k sii 0 X es una aplicación de


clase C k .

0.24. Para aplicaciones definidas entre espacios distintos todavía puede mantenerse el con-
cepto de conservar la orientación. La interpretación que hemos dado de la diferencial de una
aplicación nos obliga a hacer esta extensión del concepto para que tenga sentido hablar de un
difeomorfismo conservando la orientación.
Dados dos espacios vectoriales orientados (V , or), (W , ro), diremos que un isomorfismo F :
V −→ W conserva la orientación sii cuando {e1 , ..., en } ∈ or, entonces {F (e1 ), ..., F (en )} ∈ ro.
Para una aplicación no lineal, se dice que conserva la orientación si es un difeomorfismo tal
que su diferencial en cada punto conserva la orientación .

xvii
Capítulo 1

1.1. Comentario
Como hemos visto en la presentación, nuestro objetivo es estudiar una geometría general sobre
un espacio M de dimensión finita sobre el que existe un cáculo diferencial en el que definimos,
de manera diferenciable, un producto escalar en cada punto de M.
El “espacio"natural en el que hacer esta geometría general es una variedad diferenciable,
concepto que se estudió al final del curso de Geometría Diferencial Clásica. Sin embargo, en
este curso, para no exigir tanto esfuerzo de abstracción al alumno, vamos a limitarnos a un tipo
de variedades llamadas “subvariedades"de Rm , que son “visualizables”como subconjutos de Rm ,
requieren menos abstracción y son suficientes para introducir los conceptos básicos de Geometría
Riemanniana y Semi-Riemanniana que veremos en este curso. Esto tiene como contrapartida que
algunos ejemplos importantes de variedades Riemannianas son difíciles (e incluso contraintuitivos)
de introducir de este modo, por lo que se aconseja al alumno más interesado en la Geometría
que estudie por su cuenta el concepto abstracto de variedad diferenciable en la bibliografía de
referencia o en los apuntes del curso pasado.
En este curso a las n-subvariedades de Rn+k las llamaremos, simplemente, variedades diferen-
ciables de dimensión n, precisando que son subvariedades solo cuando interese usar la dimensión
del espacio Rm ambiente.

1.2. Concepto de variedad diferenciable (subvariedad de Rm )


dvd Definición 1.1. Una variedad diferenciable M de dimensión n, clase C p (y codimensión k) en
n+k
R es un subconjunto M ⊂ Rn+k que verifica que para cada punto x0 ∈ M existe un abierto
V ⊂ Rn , un abierto U 0 ⊂ Rn+k y una aplicación de clase C p , F : V −→ U 0 ⊂ Rn+k

(i) F (V ) = U := U 0 ∩ M 3 x0 y F : V −→ U es un homeomorfismo (con la topología sobre U


como subespacio de Rn+k ).

(ii) dFx : Rn −→ Rn+k es inyectiva

Los pares (V , F ) y (U, F −1 ) los llamaremos cartas o sistemas de coordenadas o parametrizaciones


de M.

1.3. Ejemplos
1.3
Ejemplo 1.2. El primer ejemplo trivial de variedad diferenciable de dimensión n es el espacio
euclídeo Rn , con k = 0 en la definición y sistema de coordenadas (Rn , id).
Naturalmente también son ejemplos de este tipo los abiertos de Rn .

1.3.3 Ejemplo 1.3.


La esfera de dimensión n, S n = {x ∈ Rn+1 / |x| = R} es una variedad diferenciable de dimensión

1
2 Variedad diferenciable y espacio tangente

n y clase C ∞ . Vamos a verlo usando la proyección estereográfica (siguiendo casi el mismo modelo
que se vió en topología, y también en la primera parte de este curso, pero para dimensión n
y proyectando sobre los planos tangentes a los polos en lugar de proyectar sobre el plano del
ecuador.
Sean N = (0, ..., 0, R) y S = (0, ..., 0, −R) los polos norte y sur de S n . Sean Rn × {R} el
hiperplano de Rn+1 tangente a S n en N y Rn × {−R} el hiperplano de Rn+1 tangente a S n
en S. Sean i+ : Rn × {R} −→ Rn e i− : Rn × {−R} −→ Rn las aplicaciones definidas por
i+ (x 1 , ..., x n , R) = (x 1 , ..., x n ) e i− (x 1 , ..., x n , −R) = (x 1 , ..., x n ) Las proyecciones estereográficas
desde N (que denotaremos πN ) y desde S (que denotaremos πS ) se definen por:
πN : S n − {N } −→ Rn la aplicación que a cada x ∈ S n − {N } le hace corresponder la imagen
por i− de la intersección de la recta que pasa por N y x con el hiperplano de Rn+1 tangente a
S n en S.
πS : S n − {S} −→ Rn la aplicación que a cada x ∈ S n − {S} le hace corresponder la imagen
por i+ de la intersección de la recta que pasa por S y x con el hiperplano de Rn+1 tangente a S n
en N .

Las ecuaciones para estas aplicaciones son:


2R
πN (x 1 , ..., x n+1 ) = (x 1 , ..., x n ),
R − x n+1
2R
πS (x 1 , ..., x n+1 ) = (x 1 , ..., x n ).
R + x n+1
Estas expresiones se obtienen de la siguiente manera:
La de πN : Dado x = (x 1 , ..., x n+1 ) ∈ S n , la ecuación de la recta que pasa por N = (0, ..., 0, R)
es

N + λ(x − N ) ≡ (0, ..., 0, R) + λ(x 1 , ..., x n , x n+1 − R)


≡ (λx 1 , ..., λx n , R + λ(x n+1 − R)),

y su intersección con el hiperplano Rn × {−R}, de ecuación y n+1 = −R, se calcula escribiendo


R + λ(x n+1 − R) = −R, de donde
−2 R
λ = n+1
x −R
y la intersección es el punto
−2 R 1 −2 R n
( x , ..., n+1 x , −R),
x n+1
−R x −R
de donde se tiene, tomando la imagen por i− , la expresión que hemos dado para πN .
Para πS : Dado x = (x 1 , ..., x n+1 ) ∈ S n , la ecuación de la recta que pasa por S = (0, ..., 0, −R)
es

S + λ(x − S) ≡ (0, ..., 0, −R) + λ(x 1 , ..., x n , x n+1 + R)


≡ (λx 1 , ..., λx n , −R + λ(x n+1 + R)),

2
1.3 Ejemplos 3

y su intersección con el hiperplano Rn × {R}, de ecuación y n+1 = R, se calcula escribiendo


−R + λ(x n+1 + R) = R, de donde
2R
λ = n+1
x +R
y la intersección es el punto
2R 2R
( x 1 , ..., n+1 x n , R),
x n+1
+R x +R
de donde se tiene, tomando la imagen por i+ , la expresión que hemos dado para πN .
Evidentemente
πN (S n − {N }) = Rn ,
πS (S n − {S}) = Rn ,
(S n − {N }) ∩ (S n − {N }) = S n − {N , S},
πN (S n − {N , S}) = Rn − {0}
y πS (S n − {N , S}) = Rn − {0}
son abiertos de Rn ,
luego se cumplen (i) y la primera parte de (ii) de la definición 1.1. Es claro que πN y πS son
−1
biyectivas y continuas. Para ver que son homomorfismos, calculamos πN y πS−1 ,
4 R2 4 R2

−1 1
πN (y ) = y , ..., y n,
4 R 2 + ni=1 (y i )2 4 R 2 + ni=1 (y i )2
P P

−4 R 2 + ni=1 (y i )2
P 
,
4 R 2 + ni=1 (y i )2
P

4 R2 4 R2

πS−1 (y ) = y 1
, ..., y n,
4 R 2 + ni=1 (y i )2 4 R 2 + ni=1 (y i )2
P P

4 R 2 − ni=1 (y i )2
P 
,
4 R 2 + ni=1 (y i )2
P

que prueban que πN y πS son homomorfismos. Para ver que se cumple la condición (iii) hay que
calcular

−1 1 4 R2
πS ◦ π N (y , ...y n ) = (y 1 , ..., y n ),
(y 1 )2 + ... + (y n )2
y
4 R2
πN ◦ πS−1 (y 1 , ...y n ) = 1 2 n 2
(y 1 , ..., y n ),
(y ) + ... + (y )
−1
que prueba que πS ◦ πN es un difeomorfismo de Rn − {0} en si mismo.
−1
El cálculo de πN , πS−1 , πS ◦ πN
−1
y de πN ◦ πS−1 puede hacerse como sigue.
−1
De la definición de πN se deduce que la aplicación πN puede describirse como sigue: dado
y = (y 1 , ..., y n ) ∈ Rn , se toma y− = i−−1 (y ) = (y 1 , ..., y n , −R), entonces πN
−1
(y ) es la intersección
n −1
con S (distinta de N ) de la recta que pasa por N y por y− . Calculemos πN (y ) usando esta
−1
descripción de πN . La recta que pasa por N y por y− tiene por ecuación

N + λ(y− − N ) = (0, ..., 0, R) + λ(y 1 , ..., y n , −R − R)


= (λy 1 , ..., λy n , R(1 − 2λ)).

La intersección con S n son los puntos de esta recta que verifican la ecuación de S n :

(λy 1 )2 + ... + (λy n )2 + R 2 (1 − 2λ)2 = R 2 ,

3
4 Variedad diferenciable y espacio tangente

n
X
2
i.e. λ (y i )2 + R 2 − 4λR 2 + 4λ2 R 2 = R 2 ,
i=1
X n
i.e. λ2 ( (y i )2 + 4R 2 ) − 4λR 2 = 0,
i=1

y los valores de λ que satisfacen esta ecuación son


4R 2
λ=0 y λ= Pn ,
4R 2 + i=1 (y
i )2

el primero corresponde al punto N , y el segundo a


2
Pn
4R 2 4R 2 (y i )2
 
−1 1 n −4R + i=1
πN (y ) = y , ..., 2 Pn y , R ,
4R 2 + ni=1 (y i )2 4R 2 + ni=1 (y i )2
P P
4R + i=1 (y i )2
−1
obtenemos ahora la imagen de πN (y ) por πS usando la expresión que vimos antes para πS , y
−1
resulta así la expresión de πS ◦ πN que dimos antes.
De la definición de πS se deduce que la aplicación πS−1 puede describirse como sigue: dado
y = (y 1 , ..., y n ) ∈ Rn , se toma y+ = i+−1 (y ) = (y 1 , ..., y n , 1), entonces πS−1 (y ) es la intersección con
S n (distinta de S) de la recta que pasa por S y por y+ . Para calcular πS−1 (y ) obtenemos primero
la ecuación de la recta que pasa por S y por y+
S + λ(y+ − S) = (0, ..., 0, −R) + λ(y 1 , ..., y n , R + R)
= (λy 1 , ..., λy n , R(−1 + 2λ)).
La intersección con S n son los puntos de esta recta cuyo parámetro λ verifica la ecuación
n
X n
X
2
λ (y i )2 + (2λ − 1)2 R 2 = R 2 , i.e. λ ( (y i )2 + 4R 2 ) − 4λR 2 = 0,
2

i=1 i=1

que tiene por soluciones


4R 2
λ=0 y λ= ,
Pn
4R 2 + i=1 (y i )2
la primera corresponde al punto S, y la segunda a
2
Pn
4R 2 4R 2 (y i )2
 
−1 1 n 4R − i=1
πS (y ) = y , ..., 2 Pn y , 2 Pn R ,
4R 2 + ni=1 (y i )2
P
4R + i=1 (y i )2 4R + i=1 (y i )2
y usando ahora la expresión que vimos para πN , calculamos πN ◦ πS−1 (y ) y obtenemos la expresión
que dimos antes.
1.3.5 Ejemplo 1.4. Variedades producto. Si M y N son variedades diferenciables de dimensiones
m y n respectivamente y ambas de clase C p , entonces M × N es una variedad diferenciable de
dimensión m + n y clase C p . Se deja como ejercicio el comprobarlo.
Un caso muy especial a conocer bien es S 1 × S 1
El hecho de que una variedad diferenciable sea un espacio topológico permite obtener nuevos
ejemplos triviales de variedades una vez que se conoce una:
1.4.6 Ejemplo 1.5. Si M es una variedad diferenciable, y V es un abierto de M, entonces V es una
variedad diferenciable, como se puede comprobar inmediatamente.
1.4.7 Ejemplo 1.6. Si f : Rn+k −→ Rk es una función diferenciable, y ∈ Rk y df tiene rango k en
todos los puntos x ∈ f −1 y , entonces M = f −1 (y ) es una variedad de dimensión n. Se dice que M
es una variedad definida de modo implícito por f .
1.4.8 Ejemplo 1.7. Si f : Rmr −→ Rn+k es una función diferenciable, la gráfica de f , M = {(x, f (x)), x ∈
n
R }, es una variedad de dimensión n.

4
1.4 Diferenciabilidad de los cambios de cartas 5

1.4. Diferenciabilidad de los cambios de cartas


II.2 Lema 1.8. [de extensión local de una aplicación con diferencial injectiva]: Sea U un abierto de
R , f : U −→ Rn+k una aplicación de clase C r y u ∈ U tal que dfu es inyectiva, entonces existe
n

un abierto U ∗ ⊂ U ⊂ Rn que contiene a u, un abierto W de Rk que contiene a 0 y una aplicación


f ∗ : U ∗ × W −→ Rn+k de clase C r y difeomorfismo sobre su imagen, tal que f ∗ (x, O) = f (x) para
todo x ∈ U ∗ .
Demostración. Como dfu es inyectiva, dfu (Rn ) ⊂ Rn+k tiene dimensión n y su complementario or-
togonal dfu (Rn )⊥ tiene dimensión k. Sea {v1 , ..., vk } una base ortonormal de dfu (Rn )⊥ , y definamos
la aplicación f ∗ : U × Rk −→ Rn+k por f ∗ (x, y1 , ..., yk ) = f (x) + y1 v1 + ... + yk vk . Sea {e1 , ..., en+k }
la base canónica de Rn+k , se tiene que
∂f ∗ ∂f
df(u,O) ei = i
(u, 0) = i (u) = dfu ei , , para i=1,... ,k, y
∂x ∂x
∂f ∗
df(u,O) ej = (u, 0) = vj−n , para j = n+ 1 ,...,n+k ,
∂x j
y, como dfu ei es una base de dfu (Rn ) (por ser dfu inyectiva) y {vj−n }n+k n ⊥
j=n+1 una base de dfu (R ) ,

resulta que df(u,0) transforma una base en otra base, luego es un isomorfismo y, por el teorema
de la función inversa, existe un abierto V conteniendo a (u, O) tal que f ∗ restringido a V es un
difeomorfismo sobre su imagen, pero entonces, por la definición de la topología producto, existe
un abierto U ∗ conteniendo a u y un abierto W conteniendo a O tales que (u, O) ∈ U ∗ × W ⊂ V ,
y f ∗ restringido a U ∗ × W es un difeomorfismo sobre su imagen.
II.3 Proposición 1.9. Sea V un abierto de Rm , M una n-subvariedad de Rn+k de clase C r , f :
V −→ M ⊂ Rn+k una aplicación de clase C r (como aplicación entre abiertos de Rm y Rn+k ).
Entonces, para todo sistema de coordenadas (U, F ) de M, F −1 ◦ f es de clase C r en f −1 (F (U))
Demostración. Vamos a ver la diferenciabilidad en cada punto. Sea y ∈ f −1 (F (U)), p = f (y ),
u ∈ U/F (u) = p. Como F es un sistema de coordenadas, dFu es inyectiva, y, por el lema 1.8, existen
abiertos U ∗ ⊂ conteniendo u, W ⊂ Rk conteniendo a 0 y un difeomorfismo F ∗ : U ∗ ×W −→ V ∗ tal
que F ∗(x,0) = F (x) para todo x ∈ U ∗ . Entonces f −1 (F (U ∗ )) es un abierto de V conteniendo a y , la
restricción de F ∗−1 ◦ f a W ∗ es de clase C r por ser composición de aplicaciones de clase C r , y, si
z ∈ W ∗ , f (z) ∈ F (U ∗ ), por tanto, existe v ∗ ∈ U ∗ tal que F (v ∗ ) = f (z), y como F (v ∗ ) = F ∗ (v ∗ , 0),
F ∗−1 (f (z)) = (v ∗ , 0) = (F −1 (f (z)), 0), luego F −1 ◦f |W ∗ = π ◦F ∗−1 ◦f |W ∗ , donde π es la proyección
de Rn+k sobre Rn , por lo tanto F −1 ◦ f es diferenciable en p.
Corolario 1.10. Sean (U1 , F1 ), (U2 , F2 ) dos sistemas de coordenadas de M (de clase C r ) en p,
Fi (U1) = Vi . Entonces la aplicación de cambio de coordenadas

F21 ◦ F1 : F1−1 (V1 ∩ V2 ) −→ F2−1 (V1 ∩ V2 )

y su inversa son de clase C r .


Demostración. : Basta tomar en 1.9 f = F1 , V = U1 , F = F2 .

1.5. Aplicaciones diferenciables.


add
En un espacio vectorial real de dimensión n hay coordenadas y el cálculo diferencial se hace
con ellas. En una n-subvariedad se pierde la estructura de espacio vectorial, pero sigue habiendo
n coordenadas localmente y el cálculo diferencial (que es un cálculo local) puede hacerse con
ellas. De ahí la primera definición que daremos de aplicación diferenciable.

5
6 Variedad diferenciable y espacio tangente

II.9 Definición 1.11. Sea M1 una n-subvariedad de Rn+k y M2 una m-subvariedad de Rm+` Una
aplicación f : M1 −→ M2 diremos que es diferenciable de clase C r en p ∈ M1 si es continua
en p y existen sistemas de coordenadas (U1 , F1 ) en p, (U2 , F2 ) en f (p), tales que la aplicación
F2−1 ◦ f ◦ F1 es diferenciable de clase C r en F1−1 (p).
Obsérvese que es el hecho de ser f continua en p lo que permite que F2−1 ◦ f ◦ F1 esté definida
en un abierto y tenga sentido hablar de diferenciabilidad.
La definición resulta independiente de los sistemas de coordenadas usados. En efecto, si
(U1 , F2∗ ), (U2∗ , F2∗ ) son otros sistemas de coordenadas en p y f (p) respectivamente, entonces, por

la continuidad de f en p, existe un abierto V ∗ de Rm contenido en U1∗ y conteniendo a F1∗−1 (p)


sobre el que F2∗−1 ◦ f ◦ F1∗ = (F2∗−1 ◦ F2 ) ◦ (F2−1 ◦ f ◦ F1 ) ◦ (F1−1 ◦ F1∗ ) con lo cual, F2∗−1 ◦ f ◦ F1∗ es
diferenciable en F1∗−1 (p) si y solo si F2−1 ◦ f ◦ F1 es diferenciable en F1−1 (p).
Definición 1.12. Si V es un abierto de M1 , f : V −→ M2 se dice de clase C r en V sii lo es
en cada punto p ∈ V
Para ver que f es C r en V , bastará probar que para sistemas de coordenadas como antes, con
F1 (U1 ) ⊂ V , (F2−1 ◦ f ◦ F1 )−1 (U2 ) = F1−1 ◦ f −1 (F2 (U2 )) es un abierto de Rn y que F2−1 ◦ f ◦ F1 es
de clase C r sobre este abierto (pues f = F2 ◦ F2−1 ◦ f ◦ F1 ◦ F1−1 es continua automáticamente).
Cuando M1 y M2 son abiertos de Rn+k y Rn+` , f es diferenciable en p ∈ M1 en el sentido de
la definición 1.11 sii lo es en el sentido usual, como se ve tomando como sistemas de coordenadas
las respectivas aplicaciones identidad.
Para aplicaciones f : M −→ Rm , la definición 1.11 dice que f es de clase C r en p ∈ M si f
es continua en p y f ◦ F : U −→ Rm es de clase C r en F −l (p) para un sistema de coordenadas
(U, F ) en p. Para una aplicación f : A abto ⊂ Rn −→ M, f es de clase C r en p ∈ A si existe un
sistema de coordenadas (U, F ) en f (p) tal que F −1 ◦ f es de clase C r en p.
Vamos a ver ahora algunos casos en los que es posible ver que una aplicación entre n-
subvariedades es de clase C r sin necesidad de usar coordenadas.
II.1 Proposición 1.13. Sea A un abierto de Rn+k , M una n-subvariedad (de clase C s , s ≥ r ) de
n+k
R contenida en A Si f : A −→ Rm es una aplicación de clase C r en el sentido usual, entonces
f |M : M −→ Rm es una aplicación de clase C r en el sentido de 1.11.
Demostración. Basta tomar, para cada p ∈ M, un sistema de coordenadas (U, F ) en p y observar
que f ◦F es diferenciable por ser composición de aplicaciones diferenciables y que f |M es continua
por ser la restricción de una aplicación continua a un subespaclo topológico.
II.11 Proposición 1.14. Sea A un abierto de Rm , f : A −→ Rn+k de clase C r y M una n-subvariedad
de Rn+k de clase C s (s ≥ r ) tal que f (A) ⊂ M. Entonces f : A −→ M es de clase C r en el sentido
de 1.11.
Demostración. Que f : A −→ M es continua es consecuencia del teorema de topología con el
mismo enunciado (cambiando “de clase C r ”.. por “continua”). Por otra parte, para cada p ∈ A, sea
(U, F ) un sistema de coordenadas de M en f (p). Entonces, por 1.9, F −1 ◦ f es de clase C r en
r −1 (x(U)), luego f es de clase C r en p.
II.12 Nota 1.15. De 1.14 resulta que la definición 1.11 es equivalente a la siguiente: "f : M1 −→ M2
es de clase C r en p ∈ M1 sii existe un sistema de coordenadas (U, F ) en p tal que f ◦ F : U −→
M2 ⊂ Rm+` es de clase C r en F −l (p)".
En efecto, si f : M1 −→ M2 es de clase C r en este sentido, entonces, por 1.14, f es C r en
el sentido de 1.11. Recíprocamente, si f es de clase C r en p en el sentido de 1.11, entonces
f ◦ F1 : U1 −→ M2 viene dada por F2 ◦ (F2−1 ◦ f ◦ F1 ), donde F2−1 ◦ f ◦ F1 es de clase C r en F1 −1(p)
por 1.11, y F2 es C r en F2−1 (p) por ser un sistema de coordenadas, luego f ◦ F1 ese C r en F1−1 (p),
i.e. f es C r en el sentido de esta nota.

6
1.5 Aplicaciones diferenciables. 7

II.13 Proposición 1.16. Sea A un abierto de Rn+k , M1 y M2 subvariedades de dimensiones n y m de


n+k
R y Rm+` de clases C s y C t (t ≥ r ≤ s) respectivamente, tales que M1 ⊂ A, y f : A −→ Rm+`
es de clase C r y verifica que f (M1 ) ⊂ M2 . Entonces f |M1 : M1 −→ M2 es de clase C r .
Demostración. Por 1.11, f |M1 : M1 −→ Rm+` es de clase C r y, por la nota 1.15, esto es equivalente
a que f |M1 : M1 −→ M2 sea de clase C r .
En la categoría de las subvariedades diferenciables y aplicaciones diferenciables, las aplica-
ciones que dejan invariantes las propiedades diferenciales se llaman y se definen como en Rn .
II.14 Definición 1.17. Sean M1 , M2 n-subvariedades de Rn+k y Rn+` respectivamente y de clase C s
(s ≥ r ). Una aplicación f : M1 −→ M2 se dice que es un C r -difeomorfismo (difeomorfismo de clase
C r ) si es una aplicación biyectiva de clase C r con inversa de clase C r .
11.15 Nota 1.18. Según la definición 1.17, la aplicación F : U −→ F (U) ⊂ M de un sistema de
coordenadas de una n-subvariedad M es un difeomorfismo sobre su imagen, ya que F y F −1 son
continuas por ser F homeomorfismo, F es diferenciable (como se ve aplicando 1.14), y F −1 es
diferenciable, como se ve tomando para F (U) el sistema de coordenadas (U, F ), pues entonces
F −1 ◦ F : U −→ U es la identidad, que es diferenciable, y por lo tanto, F −1 es diferenciable en el
sentido de 1.11 (o, equivalentemente, de 1.15).
Esta observación justifica que se hable ordinariamente de una n-subvariedad diferenciable de
n+k
R como de un subespacio topológico de Rn+k que es localmente difeomorfo a Rn .
Al definir las variedades diferenciables, dijimos que llamaríamos cartas o sistemas de coorde-
nadas tanto a (V , F ) como a (U, F −1 ). A partir de ahora usaremos la segunda notación, de modo
que U ⊂ M y ϕ := F −1 : U ⊂ M ⊂ Rn+k −→ V ⊂ Rn
1.5.6 Proposición 1.19. Si f : M −→ N y g : N −→ P son aplicaciones C r , entonces g ◦f : M −→ P
es de clase C r .
Demostración. Dado x ∈ M, por definición de clase C r existen cartas (U, ϕ), (V ψ) y (W , ζ) en
x, f (x) y g (f (x)) respectivamente tales que f (U) ⊂ V , g (V ) ⊂ W y ψ ◦ f ◦ ϕ−1 y ζ ◦ g ◦ ψ −1 son
C r , luego g ◦ f (U) ⊂ W y ζ ◦ g ◦ f ◦ ϕ−1 = ζ ◦ g ◦ ψ −1 ◦ ψ ◦ f ◦ ϕ−1 es C r .
La condición bien conocida en Rn de que una aplicación es diferenciable sii lo son sus funciones
coordenadas se traduce aquí en:
1.5.5 Proposición 1.20. Una aplicación contínua f : M m −→ N n (donde m y n indican las dimen-
siones de las variedades) es de clase C r sii para cada x ∈ M existe una carta (V , ψ) de N en
f (x) tal que que y j ◦ f : f −1 (V ) −→ R es C r para todo i ∈ I y para j = 1, .., n, donde y j = r j ◦ ψ
y r j : Rn −→ R es la proyección canónica sobre la j-ésima coordenada.
Demostración. Para cada x ∈ M, sea (V , ψ) una carta de N en f (x) . Si f es de clase C r , f −1 (V )
es un abierto y f restringida a eses abierto sigue siendo diferenciable (ya que la definición
de diferenciable se hace punto a punto). Como ψ : V −→ Rn y r j : Rn −→ R son aplicaciones
diferenciables, por la proposición 1.19 se tiene que la composición r j ◦ψi ◦f = yij ◦f es diferenciable.
Reciprocamente, supongamos que para cada x ∈ M existe una carta (V , ψi ) tal que f (x) ∈ V
y las funciones yij ◦ f son C r . Por definición de diferenciabilidad de yij ◦ f , existe una carta (U, ϕ)
en x tal que las funciones yij ◦ f ◦ ϕ−1 son C r en ϕ(x) y, por tanto, ψ ◦ f ◦ ϕ−1 es C r en ϕ(x), i.e.,
f es C r en x.
Para el producto de variedades y correspondiente producto de aplicaciones se tiene que
1.5.7 Proposición 1.21. Sean f : M −→ N y g : P −→ Q aplicaciones de clase C r . Entonces la
aplicación f × g : M × P −→ N × Q definida por (f × g )(x, z) = (f (x), g (z)) es de clase C r .

7
8 Variedad diferenciable y espacio tangente

Demostración. Como f y g son de clase C r , dado (x, z) ∈ M × P, existen sistemas de coordenadas


(U, ϕ) en x, (W , ζ) en z, (V , ψ) en f (x) y (T , φ) en g (z) tales que f (U) ⊂ V , g (W ) ⊂ T , y
ψ ◦ f ◦ ϕ−1 y φ ◦ g ◦ ζ −1 son de clase C r . Se tiene entonces que f × g (U × W ) ⊂ V × T y que
(ψ × φ) ◦ (f × g ) ◦ (ϕ × ζ)−1 = (ψ ◦ f ◦ ϕ−1 ) × (φ ◦ g ◦ ζ −1 ) es de clase C r . Por lo tanto f × g es
de clase C r .
1.5.8 Proposición 1.22. Si f : M × N −→ P es diferenciable de clase C r , para cada x ∈ M, la
aplicación fx : N −→ P definida por fx (y ) = f (x, y ) es diferenciable de clase C r .
Demostración. Como f es de clase C r se tiene que, dado y ∈ N, existen cartas (U, ϕ) en x, (V , ψ)
en y y (W , ζ) en f (x, y ) tales que f (U × V ) ⊂ W y ζ ◦ f ◦ (ϕ × ψ)−1 es de clase C r en (x, y ).
Por una propiedad bien conocida de funciones de clase C r entre espacios euclídeos, la aplicación
(ζ ◦f ◦(ϕ×ψ)−1 )ϕ(x) : ψ(V ) ⊂ Rn −→ ζ(W ) ⊂ Rp definida por ψ(y ) 7→ ζ ◦f ◦(ϕ×ψ)−1 (ϕ(x), ψ(y ))
= ζ ◦ f (x, y ) = ζ ◦ fx ◦ ψ −1 (ψ(y )) es C r , es decir, ζ ◦ fx ◦ ψ −1 es de clase C r y, por otro lado,
f (U × V ) ⊂ W implica que fx (V ) ⊂ W , lo que prueba que fx es de clase C r en y .
1.5.9 Proposición 1.23. Las proyecciones canónicas πM : M × N −→ M y πN : M × N −→ N son
aplicaciones diferenciables.
Demostración. La daremos solo para πM . Para πN es igual. Dado (x, y ) ∈ M ×N, sea (U ×V , ϕ×ψ)
una carta en (x, y ). Se tienen que ϕ ◦ πM ◦ (ϕ × ψ)−1 (ϕ(p), ψ(q)) = ϕ(p), que es la proyección
de ϕ(U) × ψ(V ) sobre ϕ(U), que es diferenciable.

1.6. Introducción al espacio tangente


2.1
Como vimos en el capítulo 0, para una visión más geométrica de los conceptos de campo
vectorial y de la diferencial de una aplicación entre era conveniente definir el espacio tangente
en cada punto x de Rn . Eso es aún más necesari cuando se trata de n-variedades. Para definirlo
consideraremos las curvas que pasan por ese punto x, que son, a su vez, curvas de Rn+k , y el
espacio tangente en ese punto será el espacio de los vectores tangente a esas curvas en Rn+k .
En todo ente apartado M será una n-subvariedad de Rn+k de clase C r .
II.16 Definición 1.24. Llamaremos curva diferenciable de clase C r en M a una aplicación c : I −→
M de clase C r (I = intervalo abierto).
II.17 Definición 1.25. Sea p ∈ M, un vector X ∈ Tp Rn+k se dice que es un vector tangente a M en
p si existe una curva de clase C r c : I −→ M, O ∈ I , tal que c(O) = p y c 0 (O) = X . Al conjunto
Tp M de los vectores tangentes a M en p se le llama espacio tangente a M en p.
II.18 Proposición 1.26. Sea (U, F ) un sistema de coordenadas en p ∈ M, u ∈ U tal que F (u) = p.
Entonces Tp M = dFu (Tu Rn ).
Demostración. Veremos en primer lugar que dFu (Tu Rn ) ⊂ Tp M. Sea X ∗ ∈ Tu Rn , la curva c ∗ :
0
I −→ Rn definida por c ∗ (t) = u + tX ∗ verifica c ∗ (0) = u y c ∗ (0) = X ∗ „ por lo tanto dFu (X ∗ ) =
dFu (c ∗0 (0)) = (d(F ◦ c ∗ )/dt)(0) = (dc/dt)(0) con c(t) = F ◦ c ∗ (t), c(0) = F (c ∗ (0)) = F (u) = p,
luego dF( X ∗ ) = c 0 (0) ∈ Tp M. Para probar la inclusión contraria, consideremos X ∈ Tp M, entonces
existe una curva c en M con c(0) = p, c 0 (0) = X . Definamos c ∗ = F −1 ◦ c, que verifica c ∗ (0) =
F −1 ◦ c(0) = F −1 (p) = u. Por 1.11 (penúltimo párrafo antes de la Proposición 1.13), si c es
0
diferenciable, c ∗ es diferenciable. sea X ∗ = c ∗ (0) ∈ Tu Rn . Se tiene entonces, aplicando la regla
de la cadena, que dFu X ∗ = dFu (d(F −1 ◦ c)/dt)(0) = (d(F ◦ F −1 ◦ c)/dt)(0) = (dc/dt)(0) = X ,
luego X ∈ dFu (Tu (Rn )), lo que prueba la inclusión recíproca.
II.19 Corolario 1.27. (a) Tp M es un suebespacio vectorial de dimensión n de Tp Rn+k .

8
1.7 Vectores tangentes y derivaciones 9

∂F ∂F
(b) { 1
|u , ..., n |u } es una base de TF (u) M, para todo u ∈ U.
∂u ∂u
n
X ∂F
∗ n ∗ ∗ 1 n
(c) Si X ∈ Tu R , dFu (X ) = X ∈ TF (u) M y X = (X , ..., X ), entonces X = Xi
i
(u) (i.e.
i=1
∂u
las coordenadas de X en la base de TF (u) M inducida por el sistema de coordenadas F son
las mismas que las del vector del que es imagen por dFu ).
(d) Si c : I −→ M es una curva en M, F −1 ◦ c(t) = (u 1 (t), ..., u n (t)), entonces c 0 (t) =
Pn i0 ∂F −1
i=1 u (t) (F ◦ c(t)).
∂u i
Demostración a) es una consecuencia de que dFu es una aplicación lineal inyectiva y de 1.26.
b) También como consecuencia de que dFu es lineal inyectiva se tiene que si {e}1≤i≤n es la base
∂F
canónica de Tu Rn ≡ Rn , entonces {dFu (ei ) = i (u)|1≤i≤n } es una base de dFu (Tu Rn ) = TF (u) M.
∂u
(c) X = dFu X ∗ = dFu ( ni=1 X i ei ) = ni=1 X i dFu ei = ni=1 X i ∂u
∂F
P P P
i |u .

(d) c (t) = (d(F ◦F ◦c)/dt)(t) = dF (F ◦c(t))(d(F ◦c)/dt)(t), pero (d(F −1 ◦c)/dt)(t) =


0 −1 −1 −1
10 0
(u (t), ..., u n (t)) y, aplicando c), se obtiene d).
La siguiente proposición da el cambio de coordenadas de un vector cuando cambiamos de
sistema de coordenadas de una variedad.
II.20 Proposición 1.28. Sean (U1 , F1 ), (U2 , F2 ) sistemas de coordenadas de M en p. si X ∈ Tp M
Pn i ∂F1
Pn j ∂F2 j
tiene las expresiones X = i=1 X1 ∂u i = j=1 X2 ∂u j , entonces, si usamos la notación u2 :=
1 2

−1 j ∂u2j ∂(F2−1 ◦ F1 )j
(F2 ◦ F1 ) y, consecuentemente, := ,
∂u1i ∂u1i
 1 1

∂u2 ∂u2
 ∂u 1 ... ∂u n  X11
 1  
X2  1 1 
 ...   ... ... ...   ... 
 =   (1.1)
 ...   ... ... ...   ... 
 n
∂u2n  X1n

X2n  ∂u2
...
∂u11 ∂u1n
o, lo que es lo mismo, si X = dF1 |u1 X 1∗ = dF2 |u2 X 2∗ (lo que, de acuerdo con 1.27(c) equivale a
X1∗ = (X11 , ..., X1n ), X2∗ = (X21 , ..., X2n )), entonces X2∗ = d(F2−1 ◦ F1 )|u1 X1∗ .
Demostración. Aplicando la regla de la cadena, se tiene que dF1u1 X1∗ = d(F2 ◦ F2−1 ◦ F1 )u1 X1∗ =
dF2u2 ◦ d(F2−1 ◦ F1 )u1 X1∗ , siendo F2 (u2 ) = F1 (u1 ) = p. Comparando esta igualdad con dF1u1 X1∗ =
dF2u2 X2∗ , como dF2u2 es inyectiva, resulta que X2∗ = d(F2−1 ◦ F1 )u1 X1∗ .

1.7. Vectores tangentes y derivaciones


Sea p un punto de una n-variedad diferenciable M. Denotaremos por Fp la familia de las
funciones reales definidas y diferenciables sobre un entorno de p en M (ese entorno puede ser
distinto para cada función).
2.2.2 Definición 1.29. una aplicación D : Fp −→ R que verifica las propiedades
(i) D(f + g ) = Df + Dg ,
(ii) D(λf ) = λDf para todo λ ∈ R,
(iii) D(fg ) = (Df )g (p) + f (p)(Dg ).
Denotaremos por Dp el conjunto de las derivaciones de Fp . Es un espacio vectorial real con
las leyes (λD)f = λ(Df ) y (D + E )f = Df + Ef para todo λ ∈ R y cualesquiera D, E ∈ Dp .
Se tiene que Tp M ⊂ Dp .

9
10 Variedad diferenciable y espacio tangente

Demostración. Es fácil ver que Tp M ⊂ Dp . Si v ∈ Tp M ⊂ Tp (Rn+k , v actúa sobre las funciones


reales diferenciables definidas en un entorno de p en Rn+k como la derivada direccional en la
dirección de ese vector, es decir, si f es una de esas funciones y c es una curva de M tal que
c 0 (t0 ) = v , vf = d(fdt◦c) (t0 ) . Evidentemente, esta acción cumple las condiciones de la definición
de una derivación, pero para funciones definidas sobre abiertos de Rn+k . Ahora bien, una función
real y diferenciable definida sobre un entorno V de p en M se extiende fácilmente a una función
definida en un entorno W de p en Rn+k de la siguiente manera:
∂F ∂F
Sea (U, ϕ = F −1 ) una carta en p tal que p ∈ U ⊂ V y ϕ(p) = 0. Entonces { 1 , ..., n }
∂u ∂u
son una base de Tx M para todo x ∈ U. Sea {e1 , ...ek } una base ortonormal del subespacio de
∂F ∂F
Tp Rn+k ortogonal a Tp M. Entonces { ∂u 1 |p , ..., ∂u n |p , e1 , ..., ek } es una base de R
n+k
y existe un
n+k
abierto W ⊂ R , p ∈ W ∩ M ⊂ U tal que para todo x ∈ W el segmento `x de x a M de la
recta que pasa por x paralelamente al subespacio generado por {e1 , ..., ek } 1 está contenido en
W . Para cada x ∈ W , f (x) = f (`x ∩ M) es una extensión diferenciable de f al abierto W .

2.2.2a Nota 1.30. Obsérvese que de (iii) se deduce que D1 = D(1 × 1) = 1D1 + (D1)1 = 2D1,
y, por tanto, D1 = 0. De aquí , junto con (ii), se deduce que para toda función constante λ,
Dλ = D(λ 1) = λD(1) = 0.

∂ ∂F
2.2.3 Nota 1.31. Obsérvese que := actúa sobre una función f como una derivada parcial.
∂x i ∂x i
En efecto, si ahora {ei } denota la base canónica de Rn , :
 
∂ ∂F ∂F ∂(f ◦ F )
i
f := i f = df = df (dF (ei )) = d(f ◦ F )(ei ) =
∂x ∂x ∂x i ∂x i

2.2.5 Nota 1.32. Obsérvese que que todo vector v ∈ Tp M se puede escribir en la forma

n
X ∂
v= vx i , (1.2) 2.2.5.1
i=1
∂x i p

puesto que, si c(t) es una curva en M con c 0 (t0 ) = v , por (1.27)(d) se tiene que

n n
X
i ∂
0
X ∂
v= (x ◦ c) (t0 ) i = vx i i
i=1
∂x p i=1
∂x p

2.2.7 Teorema 1.33. Si M es una variedad C ∞ , para todo p ∈ M se verifica que Tp M = Dp .

Demostración. Para la demostración de este teorema usaremos el siguiente

Lema 1.34. Sea (U, ϕ) una carta centrada en p (p ∈ U ⊂ M y ϕ(p) = 0). Para cada f ∈ Fp ,
existen funciones f1 , ..., fn ∈ Fp tales que

n
∂ X
fi (p) = i |p f y f = f (p) + x i fi en un entorno de p .
∂x i=1

Demostración del lema Sean F = f ◦ ϕ−1 , y r ∈ R+ tal que B(0, r ) ⊂ ϕ(U). Para cada (a1 , ..., an ) ∈ B(0, r ) se

∂F
x i ∂x x a ea , `x está en la recta que pasa por x en la dirección de x a ea
P P P
1
Si x = i
|p + a a

10
1.7 Vectores tangentes y derivaciones 11

tiene

F (a1 , ..., an ) = F (a1 , ..., an ) − F (a1 , ..., an−1 , 0) + F (a1 , ..., an−1 , 0) − ...
− F (a1 , 0, ..., 0) + F (a1 , 0, ..., 0) − F (0, ..., 0) + F (0, ..., 0)
n Z 1
X dF 1
= F (0, ..., 0) + (a , ..., ai−1 , tai , 0, ..., 0) dt
dt
i=1 0
n Z 1
X ∂F 1
= F (0, ..., 0) + i
(a , ..., ai−1 , tai , 0, ..., 0) ai dt
0 ∂r
i=1
n
X
= F (0, ..., 0) + a i Fi , (1.3) 2.2.7.1
i=1

donde Fi es la función Z 1
∂F 1
Fi = (a , ..., ai−1 , tai , 0, ..., 0) dt.
0 ∂r i
Escribiendo (1.3) en forma funcional
n
X
F = F (0, ..., 0) + r i Fi . (1.4) 2.2.7.2
i=1

Componiendo con ϕ y definiendo fi = Fi ◦ ϕ, se tiene


Z 1
∂F
fi (p) = Fi ◦ ϕ(p) = Fi (0, ..., 0) = i
(0, ..., 0) dt
0 ∂r
∂F ∂(f ◦ ϕ−1 ) ∂
= i (0, ..., 0) = (0, ..., 0) = |p f ,
∂r ∂r i ∂x i
lo que prueba la primera afirmación del lema. Para la segunda usamos (1.4) para ver que:
n
X n
X
f = f ◦ ϕ−1 ◦ ϕ = F ◦ ϕ = F (0, ..., 0) + (r i ◦ ϕ)(Fi ◦ ϕ) = f (p) + x i fi ,
i=1 i=1

lo que acaba la demostración del lema.


Vamos ahora con la demostración del teorema. Dada una carta cualquiera (U, ψ) en p, sea
ϕ = ψ − ψ(p), entonces (U, ϕ) verifica las condiciones del lema. Puesto que ya vimos que Tp M ⊂
Dp , bastará probar ahora la inclusión contraria y, para ello, gracias al teorema 2.2.4, bastará con
probar que para toda derivación A ∈ Dp se tiene que
n
X ∂
A= A(x i ) |p .
i=1
∂x i

Vamos a probar
Pn que esta expresión es correcta. Dada f ∈ Fp , usando el lema tenemos que
i
f = f (p) + i=1 fi x , luego
n n n n n
X
i
X
i
X
i
X
i
X ∂
Af = A(f (p) + fi x ) = A(x )fi (p) + x (p)Afi = A(x )fi (p) = A(x i ) |p f ,
i=1 i=1 i=1 i=1 i=1
∂x i

que es la fórmula que queríamos demostrar.


Aunque no es necesario para la demostración del teorema anterior, es interesante observar que
para las cartas usadas en esa demostración se tiene que x j = y j − y j (p), de donde resulta que
∂x i
∂y j
= δji y, por lo tanto (ver (2.3.1) a continuación), ∂y∂ i |p = ∂x∂ i |p . Además, como una derivación
actuando sobre una función da 0 (ver 2.2.2’), se tiene que Ax i = Ay i .

11
Capítulo 2

2.1. La diferencial de una aplicación


3.2
A continuación vamos a definir la diferencial de una aplicación. Hay, entre otras, dos maneras
naturales de hacerlo de modo que sea una extensión del mismo concepto para aplicaciones entre
espacios euclídeos.
El primero de ellos consiste en recordar que, si f es una aplicación de Rm en Rn , p es un
punto de Rm , v un vector de Rm , Dv f denota la derivada direccional de f en p en la dirección de v
y dfp (v ) denota la diferencial de f en p actuando sobre v , entonces se verifica que dfp (v ) = Dv f .
Entonces una definición natural de la diferencial de una aplicación f : M −→ R en p actuando
sobre v sería dfp (v ) = vf . Cuando se trata de una aplicación f : M −→ N entre variedades
diferenciables es natural considerar que la acción de la diferencial f∗p de f en p ∈ M sobre un
vector v ∈ Tp M tangente a una curva c(t) (tal que c(0) = p) en p sea la que resulta de aplicar
la regla de la cadena en Rn , es deficr, f∗p (v ) = d(fdt◦c) (0).
Otra manera natural de definir esta diferencial sería usar un sistema de coordenadas, que da
lugar a un diagrama
U ⊂M
f / N 7 ⊂ Rn+k (2.1)
ϕ
 f ◦ϕ−1
m
ϕ(U) ⊂ R

y definir f∗p usando la diferencial de la aplicación f ◦ ϕ−1 , que es conocida por ser una aplicación
entre espacios euclídeos, y las diferencial de la aplicación F = ϕ−1 .
Veremos que esta segunda manera de definir la diferencial de una aplicación es consecuencia
de la primera (en realidad, son equivalentes).
En lo que queda de este capítulo todas las variedades diferenciables serán de clase C k y todas
las aplicaciones diferenciables de clase C r (r ≤ k).

3.2.1 Definición 2.1. Sea f : M −→ N una aplicación diferenciable, p ∈ M. La diferencial de f en


p es la aplicación lineal

d(f ◦ c)
f∗p : Tp M −→ Tf (p) N tal que f∗p (v ) = (0),
dt
siendo c : I −→ M una curva de M tal que c(0) = p y c 0 (0) = v .

Para que la definición sea correcta falta comprobar que la expresión dada para f∗p (v ) no
depende de la curva c elegida verificando las condiciones c(0) = p y c 0 (0) = v y que es lineal.
Todo ello es consecuencia de la siguiente proposición:

3.2.2 Proposición 2.2. Para f como antes se tiene que, si (U, F ) es una carta en p (i.e. F (0) = p,
entonces
f∗p (v ) = d(f ◦ F )(0)v ∗ , donde dF (0)v ∗ = v .

12
2.1 La diferencial de una aplicación 13

Demostración. Por la definición 2.1 y la regla de la cadena,

d(f ◦ c) d(f ◦ F ◦ F −1 ◦ c) d(F −1 ◦ c)


f∗p (v ) = (0) = (0) = d(f ◦ F )(0) (0) = d(f ◦ F )(0)v ∗ .
dt dt dt
que es la fórmula que buscábamos y que, además, demuestra que f∗p es lineal por ser composición
de aplicaciones lineales.

3.2.2 Proposición 2.3. Para f como antes se tiene que, si (U, ϕ) es una carta en p y (V , ψ) es una
m
X ∂
carta en f (p), v = v i i y denotamos y j := r j ◦ ϕ, entonces
i=1
∂x

n X m
X ∂(y j ◦ f ◦ ϕ−1 ) i ∂

f∗p (v ) = (p)v .
j=1 i=1
∂r i ∂y j f (p)

Demostración. Usaremos la notación habitual F = ϕ−1 , F2 = ψ −1 , F (0) = p. Por la Proposición


2.3 tenemos que

f∗p (v ) = d(f ◦ F )(0)v ∗ = d(F2 ◦ F2−1 ◦ f ◦ F )(0)v ∗ = dF2 (d(F2−1 ◦ f ◦ F )(0)v ∗ )

y, según vimos en Corolario 1.27, las componentes de v y v ∗ en sus respectivas bases son las
mismas, y lo mismo ocurre con las componentes de dF2 (d(F2−1 ◦f ◦F )(0)v ∗ ) y de d(F2−1 ◦f ◦F )(0)v ∗ ,
por lo tanto la matriz que lleva las componentes de v en la base ∂x∂ i en las de f∗p (v ) en la base

∂y j
es la matriz de la aplicación lineal d(F2−1 ◦ f ◦ F ) = d(ψ ◦ f ◦ ϕ−1 ), que sabemos por Analisis
tiene la forma

∂y 1 ◦ f ◦ ϕ−1 ∂y 1 ◦ f ◦ ϕ−1
 
...
 ∂r 1 ∂r m 
... ... ... ,
 
 (2.2) 3.2.2.1
 ∂y n ◦ f ◦ ϕ−1 ∂y n ◦ f ◦ ϕ−1 
...
∂r 1 ∂r m
lo que indica que f∗p es lineal. La matriz (2.2) es la matriz de f∗p en las coordenadas (U, ϕ) y
(V , ψ). Al actuar esta matriz sobre el vector columna formado por las componentes de v se obtiene
la fórmula del enunciado.

3.2.3 Nota 2.4. Dada una carta (U, ϕ) de una variedad diferenciable M, usando la fórmula de la
proposición 2.3, se tiene que
m m m
X
i ∂
X
i
X ∂(r j ) ∂
ϕ∗p ( v )= v (p) j (2.3)
i=1
∂x i p i=1 j=1
∂r i ∂r ϕ(p)
m m m
X X ∂ X ∂
= v i
δij j
= vj j . (2.4) 3.2.3.1
∂r ϕ(p) ∂r ϕ(p)

i=1 j=1 j=1

3.2.4 Definición 2.5. Sea M una variedad diferenciable de dimensión m, f : M −→ Rn una aplica-
ción diferenciable, se llama (también) diferencial de f en x ∈ M a la aplicación

dfx = Φf (x) ◦ f∗x : Tx M −→ Rn .

(Para recordar la definición de Φf (x) ver (7))

13
14 Diferencial de una aplicación. Inmersiones y sumersiones

De la definición de Φf (x) y la fórmula para f∗x resulta la fórmula


m X n
X ∂(r j ◦ f ◦ ϕ−1 ) i ∂

dfx (v ) = Φf (x) ( i
(x)v (x))
j ϕ
i=1 j=1
∂r ∂r
m m
X ∂(r 1 ◦ f ◦ ϕ−1 ) i
X ∂(r n ◦ f ◦ ϕ−1 )
=( i
(x)v , ... , i
(x)v i ). (2.5) 3.2.4.1
i=1
∂r i=1
∂r

De la definición de dϕp y de la fórmula (2.4) para ϕ∗ se deduce que


m
i ∂
X
dϕp ( v ) = (v 1 , ... , v m ).
i p
(2.6) 3.2.4.2
i=1
∂x

3.2.5. Nota 2.6. Cuando n = 1 en la definición anterior, denotaremos r 1 por r , que es, simplemente,
Pm i ∂
la aplicación identidad de R en R, y usando (2.5), se tiene que, si v = i=1 v ∂x i , entonces
p

n
X ∂f i
dfx (v ) = i
v = vf , (2.7) 3.2.5.1
i=1
∂x

que es la expresión que, con frecuencia, se toma como definición de la diferencial de una función
en un punto.

Dada f : M −→ R diferenciable, como f∗p es lineal y Φf (p) es un isomorfismo, resulta que


dfp : Tp M −→ R es una aplicación lineal, i.e. un elemento del espacio dual de Tp M.
3.2.7 Definición 2.7. Se llama espacio cotangente a M en p ∈ M al espacio dual de Tp M. Lo
denotaremos por Tp∗ M.
3.2.8 Proposición 2.8. Si (U, ϕ) es una carta de M en p, {dxp1 , ..., dxpm } es una base de Tp∗ M.
Demostración. Usando la proposición 2.3 y el cálculo que ya hicimos en la demostración de ??,
resulta que
∂ ∂r j
dxpj ( i ) = i (ϕ(p)) = δij , (2.8) 3.2.8.1
∂x p ∂r
1 m ∗ ∂ ∂
de donde resulta que {dxp , ..., dxp } es la base de Tp M dual de { 1 , ..., m }.
∂x p ∂x p
Como dfp ∈ Tp∗ M, se podrá escribir como combinación lineal de las dxpi . De (2.7) y (2.8) se
deduce que su expresión concreta es
m m m
∂(f ◦ ϕ−1 )
 
X ∂ i
X ∂f i
X
dfp = dfp i p
dx p = i
(p)dx p = i
(p)dxpi . (2.9) 3.2.8.2
∂x ∂x ∂r

i=1 i=1 i=1

3.2.10 Proposición 2.9. Si c : I −→ M es una curva diferenciable, entonces


d
c 0 (t) = c∗t ( ).
dr t

0 d
Demostración. Sea β(s) una curva en I tal que β (0) = dr , por ejemplo β(s) = t + s. Usando la
t
definición de c∗ y la regla de la cadena, se tiene
d
c∗t ( ) = (c ◦ β)0 (0) = β 0 (0)c 0 (t) = c 0 (t).
dr t

14
2.2 Inmersiones y sumersiones 15

3.2.11 Proposición 2.10. Si M es conexa y f : M −→ N es diferenciable, entonces f es constante si


y solo si f∗p = 0 para todo p ∈ M.
Demostración. Si f es constante (i.e. f (z) = x ∈ N para todo z ∈ M), para todo p ∈ M y para
todo v = c 0 (t0 ) ∈ Tp M se tiene que f∗p (v ) = (f ◦ c)0 (to ) = 0.
Recíprocamente, supongamos que f∗p = 0 para todo p ∈ M. Sea x ∈ f (M). Como f es contínua,
f (x) es cerrado. Como M es conexa, solo falta ver que f −1 (x) es abierto en M para ver que es
−1

igual a M y que, por tanto, f es constante. Par verlo, para cada p ∈ f −1 (x), elijamos una carta
(U, ϕ) de M en p y una carta (V , ψ) de N en x = f (p) tales que f (U) ⊂ V . Se deduce de la
Proposición 2.3 que d(ψ ◦ f ◦ ϕ−1 )ϕ(p) = 0, luego ψ ◦ f ◦ ϕ−1 es constante (igual a ψ(x)) sobre
ϕ(U), luego f = ψ −1 ◦ (ψ ◦ f ◦ ϕ−1 ) ◦ ϕ es constante (igual a x) sobre U, luego p ∈ U ⊂ f −1 (x),
luego f −1 (x) es un abierto.
3.2.12 Proposición 2.11. Regla de la cadena Si f : M −→ N y g : N −→ P son aplicaciones
diferenciables, entonces
(g ◦ f )∗x = g∗f (x) ◦ f∗x .
Demostración. Sea v ∈ Tx M, c una curva de M tal que c(0) = x y c 0 (0) = v , resulta inmediata-
mente de aplicar la definición que

d(g ◦ f ◦ c) d(f ◦ c)
(g ◦ f )∗x v = (0) = g∗f (c(0)) (0) = g∗f (x) (f∗x v ). (2.10)
dt dt

2.2. Inmersiones y sumersiones


En este apartado M y N serán variedades diferenciables de dimensiones m y n respectivamente.
3.3.1 Definición 2.12. Una aplicación diferenciable f : M −→ N se dice que es una inmersión (o
que (M, f ) o f (M) es una subvariedad de N) si para todo x ∈ M, el rango de f∗x es m (i.e. f∗x es
inyectiva). Si, además, f es inyectiva, se dice que es un embebimiento (o que (M, f ) o f (M) es
una subvariedad embebida de N). Si, además, f es un homeomorfismo cuando se considera sobre
f (M) la topología inducida por la de N, entonces se dice que (M, f ) (o f (M)) es una subvariedad
regular de N.
Cuando M ⊂ N y se dice que M es una subvariedad, subvariedad embebida o subvariedad
regular de N, se sobreentiende que lo es el par (M, i), donde i : M → N es la aplicación llamada
inclusión canónica, que se define por i(x) = x. Obsérvese que, entonces i∗x Tx M ⊂ Tx N y, a
menudo, se identifican, sin mención explícita, que es clara por el contexto, i∗x Tx M y Tx M.
Hay que advertir que esta terminología no es unánime. Cada vez que uno coge un libro y lee
estas palabras, antes de seguir adelante, hay que ver como las entiende ese autor.
Ejemplo 2.13. Las variedades de dimensión n, tal y como se han definido en este curso son
subvariedades regulares de Rn+k .
3.3.2.1 Ejemplo 2.14. La curva f : R −→ R2 definida por f (t) = (t 3 , t 2 ) es una aplicación C ∞ , pero
no es una inmersión, pues en t = 0, f∗0 ( drd ) = f 0 (0) = 0.

0

15
16 Diferencial de una aplicación. Inmersiones y sumersiones

3.3.2.2 Ejemplo 2.15. f (t) = (t 3 − 4t, t 2 − 4) es una inmersión, pero no es un embebimiento, pues
tiene una autointersección (f (2) = f (−2) = (0, 0)).

3.3.2.3 Ejemplo 2.16.



 (0, −(t + 2)) para t ∈] − 3, −1]

f (t) = curva C que une (0, −1) con ( π1 , 0) para t ∈ [−1, − π1 ]
(−t, sen( 1t )), para t ∈] − π1 , 0[

es un embebimiento. Sin embargo, no es una subvariedad regular porque, en la topología de


f (] − 3, 0[) inducida por la de R2 , todo entorno de p = f (−1) tiene una infinidad de componentes
conexas, mientras que existen entornos de −1 que son intervalos abiertos y, por lo tanto, conexos.

3.3.2.4 Ejemplo 2.17. La aplicación f (t) = (t, t) de R en R2 hace de (R, f ) una subvariedad regular.

3.3.2.5. Ejemplo 2.18. Si f : M → N es una inmersión, embebimiento o subvariedad regular, U es un


abierto de M, V un abierto de N y f (U) ⊂ V , entonces f : U → V es, respectivamente, una
inmersión, embebimiento o variedad regular.

Nota: Es posible probar (ver, por ejmplo, Boothby, pag. 79) que si M es compacta un embebi-
miento f : M → N es una subvariedad regular.

3.3.3 Definición 2.19. Una aplicación diferenciable f : M −→ N se dice que es una sumersión si,
para todo x ∈ M, el rango de f∗x es n (i.e. f∗x es suprayectiva).

3.3.4.1 Ejemplo 2.20. Las proyecciones πM : M × N −→ N y πN : M × N −→ N definidas por


πM (x, y ) = x y πN (x, y ) = y son sumersiones.
En efecto: Vimos en la Proposición 1.23 que πM y πN son diferenciables. Por la fórmula que vimos
en (??) para el cálculo de la diferencial, para cualquier aplicación f : M −→ N el rango de f∗ es
igual al de d(ψ ◦ f ◦ ϕ−1 )ϕ(x) . Particularizamos esto para la aplicación πM (e igual se hace para
πN ). Sabemos que si (U, ϕ) es un sistema de coordenadas de M en x y (V , ψ) lo es de N en y ,
entonces (U × V , ϕ × ψ) lo es de (x, y ) en M × N. Se tiene entonces que

rango πM∗(x,y ) = rango d(ϕ ◦ πM ◦ (ϕ × ψ)−1 )(ϕ(x),ψ(y )) ,

y como ϕ ◦ πM ◦ (ϕ × ψ)−1 (ϕ(z), ψ(w )) = ϕ ◦ πM (z, w ) = ϕ(z), se tiene que rango(πM∗(x,y ) ) =


rango(dϕx ) = m, y πM es una sumersión. Todo esto puede resumirse diciendo que la aplicación
proyección πM leída en las cartas coincide con la proyección de RdimM+dimN sobre RdimM , que es
lineal y suprayectiva, por lo tanto su diferencial, ella misma, también es lineal y suprayectiva y,
por lo tanto, lo mismo le ocurre a la aplicación πM .
Lo dicho en el párrafo anterior en cursiva se puede expresar de modo más formal como sigue.
ϕ ◦ πM ◦ (ϕ × ψ)−1 : ϕ(U) × ψ(V ) −→ ϕ(U) es la proyección sobre el primer factor, luego su

16
2.2 Inmersiones y sumersiones 17

diferencial (como aplicación de Rm × Rn sobre Rm ) es ella misma (por ser lineal) y


πM∗(x,y ) i
∂x (x,y )

= (dϕx )−1 ◦ d(ϕ ◦ πM ◦ (ϕ × ψ)−1 )(ϕ(x),ψ(y )) ◦ d(ϕ × ψ)(x,y )
∂x i (x,y )

= (dϕx )−1 ◦ d(ϕ ◦ πM ◦ (ϕ × ψ)−1 )(ϕ(x),ψ(y )) (0, ..., 0, 1, 0, ..., 0)
−1 ∂
= (dϕx ) (0, ..., 0, 1, 0, ..., 0) = i ,
∂x x
donde (0, ..., 0, 1, 0, ..., 0) lleva el 1 en el i-ésimo lugar, además


πM∗(x,y )
∂y j (x,y )

= (dϕx )−1 ◦ d(ϕ ◦ πM ◦ (ϕ × ψ)−1 )(ϕ(x),ψ(y )) (0, ..., 0, 1, 0, ..., 0)


= (dϕx )−1 (0, ..., 0) = 0,

donde, ahora, el 1 de (0, ..., 0, 1, 0, ..., 0) ocupa el lugar m + j. Análogamente se ve que

∂ ∂ ∂
πN∗(x,y ) i = 0 y πN∗(x,y ) j = .
∂x (x,y ) ∂y (x,y ) ∂y j y
Por lo tanto,

Corolario 2.21. si definimnos la aplicación

ι : T(x,y ) M × N −→ Tx M ⊕ Ty N tal que


ι(X ) = πM∗(x,y ) X + πN∗(x,y ) X ,

ι lleva una base en otra, por lo tanto es un isomorfismo. Este isomorfismo permite decir que el
espacio tangente a una variedad producto es la suma directa de los espacios tangentes a cada
factor.

17
Capítulo 3

3.1. Teoremas de la función inversa y de la función implícita


4.1.1 Teorema 3.1 (Teorema de la función inversa). Sea
f : M −→ N una aplicación entre variedades M y N y x ∈ M tal que f∗x : Tx M −→ Tf (x) N es
un isomorfismo. Entonces existe un entorno abierto U de x en M tal que f (U) es un abierto de N
y f |U : U −→ f (U) es un difeomorfismo.

Demostración. Observemos primero que, puesto que f∗x es un isomorfismo, se tiene que M y N
tienen la misma dimensión. Sea n esta dimensión. Como f es diferenciable, existen cartas (U 0 , ϕ)
en x y (V , ψ) en f (x) tales que f (U 0 ) ⊂ V . Como f∗x es un isomorfismo, d(ψ ◦ f ◦ ϕ−1 ) =
dψf (x) ◦ f∗x ◦ (dϕx )−1 es un isomorfismo de Rn sobre Rn . Entonces, por el teorema de la función
e de Rn que contiene a ϕ(x) tal que ψ ◦ f ◦ ϕ−1 (U)
inversa que se vió en análisis, existe un abierto U e
es un abierto de Rn (que contiene a ψ(f (x))) y ψ◦f ◦ϕ−1 : U
e −→ ψ◦f ◦ϕ−1 (U)e es un difeomorfismo.
Entonces, si definimos U = ϕ−1 (U),e tenemos que f (U) = ψ −1 (ψ ◦ f ◦ ϕ−1 (U))
e es un abierto de N
y f : U −→ f (U) es un difeomorfismo.

Esta sencilla reformulación del teorema de la función inversa en Rn tiene las siguientes con-
secuencias interesantes para la elección de cartas. Comenzaremos con unas definiciones.

4.2.1 Definición 3.2. Un conjunto de funciones {y i } definidas en un entorno de x ∈ M se dice que


son independientes si {dyxi } es un conjunto de elementos linealmente independientes de Tx∗ M.

Definición 3.3. 4.2.2 Dada f : M −→ N, se define


fx∗ : Tf∗(x) N −→ Tx∗ M como la aplicación dual de f∗x
(i.e. (fx∗ θ)(v ) = θ(f∗x v )).

4.2.3 Lema 3.4. Si f : M −→ N, para una g : N −→ R arbitraria se tiene que:


a) fx∗ (dgf (x) ) = d(g ◦ f )x , y
b) d(g ◦ f )x = dgf (x) ◦ f∗x .

Demostración. Por definición de aplicación dual, y aplicando la regla de la cadena en variedades,


se tiene que para todo v ∈ Tx M, fx∗ (dgf (x) )(v ) = dgf (x) (f∗x (v )) = Φg (f (x)) ◦ g∗f (x) ◦ f∗x (v ) =
Φg (f (x)) ◦ (g ◦ f )∗x (v ) = d(g ◦ f )x (v ).

4.2.4 Corolario 3.5. Si f : M −→ N, (U, ϕ) es una carta de M en x y (V , ψ) lo es de f (x) en N,


entonces
fx∗ (dyfj (x) ) = d(y j ◦ f )x .

4.2.5 Proposición 3.6. Sea n = dimM, y sean y 1 , ..., y n un conjunto de funciones independientes en
x ∈ M. Entonces existe una carta de M en x cuyas funciones coordenadas son y 1 , ..., y n .
e la intersección de los dominios de las funciones y i , entonces x ∈ U.
Demostración. Sea U e De-
n
e −→ R por ϕ(p) 1 n ∗ i
finimos ϕ
e: U e = (y (p), ..., y (p)) para todo p ∈ U.
e Ahora bien, ϕ ex (drϕ(x)
e ) =

18
3.1 Teoremas de la función inversa y de la función implícita 19

d(r i ◦ ϕ) e∗x es un isomorfismo y, por tanto, su aplicación dual ϕ


e x = dyxi , luego ϕ e∗x : Tx M −→ Tϕ(x)
e R
n

también lo es. Aplicando a ϕ e el teorema de la función inversa, se tiene que existe un abierto U ⊂ U
e
n
tal que ϕ(U)
e es un abierto de R y ϕ ≡ ϕ| e U : U −→ ϕ(U) es un difeomorfismo, luego (U, ϕ) es
i i
una carta de M en x con y = r ◦ ϕ.

4.2.6 Proposición 3.7. Sea f : M −→ N una aplicación tal que f∗x : Tx M −→ Tf (x) N es suprayectiva
para un x ∈ M. Si y 1 , ..., y n forman un sistema de coordenadas de N en un entorno de f (x),
entonces y 1 ◦ f , ..., y n ◦ f forman parte de un sistema de coordenadas de M en x.

Demostración. Sea m la dimensión de M y n la de N. f∗x suprayectiva implica que fx∗ es inyectiva y,


por lo tanto, fx∗ (dyfj (x) ) = d(y j ◦f )x son linealmente independientes, luego y j ◦f son independientes
en x. Sea (U, ϕ) una carta de M en x con x i = r i ◦ ϕ. Entonces {d(y i ◦ f )x , dxxj } generan Tx∗ M,
luego podemos extraer una base de la forma {d(y 1 ◦ f )x , ..., d(y m ◦ f )x , dxxj } con solo m − n de los
dxxj . Las correspondientes funciones {y 1 ◦ f , ..., y m ◦ f , x j } son independientes en x y, aplicando la
proposición anterior, se ve que son las funciones coordenadas de una carta.

4.2.7 Proposición 3.8. Sea f : M −→ N una aplicación tal que f∗x : Tx M −→ Tf (x) N es inyectiva
para un x ∈ M. Si y 1 , ..., y n forman un sistema de coordenadas de N en un entorno de f (x),
entonces existe un subconjunto de {y 1 ◦ f , ..., y n ◦ f } que forman un sistema de coordenadas de M
en x.

Demostración. Como f∗x es inyectiva, fx∗ es suprayectiva. Por lo tanto {fx∗ (dyfj (x) ) = d(y j ◦ f )x }
generan Tx∗ M, y existe un subconjunto que es una base y las correspondientes funciones forman
un sistema de coordenadas.

4.3.1 Teorema 3.9 (de la función implícita). Sean M y N de dimensiones m y n respectivamente,


f : M −→ N una aplicación diferenciable, y ∈ N y P = f −1 (y ) 6= ∅. Si, para todo x ∈ P, f∗x :
Tx M −→ Tf (x) N es suprayectiva, entonces P tiene una única estructura de variedad diferenciable
tal que (P, i) (donde i es la inclusión canónica de P en M) es una subvariedad regular de M.
Además, dim(P) = m − n y P es un subconjunto cerrado de M.

Demostración. Sea (V , ψ) una carta de N centrada en y , y sean y j = r j ◦ ψ. Como f∗x es su-


prayectiva, las funciones x j = y j ◦ f forman parte de un sistema de coordendadas de M en un
entorno U de x tal que f (U) ⊂ V . Sea ϕ = (x 1 , ..., x n , x n+1 , ..., x m ) el sistema de coordenadas
completo sobre U. Como x ∈ P sii f (x) = y , se tiene que x ∈ P ∩ U sii y j ◦ f (x) = y j (y ) = 0 para
j = 1, ..., n sii x j (x) = 0 para j = 1, ..., n, luego U ∩ P = {x ∈ U tales que x 1 (x) = ... = x n (x) = 0}
y ϕ(U ∩ P) = ({0} × Rm−n ) ∩ ϕ(U), abierto de {0} × Rm−n . Si ϕ0 = (x n+1 , ..., x m ), se tiene que
ϕ0 (U ∩P) = πRm−n (({0}×Rm−n )∩ϕ(U)), que es un abierto de Rm−n , y ϕ0 = πRm−n |({0}×Rm−n ) ◦ϕ|U∩P
es un homeomorfismo por ser composición de homeomorfismos. Entonces (P ∩ U; x m+1 , ..., x n ) es
una carta sobre P. Se comprueba que estas cartas definidas en un entorno de cada x ∈ P de-
finen un atlas sobre P y, por lo tanto, una estructura diferenciable sobre P. Como las ϕ0 son
homeomorfismos con la topología inducida en P por la de M, la topología canónica de P como
variedad diferenciable y la inducida coinciden, luego P es una subvariedad regular de M. Que P
sea cerrado es consecuencia de que f es contínua.

4.3.2 Proposición 3.10. El subespacio de Tx P tangente a la subvariedad P = f −1 (y ) en x ∈ P es


el núcleo de f∗x .

Demostración. Sea i : P −→ M la inyección natural (o inclusión canónica). Entonces f ◦ i : P −→


N es constante, luego f∗x ◦ i∗x = 0, luego i∗x (Tx P) ⊂ Kerf∗x . Como estos dos espacios vectoriales
tienen la misma dimensión, son iguales.

19
20 Teorema de la función implícita. Campos vectoriales

4.3.3 Proposición 3.11. Sea f : M −→ N una aplicación diferenciable, P una subvariedad regular
de M y Q una subvariedad regular de N (ambas subconjuntos de M y N respectivamente). Se
tiene que
a) f |P es diferenciable y (f |P )∗x = f∗x |Tx P .
b) Si f (M) ⊂ Q, entonces f : M −→ Q es diferenciable y su diferencial coincide con la de
f : M −→ N.
c) Si f (P) ⊂ Q, entonces f |P : P −→ Q es diferenciable y (f |P )∗x = f∗x |Tx P .
Demostración. a) Como f |P = f ◦i, f |P es diferenciable por serlo f e i, y (f |P )∗x = f∗x ◦i∗x = f∗x |Tx P .
b) Sea q = dim(Q). Como f es diferenciable, para todo x ∈ M, existen cartas (U, ϕ) en x
y (V , ψ) en f (x) tales que y j ◦ f ◦ ϕ−1 es diferenciable para todo j = 1, ..., n. Como Q es una
subvariedad de N, se deduce de 3.8 que existen un subconjunto {y j1 , ..., y jq } ⊂ {y 1 , ..., y n } y un
abierto V 0 ⊂ V tales que (V e = V 0 ∩ Q; y j1 , ..., y jq ) es una carta de Q en f (x). Tomando ahora
U 0 ⊂ U tal que f (U 0 ) ⊂ V 0 y ϕ0 = ϕ|U 0 , se tiene que y jk ◦ f ◦ ϕ0 −1 es diferenciable, luego
f : M −→ Q es diferenciable en x para x arbitrario, luego es diferenciable como aplicación de M
en Q.
c) es consecuencia de a) y b).

3.2. El fibrado tangente


Definición 3.12. Dada una variedad M n ⊂ Rn+k , se llama fibrado tangente de M al subconjunto
TM = ∪p∈M Tp M de R2n+2k
Proposición 3.13. Si M es una n-subvariedad de Rn+k , entonces TM es una 2n-subvariedad
de R2n+2k
Demostración. Si (U, F ) es una carta de M en p, entonces definimos una carta (U × Rn , Fe ) de
TM en 0P (vector cero de Tp M) por Fe (u, v ∗ ) = (F (u), dF (u)v ∗ ) para todo (u, v ∗ ) ∈ U × Rn .
Evidentemente Fe es una aplicación inyectiva, diferenciable y contínua, con diferencial con matriz
!
∂F j
∂u i
0
∂2F j i ∂F j
∂u k ∂u i
v ∂ui
 j
que tiene rango 2n porque la matriz ∂F∂u i
tiene rango n. Por otro lado, Fe −1 (x, Y ) = (F −1 (x), Y ∗j ),
∂F
donde Y ∗j = Y j son las componentes de Y en la referencia { j (F −1 (x)), es una aplicación
∂r
contínua 1 , luego se cumplen las condiciones de ser una carta.
2.3.4 Proposición 3.14. La aplicación π : TM −→ M definida en la demostración de (??) es una
sumersión de clase C k−1 .
Demostración. Para cada z ∈ TM, sea (U, ϕ) una carta en π(z), entonces π(π −1 (U)) = U y
ϕ ◦ π ◦ τϕ−1 (ϕ(x), v ) = ϕ(x) es una aplicación de clase C k−1 (en realidad es C ∞ ), luego π es C k−1
y es una sumersión porque, como acabamos de ver, ϕ ◦ π ◦ τϕ−1 es una proyección.

3.3. Campos vectoriales


5.1.1 Definición 3.15.SUn campo vectorial X sobre una variedad diferenciable M es una aplicación
X : M −→ TM := x∈M Tx M que a cada x ∈ M le asigna un vector Xx ≡ X (x) ∈ Tx M. Diremos
que X es diferenciable de clase C r si lo es como aplicación entre las variedades M y TM.
1
En efecto: Por ser M una variedad, las primeras componentes F −1 (x), dependen contínuamente de x, ...

20
3.3 Campos vectoriales 21

Sea (U, ϕ) una carta (sistema de coordenadas) de M, x i = r i ◦ ϕ. Las aplicaciones


∂ ∂ ∂
: U −→ TU ≡ TMU tal que (x) = i para todo x ∈ U
∂x i ∂x i ∂x x
son campos vectoriales sobre el abierto U, se llaman campos vectoriales coordenados.
Para cada carta (U, ϕ) de M (de dimensión m), un campo vectorial X define unas funciones
i
X : U −→ R por medio de la expresión
m
X
i ∂
X (x) = X (x) i , (3.1) 5.1.3.1
i=1
∂x x

que define unívocamente el valor de X i (x) para cada x ∈ U, por ser X (x) ∈ Tx M y ser { ∂x∂ i }m

i=1
x
una base de Tx M.
De la definición de las cartas sobre TM se deduce que X es de clase C r (r ≤ k − 1) si y solo
si las funciones X i de la expresión (3.1) son de clase C r sobre U para cada carta (U, ϕ) de M.
Denotaremos por Xr (M) la familia de los campos vectoriales sobre M de clase C r , y simple-
mente por X(M) cuando r = ∞ o cuando no queramos especificar el grado de diferenciabilidad.

5.1.4 Nota 3.16. Obsérvese que si las funciones componentes X i de un campo vectorial X en una
carta (U, ϕ) son C r y (V , ψ) es otra carta de M con U ∩ V 6= ∅, entonces las componentes X 0i de
X en la carta (V , ψ) son también de clase C r sobre U ∩ V .
Demostración. La afirmación de esta nota es consecuencia del siguiente cálculo en el que se usa
la regla de la cadena. Sea x ∈ U ∩ V
m m m
X
i ∂ X
i
X ∂y j ∂
X (x) = X (x) i = X (x) i ∂y j x
∂x ∂x

x
i=1 i=1 j=1
m m
! m
j
X X
i ∂y ∂ X
0j ∂
= X (x) i = X (x) j ,
j=1 i=1
∂x ∂y j x j=1
∂y x

∂y j
 j
0j
Pm ∂y
i
de donde se deduce que X (x) = i=1 X (x) i . Como i
es la matriz de d(ψ ◦ ϕ−1 )
∂x ∂x 1≤i,j≤m
y ψ ◦ ϕ es un C -difeomorfismo, se sigue que X son C sii X 0i son C r .
−1 k i r

Denotaremos por Fr (M) el conjunto de las funciones f : M −→ R de clase C r .


Fl (M) (para 1 ≤ l ≤ k) es un R-espacio vectorial.
5.1.5 Definición 3.17. y Proposición Dados X , Y ∈ Xr (M) y f ∈ Fr (M), se definen
X + Y : M −→ TM por (X + Y )(x) = X (x) + Y (x) y
fX : M −→ TM por (fX )(x) = f (x)X (x).
Se tiene entonces que X + Y ∈ Xr (M) y fX ∈ Xr (M). Además, Xr (M) con estas operaciones es
un Fr (M)-módulo.
Demostración. De la definición resulta evidente que X + Y y fX son campos vectoriales. Para ver
que son de clase C r bastaP para cualquier sistema de coordenadas (U; x 1 , ..., x n )
con fijarse en que,P
de M se tiene que si X = i=1 X ∂x i e Y = m
m i ∂ i ∂ i i
i=1 Y ∂x i (donde X y Y son las funciones definidas
por (5.1.3.1)), entonces
m m
X
i ∂ i
X ∂
X +Y = (X + Y ) i y fX = (fX i ) i .
i=1
∂x i=1
∂x

Se deja al lector comprobar que, con estas operaciones, Xr (M) es un Fr (M)-módulo.

21
22 Teorema de la función implícita. Campos vectoriales

5.1.8. Proposición 3.18. Un campo vectorial X ∈ Xr (M), define una aplicación X : Fr +1 (M) −→
Fr (M) dada por
(Xf )(x) = Xx f para toda f ∈ Fr +1 (M). (3.2) 5.1.8.1

Demostración. En efecto: Para toda carta (U, ϕ) de M, si X = m i ∂
P
i=1 X ∂x i , entonces

U

m
−1
X ∂f
(Xf ) ◦ ϕ (ϕ(x)) = (Xf )(x) = Xx (f ) = X i (x) (x)
i=1
∂x i
m
X ∂(f ◦ ϕ−1 )
= X i ◦ ϕ−1 (ϕ(x)) (ϕ(x)), (3.3)
i=1
∂r i

que es de clase C r al ser f ◦ ϕ−1 de clase C r +1 . También hemos visto, de paso, que la suma y el
producto de funciones de clase C r de M en R es de clase C r .)
5.1.9 Proposición 3.19. Un campo vectorial X ∈ Xr (M) (con la acción definida por (3.2)) es una
derivación sobre Fr +1 (M). La afirmación “es una derivación” significa que verifica las propiedades
de la Definición 1.29, pero en este caso sobre Fr (M) en lugar de sobre Fp
Demostración. La afirmación es consecuencia de (3.2) y de que Tx M ⊂ Dx (pues X (fg )(x) =
Xx (fg ) = (Xx f )g (x) + f (x)Xx g = (Xf )(x)g (x) + f (x)(Xg )(x) = ((Xf )g + f (Xg ))(x)).
Definición 3.20. Una referencia local de una variedad M de dimensión n es una familia de
n campos vectoriales diferenciables X1 , ..., Xn sobre un abierto U de M tales que, en cada punto
p ∈ M, los vectores X1p , ..., Xnp forman una base de Tp M.

3.4. El corchete de Lie


En este apartado nos restringiremos a campos vectoriales C ∞ . Usaremos X(M) ≡ X∞ (M),
F(M) ≡ F∞ (M) y D(M) ≡ D∞ (M).
La proposición 3.19 permite definir la composición de campos vectoriales como actuación su-
cesiva sobre funciones. Sin embargo, si X , Y ∈ X(M), en general, X ◦ Y ∈ / X(M). Sin embargo,
se tiene:
5.2.1 Definición 3.21. y Proposición Sean X , Y ∈ X(M) ≡ D(M). Se define el corchete de Lie
[X , Y ] por
[X , Y ]f = X (Yf ) − Y (Xf ) para toda f ∈ F(M).
Se verifica que [X , Y ] ∈ X(M).
Demostración. Vamos a ver que, efectivamente, [X , Y ] ∈ X(M). Es evidente que [X , Y ] es R-lineal,
para ver que es derivación, calculamos

[X , Y ](fg ) = X (Y (fg )) − Y (X (fg ))


= X ((Yf )g + f (Yg )) − Y ((Xf )g + f (Xg ))
= (XYf )g + (Yf )(Xg ) + (Xf )(Yg ) + f (XYg )
− (YXf )g − (Xf )(Yg ) − (Yf )(Xg ) − f (YXg )
= ([X , Y ]f )g + f ([X , Y ]g ).

X(M), con la operación suma de campos vectoriales definida en 5.1.5, y con la operación
producto por un escalar definida por (λX )(x) = λ X (x) (que coincide con la operación producto
por una función definida en 5.1.5 si esa función es constante) para todo X ∈ X(M) y todo λ ∈ R,
es un espacio vectorial sobre R.

22
3.5 Campos a lo largo de una aplicación 23

5.2.2 Proposición 3.22. X(M), con las operaciones que acabamos de mencionar y con la operación
corchete de Lie es un álgebra de Lie, es decir, la aplicación corchete de Lie [, ] : X(M) × X(M) −→
X(M) es R-bilineal y verifica, además, las propiedades
[X , Y ] = −[Y , X ] (antisimetría)
[[X , Y ], Z ] + [[Z , X ], Y ] + [[Y , Z ], X ] = 0 (identidad de Jacobi).

Demostración. Es inmediato que se verifica la antisimetría y que [ , ] es R-bilineal. Para ver que
se verifica la identidad de Jacobi, basta con calcular cada sumando actuando sobre una función f
arbitraria y sumar después.

5.2.3 Nota 3.23. [ , ] no es F(M)-bilineal, sino que (como el lector comprobará)

[fX , gY ] = fg [X , Y ] + f (Xg )Y − g (Yf )X .

Del teorema de Schwartz de igualdad de las derivadas cruzadas se deduce que, si (U; x 1 , ..., x m )
es una carta de M, entonces  
∂ ∂
, = 0.
∂x i ∂x j

i ∂ j ∂
Pm Pm
De estas dos fórmulas resulta que si, en una carta, X = i=1 X i
e Y = i=1 Y ,
∂x ∂x j
entonces
m  j j

i ∂Y i ∂X ∂
X
[X , Y ] = X i
− Y i j
. (3.4) corcloc
i,j=1
∂x ∂x ∂x

3.5. Campos a lo largo de una aplicación


Definición 3.24. Sea f : M −→ N una aplicación diferenciable, Un campo vectorial diferen-
ciable Z a lo largo de f es una aplicación diferenciable Z : M −→ TN tal que Z (x) ∈ Tf (x) N
para todo x ∈ M.
Como en la definición de campo vectorial, aquí que Z sea diferenciable significa que lo es como
aplicación entre variedades diferenciables, y eso es equivalente a que para cada carta (V , ψ) de
n
X ∂
N con f (x) ∈ V , las funciones Z i : f −1 (V ) ⊂ M −→ R definidas por Z (x) = Z i (x) i (con
i=1
∂y
y i = r i ◦ ψ) sean diferenciables.
La familia de campos vectoriales a lo largo de una aplicación f : M −→ N la denotaremos por
Xf (N).
Un caso particular que usaremos especialmente en Geometría de Riemann es el siguiente:
Definición 3.25. Sea c : I −→ N una curva diferenciable de N. Un campo vectorial X a lo
largo de la curva c es un campo vectorial a lo largo de la aplicación c.
La siguiente proposición es casi evidente:
Proposición 3.26. Si f : M −→ N es una aplicación diferenciable y Y ∈ X(N), entonces Y ◦ f
es un campo vectorial diferenciable a lo largo de f .

Demostración. Lo único que puede tener algo de dificultad es probar laPdiferenciabilidad. Pero Y
diferencible significa que dada una carta (V , ψ) con f (x) ∈ V , Y |V = Y i ∂y∂ i con Y i : V −→ R
X ∂
diferenciables, por lo que Y ◦ f |f −1 (V ) = Y i ◦ f i con Y i ◦ f diferenciables.
∂y

23
24 Teorema de la función implícita. Campos vectoriales

3.6. Campos f -relacionados


5.2.4 Definición 3.27. Sea f : M −→ N una aplicación diferenciable, X ∈ X(M), Y ∈ X(N). Se
dice que X e Y están f -relacionados sii f∗ ◦ X = Y ◦ f , donde f∗ ◦ X (x) = f∗x (Xx ).
5.2.5 Lema 3.28. Sea f : M −→ N una aplicación diferenciable, v ∈ Tx M. Se tiene que (f∗x (v ))g =
v (g ◦ f ) para toda g ∈ F(N).
Demostración. Sea c una curva de M tal que c 0 (0) = v . Por definición de diferencial se tiene que
(f∗x (v ))g = (f ◦ c)0 (0)g = (g ◦ f ◦ c)0 (0) = c 0 (0)(g ◦ f ) = v (g ◦ f ).
5.2.6 Proposición 3.29. Si X , X 0 ∈ X(M) están f -relacionados con Y , Y 0 ∈ X(N), entonces [X , X 0 ]
está f -relacionado con [Y , Y 0 ].
Demostración. Para ver que están f -relacionados, vamos a calcular la acción de [Y , Y 0 ] ◦ f y de
f∗ [X , X 0 ] sobre una función C ∞ arbitraria g : N −→ R y ver que el resultado es el mismo. Sea
x ∈ M. Se tiene, aplicando el lema en la segunda igualdad, que
f∗ [X , X 0 ](x)(g ) = f∗x ([X , X 0 ]x )(g ) = [X , X 0 ]x (g ◦ f )
= Xx (X 0 (g ◦ f )) − Xx0 (X (g ◦ f ))
= Xx ((f∗ X 0 )(g )) − Xx0 ((f∗ X )(g )).
y
[Y , Y 0 ] ◦ f (x)(g ) = [Y , Y 0 ]f (x) (g ) = Yf (x) (Y 0 (g )) − Yf0(x) (Y (g ))
= (f∗ X )(x)(Y 0 (g )) − (f∗ X 0 )(x)(Y (g ))
= Xx (Y 0 (g ) ◦ f ) − Xx0 (Y (g ) ◦ f )
= Xx ((Y 0 ◦ f )(g )) − Xx0 ((Y ◦ f )(g ))
= Xx ((f∗ X 0 )(g )) − Xx0 ((f∗ X )(g )).
que son la misma expresión.

3.7. Curvas integrales de campos vectoriales


En esta sección y en las sucesivas (y también en las anteriores, aunque no lo hayamos usado)
supondremos que toda variedad diferenciable, con su topología canónica, es un espacio Hausdorff
y verifica el segundo axioma de numerabilidad.
6.1.1 Definición 3.30. Dado X ∈ X(M), una curva integral de X es una curva diferenciable c :
]a, b[−→ M tal que para todo t ∈]a, b[ verifica c 0 (t) = Xc(t) .
Problema Dado X ∈ X(M), para cada x ∈ M, ¿existe una curva integral de X que pasa por
x?. Si existe, ¿es única?.
Para dar solución a este problema, vamos a expresarlo en coordenadas. Sea (U, ϕ) una carta
de M. En esta carta se puede escribir
m
X ∂
X |U = Xi ,
i=1
∂x i
i
siendo X funciones diferenciables sobre U. Si c(t) es una curva integral de X que pasa por un
punto de U, para todo t en el abierto c −1 (U) se puede escribir (ver lección 2):
m
0
X d(x i ◦ c) ∂
c (t) = (t) i .
i=1
dt ∂x c(t)

24
3.7 Curvas integrales de campos vectoriales 25

De estas expresiones se deduce que c es una curva integral de X si y solo si para cada t0 ∈]a, b[
existe una carta (U, ϕ) de M que contiene a c(t0 ) tal que para todo t ∈ c −1 (U) se verifica

d(x i ◦ c)
(t) = X i (c(t))
dt
= (X i ◦ ϕ−1 )(x 1 ◦ c(t), ..., x m ◦ c(t)), (3.5) 6.1.2.1

que es un sistema de ecuaciones diferenciales ordinarias definidas sobre el abierto ϕ(U) de


Rm . Por lo tanto, el problema de existencia y unicidad de curvas integrales queda reducido al
de existencia y unicidad del sistema de ecuaciones diferenciales ordinarias (3.5). Aplicando los
teoremas conocidos de análisis para este problema se obtiene:
6.1.3 Teorema 3.31. Sea X ∈ X(M). Para cada p ∈ M, existe un entorno abierto V de p en M, un
intervalo ] − δ, δ[, δ > 0, y una aplicación diferenciable única φ :] − δ, δ[×V −→ M tales que para
cada q ∈ V , la curva cq :] − δ, δ[−→ M definida por cq (t) = φ(t, q) es la única curva integral de
X tal que cq (0) = q, es decir, φ verifica las ecuaciones:
∂φ
(t, q) = Xφ(t,q) y φ(0, q) = q. (3.6) 6.1.3.1
∂t
Cuando decimos que φ es única, queremos decir que si φ1 :] − δ1 , δ1 [×V1 → M es otra aplicación
verificando las mismas condiciones que φ, entonces φ y φ1 coinciden sobre la intersección de sus
dominios.
Demostración. Sea (U, ϕ) una carta de M en p. Aplicando los teoremas de existencia, unicidad y
dependencia diferenciable de la solución de un sistema de ecuaciones diferenciales ordinarias a
(3.5), se tiene que existe un abierto W ⊂ ϕ(U) y existe un δ > 0 tales que ϕ(p) ∈ W y existe
una aplicación diferenciable única ψ :] − δ, δ[×W −→ Rm tal que

∂ψ i
(t, ϕ(q)) = (X i ◦ ϕ−1 )(ϕ(c(t)))
∂t
y ψ(0, ϕ(q)) = ϕ(q) para todo ϕ(q) ∈ W . (3.7) 6.1.3.2
∂ψ i ∂
Pero ∂t
(t, ϕ(q)) son las componentes, en la base ∂x i
, del vector tangente a la curva

t 7→ ϕ−1 (ψ(t, ϕ(q))) = φ(t, q), (3.8) 6.1.3.3

que verifica
φ(0, q) = ϕ−1 (ψ(0, ϕ(q))) = ϕ−1 (ϕ(q)) = q,
y, usando la expresión de dϕ que vimos en (2.6),

∂φ ∂ψ(t, ϕ(q))
(t, q) = (dϕ)−1 ( )
∂t ∂t
= (dϕφ(t,q) )−1 ((X 1 ◦ ϕ−1 )(ϕ(φ(t, q))), ..., (X m ◦ ϕ−1 )(ϕ(φ(t, q)))
m
X
i ∂
= X (φ(t, q)) i = X . (3.9)
i=1
∂x φ(t,q))

Luego, si V = ϕ−1 (W ), la aplicación φ definida por (6.1.3.3) verifica las condiciones del teorema.
Y es única, porque si tenemos una φ1 como la que dijimos en el enunciado, podemos considerar la
aplicación ψ1 definida sobre

I × W 0 =] − máx(δ, δ1 ), mı́n(δ, δ1 )[×ϕ(V ∩ V1 )

25
26 Teorema de la función implícita. Campos vectoriales

por ψ1 (t, ϕ(q)) = ϕ ◦ φ1 (t, q), que verifica

ψ1 (0, ϕ(q)) = ϕ ◦ φ1 (0, q) = ϕ(q) = ψ(0, ϕ(q)) y

∂ψ1i ∂(ϕ ◦ φ1 )(t, q)


(t, ϕ(q)) = = x i (φ1 (t, q))
∂t ∂t
= (X i ◦ ϕ−1 )(ψ11 (t, ϕ(q)), ..., ψ1n (t, ϕ(q))),

y de la unicidad de ψ del teorema correspondiente de ecuaciones diferenciales ordinarias resulta


que ψ1i = ψ i sobre I × W 0 , y, de ahí, resulta que φ1 = φ sobre la intersección de los dominios en
que están definidas.

6.1.4 Definición 3.32 (y observación). Dado X ∈ X(M), la aplicación φ :] − δ, δ[×V −→ M definida


en el teorema anterior determina, para cada t ∈] − δ, δ[, una aplicación φt : V −→ M dada
por φt (q) = φ(t, q) para cada q ∈ V . Tanto φ como la familia de las φt se llaman grupo local
uniparamétrico asociado a X o, también, flujo local de X (el nombre de flujo procede de la mecánica
de fluidos, y su significado es fácil de averiguar si se considera el campo vectorial X como el campo
de velocidades de un fluido).
Con todo esto hemos visto el aspecto local de la teoría de curvas integrales de un campo
vectorial. Vamos a decir ahora algunas cosas sobre el aspecto global de la teoría:
6.1.5 Teorema 3.33. Dado X ∈ X(M), para cada x ∈ M, existen a(x), b(x) ∈ R ∪ {±∞} y una
σx :]a(x), b(x)[→ M, curva integral de X , tales que:
(a) 0 ∈]a(x), b(x)[ y σx (0) = x,
(b) si α :]c, d[→ M es otra curva integral de X con α(0) = x, entonces ]c, d[⊂]a(x), b(x)[ y
α(t) = σx (t) para todo t ∈]c, d[.

Demostración. Sea ]a(x), b(x)[ la unión de todos los intervalos abiertos que contienen al 0 y que
son dominios de curvas integrales β de X tales que β(0) = x. Por el teorema 3.31, ]a(x), b(x)[6= ∅.
Definamos σx como la curva que a cada t ∈]a(x), b(x)[ le hace corresponder el valor en t de una
de las curvas integrales de X tomadas para construir ]a(x), b(x)[ y que están definidas en t. σx
está bien definida, En efecto, si α y β son dos de las curvas anteriores, sea ]c, d[ la intersección de
sus intervalos de definición. Evidentemente 0, t ∈]c, d[. Sea J = {s ∈]c, d[ / α(s) = β(s)}. J 6= ∅
porque α(0) = x = β(0). J es cerrado porque α y β son contínuas y M es Hausdorff. J es abierto,
como resulta de aplicar la unicidad del teorema 3.31 a las curvas α y β en un entorno de cada
punto s0 ∈ J. Por lo tanto, J =]c, d[, en particular, α(t) = β(t). La propiedad (b) es consecuencia
inmediata de esto.

6.1.6 Nota 3.34. Más observaciones. El teorema anterior permite extender el dominio de la aplica-
ción φ (flujo) definida en 3.32 al conjunto W = {(t, x) ∈ R×M / a(x) < t < b(x)}. Es consecuencia
de 3.31 que φ es diferenciable sobre W .
Para cada t, la aplicación φt está definida sobre Dt = {x ∈ M / (t, x) ∈ W } (i.e., Dt es el
dominio de φt ), que es un subconjunto abierto de M, como puede deducirse de nuevo de 3.31. Sin
embargo, pueden existir t para los que Dt = ∅.
Un campo vectorial X ∈ X(M) se dice que es completo si W = R × M, o, equivalentemente,
si para todo t ∈ R, Dt = M, o, equivalentemente, si para todo x ∈ M, la curva integral de X que
pasa por x está definida sobre todo R.
Además, se verifican las siguientes propiedades (los interesados en la demostración pueden
consultar el libro de Warner [?]):
(a) ∪t>0 Dt = ∪t<0 Dt = M.

26
3.7 Curvas integrales de campos vectoriales 27

(b) φt (Dt ) = D−t , y φt : Dt → D−t es un difeomorfismo de inverso φ−t .


(c) Si s, t ∈ R, se tiene que el dominio de φs ◦ φt está contenido en Ds+t , y si s y t tienen el
mismo signo, se tiene la igualdad. En el dominio de φs ◦ φt , se tiene que φs ◦ φt = φs+t .
Si X es completo, el dominio de φs ◦ φt es Ds+t = R. En este caso, el flujo de X se llama, con
pleno sentido, grupo uniparamétrico de X .

Vamos a ver ahora como el flujo de un campo vectorial permite ver el corchete de Lie como una
especie de derivación de campos vectoriales, dando un sentido geométrico-analítico a lo que con
la primera definición que dimos tenía sólo un sentido formal.
6.2.1 Teorema 3.35. Sean X , Y ∈ X(M). Sea p ∈ M y sea φt el flujo local de X en un entorno V
de p. Entonces
1
[X , Y ]p = lı́m (Yφt (p) − φt∗p Yp ).
t→0 t
Obsérvese que
 
1 1
lı́m (Yφt (p) − φt∗p Yp ) = lı́m φ−t∗p (Yφt (p) − φt∗p Yp )
t→0 t t→0 t
1
= lı́m (φ−t∗p Yφt (p) − Yp ).
t→0 t

Demostración. Para hacerla usaremos el siguiente lema:


Lema 3.36. Sea h :] − δ, δ[×V −→ R una aplicación diferenciable tal que h(0, q) = 0 para todo
q ∈ V . Entonces existe una aplicación
diferenciable g :]−δ, δ[×V −→ R tal que h(t, q) = tg (t, q);
∂h(t,q)
en particular, g (0, q) = ∂t .
t=0

Demostración. del Lema. Definamos, para cada valor de t fijo,


Z 1
∂h(ts, q)
g (t, q) = ds.
0 ∂(ts)
Haciendo un cambio de variables s 7→ ts, se tiene
Z t
∂h(ts, q)
t g (t, q) = d(ts) = h(t, q).
0 ∂(ts)
Vamos ahora con la demostración del teorema. Vamos a ver que la acción de los dos miembros
de la igualdad que queremos demostrar sobre una función arbitraria f diferenciable en un entorno
de p da el mismo valor. Para ello, definamos h(t, q) = f (φt (q)) − f (q). Aplicando el lema, y
recordando la definición de la acción de un vector sobre una función, tenemos que existe una
función diferenciable g (t, q) tal que
f ◦ φt (q) = f (q) + tg (t, q) y
∂(f (φt (q)) − f (q))
g (0, q) = (0) = Xq f .
∂t
Se tiene por lo tanto (recordando el lema ??) que
(φt∗p Yp )f = Yp (f ◦ φt ) = Yp f + tYp g (t, ),
donde g (t, ) es la aplicación q 7→ g (t, q). Por lo tanto,
1 Yφ (p) f − (Yp f + tYp g (t, ))
lı́m (Yφt (p) − φt∗p Yp )f = lı́m t
t→0 t t→0 t
Yφ (p) f − Yp f
= lı́m t − Yp g (0, )
t→0 t
= Xp (Yf ) − Yp (Xf ) = [X , Y ]p f ,
donde se ha usado, en la penúltima igualdad, que Yφt (p) (f ) = (Yf )(φt (p)).

27
28 Teorema de la función implícita. Campos vectoriales

6.E.1. Ejercicio 3.37. Sea φt el flujo local de X ∈ X(M). Probar que φt∗ ◦ X ◦ φ−t = X . (Hay que
usar que φs ◦ φt = φs+t ).

28
Capítulo 4

Grupos de Lie

4.1. Grupos de Lie


Una familia de variedades diferenciables especialmente interesante es la de los grupos de Lie.
Definición 4.1. Un grupo es un conjunto G dotado de una ley de composición interna ∗ que
verifica las propiedades:
G1) asociativa: (x ∗ y ) ∗ z = x ∗ (y ∗ z) para todo x, y , z ∈ G
G2) existe un e ∈ G (elemento neutro) tal que x ∗ e = e ∗ x = x para todo x ∈ G .
G3) para todo x ∈ G existe un x −1 ∈ G (elemento inverso) tal que x ∗ x −1 = x −1 ∗ x = e.
1.6.0’ Definición 4.2. Una aplicación f : G −→ H entre dos grupos se dice que es un homomorfismo
de grupos sii f (x ∗ y ) = f (x) ∗ f (y ) para todo x, y ∈ G . Si f es un homomorfismo biyectivo y la
aplicación inversa f −1 es un homomorfismo, entonces se dice que f es un isomorfismo de grupos.
Un grupo de Lie es un grupo con una estructura de variedad diferenciable compatible con la
estructura de grupo. Con más precisión:
1.6.1 Definición 4.3. Un conjunto G con estructura de grupo con la ley x ∗ y ≡ xy , con elemento
neutro e, y con estructura de variedad diferenciable de clase C ∞ se dice que es un grupo de Lie
si la aplicación
α : G × G −→ G tal que (x, y ) 7→ xy −1
es diferenciable (de clase C ∞ ).
Obsérvese que esto es equivalente a decir que las aplicaciones (x, y ) 7→ xy y x 7→ x −1
son diferenciables, puesto que (x, y ) 7→ xy −1 es la composición de (x, y ) 7→ (x, y −1 ) (que es
diferenciable por 1.5.7) con (x, y −1 ) 7→ xy −1 y, recíprocamente, x 7→ x −1 es la aplicación αe :
G → G tal que x 7→ α(e, x) = ex −1 = x −1 que es C ∞ (recordar Prop. (1.22)) y (x, y ) 7→ xy es la
composición de (x, y ) 7→ (x, y −1 ) con (x, y −1 ) 7→ xy .
1.6.2 Ejemplos 4.4.
(a) Sea Rn con su estructura de grupo dada por la suma de vectores y su estructura de variedad
diferenciable (de clase C ω ) dada por la aplicación identidad. Como la aplicación

α : Rn × Rn −→ Rn tal que (x, y ) 7→ x − y

es de clase C ω , se tiene que Rn es un grupo de Lie.


(b) C∗ ≡ C − {0} es una variedad diferenciable con la carta

(C∗ , ϕ), con ϕ : C∗ −→ R2 − {0} ≡ R2 definida por ϕ(x + iy ) = (x, y ). (4.1)

29
30 Grupos de Lie

C∗ es también un grupo con el producto de números complejos como ley interna. Usando la carta
anterior se tiene que

1
ϕ ◦ α ◦ (ϕ × ϕ)−1 (x, y , z, w ) = ϕ((x + iy )(z + iw )−1 ) = (xz + yw , yz − xw ), (4.2)
z2 + w2
que es una aplicación C ω y, por tanto, α es C ω y C∗ es un grupo de Lie.
(c) Con la identificación natural de C con R2 (ya usada en el ejemplo anterior), la circunferencia
de radio unidad S 1 de R2 puede considerarse como

S 1 = {z ∈ C / |z| = 1} ⊂ C.

Las cartas
ϕ : S 1 − {1} −→]0, 2π[ dada por ϕ(e iθ ) = θ, y
π
ψ : S 1 − {i} −→]0, 2π[ dada por ψ(e i(θ+ 2 ) ) = θ,
definen una estructura diferenciable sobre S 1 que es la misma que la definida en (1.3) cuando
n = 1 (¿por qué?).
El producto de dos elementos de S 1 considerados como números complejos da, de nuevo, un
elemento de S 1 , y S 1 es un grupo con esta ley. Si vemos que α es C ∞ , tendremos que S 1 es un
grupo de Lie. Ahora bien: si ι : S 1 −→ C∗ es la inyección canónica ι(z) = z y π : C∗ −→ S 1 es la
aplicación definida por π(z) = z/|z|, consideremos la composición
ι×ι α π
S 1 × S 1 −→ C∗ × C∗ −→ C∗ −→ S 1 ,

como α◦(ι×ι) = α : S 1 ×S 1 −→ S 1 , C∗ es un grupo de Lie, ι×ι es C ∞ y π también (comprobarlo),


se tiene que α es C ∞ .
Otro modo más sencillo de estudiar S 1 es el siguiente: S 1 es un subconjunto de C∗ cerrado
respecto del producto de números complejos, por lo tanto es un subgrupo. Además, es una subva-
riedad regular de C∗ , como resulta de aplicar el teorema de la aplicación implícita a la función
n : C∗ −→ R definida por ϕ(z) = |z|. Entonces la diferenciabilidad de la aplicación (x, y ) 7→ xy −1
resulta de su diferenciablidad en C∗ y de la aplicación de la Proposición 3.11.
(d) Si G y H son dos grupos de Lie, entonces G × H con el producto (x, y )(z, w ) = (xz, yw ) y
la estructura diferenciable de variedad producto definida en (1.4) es un grupo de Lie. En efecto.
Observemos primero que la aplicación ξ : (G × H) × (G × H) −→ (G × G ) × (H × H) definida por
ξ((x, y ), (z, w )) = ((x, z), (y , w ))) es C ∞ (comprobarlo mirando el siguiente diagrama

ξ
(G × H) × (G × H) / (G × G ) × (H × H)
(ϕ×ψ)×(ϕ0 ×ψ 0 ) (ϕ×ϕ0 )×(ψ×ψ 0 ) ,
 ξe

(U × V ) × (U 0 × V 0 ) / (U × U 0 ) × (V × V 0 )

e b, a0 , b 0 ) = (a, a0 , b, b 0 )). Tenidendo en cuenta ahora que la composición


donde ξ(a,
ξ α×α
(G × H) × (G × H) −→ (G × G ) × (H × H) −→ G × H

da la aplicación α : (G × H) × (G × H) −→ G × H, resulta que α es C ∞ y, por tanto, G × H es


un grupo de Lie.
Por ejemplo, S 1 × S 1 con el producto

(e iθ , e iβ )(e is , e it ) = (e i(θ+s) , e i(β+t) )

30
4.1 Grupos de Lie 31

es un grupo de Lie, que se llama toro abeliano por ser difeomorfo a un toro y ser un grupo abeliano.
(e) Sea GL(n, R) el grupo de los isomorfismos de Rn . Elegida una base (la canónica) de Rn ,
cada elemento A ∈ GL(n, R) viene representado de modo único por una matriz A = (aij )1≤i,j≤n de
determinante no nulo, de modo que GL(n, R) se puede identificar con el conjunto de estas matrices.
2
Identificando ahora cada (aij )1≤i,j≤n ∈ GL(n, R) con (a11 , ..., a1n , a21 , ..., an1 , ..., ann ) ∈ Rn ,
2
GL(n, R) resulta ser el subconjunto de Rn definido como
det−1 (R−{0}), donde det es la aplicación que a cada matriz le hace corresponder su determinante.
2
Como el determinante es una función contínua sobre Rn y R − {0} es un abierto de R, se tiene
2
que GL(n, R) es un abierto de Rn y, por lo tanto, una variedad C ∞ .
Si se considera como ley interna en GL(n, R) la composicioón de isomorfismos (que se corres-
ponde con el producto de matrices), GL(n, R) es un grupo de Lie, pues la aplicación (A, B) 7→ AB −1
2 2 2
es C ∞ como aplicación entre abiertos de Rn × Rn y de Rn .
La mayoría de los grupos de Lie (los grupos de Lie clásicos) son subgrupos de GL(n, R).
3.4.1. Definición 4.5. Sea G un grupo de Lie. Para cada g ∈ G , se definen las traslaciones a la
derecha Rg y a la izquierda Lg como las aplicaciones

Rg : G −→ G tal que Rg (h) = hg y


Lg : G −→ G tal que Lg (h) = gh para todo h ∈ G .

Resulta de la definición de grupo de Lie y de la proposición 1.22 que Rg y Lg son aplicaciones


C , de inversas respectivas Rg −1 y Lg −1 y, por lo tanto, son C ∞ -difeomorfismos. De estas obser-

vaciones y de la regla de la cadena 2.11 se deduce que Rg ∗x y Lg ∗x son isomorfismos para cada
x ∈ G.
4.3.4 Ejemplo 4.6. El conjunto de los endomorfismos M(n) (aplicaciones lineales) de Rn se iden-
2
tifica, una vez elegida una base de Rn (por ejemplo, la canónica), con Rn (ver lección 1), y es,
por tanto, una variedad diferenciable. Dado A ∈ M(n), se definen LA y RA por LA (B) = AB
y RA (B) = BA para todo B ∈ M(n). Estas aplicaciones son lineales, por lo tanto, para todo
2
X ∈ M(n), y todo v ∈ TX M(n), se tiene, teniendo en cuenta que, en (Rn , Id), dIdX = ΦX y que,
como RA es lineal, (dRA )X ΦX v = RA (ΦX v )),

RA∗X v = (dIdXA )−1 ◦ d(Id ◦ RA ◦ Id−1 )x ◦ dIdX v


= Φ−1 −1
XA (dRA )X ΦX v = ΦXA ((ΦX v )A).

De modo análogo se obtiene


LA∗X v = Φ−1
AX (A(ΦX v )).

En la práctica, los isomorfismos ΦAX y ΦX no se escriben, se sobreentienden. Dado que no


influyen en los cálculos, es mejor no escribirlos para no liar la notación. Así los cálculos anteriores
quedarían
RA∗X v = vA y LA∗X v = Av ,
2
donde el v que hay a la izquierda de las igualdades es de TX Rn y el que hay a la derecha es
2 2 2
de Rn , y la igualdad se entiende módulo el isomorfismo (o identificación) entre Rn y TX Rn .
Consideremos ahora el grupo lineal GL(n, R) ⊂ M(n) que, según vimos antes, es un abierto
(y, por lo tanto una subvariedad regular) de M(n). Aplicando (3.11)c) y los cálculos anteriores,
se tiene que para todo A, B ∈ GL(n, R) y para todo v ∈ TB GL(n, R),

RA∗B v = vA y LA∗B v = Av .

4.4.1 Proposición 4.7. Si G es un grupo de Lie y H es un subgrupo de G que también es una


subvariedad regular de G , entonces H es un grupo de Lie.

31
32 Grupos de Lie

Demostración. Como H es una subvariedad regular de G , la inyección canónica i : H ×H −→ G ×G


es C ∞ . Si αG : G × G −→ G está definida por αG (x, y ) = xy −1 y αH : H × H −→ H por
αH (a, b) = ab −1 , entonces α
eH = αG ◦ i : H × H −→ G es C ∞ . Como H es subgrupo de G ,
eH (H × H) ⊂ H, y, aplicando 4.3.3c), se tiene que αH es C ∞ y, por lo tanto, H es grupo de
α
Lie.

4.4.2 Ejemplo 4.8.


Se define SL(n, R) = {X ∈ GL(n, R) / detX = +1}. De las propiedades det(XY ) = detX detY
y det(X −1 ) = (detX )−1 , resulta inmediatamente que SL(n, R) es un subgrupo de GL(n, R). Vamos
a ver que también es una subvariedad. Consideremos la aplicación det : GL(n, R) −→ R que a
cada matriz le hace corresponder su determinante. Esta aplicación es C ∞ por ser un polinomio
en las componentes de la matriz. Además SL(n, R) = det−1 (1). Vamos a calcular el rango de det∗A
para cualquier A ∈ SL(n, R). Sea s(t) la matriz que se obtiene al multiplicar la primera fila de A
por 1 + t. Entonces t 7→ s(t) es una curva C ∞ tal que s(0) = A, luego s 0 (0) ∈ TA GL(n, R), y

Φs(0) ◦ det∗A s 0 (0) = (dets(t))0 (0) = ((1 + t)detA)0 (0) = detA = 1 6= 0.

Por lo tanto el rango de det∗A es 1, luego, por el teorema de la función implícita, SL(n, R) es una
subvariedad regular de GL(n, R) de dimensión n2 − 1. De la proposición anterior se deduce que
SL(n, R) es un grupo de Lie.

4.1.1. Álgebra de Lie de un grupo de Lie


Definición 4.9. Sea G un grupo de Lie. Un campo vectorial sobre G , X ∈ X(G ) es un campo
vectorial invariante a la izquierda si Lg ∗ Xh = XLg (h) para todo g , h ∈ G .
Proposición 4.10. Los campos invariantes a la izquierda forman una subálgebra del álgebra
de Lie de los campos vectoriales en un grupo de Lie.

Demostración. Si X , Y son campos vectoriales invariantes a la izquierda, tenemos que, para todo
g ∈ G , tanto X como Y están Lg -relacionados consigo mismos. Por lo tanto también se tiene que
Lg ∗ ◦ [X , Y ] = [X , Y ] ◦ Lg , de manera que [X , Y ] es también invariante a la izquierda.

Definición 4.11. Denotamos por g a la subálgebra de X(G ) de campos invariantes a la iz-


quierda, y la denominamos álgebra de Lie de G.
4.10 Proposición 4.12. . Sea G un grupo de Lie con neutro e y álgebra de Lie g, y denotemos por
v : g −→ Te G la aplicación lineal dada por v (X ) = Xe (así, v es la evaluación en e). Entonces, v
es un isomorfismo.
Demostración Sean X ∈ g, g ∈ G . Entonces, Lg ∗ (v (X )) = Lg ∗ (Xe ) = XLg (e) = Xg . Por tanto, X
queda completamente determinado por v (X ) y así v es inyectiva. Sea ahora y ∈ Te G . Definimos
la aplicación Y : G −→ TG mediante Yg := Lg ∗ (y ) ∈ Tg G . Así Y es un campo vectorial en G .
Hemos de probar que es diferenciable, que es invariante a la izquierda y que v (Y ) = y . Esta
última propiedad es trivial porque, al ser Le = Id, se tiene también Le∗ = Id . Además, Y es
invariante a la izquierda, ya que si g , h ∈ G tenemos

(Lg ∗ ◦ Y )(h) = Lg ∗ (Yh ) = Lg ∗ (Lh∗ (y )) = (Lg ◦ Lh )∗ (y )


= Lgh∗ (y ) = Ygh = (Y ◦ Lg )(h).

Finalmente, Y es diferenciable. En efecto. Consideramos las siguientes aplicaciones diferenciables:


1. jy : G −→ G × TG dada por jy (g ) = (g , y ), donde y ∈ Te G es el vector que define Y ;

32
4.2 Flujo de un c.v. invariante a la izquierda en un grupo de Lie 33

2. k : G × TG −→ TG × TG viene dada por k(g , X ) = (0, X ), donde el 0 se entiende que es el


0 de Tg G , es decir, si ponemos 0 para denotar el campo vectorial nulo en G , tenemos k = 0 × Id,
y así k es diferenciable;
3. v : TG × TG −→ T (G × G ), que fue definida en el capítulo anterior;
4. m : G × G −→ G es la multiplicación, o sea m(g , s) = gs.
Pues bien, sea β una curva de G tal que β(0) = e y β 0 (0) = y . Calculemos la composición
m∗ ◦ v ◦ k ◦ jy . Se tiene

(m∗ ◦ v ◦ k ◦ jy )(g ) = (m∗ ◦ v ◦ k)(g , y )


= (m∗ ◦ v )(0, y ) = (m∗ ◦ v )(cg0 , β 0 (0)),

siendo cg la curva constante igual a g . Seguimos:

(m∗ ◦ v )(cg0 , β 0 (0)) = m∗ ((cg , β)0 (0)) = (m ◦ (cg , β))0 (0)


= (Lg β)0 (0) = Lg ∗ β 0 (0) = Lg ∗ y = Yg

Deducimos que Y = m∗ ◦ v ◦ k ◦ jy , y así Y es diferenciable, como afirmábamos.


Para grupos de Lie C ∞ (todos los son), la demostración e de que Y es C ∞ es más sencilla si
loq que demostramos es que es una derivación sobre F(G ). Para ello bastará con demostrar que
si f ∈ F(G ), entonces Yf ∈ F(G ). Veamoslo: Yf (g ) = Lg ∗ (y )f = y (f ◦ Lg ), que en coordenadas
−1
(U, ϕ)se escribe j y j ∂f ◦L∂rg ◦ϕ
P
j , que es una función diferenciable.

El isomorfismo v permite ahora dotar a Te G de estructura de Álgebra de Lie. En efecto,


si x, y ∈ Te G son tales que x = v (X ), y = v (Y ), siendo X , Y ∈ g, nos basta definir [x, y ] :=
v ([X , Y ]) = [X , Y ]e . A través de ese isomorfismo suelen identificarse g y Te G , y se denotan ambas
álgebras por g. El álgebra de Lie de un grupo de Lie G tiene una extraordinaria importancia. Por
una parte, es un álgebra de dimensión finita, lo que permite conocerla con toda precisión. Por otra,
las álgebras de Lie determinan casi completamente los grupos de Lie en el sentido siguiente: si
G , H son dos grupos de Lie simplemente conexos y sus álgebras de Lie son isomorfas, entonces
G y H son isomorfos como grupos de Lie, y además, si g es una R-álgebra de Lie de dimensión
finita, existe un grupo de Lie cuya álgebra de Lie es el álgebra dada g .

4.2. Flujo de un c.v. invariante a la izquierda en un grupo de Lie


Proposición 4.13 (y definición de exp). Si G es un grupo de Lie y X es un campo vectorial
invariante a la izquierda, su flujo φt es un grupo uniparamétrico global definido para todo t ∈ R,
se representa por exp tX y {exp(tX )(e)}t∈R es un subgrupo 1-dimensional de G .

Demostración. En efecto,
d d d
| φ (g ) = Lφ0 (g )∗ Xe = Lφ0 (g )∗ dt
dt t=0 t
|t=0 φt (e) = dt |t=0 (g φt (e)), de donde φt (g ) = g φt (e) y, de aquí
−1
φt (h) = hg φt (g ). Por lo tanto, dados dos elementos g , h ∈ G , el intervalo sobre el que están
definidas las curvas integrales φt (g ) y φt (h) son las mismas. Si ese intervalo tuviese un máximo
(resp. un mínimo) T < ∞, tendríamos una contradicción tomando h = φδ T (g ) con 1 > δ > 0,
pues entonces, como φt (φδ T (g )) = φt+δ T (g ) está definido para t < T , resultaría que φt (g ) está
definido para t < (1 + δ)T . Luego, para cada g ∈ G , φt (g ) está definido para todo t ∈ R.
La propiedad de ser un subgrupo 1-dimensional de G resulta de que φt (e)φs (e) = φs (φt (e)) =
φs+t (e). Por lo tanto t 7→ exp tX es un homomorfismod de los grupos (R, +) y (G , ).

33
Capítulo 5

5.1. Variedades (semi)-Riemannianas


Recordemos que:
Una métrica o producto escalar b sobre un espacio vectorial (real de dimensión finita n) V
es una forma bilineal (b : V × V −→ R) simétrica no degenerada (i.e. b(X , Y ) = 0 para todo
Y ∈ V implica X = 0). Se dice que es una métrica euclídea (cuando no hay confusión se la sigue
denominando métrica solamente) si es definida positiva (i.e. b(X , X ) > 0 para todo X 6= 0).
Una aplicación bilineal simétrica b no degenerada sobre un espacio vectorial V se dice que
tiene índice r si la dimensión del mayor subespacio W de V sobre el que b es definida negativa
(i.e. g (v , v ) < 0 para todo v ∈ W ) es r . Una métrica de índice r se dice también que tiene
signatura (n − r , r ), donde n es la dimensión del espacio V sobre el que está definida b.
Un vector X ∈ V se dice que es
temporal (timelike) si b(X , X ) < 0

espacial (spacelike) si b(X , X ) > 0

de luz o nulo (lightlike or null) si b(X , X ) = 0.


El conjunto de los vectores nulos se llama cono de luz. La terminología viene de la teoría de la
relatividad, como nos explicará alguno de vosotros.
Se llama espacio de Minkowski (en este curso) a un espacio vectorial (real) n-dimensional con
un producto escalar de índice 1.
Definición 5.1. Una variedad semi-Riemanniana (o pseudo-Riemanniana) es una par (M, g ),
donde M es una variedad diferenciable y g define, en cada punto p ∈ M, una métrica gp sobe
Tp M de índice constante (que no depende de p) de manera diferenciable.
Que p 7→ gp sea una “asignación diferenciable” significa que, si X e Y son campos diferencia-
bles sobre un abierto U ⊂ M, la aplicación U −→ R definida por p 7→ gp (Xp , Yp ) es diferenciable.
Habitualmente no usaremos el subíndice p en expresiones como la anterior.
En el caso de que gp sea euclídea (i.e. definida positiva) para todo p, se dice que (M, g ) es
una variedad Riemanniana. En el caso de que g tenga índice 1 se dice que (M, g ) es una variedad
Lorentziana.
Con frecuencia usaremos la notación hX , Y i en lugar de g (X , Y ).
Dada una referencia local {Xi }ni=1 de M, las componentes gij de la métrica en esa base forman
una matriz simétrica de determinante no nulo (estrictamente positivo en el caso de que g sea una
métrica Riemanniana). Además, las gij son funciones diferenciables (por ser p 7→ gp una “asignación
diferenciable”). En particular eso es cierto para la referencia canónica asociada a una carta de la
variedad. Si {θj }nj=1 es la referencia dual de {Xi }ni=1 , se escribe la métrica g como
n
X n
X
i j
g= gij θ θ , (notación simplificada de gij θi ⊗ θj ) (5.1) gij
i,j=1 i,j=1

34
5.2 Ejemplos de variedades semi-Riemannianas 35

donde gij = g (Xi , Xj ) son las componentes de la matriz de g y θi θj es una abreviatura de θi ⊗ θj ,


el producto tensorial de las 1-formas θi y θj .
En general, el producto tensorial P de dos 1-formas η y ζ se P define for η ⊗ ζ(X , Y )P= η(X )ζ(Y ).
Resulta de este modo que g (X , Y ) = ni,j=1 gij θi θj (X , Y ) = ni,j=1 gij θi (X ) θj (Y ) = ni,j=1 gij X i Y j ,
que es justo la expresión que corresponde al producto escalar g (X , Y ) usando la matriz (gij )ni,j=1
de g , y eso justifica la notación (5.1). Por razones históricas (historia de la notación) con frecuencia
se escribe (5.1) bajo la forma
Xn
2
ds = gij θi θj .
i,j=1
 n

Cuando la referencia local que usamos es la canónica asociada a una carta, su refe-
∂x i i,j=1
rencia local dual es {dx i }ni,j=1 , y entonces se escribe
n
X n
X
i j
g= gij dx dx ó ds = 2
gij dx i dx j .
i,j=1 i,j=1

Elegida una referencia local, las componentes de la matriz inversa de (gij ) se denotan g ij . Esta
matriz es también simétrica de determinante no nulo (> 0 si se trata de una métrica Riemanniana),
y define una métrica sobre T ∗ M de la siguiente forma:
n
X
g (η, ζ) = g ij ηi ζj , (5.2) gijd
i=1

donde ηi , ζj son, respectivamente, las componentes de η y ζ en la base θi , i.e., ηi = η(Xi ) y


ζj = ζ(Xj ). Esta definición se corresponde con la siguiente:
Sean ] y [ los isomorfismos (uno inverso del otro) definidos así:

] : Tp∗ M −→ Tp M
]
; η , X = η(X ) para todo X ∈ Tp M
η 7→ η]
[ : Tp M −→ Tp∗ M
; X [ (Y ) = hX , Y i para todo Y ∈ Tp M
X 7→ X[

Entonces el producto escalar de 1-formas inducido por el de vectores según la fórmula (5.2)
coincide con el definido de la siguiente forma:

g (η, ζ) = g (η ] , ζ ] )

Marcel Berger (14 April 1927 – 15 October 2016) llamaba a ] y [ los isomorfismos musicales
porque, así como los correspondientes símbolos musicales suben o bajan medio tono la nota, los
isomorfismos suben o bajan los índices de las componentes (índice arriba para el vector y abajo
para la 1-forma).

5.2. Ejemplos de variedades semi-Riemannianas


En primer lugar tenemos el espacio euclídeo (Rn con la métrica estándar) y el espacio de
Minkowski (Rn+1 con la métrica hX , Y i = X 1 Y 1 + X 2 Y 2 + ... + X n Y n − X 0 Y 0 ). Al espacio de
Minkowski se le suele denotar por Rn+1
1 .
Otros espacios más interesantes desde el punto de vista de esta asignatura son:
Subvariedades de Rn+k con la métrica inducida por la euclídea de Rn+k .

35
(2) W contains a null vector but not a timelike vector.
(3) W n A = L - 0, where L is a one-dimensional subspace and A
5 Riemannian and Lorentz Geometry
142 5 Riemannian 36 and Lorentz Geometrynullcone of I/.
is the Variedades semi-riemannianas y ejemplos
Proof. (1) * (2). Since W is degenerate it contains a null vector. By
28. 28.Lemma.
Lemma.ForFor a subspace
a subspace W ofWthe
aofLorentz
aprevious
Lorentzvector
lemma space
vector the the
itspace
cannotfollowing
contain
following a timelike vector.
equivalent Se incluyen aquí todas las inmersiones
(2) (3). Since W contains a null vector,
F : M −→ RnW , no
nA sólo las subvariedades
is nonempty. By the regulares.
are equivalent n
La manera de inducir h, i
previous lemma, two independent null vectors would imply that W contains∗
la métrica euclídea de R sobre M es g (X , Y ) = hF X , F ∗ i. Como
Y
1) (1)W isWlightlike, that
is lightlike,n that is, degenerate.
is, degenerate.
2) (2)W contains enaRnullhemos
W contains vector
a null but
vector nottimelike
considerado
but a timelike
not
vector.
a timelike
métrica euclídea, los pares (M, g ) así construidos serán variedades
la vector.
vector.
3) (3)W n (3)
L isL aisone-dimensional(1). W cannot be and
spacelike,
A A and again by the preceding lemma
WAn=A L=-L0,-where
Riemannianas. 0, where a
cannot one-dimensional
be timelike.
subspace
Hence subspace
W is and
lightlike. ( L is in fact the nullspace W n W'
se the
nullcone of I/of
nullcone . IPara
/. el caso deofsubvariedades
W.) m de una variedad semi-riemanniana general la situación es más
Proof.Proof.(1) * (2).
* (2).Since
(1)complicada. Since isWdegenerate
W Vamos it contains
a describir
is degenerate
Causal
las aposibilidades
contains
itcharacters null vector.
a null
for
By para
vector.
a subspace By subvariedades de una variedad de Lorentz.
W are illustrated in Figure 4.
previous lemma
he previous lemma it cannot contain
it cannot contain
Ello requerirá a timelike
conocer a timelike vector.
un poco vector.
más la terminología para los subespacios vectoriales de un espacio
Let PWbe aAsubmanifold ofBya Lorentz manifold. If for every p E P the sub-
2) (2)(3). (3).Since W
Since contains
W contains a null vector,
a null vector, n W nisAnonempty.
is nonempty. the
By the
ious lemma,
de
twotwo
Minkowski.
independent nullnullspace T,(P)
vectors would has the same
imply thatthat causal
W character in T,(M), then that causal character
contains
previous lemma, independent is vectors
attributed wouldto P imply
itself. Thus Wsemi-Riemannian
contains submanifolds of M are either
like vector.
imelike vector.
3) (3)(1). (1).W cannot be spacelike, spacelike or timelike. The nullcone in R; is an example of a lightlike sub-
W Definición
cannot 5.2. and
be spacelike, Sea again
and
manifold.
Wagainunby the
Ofcourse
preceding
subespacio
by the an preceding
arbitrary
lemma
vectorial
lemma de un
submanifold need
espacio de Minkowski V con producto
not haveacausalcharacter.
not be timelike.
cannot be timelike. Hence HenceW isWlightlike.
is ( L is( Linisfact
lightlike. in the the
fact nullspace
nullspace Wn W W'
n W'
escalar g . Hay tres posibilidades The causal character mutuamente of tangentexcluyentes para W
vectors, curves, and: submanifolds is
of W.) m m
W.)
preserved not just by local isometries but by conformal with h > 0se dice que W
mapsEntonces
(1) g |W es definida positiva (i.e. (W , g |W ) es un espacio euclídeo).
Causal characters
Causal characters for a subspace W are
for a subspaceespacial. illustrated in Figure
W are illustrated in Figure 4. 4.
es un subespacio
P beP abesubmanifold
Let Let of aofLorentz manifold. If for
a submanifold a Lorentz manifold. If every
for every p E pP Ethe sub-sub-
P the
ce T,(P) has the same (2) g |
causal es no
character degenerada
in T,(M), then de
space T,(P) has the same causal character in T,(M), then that causal character
W índice
that causal 1. Entonces
character se dice que W es temporal.
istributed
attributedto Ptoitself. Thus
(3)
P itself. |Wsemi-Riemannian
gThus es degenerada
semi-Riemannian submanifolds
(i.e., existeof un
submanifolds Mofare either
vector
M are w ∈ W que es ortogonal a todo W ). Entonces se
either
celike or timelike.
spacelike or timelike.
dice queThe nullcone
The Wnullcone in R;
es tipoinluz. is an example of a lightlike
R; is an example of a lightlike sub- sub-
nifold.
manifold.Ofcourse
Ofcoursean arbitrary
an arbitrary submanifold
submanifold needneed
not nothaveacausalcharacter.
haveacausalcharacter.
TheThe causal character of tangent vectors,
causal character of tangent vectors, curves, curves, andand submanifolds
submanifolds is is
erved not just
preserved not justLos by local
by local isometries
isometries
siguentes but
dibujos by
but byconformal
conformal
expresan maps
lasmaps with
tres withh > h0> 0
posibilidades para el espacio de Minkowski R3 , donde
el eje vertical corresponde a la coordenada x 0 .

' lightlike

Esto da lugar, para una variedadFigure 4. Causal(M,


de Lorentz g ), aof tres
character subspace W . de subvariedades interesantes:
tipos
(1) Subvariedades espaciales P de M, si cada espacio tangente a P, con la métrica inducida
por la de M, es espacial. Estas subvariedades son variedades de Riemann.
(2) Subvariedades lightlike
temporales
'
lightlike
'
P de M, si cada espacio tangente a P, con la métrica inducida
por la de M, es temporal. Estas subvariedades son variedades de Lorentz.
(3) Subvariedades tipo luz P de M, si cada espacio tangente a P, con la métrica inducida
por la de
Figure M, escharacter
4. Causal tipo luz. EstasWsubvariedades
of subspace . no son variedades semi-Riemannas con la métrica
Figure 4. Causal character of subspace W .
inducida, por ser ésta degenerada.
Como ejemplos especiales de los ejemplos de subvariedades anteriores tenemos los siguientes:
Consideremos Rn+1 con una métrica h, i euclídea o de Minkowski. Sea α 6= 0 y

Qα = {x ∈ Rn + 1; hx, xi = α}

Por el teorema de la función implícita, si Qα es no vacío, Qα es una hipersuperficie (subvariedad


regular de dimensión n) de Rn+1 .
Si h, i es la métrica
√ euclídea, entonces ha de ser α > 0 para que Qα 6= ∅ y Qα es la esfera de
centro cero y radio α de √ R . Esta S n con la métrica inducida por la de Rn+1 es la llamada
n+1

esfera “redonda” de radio α.


Si h, i es la métrica de Minkowski y α = −r 2 < 0, entonces Qα tiene dos componentes
conexas que, con la métrica inducida por la de Minkowski, son hipersuperficies espaciales (por
lo tanto variedades Riemannianas). Cada componente conexa H±n (r ) = {x ∈ Qα , x 0 ≷ 0} con la
correspondiente métrica, se llama espacio hiperbólico.

36
p = (vV+1, . . . , u,+ 1)/4(~), [ctz (rnu ~ ) ~ ] Then
and A(u) =
verse mappings, hence diffeomorphisms.
" ~ . 4 and I,+are in-

5.2 Ejemplos de variedades semi-Riemannianas 37

*') = H i ( r )

Si h, i es la métrica de Minkowski y α = r 2 > 0, entonces Qα tiene una sola componentes


conexa que, con la métrica inducida por la de Minkowski, es una hipersuperficie temporal (por
lo tanto una variedad de Lorentz). Se la llama esfera hiperbólica de radio r , S1n (r ), aunque
topológicamente no es una esfera, sino un cilindro S n−1 × R.
Otros ejemplos definidos sobre abiertos de Rn son: En Rn consideremos la métrica euclídea
h, i. Sea K 6= 0 una constante. Sobre el conjunto abierto VK = {x ∈ Rn ; K hx, xi = 6 −1} definimos
la métrica gx (X , Y ) = (1+K4|x|2 )2 hX , Y i. Es una métrica que, cuando K > 0, es la de una esfera

de radio 1/ K en las coordenadas dadas por la proyección estereográfica, y, de nuevo el espacio
hiperbólico cuando K < 0. Ambas cosas habrá que probarlas.
Métrica invariante a la izquierda sobre un grupo de Lie. Si G es un grupo de Lie y e su
elemento unidad, una métrica h, ie sobre Te G define una métrica sobre G por la expresión:

hLg ∗ X , Lg ∗ Y i = hX , Y ie para cualesquiera X ; Y ∈ Te G .

o, equivalentemente,

hXg , Yg i = hLg −1 ∗ Xg , Lg −1 ∗ Yg ie para cualesquiera X , Y ∈ X(M)

Como ejemplos concretos de grupos de Lie con métrica invariante a la izquierda tenemos el
grupo

SU(2) = {A ∈ M2×2 (C); detA = 1, A∗ = A−1 }


  
z w
= ; |z| + |w | = 1 = S 3 (1)
2 2
−w z

cuya álgebra de Lie es:


  
iα β + iγ
su(2) = ; α, β, γ ∈ R
−β + iγ −iα

que tiene como base los vectores


     
i 0 0 1 0 i
X1 = , X2 = , X3 =
0 −i −1 0 i 0

Si definimos una métrica sobre TI SU(2) exigiendo que {Xi }3i=1 sea una base ortonormal y la
extendemos a todo SU(2) exigiendo que sea invariante a la izquierda, es decir, exigiendo que los
campos vectoriales {g 7→ Eig := lg ∗ Xi }3i=1 formen una base ortonormal en cada punto de SU(2),
esta métrica coincide con la métrica estándar de la esfera S 3 (1) (como comprobaréis).

37
38 Variedades semi-riemannianas y ejemplos

Si definimos la métrica sobre SU(2) exigiendo que los vectores descritos sigan siendo ortogo-
nales, pero X1 de norma ε y los demás de norma 1, tenemos otra métrica sobre SU(2) = S 3 , con
esa métrica se dice que S 3 es una “esfera de Berger”.
Obsérvese que X1 es justo el vector tangente a la curva
 iθ    iθ 
e 0 z w e z e iθ w
θ 7→ = (5.3) HSU
0 e −iθ −w z −e −iθ w e −iθ z

que es el resultado de la acción de S 1 sobre cada elemento de SU(2) definida por (5.3). Esta
acción se corresponde, por la biyección indicada anteriormente entre SU(2) y S 3 , con la acción
de S 1 sobre S 3 = {(z, w ) ∈ C2 ; |z|2 + |w |2 = 1} definida por e iθ (z, w ) = (e iθ z, e iθ w ), que se
llama acción de Hopf, que se define no sólo para S 3 , sino para toda esfera de dimensión impar
S 2n+1 ⊂ Cn+1 .
La acción de Hopf de S 1 sobre S 2n+1 permite considerar el conjunto cociente S 2n+1 /S 1 de S 2n+1
por la relación de equivalencia → −
z ≈→ −
w si y solo si →w = e iθ →
− −z para algun θ. Puesto que e iθ es
un número complejo de módulo 1, este conjunto cociente es el mismo que Cn+1 / ∼, donde ∼ es la
relación de equivalencia →−z ∼→ −w si y solo si existe un λ ∈ C∗ tal que → −w = λ→ −z , que. a su vez,
es igual al conjunto de las rectas complejas de Cn+1 , que se llama espacio proyectivo complejo de
dimensión (compleja) n, y se denota por CP n .
El cociente CP n = S 2n+1 /S 1 es una variedad diferenciable de dimensión 2n, y la aplicación
cociente π : S 2n+1 −→ CP n es una sumersión, que se llama fibración de Hopf (las fibras son
las subvariedades π −1 (x), x ∈ CP n que, obviamente, son circunfrenecias, pues, por construcción
coinciden con las clases de equivalencia de un y ∈ S 2n+1 , que son de la forma e iθ y , θ ∈ [0, 2π].
Aprovechamos esto para definir una métrica sobre CP n de la siguiente manera:
Dado x ∈ CP n , sea y ∈ π −1 (x). Podemos escribir Ty S 2n+1 = Ty π −1 (x) ⊕ Ty⊥ π −1 (x), don-
de Ty⊥ π −1 (x) es el subesapcio de Ty S 2n+1 ortogonal a Ty π −1 (x). Resulta entonces que π∗y :
Ty⊥ π −1 (x) −→ Tx CP n es un isomorfimso, y podemos definir la métrica en Tx CP n como aquella
que convierte este isomorfismo en una isometría. Se comprueba (lo comprobaréis) que esta manera
de definir la métrica sobre Tx CP n no depende del y ∈ π −1 (x) elegido, y que la métrica definida
de este modo sobre CP n es diferenciable. Esta métrica se llama métrica de Fubuni Study sobre
CP n
Cuando n = 1, CP 1 = S 2 (1/2), la esfera de radio 1/2 (lo probaréis y explicaréis lo que significa
este =).
Otro grupo muy usado en Geometría de Riemann y en Mecánica Cuántica es el grupo de
Heisenberg
  
 1 a c 
G = 0 1 b  ; a, b, c ∈ R
0 0 1
 

cuya álgebra de Lie es


  
 0 x z 
g = 0 0 y  ; x, y , z ∈ R
0 0 0
 

de la cual los siguientes vectores forman una base:


     
0 1 0 0 0 0 0 0 1
X = 0 0 0 , Y = 0 0 1 Z = 0 0 0
0 0 0 0 0 0 0 0 0

38
5.2 Ejemplos de variedades semi-Riemannianas 39

y definimos sobre G la métrica para la cual X , Y , Z forman una referencia ortonormal.


Consideremos el grupo de Lie SL(2, R)

SL(2, R) = {A ∈ M2 (R); detA = 1}

cuya álgebra de Lie es

sl(2, R) = {B ∈ M2 (R); trB = 0}

Probar que es isomorfo al grupo


  
z w 2 2
∈ M2 (C); |z| − |w | = 1
w z

y definir sobre él una métrica (o familia de métricas) análogas a las que definimos sobre SU(2).
El espacio-tiempo de Schwarzschild es el modelo relativista más simple de un universo con-
teniendo una única estrella que se supone es estática, de simetría esférica, y la única fuente
de gravedad del espacio-tiempo. El modelo resultante se puede aplicar, por lo tanto a regiones
alrededor de objetos astronómicos que, aproximadamente, cumplan estas condiciones. Por ejemplo,
para el caso del sol da un modelo para el sistema solar bastante más preciso que el modelo de
Newton. Otra situación en la que da buena precisión, y mejor que la del modelo Newtoniano, es
en el uso en el GPS para determinar la posición de un punto en la tierra usando la posición de
los satélites que se mueven en la órbita de la tierra, que juega aquí el papel de la masa central
con simetría esférica oúnico origen de la gravedad en lo que afecta al movimiento de los satélites.
Schwarzschild encontró esta solución a las ecuaciones de Einstein en 1915, inmediatamente
después de la aparición de la teoría general de la relatividad (en el mismo 1915) y poco antes
de su muerte (en 1916). Inicialmente solo una parte de su espacio-tiempo (la exterior) parecía
tener sentido físico. Sin embargo la parte despreciada proporciona, en la actualidad, el modelo
más simple de un agujero negro.
Pensando en la variedad R × R3 , donde la primera R representa el tiempo t y R3 representa
el espacio, la métrivca de Sxhwarzschild se puede escribir, usando la coordenada tiempo t en R
y coordenadas esféricas (r θ, φ en R3 , de la forma
   −1
2 2m 2 2m
ds = − 1 − dt + 1 − dr 2 + r 2 (dθ2 + sen2 θdφ2 )
r r
donde r > 2m (m representa la masa de la partícula (el sol) que crea el campo gravitatorio) para
que la métrica estébien definida. Así considerada la variedad sobre la que está definida la métrica
de Schwarzschild es R×]2m, ∞[×S 2 . Sin embargo, se observó después que la restricción para r
es solo debida a laR elección de las coordenadas. En efecto, si en lugar de t y r se emplean las
coordenadas r ∗ = 1−2m/r1
dr = r + 2m ln(r − 2m) y v = t + r ∗ , la métrica anterior toma la forma
 
2 2m
ds = − 1 − dv 2 + 2dvdr + r 2 (dθ2 + sen2 θdφ2 )
r

que es no singular sobre la variedad más grande R×]0, ∞[×S 2 . En esta nueva variedad la super-
ficie r = 2m es una superficie de luz. (Todas estas afirmaciones tendréis que probarlas).
Geometría de la información. Las variedades de Riemann también se usan para modelar
familias de funciones de distribución de probabilidad. Consideremos una una familia S de funciones
de distribución de probabilidad sobre un espacio Ω. Supongamos que cada función de distribución
se puede parametrizar usando nvariables con valores reales [ξ1 , · · · , ξn ] tales que podemos escribir

S = {pξ = p(x; ξ) | ξ = [ξ1 , · · · , ξn ] ∈ Ξ}

39
40 Variedades semi-riemannianas y ejemplos

donde p(x; ξ) una función de distribución de probabilidad sobre Ω. Decimos que Ξ ⊂ Rn es un


espacio de parámetros, que se elige de modo que ξ → pξ sea inyectiva. El conjunto S se llama un
modelo paramétrico. La idea fundamental de la geometría de la información es usar herramientas
de Geometría Riemanniana para extraer información del modelo estadístico subyacente que, de otro
modo, no sería fácilmente accesible. La idea se ha aplicado con éxito en varias áreas, incluyendo
la inferencia estadística y el “aprendizaje de variedades” (manifold learning) como se muestra en
un artículo de Ke Sun y Stéphane Marchand-maillet que dejo a vuestra disposición en el aula
virtual.
Para tener más estructura sobre S haremos algunas hipótesis: supondremoa que Ξ es un
subconjunto abierto de Rn , y que, para cada x0 ∈ Ω la aplicación
Ξ −→ R
ξ 7−→ p(x0 ; ξ)
es C ∞ . Además supondremos que el orden de integración y derivación se pueden cambiar libre-
mente. Una última hipótesis sobre S es que el soporte de cada función de distribución permanezca
invariante frente al cambio de parámetros. Esta hipótesis se hace para simplificar el análisis.
Reconocemos el modelo paramétrico como una variedad identificando sistemas de coordenads
equivalentes. Observemos que la aplicación φ : S → Rn dada por φ(pξ ) = ξ sirve como una carta
coordenada para S. Además, si suponemos que tenemos un C ∞ -difeomorfismo ψ de Ξ a ψ(Ξ),
entonces podemos usar η = ψ(ξ) en lugar de ξ como parámetro, de modo que obtenemos S =
{pψ−1 (η) |η ∈ ψ(Ξ)}. Por lo tanto podemos considerar parametrizaciones que están relacionadas
por difeomorfismos C ∞ como equivalentes, lo que nos permite considerar S como una variedad. Es
común llamar a una S que satisface las condiciones anteirores una variedad estadística.
Ahora que tenemos una variedad, hemos de poner una noción de distancia sobre S, lo que
significa que necesitamos un modo de medir la distancia entre funciones de densidad de probabi-
lidad distintas. La métrica de la información de Fisher mide la proximidad de las formas entre dos
funciones de distribución, es también proporcional a la cantidad de información que la función de
distribución contiene sobre el parámetro. Definimos la siguiente como la matriz de información de
Fisher:
gij (ξ) ≡ Eξ [ϕi lξ ϕj lξ ]
donde lξ = log p(x; ξ) y ϕi = ϕξϕ i . Obsérvese que es posible escribir gij = −Eξ [ϕi ϕi lξ ] ya que
podemos cambiar los órdenes de la integración y derivación.
Obsérvese también que gij (ξ) = gji (ξ), por lo tanto la matriz de información de Fisher es
simétrica. En general gij es semidefinida positiva, ya que para cualquier vector n-dimensional
c = [c1 , · · · , c n ]t tenemos
n X
X n
c t [gij (ξ)]c = c i c j gij (ξ) = ci cj Eξ [ϕi lξ ϕj lξ ]
i=1 j=1
" n n
#
X X
= Eξ ci ϕi lξ ϕj lξ
i=1 j=1
 !2 
n
X
= Eξ  c i ϕi lξ 
i=1
Z (X
n
)2
= c i ϕ i lξ p(x; ξ) ≥ 0
Ω i=1

Hacemos gij definida positiva suponiendo que los elementos {ϕ1 lξ , · · · , ϕn lξ } son linealmente inde-
pendientes como funciones, lo que, por la ecuación anterior, convierte a gij en definida positiva. Esto

40
5.2 Ejemplos de variedades semi-Riemannianas 41

significa que gij proporciona una métrica Riemanniana sobre S. Por lo tanto tenemos un producto
interno gξ = h, iξ sobre cada espacio tangente Tξ S, que también escribimos como gξ = gij dx i ⊗ dx j .
En otras palabras, para cualesquiera X , Y ∈ Tξ S tenemos

hX , Y iξ = gij dx i ⊗ dx j (X µ ϕµ , Y ν ϕν )
= gij X µ δµi Y ν δνj
= E[X i Y j ϕi lξ ϕj lξ ]
= E[(Xlξ )(Ylξ )]

Vamos a dar dos ejemplos de métrica y variedades estadísticas.

Ejemplo 5.3. (Modelo Gaussiano)


Consideremos S = {N(µ, σ 2 )} = {p(x; µ, σ) | (µ, σ) ∈ R × R+ } donde
 
1 x −µ
p(x; µ, σ) = √ exp −
σ 2π 2σ 2

Por lo tanto en nuestro caso ξ = [µ, σ] and Ξ = R × R+ , de donde


√ (x − µ)2
lξ = log p(x; ξ) = − log σ − log 2π −
2σ 2
Podemos comprobar que la métrica en este caso es
1 
2 0
gij (ξ) = σ
0 σ22
2 2
i.e. ds 2 = dµ +2dσ
σ2
. Esta es semejante a la métrica hiperbólica en el modelo del semiplano de
2 2
Poincaré, que es ds 2 = dx y+dy
2 .

¿Cómo sería la variedad Riemanniana que corresponde a distribuciones Gaussianas en dimen-


sión superior?

41
Capítulo 6
Después de haber visto el concepto y unos ejemplos de variedades semi-riemannianas, surge la
pregunta: Dada una variedad diferenciable M, ¿existe siempre una métrica semi-riemanniana sobre
M? La respuesta es “no” si pensamos en métricas semi-riemannianas que no son riemannianas, y
“si” si pensamos en métricas riemannianas. Veamos los resultados con más detalle.
En primer lugar recordemos que suponemos que las variedades con que trabajamos son Haus-
dorff y verifican el segundo axioma de numerabilidad. Estas son las hipótesis necesarias (que no
escribiremos) para el segundo de los lemas siguientes. Y estos lemas son los que nos permiten
construir métricas riemannianas sobre un variedad cualquiera y extender aplicaciones y campos
diferenciables definidos en un abierto.
mes Lema 6.1. Sea M una variedad diferenciable y U un entorno abierto de p ∈ M. Entonces
existe una 8 Chapter .1 Differentiable Manifolds
C

función k ∈ F(M),Lemma
un 1.3.
entorno
E
V de p
Let M be a differentiable manifold. If U is an open neighborhood
of p M, then there exist a function Ic ~(M) and neighborhoods V of p and )‘V
E

y otro W de M − U tales que


of M\U such that p e V M\W U and C C

p ∈V ⊂M −W ⊂U y r (

(i} 0< k(m)≤ lformEM;


1. 0 ≤ k(m) ≤ 1 para
(ii) k(m) todo V; ∈ M;
1 form E m =

(iii) k(m) = 0 form C ¾).

2. k(m) = 1 para todo m ∈ V ;

3. k(m) = 0 para todo m ∈ W . U

M
J
(

UnForrefinamiento
Definición 6.2.Proof. c> 0 let {Vβ }β∈B de un recubrimiento
(
{Uα }α∈A de un abierto W de un

que Vβ ⊂ Uα .
ye = {
espacio topológico M es un recubrimiento de W tal que, para cada β de B existe un α ∈ A tal
(p1,...,pn)ER”~Ep3<
In
j=1

There exist real numbers a and b with 0 < a < b and patches (x, V0), (x, V6) in the
Definición 6.3.atlasUna colección
of M such that {Uα } de subconjuntos de M( se dice que es localmente finita si
4

para todo m ∈ M existe un entorno p


W de
X(V~) x(Vo) m
E x(V0) C U, tal que W ∩ U
C C
α 6= ∅ para sólo una cantidad finita de
(

α where x(V&) denotes the closure of x(Vo). We choose V and ¾) M\x(Vo).


= x(Va) =
Define g:R —‘ R by

refin Lema 6.4. En un espacio topológico I expj—— M localmente


( 11 1\.
I ifa<x<b1 compacto, Hausdorff y con base de abiertos
g(x)=g[a,b](x)=~ ~x—b s—a)
numerable, todo recubrimiento abierto 0 tiene otherwise.
un refinamiento numerable localmente finito formado
por abiertos de clausura compacta. En particular, una variedad diferenciable tiene esta propiedad.
Definición 6.5. Dada una función f : M −→ R, se llama soporte de f a la clausura del conjunto
de puntos donde no se anula, i.e. sopf = f −1 (R − {0}).
Definición 6.6. Una partición de la unidad C k sobre una variedad C k -diferenciable es una
colección {ϕi }i∈I de funciones diferenciables sobre M que verifica las propiedades:
a) La colección de soportes {sopϕi }i∈I es localmente finita.
P
b) i∈I ϕi (m) = 1 para todo m ∈ M y ϕi (p) ≥ 0 para todo p ∈ M y todo i ∈ I .
P
Obsérvese que la suma i∈I ϕi (m) de la condición b) tiene sentido porque, por a), para cada
m ∈ M solo una cantidad finita de ϕi (m) es no nula

42
6.1 Derivada covariante o conexión 43

Definición 6.7. Una partición de la unidad {ϕi }i∈I se dice subordinada al recubrimiento
{Uα }α∈A si para cada i ∈ I existe un α ∈ A tal que sopϕi ⊂ Uα . Se dice que está subordi-
nada al recubrimiento {Ui }i∈I con el mismo índice si sopϕi ⊂ Ui para todo i ∈ I .
pu Lema 6.8. Sea M una variedad diferenciable conexa, {Uα }α∈A un recubrimiento abierto de M.
Entonces existe una partición de la unidad numerable {ϕi }i∈I subordinada al recubrimiento Uα
con sopϕi compacto para cada i ∈ I . Si no se exige que el soporte sea compacto, se puede tomar
la partición de la unidad con el mismo índice que el recubrimiento {Uα }α∈A , con a lo sumo una
cantidad numerable de ϕα no idénticamente nulas.
Teorema 6.9. Una variedad diferenciable M admite una métrica Riemanniana
Demostración. Sea {(Uα , ψα )}α∈A un atlas de M. Por el lema 6.8, existe una partición de la unidad
ϕα subordinada al recubrimiento Uα de M por los dominios de las cartas. Sobre cada Uα podemos
definir la métrica gα para la que la referencia local canónica asociada a la carta (Uα , ψα ) es una
base ortonormal. Definimos entonces la métrica g sobre M por
X
g (X , Y ) = ϕα (m)gα (X , Y ).
α∈A

Esto no es cierto para una métrica semi-riemanniana de rango no nulo, como es fácil pensar
por el siguiente argumento, que requiere una definición previa.
Definición 6.10. Sea M una variedad de dimensión n. Una distribución diferenciable D de
dimensión r < n es la aplicación que, a cada punto m ∈ M le asigna, de manera diferenciable, un
subespacio vectorial Dm de Tm M de dimensión r .
“De manera diferenciable” significa aquí que, para cada m ∈ M existe un abierto U ⊂ M y
r campos vectoriales diferenciables sobre U, que denotaremos por X1 , ..., Xr tales que, para cada
p ∈ U, los vectores X1 (p), ..., Xr (p) son una base de Dp
Nota 6.11. Si g es una métrica semi-riemanniana de rango r > 0 sobre una variedad M,
podemos asignar a cada punto m ∈ M el subespacio Wm ⊂ Tm M de dimensión r tal que g |Wm es
definida negativa. No es difícil demostrar que esta distribución es diferenciable. Resulta entonces
que una condición para que una variedad diferenciable de dimensión n admita una métrica semi-
riemanniana de rango r ≥ 1 (r < n), es necesario (y suficiente) que admita una distribución
diferenciable de dimensión r .
No toda variedad diferenciable admite distribuciones así. Por ejemplo, en dimensión 2, para
superficies orientables, la existencia de una distribución 1-dimensional equivale a la de un campo
vectorial no nulo en todo punto. Una consecuencia del teorema de Gauss-Bonnet (por ejemplo) es
que ninguna superficie difeomorfa a la esfera tiene un campo vectorial que no se anule nunca. Por
lo tanto, sobre esas superficies no exissten métricas semi-riemannianas que no sean riemannianas
(lo mismo ocurre con todas las esferas de dimensión par y, por eso, la curvatura constante para
Lorentzianas es muy distinta que para riemannianas, al menos en dimensión par)

6.1. Derivada covariante o conexión


Dados dos campos vectoriales X , Y sobre una variedad diferenciable,
dc Definición 6.12. Se llama derivada covariante DX Y de Y en la dirección de (o con respecto
a) X al campo vectorial resultado de una aplicación
D : X(M) × X(M) −→ X(M)
(X , Y ) 7→ DX Y
que verifica

43
44 Existencia de métricas. Conexiones

1. DX (f Y ) = Xf Y + fDX Y para toda f ∈ F(M)

2. DX (Y + Z ) = DX Y + DX Z para todo Z ∈ X(M)

3. DfX Y = fDX Y

4. DX +Y Z = DX Z + DY Z

Las propiedades (1) a (4) (llamadas propiedades de una de derivación) de la definición anterior
tienen la siguiente consecuencia interesante:

locder Proposición 6.13. (DX Y )p depende solo de los valores de X y de Y en un entorno de p.

Demostración. Sean X 0 , Y 0 campos vectoriales sobre M y U un abierto conteniendo a p tales que


X |U = X 0 |U e Y |U = Y 0 |U . Sean V un abierto contenido en U y conteniendo a p y ϕ una función
que vale 1 sobre V y 0 sobre M − U. Se tiene que

X − X 0 = (1 − ϕ)(X − X 0 )
Y − Y 0 = (1 − ϕ)(Y − Y 0 )
(DX Y )p −(DX 0 Y 0 )p = (DX Y )p − (DX 0 Y )p + (DX 0 Y )p − (DX 0 Y 0 )p
= (DX −X 0 Y )p + (DX 0 (Y − Y 0 ))p
= (D(1−ϕ)(X −X 0 ) Y )p + (DX 0 ((1 − ϕ)(Y − Y 0 ))p
= (1 − ϕ)(p)(DX −X 0 Y )p + (1 − ϕ)(p)(DX 0 (Y − Y 0 ))p
+ Xp0 (1 − ϕ)(Y − Y 0 )p = 0.

Lo que prueba la Proposición 6.13.

La proposición anterior permite que tenga sentido escribir DX Y en un entorno abierto de


cada punto usando una referencias local E1 , ...,
PnEn definida sobre
Pn esej entorno. Escribimos las
i
expresiones de X e Y en esa referencia, X = i=1 X Ei , Y = j=1 X Ej . De estas expresiones,
y de las propiedades de la definición de derivada covariante resulta:
X X
Xi Y j DEi Ej + Ei (Y j )Ej

DX Y =
i j
X
X i Y j DEi Ej + X i Ei (Y j )Ej .

= (6.1) dccoo
i,j

Esta fórmula nos permite ver que, elegida una referencia local, la derivada covariante de cualquier
campo vectorial está determinada por las derivadas covariantes de los campos vectoriales de la
referencia. Por ello, se da un nombre especial a las componentes de esas derivadas covaraintes
en esa misma referencia. Así, se escribe
X
DEi Ej = Γkij Ek , (6.2) sCh
k

y a las funciones Γkij se las llama símbolos de Christoffel de la conexión D en la referencia


{E1 , ..., En }.
Con la ayuda de la expresión local de DX Y que acabamos de dar, se puede mejorar la Propo-
sición 6.13 de la siguiente manera:

locdc Proposición 6.14. (DX Y )p depende solo del valor de X en p y de los valores de Y a lo largo
de cualquier curva tangente a Xp .

44
6.1 Derivada covariante o conexión 45

Demostración. Tomemos como referencia local para la expresión (6.1), la referencia local canónica
asociada a un sistema de coordenadas (U, x 1 , ..., x n ), y sea c una curva tal que c 0 (0) = Xp , de
coordenadas (x 1 ◦ c(t), ..., x n ◦ c(t)). Cuando calculamos DX Y en p usando (6.1) y (6.2), obtenemos
X
X i Y j D∂i ∂j + X i ∂i (Y j )∂j

DX Y =
i,j
X
X i Y j Γkij + X i ∂i (Y k ) ∂k ,

=
i,j,k

expresión en la que es evidente que (DX Y )p depende sólo de de X i (p), por lo tanto, sólo de Xp .
Además, teniendo en cuenta la relación de Xp con c, da
!
X X
(DX Y )p = (x i ◦ c)0 (0)Y j Γkij + (x i ◦ c)0 (0)∂i (Y k ) ∂k
i,k j
!
k
X X dY ◦ c
= (x i ◦ c)0 (0)Y j Γkij + (0) ∂k , (6.3)
k i,j
dt

donde hemos empleado la regla de la cadena para la última igualdad. Se deduce de esta última
k
expresión que (DX Y )p depende sólo de dYdt◦c , es decir, de los valores de Y a lo largo de la curva
c(t).

Nota 6.15. Obsérvese que acabamos de usar una notación que repetiremos mucho, para ahorrar
espacio, cuando no haya confusión sobre qué sistema de coordenadas estamos usando. Es:


∂i := (6.4)
∂x i
Proposición 6.16. Sobre toda variedad diferenciable existe una conexión bien definida

Demostración. Se demuestra con la misma idea que se demostró la existencia de una métrica
riemanniana, usando particiones de la unidad.

Para el estudio de la geometría riemanniana no interesa (de ordinario) esa conexión que se
construye en la proposición anterior, sino una que esté ligada a la métrica, mejor si está ligada
de manera única. Para hablar de esa conexión introducimos dos conceptos nuevos:

Definición 6.17. Una conexión D sobre una variedad riemanniana (M, h, i) se dice que es
métrica si

X hY , Z i = hDX Y , Z i + hY , DX Z i (6.5) conmet

y se dice que es simétrica si

DX Y − DY X = [X , Y ] (6.6) consim

teuc Teorema 6.18. Sobre una variedad semi-riemanniana (M, h, i) existe una única conexión que
es métrica y simétrica. Se llama conexión de Levi-Civita, la denotaremos por ∇ en lugar de D, y
su expresión es

2 h∇X Y , Z i = X hY , Z i + Y hX , Z i − Z hX , Y i
+ hX , [Z , Y ]i − h[X , Z ], Y i − h[Y , X ], Z i (6.7) LCc

45
46 Existencia de métricas. Conexiones

Demostración. Se basa en ver que la aplicación sucesiva a la expresión h∇X Y , Z i de las propie-
dades de ser métrica y simétrica conduce a la expresión (6.7). Así:

h∇X Y , Z i = X hY , Z i − h∇X Z , Y i = X hY , Z i − h∇Z X + [X , Z ], Y i


=X hY , Z i − h[X , Z ], Y i − Z hX , Y i + hX , ∇Z Y i
=X hY , Z i − h[X , Z ], Y i − Z hX , Y i + hX , ∇Y Z + [Z , Y ]i
=X hY , Z i − h[X , Z ], Y i − Z hX , Y i + hX , [Z , Y ]i
+ Y hX , Z i − h∇Y X , Z i
= X hY , Z i − h[X , Z ], Y i − Z hX , Y i + hX , [Z , Y ]i
+ Y hX , Z i − h∇X Y , Z i − h[Y , X ], Z i

de donde, pasando − h∇X Y , Z i al primer término, resulta la expresión (6.7)


De (6.7) se obtiene la expresión de los símbolos de Christoffel de la conexión de Levi-Civita
en la referencia canónica asociada a una carta, tomando X = ∂i , Y = ∂j , Z = ∂` ,
X
2 Γkij gk` = ∂i gj` + ∂j gi` − ∂` gij
k

Multiplicando ahora por la matriz (g `r ) inversa de (gk` ), se obtiene


1 X `r
Γrij = g (∂i gj` + ∂j gi` − ∂` gij ) (6.8) SCLC
2 `

6.2. Gradiente, divergencia, laplaciana y derivada de Lie


Definición 6.19. En una variedad semi-riemanniana (M; h.i), se llama gradiente de una función
f ∈ F(M) al campo vectorial gradf definido por hgradf , X i = df (X ) para todo X ∈ Tx M y todo
x ∈ M.
La buena definición de gradf es consecuencia de que df está bien definida y de que la métrica
h, i es no degenerada.

PnDefinición 6.20. Se llama divergencia de un campo vectorial X a la función p 7→ (divX )(p) =


i=1 h∇ei X , ei i, donde {ei } es una base ortonormal de Tp M.
Se comprueba inmediatamente que la definición no depende de la base ortonormal elegida
si se tiene en cuenta que la matriz de cambio de bases ortonormales es ortogonal, es decir, su
inversa es igual a su traspuesta.
Definición 6.21. Dada f ∈ F(M), se llama Hessiano de f a ∇2 f := ∇df , donde el significdo
de ∇df es el de derivada covariante de la 1-forma df , y la derivada covariante de una 1-forma
diferencial θ se define por ∇θ(X , Y ) := (∇X θ)(Y ) := X θ(Y ) − θ(∇X Y ).
La derivada covariante de una función se define como su diferencial: ∇f := df . De ahí la
definición anterior ∇2 f = ∇df
Definición 6.22. Dada f ∈ F(M), se llama laplaciana de f a

∆f = div gradf

De las tres definiciones anteriores resulta que


X X
∆f = h∇ei gradf , ei i = ∇2 f (ei , ei ) =: tr∇2 f
i

46
6.3 Isometrías: conservan la derivada covariante 47

La derivada de Lie de una aplicación F(M) k-lineal


b : X(M) × ...
k × X(M) −→ X(M) ( o F(M)) se define por
X
(LX b)(Y1 , ..., Yk ) = [X , b(Y1 , ..., Yk )] − b(Y1 , ..., [X , Yi ], ..., Yn )
i
si el espacio de llegada de b es X(M), y por
X
(LX b)(Y1 , ..., Yk ) = X b(Y1 , ..., Yk ) − b(Y1 , ..., [X , Yi ], ..., Yn )
i
si el espacio de llegada de b es F(M)
En el caso del tensor métrico g de una variedad Riemanniana se tiene
(LX g )(Y , Z ) = X g (Y , Z ) − g ([X , Y ], Z ) − g (Y , [X , Z ])
= X g (Y , Z ) − g (∇X Y , Z ) + g (∇Y X , Z )
− g (Y , ∇X Z ) + g (Y , ∇Z X )
= X g (Y , Z ) − g (∇X Y , Z ) − g (Y , ∇X Z )
+ g (Y , ∇Z X ) + g (∇Y X , Z )
= g (∇Z X , Y ) + g (∇Y X , Z ). (6.9) LXg
Definición 6.23. Un campo vectorial X sobre una variedad semi-Riemanniana (M, g ) se dice
que es de Killing si LX g = 0.
De la fórmula (6.9) se deduce que X es de Killing sii g (∇Z X , Z ) = 0 para todo campo vectorial
Z.

6.3. Isometrías: conservan la derivada covariante


isodi Definición 6.24. Sean (M, g ) y (N, h) dos variedades Riemannianas. Una aplicación f : M −→
N se dice que es una isometría si es diferenciable, biyectiva, y f∗p : Tp M −→ Tf (p) N es una
isometría de espacios vectoriales para todo p ∈ M (por lo tanto una isometría es un difeomorfismo),
o, lo que es lo mismo, g = f ∗ h.
Proposición 6.25. Una isometría f : (M, g ) −→ (N, h) conserva las conexiones de Levi-Civita.
Con más precisión:
Si ∇M y ∇N son las conexiones de Levi-Civita de M y N respectivamente, se tiene que
∇Nf∗ X f∗ Y = f∗ ∇M
XY

Demostración. Observemos primero que si ζ ∈ F(M), X ∈ X(M), entonces f∗ X ζ = X (ζ ◦ f ) y que,


escribiendo con detalle las aplicaciones, que f es una isometría se escribe h(f∗ X , f∗ Y )(f (p)) =
g (X , Y )(p), es decir h(f∗ X , f∗ Y ) = g (X , Y ) ◦ f −1 .
Usando la fórmula (6.7) para la conexión de Levi-Civita
2 h(∇Nf∗ X f∗ Y , f∗ Z ) = f∗ Xh(f∗ Y , f∗ Z ) + f∗ Yh(f∗ X , f∗ Z )
− f∗ Zh(f∗ X , f∗ Y ) + h(f∗ X , [f∗ Z , f∗ Y ])
− h([f∗ X , f∗ Z ], f∗ Y ) − h([f∗ Y , f∗ X ], f∗ Z )
= f∗ X (g (Y , Z ) ◦ f −1 ) + f∗ Y (g (X , Z ) ◦ f −1 )
− f∗ Z (g (X , Y ) ◦ f −1 ) + g (X , [Z , Y ]) ◦ f −1
− g ([X , Z ], Y ) ◦ f −1 − g ([Y , X ], Z ) ◦ f −1
−1
= 2g (∇M
X Y , Z) ◦ f = 2h(f∗ ∇M
X Y , f∗ Z ). (6.10)
lo que prueba (a).

47
48 Existencia de métricas. Conexiones

Proposición 6.26. Un campo vectorial es de Killing sii su flujo está formado por isometrías
locales.

Demostración. Sea φt el flujo de X , por definición de la derivada de Lie y por el Teorema 3.35,

(LX g )(Y , Z )(p) = (Xg (Y , Z ) − g ([X , Y ], Z ) − g (Y , [X , Z ]))(p)


1
= lı́m g (Yφt (p) , Zφt (p) ) − g (Yp , Zp )
t→0 t

− g (Yφt (p) − φt∗p Yp , Zφt (p) ) − g (Yφt (p) , Zφt (p) − φt∗p Zp )
(y, teniendo en cuenta que lı́m Zφt (p) = Zp = lı́m φt∗p Zp , )
t→0 t→0
1
= lı́m g (φt∗p Yp − Yφt (p) , φt∗p Zp ) + g (Yφt (p) , φt∗p Zp )
t→0 t

− g (Yφt (p) , Zφt (p) ) + g (Yφt (p) , Zφt (p) ) − g (Yp , Zp )
(y, quitando los cuatro términos que se cancelan entre sí,)
1 
= lı́m g (φt∗p Yp , φt∗p Zp ) − g (Yp , Zp )
t→0 t
1 ∗ 
= lı́m (φt g )(Yp , Zp ) − g (Yp , Zp )
t→0 t
d
= (φ∗t g )(Yp , Zp ) (6.11) deriLie
dt t=0
A partir de esta fórmula, es claro que, si las aplicaciones φt son isometrías locales, entonces LX g =
0. Para ver el recíproco, observemos primero que la fórmula (6.11) vale también si calculamos en
t = s en lugar de en t = 0 y sustiyuimos p por φs (p). Resulta de ello que si LX g = 0, entonces la
aplicación s → (φ∗s g )(Yp , Zp ) es constante para cada Yp , Zp ∈ Tp M, luego, para cada Yp , Zp ∈ Tp M
se tiene que (φ∗s g )(Yp , Zp ) = g (Yp , Zp ), luego φs es una isometría.
Por lo tanto, una variedad semi-riemanniana con muchos campos de Killing es un espacio con
muchas isometrías.

Nota 6.27. Puede que el lector haya oído alguna vez que el espacio físico es homogéneo e
isótropo. Homogéneo significa que se ve igual desde todos los puntos del espacio e isótropo que,
en cada punto, se ve lo mismo en todas direcciones. Estamos ahora en condiciones de dar una
definición matemática de lo que significa homogéneo.
Una variedad semi-riemanniana (M, g ) se dice que es homogénea si, dados dos puntos cua-
lesquiera x, y ∈ M existe una isometría de M que lleva x en y . El lector comprobará que esta
definición se corresponde exactamente con la idea intuitivo-física expresada anteriormente.

48
Capítulo 7

7.1. La conexión de Levi-Civita de una subvariedad semi-riemanniana


Una subvariedad regular M de una variedad semi-riemanniana M es una subvariedad semi-
riemanniana de M si es una variedad semi-riemanniana con la métrica inducida (para cada p ∈ M,
el producto escalar en cada Tp M es la restricción del producto escalar en Tp M a Tp M.
Si M es una subvariedad semiriemanniana de M, se tiene la descomposición en suma directa
y ortogonal Tp M = Tp M ⊕ Tp M ⊥ , donde Tp M ⊥ es el espacio vectorial ortogonal a Tp M en Tp M.
Proposición 7.1. Si X , Y ∈ X(M), y ∇ es la conexión de Levi-Civita sobre M, entonces la
conexión de Levi-Civita sobre M es ∇X Y = (∇X Y )> .
Demostración. Por el Teorema 6.18, basta con demostrar que ∇X Y es una conexión métrica y
simétrica.
Es una conexión porque
>
∇fX +hZ Y = (∇fX +hZ Y )> = f ∇X Y + h ∇Z Y
= f ∇X Y + h ∇Z y
∇X (fY ) =(∇X (fY ))> = (f ∇X Y + X (f )Y )> = f ∇X Y + X (f )Y .

Es métrica porque



X hY , Z i = ∇X Y , Z + Y , ∇X Z
= (∇X Y )> , Z + Y , (∇X Z )> = h∇X Y , Z i + hY , ∇X Z i


Es simétrica porque

∇X Y − ∇Y X = (∇X Y )> − (∇Y X )>


= (∇X Y − ∇Y X )> = [X , Y ]> = [X , Y ].

Definición 7.2. La componente normal de ∇X Y se llama segunda forma fundamental de m, se


escribe α(X , Y ) = (∇X Y )⊥ .
Proposición 7.3. La segunda forma fundamental es una aplicación F(M)-bilineal simétrica.
Demostración. Se demuestra con cálculos directos como los que hicimos para ver que la parte
tangencial de ∇X Y era una conexión.
Definición 7.4. Se llama vector curvatura media a la traza de α: H = trα = ni=1 α(ei , ei ).
P

Nota 7.5. En la mayoría de los libros de geometría la curvatura media se define multiplican-
do por 1/n la definición dada anteriormente. La definición usada aquí es más común entre los
analistas.

49
50 Subvariedades. Formalismo de Cartan. Transporte paralelo.

Definición 7.6. Se dice que una subvariedad es totalmente geodésica si α = 0. Se dice que
es minimal si H = 0.
Proposición 7.7. Una subvariedad M de una variedad M es totalmente geodésica si, para cada
X ∈ Tp M, la geodésica de M tangente a X está contenida en M y es una geodésica de M.(Para
el concepto de geodésica, ver Definición 8.1)
Demostración. Sea X ∈ Tp M y sea γ la geodésica de M tangente a X . Se tiene que 0 =
∇γ 0 (t) γ 0 (t) = ∇γ 0 (t) γ 0 (t) − α(γ 0 (t), γ 0 (t)) = ∇γ 0 (t) γ 0 (t), luego γ(t) es una geodésica de M y, por la
unicidad de la geodésica que pasa por un punto y tangente a un vector, se tiene la proposición.

7.2. Formalismo de Cartan


En Geometría de Riemann, a menudo es más cómodo usar una referencia local ortonormal que
usar la referencia asociada a un sistema de coordenadas. Vamos a ver como se hacen los cálculos
de la derivada covatiante usando una referencia de este tipo.
Dada una referencia local ortonormal {ei }ni=1 de M, su referencia dual {θi } y la conexión de
Levi-Civita ∇ sobre M, cada ∇ej define, sobre el abierto U ⊂ M sobre el que está definida la
referencia local, una aplicación F(M)-lineal
∇ej : X(U) −→ X(U); X 7→ ∇X ej
y cada imagen ∇X ej se puede escribir como combinación lineal de los ei .
X
∇ X ej = ωji (X )ei (7.1) omij
i

Como ∇ej es F(M)-lineal, también son F(M)-lineales los ωji . Comparando la expresión (7.1) con
la definición de los símbolos de Christoffel asociados a una referencia, tenemos que

X X
Γkij ek = ∇ei ej = ωjk (ei )ek ;
k k
X
i.e. Γkij = ωjk (ei ); de donde ωjk = Γkij θi . (7.2) SCom
i

y las ωij son 1-formas locales sobre M. En efecto, ya hemos observado antes que son F(M)-lineales,
y la fórmula (7.2) nos vuelve a indicar que son diferenciables.
Estas ωji se llaman las 1-formas conexión de ∇ asociadas a la referencia local {ei }ki=1 . Verifican
la propiedad:
Proposición 7.8. La matriz (ωji )ni,j=1 es antisimétrica

Demostración.
P k
Para

cualquier
P k
vector X ∈ Tp M, se tiene 0 = X hei , ej i = h∇X ei , ej i + hei , ∇X ej i =
j i
k ωi (X )ek , ej + ei , k ωj (X )ek = ωi (X ) + ωj (X ).

La siguiente propiedad es excepcionalmente útil para el cálculo de las 1-formas de conexión:


Proposición 7.9 (Promera ecuación de estructura de Cartan). dθi = − j ωji ∧ θj
P

Demostración. dθi (X , Y ) = X (Y i ) − Y (X i ) − [X , Y ]i
= X hY , ei i − Y hX , ei i − h[X , Y ], ei i
=Dh∇X Y ), ei i i + h.Y
E ,D ∇X ei i − h∇Y XE, ei i − hX , ∇Y , ei i − h[X , Y ], ei i
= Y , ωi (X )ej − X , ωij (Y )ej ) = θj (Y )ωij (X ) − θj (X )ωij (Y ) =
P j P P P

= − j ωji ∧ θj (X , Y )
P

50
7.3 Derivada covariante a lo largo de una curva 51

Ejercicios 7.10 (para aquellos que tienen los ejemplos que se indican). Calcular las 1-formas
de conexión asociadas a una referencia local ortonormal del espacio hiperbólico en el modelo
de la bola de Poincaré y de la métrica de Schwarzschild. Aplicarlo al cálculo de las derivadas
covariantes de los campos vectoriales de las referencias locales ortonormales usadas y de los
campos vectoriales asociados a la carta que se ha usado para obtener la referencia ortonormal.

7.3. Derivada covariante a lo largo de una curva


En muchas ocasiones hay que derivar campos vectoriales a lo largo de una curva que no pueden
ser restricción a la curva de ningún campo vectorial bien definido sobre un abierto de la variedad.
Para calcular las correspondientes derivadas covariantes usaremos una nueva definición que surge
naturalmente de la definición anterior gracias a la siguiente proposición, en la que denotamos por
Xc (M) a la familia de campos vectoriales a lo largo de una curva c : I −→ M.
Dclc Proposición 7.11. Dea D una derivada covariante (también llamada conexión) definida sobre
una variedad diferenciable M. Para cada curva c : I −→ M, D determina una única aplicación
D
: Xc (M) −→ Xc (M)
dt
que verifica:
D DX DY
(a) (λX + µY ) = λ +µ , λ, µ ∈ R
dt dt dt
D(f X ) DX df
(b) =f + X , f : I −→ R
dt dt dt
(c) Si existe un X ∈ X(M) tal que X ◦ c(t) = X (t), entonces
DX
= Dc 0 (t) X
dt
DX
se llama derivada covariante de X a lo largo de c.
dt
Demostración. Demostremos primero la unicidad. Sea Dt una tal aplicación. Sea t0 ∈ I . El mismo
DX
argumento de la demostración de la proposición ?? muestra que (t0 ) depende solo de los
dt
valores de X en ]t0 − ε, tP
0 + ε[. En un sistema de coordenadas que contenga a c]t0 − ε, t0 + ε[
podemos escribir X (t) = X i (t) ∂x∂ i . Por las propiedades (a) a (c), como los ∂x∂ i son extendibles,
DX X dX i ∂ X ∂
(t0 ) = (t0 ) i + X i (t0 )Dc 0 (t0 ) i (7.3) DCV
dt dt ∂x ∂x
X  dX k X ∂
= (t0 ) + X j (t0 )Γkij (c(t0 )) k
. (7.4) DCV2
k
dt ∂x

Luego, si la aplicación existe, viene dada por (7.3), luego es única. Para demostrar la existencia
DX
basta con definir por la expresión (7.3), que cumple las propiedades (a),(b),(c) y que, por la
dt
unicidad, no depende de la carta usada.
Proposición 7.12. Si la conexión que se considera sobre una variedad Riemanniana es la
de Levi-Civita, la correspondiente derivada covariante a lo largo de una curva definida por la
Proposición 7.11 verifica la propiedad
   
d ∇X ∇Y
hX , Y i = ,Y + X, (7.5)
dt dt dt

51
52 Subvariedades. Formalismo de Cartan. Transporte paralelo.

Demostración. Resulta de aplicar las fórmulas (7.3) y (6.5) así:


 *X +
dX i ∂
  
∇X ∇Y X ∂ X ∂
,Y + X, = i
+ X i ∇c 0 i , Yj j
dt dt i
dt ∂x i
∂x j
∂x
* +
X ∂ X dY j ∂ X ∂
+ Xi i , j
+ Y j ∇c 0 j
i
∂x j
dt ∂x j
∂x
X dX i dY j
X
= Y j gij + gijXi
i,j
dt i,j
dt
   
X
i j ∂ ∂ ∂ ∂
+ X Y ∇c 0 i , i + ∇c 0 i , i
i,j
∂x ∂x ∂x ∂x
X dX i X dY j X d
= Y j gij + Xi gij + X i Y j gij
i,j
dt i,j
dt i,j
dt
!
d X d
= gij X i Y j = hX , Y i .
dt i,j
dt

7.4. Transporte paralelo


Los conceptos más importantes a que da lugar una conexión son: el transporte paralelo y el
tensor curvatura. Aunque se definen para conexiones arbitrarias, como en este curso sólo vamos
a usar la conexión de Levi-Civita, vamos a definirlos sólo para esta conexión en una variedad
semi-riemanniana.
Definición 7.13. Dada una variedad semi-riemanniana (M; h, i) y una curva regular c(t) de
M, diremos que un campo vectorial V (t) a lo largo de c es paralelo a lo largo de c si ∇V
dt
=0
para todo t.
Para no complicar los enunciados de los próximos teoremas, proposiciones, definiciones, ...,
todos los objetos geométricos que aparezcan en lo sucesivo los supondremos definidos en una
variedad semi-riemanniana, a menos que explícitamente se diga otra cosa.
Los clásicos teoremas de existencia y unicidad para soluciones de ecuaciones diferenciales dan
lugar al siguiente
Teorema 7.14. Dada una curva c(t) :]a, b[−→ M, 0 ∈]a, b[ y un vector V0 ∈ Tc(0) M, existe un
único campo vectorial V (t) a lo largo de c tal que V (0) = V0 y ∇V dt
(t) = 0 para todo t.
Para cada t fijado, al vector V (t) se le llama transporte paralelo de V0 desde c(0) hasta c(t)
a lo largo de c. Se escribe Pc t0 V0 = V (t).
Demostración. Sea (U, ϕ) us sistema de coordenadas alrededor de c(0). En este sistema de coor-
denadas la ecuación ∇Vdt
(t) = 0 con la condición inicial V (0) = V0 se escribe como el sistema de
ecuaciones diferenciales con condiciones iniciales
dV k X
(t) + Γkij c 0i (t)V j (t) = 0; V k (0) = V0k
dt ij

Si c(]a, b[) ⊂ U, la teoría de EDO dice que existe una única soluciión V 1 (t), ...V n (t) de este
sistema de ecuaciones verificando esas condiciones iniciales, y el campo V (t) del teorema es

52
7.5 Apéndice B. Sobre las formas diferenciales y la diferencial exterior 53

V (t) = i V i (t)∂i . Si c(]a, b[) no está contenido en U, sea ]a1 , b1 [⊂]a, b[ el intervalo maximal que
P
contiene a 0 sobre el que existe el campo paralelo único V (t). Si b1 < b, existe una carta (W , ψ) tal
que W contiene a c(]b1 − ε, b1 + ε[) en la que podemos aplicar el teorema de existencia y unicidad
anterior para concluir que existe un campo paralelo único V e (t) definido sobre ]b1 − ε, b1 + ε[ que
coincide con V (t) en b1 − ε/2. Por la unicidad, V y V e , ambos campos coinciden sobre ]b1 − ε, b1 [,
lo que da una extensión de V a la derecha de b1 , en contradicción con la maximalidad de ]a1 , b1 [,
luego b1 = b. Del mismo modo se argumenta que a1 = a.
PcIsom Proposición 7.15. El transporte paralelo Pc t0 : Tc(0) M −→ Tc(t) M es una isometría de espacios
vectoriales.
Demostración. La aplicación tiene inversa (Pc t0 )−1 = Pc −1 t0 , donde c −1 (s) = c(t −s). Por otro lado,
si X (t) = Pc t0 X y Y (t) = Pc t0 Y , tenemos dhX (t),Y (t)i
= ∇X (t), Y (t) + X (t), ∇Y



dt dt dt
(t) = 0 por ser
X (t)

e Y (t) campos vectoriales paralelos a lo largo de c(t). Por lo tanto hX (t), Y (t)i es constante
y Pc t0 X , Pc t0 Y = hX , Y i, luego Pc t0 es una isometría de espacios vectoriales con métrica (y, por

lo tanto1 , un isomorfismo de espacios vectoriales).


Corolario 7.16. dada una curva regular c de M,
existe una referencia (ortonormal) paralela a lo largo de c.

Si X es un campo vectorial a lo largo de t, {e1 (t), ..., en (t)} es una referencia paralela a lo
X ∇X X dx i
largo de c y X (t) = X i (t)ei (t), entonces = ei .
i
dt i
dt

∇X 1
(Pc t0 )−1 (X (t)) − X (0)

(0) = lı́m
dt t→0 t

Demostración. Las dos primeras afirmaciones son inmediatas a partir de las definiciones y la Pro-
posición 7.15. Veamos la tercera. Si ei (t) es una referencia ortonormal paralela
Xde M a lo−1largo de
t −1
X i (t)Pc t0 ei (t) =
P i
c, X (t) se puede escribir como X (t) = i X (t)ei (t), de donde Pc 0 X (t) =
X i
i
X (t)ei (0), de donde resulta que
i
!
1 1 X X
(Pc t0 )−1 (X (t)) − X (0) = lı́m X i (t)ei (0) − X i (0)ei (0)

lı́m
t→0 t t→0 t
i i
X dX i ∇X
= (0)ei (0) = (0).
i
dt dt

7.5. Apéndice B. Sobre las formas diferenciales y la diferencial


exterior
En cada punto p de una variedad diferenciable M, sobre el espacio Vktangente, podemos consi-
derar el espacio vectorial de las las k-formas lineales antisimétricas Tp M (se puede recordar
su definición y propiedades, por ejemplo, en las páginas 147 y siguientes del libro de Galbis y
Maestre2 que se usa en Análisis III).
Una tal isometría φ ha de ser lineal, porque hφ(λX + µY ), φ(Z )i = hλX + µY , Z i = λ hX , Z i + µ hY , Z i =
1

λ hφ(X ), φ(Z )i + µ hφ(Y ), φ(Z )i = hλφ(X ) + µφ(Y ), φ(Z )i


2
Galbis, Antonio; Maestre, Manuel: Vector analysis versus vector calculus. Universitext. Springer, New York, 2012.
xiv+375 pp. ISBN: 978-1-4614-2199-3

53
54 Subvariedades. Formalismo de Cartan. Transporte paralelo.

En 2.8 vimos que si x i son las coordenadas asociadas a una carta de M cuyo dominio contiene
a M, entonces dxp1 , ..., dxpn es una base de Tp∗ M.
En general se tiene que si {e1 , ..., en } es una base de Tp M y {θ1 , ..., θn } es su base dual,
entonces {θi1 ∧ ... ∧ θik }1≤i1 <...<ik es una base de k Tp M, y que una k-forma α ∈ k Tp M se
V V
escribe en una tal base de la forma
X
α= αi1 ...ik θi1 ∧ ... ∧ θik , donde αi1 ...ik = α(ei1 , ..., eik ). (7.6) compkf
1≤i1 <...<ik ≤n

En particular, cuando k = n,

α = a θ1 ∧ ... ∧ θn donde a = α(e1 , ..., en ). (7.7) compnf


Vk
De las observaciones anteriores se deduce que {dx i1 ∧...∧dx ik }1≤i1 <...<ik ≤n es una base de Tp M
n
y dx 1 ∧ ... ∧ dx n es una base de
V
Tp M..

r
Vk
Definición
Vk 7.17. Una k-forma
Vk diferencial α de clase C es una aplicación α : M −→ M :=
∪p∈M p M tal que α(p) ∈ p M para cada p ∈ M y tal que, para cada carta (U, ϕ) de M, las
X
funciones αi1 ...ik : U −→ R definidas por α(x) = αi1 ...ik (x) dxxi1 ∧ ... ∧ dxxik son de clase
1≤i1 <...<ik ≤n
Cr.
Denotaremos por E k (M) el conjunto de las formas diferenciales de grado k (y clase C r ) sobre
M.

Como es evidente, cuando M = Rn , el concepto coincide exactamente con el de k-forma


diferencial de clase C r visto en Análisis III. Y las mismas operaciones con las mismas definiciones
que se han visto en Análisis son válidas en este contexto. Vamos a recordarlas:

Definición 7.18. Recopilación de definiciones de operaciones con formas diferenciales vistas


1 k
X y sus propiedades: Si θ , ..., θ son
en Análisis X 1-formas diferenciales y
i1 ik
α= αi1 ...ik dx ∧ ... ∧ dx , β = βi1 ...i` dx i1 ∧ ... ∧ dx i`
1≤i1 <...<ik ≤n 1≤i1 <...<i` ≤n
son una k-forma y una `-forma diferenciales expresadas en una carta (U, ϕ), entonces

θ1 ∧ ... ∧ θk (v1 , ..., vk ) = det θi (vj ) .




α ∧Pβ
= 1≤i1 <...<ik ≤n 1≤j1 <...<j` ≤n αi1 ...ik βj1 ...j` dx i1 ∧ ... ∧ dx ik ∧ dx j1 ∧ ... ∧ dx j`
P

(y no depende de la carta elegida)

El producto exterior “∧” es F(M)-bilineal y asociativo.

α ∧ β = (−1)k` β ∧ α

La diferencial exterior d : E k (M) −→ E ` (M) se define por


X
dα = dαi1 ...ik ∧ dx i1 ∧ ... ∧ dx ik
1≤i1 <...<ik ≤n

(y tampoco depende de la carta elegida)

54
7.5 Apéndice B. Sobre las formas diferenciales y la diferencial exterior 55

- d es R-lineal.
- Si f ∈ F(M), entonces d(f α) = df ∧ α + f dα.
- d(α ∧ β) = dα ∧ β + (−1)k α ∧ dβ si α es una k-forma diferencial.
- ddα = 0.
- Si α es una 1-forma diferencial,

dα(X , Y ) = X α(Y ) − Y α(X ) − α([X , Y ]).

Dada f : M −→ N, se define la aplicación “pull back"

f ∗ : ∧k N −→ ∧k M, por
fx∗ ((αf (x) )(v1 , ..., vk ) = αf (x) (f∗x v1 , ..., f∗x vk )

que se extiende, por esta misma expresión, a f ∗ : E k (N) −→ E k (M).


Si k = 0, E 0 (M) = F(M), y f ∗ (g ) = g ◦ f para cualquier g ∈ F(N).

f ∗ verifica las propiedades:


- f ∗ es R-lineal
- f ∗ (α ∧ β) = (f ∗ α) ∧ (f ∗ β) (en particular, f ∗ (g α) = (g ◦ f ) f ∗ α para toda g ∈ F(N)).
- f ∗ (dα) = d(f ∗ α)

55
Capítulo 8

8.1. Geodésicas y aplicación exponencial


dgeo Definición 8.1. Se dice que una curva regular c es una geodésica si su vector tangente es
paralelo a lo largo de la curva.
Esta definición obliga a que la curva esté parametrizada respecto de su longitud de arco en el
sentido de que si la curva es c(t), ha de cumplirse t = a s + b, donde s es el parámetro longitud
de arco de c.
d hc 0 , c 0 i 0
 
0 ∇c
En efecto: Si c(t) es una geodésica según la definición 8.1, entonces =2 c, =0
dt dt
Z t
, luego |c 0 (t)| = α constante, luego su longitud de arco es s = αdt = α t + β, como hemos
0
afirmado.
Por otro lado, si ċ representa la derivada de c respecto el parámetro longitud de arco y c 0 la
derivada respecto de otro parámetro t = ϕ(s) se tiene que
∇c 0
 
0 1 1
= ∇c 0 (t) c (t) = ∇ċ(s) ċ(s)
dt ϕ̇ ϕ̇
 
1 −ϕ̈ −ϕ̈ 1
= 2
ċ(s) + ∇ċ(s) ċ(s) = 2 c 0 (t) + ∇ċ(s) ċ(s). (8.1)
ϕ̇ ϕ̇ ϕ̇ ϕ̇
Por ello, si se quiere considerar las geodésicas independientemente de su parametrización, la
definición sería: c(t) es una geodésica sii ∇c 0 (t) c 0 (t) está en la dirección de c 0 (t).
Proposición 8.2. Sea p ∈ M, X ∈ Tp M. Entonces, para todo b ∈ R existe un ε > 0 y una
única curva c :] − ε, ε[−→ M tal que c(b) = p, c 0 (b) = X y c es una geodésica.
Demostración. c es una geodésica que pasa por p en t = b y es tangente a X en p sii ∇c 0 (t) c 0 (t) =
0, c(b) = p y c 0 (0) = X . Si escribimos esto en un sistema de coordenadas centrado en p, con
c(t) = (x 1 (t), ..., x n (t)), p = (p 1 , ..., p n ) en este sistema de coordenadas, tenemos:
d 2 x k X k dx i dx j
+ Γij =0 (8.2) ecgc
dt 2 ij
dt dt
x k (b) = p k
dx k
(b) = X k
dt
que es un sistema de E.D.O. con condiciones iniciales y, por la teoría de E.D.O., existe una
solución única x 1 (t), ..., x n (t) de (8.2). La solución no depende del sistema de coordenadas porque
la condición ∇c 0 c 0 = 0 no depende del sistema de coordenadas.
Nota 8.3. La teoría de existencia y unicidad de soluciones de EDO dice, además, que si
c(t; p, X ) es la curva dada por la proposición anterior, entones c también depende diferenciable-
mente respecto de p y X .

56
8.1 Geodésicas y aplicación exponencial 57

isomg Proposición 8.4. Una isometría conserva las geodésicas. Con más precisión: Si f : M −→ N
es una isometría, γ(t) es una geodésica de M sii f ◦ γ(t) es una geodésica de N.
Demostración. A partir de la Proposición 6.24 es inmediato porque (f ◦ γ)0 (t) = f∗ γ 0 (t).
lat Lema 8.5. Sea p ∈ M, X ∈ Tp M y c(t, X ) :] − ε, ε[−→ M la única geodésica que verifica
c(0, X ) = p y c 0 (0, X ) = X . Se verifica que, para todo λ ∈ R − {0}, la geodésica c(t, λX ) está
definida sobre el intervalo ] − ε/λ, ε/λ[ y se relaciona con la anterior por c(t, λX ) = c(λt, X )
Demostración. Bastará con ver que c(t, λX ) = c(λt, X ), pues de aquí se sigue que c(t, λX ) está
definida sobre ] − ε/λ, ε/λ[. Para ello, definamos α :] − ε/λ, ε/λ[−→ M por α(t) = c(λt, X ).
Esta curva verifica: α(0) = c(0, X ) = p; α0 (0) = λc 0 (λ0, X ) = λX y, además, ∇α0 (t) α0 (t) =
λ2 ∇c 0 (λt,X ) c 0 (λt, X ) = 0, luego α(t) es una geodésica y, por definición de c(t, λX ), α(t) = c(t, λX ).

exp Definición 8.6. Dado X ∈ Tp M, se define la aplicación exponencial por expp X = c(1, X ) para
X 6= 0 en los puntos X ∈ Tp M en los que c(1, X ) esté definida, y expp 0 = p.
Tomando λ = 1/|X | en el lema 8.5, se tiene que, si X 6= 0,

c(1, X ) = c(|X |, X /|X |). (8.3) exp1

Como c(t, X /|X |) es una geodésica con vector tangente unitario en el origen, se sigue que es-
ta curva está parametrizada respecto de su longitud de arco. Entonces la fórmula (8.3) permite
describir geométricamente la aplicación expp de la siguiente forma: “Dado X ∈ Tp M, expp X es
el punto de la geodésica tangente a X en p que se obtiene tomando sobre esta geodésica una
longitud |X | medida a partir de p en la dirección de X ", i.e. “expp X es el punto de M obtenido
‘doblando’ el vector tangente sobre la variedad.
Lema 8.7. Para todo punto p ∈ M existe una carta en p tal que la referencia local asociada a
esta carta es ortonormal en p
Demostración. Sea (U, ϕ) una carta en p, {∂1 , ..., ∂n } la referencia local asociada, {e1 , ..., en } una
base ortonormal de Tp M y {u1 , ..., un } es la base canónica de Rn . Existe un isomorfismo lineal
A : Rn −→ Rn tal que ui = Aϕ∗p ei . Definimos una nueva carta (U, A ◦ ϕ) de M. La referencia local
{∂i0 }ni=1 definida por esa carta verifica que ∂i0 |p = ((A ◦ ϕ)−1 )∗A(ϕ(p)) ui = ei , luego (U, A ◦ ϕ) es la
carta que buscábamos.
IV.54 Proposición 8.8. Dado p ∈ M, existe ε > 0 tal que expp está definida y es diferenciable en el
disco abierto de centro 0 y radio ε, Bε (0) ⊂ Tp M.
Demostración. Sea (U, ϕ) una carta de M en p tal que la referencia local asociada sea ortonormal
en p. Según vimos, una geodésica que pasa por p, ϕ(p) = (p 1 , ..., p n ) con vector tangente X =
i
P
i X ∂i ∈ Tp M es la curva cuyas coordenadas verifican el sistema de ecuaciones diferenciales con
condiciones iniciales (8.2) Por teoría de ecuaciones diferenciales se tiene que, existen ε1 , ε2 > 0
y existe una única aplicación

y ≡ (y 1 , y 2 , ..., y n ) :] − ε1 , ε1 [×Bεe2 (0)1 −→ ϕ(U) ⊂ Rn

dy j
tales que y j (0, X 1 , ..., X n ) = p j , (0, X 1 , ..., X n ) = X j , j = 1, ..., n, y, para cada (X 1 , ..., X n ) ∈
dt
Bε2 (0), la curva
t 7→ (y 1 (t, X 1 , ..., X n ), ...y n (t, X 1 , ..., X n ))
1
Obsérvese que Bεe2 (0) ⊂ Rn , no de Tp M

57
58 Geodésicas, aplicación exponencial y lema de Gauss

es una solución de (8.2).


Definamos c :] − ε1 , ε1 [×Bε2 (0) −→ U ⊂ M por c(t, X ) = ϕ−1 ◦ y (t, X 1 , ..., X n ) verifica:
c(0, X ) = ϕ−1 (p 1 , ..., p n ) = p, c 0 (0, X ) = ϕ−1 1 n
∗ (X , ..., X ) = X , y sus funciones coordenadas y
i

son soluciones de las ecuaciones (8.2), por lo tanto son geodésicas, y, por la elección de la carta,
Bε2 (0) = ϕ−1 e
∗ϕ(p) (Bε2 (0)).
ε1 ε1
Por el lema 8.5, tomando λ = ε1 /2, se tiene que la curva t 7→ γ(t, X ) = c( t, X ) es una
2 2
geodésica definida para t ∈]−2, 2[, y esto para todo X tal que |X | < ε2 , por tanto | ε21 X | < ε1 ε2 /2.
Resulta de todo ello que, si ε = (ε1 ε2 )/2, entonces existe una aplicación diferenciable γ :
] − 2, 2[×Bε (0) −→ M tal que t 7→ γ(t, X ) es una geodésica verificando γ(0, X ) = X . Como
consecuencia, la aplicación expp : Bε (0) −→ M/X 7→ γ(1, X ) está bien definida y es diferenciable.

IV.5 Proposición 8.9. Existe un ε > 0 tal que expp : Bε (0) −→ M es un difeomorfismo de un entorno
Bε (0) de 0 en Tp M sobre su imagen en M.
Demostración. Por el teorema de la función inversa, bastará probar que expp ∗0 es un isomorfismo.
Para ello, sea X ∈ Tp M, c :] − ε, ε[−→ Tp M la curva c(t) = tX , que verifica c(0) = 0, c 0 (0) = X .
d d d
Entonces expp ∗0 X = |t=0 expp t X = |t=0 γ(1, tX ) = |t=0 γ(t, X ) = γ 0 (0, X ) = X , i.e. expp ∗0
dt dt dt
es la identidad, lo que acaba la demostración.

8.2. Coordenadas normales y coordenadas geodésicas esféricas.


Lema de Gauss
IV.56 Definición 8.10. Dado un punto p de M, un entorno abierto V de p en M diremos que es un
entorno normal de p si existe un entorno abierto U de 0 en Tp M tal que expp : U −→ V es un
difeomorfismo.
Utilizando esta definición y las proposiciones anteriores introduciremos dos tipos especiales
de sistemas de coordenadas: “las coordenadas normales", correspondientes a un sistema de coor-
denadas rectangulares en Tp M, y “las coordenadas geodésicas polares” correspondientes a las
coordenadas polares en el plano tangente.
IV.57 Definición 8.11. Sea {e1 , ..., en } una base ortonormal de Tp M y ψ : Rn −→ Tp M el isomorfismo
dado por ψ(X 1 , ..., X n ) = X 1 e1 + ... + X n en . Sea V un entorno normal de p, ϕ = ψ −1 ◦ exp−1
p . El
sistema de coordenadas (V , ϕ) se llama sistema de coordenadas normales de M centrado en p
asociado a {e1 , ..., en }.
coon Proposición 8.12. En un sistema de coordenadas normales (V , ϕ) centrado en p
(a) ϕ(expp (x 1 e1 + ... + x n en )) = (x 1 , ..., x n ).

(b) = expp∗ ei
∂x i
Demostración. Sea {u1 , ..., un } la base canónica de Rn . Aplicando la definición de ϕ y de ψ,
ϕ(expp (x 1 e1 + ... + x n en )) = ψ −1 ◦ exp−1 1 n −1 1 n 1 n
p expp (x e1 + ... + x en ) = ψ (x e1 + ... + x en ) = (x , ..., x ).

Por la definición de ψ, se tiene que ψ(ui ) = ei . Por lo tanto, = ϕ−1
∗ ui = (expp ◦ψ)∗ ui =
∂x i
expp∗ ψ(ui ) = expp∗ ei .
IV.58 Nota 8.13. Obsérvese que la propiedad (a) de la Proposición 8.12 caracteriza las coorde-
nadas normales y se puede tomar también como la definición de coordenadas normales. En la
práctica suele ser más sencillo pensar con esta definición.

58
8.2 Coordenadas normales y coordenadas geodésicas esféricas. Lema de Gauss 59

Además, no hay ningún inconveniente en tomar la carta con valores en Tp M en lugar de en


Rn (ya que están identificados a través de ψ), lo que permite ahorrarse la escritura de ψ.
En un sistema de coordenadas normales en p, la ecuación de una geodésica pasando por p es
la misma que la de una recta pasando por el origen en Rn . En efecto: sea γ(t) una geodésica que
verifica γ(0) = p, γ 0 (0) = X , entonces utilizando la notación indicada el comienzo del esta sección,
el lema 8.5 y la definición 8.6, γ(t) = γ(t, X ) = γ(1, tX ) = expp tX . Por lo tanto, si (U, ϕ) es un
sistema de coordenadas normales centrado en p asociado a {e1 , ..., en } y X = X 1 e1 + ... + X n en ,
entonces ϕ(γ(t)) = ϕ(expp tX ) = ψ −1 (tX ) = (tX 1 , ..., tX n ).

IV.62 Proposición 8.14. En un sistema de coordenadas normales (U, ϕ) centrado en p,


(a) gij (p) = δij ·
∂gij
(b) Γkij (p) = 0 y (p) = 0
∂x k
Demostración. Sea (U, ϕ) es un sistema de coordenadas normales centrado en p, asociado a
{e1 , ..., en }. Denotemos por {u1 , ..., un } la base canónica de Rn . Usando la propiedad (b) de la
Proposición 8.12, se tiene que
 
∂ ∂

gij (p) = i
(p), j (p) = expp ∗0 ei , expp ∗0 ej = hei , ej i = δij ,
∂x ∂x

donde hemos usado que expp ∗0 = Id (cfr. demostración de 8.9) en la penúltima igualdad. Esto
prueba (a).

Veamos (b). La curva integral de = expp∗ ei que pasa por p es expp t ei , que es una
∂x i
geodésica. Por lo tanto

∇∂i ∂i = 0 a lo largo de t 7→ expp t ei

por lo tanto ∇∂i ∂i (p) = 0, Γkii (p) = 0.


Por otro lado, el vector tangente a la geodésica expp t(ei + ej ) es expp∗ ei + expp∗ ej = ∂i + ∂j .
Luego

∇∂i +∂j (∂i + ∂j ) = 0 a lo largo de t 7→ expp t (ei + ej )

de donde resulta ∇∂i +∂j (∂i + ∂j )(p) = 0 y, como ya vimos que ∇∂i ∂i (p) = 0 = ∇∂j ∂j (p) = 0,
se tiene que ∇∂i ∂j (p) + ∇∂j ∂i (p) = 0 y, como [∂i , ∂j ] = 0, se deduce de ahí que ∇∂i ∂j (p) = 0,
Γkij (p) = 0 y ∂k gij (p) = h∇∂k ∂i , ∂j i (p) + h∂i , ∇∂k ∂j i (p) = 0.
La siguiente definición se corresponde a la de coordenadas esféricas en Rn , que consisten
en tomar como coordenadas la distancia al origen y los ángulos que determinan un punto de
la esfera. Se pueden simplificar estas coordenadas sustituyendo los ángulos de la esfera por
el propio punto de la esfera que estos ángulos determinan. Así considerado, las coordenadas
esféricas de un punto en Rn vienen dadas por su distancia al origen y el vector unitario (punto
de la esfera) en la dirección de ese punto. Es decir, las coordenadas esféricas de x ∈ Rn , x 6= 0
x
son (|x|, ) ∈]0, ∞[×S n−1 . En una variedad Riemanniana, su análogo son las las coordenadas
|x|
geodésicas esféricas, que consisten en componer las coordendas normales de la variedad con las
coordenadas esféricas de Rn . Para no continuar con la complicación de escribir el isomorfismo
entre Rn y Tp M, haremos lo que ya indicamos en la nota 8.13, considerar directamente Tp M en
lugar de Rn . Tenemos así la siguiente definición

IV.59 Definición 8.15. Sea {e1 , ..., e2 } una base ortonormal de Tp M. Sea S n−1 la esfera unidad de
centro 0 en Tp M. Sea U un abierto entorno de p sobre el que exp−1 p está bien definida y es un

59
60 Geodésicas, aplicación exponencial y lema de Gauss

difeomorfismo. Se llama sistema de coordenadas geodésicas esféricas en p a un par (U − {p}, ϕ),


donde ϕ : U −→]0, b[×S n−1 se define por

exp−1
p (x)
 
−1
ϕ(x) = | expp (x)|, (8.4)
| exp−1
p (x)|

o, lo que es lo mismo,

ϕ(expp (r u)) = (r , u) (8.5) phiesf

para todo (r , u) ∈]0, b[×S n−1 .

Notación 8.16 (y observación). Por analogía con la notación usada en los sistemas de coor-
denadas o cartas usuales, en un sistema de coordenadas geodésicas esféricas (U − {p}, ϕ), se

denota por o por ∂r al campo vectorial sobre U − {p} definido por
∂r
∂ϕ−1
∂r := .
∂r
Por la misma razón, denotamos
grr := h∂r , ∂r i .
Obsérvese por otro lado que que, para cada u ∈ S n−1 ⊂ Tp M,

∂ϕ−1 d d
∂r = = ϕ−1 (s, u) = expp (s u) = expp∗su u. (8.6) parr
∂r ds ds
IV.60 Nota 8.17. La ecuación de una geodésica que pasa por p en un sistema de coordenadas
geodésicas esféricas (U − {p}, ϕ) en p es ϕ(γ(t)) = (λ t, u0 ), con λ ∈ R, u0 ∈ S n−1 fijos. En efecto,
si γ(t) es una geodésica con γ(0) = p, γ 0 (0) = X , se tiene, como vimos en 8.13, γ(t) = expp tX ,
y, si X = |X |u0 , entonces ϕ ◦ γ(t) = (|X | t, u0 ).

IV.61 Definición 8.18. Las imágenes por expp de las esferas Sr (0) en Tp M centradas en 0 (hiper-
superficies r = cte) se llaman esferas geodésicas y se denotan por Sr (p). Las imágenes de las
rectas (curvas u = cte) se llaman radios geodésicos, y son geodésicas. Análogamente se definen
las bolas geodésicas abierta (Br (p) = expp (Br (0))) y cerrada (Br (p) = expp (Br (0))).
Se pueden describir igualmente por:
Sr (p) = {q ∈ M; hay un segmento de geodésica de longitud r que une p con q},
Br (p) = {q ∈ M; hay un segmento de geodésica de longitud menor que r que une p con q},
....
Esta descripción es la que justifica los nombres de esfera y bola geodésicas.

mce Proposición 8.19. En un sistema de coordenadas geodésicas esféricas (U − {p}, ϕ) en p,


ϕ : U − {p} −→]0, a[×S n−1 , para todo X ∈ TS n−1 se verifica que
(a) grr = 1,
(b) h∂r , ϕ−1
∗ X i = 0,
(c) lı́mr →0 hϕ−1 −1
∗ X , ϕ∗ X i = 0,
(d) lı́mr →0 ∂r |ϕ−1
∗ X | = 1.
Por la definición de coordenadas esféricas, estos es equivalente a decir que
(a’) |∂

r| = 1
(b’) ∂r , exp
p∗ rX = 0
(c’) lı́ms→0 exp
p∗su sX , expp∗su sX = 0
(d’) lı́ms→0 ∂s expp∗su sX , expp∗su sX = 0

60
8.2 Coordenadas normales y coordenadas geodésicas esféricas. Lema de Gauss 61

Nota 8.20. De acuerdo con la definición 8.18, ϕ−1 ({r } × S n−1 ) = Sr (p) (la esfera geodésica
de centro p y radio r , mientras que ∂r en el punto de coordenadas esféricas (r , u) es el vector
tangente a una geodésica radial en el punto de coordenadas geodésicas esféricas (r , u). Por lo
tanto, la propiedad h∂r , ϕ−1
∗ X i = 0 de la proposición anterior expresa que los radios geodésicos
son ortogonales a las esferas geodésicas, resultado que se conoce también con el nombre de Lema
de Gauss.

Demostración. De acuerdo con (8.6), ∂r es el vector tangente a la geodésica expp s u que parte
de p con vector tengente u y tiene norma 1 por ser |u| = 1, lo que demuestra (a’).
La equivalencia de (b’), (c’) , (d’) con (b), (c), (d) resulta del siguiente cálculo: si c(t) ∈ S n ,
c(0) = u, c 0 (0) = X ,

−1 dϕ−1 (s c(t)) d expp (s c(t))


ϕ ∗su X = = = expp ∗su sX .
dt dt

t=0 t=0

Para demostrar (b’), observemos primero que ∇∂r ∂r = 0 (por ser ∂r tangente a una geodésica).
Calculemos




∂r ∂r , expp∗ rX = ∇∂r ∂r , expp∗ rX + ∂r , ∇∂r expp∗ rX


= ∂r , ∇∂r expp∗ rX . (8.7) drpro

Como X ∈ Tu S n−1 , existe una curva c(t) en S n−1 tal que c(0) = u y c 0 (0) = X , entonces
expp∗s0 u s0 X = ∂t expp s0 c(t)|t=0 . Tenemos por lo tanto una aplicación diferenciable

β :]s0 − ε, s0 + ε[×] − η, η[−→ M definida por β(s, t) = expp (s c(t))

tal que β∗ ∂s = ∂s expp (s c(t)) = ∂r , β∗ ∂t = ∂t (expp (s c(t))) = expp∗ sX y, por el Lema 3.29,

[∂r , expp∗ X ] = [β∗ ∂r , β∗ ∂t ] = β∗ [∂r , ∂t ] = 0.

Luego

∇∂r expp∗ rX = ∇expp∗ rX ∂r + [∂r , expp∗ rX ] = ∇expp∗ rX ∂r ,

que, sustituido en (8.7) da



D E 1
∂r ∂r , expp∗ rX = ∂r , ∇expp∗ rX ∂r = expp∗ rX h∂r , ∂r i = 0.
2


Por lo tanto ∂r , expp∗ rX es constante a lo largo de las curvas
n−1

s 7→ expp su de ∂r
integrales
para todo u ∈ S . Aplicando la desigualdad de Schwarz, ∂r , expp∗ rX ≤ |∂r | | expp∗ rX | =

| expp∗ rX |, de donde


lı́m ∂r , expp∗ rX (expp (r c(0)))
r →0
≤ lı́m | expp∗ rX |(expp (r c(0)))
r →0
= lı́m |∂t expp (r c(t))|t=0 |
r →0
= lı́m | expp∗(r c(0)) rc 0 (0)|
r →0
= lı́m |r expp∗(r c(0)) c 0 (0)| = 0. (8.8) calan
r →0

De

donde resulta
que lı́mr →0 | expp∗ru rX | = 0 (que es (c’)) y que
| ∂r , expp∗ rX | = 0 (que es (b’)).

61
62 Geodésicas, aplicación exponencial y lema de Gauss

Usamos ahora los cálculos de la fórmula (8.8) para calcular

∂s | expp∗su sX |2 = ∂s |s expp∗(s c(0)) c 0 (0)|2


= 2s| expp∗(s c(0)) c 0 (0)|2 + s 2 ∂s | expp∗(s c(0)) c 0 (0)|2

cuyo límite es 0 cuando s → 0 porque, para el primer sumando, eso es lo que hemos probado en
los cálculos de (8.8) y, para el segundo, es consecuencia de que, al ser expp de clase C k en un
entorno de p, la función ∂s | expp∗(s c(0)) c 0 (0)|2 está acotada en un entorno de p y, al multiplicarla
por s 2 , tiende a 0 al tender s a 0.

62
Capítulo 9

9.1. Tensor curvatura y curvatura seccional


R Definición 9.1. El tensor curvatura de (M, h, i) es la aplicación R : X(M) × X(M) × X(M) −→
X(M) definida por

R(X , Y )Z := −∇X ∇Y Z + ∇Y ∇X Z + ∇[X ,Y ] Z

RR Definición 9.2. El tensor curvatura de Riemann de (M, h, i) es la aplicación R : X(M)×X(M)×


X(M) × X(M) −→ F(M) definida por

RXYZW ≡ R(X , Y , Z , W ) := hR(X , Y )Z , W i

Notación 9.3. La definición del tensor curvatura no es unánime en lo que al signo se refiere, pero
la del tensor curvatura de Riemann si, aunque su aspecto puede cambiar si cambia la definición
del tensor curvatura
Se dice que aplicaciones definidas como los tensores de curvatura son tensoriales si son
F(M)-lineales. Se tiene que
Rten Proposición 9.4. Los tensores curvatura y curvatura de Riemann son tensoriales, es decir, son
aplicaciones multilineales respecto de la suma y respecto del producto por una función.
Demostración. La F(M)-linealidad del tensor curvatura de Riemann respecto de la cuarta compo-
nente es evidente a partir de la definición, por ser F(M)-lineal el tensor métrico. Esta propiedad,
junto con las propiedades 3 y 4 de la proposición siguiente, demuestra la F(M)-linealidad en las
demás componentes.
Corolario 9.5. Los valores de R(X , Y )Z y de R(X , Y , Z , W ) en un punto p ∈ M dependen
solo de los valores de los campos vectoriales X , Y , Z , W en p.
Demostración. Para demostrar que (R(X , Y )Z )p o (RXYZW )(p) dependen solo de Yp (lo mismo
valdrá para X , Z , W ) bastará con ver que si Yp = 0, entonces (R(X , Y )Z )p = 0 y (RXYZW )(p) = 0.
Como la demostración es la misma, la haremos solo para R(X , Y )Z . Bastará con demostrar que si
Yp = 0, entonces (R(X , Y )Z )p = 0 . Veamoslo:
Sean U ⊃ V 3 p abiertos de M quePcontienen a p y U es el dominio de una carta. En U el
campo Y se puede escribir como Y = j Y j ∂j . Sea ϕ : M −→ R una función C ∞ que verifica
ϕ|V = 1 y ϕ|M−U = 0. Definimos los campos vectoriales Ei y las funciones Y e j sobre M por
( (
j
ϕ∂i sobre U. e j := ϕY sobre U.
Ei := Y (9.1)
0 sobre M − U. 0 sobre M − U.
0
Porque entonces, si Y1 e Y2 son camos vectoriales que coinciden en p, Y = Y1 − Y2 vale 0 en p, y 0 =
(R(Z , Y1 − Y2 )Z )p = (R(Z , Y1 , )Z )p − (R(Y2 )Z )p

63
64 El tensor curvatura

P ej
Se tiene entonces que Y = j Y Ej + (1 − ϕ2 )Y y, por lo tanto
(R(X , Y )Z )p = j Y (p)(R(X , Ej)Z )p + (1 − ϕ2 )(p)(R(X , Y )Z )p = 0.
P ej

Y consecuencia de este corolario es que si u, v , w , z ∈ Tp M, tiene sentido la acción R(u, v )w


y R(u, v , w , z) de los tensores curvatura sobre estos vectores.
Otra consecuencia más evidente es que si uno de los vectores es 0, la curvatura actuando sobre
ese y otros vectores es cero.

noca Nota 9.6. La observación anterior es especialmente útil para calcular. El tensor curvatura
(como otros muchos tensores) está definido usando derivadas covariantes y corchetes de Lie, lo
que suele llevar cálculos muy largos. El hecho de que el resultado final dependa solo de los
valores de los campos vectoriales en un punto permite usar, para calcular en cada punto, los
campos vectoriales que, en ese punto, tengan el valor correspondiente al problema, pero para los
cuales los cálculos de las derivadas covariantes y/o los corchetes de Lie sean lo más sencillos
posibles.

Rsim Proposición 9.7. Los tensores curvatura tienen las siguientes simetrías:

1. R(X , Y )Z = −R(Y , X )Z ,

2. R(X , Y )Z + R(Z , X )Y + R(Y , Z )X = 0 ( 1a identidad de Bianchi),

3. RXYZW = −RYXZW , RXYZW = −RXYWZ ,

4. RXYZW = RZWXY ,
y las consecuencias de estas identidades:

5. RXYZW + RZXYW + RYZXW = 0

6. RXYZW + RXWYZ + RXZWY = 0

Demostración. La propiedad 1 es inmediata a partir de la definición de R. Para probar la 2,


usaremos la notación S para indicar la suma que corresponde a las permutaciones cíclicas de
{X , Y , Z }. Tenemos

SR(X , Y )Z = S(−∇X ∇Y Z ) + S∇Y ∇X Z + S∇[X ,Y ] Z


= −S(∇X ∇Z Y ) − S(∇X [Y , Z ]) + S∇Y ∇X Z + S∇[X ,Y ] Z
= −S∇Y ∇X Z − S(∇Z [X , Y ] + S∇Y ∇X Z + S∇[X ,Y ] Z
= S[[X , Y ], Z ] = 0 por la identidad de Jacobi

Para probar la segunda igualdad de 3, observemos primero que, de la definición de la curvatura


de Riemann se deduce que es R-lineal en cada componente, luego, para demostrar esa igualdad,
bastará con demostrar RXYZZ = 0.


RXYZZ = h−∇X ∇Y Z , Z i + h∇Y ∇X Z , Z i + ∇[X ,Y ] Z , Z
= −X h∇Y Z , Z i + h∇Y Z , ∇X Z i + Y h∇X Z , Z i


− h∇X Z , ∇Y Z i + ∇[X ,Y ] Z , Z
1 1 1
= − XY hZ , Z i + YX hZ , Z i + [X , Y ] hZ , Z i = 0.
2 2 2

64
9.1 Tensor curvatura y curvatura seccional 65

Vamos a usar ahora 2 y 3 para probar 4:


RXYZW = −RZXYW − RYZXW
= RZXWY + RYZWX
= −RWZXY − RXWZY − RWYZX − RZWYX
= 2RZWXY + RXWYZ + RWYXZ
= 2RZWXY − RYXWZ = 2RZWXY − RXYZW
de donde se deduce que 2 RXYZW = 2 RZWXY .
La propiedad 5 es una reescritura de la 2, y la 6 es de nuevo una reescritura de la 2 si se
tiene en cuenta la propiedad 4.
Por ser magnitudes tensoriales se pueden escribir los tensores curvatura y curvatura de Rie-
mann de la forma
X
` ∂
R= Rijk dx i ⊗ dx j ⊗ dx k ⊗ ` ; (9.2) Rloc
i,j,k,l
∂x
que significa
X
` ∂
R(X , Y )Z = Rijk dx i (X ) ⊗ dx j (Y ) ⊗ dx k (Z ) ⊗ ` ,
i,j,k,l
∂x

`
por lo tanto Rijk = dx ` (R( ∂x∂ i , ∂x∂ j , ∂x∂ k )) y
X
R= Rijk` dx i ⊗ dx j ⊗ dx k ⊗ dx ` ; (9.3) RRloc
i,j,k,l

que significa
X
RXYZW = Rijk` dx i (X ) ⊗ dx j (Y ) ⊗ dx k (Z ) ⊗ dx ` (W ),
i,j,k,l

por lo tanto Rijk` = R( ∂x∂ i , ∂x∂ j , ∂x∂ k , ∂x∂ ` ).


`
Las funciones Rijk y Rijk` están relacionadas por
  *X +
∂ ∂ ∂ ∂ m ∂ ∂ X
m
Rijk` = R( i , j ) k , ` = Rijk m
, `
= Rijk gm`
∂x ∂x ∂x ∂x m
∂x ∂x m

Con más generalidad, en una referencia local {E1 , ..., En } de M a la que corresponde una
referencia dual {θ1 , ..., θn }, R adquiere unas expresiones similares a las anteriores, cambiando ∂x∂ i
porEi y dx j por θj .
La interpretación geométrica del tensor curvatura proviene del significado geométrico de las
distintas curvaturas que se definen a partir del tensor curvatura y, también del desarrollo de Taylor
de las componentes gij del tensor métrico (otro modo de llamar a la métrica o producto escalar)
en las coordenadas naturales (llamadas coordenadas normales, que definimos anteriormente) de
una variedad Riemanniana. Damos ahora las definiciones y resultados correspondientes.
Definición 9.8. Se llama curvatura seccional del plano vectorial contenido en Tp M generado
Ruvuv
por dos vectores l. i. u, v ∈ Tp M al número secuv = , donde A(u, v ) es el cuadrado
A(u,
v)
hu, ui hu, v i
del área del paralelogramos de lados u, v , i.e. A(u, v ) = = |u|2 |v |2 − hu, v i2 =
hu, v i hv , v i
(|u||v | sen ](u, v ))2 . Naturalmente, si u, v son una base ortonormal del plano que generan, se
tiene secuv = Ruvuv .

65
66 El tensor curvatura

Nota 9.9. La definición de curvatura seccional no depende de la base de Π elegida. En efecto:


Sea u1 , u2 una base ortonormal de Π. Sea X = X 1 u1 + X 2 u2 , Y = Y 1 u1 + Y 2 u2 una base arbitraria
de Π. Se tiene que

RXYXY = ((X 1 )2 (Y 2 )2 + (X 2 )2 (Y 1 )2 − 2X 1 X 2 Y 1 Y 2 )Ru1 u2 u1 u2 y


A(X , Y ) = ((X 1 )2 + (X 2 )2 )((Y 1 )2 + (Y 2 )2 ) − (X 1 Y 1 + X 2 Y 2 )2
= ((X 1 )2 (Y 2 )2 + (X 2 )2 (Y 1 )2 − 2X 1 X 2 Y 1 Y 2 ),

por lo que RXYXY /A(X , Y ) = Ru1 u2 u1 u2 .


Proposición 9.10. La curvatura seccional y el tensor curvatura de Riemann se determinan
mutuamente.
Demostración. De la propia definición es evidente que el tensor curvatura de Riemann determina la
curvatura seccional. Sólo queda pues por demostrar el recíproco. Veamos primero que la curvatura
seccional de los planos Π generado por X + Z y Y , Ξ generado por X y Y , y Φ generado por Y
y Z determinan RXYZY . En efecto

SecX +Z ,Y A(X + Z , Y ) = RX +ZYX +ZY


= RXYXY + RZYZY + RXYZY + RZYXY
= SecX ,Y A(X , Y ) + SecY ,Z A(Y , Z ) + 2 RXYZY (9.4) sec3

Por otro lado tenemos que

RXY +WZY +W = RXYZY + RXWZW + RXYZW + RXWZY


= RXYZY + RXWZW + RXYZW − RXWYZ

y, si cambiamos Y ; Z ; W por Z ; W ; Y , tenemos

RXZ +YWZ +Y = RXZWZ + RXYWY + RXZWY − RXYZW .

Restando ambas expresiones, resulta

−RXY +WZY +W + RXZ +YWZ +Y


= −RXYZY − RXWZW − RXYZW + RXWYZ
+ RXZWZ + RXYWY + RXZWY − RXYZW
= −RXZYZ − RXWYW + RXWZW + RXYZY
− 3RXYZW , (9.5) sec4

que, combinado con (9.4), nos permite escribir RXYZW como combinación de curvaturas seccionales.

9.2. El formalismo de Cartan para la curvatura


Sea {E1 , ..., En } una referencia local ortonormal de una variedad semi-riemanniana (M; h, i) y
sea {θ1 , ..., θn } su referencia dual.
2fc Definición 9.11. Se llama 2-formas curvatura asociadas a la referencia {E1 , ..., En } a la familia
de 2-formas diferenciales Ωji definida por
n
X
R(X , Y )Ej = Ωij (X , Y )Ei (9.6) 2fcd
i=1

66
9.3 La ecuación de Gauss de una subvariedad 67

De la definición de los Ωij se deduce que son, efectivamente, formas diferenciales (bilineales y
antisimétricas). Además, verifican que Ωji = −Ωij , porque

Ωij (X , Y ) = θi (R(X , Y )Ej ) = hR(X , Y )Ej , Ei i (9.7) 2fcd2


= − hR(X , Y )Ei , Ej i = −Ωji (X , Y ) (9.8) 2fcd3

La relación de las formas curvatura con las formas de conexión que da la proposición siguiente es
especialmente útil para el cálculo de curvaturas.

Proposición 9.12 (segunda ecuación de estructura de Cartan).


X
Ωij = −dωji + ωjk ∧ ωki . (9.9) 2eeC
k

Demostración. Apliquemos la fórmula de definición del tensor curvatura:

R(X , Y )Ej = −∇X ∇Y Ej + ∇Y ∇X Ej + ∇[X ,Y ] Ej


X X X
= −∇X ( ωji (Y )Ei ) + ∇Y ( ωji (X )Ei ) + ωji ([X , Y ])Ei
i i i
X X
=− X (ωji (Y ))Ei − ωji (Y )ωik (X )Ek
i i,k
X X X
+ Y (ωji (X ))Ei + ωji (X )ωik (Y )Ek + ωji ([X , Y ])Ej
i i,k i
!
X X
=− dωji − ωjk ∧ ωki (X , Y )Ei ,
i k

de donde, usando (9.7), obtenemos


!
X
Ωij (X , Y ) = −dωji + ωjk ∧ ωki (X , Y ),
k

que es la fórmula (9.9)

9.3. La ecuación de Gauss de una subvariedad


Sea (M, g ) una variedad semi-reiemanniana y sea M ⊂ M una subvariedad regular con la
métrica g inducida por la métrica g de M. Sea α la segunda forma fundamental de M en M. Se
tiene que

Proposición 9.13 (Ecución de Gauss). Para todo p ∈ M y cualesquiera vectores u, v , w , z ∈


Tp M, se verifica que

R uvwz = Ruvwz + hα(u, z), α(v , w )i − hα(u, w ), α(v , z)i (9.10) ecGa

Demostración. Usaremos de nuevo la definición del tensor curvatura, para campos vectoriales
U, V , W , Z tangentes a M que sean extensiones de los vectores u, v , w , z, y descomponiendo los

67
68 El tensor curvatura

vectores de T M en parte tangente a M y parte normal, así:




R UVWZ = −∇U ∇V W + ∇V ∇U W + ∇[U,V ] W , Z



= −U ∇V W , Z + ∇V W , ∇U Z



+ V ∇U W , Z − ∇U W , ∇V Z


+ ∇[U,V ] W , Z
= −U h∇V W , Z i + h∇V W , ∇U Z i + hα(V , W ), α(U, Z )i
+ V h∇U W , Z i − h∇U W , ∇V Z i − hα(U, W ), α(V , Z )i


+ ∇[U,V ] W , Z
= RUVWZ + hα(V , W ), α(U, Z )i − hα(U, W ), α(V , Z )i .

que es la fórmula (9.10)


Esta es la fórmula que se emplea con frecuencia para calcular la curvatura de una subvariedad
M cuando se conoce la curvatura de la variedad ambiente M.

9.4. Dos lemas útiles


Los siguientes lemas serán útiles para calcular curvaturas siguiendo las ideas de la Nota 9.6.

rloD0 Lema 9.14. Dado un punto p ∈ M y una base ortonormal {e1 , ..., en } de Tp M, existe una
referencia local ortonormal {E1 , ..., En } definida en un entorno de p tal que ∇X Ei = 0 para todo
X ∈ Tp M y todo i ∈ {1, ..., n}.

Demostración. Basta con considerar un abierto U sobre el que expp sea un difeomorfismo, y definir,
para x = expp v , Ei (x) como el vector que se obtiene trasladando paralelamente el vector ei a lo
largo de la geodésica t 7→ expp tv desde t = 0 hasta t = 1.

rloD1 Lema 9.15. Dado un punto p ∈ M y dos vectores u, v ∈ Tp M, existen dos campos vectoriales
X , Y definidos sobre un abierto que contiene a p tales que Xp = u, Yp = v , (∇X Y )p = 0,
(∇Y X )p = 0 y [X , Y ]p = 0.
1
Demostración. x n ) un sistema de coordenadas normales de M en p. En p se puede
PnSea i(U, x , ...,P
escribir u = i=1 u ∂i |p , v = nj=1 v j ∂j |p , con u i , v j ∈ R. Definimos los campos vectoriales X e Y
sobre U por X = ni=1 u i ∂i , Y = nj=1 v j ∂j . Evidentemente Xp = u y Yp = v . Por las propiedades
P P
de las coordenadas normales se tiene que
X X
(∇X Y )p = u i v j (∇∂i ∂j )p = 0, (∇Y X )p = v j u i (∇∂j ∂i )p = 0,
i,j i,j
X
i j
[X , Y ]p = u v [∂i , ∂j ]p = 0.
i,j

68
Capítulo 10

10.1. Curvatura de Ricci y curvatura escalar


Definición 10.1. En una variedad Riemanniana, se llama curvatura de RicciPa la aplica-
ción F(M)-bilineal Ric : X(M) × X(M) −→ F(M) definida por Ric(X , Y ) = i RXei Xei pa-
ra cualquier referenciaP local ortonormal
P kei . Para referencias locales no ortonormales se tiene
k`
Ricij ≡ Ric(Ei , Ej ) = k,` g Rikj` = k Rikj .
P
Si se trata de una variedad semi-riemanniana, entonces la definición es Ric(X , Y ) = i εi RXei Xei ,
donde εi = hei , ei i.

Naturalmente, Ric es tensorial, por serlo R, y es simétrico por la propiedad 4 de la Proposición


9.7.
En una variedad Riemanniana, se dice que Ric > 0 si Ric(X , X ) > 0 para todo X 6= 0. Con
más generalidad, se dice que Ric ≥ λ ∈ R si Ric(X , X ) ≥ λ|X |2 para todo vector X tangente a
la variedad. Aunque en dimensión 3 la curvatura de Ricci determina el tensor curvatura y, por lo
tanto, la curvatura seccional, el signo de Ric (en general, la cota inferior de Ric) no determina el
signo de sec (la cota inferior de sec).

P 10.2. Se llama curvatura escalar a la función Scal : M −→ R definida por


Definición
Scal(p) = i εi Ric(ei , ei )(p) paraP
cualquier referencia local ortonormal ei . Para referencias locales
no ortonormales se tiene Scal = k,` g k` Rick` .

10.2. Curvatura seccional constante


Definición 10.3. Una variedad Riemanniana M se dice que tiene curvatura seccional puntual-
mente constante si, para cada p ∈ M las curvaturas seccionales secΠ1 y secΠ2 son iguales para
cualesquiera planos vectoriales Π1 , Π2 ⊂ Tp M. Llamaremos sec(p) a su valor común. Si M tiene
curvatura seccional puntualmente constante sec(p) y la función p 7→ sec(p) es constante igual a
K , decimos que M es un espacio de curvatura seccional constante K .

De acuerdo con esta definición, toda variedad Riemanniana de dimensión 2 es de curvatura


seccional puntualmente constante y, en general, no son de curvatura seccional constante. Sin
embargo, sorpendentemente, como veremos dentro de poco (lema de Schur), la situación es muy
diferente en dimensión ≥ 3. La métrica natural sobe una esfera de dimensión 2 (y de cualquier
dimensión) de radio r tiene curvatura seccional constante 1/r 2 (como vimos o veremos en clase
de problemas). Variedades Riemannianas con curvatura negativa constante son más difíciles de
encontrar (aunque también las veremos en problemas con aparentemente la misma facilidad), pero
existen en abundancia (El Teorema de Uniformización en la Teoría de variable compleja - famoso
y difícil de probar- implica que cualquier superficie de Riemann de género ≥ 2 tiene una métrica
de curvatura negativa constante).

69
70 Curvatura de Ricci y variedades de Einstein

Teorema 10.4. Sea M una variedad Riemanniana de curvatura seccional puntualmente cons-
tante K . Entonces la curvatura de M viene dada por la fórmula

RWXYZ = K (hW , Y i hX , Z i − hW , Z i hX , Y i) (10.1) Rcsc

Demostración. De acuerdo con (9.4)

2 RXYZY = SecX +Z ,Y A(X + Z , Y ) − SecX ,Y A(X , Y ) − SecY ,Z A(Y , Z )


= K (A(X + Z , Y ) − A(X , Y ) − A(Y , Z ))

= K |X + Z |2 |Y |2 − hX + Z , Y i2 − |X |2 |Y |2 + hX , Y i2

−|Y |2 |Z |2 + hY , Z i2
= K |X |2 |Y |2 + |Z |2 |Y |2 + 2 hX , Z i |Y |2
− hX , Y i2 − hZ , Y i2 − 2 hX , Y i hZ , Y i

−|X |2 |Y |2 + hX , Y i2 − |Y |2 |Z |2 + hY , Z i2
= 2 K hX , Z i |Y |2 − 2 hX , Y i hZ , Y i

(10.2)

que es la fórmula (10.1) para tres componentes distintas del tensor curvatura. La fórmula para las
cuatro componentes resulta de combinar esta expresión con (9.5).

10.3. Derivada covariante de los tensores curvatura


Definición 10.5. Un campo tensorial k-covariante T es una aplicación F(M)-multilineal

T : X(M) × ...
k × X(M) −→ F(M)

La derivada covariante ∇X T respecto de X de un campo tensorial k-covariante T se define por

(∇X T )(X1 , ..., Xk )


k
X
= X (T (X1 , ..., Xk )) − T (X1 , ..., ∇X Xi , ..., Xk ). (10.3) DCT
i=1

Resulta inmediato a partir de la definición (10.3) que ∇X T es otro campo tensorial k-covariante.
Obsérvese que la curvatura de Riemann R es un tensor 4-covariante y la métrica y la curvatura
de Ricci son campos tensoriales 2-covariantes. De acuerdo con la anterior definición, la condición
de que la conexión ∇ sea métrica se puede expresar diciendo que ∇g = 0.
Se comprueba sin más que aplicar la definición y las propiedades de simetría de R que ∇X R
verifica las mismas propiedades de simetría de R que se vieron en la Proposición 9.7.
Se comprueba también aplicando las definiciones y cálculos directos que ∇X Ric es simétrico
, i.e. (∇Z Ric)(X , Y ) = (∇Z Ric)(Y , X ). Se tiene además que
dersca Proposición 10.6. Sean p ∈ M y {ei }1≤i≤n una base ortonormal de Tp M, en el punto p se
verifica que
n
X
(∇X Ric)(Y , Z ) = (∇X R)Yei Zei (10.4) (a)
i=1
n
X n
X
X Scal = (∇X Ric)(ei , ei ) = (∇X R)ej ei ej ei (10.5) (b)
i=1 i,j=1

70
10.3 Derivada covariante de los tensores curvatura 71

Demostración. Para la demostración usaremos el lema 9.14.


Comenzamos con la demostración de (10.5). Sea {E1 , ..., En } una referencia local como la que
se indica en el lema. Tenemos que:
n
!
X
X Scal(p) = X Ric(Ei , Ei ) (p)
i=1
n
X
= ((∇X Ric)(Ei , Ei ) + 2 Ric(∇X Ei , Ei )) (p)
i=1
n
X
= (∇X Ric)(Ei , Ei )(p).
i=1

La demostración de (10.4) se hace igual.


Por otro lado, para la curvatura R(X , Y )Z podemos definir también su derivada covariante

(∇W R)(X , Y )Z = ∇W (R(X , Y )Z ) − R(∇W X , Y )Z


− R(X , ∇W Y )Z − R(X , Y )∇W Z (10.6) DCR

y se tiene que

(∇W R)XYZU = W hR(X , Y )Z , Ui − hR(∇W X , Y )Z , Ui


− hR(X , ∇W Y )Z , Ui − hR(X , Y )∇W Z , Ui
− hR(X , Y )Z , ∇W Ui
= h∇W (R(X , Y )Z ), Ui − hR(∇W X , Y )Z , Ui
− hR(X , ∇W Y )Z , Ui − hR(X , Y )∇W Z , Ui
= h(∇W R)(X , Y )Z , Ui (10.7) DCRR

2IB Proposición 10.7 (Segunda identidad de Bianchi).

SWXY (∇W R)(X , Y )Z = 0

Demostración.

SWXY (∇W R)(X , Y )Z = SWXY ∇W (R(X , Y )Z ) − SWXY R(∇W X , Y )Z


− SWXY R(X , ∇W Y )Z − SWXY R(X , Y )∇W Z

= SWXY −∇W ∇X ∇Y Z + ∇W ∇Y ∇X Z + ∇W ∇[X ,Y ] Z )

− SWXY −∇∇W X ∇Y Z + ∇Y ∇∇W X Z + ∇[∇W X ,Y ] Z

− SWXY −∇X ∇∇W Y Z + ∇∇W Y ∇X Z + ∇[X ,∇W Y ] Z

− SWXY −∇X ∇Y ∇W Z + ∇Y ∇X ∇W Z + ∇[X ,Y ] ∇W Z

Teniendo en cuenta que hay una suma cíclica, los dos primeros sumando de la línea tercera se
anulan con los dos primeros de la última línea, el primero de la cuarta línea y el segundo de la
quinta se anulan con el último de la última, el segundo de la cuarta y el primero de la quinta se
anulan con el primero de la tercera, y para los terceros sumandos de la cuarta y quinta líneas
tenemos
 
SWXY ∇[∇W X ,Y ] Z + ∇[X ,∇W Y ] Z = SWXY ∇[∇W X ,Y ] Z + ∇[Y ,∇X W ] Z

= SWXY ∇[∇W X ,Y ] Z − ∇[∇X W ,Y ] Z = SWXY ∇[[W ,X ],Y ] Z ,

que es igual a 0 por la identidad de Jacobi.

71
72 Curvatura de Ricci y variedades de Einstein

Corolario 10.8. Con la notación de la Proposición 10.6


n
X
(∇ei R)ei XYZ = ∇Y (Ric)(X , Z ) − (∇Z Ric)(X , Y ) (10.8) deltaR
i=1
n
X
X Scal = 2 (∇ei Ric)(ei , X ) (10.9) XScal2
i=1

Demostración. Usaremos la simetría 4 de la Proposición 9.7, la segunda identidad de Bianchi y


(10.4) para demostrar la primera fórmula:
n
X n
X
(∇ei R)ei XYZ = (∇ei R)YZei X
i=1 i=1
n
X n
X
=− (∇Z R)ei Yei X − (∇Y R)Zei ei X
i=1 i=1
= −(∇Z Ric)(Y , X ) + (∇Y Ric)(Z , X )

Y para la segunda igualdad usaremos los mismos resultados excepto (10.4) que cambiamos por
(10.5):
X X 
X Scal = (∇X R)ej ei ej ei = − (∇ei R)Xej ej ei + (∇ej R)ei Xej ei
ij ij
X
=2 (∇ej Ric)(X , ej ).
j

que coincide con la fórmula (10.9).

10.4. Espacios de Einstein


Definición 10.9. Una variedad semi-Riemanniana (M, g ) se dice que es de Einstein si la
curvatura de Ricci es un múltiplo de la métrica, es decir, si existe una función λ : M −→ R tal
que Ric = λ g .
vEdg3 Proposición 10.10. Si M es Einstein y n = dimM ≥ 3, la función λ que define la condición
de ser Einstein es constante.
P P
Demostración. Sea p ∈ M, X ∈ Tp M. Se tiene que Scal = i Ric(Ei , Ei ) = λ i g (Ei , Ei ) = n λ,
de donde

X Scal = n X λ. (10.10) xsc1


P
Por otro lado, la fórmula (10.9) dice que X Scal = 2 i (∇Ei Ric)(Ei , X ). Para hacer este cálculo,
usamos una referencia de las indicadas en el Lema 9.14 y obtenemos
X X
(∇Ei Ric)(Ei , X ) = (Ei (λg (Ei , X )) − λg (Ei , ∇Ei X )
i i
X
= (Ei (λ)g (Ei , X ) + λEi g (Ei , X ) − λg (Ei , ∇Ei X )
i
| por ser ∇ una conexión métrica |
X
= Ei (λ)g (Ei , X ),
i

72
10.4 Espacios de Einstein 73

luego
X
X Scal = 2 Ei (λ)g (Ei , X ) = 2 X λ (10.11) xsc2
i

De (10.10) y (10.11) se deduce que n X λ = 2 X λ, lo que implica que n = 2 ó X λ = 0, lo que


acaba la demostración.

Proposición 10.11 (Lema de Schur). Una variedad semi-Riemanniana de dimensión n ≥ 3 y


de curvatura seccional puntualmente constante, es de curvatura constante.

Demostración. Al ser puntualmente constante, la curvatura seccional es una función K : M −→ R.


La curvatura de Ricci es Ric(X , X ) = i RXEi XEi = i K (|X |2 − hX , Ei i2 ) = K (n − 1)|X |2 , de
P P
donde, por tratarse de aplicaciones bilineales simétricas1 , Ric(X , Y ) = (n −1) K g (X , Y ), es decir,
M es una variedad de Einstein y, por la Proposición 10.10, (n − 1) K es constante si n ≥ 3, como
queríamos demostrar.
P
Nota 10.12. Obsérvese que, en una variedad de c.s.c. K , se tiene que Scal = i Ric(Ei , Ei ) =
n(n − 1)K .

Proposición 10.13. En dimensión 3 (y solo en dimensión 3) la curvatura de Ricci determina el


tensor curvatura.

Demostración. Sean p ∈ M y un plano Π ⊂ Tp M. Sea {e1 , e2 , e3 } una base ortonormal de Tp M


tal que {e1 , e2 } sea una base de Π. Sea σij el plano generado por {ei , ej }, i 6= j (obsérvese que
Π = σ12 ). Sea secij la curvatura seccional del plano σij . Por las definiciones de curvatura de Ricci
y de curvatura seccional se tiene que

Ric(e1 , e1 ) = sec12 + sec13


Ric(e2 , e2 ) = sec12 + sec23
Ric(e3 , e3 ) = sec13 + sec23

Sumando las dos primeras igualdades y restando la tercera:

Ric(e1 , e1 ) + Ric(e2 , e2 ) − Ric(e3 , e3 ) = 2 sec12 = 2 secΠ (10.12) risc

que demuestra que la curvatura de Ricci determina la curvatura seccional, y como esta determina
la curvatura de Riemann, se tiene que en dimensión 3 la curvatura de Ricci determina la curvatura
de Riemann.

Corolario 10.14. En dimensión 3, para todo p ∈ M:


Si 2 c > Ric(u, u) > c > 0 para todo u ∈ Tp M de norma 1, entonces la curvatura seccional en
todo plano Π ⊂ Tp M es positiva (sec(p) > 0).
Si 2 c < Ric(u, u) < c < 0 para todo u ∈ Tp M de norma 1, entonces la curvatura seccional en
todo plano Π ⊂ Tp M es negativa (sec(p) < 0)

Demostración. Es consecuencia de la fórmula (10.12)

Corolario 10.15. En dimensión 3 toda variedad de Einstein es de curvatura seccional constante.

Demostración. Es también consecuencia de la fórmula (10.12)

1
demostración del hecho para quien no lo conozca: Ric(X , X ) + ric(Y , Y ) + 2 Ric(X , Y ) = Ric(X + Y , X + Y ) =
λg (X + Y , X + Y ) = λg (X , X ) + λg (Y , Y ) + λ 2 g (X , Y ), de donde se deduce el hecho.

73
Capítulo 11

11.1. Desarrollo de Taylor en coordenadas normales


Sea (U, φ) un sistema de coordenadas normales en p asociado a una b.o.n. {e1 , ..., en } de Tp M,
∂ ∂
con referencia local asociada { 1 , ..., n }.
∂x ∂x

P Se llama campo vectorial coordenado a un campo vectorial X definido sobre


Definición 11.1.
U tal que X = ni=1 ai ∂x∂ i con ai constantes.

nXY Proposición 11.2. Si X , Y son campos vectoriales coordenados:


(a) Las curvas integrales α y γ de X e Y , respectivamente, que pasan por p (i.e. α(0) = p,
γ(0) = p) son geodésicas.
(b) [X , Y ] = 0.
(c) X + Y es un campo vectorial coordenado.
(d) (∇X Y )p = 0

Demostración. Si ϕ(α(t)) = (x 1 (t), ...,Px n (t)), la condición α(0) = p equivale a ϕ(α(0)) = (0, ..., 0).
0
Como α(t) es curva integral de X = ni=1 ai ∂x∂ i , se tiene que x i (t) = ai y, como x i (0) = 0, ha de
ser x i (t) = ai t, por lo que, por definición de coordenadas normales, α(t) = expp t(a1 e1 +...+an en ),
que es una geodésica.
Los apartados (b), (c) y (d) son consecuencia inmediata de las propiedades de los campos
∂ ∂
vectoriales { 1 , ..., n } asociados al sistema de coordenadas normales.
∂x ∂x

En esta clase (y solo en esta) usaremos la notación ∇kX Y = ∇X ...∇


k
XY

Corolario 11.3. Con las notaciones de la Proposición 11.2

(∇kX X )α(t) = 0, k = 1, 2, 3, ... (11.1) nkXX

Demostración. Como α(t) es una geodésica, ∇X X se anula a lo largo de α(t), y, como (∇kX X )α(t)
depende solo de los valores de (∇k−1
X X ) a lo largo de α(t), la igualdad (11.1) se sigue por
inducción.

Lema 11.4. Si X , Y , Z son campos vectoriales coordenados,

1
(∇2XY Z )p = − (R(X , Y )Z + R(X , Z )Y )p (11.2) na2XY
3

Demostración. Aplicamos (11.1) a X + Y y a X − Y con k = 2, a lo largo de la curva integral


ξ(t) de X + Y que verifica ξ(0) = 0, teniendo en cuenta además el apartado (b) de la Proposición

74
11.1 Desarrollo de Taylor en coordenadas normales 75

11.2 y la fórmula (11.1) para X y para Y , obtenemos:

0 = (∇X +Y X +Y (X + Y ))p

= (∇2XX X + ∇2XX Y + ∇2XY X + ∇2XY Y + ∇2YX X + ∇2YX Y + ∇2YY X + ∇2YY Y )p


= (∇2XX Y + ∇2YX X + ∇2XY X + ∇2XY Y + ∇2YX Y + ∇2YY X )p
= (2∇2XX Y + ∇2YX X + ∇2XY Y + 2∇2YY X )p (11.3) n2xxy
y, cambiando Y por −Y
0 = (∇X −Y X −Y (X − Y ))p
= (−2∇2XX Y − ∇2YX X + ∇2XY Y + 2∇2YY X )p (11.4) n2xx-y

Restando (11.3) y (11.4) obtenemos

2(∇2XX Y )p + (∇2YX X )p = 0 (11.5) n2xxya

Por otro lado, de la definición del tensor curvatura y el apartado (b) de la Proposición 11.2, resulta

(R(X , Y )X )p = −(∇2XY X )p + (∇2YX X )p = −(∇2XX Y )p + (∇2YX X )p (11.6) rxyx

que, junto con (11.5), da

(R(X , Y )X )p = −3 ∇2XX Y (11.7) rxyxp

Cambiando X por X + Z y desarrollando, obtenemos

(R(X , Y )Z + R(Z , Y )X )p = −3(∇2XZ Y + ∇2ZX Y )p (11.8)

y, teniendo en cuenta que

3R(Z , X )Y = 3(−∇2ZX Y + ∇2XZ Y ), (11.9)

restando las dos últimas expresiones y aplicando Bianchi, obtenemos

−6(∇2XZ Y )p = (R(X , Y )Z + R(Z , Y )X − 3R(Z , X )Y )p


= (R(X , Y )Z + R(Z , Y )X + 3R(Y , Z )X + 3R(X , Y )Z )p
= (4R(X , Y )Z + 2R(Y , Z )X )p
= 4R(X , Y )Z − 2R(X , Y )Z − 2R(Z , X )Y )p

de donde
−3(∇2XY Z )p = 2(R(X , Y )Z + R(X , Z )Y )p
de donde se sigue la fórmula (11.2).

desgij Teorema 11.5. En un sistema de coordenadas normales centrado en p, los coeficientes del
tensor métrico tienen el siguiente desarrollo de Taylor:
n
1 X
gij = δij − Rikj` (p)x k x ` + O(3). (11.10) Taygij
3 k,l=1

∂g
Demostración. Ya sabemos, por las propiedades de las coordenadas normales, que ∂x ijk (p) = 0,
así es que, para probar el teorema, bastará con calcular (usando la fórmula (11.2) y la notación:

75
76 Interpretación geométrica de las curvaturas


Xk = ∂x k
):

∂ 2 gij   
(p) = (Xk X` (g (Xi , Xj )))p = Xk g (∇X` Xi , Xj ) + g (Xi , ∇X` Xj )
∂x k ∂x ` p
2 2
= g (∇Xk X` Xi , Xj )(p) + g (Xi , ∇Xk X` Xj )(p)
1
= − (Rk`ij + Rki`j + Rk`ji + Rkj`i )(p)
3
1 1 1 1
= − Rikj` (p) − Rjki` (p) = − Rikj` (p) − Ri`jk (p). (11.11) d2gij
3 3 3 3
de donde
n n n
X ∂ 2 gij k ` 1 X k ` 1 X
k `
(p)x x = − Rikj` (p)x x − Ri`jk (p)x k x `
k,`=1
∂x ∂x 3 k,`=1 3 k,`=1
n n
1 X k ` 1 X
=− Rikj` (p)x x − Rikj` (p)x ` x k
3 k,`=1 3 k,`=1
n
2 X
=− Rikj` (p)x k x ` .
3 k,`=1

De donde, al hacer el desarrollo en serie de Taylor de gij alrededor de p resulta la fórmula


(11.10).

11.2. Interpretación geométrica de las curvaturas


a) La primera interpretación es sobre el propio tensor curvatura y surge directamente del
Teorema 11.5: Las componentes del tensor curvatura en un punto p de una variedad Riemanniana
M son los coeficientes del primer término no trivial del desarrollo en serie de Taylor de las
componentes del tensor métrico en coordenadas normales centradas en p.
Al igual que en una superficie S de R3 el área de un dominio U ⊂ S de la superficie pa-
Rra el pque existe un sistema de coordenadas o carta ϕ−1 : ϕ(U) −→ S ⊂ R3 viene dada por
ϕ(U)
det(gij )du dv , para un dominio U de una carta (Uϕ) de una variedad Riemanniana M su
volumen es
Z q
det(gij )dx 1 ... dx n . (11.12) volu
ϕ(U)

Para calcular el desarrollo de Taylor (en un sistema de coordenadas cormales centrado en p)


p
de det(gij ), recordemos primero la fórmula para la derivada del determinante de una matriz:

∂ X ∂grs
det(gij ) = g rs k det(gij )
∂x k rs
∂x

donde (g rs ) es la matriz inversa de (grs ). Si derivamos de nuevo, tenemos

∂2 X ∂g rs ∂grs ∂ ∂grs
` k
det(gij ) = ` k
det(gij ) + g rs ` det(gij ) k
∂x x rs
∂x ∂x ∂x ∂x
∂ 2 grs 
+ g rs det(gij ) ` k
∂x ∂x

76
11.2 Interpretación geométrica de las curvaturas 77

Si usamos coordenadas normales centradas en p, tenemos que grs (p) = δrs , y ∂g rs


∂x k
(p) = 0, lo que,
aplicado al cálculo anterior, y teniendo en cuenta también (11.11) da
∂2 X
rs ∂ 2 grs  X ∂ 2g
rr
` k
det(gij )(p) = δ det(g ij )(p) ` k
(p) = (p)
∂x x rs
∂x ∂x r
∂x ∂x k
`

1X 2
=− (Rrkr ` + Rr `rk )(p) = − Rick` (p). (11.13) 2dpgijp
3 r 3

Usamos ahora las fórmulas obtenidas para calcular

q
det(gij )(p) = 1 (11.14)
p
∂ det(gij ) 1 ∂det(gij )
k
(p) = p (p) = 0 (11.15)
∂x 2 det(gij ) ∂x k

p
∂2 det(gij ) ∂  1  ∂det(g )
ij
(p) = p (p) (p)
∂x ` ∂x k ∂x ` 2 det(gij ) ∂x k
1 ∂ 2 det(gij )
+ p (p) (p)
2 det(gij ) ∂x ` ∂x k
1
= − Rick` (p), (11.16)
3
p
Lo que da para el desarrollo de Taylor de det(gij )
1X
q
det(gij ) = 1 − Rick` x k x ` + O(3) (11.17) deselv
6 k,`

Consideremos ahora un plano Π ⊂ Tp M en un punto p de una variedad Riemanniana M.


Sea Dρ (0) el disco de Π de centro 0 y radio ρ, con ρ tal que expp : Bρ (0) −→ Bρ (p) sea un
difeomorfismo. Dρ (p), con la métrica inducida por la de M, es una subvariedad riemanniana de M
de dimensión 2.
Consideremos un sistema de coordenadas normales definido sobre Bρ (p), centrado en p asocia-
do a una base ortonormal {e1 , e2 , ..., en } de Tp M tal que {e2 , e2 } es una base de Π. La restricción
a Dρ (p) de este sistema de coordenadas es un sistema de coordenadas normales de Dρ (p) con la
∂ i ∂ i
métrica inducida1 . Como consecuencia, dados campos vectoriales X = 2i=1 X i ∂x , Y 2i=1 Y i ∂x
P P

tangentes a Dρ (p), si ∇ y ∇ denotan, respectivamente, las derivadas covariantes en en M y en


Dρ (p), tenemos
2 2
X ∂Y j ∂ > X
i ∂Y
j

(∇X Y )p = (∇X Y )>
p = ( Xi i j
)p = ( X i
) = (∇X Y )p ,
j p
i,j=1
∂x ∂x i,j=1
∂x ∂x

luego la segunda forma fundamental de Dρ (p) en M es nula, luego, si R y R denotan los tensores
curvaturas de M y Dρ (p) respectivamente, por la ecuación de Gauss (9.10), se tiene

R1212 = R 1212 = SecΠ . (11.18) r1212


1
En efecto. En las coordenadas normales de M, los puntos de Dρ (p) son exactamente los puntos de Bρ (p) de
coordenadas (x 1 , x 2 , 0, ..., 0), por lo tanto los coeficientes gij de la métrica de esa superficie son los mismos que los
g ij de la variedad M restringidos a la superficie, por lo que para los símbolos de Christoffel Γkij de la superficie se
   
∂g j` ∂g ij ∂g jk ∂g ij
tiene Γkij (p) = ` g k` ∂g ∂g ik
P i`
∂x j
+ ∂x i
− ∂x `
(p) = ∂x j
+ ∂x i
− ∂x k
(p) = 0

77
78 Interpretación geométrica de las curvaturas

Además, para la curvatura de Ricci de Dρ (p) en p se tiene

Ric11 (p) = R1212 (p), Ric12 (p) = Ric21 (p) = 0, Ric22 (p) = R2121 (p),

por lo que

2
X
Rick` (p)x k x ` = R 1212 (p)((x 1 )2 + (x 2 )2 ) (11.19)
k,`=1

Sea r < ρ, el área del disco Dρ (p) vendrá dada, de acuerdo con (11.12) y las observaciones
anteriores (identificando el disco Dρ (0) de Tp M con el disco de mismo centro y radio de R2 ), y
usando coordenadas polares para integrar, por
Z
1 
Area(Dr (p)) = 1 − SecΠ (p)((x 1 )2 + (x 2 )2 ) + O(3) dx 1 dx 2
Dr (0) 6
Z r Z 2π 
1 
= 1 − SecΠ (p)r 2 + O(3) r dr dθ
0 0 6
r2 1 
= 2π − SecΠ (p)r 4 + O(5)
2 46
 1 
= π r 2 1 − SecΠ (p)r 2 + O(3) (11.20) aread
12

Resulta de ello la siguiente interpretación de la curvatura seccional:


a’) la curvatura seccional de un plano Π ⊂ Tp M en un punto p de una variedad Riemanniana
M es el coeficiente de segundo orden del desarrollo en serie (en función del radio) del área de la
imagen por la exponencial de un disco de Π centrado en el origen (llamado disco geodésico).
O, dicho de otro modo, si Ae denota el área euclídea,

Ae (Dr (0)) − A(Dr (p))


Secπ (p) = 12 lı́m (11.21) csad
r →0 r2

Obsérvese que tanto para a) como para a’) el primer término no trivial es de segundo orden,
lo que da como consecuencia que, hasta el primer orden, toda variedad riemanniana es como el
espacio euclídeo. Intuitivamente: en las proximidades de un punto todo ocurre como en el espacio
euclídeo. La curvatura da los términos de segundo orden, los primeros significativos, luego la
curvatura es la que permite distinguir una variedad riemanniana de un espacio euclídeo. De ahí
su papel central en el estudio de la Geometría de Riemann.
Por otro lado, resulta directamente de (11.17) que
b) La curvatura de Ricci en p es el coeficiente del primer término no trivial del desarrollo en
serie del elemento de volumen en coordenadas normales centradas en p.
Si ahora integramos este elemento de volumen para obtener el volumen de una bola geodésica
de radio r , resulta (escribiendo x k = ru k , con u ∈ S n+1 ).
Z  1X 
V (Br (p)) = 1− Rick` (p)x k x ` + O(3) dx 1 ...dx n
Br (0) 6 k,`
Z rZ  1X 
= 1− Rick` (p)u k u ` r 2 + O(3) r n−1 dvS n−1 dr .
0 S n−1 6 k,`

78
11.2 Interpretación geométrica de las curvaturas 79

Pero2
Z n
X
k ` 1X
Rick` (p)u u dvS n−1 = Ricjj (p) Vn−1 (S n−1 ) (11.22) vols
S n−1 k,` (∗) n
j=1
1
= Scal(p) Vn−1 (S n−1 ),
n
que al sustituirlo en la expresión anterior da:

Vn−1 (S n−1 ) n  1 2

V (Br (p)) = r 1− Scal(p)r + O(3)
n 12n
Por lo que
c) La curvatura escalar en un punto p es el coeficiente del primer término no trivial del desa-
rrollo en serie (en función del radio) del volumen de una bola geodésica de M centrada en p.

Las observaciones anteriores se pueden expresar en otras palabras diciendo:


a) La curvatura seccional de un plano tangente Π mide la variación del área (respecto de la
euclídea) de un disco geodésico tangente al plano Π,
b) La curvatura de Ricci mide la variación de la forma volumen (respecto de la euclídea) y
c) La curvatura escalar mide la variación del volumen (respecto del euclídeo) de una bola
geodésica.

R que sigue: dada una matriz n × n de


2
La demostración de la fórmula (*) en (11.22) R es consecuencia de lo
números reales (aij ), se tiene que, si i 6= j, S n−1 aij x i x j dVS n−1 = aij S n−1 x i x j dVS n−1 . Supongamos, sin pérdi-
da de generalidad, que i < j. Se puede escribir S n−1 = Aij ∪ Bij ∪ Cij con Aij = {x ∈ S n−1 ; x i x j = 0},
Bij = {x ∈ S n−1 ; x i x j > 0}, Cij = {x ∈ S n−1 ; x i x j < 0}. El conjunto Aij tiene (n − 1)-volumen 0, y
existeR un difeomorfismo fR : Bij −→ Cij definido por f (x 1 , ..., i j n 1
R x , i...,j x , ..., x ) R= (x , ..., x i , ..., −x j , ..., x n ), por lo
que S n−1 x x dVS n−1 = Bij x x dVS n−1 + Cij x x dVS n−1 = Bij x x dVS n−1 + F −1 (Cij ) x ◦ f x j ◦ f |f ∗ dVS n−1 | =
i j i j i j i
R

x i x j dVS n−1 − Bij x i x j dVS n−1 = 0. Resulta, por lo tanto, que i,j aij S n−1 x i x j dVS n−1 = i aii S n−1 (x i )2 dVS n−1 . Pe-
R R P R P R
BijR
i 2
= S n−1 (x j )2 dVS n−1 para cualesquiera i, j, luego S n−1 (x i )2 dV i 2
R R P R
ro S n−1 R (x )PdVS n−1 i 2
R S n−1 = (1/n) i S n−1 (x ) dVS n−1 =
n−1
(1/n)P S n−1R i i j S (x ) dV n−1 = |porque estamos en la esfera de radio 1| = (1/n) S n−1
dV S n−1 = (1/n)V n−1 (S ). Lue-
n−1
P
go i,j aij S n−1 x x dVS n−1 = (1/n)Vn−1 (S ) i aii

79
Capítulo 12

12.1. Campos de Jacobi


Definición 12.1. un campo de Jacobi a lo largo de una geodésica γ(t) de una variedad rie-
manniana M es una campo vectorial Y (t) a lo largo de γ(t) que verifica la ecuación diferencial

Y 00 + R(γ 0 , Y )γ 0 = 0. (12.1) dCJ

En la definición anterior hemos usado la notación “0 " tanto para designar la derivada de una
curva (es decir, su vector tangente) como la derivada covariante de un campo vectorial a lo largo
de una curva en la dirección del vector tangente a la curva. Por lo tanto, el significado de Y 00 (t)
∇2 Y
es ∇γ 0 (t) ∇γ 0 (t) Y (t), que escribiremos también como . También usaremos “0 " para denotar la
dt 2
derivada de una función real de t.

Proposición 12.2. Si γ(t) es una geodésica, Y (t) = tγ 0 (t) es el único campo de Jacobi a lo
largo de γ(t) que verifica Y (t) = 0 y Y 0 (t) = γ 0 (t).

Demostración. Como γ(t) es una geodésica, Y 0 (t) = γ 0 (t), Y 00 (t) = 0 = −Rγ 0 (tγ 0 )γ 0 (t γ 0 ) , luego
Y (t) es un campo de Jacobi que, evidentemente, cumple las condiciones iniciales dadas y, por
teoría de EDO, es la única solución de (12.1) que verifica esas condiciones iniciales.

En este apartado vamos a describir los campos de Jacobi que corresponden a variaciones de
una geodésica por una familia de geodésicas que parten del mismo punto.
Sean M una variedad riemanniana de dimensión n, p ∈ M y ξ : I −→ Tp M una curva en Tp M
tal que |ξ(s)| = 1 (i.e. ξ(s) está en una esfera de Tp M).
Definimos α(t, s) = expp t ξ(s), siendo α : D ⊂ R2 −→ M, con D un abierto.
-Para cada s = s0 fijo, tenemos una curva en M de la forma

α(t, s0 ) = expp t ξ(s0 )

que, por la definicion de la exponencial, es una geodésica α(t, s0 ) = γ(t) tal que

γ(0) = α(0, s0 ) = expp 0 = p γ 0 (0) = expp∗0 ξ(s0 ) = ξ(s0 )

-Para cada t = t0 fijo, tenemos una curva en M de la forma

α(t0 , s) = expp t0 ξ(s).

que, por la definicion de la exponencial, su valor en t0 = 0 es

α(0, s) = expp 0 = p.

y, por la definición de esfera geodésica, es una curva en la esfera geodésica de radio t0 .

80
12.1 Campos de Jacobi 81

∂α
III.9 Proposición 12.3. Y (t) = (t, 0) es el único campo de Jacobi a lo largo de γ(t) = expp tξ(0)
0
∂s 0
que verifica Y (0) = 0 y Y (0) = ξ (0).
Demostración. Que Y (t) es un campo de Jacobi resulta del cálculo directo de la segunda derivada
covariante:
∇2 Y ∇ ∇ ∂α ∇ ∇ ∂α
2
= =
dt dt dt ∂s dt ds ∂t
∂α ∂α ∂α ∇ ∇ ∂α ∂α ∂α ∂α
= −R( , ) + = −R( , ) ,
∂t ∂s ∂t ds dt ∂t ∂t ∂s ∂t
donde hemos usado en la última igualdad que t 7→ α(t, s) es una geodésica.
Las condiciones iniciales que verifica Y se obtienen calculando directamente a partir de la
definicion de Y (t)
∂α ∂α
Y (0) = (0, 0) = {curva s 7−→ α(0, s) = expp 0 = p} t=0 = 0
∂s ∂s

∇Y (t) ∇ ∂α
Y 0 (0) = Y 0 (t) t=0 =

=
dt t=0 dt ∂s (0,0)
∇ ∇
= (expp∗tξ(s) t ξ 0 (s) s=0 ) t=0 = (expp∗tξ(0) tξ 0 (0)) t=0

dt dt
0 ∇
(expp∗tξ(0) ξ 0 (0))) t=0 = ξ 0 (0).

= (expp∗tξ(0) ξ (0) + t
dt
Que Y (t) sea el único campo de Jacobi verificando estas condiciones iniciales es consecuencia
del teorema de unicidad de soluciones de ecuaciones diferenciales aplicado a la EDO (12.1).
Corolario 12.4. En un sistema de coordenadas geodésicas esféricas ϕ : Br0 (p) −→]0, r0 [×S n−1
definido sobre una bola geodésica Br0 (p) de M, los campos vectoriales Y (t) = ϕ−1 ∗ (t X ), para
X ∈ Tu S n−1 , u ∈ Tp M, |u| = 1 son los campos de Jacobi a lo largo de la geodésica expp t u que
verifican Y (0) = 0 y Y 0 (0) = X .
Demostración. Recordemos que las coordenadas geodésicas esféricas se definían, por ϕ(expp t u =
(t, u) para cada u ∈ S n−1 ⊂ Tp M. Si X ∈ Tu S n−1 , existe una curva ξ(s) en S n−1 tal que ξ(0) = u
y ξ 0 (0) = X , y se tiene que
d
ϕ−1
∗ (t X ) = |s=0 expp t ξ(s)
ds
que es el campo vectorial de la Proposición 12.3.
Resulta de este corolario y de la Proposición 8.19 que la expresión de la métrica en coorde-
nadas esféricas es, esencialmente, la expresión de la métrica usando campos de Jacobi a lo largo
de una geodésica. Dicho de otro modo:
mceJ Proposición 12.5. Sea U un abierto sobre el que exp−1 p está bien definida y es un difeomorfis-
n−1 n−1
mo. Sean v ∈ S ⊂ Tp M y E2 , ..., En una base ortonormal de TP
vS . A lo largo de la geodésica
n
expp tv la métrica de M se puede escribir de la forma dt + i,j=2 hYi (t), Yj (t)i η i (t) ⊗ η j (t),
2

donde Yi (t) es el campo de Jacobi que verifica Yi (0) = 0, Yi0 (0) = Ei (o, lo que es lo mismo,
Yi (t) = ϕ−1∗ (t Ei ), siendo ϕ el sistema de coordenadas geodésicas esféricas centrado en p) y
2 n
η , ..., η es la base dual de Y2 , ..., Yn .
CJp0 Corolario 12.6. Todos los campos de Jacobi a lo largo de la geodésica γ(t) = expp t v que se
anulan en p son de la forma expp∗tv t u, donde u ∈ Tp M.

81
82 Campos de Jacobi

Demostración. Dado un u ∈ Tp M, podemos descomponer u = u1 + u2 , con u1 = hu, v i v y u2 ⊥v .


De acuerdo con las proposiciones anteriores, tenemos que Y1 (t) = t hu1 , v i γ 0 (t) = expp∗tv t u1
y Y2 (t) = expp∗tv t u2 son un campo de Jacobi que verifican Y1 (0) = 0 = Y2 (0), Y10 (0) = u1 ,
Y20 (0) = u2 . Por la linealidad de la ecuación (12.1) y por el teorema de unicidad de soluciones de
(12.1), se tiene que Y (t) = Y1 (t) + Y2 (t) = expp∗tv t (u1 + u2 ) es el único campo de Jacobi con
Y (0) = 0 y Y 0 (0) = u.
CJdf Corolario 12.7. Los campos de Jacobi a lo largo de una geodésica γ(t) que se anulan en γ(0)
forman un espacio vectorial de dimensión n.
Demostración. Sea {e1 = γ 0 (0), e2 , ..., en } una base Tp M. Para todo u ∈ Tp M, u = ni=1 u i ei ,
P
P de
de modo que el campo de Jacobi expp∗tv t u = u i expp∗tv t ei es una combinación lineal con
coeficientes reales de los campos de Jacobi Yi (t) = expp∗tv t ei , i = 1, ..., n, y, como expp es
un difeomorfismo en un entorno de 0, para t suficientemente pequeño se tiene que los vectores
Yi (t) son l.i., luego son una base del espacio de los campos de Jacobi a lo largo de la geodésica
t 7→ expp t v
CJpp Corolario 12.8. Sea U ⊂ M un abierto dominio de un sistema de coordenadas normales en p.
Sean q ∈ U (lo que implica que existe v ∈ Tp M, |v | = 1 y r > 0 tal que q = expp rv ) y u ∈ Tq M .
Existe un único campo de Jacobi Y (t) a lo largo de γ(t) = expp tv tal que Y (0) = 0 y Y (r ) = u.
Demostración. Por el corolario anterior, el campo de Jacobi ha de tener la forma expp∗tv t w , y para
t
que su valor en t = r sea u, se ha de cumplir r w = exp−1
p∗rv u, por lo tanto Y (t) = expp∗tv exp−1
p∗rv u
r
es el (único) campo de Jacobi buscado.
Ejemplo 12.9. En Rn con la métrica euclídea, los campos de Jacobi a lo largo de la recta p + tv
que se anulan en p y son ortogonales a la recta son de la forma tw , donde w es un vector unitario
ortogonal a v .
La siguiente proposición, junto con la interpretación de los campos de Jacobi a lo largo de
una geodésica, que se anulan en el origen de la geodésica y tienen derivada covariante en
el origen ortogonal a la geodésica (y junto con el corolario anterior si se quiere afinar más),
permite interpretar la curvatura seccional como una medida de la veolcidad de alejamiento de las
geodésicas entre sí.
Proposición 12.10. Sea γ : [0, L] −→ M una geodésica de M parametrizada respecto de su
longitud de arco que verifica γ(0) = p ∈ M, γ 0 (0) = v ∈ Tp M. Sea w ∈ S n−1 ⊂ Tp M y Y (t) el
campo de Jacobi a lo largo de gamma que verifica Y (0) = 0, Y 0 (0) = w . Sea Π el plano vectorial
de Tp M generado por los vectores v y w . Se tiene el siguiente desarrollo de Taylor de |Y (t)|
1
|Y (t)| = t(1 − SecΠ t 2 + O(2)) (12.2) vag
6
Demostración. Si calculamos teniendo en cuenta las condiciones iniciales que verifica Y y la
ecuación (12.1), tenemos
hY , Y i (0) = 0, hY , Y i0 (0) = 2 hY , Y 0 i (0) = 0,
hY , Y i00 (0) = 2 hY , Y 00 i (0) + 2 hY 0 , Y 0 i (0) = 2 hw , w i = 2
hY , Y i000 (0) = 2 hY , Y 000 i (0) + 6 hY 0 , Y 00 i (0) = 6 h−R(v , Y (0))v , Y (0)i = 0
hY , Y i0000 (0) = 2 hY , Y 0000 i (0) + 8 hY 0 , Y 000 i (0) + 6|Y 00 |2
= 8 hw , −∇v (R(v , Y (t))v )i + 8 h−R(v , Y (0))v , Y (0)i
= 8 −(∇v R)(v , 0, v ) + R(∇0γ γ 0 , 0)v + R(v , Y 0 (0))v + R(v , 0)∇0γ γ 0 , w

= 8 hR(v , w )v , w i .

82
12.2 Puntos conjugados, puntos de corte y campos de Jacobi 83

de donde
1
|Y 0 |2 = t 2 + secΠ t 4 + O(4)
3
Para concluir (12.2) a partir de aquí, hagamos un inciso sobre desarrollos de Taylor. Si f = a+b t +
c t 2 +d t 3 +`t 4 +..., entonces f 2 = a2 +2ab t +(b 2 +2ac)t 2 +(2ad +2bc)t 3 +(2a`+2bd +c 2 )t 4 +....
Ahora bien, si f = |Y 0 |, en la expresión para |Y 0 |2 tenemos a2 = 0, ab = 0, b 2 +2ac = 1, 2ad +2bc =
0, 2a` + 2bd + c 2 = 1/3, de donde a = 0, b = ±1, c = 0, 2d = ∓1/3, lo que da para |Y 0 (t)|

1
|Y 0 (t)| = ±t ∓ secΠ t 3 + O(3)
6

y, como |Y (t)| > 0 para t pequeño, la elección del signo ± en la fórmula anterior ha de ser +,
que coincide con la expresión (12.2).

12.2. Puntos conjugados, puntos de corte y campos de Jacobi


En esta sección vamos a relacionar las singularidades de la aplicación exponencial con los
campos de Jacobi.

Definición 12.11. Sea γ una geodésica de M. El punto γ(t0 ) se dice que es conjugado de γ(0)
a lo largo de γ si existe un campo de Jacobi Y a lo largo de γ no identicamente nulo tal que
Y (0) = 0, Y (t0 ) = 0. Se llama multiplicidad del punto conjugado al número de campos vectoriales
de Jacobi linealmente independientes que verifican Y (0) = 0 = Y (t0 ).

Obsérvese que si γ(t0 ) es conjugado de γ(0), también γ(0) es conjugado de γ(t0 ), con la misma
multiplicidad.
Del Corolario 12.7 se deduce que la multiplicidad de un punto conjugado es menor o igual que
la dimensión de la variedad.

Definición 12.12. Dada una aplicación diferenciable f : M −→ N entre variedades de la


misma dimensión, se dice que p ∈ M es un punto crítico de f si f∗p no es un isomorfismo.

Proposición 12.13. Sea γ : [0, L] −→ M una geodésica que parte de p (i.e. γ(0) = p). El punto
q = γ(t0 ) es conjugado a lo largo de γ si y solo sí v0 = t0 γ 0 (0) es un punto crítico de expp . En
este caso la multiplicidad de q como punto conjugado de p es igual a la dimensión de ker expp∗v0 .

Demostración. Por ser γ(t0 ) un punto conjugado de γ(0) a lo largo de γ, existe un campo de Jacobi
no identicamente nulo (por lo tanto con w = J 0 (0) 6= 0), J(t) = expp∗tv t J 0 (0), a lo largo de γ tal
que 0 = J(0) = J(t0 ) = expp∗t0 v t0 J 0 (0), luego J 0 (0) ∈ ker expp∗v0 . Recíprocamente, si ker expp∗v0
es no nulo, sea w1 , ..., wk una base de este espacio. Entonces Ji (t) = expp∗t0 v t0 wi son campos de
Jacobi linealmente independientes que se anulan en t = 0 y en t = t0 . Esto prueba, además, la
igualdad de la multiplicidad del punto singular con la dimensión de ker expp∗v0 .

Resulta de esto que los puntos conjugados de p a lo largo de una geodésica son los puntos
de esa geodésica en los que expp deja de ser un difeomorfismo local. Por lo tanto, es un límite
antes del cual expp deja de ser un difeomorfismo.

Nota 12.14. Comentario sobre las wiedersehen n-manifolds.

83
84 Campos de Jacobi

12.3. Teorema de Cartan de determinación de la métrica por la


curvatura
La curvatura no determina la métrica. Es decir, puede ocurrir que exista un difeomorfimso f :
M −→ N entre dos variedades riemannianas de la misma dimensión tales que R N (f∗ X , f∗ Y )f∗ Z =
f∗ R(X , Y )Z y, sin embargo, hf∗ X , f∗ Y i =
6 hX , Y i. Puede verse un ejemplo en el libro de Spivak o en
mis apuntes de Geometría III. Sin embargo, Cartan ideó un modo de establecer la correspondencia
de puntos y curvaturas con el que el teorema es cierto. Veamos cual es.
Sean p ∈ M, q ∈ N, y sea i : Tp M −→ Tq N una isometría de espacios vectoriales. Sean U
y V entornos de p y q respectivamente tales que f : U −→ V definida por f = expq ◦i ◦ exp−1 p
sea un difeomorfismo. Denotemos por PM y PN los transportes paralelos de 0 a t a lo largo de
las geodésicas γM (t) = expp tv y γN (t) = expq t i(v ) en M y N respectivamente. Definimos la
siguiente aplicación entre los vectores tangentes a M y N dentro de los abiertos U y V .

ϕ :Texpp t v M −→ Texpq t i(v ) N


−1
X 7−→ PNt ◦ i ◦ PM
t X (12.3) phidef

Obsérvese que, para cada valor de t, ϕ es lineal e isometría por se composición de isometrías
de espacios vectoriales. Probaremos

Teorema 12.15 (de Cartan). Si para cualesquiera X , Y vectores tangente a M en el abierto


U se tiene que
N M
Rϕ(X )ϕ(Y )ϕ(X )ϕ(Y ) = RXYXY , (12.4) cC

entonces f : U −→ V es una isometría y f∗p = i.

Demostración. Sea JM (t) el campo de Jacobi a lo largo de expp tv que verifica JM (0) = 0 y
t
JM (t0 ) = PM
t0 X , que por el Corolario 12.8 es JM (t) = expp∗tv exp−1
p∗t0 v Pt0 X y verifica
t0

0 1
JM (0) = exp−1
p∗t0 v Pt0 X . (12.5) JMp
t0

Sea JN (t) = ϕ(JM (t)) el campo vectorial a lo largo de expq t i(v ) imagen por ϕ de J(t). Como ϕ
es una isometría de Texpp t v M sobre Texpq t i(v ) N, se tiene |JN (t)| = |JM (t)|.
Vamos a calcular ahora JN00 (t). Para ello consideremos una referencia local ortonormal {ei }
paralela a lo largo de la geodésica expp tv , con
P e1 (t) el vector unitario tangente a la geodésica.
En esta referencia se puede escribir JM (t) = ni=1 J i (t)ei . Entonces JN (t) = ni=1 J i (t)ϕ(ei ). Pero
P

−1
ϕ(ei (t)) = PNt ◦ i ◦ PM
t ei (t) = PNt ◦ i(ei (0)) =: e i (t), (12.6) gmgn

y {e i (t)} es una referencia local ortonormal de N paralela a lo largo de la geodésica expq ti(v )
con e 1 (t) vector tangente a la geodésica expq ti(v ). Se tiene por lo tanto -por cumplirse (12.4) y
0
también que ϕ(γM (t)) = γN0 (t) (que es la expresión (12.6) cuando i = 1)- que:
n n
!
X X
00 i 00
JN (t) = (J ) (t)e i (t) = ϕ (J i )00 (t)ei (t) 00
= ϕ(JM (t))
i=1 i=1
0 0
= −ϕ(R M
(γM (t), JM (t))γM (t)) = −R N ((γN0 (t), JN (t))γN0 (t)),

84
12.3 Teorema de Cartan de determinación de la métrica por la curvatura 85

luego JN (t) es el campo de Jacobi a lo largo de expq t i(v ) que se anula en 0 y JN (t0 ) = ϕ(JM (t0 )), y,
por el Corolario 12.6, es de la forma JN (t) = expq∗t i(v ) tJN0 (0) = expq∗t i(v ) tϕ(JN0 (0)). Si calculamos
ahora f∗ expp (t0 v ) Pt0 X , tenemos, usando (12.5),

f∗ expp (t0 v ) JM (t0 ) = f∗ expp (t0 v ) Pt X = (expq ◦i ◦ exp−1


p )∗ expp (t0 v ) Pt0 X
0
= expq∗t0 i(v ) ◦i(t0 JM (0)) = expq∗t0 i(v ) (t0 JN0 (0)) = JN (t0 ).

Y, como |JM (t0 | = |JN (t0 |, se tiene que f es una isometría.

Corolario 12.16. Dos variedades riemannianas de la misma dimensión y la misma curvatura


seccional constante son localmente isométricas.

Demostración. Si X e Y están en la misma dirección, (12.4) se verifica de forma trivial. Si X e


Y son l.i., como ϕ es una isometría A(X , Y ) = A(ϕ(X ), ϕ(Y )) y, como las curvaturas seccionales
N N M M
son la misma, se tiene: Rϕ(X )ϕ(Y )ϕ(X )ϕ(Y ) = secϕ(X ),ϕ(Y ) A(ϕ(X ), ϕ(Y )) = secXY A(X , Y ) = RXYXY ,
luego se cumple la condición (12.4) y, por lo tanto, M y N son localmente isométricas.

85
Capítulo 13
A partir de este capítulo sólo consideramos variedades riemannianas. La teoría para las varie-
dades pseudo-riemannianas es muy distinta.

13.1. Las variedades riemannianas como espacios métricos


Definición 13.1. Una curva contínua c : [a, b] −→ M se dice que es una curva diferenciable a
trozos si existe una partición a = t0 < t1 < .... < tk < tk+l = b de [a, b] tal que c :]ti , ti+1 [−→ M
Xk Z ti+1
es diferenciable. Se define la longitud de una tal curva c por: L(c) = |c 0 (t)|dt
i=0 ti

Proposición 13.2. Sea M una variedad diferenciable conexa. Dos puntos cualesquiera de M
pueden unirse por una curva diferenciable a trozos.
Demostración. : Toda variedad diferenciable es localmente arco-conexa, luego, si M es conexa,
entonces M es arco-conexa. Por tanto, dados p, q ∈ M, existe una curva continua c : [a, b] −→ M
tal que c(a) = p, c(b) = q. Para cada t ∈ [a, b] existe un sistema de coordenadas (Ut , ϕt ) en c(t)
tal que ϕt (Ut ) es un conjunto convexo en Rn (en efecto, basta tomar ϕt (Ut ) como una bola abierta
de centro O). La familia {c −1 (Ut )}t∈[a,b] es un recubrimiento abierto del espacio métrico compacto
[a,b]. Sea δ el número de Lebesgue del recubrimiento, y sea n tal que (b − a)/n < δ. Consideremos
una partición de [a,b] en los subintervalos [t0 , t1 ], ...., [tn−1 , tn ] con t0 = a, ti = ti−1 + (b − a)/n,
tn = b. Sea ϕi (Ui ) un abierto de la familia {ϕt (Ut )}t∈[a,b] tal que c[ti−1 , ti ] ⊂ Ui . Como ϕi (Ui ) es
convexo, existe una recta αi : [ti−1 , ti ] −→ ϕi (Ui ) tal que αi (ti−1 ) = ϕi ◦ c(ti−1 ) y αi (ti ) = ϕi ◦ c(ti ).
Definamos α : [a, b] −→ M por α|[ti−1 ,ti ] = αi . Entonces α es una curva continua que sobre cada
intervalo ]ti−1 , ti [ es diferenciable y α(a) = p y α(b) = q.
DDI Definición 13.3. Dada una superficie conexa M de Rn , se llama distancia (intrínseca) de M a
la aplicación d : M × M −→ R+ definida por

d(p, q) = ı́nf{L(c)/c : I −→ M curva diferenciable a trozos uniendo p con q}.

Al definir la distancia se ha escrito el ínfimo y no el mínimo porque este puede no alcanzarse,


como lo muestra el ejemplo del plano agujereado
IV.7 Proposición 13.4. Una isometría f : M −→ M 0 conserva la distancia intrínseca.
Demostración. Sean p, q ∈ M, y

C (p, q) = {curvas diferenciables a trozos en M que unen p con q}.

Sea C (f (p), f (q)) definida de modo análogo. Sea e la aplicación e : C (p, q) −→ C (f (p), f (q))
dada por e c (t) = f ◦ c(t), la cual tiene una inversa ec = f −1 ◦ c, luego e es una biyección. Sean
d y d 0 las distancias intrínsecas en M y M 0 respectivamente. Se tiene que, si f es una isometría,
L(c) = L(f ◦ c), luego d 0 (f (p), f (q)) = ı́nf{L(α); α ∈ C (f (p), f (q))} = ı́nf{L(foc), c ∈ C (p, q)} =
ı́nf{L(c), c ∈ C (p, q)} = d(p, q).

86
13.1 Las variedades riemannianas como espacios métricos 87

IV.68 Proposición 13.5 (Propiedad minimizante de las geodésicas). : Sean p ∈ M, ε > r > 0 tales
que expp es un difeomorfismo sobre Bε(0) y sea Br (p) = expp (Br (0)). Sea γ : [0, `] −→ Br (p)
una geodésica de M con γ(0) = p. Sea t1 ∈ [O, `] y c : [0, t1 ] −→ M una curva diferenciable
tal que c(0) = p, c(t1 ) = q = γ(t1 ). Entonces Lt01 (γ) ≤ L(c) y si se da la igualdad entonces
γ([0, t1 ]) = c([0, t1 ]).

Demostración. La idea para la demostración será usar coordenadas geodésicas polares en p para
calcular la longitud de la curva c. Consideraremos los casos:
(a) c(]0, t1 ]) ⊂ Br (p) − {p}. Como expp es un difeomorfismo sobre el abierto Br (0), podemos
escribir, para t > 0, c(t) = expp r (t)u(t), con r y u funciones diferenciables con valores en R+
y S n−1 ⊂ Tp M respectivamente. Podemos descomponer c 0 (t) = expp∗ r 0 (t)u(t) + expp∗ r (t)u 0 (t).
El primer vector es tangente a la geodésica en la dirección de u(t), y, por el lema de Gauss, el
segundo es ortogonal a ella. Por lo tanto

|c 0 (t)|2 = | expp∗ r 0 (t)u(t)|2 + | expp∗ r (t)u 0 (t)|2


≥ | expp∗ r 0 (t)u(t)|2 = |r 0 (t)|2 ,

de donde
Z t1 Z t1
0
L(c) = |c (t)|dt ≥ |r 0 (t)|dt
Z0 t1 0

≥ r 0 (t)dt = r (t1 ) − r (0) = L(γ).


0

Si se da la igualdad ha de cumplirse |r 0 (t)| = r 0 (t) y expp∗ r (t)u 0 (t) = 0. La segunda igualdad


obliga a que c(t) describa la trayectoria de una geodésica, y la primera a que no se pueda volver
atrás en ningún momento al describirla.
(b) c([0, t1 ]) ⊂ Br (p), pero c −1 (p) contiene más elementos además del 0. Sea t 0 = sup{t ∈
[O, t1 ]/c(t) = p}. Como c es contínua, c(t 0 ) = p, y como c(t1 ) = q, se sigue que t 0 < t1 .
Consideremos la curva c : [t 0 , t1 ] −→ M definida por c = c1 |[t 0 ,t1 , la cual verifica c −1 (p) = {t 0 }
y, por lo tanto, se le puede aplicar el razonamiento del caso 1 ), de modo que se tiene que
L(c) ≥ L(γ) y L(c) = L(γ) si y solo si c([t 0 , t1 ]) = γ([0, t1]). Como consecuencia de esto resulta
que L(c) ≥ L(c) ≥ L(γ) y L(c) = L(γ) sii L(c) = L(c) y L(c) = L(γ). La primera de estas
igualdades implica L(c|[0,t 0 ] ) = 0, i.e. c 0 (t) = 0 para 0 < t < t 0 y, por lo tanto, c([0, t 0 ]) = p, lo que
da c([0, t1 ]) = c([t 0 , t1 ]) = γ([0, t1 ]).
(c) c([0, t1 ]) 6⊂ Br (p). Sea t0 = sup{t ∈ [0, t1 ]/c([0, t]) ∈ Br (p)}. Como Br (p) = expp (Br (0)), se
tiene que c(t0 ) ∈ Sr (p) = expp (Sr (0)) (en efecto, por definición de t0 , exp−1 p c([0, t0 [) ∈ Br (O), luego
−1 −1
expp c([O, t0 [) ⊂ Br (0); si expp c(t0 ) ∈ / Sr (0), entonces existiría un η > 0 tal que exp−1 p c([t0 −
η, t0 + η]) ⊂ Br (0), en contra de que t0 es el supremo). Como Br (0) ⊂ Bε (0), se tiene que se puede
aplicar los resultados de 1) y 2) a c([0, t0 ]) ⊂ expp Bε (0) del siguiente modo: sea γ e una geodésica
radial uniendo p con c(t0 ) ∈ expp Sr (0). Entonces L(e γ ) = r > L(γ), y los razonamientos de 1) y 2)
para este caso dan L(c) ≥ Lt00 (c) ≥ L(e γ ) = r > L(γ).

El teorema anterior nos muestra que las geodésicas verifican una propiedad análoga a la de
las rectas en el espacio euclídeo; definen la distancia más corta entre dos puntos de la variedad.
Sin embargo esta propiedad no es cierta globalmente. En efecto: en una esfera, dados dos puntos
no opuestos hay dos trozos de geodésica que unen tales puntos, que dan dos geodésicas distintas,
una de mayor longitud que la otra, uniendo los dos puntos.

Nota 13.6. Obsérvese que 13.5 es válida también cuando c es diferenciable a trozos solamente.
En efecto, esto únicamente obliga a calcular L(c) haciendo una división del intervalo ]0, t1 ] en

87
88 Las variedades riemannianas como espacios métricos y su topología

mayor número de subintervalos, de modo que en los extremos de algunos de estos subintervalos
c 0 (t) no estaría definida, pero en estos subintervalos [ti , ti+1 ] se tiene:
Z ti+1 −ε Z ti+1 −ε
0
L(c|[ti ,ti+1 ] ) = lı́m |c (t)|dt ≥ lı́m |r 0 (t)|dt
ε→0 t +ε ε→0 ti +ε
Z i ti+1 −ε
≥ lı́m r 0 (t)dt = r (ti+1 ) − r (ti ).
ε→0 ti +ε

El resto del argumento es igual que en la proposición anterior.

IV.77 Corolario 13.7. Sea c : [0, `] −→ M una curva regular y C k a trozos tal que en cada arco
regular el parámetro es proporcional a la longitud de arco. Si la longitud de c es menor o igual
que la longitud de cualquier otra curva que une c(0) con c(`), entonces c es una geodésica. En
particular, c es regular en todos sus puntos.

Demostración. Sea t0 ∈ I arbitrario y Br (p) un entorno de p = c(t0 ) como el dado en 13.5.


Sea q = c(t1 ) ∈ Br (p). Por 13.5 se tiene que existe una geodésica γ : [t0 , t1] −→ W tal que
γ(t0 ) = p, γ(t1 ) = q y que verifica L(γ) ≤ L(c|[t0 ,t1 ] ). Pero, por hipótesis, L(c|[t0 ,t1 ] ) ≤ L(γ), luego
L(c|[t0 ,t1 ] ) = L(γ) y, de nuevo por 13.5, c([t0 , t1 ]) = γ([t0 , t1 ]). Como c está parametrizada por la
longitud de arco, c es un geodésica en ]t0 , t1 [. Como c es regular, por continuidad, es geodes1ca
tamb1en en t0 .

13.2. Topología de la distancia intrínseca


em Proposición 13.8. La distancia definida en 13.3 convierte a una variedad riemanniana (M, g )
es un espacio métrico en el sentido estudiado en topología.

Demostración. Bastará con comprobar que la distancia d definida en 13.3 cumple los axiomas de
una función distancia.
1) d(p, q) ≥ 0: consecuencia de que el ínfimo de números reales positivos es mayor o igual
que cero.
2) d(p, q) = d(q, p): consecuencia de que para cada curva parametrizada c : [a, b] −→ M con
c(a) = p, c(b) = q existe otra c : [a, b] −→ M definida por c(t) = c(a − t + b) que verifica
c(a) = q, c(b) = p y L(c) = L(c).
3) d(p, q) + d(q, r ) ≥ d(p, r ): consecuencia de que si A ⊂ B ⊂ R, entonces ı́nf(A) ≥ ı́nf(B).
En efecto: Dadas α : [a, b] −→ M, β : [c, d] −→ M contínuas y diferenciables a trozos tales que
α(a) = p, α(b) = q = β(c), β(d) = r , la curva α ∗ β : [a, b + d − c] −→ M definida por
(
α(t) si t ∈ [a, b]
α ∗ β(t) = (13.1) compc
β(t − b + c) si t ∈ [b, b + d − c]

es contínua (por serlo en cada uno de los intervalos cerrados y coincidir en la intersección) y
diferenciable a trozos y verifica α∗β(a) = α(a) = p y α∗β(b+d −c) = β(d) = r . Se tiene entonces
que L(α ∗β) = L(α)+L(β) y que: d(p, q)+d(q, r ) = ı́nf{L(α)/α : p q}+ı́nf{L(β)/β : q r} =
ı́nf{L(α)+L(β)/α : p q, β : q r } = ı́nf{L(α∗β)/α : p q, β : q r } ≥ ı́nf{L(c)/c : p r}
= d(p, r ).
4) d(p, q) = 0 si y solo si p = q. Consecuencia de que d(p, q) ≥ d e (p, q), luego d(p, q) = 0
implica d e (p, q) = 0, luego p = q. Reciprocamente, si p = q, la curva constante c : [a, b] −→
M/c(t) = p tiene longitucf cero y, por lo tanto, d(p, p) = 0.

88
13.2 Topología de la distancia intrínseca 89

Nota 13.9. Como consecuencia de 13.5 y 13.8, las bolas y esferas geodésicas de radio pequeño
son también bolas y esferas en el sentido de la definición que se da de las mismas en un espacio
métrico.
Proposición 13.10. La topología inducida en una variedad riemanniana (M.g ) por la distancia
intrínseca coincide con la topología natural inducida por su estructura diferenciable.
Demostración. Dados los puntos p, q ∈ M, sea d e (p, q) la distancia euclídea en Rn+k y d(p, q) la
distancia intrínseca en M. La topologia de M como subespacio topológico de Rn+k es la topología
T de inducida sobre M por la métrica d e . Denotemos por T 0 la topología inducida sobre M por
la distancia intrínseca d. Sea Bre (p) (respectivamente Br (p)) la bola de centro p y radio r para
la distancia d e (resp. d). Para r0 > 0 tal que expp : Br0 (O) −→ Br0 (p) sea un difeomorfismo,
{Br (p) = expp Br (O)}|r <r0 es una base de entornos de p en (M, d), y {Br (p)}r ≤r0 una base de
entornos de p en (M, d e ). Como d e (p, q) ≤ d(p, q), se tiene que Br (p) ⊂ Bre (p), luego Td ⊃ Td e ·
Además, como expp |Br (0) es un difeomorfismo, Br (p) es un abierto de M en Td e , luego existe ε > 0,
ε < r , tal que Bεe (0) ⊂ Br (p), luego Td e ⊃ Td ·
IV.74 Lema 13.11 (de J. Lozano). Sea I un intervalo abierto, c : I −→ M una curva diferenciable,
t0 ∈ I , se verifica que
d(c(t), c(t0 ))
|c 0 (t0 )| = lı́m (13.2)
t→t0 t − t0
Demostración. Sea δ > 0 tal que expc(t0 ) : Bδ (0) −→ U es un difeomorfismo, y sea ε > 0 tal que
c(]t0 − ε, t0 + ε[) ⊂ expc(t0 ) (Bδ (0)) = U. Entonces, para t ∈]t0 − ε, t0 + ε[, c(t) = exp−1
p (c(t)) es
una curva en Tp M (p = c(t0 )) que verifica c(t0 ) = 0. Se puede calcular entonces el límite

d(c(t), c(t0 )) d(expp c(t), expp c(t0 )) d(expp c(t), expp 0)


lı́m = lı́m = lı́m
t→t0 |t − t0 | t→t0 |t − t0 | t→t0 |t − t0 |
1
Ls=0 (expp sc(t)) |c(t)| |c(t) − c(t0 )|
|por 13.5| = lı́m = lı́m = lı́m
t→t0 |t − t0 | t→t0 |t − t0 | t→t0 |t − t0 |
d expp c(t)
= |c 0 (t0 )| = | exp∗0 c 0 (t0 )| = | |t=t0 = |c 0 (t0 )|.
dt

Teorema 13.12 (recíproco de la Proposición 13.4, versión de J. Lozano). Sea f : M −→ N una


aplicación diferenciable y suprayectiva entre dos superficies. Si f conserva la distancia intrínseca,
entonces f es una isometría en el sentido de la Definición 6.24
Demostración. Si f conserva la distancia intrínseca, entonces es inyectiva ( p 6= q implica d(p, q) 6=
0, luego d(f (p), f (q)) 6= 0 y, por tanto, f (p) 6= f (q). Por tanto, solo queda probar que para todo
p ∈ M , f∗p es una isometría entre espacios vectoriales euclídeos, lo que equivale a que, para todo
X ∈ Tp M, |f∗p X | = |X |. Para probar esto, sea c :] − ε, ε[−→ M una curva regular tal que c(0) = p
y c 0 (0) = X . Entonces, utilizando 13.11 y el hecho de que f conserva la distancia intrínseca,
resulta:
d(f ◦ c(t), f ◦ c(O) d(c(t), c(0)
|f∗p X | = |(f ◦ c)0 (0)| = lı́m = lı́m = |c 0 (0)| = |X |. (13.3)
t→0 |t| t→0 |t|
Por tanto f∗p es una isometría entre espacios vectoriales y, lo tanto, también es un isomorfismo.
Por el teorema de la función inversa f es un difeomorfismo local y como es biyectiva, f es un
difeomorfismo.

89
Capítulo 14

14.1. Variedades completas.


Las propiedades globales de una variedad son aquellas que se refieren a toda la variedad y no
solo a un trozo de ella. Este lenguaje, sin embargo, resulta demasiado impreciso: ¿qué es “toda la
variedad”?, ¿qué es un “trozo de variedad”?. Dada una variedad M, un abierto U de M es también
una variedad, U podría considerarse como “toda la variedad U”o como un “trozo de la variedad
M”. Por tanto, el objeto de la geometría global puede quedar sin sentido si no se precisa lo que
se entiende por “toda la variedad”. A ello dedicamos esta clase.

V.1 Definición 14.1. : Una variedad conexa M se dice no extendible si no es un abierto propio de
otra variedad conexa. En caso contrario se dice extendible.

Un abierto del plano o la esfera son ejemplos de superficies extendibles. La esfera o el plano
son ejemplos de superficie no extendibles (como veremos más adelante).
Una condición general para asegurar la no extendibilidad de una variedad es la compacidad.
Pero una condición como esta no incluye una variedad tan interesante como es Rn . Por ello vamos
a dar una definición más general.

V.2 Definición 14.2. Una variedad semi-riemanniana conexa M se dice que es geodésicamente
completa si, para todo p ∈ M, la aplicación exponencial expp está definida sobre todo Tp M

Nota 14.3. Obérvese que “expp está definida sobre todo Tp M” es equivalente a “las geodésicas
parametrizadas respecto de su longitud de arco, γ(t), que parten de p están definidas para todo
t ∈ R.
En efecto, si γ es una geodésica, γ(t) = expp tX , X ∈ Tp M, y si expp está definida sobre todo
Tp M entonces γ(t) está definida para todo t ∈ R. Recíprocamente, si toda geodésica está definida
para todo t ∈ R, entonces para todo p ∈ M y todo X ∈ Tp M, si γ es la geodésica que pasa por p
con vector tangente X /|X |, entonces expp X = γ(|X |) está bien definida.

Esta definición está motivada (para las variedades riemannianas) por la posibilidad de reali-
zar"por geodésicas la distancia entre dos puntos, como ocurre en el plano con las rectas. Obsérvese
que, para que tenga sentido la definición anterior, que se da en términos de geodésicas, es esencial
que intervenga la parametrización en la definición de geodésica.

V.3 Proposición 14.4. Una variedad riemanniana geodésicamente completa M es no extendible.

Demostración. Supongamos que M es un abierto propio de una variedad riemanniana conexa


conexa M 0 .
Entonces FrM 6= ∅, ya que si FrM = ∅, M = M, con lo cual M sería un conjunto no vacío
abierto y cerrado en M 0 , que es conexo, luego M = M 0 , en contra de la hipótesis.
Sea p ∈ FrM y U 0 ⊂ M 0 un entorno de p en M 0 imagen difeomorfa por expp de un conjunto
estrellado. Sea q ∈ U ∩ M (que existe por ser p ∈ FrM y U 0 abierto) y c : [0, 1] −→ U 0 ⊂ M 0 una
geodésica de M 0 con c(0) = p, c(1) = q. Definimos γ : [0, 1] −→ U 0 por γ(t) = c(1 − t). Entonces

90
14.2 Teorema de Hopf-Rinow 91

γ(0) = q ∈ M, y γ(1) = p ∈ FrM. Como M es un abierto de M 0 y γ es contínua, existe un ε > 0


tal que γ|[0,ε[ es una geodésica de M. Si existe una extensión γ de γ|[0,ε[ definida sobre R que
es una geodésica de M, entonces γ es también una geodésica de M’ y, por la unicidad de las
geodésicas, γ|[0,1] = γ, absurdo puesto que γ(1) = p ∈ FrM = M − M.

V.4 Nota 14.5. El recíproco de 14.4 no es cierto: el cono sin el vértice es una superficie no exten-
dible y no completa. Se puede ver la demostración en el libro de do Carmo de curvas y superficies
pp. 327-328 (versión en inglés).

14.2. Teorema de Hopf-Rinow


Lo que hace geométricamente interesantes a las variedades geodésicamente completas es el
siguiente:

V.5 Teorema 14.6. [de Hopf-Rinow] Sea M una Riemanniana conexa. Son equivalentes:
a) Existe un punto p ∈ M tal que expp está definida sobre todo Tp M.
b) Los subconjuntos cerrados y acotados de M son compactos.
c) M con la distancia definida en 13.3 es un espacio métrico completo.
d) M es geodésicamente completa.
e) Existe una sucesión creciente de compactos {Kn }∞ n=1 de M (creciente quiere decir que

Kn ⊂ Kn+1 que recubren M (i.e. ∪n=1 Kn = M) tales que si {qn } es una sucesión de puntos de M
que verifican qn ∈
/ Kn , entonces para todo p ∈ M se verifica que lı́m d(p, qn ) = ∞. Además, cada
n→∞
una de las afirmaciones anteriores implica que
f) Para todo p, q ∈ M existe una geodésica minimal γ que une p con q. (γ minimal minimal
significa que L(γ) = d(p, q)).
Observación: Cuando se trata de ver que a) implica f), naturalmente p no es cualquier punto,
sino el punto p que verifica la hipótesis a). Es al usar la equivalencia entre a) y d) cuandose
puese cambiar el punto p fijado por cualquier p ∈ M.

Demostración. a) implica f): Sea r = d(p, q), δ > 0 tal que expp sea un difeomorfismo sobre un
abierto que contiene a Bδ (0) ⊂ Tp M. La esfera geodésica Sδ (p) es un campacto (pues es imagen
por expp del compacto Sδ (0)). Consideremos la función continua (por ser la función distancia en
un espacio métrico) dq : Sδ (P) −→ R definida por dq (x) = d(q.x). Como Sδ (p) es compacto, la
función dq alcanzará un mínimo en x0 ∈ Sδ (p), que verifica x0 = expp δv , con v ∈ Tp M, |v | = 1.
Consideremos la geodésica γ(s)(s) = expp sv . Queremos probar que γ(r ) = q (pues entonces γ es
una geodésica que une p con q y que verifica L(γ) = r , ya que s es el parámetro longitud de arco
de γ). Para ello planteamos la ecuación

d(γ(s), q) = r − s. (14.1) (V.5.1)

Lo que nos proponemos probar estará demostrado si vemos que (14.1) se verifica para s = r . Vamos
a verlo:
Sea A = {s ∈ [O, r ]; (14.1) es cierta}.
A 6= ∅, ya que (14.1) se verifica para s = O. Además A es un cerrado en [0, r ], ya que
f : [O, r ] −→ R definida por f (s) = d(γ(s), q) − r + s es una función continua y A = f −1 (0).
Vamos a ver ahora que r = sup A (lo que, por ser A cerrado y no vacío, implica que r ∈ A, y
concluye la demostración). Ahora bien r = sup A equivale a que si s0 < r y s0 ∈ A, entonces existe
un δ 0 > 0 tal que s0 + δ 0 ∈ A. Esto es lo que vamos a probar:
Dado s0 ∈ A, s0 < r , sea δ 0 > O tal que expγ(s0 ) sea un difeomorfismo sobre un abierto que
contiene a B δ0 (0) y tal que q ∈
/ B δ0 (γ(s0 )). Consideramos de nuevo, la aplicación dq : Sδ0 (γ(s0 )) −→

91
92 Variedades completas

R definida como antes. Sea x00 ∈ Sδ0 (γ(s0 )) un punto en el que esta función alcanza el mínimo.
Como s0 ∈ A, d(γ(s0 ), q) = r − s0 .
Por otro lado d(γ(s0 ), q) = ı́nf{L(α); α une γ(s0 )con q}, pero, como q ∈ / B δ0 (γ(s0 )), toda curva
contínua que una γ(s0 ) con q debe de cortar a Sδ (γ(s0 )) en un punto x 0 , luego d(γ(s0 ), q) =
0

δ 0 + d(x00 , q), de donde, por se s0 ∈ A, d(x00 , q) = d(γ(s0 ), q) − δ 0 = r − (s0 + δ 0 ).


Sea γe la geodésica radial que une γ(s0 ) con x00 , parametrizada respecto de su longitud de arco.
Evidentement L(e γ )δ 0 , γ e(δ 0 ) = x00 . La curva
e(0) = γ(s0 ), γ
(
γ(t) si 0 ≤ s ≤ s0
γ(t) =
γe(t − s0 ) si s0 ≤ t ≤ s0 + δ 0

está parametrizada respecto de su longitud de arco y une p con x00 . Su longitud es L(γ) = s0 + δ 0 .
Por otro lado d(x00 , p) ≥ d(p, q) − d(x00 , q) = r − (r − ((s0 + δ 0 )) = s0 + δ 0 . De todo ello resulta que
d(x00 , p) = s0 + δ 0 = L(γ), luego, por el Corolario ??, γ es una geodésica que parte de p. Como
γ|[0,s0 ] = γ|[0,s0 ] y, por hipótesis, ambas está definidas para todo t ∈ R, se sigue de la unicidad de las
geodésicas que γ = γ, luego γ(s0 + δ 0 ) = γ(s0 + δ 0 ) = x00 , por lo tanto d(γ(s0 + δ 0 ), q) = r − (s0 + δ 0 ),
luego s0 + δ 0 ∈ A, como queríamos demostrar.
a) implica b). Sea A cerrado y acotado. Por ser acotado está contenido en una bola métrica
abierta Br (p). Si q ∈ B r (p), por f existe una geodésica γ(t) = expp tX , con |X | = 1 que une
p con q, de longitud d(p, q) ≤ r , de modo que γ(0) = p y γ(d(p, q)) = q. Resulta por lo tanto
que q ∈ expp (B r (0)), que es compacto por ser expp una aplicación contínua y B r (0) un compacto,
luego A ⊂ B r (p) ⊂ expp (B r (0)) compacto, luego A es compacto por ser un cerrado contenido en
un espacio Hausdorff compacto.
b) implica c) Sea {pn } una sucesión de Cauchy en M. Entonces el conjunto {pn } es acotado
en M, luego existe una bola cerrada B (que, evidentemente, es también acotada) que contiene a
todos los elementos de la sucesión {pn }. Por b), B es compacto y, por lo tanto, completo, luego
toda sucesión de Cauchy en B tiene un límite, luego {pn } tiene un límite en B y, por lo tanto, en
M.
c) implica d)
Para demostrar este apartado necesitamos el siguiente
totn Lema 14.7. Para cada p ∈ M existe un entorno W de p y un número δ > 0 tales que, para
cada q ∈ W , expq es un difeomorfismo sobre Bδ (0) ⊂ Tq M y expq (Bδ (0)) ⊃ W . Diremos que W
es un entorno totalmente normal de p.
Demostración. Sean V un abierto de M que contiene a p, ε > 0, U = {(q, w ) ∈ TM; q ∈
V , w ∈ Tq M, |w | < ε} tales que exp(q, w ) := expq w está bien definida sobre U. Definimos
F : U −→ M × M por F (q, v ) = (q, expq v ). Si X = (c 0 (0), α0 (0)) ∈ T(p,0) TM, F∗(p,0) X =
d
ds
(c(s), expc(s) α(s))_s = 0 = (c 0 (0), c 0 (0) + α0 (0)) que es un isomorfismo, luego existe un entorno
U 0 de (p, 0) en TM sobre el que F : U 0 −→ W 0 es un difeomorfismo. Tomando U 0 más pequeño
si es necesario, lo podemos tomar de la forma U 0 = {(q, v ); q ∈ V 0 , v ∈ Tq M, |v | < δ}, donde
p ∈ V 0 ⊂ V y V 0 es un abierto de M. Tomemos W abierto en m tal que (p, p) ∈ W × W ⊂ W 0 .
Entonces W y δ satisfacen las propiedades del lema. En efecto: para todo q ∈ W , como F : U 0 −→
W 0 ⊃ W ×W es un difeomorfismo y {q}×Bδ (0) = π|−1 U 0 (q), F ({q}×Bδ (0)) = {(q, expq w ); |w | < δ}
0
contiene todos los puntos de W cuya primera coordenada es q, por lo tanto (q, expq (Bδ (0))) =
F ({q} × Bδ (0)) ⊃ {q} × W .
Demostración de c) implica d) Si M no fuese geodésicamente completa, existiría una geodésica
γ(s) parametrizada respecto de su longitud de arco que estaría definida para s < s0 pero no en
s0 . Sea sn una sucesión de Cauchy creciente en R que converge a s0 . Se tiene entonces que
d(γ(sm ), γ(sn )) ≤ |sm − sn |, luego {γ(sn )} es una sucesión de Cauchy en M, que es completa,

92
14.2 Teorema de Hopf-Rinow 93

luego γ(sn ) converge a un punto p0 ∈ M. Sean δ > 0 y W el número y el entorno de p0 dados por
el Lema 14.7. Sean n < m suficientemente grandes para que |sm −sn | < δ/2 y γ(sn ), γ(sm ) ∈ W .

93
Capítulo 15

15.1. Segunda forma fundamental de las esferas geodésicas


15.2. Teoremas de de comparación
Como se ha visto, lo que hace este teorema de Cartan es detallar la expresión de la métrica
del Corolario 12.5 en términos de la curvatura.
La misma idea del teorema de Cartan, y el siguiente Lema de comparación de soluciones
de ecuaciones diferenciales, permitirá demostrar un teorema de comparación de la norma de los
campos de Jacobi.

ced Lema 15.1. Se consideran las ecuaciones diferenciales

f ”(t) + K (t)f (t) = 0, f (O) = 0, t ∈ [0, L[, (15.1)


h”(t) + S(t)h(t) = 0, h(0) = 0, t ∈ [0, L[. (15.2)

Supongamos que L(t) ≥ K (t) para t ∈ [O, L), y que h0 (0) = f 0 (0) = 1. Entonces, si h(t) > 0 para
t ∈ [0, t0 ], se tiene que f (t) > h(t) para t ∈ [0, t0 ].

Demostración.

Teorema 15.2. Con las mismas notaciones usadas para el teorema de Cartan, si para cualquier
vector tangente a M en x ∈ U y ortogonal a la geodésica γ = expp t v que une p con x se tiene
que
N M
Rϕ(γ 0 )ϕ(X )ϕ(γ 0 )ϕ(X ) ≥ Rγ 0 X γ 0 X (15.3) CgC

y JM (t) y JN (t) son los campos de Jacobi a lo largo de expp t v y expq ti(v ) que verifican JM (0) = 0,
0
JM (0) = w , JN (0) = 0 y JN0 (0) = i(w ) respectivamente, entonces

|JM (t)| ≤ |JN (t)| para todo t ∈ [0, t0 ], (15.4) comCJ

donde t0 es el primer cero de |JM (t)|.

15.3. Teorema de Myers


15.4. Teorema de Hadamard

94
Capítulo 16

16.1. Sobre acciones de grupos y espacios recubridores

95

También podría gustarte