Está en la página 1de 103

MATEMÁTICAS MÍNIMAS PARA

CIENCIAS EXACTAS Y TECNOLOGÍA


AVANZADA

Tonatiuh Matos

(1) Departamento de Fı́sica, CINVESTAV


E-mail address, 1: tmatos@fis.cinvestav.mx
URL: http://www.fis.cinvestav.mx/~tmatos
A mi pasión: Ursula y Tiuh
1991 Mathematics Subject Classification. Curso de Matemáticas
iii

TOPOLOGÍA
Contents

Chapter 1. ESPACIOS TOPOLÓGICOS 1


1. Definición y Ejemplos 1
2. Cerradura, Interior y Frontera 5
3. Funciones Continuas 10
4. Topologı́a cociente 13
5. Espacios Compactos 14
6. Espacios Conexos. 20
Chapter 2. VARIEDADES DIFERENCIALES 23
1. Variedades 23
2. Funciones suaves 28
3. Vectores Tangentes. 30
4. Uno formas 32

Chapter 3. TENSORES Y P-FORMAS 43


1. Tensores 43
2. p-Formas 47
3. Diferenciación e integración en variedades 48
4. Derivada de Lie y Derivada Covariante 62
5. El Tensor Métrico y el Tensor de Curvatura 69
Chapter 4. HACES FIBRADOS 79
1. Haces 79
2. Espacios G 81
3. Haces Fibrados Principales 83
4. Haces Vectoriales 86
Chapter 5. GRUPOS DE LIE 89
1. Campos Invariantes por la Izquierda 89
2. La Función Exponencial 91
3. La representación Adjunta y la Forma de Maurer Cartan. 92
4. Representación de Grupos y Algebras de Lie 95

v
CHAPTER 1

ESPACIOS TOPOLÓGICOS

1. Definición y Ejemplos
Los espacios topologicos son la base, entre otras cosas, de la estructura metemática
que le dara forma a los conjuntos. Como veremos en esta sección, basicamente dos
espacios topologicos son los mismos (homeomorficos), si se puede moldear uno de
ellos en plastilina y transformar este hasta llegar al otro sin romper la plastilina,
sin hacerle agujeros. Por ejemplo, un baso para tomar agua y una pelota, serı́an
los mismos desde el punto de vista de la topologı́a, ası́ mismo, una taza con una
aza es equivalente a una dona, etc. Estos espacios han adquirido importancia en
varias ramas de la fı́sica y la ingenierı́a para poder hacer modelos. Por ejemplo, en
la ingenierı́a, las imágenes que se obtienen en la computadora son dijitales, estan
hechas por pixeles discontinuos. En este caso, resulta muy inexacto para algunas
aplicaciones tomar el espacio métrico correspondiente. En la actualidad existen
varios modelos topológicos que prometen ser mas eficientes. En fı́sica, los cam-
pos estan cuantizados y viven entonces en espacios que no pueden ser modelados
por espacios métricos simples. Los espacios topológicos podrı́an ser mas exactos
en modelar espacios cuantizados o los espacios cuánticos mismos. Asi mismo, la
geometrı́a diferencial es una herramienta que se utiliza hoy en dı́a intensivamente
en varias ramas de la ciencia. El control automático necesita de esta herramienta
en gran medida. En este capitulo veremos tanto la topologia como la geometrı́a
diferencial. Iniciemos con la definición de espacio topológico.
Definición 1. Sea X conjunto y τX ⊂ P (X) subconjunto del conjunto poten-
cia P (X) . Un espacio topológico es el par (X, τX ) , tal que: φ y X pertenecen a
τX y τX es cerrado bajo uniones arbitrarias e intersecciones finitas.
Vamos a entender esta definición. Explicitatmente, un espacio topológico es un
subconjunto del conjunto potencia que cumple con los siguientes axiomas:
i) φ, X ∈ τX es decir, el vacio y todo el conjunto siempre estan en la topologia
τX de X.
ii) Si Uα ∈ τX con α ∈ J (J un conjunto de indices) entonces ∪ Uα ∈ τx , es
α∈J
decir, la union arbitraria de elementos de τX es un elemento de τX .
iii) Ui ∈ τX con i = 1, · · · , n implica que ∩ni=1 Ui ∈ τX , es decir, la intersección
finita de elementos de τX es un elemento de τX .
Notación 1. A los elementos de τX se les llama abiertos, a sus complementos
cerrados y a τX se le llama topologı́a sobre X.
Comentario 1. Note que tanto en vacio como todo el conjunto φ y X son
abiertos y cerrados a la vez, ya que φc = X y X c = φ. Esta es una propiedad de
todos los espacios topológicos.
1
2 1. ESPACIOS TOPOLÓGICOS

Mas adelante veremos algunos ejemplos de espacios topológicos para ser mas
explicitos, pero por ahora vamos a definir algunos conceptos mas que nos van a
servir durante nuestra discusión.
Definición 2. Sea x ∈ U y U ∈ τX . Se dice entonces que U es una vecindad
de x, se denota x ∈ Ux . Un entorno de x ∈ X es un sobconjunto N ⊂ X, tal que
x ∈ N y existe Ux ⊂ N , ver figura 1.
Es decir, una vecindad de algún punto es siempre un abierto que contiene
al punto, mientras el entorno es un conjunto mas grande que algún abierto, que
contiene al punto, pero no es un abierto él mismo.

Figure 1. Ux es una vecindad de x, es decir, es un abierto que


contiene a x. Un entorno de x, en cambio, es un sobconjunto de
X tal que x esta en N y N contiene a una vecindad de x.

Definición 3. Sea (X, τX ) espacio topológico. Una cubierta de A ⊂ X, es


una familia de abiertos U = {Uα }α∈K tal que ∪ Uα = A. Una subcubierta V
α∈K
de U , es una familia V = {Vβ }β∈J tal que V es cubierta de A y Vα ∈ V implica
Vα ∈ U .
En forma sencilla, una cubierta de A es simplemente un conjunto de abiertos
que cubre todo el conjunto A y una subcubierta de la cubierta es un subconjunto
de la cubierta que también cubre A. Ahora veamos algunos ejemplos de espacios
topológicos.
Exemplo 1. τX = P (X) es siempre una topologı́a llamada la topologı́a disc-
reta de X en donde cada elemento es un abierto de X.
Exemplo 2. τX = {φ, X} es llamada la topologı́a indiscreta de X.
Estos dos ejemplos nos dicen que todo conjunto tiene al menos dos topologias,
la discreta y la indiscreta. Es decir, se puede hacer de cualquier conjunto un espacio
topológico, incluso de un conjunto de borreguitos del campo.
Exemplo 3. Si X = {x} , la única topologı́a que existe es τX = {{x} , φ}
1. DEFINICIÓN Y EJEMPLOS 3

Exemplo 4. Si X = {a, b} , existen 4 topologı́as


1
a) τX = P (X) = {φ {a} , {b} , {a, b}}
2
b) τX = {{a, b} , φ}
3
c) τX = {φ, {a} , {a, b}}
4
d) τX = {φ, {a} , {a, b}}
3 4
A las topologı́as τX y τX se les llama topologı́as de Sierpinski.
Esto son, tal vez, los espacios topológicos mas simples que podemos construir.
Ahora iniciamos a ver espacios mas interesantes. Vamos a iniciar con los espacios
<n . Estos son espacios topológicos y tienen, claramente, muchas topologias. Sin
embargo, la toplogia canónica es la siguiente:
Exemplo 5. X = <n , τX = {unión de bolas Br (x0 )}, donde Br (x0 ) =
{x ∈ <n | |x − x0 | < r} . Esta es la topologı́a canónica de <n .
Observen que la construcción de esta toplogia se basa de hecho en la estructura
métrica de <n . La demostración de que esta última es una topologia para <n
la incluimos en la construcción de una topologia para todo espacio métrico en la
siguiente proposición.
Proposición 1. Sea (X, d) espacio métrico y τ = { conjuntos abiertos en (X, d)} .
Entonces (X, τ ) es un espacio topológico.
Proof. Se tiene que:
i) X y φ son abiertos en (X, d) , ya que la bola B² (x) = {y ∈ X | d (x, y) |< ²}
⊂ X y φ es abierto trivialmente.
ii) Sea {Aα }α∈I una familia arbitraria de conjuntos abiertos en (X, d) . Para
cada α, Aα es unión de bolas, Aα = ∪ Bβ (Aα ) y la unión de la unión de bolas
β∈K
es abierto en (X, d) .
n
iii) Sean Ai , i = 1, · · · , n conjuntos abiertos en (X, d) y V = ∩ Ai . Si x ∈ V
i=1
implica que x ∈ Ai para todo i = 1, · · · , n. Entonces existen {ri > 0}i=1,··· ,n tales
que Bri (x) ⊂ Ai . Tomemos r = min {ri }i=1,··· ,n , entonces Br (x) ⊂ Bri (x) para
todo i = 1, · · · , n y por tanto Br (x) ⊂ Ai para todo i = 1, · · · , n. Esto implica que
Br (x) ⊂ V , i.e. V es conjunto abierto en (X, d) . ¤
Ejercicio 1. Demuestre que un todo espacio topológico la intesección arbi-
traria de cerrados es cerrada y la unión finita de cerrados es cerrada.
En los espacios métricos y normados es posible definir algunos conceptos como
continuidad o lı́mite debido a la existencia de la métrica o de la norma. En los
espacios topológicos esto también es posible, debido a la existencia de los abiertos.
Vamos a ejemplificar esto dando el concepto de lı́mite de una suseción. Veamos:
Definición 4. Sea (X, τX ) espacio topológico y (xi ) una sucesión en X, i ∈
Z + . Se dice que (xi ) tiene el lı́mite x (o converge a x) si para todo vecindad
de x, Ux ∈ τX existe un entero positivo N ∈ Z + tal que xi ∈ Ux para todo indice
i ≥ N. Se denota como xi * x o lim xi = x.
Como ya vimos, todo espacio métrico es topológico, usando los abiertos definidos
por su métrica. Sin embargo, lo contrario no siempre se cumple, no todo espacio
topológico es métrico. Es en este sentido que los espacios topológicos son mas gen-
erales que los espacios métricos. A veces es posible definir una métrica en un espacio
4 1. ESPACIOS TOPOLÓGICOS

topológico, en este caso se dice que el espacio topológico es metrizable, formalmente


se dice que:
Definición 5. Un espacio topológico (X, τX ) cuyos abiertos son los conjuntos
abiertos del espacio métrico (X, d), se dice metrizable. A la topologı́a τX sobre X
se le llama topologı́a inducida por la distancia d.
Veamos la siguiente interesante proposición:
Proposición 2. En todo espacio topológico (X, τX ) metrizable, para cualquier
par de puntos, siempre existen dos vecindades disjuntas.
Proof. (X, τX ) es metrizable, implica que existe una distancia d que induce
τX . Sean x, y ∈ X con x 6= y, entonces d (x, y) = 2² para algún ² > 0. Tomemos las
bolas B² (x) = {z ∈ X | d (x, z) < ²} y B² (y) = {w ∈ X | d (w, y) < ²} , los cuales
son abiertos de τX . Supongamos z ∈ B² (x) ∩ B² (y) , se sigue que d (x, y) ≤
d (x, z) + d (z, y) < ² + ² = 2², pero d (x, y) = 2², lo cual es una contradicción. Por
tanto z ∈ / B² (x) ∩ B² (y) se sigue entonces que B² (x) ∩ B² (y) = φ. ¤

De esta proposición se desprende que si queremos construir un espacio topológico


metrizable, le tenemos que pedir primero que existan dos vecindades disjuntas
para cada punto. Mas adelante veremos que a estos espacios se les llama espa-
cios topológicos tipo T2 o Hausdorff.
En ocaciones los conjuntos son productos cartesianos de espacios topológicos o
se pueden descomponer en productos cartesianos de estos. En ese caso, si cada com-
ponente es un espacio topológico, el espacio total también lo será. Este resultado
se sigue de la proposición:
Proposición 3. El producto cartesiano de espacios topológicos es un espacio
topológico.
Proof. Sean (X, τX ) y (Y, τY ) espacios y (X × Y, τX×Y ) con τX×Y = {uniones
de elementos U × V ∈ τX × τY }. Entonces
i) φ ∈ τX×Y ya que φ = φ × φ, y X × Y ∈ τX×Y ya que X × Y ∈ τX × τY .
0 0 0 0
ii) Sean W = ∪ Uα × Vα y W 0 = ∪ Uβ × Vβ , Uα, Uβ ∈ τX , Vα, Vβ ∈ τY ,
α∈j β∈k
0 0
para toda α ∈ J, β ∈ K. Entonces W ∩ W 0 = ∪ Uα × Vα ∩ ∪ Uβ × Vβ =
α∈J β∈k
0 0
∪ Uα ∩ Uβ × Vα ∩ Vβ ∈ τX×Y .
(α,β)∈J×K

iii) Sea Wα = ∪ (Uαγ × Vαγ ) ∈ τX×Y . Entonces ∪ Wα = ∪ Uαγ


γ∈M α∈L (α,γ)∈L×M
×Vαγ ∈ τX×Y . ¤

Al par (X × Y, τX×Y ) se le llama producto topológico de los espacios (X, τX )


y (Y, τY ).
Ası́ mismo, se puede contruir un espacio topológico de un subconjunto de un
espacio topológico utilizando la topolgia del espacio original. Esto se ve en la
siguiente proposición:
Proposición 4. Sea (X, τX ) espacio topológico y A ⊂ X. Sea τA = {A ∩ U, U ∈ τX }.
Entonces el par (A, τA ) es un espacio llamado subespacio topológico de X.
2. CERRADURA, INTERIOR Y FRONTERA 5

Proof. i) φ ∈ τA ya que φ ∩ A = φ y A ∈ τA ya que A ∩ X = A.


ii) Sean Uα ∈ τX y A∩Uα ∈ τA , α ∈ J. Entonces ∪ A∩Uα = A∩ ∪ Uα ∈ τA .
α∈J α∈J
n n
iii) Sean Ui ∈ τX , i = 1, · · · , n y A∩Ui ∈ τA . Entonces ∩ A∩Ui = A∩ ∩ Ui ∈
i=1 i=1

τA . Se sigue que (A, τA ) es espacio topológico. ¤


Notación 2. A τA se le llama la topologı́a relativa o inducida por τX
sobre X.
Con esta proposición es entonces fácil ver que muchos espacios son topológicos
porque heredan la topolgia de algún espacio mayor. Veamos un ejemplo importante
que usaremos a lo largo de este capitulo.
Exemplo 6. Sea n ∈ Z. La n-esfera S n se define como un subespacio de <n+1
como ( )
n+1
X ¡ ¢2
S n = x ∈ <n+1 | xi = 1
i=1
Ası́, © ª
S 0 = ©x ∈ < | x2 = 1 = {1, −1} ª,
1 2 2 2
S = ©(x, y) ∈ < | x + y = 1 , ª
S 2 = (x, y, z) ∈ <3 | x2 + y 2 + z 2 = 1 etc.

La topologı́a de S n será τS n = {S n ∩ U | U ∈ τ<n+1 } .


De la misma forma se pueden conocer los cerrados de un subespacio topológico,
conociendo los cerrados del espacio original, usando la proposición siguiente:
Proposición 5. Sea (A, τA ) subespacio topológico de (X, τX ) . V ⊂ A es cer-
rado en A sı́ V = A ∩ R con R cerrado en X.
Proof. =⇒) V cerrado en A implica que existe W ∈ τA tal que V = A \ W,
con W = A ∩ U , lo que implica que V = A \ A ∩ U = A ∩ U c con U c cerrado en X.
⇐=) Sea R cerrado en X. Consideremos B = A ∩ R esto implica que B c =
A \ B = A \ A ∩ R = A ∩ Rc , y como Rc es abierto en X, B c es abierto en A, es
decir B es cerrado en A. ¤

2. Cerradura, Interior y Frontera


En esta sección veremos tres conceptos para distinguir regiones de nuestro
espacio topológico. Si nuestro conjunto tiene una topologı́a, podemos distinguir la
región en donde termina el espacio, donde es adentro y afuera. Vamos a definir
estos conceptos. Iniciemos por definir un punto de adherencia.
Definición 6. Sea (X, τX ) espacio, A ⊂ X y p ∈ X. Un punto de adheren-
cia p de A es aquel que toda vecindad de p no es disjunta con A, es decir p es
punto de adherencia si para toda Up ∈ τX se cumple Up ∩ A 6= φ, ver figura 2.
Entonces, al conjunto de todos los puntos de adherencia se le llama la clausura,
que nos servirá para definir el interior del espacio.
Definición 7. Al conjunto de puntos de adherencia se le llama clausura y
se denota por A, ver figura 3
6 1. ESPACIOS TOPOLÓGICOS

Figure 2. Los puntos de adherencia del conjunto A. En la figura


se muestran puntos de adherencia y puntos que no son de adheren-
cia del conjunto A.

Figure 3. Los puntos de adherencia forman la clausura del con-


junto A. Hay que comparar esta figura con la figura 2, en donde
se muestran los puntos de adherencia del conjunto A.

Comentario 2. Note que si p ∈ A, implica que Up ∩ A 6= φ, por tanto A ⊂ A


Veamos una serie de proposiciones referentes a la cerradura de un conjunto,
con el objetivo de concluir que la clausura es un conjunto cerrado. Veamos esto.
Proposición 6. A es cerrado ssi A = A.
Proof. =⇒) Sea p ∈ A, i.e. para todo Up ∈ τX se cumple Up ∩ A 6= φ.
Supongamos que p ∈ / A, entonces p ∈ Ac = X \ A ∈ τX , ya que A es cerrado.
Entonces existe Vp ∈ τX con Vp ⊂ X \ A o sea Vp ∩ A = φ, lo cual contradice el
hecho que p ∈ A, entonces p ∈ A, i.e. A ⊂ A.
2. CERRADURA, INTERIOR Y FRONTERA 7

⇐=) Sea q ∈ Ac y por tanto q ∈


/ A, entonces existe Vq ∈ τX con Vq ∩ A = φ i.e.
Vq ⊂ Ac para toda q. Entonces Ac es abierto. ¤
Corolario 1. A cerrado implica que A es cerrado.
Proposición 7. A es la intersección de todos los cerrados en X que contienen
a A.
Proof. Sea R = {Rα | A ⊂ Rα , Rα cerrado}α∈J . Sea x ∈ ∩ Rα . Demostremos
α∈j
que x es punto de adherencia de A, o sea que x ∈ A. Sea M ∈ τX con x ∈ M .
Supongamos M ∩ A = φ esto implica que A ⊂ M c que es un cerrado que contiene
a A, entonces x ∈ M c ya que M c = Rα para algún α, lo que es una contradicción.
Por lo tanto M ∩ A 6= φ. Sea q ∈ A y sea Rα para algún α ∈ J. A ⊂ Rα
implica que A ⊂ Rα = Rα se sigue entonces que q ∈ Rα para todo α ∈ J es decir
q ∈ ∩ Rα . ¤
α∈J

Corolario 2. A es cerrado.
Exemplo 7. Los ejemplos mas representativos y simples son en la recta real con
la topologia canónica. Es claro que [a, b] es cerrado. La cerradura de (a, b) = [a, b],
etc.
Exemplo 8. La cerradura del conjunto de los racionales o del conjunto de los
irracionales son los reales, ya que junto a un racional siempre hay un irracional y
junto a un irracional hay un racional.
Exemplo 9. Un ejemplo mas interesante es el conjunto <\Z. Observemos que
<\Z = <.
Ejercicio 2. Demuestre que
a) A ∪ B ⊃ A ∪ B
b) A ∩ B ⊂ A ∩ B
De una manera análoga se puede hacer lo mismo para puntos interiores de un
conjunto. Estos se definen como:
Definición 8. Sea (X, τX ) espacio topológico y p ∈ X. p es punto interior
de A ⊂ X si existe Vp ∈ τX con Vp ⊂ A, ver figura 4.

Definición 9. Al conjunto de puntos interiores de A ⊂ X se le llama interior


y se denota por Å. Note que p ∈Å implica que existe Vp ∈ τX con p ∈ Vp ⊂ A, es
decir Å⊂ A, ver figura 5

Proposición 8. A es abierto ssı́ A =Å.

Proof. =⇒) Sea p ∈ A, implica que existe Vp ∈ τX con Vp ⊂ A, es decir p ∈Å


se sigue entonces que A ⊂Å.
⇐=) Sea p ∈ A, como A =Å, entonces existe Vp ∈ τX con Vp ⊂ A, esto es, A
es abierto. ¤

Proposición 9. Å es la unión de todos los abiertos de X contenidos en A .


8 1. ESPACIOS TOPOLÓGICOS

Figure 4. La figura muestra los puntos interiores de A y algunos


que no son puntos interiores de A. Compare esta figura con las
figuras 2 y 3 anteriores sobre puntos de adherencia.

Figure 5. El interior de A. Compare esta figura con la figura 3


que muestra la cerradura de A.

Proof. Sea U = {Uα | Uα ⊂ A. Uα abierto}α∈J . Sea q ∈ ∪ Uα entonces


α∈J
q ∈ Uβ para algún β ∈ J tal que Uβ ⊂ A, por tanto q ∈Å, sea x ∈Å. Esto implica
que existe Vx ∈ τX con x ∈ Vx ⊂ A, o sea x ∈ ∪ Uα , por lo tanto Å= ∪ Uα . ¤
x∈J α∈J

Corolario 3. Å es abierto.
Exemplo 10. Los ejemplos mas representativos y simples de nuevo son en la
recta real con la topologia canónica. Es claro que (a, b) es abierto. El interior de
o
[a, b] = (a, b), etc.
2. CERRADURA, INTERIOR Y FRONTERA 9

Exemplo 11. El interior del conjunto de los racionales o del conjunto de los
irracionales es vacio, ya que no hay abiertos que contengan racionales o irracionales
solamente.
Exemplo 12. Un ejemplo mas interesante es de nuevo el conjunto <\Z. Ob-
servemos que (<\Z)o = <\Z
Entonces, el interior es abierto y la cerradura es un cerrado. Para dar un
criterio de donde termina el espacio topológico, se define la frontera del conjunto.
La idea intiutiva es simple y su definición formal es como sigue:
Definición 10. La frontera (topológica) de A es la intersección de las cer-
raduras de A y su complemento, se denota ∂A, i.e.
∂A = A ∩ Ac
La frontera de A tiene las siguientes propiedades:
i) ∂A es cerrado, ya que es intersección de cerrados.
c
ii) ∂Ac = Ac ∩ (Ac ) = Ac ∩ A = ∂A
/ A se sigue que p ∈ Ac ∩ A ⊂ Ac ∩ A = ∂A,
iii) A = A ∪ ∂A ya que si p ∈ A y p ∈
lo que implica que A ⊂ A ∪ ∂A, de la misma forma, si p ∈ A esto implica que p ∈ A
ó y si p ∈ ∂A implica que p ∈ A ya que ∂A = A ∩ Ac .
iv) ∂A = φ ssı́ A es cerrado y abierto a la vez. Esto es debido a que si ∂A = φ
se sigue que A = A ya que A = A ∪ ∂A, es decir A es cerrado. Por otro lado como
A = A, si A ∩ Ac = φ esto implica que Ac ⊂ Ac , pero como Ac ⊂ Ac , se sigue que
Ac = Ac , entonces Ac es cerrado, por lo que A es abierto. Al contrario, si A es
cerrado, se sigue que A = A, A abierto implica que Ac es cerrado y por lo tanto
Ac = Ac . Entonces A ∩ Ac = A ∩ Ac = φ.
v) ∂X = ∂φ = φ ya que X y φ son abiertos y cerrados.
vi) A es cerrado ssı́ ∂A ⊂ A, ya que A cerrado implica que A = A = A ∪ ∂A y
por lo tanto ∂A ⊂ A. A la inversa ∂A ⊂ A implica que A ∪ ∂A = A = A de donde
se sigue que A es cerrado.
Exemplo 13. Tomemos de nuevo unTejemplo sobre la Trecta real con la topologia
c
canónica. La frontera de ∂(a, b) = (a, b) (a, b) = [a, b] (−∞, a]∪[b, ∞) = {a, b},
etc.
Exemplo 14. Regresemos al conjunto <\Z. Observemos que
T T
∂(<\Z) = (<\Z) (<\Z)c = < Z = Z.
Es decir, el conjunto <\Z es un conjunto abierto, cuya cerradura es < y su
frontera es Z. Esto también quiere decir que Z es un conjunto cerrado, pues es la
frontera de <\Z.
Ejercicio 3. Demuestre que la frontera del conjunto de los racionales o del
conjunto de los irracionales son los reales.
Para terminar esta sección, vamos a definir un conjunto denso. Un conjunto es
denso si su cerradura es todo el espacio, esto es:
Definición 11. A es denso en X si A = X.
Exemplo 15. Claramente <\Z no es denso en los reales, pues su cerradura
no son los reales.
Comentario 3. Note que si A es un espacio métrico, A es denso si para todo
x ∈ X y para todo ² > 0 existe p ∈ A tal que p ∈ B² (x).
10 1. ESPACIOS TOPOLÓGICOS

3. Funciones Continuas
En esta sección vamos a introducir conceptos tı́picos de espacios normados
o métricos relacionados con funciones, pero usando sólo la topologia del espacio.
Vamos a iniciar con el concepto de continuidad de funciones en espacio topológicos.
Basicamente la idea es la misma que en espacios métricos, pero como aqui no
tenemos una distancia, tenemos que usar sólo la exitencia de los abiertos. La
idea es entonces, que si podemos mapear un abierto, tan arbitrario (“pequeño”)
como sea, y éste es también abierto en el dominio, entonces la función es continua.
Formalmente se tiene:
Definición 12. Sean (X, τX ) y (Y, τy ) espacios topológicos. Se dice que el
mapeo f : X → Y x → f (x) es una función continua, si f −1 (V ) ∈ τX para todo
V ∈ τY , i.e. preimágenes de abiertos son abiertas.
Notación 3. Al conjunto de funciones continuas se denota por M ap(X, Y ) =
C 0 (X, Y ).
Dado que en un espacio métrico la topologia se contruye con los abiertos del
espacio, podemos demostrar una serie de proposiciones en espacios topológicos que
despues se pueden extender a espacios métricos o normados. Veamos la siguiente
proposición.
Proposición 10. Sean (X, τX ) y (Y, τY ) espacios topológicos f : X → Y,
función. Son equivalentes
1) f es continua.
2) Para todo x ∈ X y Wf (x) ∈ τY existe Vx ∈ τX tal que f (Vx ) ⊂ Wf (x)
3) f (A) ⊂ f (A) para todo A ⊂ X
4) f −1 (B) ⊂ f −1 (B) para todo B ⊂ Y
5) Si A es cerrado en Y implica que f −1 (a) es cerrado en X.
Proof. 1) =⇒ 2) Sean x ∈ X y Wf (x) ⊂ τY ; como f es continua x ∈
f −1 (Wf (x) ) ∈ τx y entonces existe Vx ∈ τX tal que Vx ⊂ f −1 (Wf (x) ), se sigue
entonces que f (Vx ) ⊂ Wf (x) .
2) =⇒ 3) Sea b ∈ A, entonces para todo Ub ∈ τX se sigue que Ub ∩ A 6= φ,
entonces φ 6= f (Ub ∩ A) ⊂ f (Ub ) ∩f (A). Sea Wf (b) ∈ τY arbitrario, por 2) existe
Vb ∈ τX con f (Vb ) ⊂ Wf (b) , por lo que f (Vb ) ∩ f (A) ⊂ Wf (b) ∩f (A) es decir
f (b) ∈ f (A).
3) =⇒ 4) Sea a = f −1 (B) con B ⊂ Y ; por 3 f (A) ³⊂ f (A) −1
´ = f (f (B)) ⊂ B,
¡ −1 ¢
ya que f f (B) ⊂ B. Por lo tanto, también f −1 f (A) ⊂ f −1 (B) y como
¡ ¢
A ⊂ f −1 f (A) tenemos A ⊂ f −1 (B); o sea f −1 (B) ⊂ f −1 (B).
4) =⇒ 5) Sea B cerrado en Y , por 4) f −1 (B) ⊂ f −1 (B) = f −1 (B) ⊂ f −1 (B)
por lo que f −1 (B) = f −1 (B), entonces f −1 (B) es cerrado en X.
5) =⇒ 1) Sea B ¡∈ τY , entonces
¢c B c es cerrado en Y , como f −1 (B c ) = (f −1 (B))c ,
por 5) se tiene que f (B) es cerrado en X, o sea f −1 (B) ∈ τX .
−1
¤
Proposición 11. La composición de funciones continuas es continua.
Proof. Sean (X, τX ) , (Y, τY ) y (Z, τz ) espacios y f : X → Y, g : Y → Z
funciones continuas. Se tiene que si U 00 ∈ τz entonces g −1 (U 00 ) ∈ τY y por lo tanto
f −1 (g −1 (U 00 )) = f ◦ g (U 00 ) ∈ τZ . ¤
3. FUNCIONES CONTINUAS 11

Las funciones en espacios que son productos cartesianos también tienen un cri-
terio de continuidad. Estas funciones son interesantes y serán usadas mas adelante,
por ahora veamos este criterio de continuidad usando la siguiente proposición:
Proposición 12. Sean (X, τX ) , (Y, τY ) y (Z, τZ ) espacios y f : X × Y → Z
función. f es continua ssı́ para todo Wf (x,y) ∈ τz existe Ux ∈ τX y Vy ∈ τY tales
que f (Ux × Uy ) ⊂ Wf (x,y) .
Proof. ⇐=) Sea Wf (x,y) ∈ τZ esto implica que existe Ux ∈ τX , Vy ∈ τY
con f (Ux × Vy ) ⊂ Wf (x,y) con Ux × Vy ∈ τX × Y , esto implica que para todo
(x, y) ∈ X × Y existe Ux × Vy ∈ τX × Y tal que Ux × Vy ⊂ f −1 (Wf (x,y) ) por lo que
f −1 (Wf (x,y) ) ∈ τX×Y .
=⇒) Sea Wf (x,y) ∈ τZ , entonces f −1 (Wf (x,y) ) ∈ τX×Y esto implica que para
todo (x, y) ∈ f (Wf (x,y) ) existe Ux × Vy ∈ τX×Y tal que Ux × Vy ⊂ f −1 (Wf (x,y) ),
por tanto f (Ux × Vy ) ⊂ Wf (x,y) . ¤
Mas adelante, en la contrucción de los haces, vamos a necesitar el uso de la
proyección, que es una función que mapea solo una parte de un producto cartesiano
de espacios topológicos. Vamos a introducir ahora este concepto.
Definición 13. Sea (X × Y, τX×Y ) espacio producto de los espacios (X, τX ) y
(Y, τY ). A las funciones Πx : X × Y → X, (x, y) → x y Πy : X × Y → Y, (x, y) → y
se les llama las proyecciones de X × Y , ver figura 6.

Figure 6. La proyección del producto cartesiano de X y Y . El


mapeo va de X × Y a X, y mapea el punto (x, y) en x.

Proposición 13. Πx y Πy son continuas.


Ejercicio 4. Demostrar la proposición.
12 1. ESPACIOS TOPOLÓGICOS

Definición 14. Sea (A, τA ) subespacio topológico de (X, τX ). La inclusión


de A en X es la función identidad restringida a A , i.e. i : A → X x → i(x) ≡
id |X |A . También se denota como i : A ,→ X.
Proposición 14. Sea f continua, f = X → Y y (A, τA ) subespacio topológico
de (X, τX ). Entonces la restricción de f a A es continua.
Ejercicio 5. Demostrar la proposición
Ejercicio 6. Demostar que i es continua.
El concepto mas importante en espacios topológicos es tal vez éste que nos
da el concepto de isomorfismo entre espacios topológicos. Los isomorfismos aquı́
son llamados homeomorfismos. Ahora vamos a introducirlos, para esto necesitamos
primero el concepto de función abierta. Veamos éste.
Definición 15. Sea f : X → Y función. f se llama abierta si imagenes de
abiertos son abiertas, i.e. si para todo U ∈ τX se tiene que f (U ) ∈ τY .
Definición 16. Un homeomorfismo es una función continua, biyectiva y
abierta.
Esta difinición nos garantiza entonces que la inversa es una función continua y
abierta. Es decir:
Proposición 15. Sea f homeomorfismo, entonces f −1 es continua.
Proof. Por ser biyectiva existe f −1 con f −1 ◦ f = Id |X . Por ser abierta se
sigue que f (U ) = V ∈ τY para todo U ∈ τx ya que la inversa de f −1 es f . De
donde que f −1 es continua. ¤
Definición 17. Dos espacios topológicos se dicen homeomorfos si entre
ellos existe un homeomorfismo. A las propiedades invariantes bajo homeomorfismos
se les llama propiedad topológica.
Es decir, los homeomorfismos me dan un criterio para decir cuando dos espacios
topológicos son el mismo, desde el punto de vista de espacio topológico. Es mas,
los homeomorfismos separa el conjunto de los espacios topológicos en clases de
equivalencia. Vamos a ver esto, primero veamos que la relación: dos espacios estan
relacionados entre si, si son homeomofos es una relación de equivalencia.
hom
Proposición 16. Sean (X, τX ), (Y, τY ), (Z, τz ) espacios. La relación X ∼ Y
“dos espacios son homeomorfos”, es una relación de equivalencia.
Ejercicio 7. Demostrar la proposición.
Entonces los espacios homeomórficos forman clases de equivalencia en las cuales
se conservan sus propiedades topológicas. Estas clases sirven para clasificar a los
espacios topológicos. Otra propiedad interesante y muy importante es el hecho que
los homeomorfismos con la operación de composición de funciones forma un grupo,
llamado el grupo de automorfismos. Veamos esto.
Proposición 17. Sea (X, τX ) espacio topológico y
Aut (X) = {f | f : X − X homeomorfismo}. Entonces el par (Aut(X), ◦) es
un grupo llamado el grupo de automorfismos de X.
Ejercicio 8. Demostrar la proposición.
4. TOPOLOGÍA COCIENTE 13

Para terminar esta sección veamos ahora el concepto de camino y trayectoria.


Estos conceptos son muy usados para definir geodésicas y conceptos relacionados
con estas. Formalmente, la definición de camino o trayectoria es:
Definición 18. Sea (X, τX ) espacio topológico e I ⊂ <. A una función c :
I → X se le llama un camino o trayectoria en X.
Entonces, una curva es la imagne de una trayectoria, esto es:
Definición 19. Sea c ∈ C 0 (I, X). A la imagen de c se le llama la curva de
c.
Estos dos conceptos deben quedar claros, un camino es la función misma mien-
tras que la curva es la imagen de la función. Son conceptos muy distintos, el primero
es un elemento del conjunto de funciones y el segundo es un subconjunto del codo-
minio de la función. Por otro lado, una reparametrización es una composición de
la curva con un automorfismo monotono cresciente del dominio I de < de la curva,
es decir:
Definición 20. Sea ϕ ∈ Aut+ (I) = {f ∈ Aut(I) | f (t0 ) > f (t), t0 > t} y c ∈
C (I, X). A la función ϕ∗ : C 0 (I, X) → C 0 (I, X), c → ϕ∗ (c) = c ◦ ϕ se le llama
0

una reparametrización de c.
Lo interesante de este concepto es que las curvas (no los caminos) son invari-
antes ante estos automorfismos, es decir:
Proposición 18. Las curvas son invariantes bajo reparametrizaciones.
Proof. Sea c ∈ C 0 (I, X) trayectoria y Γc = c(I) la curva correspondiente.
Entonces Γϕ∗(c) = ϕ∗ (c)(I) = c ◦ ϕ(I) = c(ϕ(I)) = c(I) = Γc . ¤
Exemplo 16. Al camino c(t) = p para todo t ∈ I se le llama camino con-
stante.
Exemplo 17. Sea c : [0, 1] → X con c(0) = c(1) = p. A este camino se le
llama lazo o loop en X.

4. Topologı́a cociente
Imaginemos que podemos construir una función entre dos conjuntos y que el
dominio tiene una topologia. Entonces podemos mapear los abiertos del dominio
al codominio y definir estos como abiertos del codominio. Surge la pregunta si
ahora las imagenes de estos abiertos forman una topologia para el codominio. La
respuesta la podemos dar en la siguiente proposición.
Proposición 19.©Sean (X, τX ) espacios Y ªconjunto y f : X → Y función so-
bre. El conjunto τf = V ∈ P (Y ) | f −1 (V ) ∈ τX es una topologı́a para Y , llamada
topologı́a cociente de Y respecto a f .
Proof. i) φ ∈ τf ya que f −1 (φ) = φ ∈ τX y Y esta en τf ya que f es sobre y
por lo tanto f −1 (Y ) = X ;
ii) Sean V1 , · · · , Vn ∈ τf , entonces f −1 (∪ni=1 Vi ) = ∪ni=1 f −1 (Vi ) ∈ τX se sigue
que ∩ni=1 Vi ∈ τf ya que cada f −1 (Vi ) ∈ τX ;
iii) Sea {Vα }α∈K con Vα ∈ τf . Entonces f −1 ( ∪ Vα ) = ∪ f −1 (Vα ) ∈ τX
α∈K α∈K
pues cada f −1 (Vα ) ∈ τX , se sigue entonces que ∪ Vα ∈ τf . ¤
α∈K
14 1. ESPACIOS TOPOLÓGICOS

Vamos a dar unos ejemplos de como podemos construir espacios topológicos


usando mapeos sobre. Para hacer esto, lo importante es contruir la función sobre
con la cual contruimos el espacio topológico del codominio. Sea (X, τX ) espacio
topológico y ∼ una relación de equivalencia en X. La función p = X → X/ ∼ es
una función sobre que asocia a cada elemento de X, x → [x] su clase. La topologı́a
τX/∼ = {V ∈ P (X/ ∼) | p−1 (V ) ∈ τX } es una topologı́a para el conjunto de clases
de equivancia X/©∼. ª
Sea I × I = (x, y) ∈ <2 | 0 ≤ x ≤ 1, 0 < y < 1 subespacio topológico de <2 .
Entonces:
Exemplo 18. Sea la relación de equivalencia pr1 q si p = q ∈ <2 i.e. (x, y) =
(x , y 0 ) , ó si p 6= q (p, q) = ((0, y), (1, y)) ó ((1, y), (0, y)) y la relación pr2 q como
0

p = q ó si p 6= q, (p, q) = ((0, y), (1, 1 − y)) ó ((1, y), (0, 1 − y)) . Gráficamente se
ve en las figura 7 y figura 8.

Figure 7. El producto cartesiano de los intervalos [1, 1] × [1, 1]


con la relación r1 , es topologicamente igual al cilindro.
³ ´ ³ ´
Cilindro= I × I/r1 , τI×I/r1 Cinta de Möbius= I × I/r2 , τI×I/r2
2 © ª
Exemplo 19. Sea I = (x, y) ∈ <2 | 0 ≤ x, y ≤ 1 . Sea la relación pr3 q si
p = q, ó p 6= q, (p, q) = ((0, y), (1, y)) ó ((1, y), (0, y)) y (p, q) = ((x, 0), (x, 1)) ó
((x, 1), (x, 0)). Y la relación pr4 q si p = q ó (p, q) = ((0, y), (1, y)) ó ((1, y), (0, y))
y (p, q) = ((x, 0), (1 − x, 1)) ó ((1 − x, 1), (x, 0)). Gráficamente se ve en las figura
9 y figura 10
³ 2 ´ ³ 2 ´
Toro= I /r3 , τ 2 Botella de Klein= I /r4 , τ 2
I /r3 I /r4

5. Espacios Compactos
Entre las nociones intuitivas que tenemos de conjuntos, exiten dos clases que se
diferencian notablemente. Existe espacios como < que no tienen fin y otros como la
esfera que son finitos. Por supuesto, desde el punto de vista matemático podemos
dar una diferenciacion de estos espacios, ya que no es lo mismo que un conjunto
no tenga fin o principio o que este conjunto sea simplemten muy grande. Para dar
5. ESPACIOS COMPACTOS 15

Figure 8. De la misma forma, el producto cartesiano de los in-


tervalos [1, 1] × [1, 1] con la relación r2 , es topologicamente igual a
la cinta de Möbius

Figure 9. El producto cartesiano de los intervalos [1, 1] × [1, 1]


con la relación r3 , es topologicamente igual al Toro.

una noción concreta de estos conceptos, diremos que los conjuntos como la esfera,
son compactos. Basicamente la diferencia es que a la esfera la podemos cubrir con
un numero finito de abiertos. La definición formal es:
Definición 21. Sean (X, τX ) espacio topológico y A ⊂ X. A es un conjunto
compacto si toda cubierta U de A contiene una subcubierta finita.
Proposición 20. Sean (X, τX ), (Y, τY ) espacios y f : X → Y función con-
tinua. Entonces la imagen de subconjuntos compactos de X son subconjuntos com-
pactos de Y .
Proof. Sea A subconjunto
© compacto
ª de X y sea V = {Vα }α∈K una cubierta de
f (A), entonces V −1 = f −1 (Vα ) α∈K es una cubierta de A. Como A es compacto,
© ªN
existe una cubierta finita de A, U = f −1 (Vj ) J=1 , subcubierta de V −1 . Como
16 1. ESPACIOS TOPOLÓGICOS

Figure 10. De la misma forma, el producto cartesiano de los in-


tervalos [1, 1] × [1, 1] con la relación r4 , es topologicamente igual a
la Botella de Klein.
¡ ¢ ¡ ¢ ¡ −1 ¢
f f −1 (Vj ) ⊂ Vj tenemos que f (A) ⊂ f ∪N j=1 f
−1
(Vj ) ⊂ ∪N
j=1 f f (Vj ) ⊂
N
∪N
j=1 Vj , por lo que {Vj }J=1 es una cubierta finita de f (A). ¤
El punto mas importante de los espacio compacto es el hecho que:
Proposición 21. Ser espacio compacto es una propiedad topológica.
Proof. Sólo daremos una idea de la demostración. Se desprende del hecho
que si X es compacto, f (X) lo es y si f es homeomorfismo, f −1 (X) también es
compacto. ¤
En lo que sigue hablaremos de algunas propiedades de los espacios compactos
y de como se puede saber si un espacio es o no compacto. Por lo general no es fácil
demostrar que un espacio es o no compacto. Pero usando las dos siguientes proposi-
ciones, de la segunda no daremos su demostración, se puede verificar la propiedad
de compacto en muchas ocaciones. Comencemos por la siguiente proposición.
Proposición 22. Si (X, τX ) es compacto y Y tiene la topologı́a cociente τf
con respecto a f : X → Y , sobre, entonces se sigue que (Y, τf ) es compacto.
Proof. Como τY = τf , f es continua y como f es sobre f (X) = Y . Entonces
Y es imagen continua de un compacto por lo tanto es compacto. ¤
Proposición 23. [0, 1] ∈ < es compacto.
Proof. Sin Dem. ¤
Otra propiedad que ayuda a verificar si un espacio es o no compoacto es la
siquiente:
Proposición 24. Todo subconjunto cerrado de un espacio compacto, es com-
pacto.
Proof. Sea A subconjunto cerrado de X y sea U = {Uα }α∈J una cubierta de
A. A cerrado implica que Ac ∈ τX y Uext = {Uα , Ac }α∈J es una cubierta de X,
ya que A ⊂ ∪ Uα . Si X es compacto, entonces existe una subcubierta finita V de
α∈J
5. ESPACIOS COMPACTOS 17

n N
Uext . Vext = {Vi , Ac }i=1 que cubre X. Por tanto V = {Vi }i=1 es cubierta finita
de A, ya que para todo Vj ∈ Vext existe Ur ∈ Uext tal que Vj = Ur , es decir, A es
compacto. ¤
También es fácil imaginarse que el producto cartesiano de espacios compactos,
es compacto. Formalmente se tiene la siguiente proposición:
Proposición 25. El producto topológico (X × Y, τx×y ) es compacto sı́ cada
(X, τX ) y (Y, τy ) es compacto.
Proof. =⇒) Como X × Y es compacto, entonces Π1 : X × Y = X y Π2 :
X × Y → Y son compactos, ya que Π1 y Π2 son continuas.
⇐=) Sin Dem. ¤
De estas propiedades resultan algunos ejemplos y resultados sencillos. Por
N
ejemplo tenemos que el n-cubo es compacto, i.e. I ⊂ <n es compacto.
Otro concepto relacionado con espacios compactos, es el concepto de conjunto
acotado, concepto que se puede dar en un espacio normado. Entonces podemos
definir conjuntos acotados en los reales, utilizando su norma canónica. Intuiti-
vamente, un espacio compacto debe ser acotado, finito. Formalmente se tiene la
definición:
Definición 22. Sea A subconjunto de (<n , τ<n ) y n ∈ Z + . Se dice que A es
1 n +
un
¯ i ¯conjunto acotado si para todo x = (x , · · · , x ) ∈ A, existe K ∈ < , tal que
¯x ¯ ≤ K para todo i = 1, · · · , xm .

Con el siguiente teorema podemos relacionar entonces ambos conceptos.


Teorema 1 (de Heine-Borel). Todo subconjunto de <n cerrado y acotado, es
compacto.
n hom n
Proof. A acotado ⇒ A ⊂ [−K, K] u I para algún K. A cerrado y
n
[−K, K] compacto implica A compacto. ¤
Ahora usemos lo anterior para verificar si algunos espacios son compactos,
veamos algunos ejemplos.
n
Exemplo 20. I ⊂ <n es cerrado y acotado, por lo tanto es compacto.
Exemplo 21. S n ⊂ Rn+1 es cerrado y acotado, por lo tanto es compacto, etc.
Otro concepto interesante, que sólo mensionaremos, es el de espacios paracom-
pactos. Para definirlo, es necesario introducir la siguiente definición.
Definición 23. Una familia F de subconjuntos de (X, τX ) es localmente
finita o finita por vecindades, si para todo x ∈ X existe Ux ∈ τX tal que Ux
intersecta a lo mas un número finito de elementos de F.
Definición 24. Un refinamiento de U es una cubierta V = {Vβ }β∈K de
(X, τX ) tel que para todo Vβ ∈ V existe Uα ∈ U con Vβ ⊂ Uα . Se denota por
{Vβ }β∈J < {Uα }α∈J .
Proposición 26. Toda subcubierta de una cubierta es un refinamiento.
Proof. Sea V una subcubierta de U, esto implica que para todo Vβ ∈ V existe
Uα ∈ U con Vβ = Uα ⊂ Uα . ¤
18 1. ESPACIOS TOPOLÓGICOS

Definición 25. Un espacio es paracompacto si toda cubierta tiene un refi-


namiento finito por vecindades.
Este concepto, en cierta forma, es mas general que el concepto de espacos
compactos, ya que:
Proposición 27. Todo espacio compacto es paracompacto.
Proof. X compacto implica que toda cubierta U de X tiene una subcubierta
finita, esto quiere decir que cualquier vecindad Ux de x ∈ X intersecta a lo más un
número finito de elementos del refinamiento V de U. ¤
Los espacios que no son compactos, se pueden en ocaciones, compactificar. La
forma mas simple de entenderlo es dando un ejemplo sencillo. Imaginemos la recta
real, la cual se extiende indefinidamente hacia los numeros positivos y negativos.
Ahora tomemos la recta real y unamos los puntos extremos, tanto de lado negativo
como del lado positivo. Lo que se tendrá es un cı́rculo, que puede ser de radio 1,
por simplicidad. Este cı́rculo es una forma compacta de escribir la recta real, donde
ahora si tenemos un numero que representa el infinito (en los reales, el infinito no
es un número, es solo un concepto para designar muy grande). Formalmente se
puede hacer este proceso, siguiendo los pasos de la siguiente proposición.

Proposición 28. Sea (X, τX ) espacio topológico y ∗ ∈
/ X. Sea τ = τX ∪
{V ∪ {∗}}V ∈K con K = {abiertos con complemento compacto en X}. Entonces
∧ ∧
1) τ es una topologı́a para X = X ∪ {∗}
µ ¶
∧ ∧
2) (X, τX ) es subespacio topológico de X, τ
µ ¶
∧ ∧
3) X, τ es compacto
µ ¶
∧ ∧
4) X es denso en X, τ si X no es compacto.

Proof. Sin Dem. ¤



Notación 4. A la topologı́a τ = τX ∪ {V ∪ {∗}}V ∈K con K = {abiertos con
complemento compacto en X} se le llama la compactificación por un punto de
(X, τX ) o simplemente compactificación de X.
Ahora veamos el ejmplo de la compactificación de la recta real formalmente. Lo
que vamos a hacer es agregarle un punto a la recta real, que podemos llamar también
el infinito, pero puede ser lo que sea. Y luego definimos un hemeomorfismo que vaya
del cı́rculo a la recta real. Asi demostramos que el cı́rculo es una compatificación
de la recta real. Aquı́ daremos el ejemplo mas general de la compactificación de
<n , esto es:

Exemplo 22. La compactificación por un punto de <n está dada por <n =
n
< ∪ {∞}, veamos esto.
Consideremos la función:
σ : S n →<ˆn
es decir ½ ¡ 1 ¢ ¡ ¢
¡ 1 n+1
¢ x , · · · , xn / 1 − xn+1 si x 6= (0, · · · , 0, 1)
σ : x ,··· ,x →
∞ si x = (0, · · · , 0, 1)
5. ESPACIOS COMPACTOS 19

el cual es un homeomorfismo, con inversa σ −1 : < ˆ n → S n dada por


½ ¡ 1 ¢ 1
¡ ¢
−1 x , · · · , xn → 1+(x1 )2 +···+(x n )2 2x1 , · · · , 2xn , (x1 )2 + · · · + (xn )2 − 1
σ :
∞ → (0, · · · , 0, 1)
hom hom hom
∼ <
Entonces S n = ∼ <
ˆ n . Ejemplos de esto son el cı́rculo S 1 = ˆ y la esfera S 2 ∼
=
ˆ = < ∪ {∞} ∼
< 2 2
= C ∪ {∞} llamada esfera de Riemann, etc. A la función σ se
le llama proyección estereográfica . Ver figura 11

Figure 11. La proyección estereográfica en el plano. Esta función


proyecta los puntos del cı́rculo 1 -1 en la lı́nea recta. De la misma
forma, la proyección estereográfica proyecta 1 -1 cualquier esfera
de dimensión arbitraria (finita) en un plano de la misma dimensión.

Para terminar esta sección daremos una clasificación interesante de los espacios
topológicos según su estructura.
Definición 26. Sea(X, τX ) espacio topológico.
· Se dice que X es espacio T0 si para todo x, y ∈ X , x 6= y, existe Ux con
y∈/ Ux ó existe Uy con x ∈/ Uy
· Se dice que X es espacio T1 si para todo x, y ∈ X, x 6= y, existe Ux y Uy
con y ∈/ Ux y x ∈/ Uy
· Se dice que X es espacio T2 o Hausdorff si para todo x, y ∈ X, x 6= y,
existe Ux , Uy con Ux ∩ Uy = φ
· Se dice que X es espacio T3 o espacio regular, si X es T1 y si para todo
x ∈ X y F cerrado en X con x ∈ / F , existe Ux y U en τX con F ⊂ U y Ux ∩ U = φ
· Se dice que X es espacio T4 o espacio normal , si X es T1 y para todo
F, G cerrados disjuntos en X, existe U, V ∈ τX tal que U ∩ V = φ y F ⊂ U, G ⊂ V ,
ver figura 12.

Ejercicio 9. Muestre que todo espacio T2 es T1


Ejercicio 10. Muestre que todo espacio T1 es T0
Ejercicio 11. Muestre que todo espacio metrizables es T2
Ejercicio 12. Muestre que todo espacio métrico es Hausdorff.
20 1. ESPACIOS TOPOLÓGICOS

Figure 12. Clasificación de los espacios topológicos.

6. Espacios Conexos.
Un espacio topológico puede ser también hecho de piezas separadas, o pedazos
sin unión. Cuando los espacios son hechos de una sola pieza, se dice que son espa-
cios conexos. Para definir los espacios conexos es mas sencillo definir los espacios
disconexos, es decir:
Definición 27. Un espacio topológico (X, τX ) es disconexo si existen A, B ∈
τX tales que A, B 6= φ, A ∪ B = X y A ∩ B = φ.
Definición 28. Un espacio es conexo si no es disconexo.
Definición 29. Sea (X, τX ) espacio topológico y A ⊂ X (subespacio). A es
conexo si lo es como subespacio topológico de X.
Algunos ejemplos simples son:
6. ESPACIOS CONEXOS. 21

Exemplo 23. El espacio de Sierpinski es conexo, ya que X = {a, b} y τX =


{φ, {a, b} , {a}}, siempre, ya que {a, b} ∪ {a} = X y {a, b} ∩ {a} 6= φ.
Exemplo 24. La topologı́a discreta es disconexa, ya que para todo A 6= φ, X
con A ∈ P (X), Ac ∈ P (X) y A ∩ Ac = φ, con A ∪ Ac = X
Por definición, en un espacio topológico el vacio y todo el espacio son abiertos
y cerrados a la vez. En base a esto, un criterio para decidir si un espacio es conexo,
es el siguiente.
Proposición 29. Sea (X, τX ) espacio. X es conexo, ssı́ los únicos abiertos y
cerrados a la vez son X y φ, además no existe f ∈ C 0 (X, {0, 1}) sobre.
Proof. Sin Dem. ¤
Finalmente, ser conexo es también una propiedad topolólogica. Para ver esto,
veamos la siguiente proposición.
Proposición 30. La imagen continua de conexos es conexa.

¡ Proof.¢ Sea f : X → Y continua y (X, τX ) espacio conexo. Supongamos que


f (X), τf (x) ⊂ (Y, τY ) no es conexo. Entonces existe g : f (X) → {0, 1} continua
y sobre y por lo tanto g ◦ f ∈ C 0 (X, {0, 1}) y es sobre, lo que implica que (X, τX )
no es conexo, lo que contradice la hipótesis. ¤
Proposición 31. Ser conexo es una propiedad topológica.
Proof. Basta tomar un homeomorfismo, como es sobre y continuo, la imagen
de un conexo será conexa y lo mismo para la inversa. ¤
Vamos a ver algunos ejemplos representativos:
Exemplo 25. Todos los intervalos en < son conexos.
hom
Exemplo 26. < es conexo, ya que < ∼
= (−1, 1) que es conexo.
Exemplo 27. S 1 es conexo ya que f : [0, 1] → S 1 , τ → (cos (2πt) , sen (2πt))
es continua.
CHAPTER 2

VARIEDADES DIFERENCIALES

1. Variedades
Las variedades son espacios topológicos que son localmente igual a <n . Este
hecho permite entonces utilizar conceptos que conocemos de <n y usarlos en la var-
iedad, al menos localmente (es decir, al menos para cada abierto). Por ejemplo, la
diferencial es un conceptos bien importante de <n porque nos da un modelo simple
de movimiento. El movimiento es la propiedad mas importante de todo objeto en
la naturaleza, de hecho la fı́sica se dedica a estudiar principalmente esta caracter-
istica, el movimiento. Ya sea el movimiento de un objeto o el movimiento de los
campos en el espacio tiempo o el movimiento de las cantidades termodinámicas en
un sólido. Esa es la razón de la importancia del cálculo diferencial, tanto en cien-
cias exactas, como en su aplicación mas directa, que es la tecnologia avanzada. Las
variedades diferenciales son una generalización del cálculo diferencial a variedades,
que llamamos variedades diferenciales. En la actualidad, las variedades diferen-
ciales tienen aplicación en un gran numero de áreas de la ciencia y la tecnologia.
Por sólo nombrar algunas, diremos que el mejor modelo que se tiene hasta el mo-
mento del espacio tiempo es el de una variedad diferenciable. El estudio de teorı́a
de campos en espacios curvos necesita para su mejor comprensión de las variedades
diferenciables. La función de calor en termodinámica es una fafiana, es decir, una
1-forma, que es un concepto formal de variedades diferenciables. O el estudio mod-
erno del control automático en ingenierı́a, usa intensivamente la herramienta de las
variedades diferenciales, etc. En este capitulo daremos los conceptos mas impor-
tantes de las variedades y de las variedades diferenciables. Vamos a empezar por
su definición.
Definición 30. Una variedad real de dimensión n es un espacio topológico
de Hausdorff (M n , τM N ), tal que para todo elemento p ∈ M n existe una terna
c = (Up , ψ, V ) donde Up ∈ τM n , V ∈ τ<n y ψ : Up → V , homeomorfismo. Ver
figura 1.
Es decir, una variedad es un espacio topológico que localmente es <n (o sea,
para todo p ∈ M n , se tiene que Up ∈ τM n , es homeomorfo a <n ). Si en la definición
cambiamos real por complejo, tenemos variedades complejas de dimensión n. Por
hom
ejemplo, C ∼= <2 es una variedad compleja de dimensión uno.
Para trabajar con variedades se acostumbra definir algunos conceptos de la
variedad, que estaremos usando en el futuro.
Definición 31. Sea M n una variedad, a:
· cα = (Uα , ψα , Vα ) , ∪ Uα = M n se le denomina carta sobre M n
α∈J
· Uα se le llama dominio de la carta.
· (Uα , ψα ) se le llama sistema de coordenadas sobre Uα
23
24 2. VARIEDADES DIFERENCIALES

Figure 1. Una variedad real de dimensión n es un espacio


topológico de Hausdorff localmente homeomorfo a <n .
¡ ¢
· ψα−1 , Vα se le llama parametrización de Uα
· Vα = ψα (Uα ) se¡ le llama imagen
¢ de
¡ la carta¢cα
· ri : <n → <, λ1 , · · · , λn → ri λ1 , · · · , λn = λi se llama la i-esima
función coordenada sobre <n
· xiα := ri ◦ ψα es la i-esima función coordenada del sistema de coorde-
nadas
· Sean cα y cβ dos cartas cα = (Uα , ψα , Vα ) y cβ = (Uρ , ψβ , Vβ ). A las funciones
ψαβ := ψβ ◦ ψα−1 : ψα (Uα ∩ Uβ ) → ψβ (Uα ∩ Uβ ) y se les llama funciones de
transición, donde ψαβ es un homeomorfismo, ver figura 2.
¡ ¢
Comentario 4. Las funciones x1α , · · · , xnα : Uα → <n
¡ ¢
p → x1α , · · · , xnα (p)
¡ ¢
se pueden representar como ψα = x1α , · · · , xnα
Comentario 5. Todos los conceptos de la definición 31 dependen de los abier-
tos del espacio topológico. Se dice entonces que son conceptos locales.
Es decir, cuando hablemos de algún concepto local, significa que este concepto
vale en los abiertos del espacio. Veamos algunos ejemplos de variedades.
1. VARIEDADES 25

Figure 2. En esta figura se muestran dos cartas, con sus dominios,


sus sistemas coordenados, sus imágenes y sus funciones de tran-
sición.

Exemplo 28. (<, τ<n ) es una variedad real de dimensión n con una sola carta
c = (<n , id|<n , <n ) .
Exemplo 29 (Pelota). Vamos a dar un ejemplo
¡ que
¢ vamos a utilizar a lo largo
de estos capitulos. Se trata de las pelotas o S 2 , τS 2 , con su topologı́a heredada
de <3 . La pelota es una 3-esfera y es una variedad 2-dimesional real que al menos
tiene dos cartas. Estas son:
¡ ¢
c1 = U1 , σ+ , <2 con U1 = S 2 \ {(0, 0, 1)} .
donde el homeomorfismo σ+ esta definido como:

1
σ+ (x, y, z) = (x, y)
1−z
cuya inversa esta dada por:

−1 1 ¡ ¢
σ+ (x, y) = 2 2
2x, 2y, x2 + y 2 − 1
1+x +y
Análogamente, la segunda carta, ahora sin el polo sur, esta dada por:
26 2. VARIEDADES DIFERENCIALES

¡ ¢
c2 = U2 , σ− , <2 con U2 = S 2 \ {(0, 0, −1)} .
donde el homeomorfismo σ− esta definido como:

1
σ− (x, y, z) = (x, y)
1+z
cuya inversa esta dada por:

−1 1 ¡ ¢
σ− (x, y) =2 2
2x, 2y, −x2 − y 2 + 1
1+x +y
2
Entonces U1 ∪ U2 = S y σ+ y σ− son homeomorfismos. A σ+ se le llama la
proyección estereográfica desde el norte y a σ− desde el sur.
Exemplo 30 (Esferas). Vamos ahora a generalizar el ejemplo anterior a cualquier
dimensión, y formemos la variedad de las esferas. La esfera con su topologia
heredada de <n , es el espacio topológico (S n , τS n ). La n-esfera es una variedad
n-dimesional, real que al menos tiene dos cartas. Estas son:

c1 = (U1 , σ+ , V1 ) con U1 = S n \ {(0, · · · , 0, 1)} , V1 = <n


donde el homeomorfismo σ+ esta definido como:
¡ ¢ 1 ¡ 1 ¢
σ+ x1 , · · · , xn+1 = n+1
x , · · · , xn
1−x
cuya inversa esta dada por:

¡ 1 ¢ 1 ³ 2
´
−1
σ+ x , · · · , xn = 2x1 , · · · , 2xn , x1 + · · · + xn 2 − 1
1 + x1 2 + · · · + xn 2
Hay que comparar estos homeomorfismos con los de la compactificación de <n
en el exemplo 22. Analogamente, la segunda carta, ahora sin el polo sur, esta dada
por:

c2 = (U2 , σ− , V2 ) con U2 = S n \ {(0, · · · , 0, −1)} , V2 = <n


donde el homeomorfismo σ− esta definido como:
¡ ¢ 1 ¡ 1 ¢
σ− x1 , · · · , xn+1 = n+1
x , · · · , xn
1+x
cuya inversa esta dada por:

¡ 1 ¢ 1 ³ 2
´
−1
σ− x , · · · , xn = 2x1 , · · · , 2xn , −x1 − · · · − xn 2 + 1
1 + x1 2 + · · · + xn 2
Entonces U1 ∪ U2 = S n y σ+ y σ− son homeomorfismos. Igual que en el caso
de las pelotas, a σ+ se le llama la proyección estereográfica desde el norte y a
σ− desde el sur.
En lo que sigue, vamos a trasladar el concepto de diferencial a la variedad
utilizando los homeomofismos de ésta en <n . Como sabemos como diferenciar en
<n , podemos definir diferenciales en la variedad. Cuando esto se puede, se dice que
la variedad es suave. Recordemos la definición de suave en <n .
1. VARIEDADES 27

Definición 32. Sean U y V abiertos de <n y <m respectivamente y f : U → V .


Se dice que f es suave si ri ◦ f : U → < tiene derivadas de todos los órdenes.
Vamos a entender lo que es una variedad diferenciable. En una forma simple se
puede decir que una variedad diferenciable es basicamente una variedad en donde
las funciones de transición son suaves. Otra manera de decirlo es la siguiente.
Dos cartas se dicen compatibles si su función de transición es suave, es decir, una
variedad se dice diferenciable si esta cubierta con cartas compatibles. Formalmente
se tiene:
Definición 33. Dos cartas cα y cβ son compatibles si
i) Uα ∩ Uβ = φ ó
ii) Uα ∩ Uβ 6= φ y las funciones de transición son suaves.
Definición 34. Un atlas sobre M n es una colección de cartas compatibles que
cubran M n .
Definición 35. Una variedad real diferenciable ó suave de dimensión n
es un par (M n , A) donde M n es una variedad real de dimensión n y A es un atlas
sobre M n , ver figura 3.

Figure 3. Una variedad real diferenciable suave de dimensión n


es una variedad real de dimensión n en donde las funciones de
transición son suaves.
28 2. VARIEDADES DIFERENCIALES

Definición 36. Dos atlas A y A0 sobre M n son equivalentes si cα y c0β son


compatibles para toda cα ∈ A y c0β ∈ A0 .
Si tomamos todo el conjunto de atlas sobre M n , la relación A ∼ A0 con A
es equivalente a A0 , es una relación de equivalencia, la cual separa el conjunto de
cartas equivalentes en clases de equivalencia. Si solo usamos los representantes de
las clases, lo que se tiene es una estructura direrenciable.
Definición 37. [A], el conjunto de clases de atlas sobre M n se llama una
estructura diferenciable sobre M n
Intiutivamente, una variedad suave es aquella que tiene una forma suave, es
decir, sin aristas o puntas como las del cuadrado o el cubo, sino es suave como el
cı́rculo o la esfera.
Ejercicio 13. Sean (M n , A) y (N n , B) variedades diferenciables. Demuestre
que (M n × N n , A × B) es variedad diferenciable.
Ejercicio 14. Sea (S n , A) , A = {c1 , c2 } del ejercicio 30 de esferas. Demuestre
que (S n , A) es variedad diferenciable.

2. Funciones suaves
El siguiente paso es definir la diferencial en una variedad diferenciable. Para
hacer esto, lo que se acostumbra es transladar a <n por medio de los homeomor-
fismos, la diferenciabilidad de una función. Vamos a iniciar con la definición de
diferencial de una función.
Definición 38. Sea f : M n → < una función en una variedad (M n , A). f es
suave o diferenciable si f ◦ ψα−1 : ψα (Uα ) → < es suave para toda carta de A,
ver figura 4.
Es decir, una función f que va de la variedad a los reales es suave, si su función
correspondiente, la que va de <n a los reales, es suave. Para analisar la función f
entonces, es necesario estudiar su función f ◦ ψα−1 correspondiente.
Notación 5. Se denota al conjunto de funciones suaves por C ∞ (M n , <)
ó al conjunto de funciones suaves en la vecindad de x por C ∞ (M n , x, <)
Comentario 6. Observe que
a) (C ∞ (M n , <) , +, ·, <, ·) es un álgebra conmutativa con unidad.
b) (C ∞ (M n , <) , +, ·) es anillo
c) (<, C ∞ (M n , <) , +, ·) es espacio vectorial.
Definición 39. Si f es suave en todo punto x ∈ W ⊂ M n , se dice que f es
una función suave en W.
Proposición 32. f suave implica f continua.
Proof. Sin dem. ¤

En base a la definición de una función podemos definir la diferencial de una


función vectorial. Primero daremos la definición formal y luego explicaremos con
cuidado el significado de esta.
2. FUNCIONES SUAVES 29

Figure 4. Esta figura muestra la representación de una función


f suave en una variedad de dimensión n.

Definición 40. Sean M m y N n variedades y F : M m → N n función. F es


suave si para toda f ∈ C ∞ (N n , <) F ∗ : C ∞ (N n , <) → C ∞ (M m , <) F ∗ (f ) =
f ◦ F es suave.
Para simplificar la notación es conveniente definir el full-back de una función.
Notación 6. A F ∗ se le llama imagen recı́proca o “full-back” de f y se
denota al conjunto de “full backs” como C ∞ (M m , N n ), ver figura 5.
Como en el caso de una función de una variedad a los reales, la diferenciabilidad
de una función que va de una variedad a otra se traduce a la diferenciabilidad de
la función correspondiente, en este caso es la función f ◦ F , llamado el full-back,
que va de la variedad a los reales. Ası́ podemos ver su diferenciabilidad tomando
en cuenta la definición 38 anterior.
Una consecuencia interesante de las funciones suaves es que la composición de
funciones suaves es también suave.
Proposición 33. La composición de funciones suaves es suave.
Proof. Sean M m , N n y S s variedades y F : M m → N n , G : N n → S s y f :
S s → < funciones suaves. Entonces, G suave implica G∗ (f ) = f ◦ G ∈ C ∞ (N n , <)
es suave y F suave implica a su vez que F ∗ (G∗ (f )) = G∗ (f ) ◦ F = (f ◦ G) ◦ F

= f ◦ (G ◦ F ) = (G ◦ F ) (f ) es suave. Entonces G ◦ F es suave, se tiene que
∗ ∗ ∗
(G ◦ F ) = F ◦ G . ¤
30 2. VARIEDADES DIFERENCIALES

Figure 5. La representación del Full-back F ∗ de una función F .

Ejercicio 15. Sea cα = (Uα , ψα , Vα ) carta sobre M n variedad. Mostrar que


ψα es suave y xiα = ri ◦ ψα es suave.
Ejercicio 16. Demuestre que funciones suaves entre variedades son continuas.
Ahora podemos definir los isomorfismos de variedades diferenciales, aquı́ son
llamados difeomorfismos. Su definición es clara.
Definición 41. Sea F ∈ C ∞ (M m , N n ) biyectiva. F se dice difeomorfismo si
−1
F ∈ C ∞ (N n , M m ).
Definición 42. Dos variedades se dicen difeomórficas si existe un difeo-
dif
morfismo entre ellas. Se denota M m ∼
= N n.
Notación 7. Si dos variedades M m y N n son difeomorficas, se denota como
dif
Mm ∼
= N n.
dif
La relación M m ∼ N n si M m y N n son difeomórficas M m = ∼ N n , es de
nuevo una relación de equivalencia. Entonces las variedades difeomórficas están
clasificadas en clases de equivalencia, lo cual ayuda mucho para su estudio.

3. Vectores Tangentes.
En esta sección vamos a construir los vectores tangentes a una variedad difer-
enciable. Esta construcción tiene varios objetivos, pero el mas importante es que
con los vectores tangente podemos contruir un espacio vectorial en cada punto de
la variedad. A este espacio se le llama el espacio tangente. Es necesario construir
tantos vectores base del espacio tangente a la variedad diferenciable como la di-
mensión de la variedad, o sea, tantos como la dimensión al espacio <n al cual la
variedad diferenciable es homeomorfica. Ya construido el espacio tangente podemos
contruir el dual a este espacio vectorial, o sea, el espacio de las transformaciones
lineales en el espacio tangente. A este espacio se le llama el espacio contangente de
la variedad. Estos dos espacio son muy importantes en modelos del espacio tiempo,
ya que la métrica de una variedad, es un elemento del espacio contangente, como
3. VECTORES TANGENTES. 31

veremos mas adelante. Para simplificar un poco, cuando hablemos de variedad,


vamos a referinos realmente a variedad diferenciable, aunque ya no se especifique
en el texto. Vamos a iniciar con la definición de vector tangente a una variedad.
Definición 43. Sea M n variedad y x ∈ M n . Un vector tangente a la
variedad en x ∈ M n es una función vx : C ∞ (M n , x, <) → < tal que para una
carta c := (U, ψ, V ) ∈ A con x ∈ U , existe (a1 , · · · , an ) ∈ <n tal que para toda
P
n ¡ ¢¯
f ∈ C ∞ (M n , x, <) se cumple vx (f ) = ai ∂r∂ i f ◦ ψ −1 ¯ψ(x) (ver figura 6).
i=1

Figure 6. El vector tangente formado por la función f y el espacio


tangente formado por este vector tangente.
¡ ¢
Vamos a entender la definición. Primero notemos que la función f ◦ ψ −1 |ψ(x)
es una función que va de <n a los reales y esta evaluada en el punto ψ(x). Por
tanto sabemos tratar con ella. También sabemos que el gradiente de una función
en <n es un vector tangente a la superficie que forma la función. Es por eso que
podemos interpretrar a la función vx (f ) como un vector tengente a la variedad.
Notación 8. Al conjunto de vectores tangentes sobre M n en x ∈ M n se le
denota por Tx M n y se le llama espacio tangente en x.
∂ ¯
¯
Notación 9. Al vector con la u-upla (0, · · · , 1, 0, · · · ) se le denota ∂x de tal
∂ ¯
¯ ∂
¡ ¢¯
−1 ¯
i
x
forma que ∂xi x (f ) := ∂ri f ◦ ψ ψ(x)
.
© ∂ ¯ ª
El conjunto ∂x i
¯ es entonces una base de Tx M n , todo vector vx se
x i=1,··· ,n
P i ∂ ¯¯
n
escribe como vx = a ∂xi x . Sea xi = ri ◦ ψ ∈ C ∞ (M n , x, <) observemos que
¯ i=1
¡ j ¢¯ ¡ ¢¯
∂ ¯ −1 ¯

∂xi x (x ) = ∂r i x ◦ ψ
j
ψ(x)
= ∂r∂ i ri ¯ψ = δij .
(x )
La función vx es una derivación, es decir, cumple con la ley de superposición y
con la regla de Leibinitz, esto es:
Proposición 34. vx ∈ Tx M n es una derivación, i.e.
i) vx (f + g) = vx (f ) + vx (g)
ii) vx (λf ) = λvx (f )
iii) vx (f g) = vx (f ) g(x) + f (x) vx (g) para todo f, g ∈ C ∞ (M n , x, <) y para
todo λ ∈ <.
32 2. VARIEDADES DIFERENCIALES

Ejercicio 17. Demostrar la proposición.


Solo queda ver que el espacio formado por los vectores tangentes es, como se
espara, un espacio vectorial. Este se demuestra en la siguiente proposición.
Proposición 35. La estructura (<, Tx M n , +, ·) es un espacio vectorial de di-
mensión
© ∂n,¯ con
ª (vx + wx ) (f ) = vx (f ) + wx (f ) y (λvx ) (f ) = λ (vx (f )). El con-
junto ∂x i
¯ es una base del espacio vectorial llamado base coordenada.
x i=1,··· ,n

Ejercicio 18. Demostrar la proposición.


0 0 0 n
Comentario
© ∂ ¯ 7.
ª Observe ©que∂ si¯ (U,
ª ϕ, V ) y (U , ψ , V ) son cartas de M en
¯ ¯
x, entonces ∂xi x i=1,··· ,n y ∂x0i x i=1,··· ,n son bases del espacio tangente de la
¯ ¡ ¢ P n ¯ ¡ k¢ P
n
variedad en x. Se tiene que ∂x∂0i ¯x xk = ∂ ¯
αji ∂x j
x
x = αij δjk = αik , es
j=1 j=1
∂ ¯
¯ P
n
∂ ¯
¯ ¡ j¢ ¯
∂ ¯
decir ∂x0i x = ∂x0i x x ∂xj x
j=1

El resultado anterior nos da una fórmula, como la regla de la cádena, para


cambiar de homeomorfismo en la variedad, o sea, para cambiar de sistema de co-
ordenadas. En el lenguaje de variedades, hacer un cambio de coordenadas significa
cambiar de homeomorfismo de la variedad a los reales. Hay otro tipo de cambio de
coordenadas que tiene un significado dinámico, pero de eso no platicaremos aqui.
Algunos ejemplos simples de variedades son los siguientes.
Exemplo 31. La variedad (<n , A = {(<n , id|<n , <n )}). Como ψ = id|<n se
P
n ¯ P
n
sigue que xi = ri ◦ id|<n = ri entonces vx = ai ∂r∂ i ¯x = ai ∂r∂ i . En tal
i=1 i=1
iso
caso Tx <n ∼= <n , donde el isomorfismo esta dado por la función iso definida como
Pn ¡ ¢
iso : Tx < → <n ,
n
ai ∂r∂ i → a1 , · · · , an
i=1
½ ¾
P
n+1
Exemplo 32. El espacio tangente de S n es Tx S n = vx ∈ <n+1 | x · vx = xi vxi = 0
i=1
x ∈ S n ⊂ <n−1 . La demostración detallada de esto la veremos mas adelante.

4. Uno formas
En todo espacio vectorial se pueden definir transformaciones lineales que forman
a la vez un espacio vectorial de la misma dimensión, llamado el espacio dual (ver
capitulo 3). Entoces podemos formar el conjunto de transformaciones lineales en
el espacio tangente a una variedad y formar el espacio dual. A este espacio se le
llama espacio contangente y a sus elementos, las transformaciones lineales, se les
llama formas. Vamos a ver todo esto formalmente.
Sean M m y N n variedades y F ∈ C ∞ (M m , N n ) con x ∈ M m .
Definición 44. La diferencial de F en x es la función definida por
dFx : Tx M m → TF (x) N n
vx → dFx (vx ) : C ∞ (N n , F (x) , <) → <
g → dFx (vx ) (g) := vx (F ∗ (g))
ver figura 7.
4. UNO FORMAS 33

Notación 10. Si denotamos dFx = Fx∗ , podemos escribir


Fx∗ (vx ) (g) := vx (F ∗ (g))
Notación 11. También lo podemos denotar como
dFx (vx ) (g) = vx (g ◦ F ) = vx ◦ F ∗ (g)

dFx (vx ) = vx ◦ F ∗
Veamos con cuidado el significado de la diferencial de una función. Sea c =
(U, ψ, V ) carta de M m que contiene a x ∈ U ⊂ M m y C 0 = (W, ψ, V 0 ) carta en
Pm
∂ ¯
¯
N n que contiene a F (x) ∈ W ⊂ N n . Sea vx ∈ Tx M m con vx = ai ∂x i
x
y sea
z=1
g ∈ C ∞ (N n , F (x) , <). Vamos a escribir explicitamente la definición anterior en
terminos de las cantidades como las leemos en <n , para poder entender mejor el
significado de la diferencial. Entonces,

dFx (vx ) (g) = vx (g ◦ F )


Ãm ¯ !
X ∂ ¯¯
= ai (g ◦ F )
i=1
∂xi ¯x
m
X ∂ ¡ ¢¯
= ai i
g ◦ F ◦ ϕ−1 ¯ϕ(x)
i=1
∂r
m
X ∂ ¡ ¢¯
= ai g ◦ ψ −1 ◦ ψ ◦ F ◦ ϕ−1 ¯ϕ(x)
i=1
∂ri
Xm Xn
∂ ¡ ¢¯ ∂ ¡ j ¢¯
= ai j
g ◦ ψ −1 ¯ψ◦F i
s ◦ ψ ◦ F ◦ ϕ−1 ¯ϕ(x)
i=1 j=1
∂s (x) ∂r
m n ¯ ¯
XX ∂ ¯¯ ∂ ¯¯ ¡ j ¢
= ai j ¯ (g) i ¯ y ◦F
i=1 j=1
∂y F (x) ∂x x
n
à m ¯ ! ¯
X X ¯ ¡ j ¢ ∂ ¯¯
i ∂ ¯
= a y ◦ F (g)
j=1 i=1
∂xi ¯x ∂y j ¯F (x)
Xn ¯
¡ j ¢ ∂ ¯
= vx y ◦ F ¯ (g)
∂y j ¯F (x)
J=1
Pn ¯
j ¯
Ver figura 8. Podemos escribir dFx (vx ) = (dFx (vx )) ∂y∂ j ¯ de donde se
j=1 F (x)
j ¡ ¢
sigue que (dFx (vx )) = vx y j ◦ F
Sólo falta demostrar que efectivamente la diferencial dFx es una transformación
lineal. Esta demostración la dejaremos como ejercicio.
Ejercicio 19. Demostrar que dFx es lineal.
Para poder decir que la diferencial dFx es realmente una diferencial, serı́a de
esperarse que se cumpliera la regla de la cadena. Este es el caso, vamos a demostrar
la siguiente proposición.
34 2. VARIEDADES DIFERENCIALES

Figure 7. La diferencial dF de una función F . La diferencial de


F es un mapeo entre los espacios tangente de la variedad en x y
de la variedad imagen en F (x).

Figure 8. Figura que representa la construcción de la diferencial


de F . Aquı́ se representan las variedades y mapeos que toman
parte en la explicación de la definición.

Proposición 36 (La regla de la cadena). d (G ◦ F )x = dGF (x) ◦ dFx


Proof. Sea M m , N n y S s variedades y F ∈ C ∞ (M m , N n ) y G ∈ C ∞ (N n , S s ).

Sea x ∈ M m y vx ∈ Tx M m , entonces d (G ◦ F )x (vx ) = vx ◦(G ◦ F ) = vx (F ∗ ◦ G∗ ) =
(vx ◦ F ∗ ) ◦ G∗ = dGF (x) (vx ◦ F ∗ ) = dGF (x) (dFx (vx )) = dGF (x) ◦ dFx (vx ) ¤
Un ejemplo simple es la diferencial de la indentidad.
Exemplo 33. d id|M n = id|Tx M n ya que
4. UNO FORMAS 35

d id|M n : Tx M m → Tx M m
vx → d id|M n (vx ) :C ∞ (M m , <) → <
¡ ∗ ¢ g → d id|M n (vx ) (g)
= vx id|M n (g) = vx (g ◦ id|M n ) = vx (g) es decir
d id|M n (vx ) = vx
Un caso especial de diferencial muy importante es cuando la diferencial es una
función inyectiva, entonces se dice que la diferencial es una inmersión: esto es:
Definición 45. Una inmersión de M m en N n , es una función suave F :
M → N n con diferencial dFx inyectiva.
m

Ahora vamos a definir las formas formalmente. Las formas son diferenciales
de una función que va de la variedad a los reales. Como los reales también son
una variedad, podemos usar la definición de la diferencial en estas funciones. La
diferencia es que vamos a identificar al espacio tangente de los reales con los reales
mismos. De hecho son el mismo espacio. Veamos esto formalmente.
Definición 46. Sea M n variedad, f ∈ C ∞ (M n , <) y x ∈ M n . Entonces
d
dfx : Tx M n → Tf (x) <, vx → dfx (vx ) = λ dr ∈ Tf (x) <, λ ∈ < con dfx (vx ) (r) =
d ∗
λ dr (r) = λ = vx (f (r)) = vx (r ◦ f ) = vx (f ), (recuerden que r : < → < tal que
d
r (x) = x). Esto es dfx (vx ) = vx (f ) dr ∈ Tf (x) <.
d
¡ d¢
Consideremos el isomorfismo J : Tf(x) < → <, λ dr → J λ dr = λ, entonces
¡ d
¢
la composición J ◦ dfx : Tx M n → <, vx → J (df (vx )) = J vx (f ) dr = vx (f ) es
un homomorfismo de espacios lineales y J ◦ dfx es un elemento del espacio dual de
Tx∗ M n que llamaremos el espacio cotangente de la variedad en x. A los elementos
de este espacio, que denotamos como Tx∗ M n , se llaman 1-formas en x y se denotan
como wx ∈ Tx∗ M n . Identificamos entonces Tf(x) < con < (a través del isomorfismo
J), por lo que podemos escribir

dfx : Tx M n → R, vx → dfx (vx ) = vx (f ) .


¯
Comentario 8. Tomemos f = xi ∈ C ∞ (U, <), dxi ¯x : Tx M n → < tal que
à !
¯ ¡ ¢ Pn ¯ ¡ i¢
vx → dxi ¯x (vx ) = vx xi = ∂ ¯
aj ∂x j
x
x = ai . En particular tomemos
j=1
∂ ¯
¯
vx = ∂x , entonces
¯ x¡ ∂ ¯ ¢
j
¯ ¡ i¢ © ¯ ª
dx x ∂xj ¯x = ∂x
i¯ ∂ ¯
j
x
x = δji , se sigue que dxi ¯x i=1,··· ,n es una base del
espacio Tx∗ M n llamada la base coordenada dual o base de las 1-formas.
De una forma natural podemos definir campos vectoriales o campos de formas,
simplemente definiendo los espacios vectoriales para cada punto de la variedad.
Vamos a definir entoces los campos vectoriales y de formas.
© ∂ ¯ ª
Definición 47. Sea M n variedad y ∂x i
¯ base de Tx M n . Un campo vecto-
x
rial, es una asignación suave de vectores para cada punto x ∈ M n .
Notación 12. Se denota v (f ) : M n → <, suave, tal que v (f ) (x) := vx (f ). Se
P
n

P
n
∂ ¯
¯
tiene que v = ai ∂x i , tal que v (f ) (x) = ai (x) ∂x i
x
(f ), donde ai : M n → <
r−1 i=1
son funciones suaves para toda i = 1, · · · , n.
36 2. VARIEDADES DIFERENCIALES

Notación 13. Al conjunto de campos vectoriales en M n se denota por


T M n.
Comentario 9. Observe que v : C ∞ (M n , <) → C ∞ (M n , <).
© ¯ ª
Definición 48. Sea M n variedad y dxi ¯x i=1,··· ,n base de Tx∗ M n . Una 1-
forma en M n es una transformación lineal para cada Tx M n con x ∈ M n . Se
denota df (v) = v(f ) df (v) : M n → < suave, tal que df (v)(x) = dfx (vx ).
Vn
Notación 14. Al conjunto de las 1-formas en M n se denota por . Tenemos
Pn P
n ¯
que df = bj dxj tal que df (v)(x) = dfx (vx ) = bj (x) dxj ¯ (vx ), con bj : M n →
x
j=1 J=1
< funciones suaves.
Notación 15. Se suele denotar al “producto” de 1-formas con*vectores como +
P
n
j
Pn
i ∂
P
n
j
P
n
i ∂
hw, vi = w(v). Si w = bj dx y v = a ∂xj , entonces hw, vi = bj dx , a ∂xi :=
J=1 i=1 j=1 i=1
P
n P
n ­ ∂
® P
n P
n ¡ ∂ ¢
ai bj dxj , ∂x i = ai bj dxj ∂x i , como para cada punto x ∈ M
n
se
j=1 i=1 j=1i=1
¯ ¡
j¯ ∂ ¯
¯ ¢ P
n
cumple dx x ∂xi x = δij , tenemos que hw, vi = ai bi . Observe que df : T M →
i=1
C ∞ (M n , <).
Tenemos que T ∗ M n es un espacio vectorial para cada punto x ∈ M n . Su dual
en cada punto será isomórfico a T M n en ese punto. Nosotros vamos a identificar
ambos espacios.

Definición 49. Como (Tx∗ M n ) = Tx M n para toda x ∈ M n . Se tiene que si
w ∈ T ∗ M n y v ∈ Tx M n , entonces vx (wx ) ∈ <, con vx (wx ) = wx (vx ) = hwx , vx i.
El ejemplo de las esferas es muy representativo y simple para entender el ma-
terial anterior. Vamos a tomar de nuevo este ejemplo.
© ª
Exemplo 34. Sea S 2 = (x, y, z) ∈ <3 | x2 + y 2 + z 2 = 1 . Ya sabemos que
−1
los homeomorfismos de la esfera son σ± : <3 → S 2 σ± : S 2 → <3 dados por
(x, y)
σ± (x, y, z) = = (u, v)
1∓z
¡ ¢
−1 2u, 2v, ±(u2 + v 2 − 1)
σ± (u, v) =
1 + u2 + v 2
2
Entonces los vectores tangentes en S estarán dados por
¯ ¯
∂ ¯¯ ∂ ¡ −1 ¯
¢¯
(f ) = f ◦ σ+
∂x1+ ¯x ∂u ¯
σ+ (x)
µ ¶¯
∂ 2u 2v u2 + v 2 − 1 ¯¯
= f , ,
∂u 1 + u2 + v 2 1 + u2 + v 2 , 1 + u2 + v 2 ¯σ+ (x)
¯ ¯
∂ ¯ ∂x ∂f ∂y ∂f ∂z ∂f ¯¯
= f (x, y, z)¯¯ = + +
∂u σ+ (x) ∂u ∂x ∂u ∂y ∂u ∂z ¯σ+ (x)
· ¸¯
1 ¡ 2 2
¢ ∂ ∂ ∂ ¯¯
= 2 1 − u + v − 4uv + 4u (f )
(1 + u2 + v 2 )
2 ∂x ∂y ∂z ¯σ+ (x)
Podemos escribir
4. UNO FORMAS 37

∂ ¡ ¢ ∂ ∂ ∂
1 = 1 − z − x2 − xy + x(1 − z)
∂x+ ∂x ∂y ∂z
ya que

¯ ¯ 2
x2 + y 2 (1 − z) − x2 + y 2
u2 + v 2 ¯σ+ (x) = 2 y 1 − u2 + v 2 ¯σ+ (x) = 2
(1 − z) (1 − z)

Análogamente
∂ ∂ ¡ ¢ ∂ ∂
2 = −xy + 1 − z − y2 + y(1 − z)
∂x+ ∂x ∂y ∂z

Como era de esperarse, los vectores base del espacio tangente de S 2 son perpendic-
ulares al radio vector, es decir:
¡ ¢ ∂
(x, y, z) · 1 − z − x2 , −xy, x (1 − z) = 0= r ·
∂x1+
*
¡ ¢ ∂
(x, y, z) · −xy, 1 − z − y 2 , y (1 − z) = 0= r · 2
* ∂x+

Es decir, los vectores tangente, son realmente tangentes a la esfera en cada punto,
pues son perpendiculares al radio vector r . Entonces el espacio tangente en el
n→ *

o
punto x a una pelota es T x S 2 = y ∈ <3 | y · x = 0
* *
n o

Ejercicio 20. Calcular ∂x1−
, ∂x∂2 . Demostrar que ∂
, ∂
∂x1± ∂x2±
son li.

Exemplo 35. Los duales


D al espacio
E tangente, el espacio contangente, se en-
i ∂ i
cuentran usando la regla dx , ∂xj = δj , se obtiene

dx xdz dy ydz
dx1+ = + 2
2 , dx+ = 1 − z + 2
1−z (1 − z) (1 − z)

Estos dos vectores (transformaciones lineales) del espacio contangente son dos uno-
formas definidas en la carta sin polo norte.
© ª
Ejercicio 21. Calcular dx1− , dx2− . Demostrar que dx1± , dx2± son li.

Exemplo 36. Vamos a encontrar los vectores base de Tx S 2 cambiando las


coordenadas a coorenadas esfericas, definidas por

x = r sin(θ) cos(ϕ)
y = r sin(θ) sin(ϕ)
(4.1) x = r cos(θ)

Claramente, para r constante, las coordenadas cumplen que x2 + y 2 + z 2 = r2 , o


sea, ya estan restringidas a la esfera. Con esta coordenadas se puede ver que los
38 2. VARIEDADES DIFERENCIALES

vectores tangente
∂ y ∂
= −
∂x x2 + y 2 ∂ϕ
∂ x ∂
= 2 2
∂y x + y ∂ϕ
∂ 1 ∂
= −p
∂z 2
x +y 2 ∂θ
Usando estos resultados, los vectores base del espacio tangente en coordenadas
esféricas se leen:
µ ¶
∂ ∂ sin(ϕ) ∂
= (cos(θ) − 1) cos(ϕ) +
∂x1+ ∂θ sin(θ) ∂ϕ
µ ¶
∂ ∂ cos(ϕ) ∂
= (cos(θ) − 1) sin(ϕ) −
∂x2+ ∂θ sin(θ) ∂ϕ
De la misma forma podemos ahora calcular los duales, las uno formas del espacio
cotangente. Se obtiene:
1
dx1+ = (cos(ϕ)dθ + sin(ϕ) sin(θ)dϕ)
cos(θ) − 1
1
dx2+ = (sin(ϕ)dθ − cos(ϕ) sin(θ)dϕ)
cos(θ) − 1
Claramente podriamos definir como bases del espacio tangente y cotangente una
1
combinacion lineal de estos vectores, por ejemplo w+ = (cos(θ) − 1)dx1+ w+ 2
=
(cos(θ)−1)dx2+ y a los vectores X+1
, X+ 2
como sus duales, de tal forma que podamos
1 2 1 2
hacer lo mismo con los correspondientes vectores w− w− X+ , X+ , al multiplicar
los vectores base por (cos(θ) + 1). Entonces los vectores w s y X 0 s obtendrán la
0

misma forma en ambas cartas, ambos serı́an


µ ¶
1 1 ∂ sin(ϕ) ∂
X = cos(ϕ) +
r ∂θ sin(θ) ∂ϕ
µ ¶
2 1 ∂ cos(ϕ) ∂
X = sin(ϕ) −
r ∂θ sin(θ) ∂ϕ
dw1 = r (cos(ϕ)dθ + sin(ϕ) sin(θ)dϕ)
2
(4.2) dw = r (sin(ϕ)dθ − cos(ϕ) sin(θ)dϕ)
donde hemos puesto el factor r en caso de que el radio de la esfera no sea 1 sino r.

Ejercicio 22. Calcular ∂x1+
, ∂x∂2 y dx1− , dx2− en coordenadas esféricas.
+

En lo que sigue vamos a introducir otros dos conceptos en variedades diferen-


ciales. El primero es el paréntesis de Lie y el segundo es el concepto de vectores
ϕ-relacionados. Ambos conceptos son muy usados en ciencias e ingenierı́a. Con el
paréntesis de Lie los espacios tangente pueden tener estructura de álgebra. Esta
estructura puede ser muy importante para caracterizar a la variedad, si por ejem-
plo, los vectores estan asociados a alguna simetrı́a de la variedad. Esto lo veremos
más adelante. Por ahora definamos los paréntesis de Lie.
Definición 50. Sea M n variedad y X y Y ∈ T M n . Se define [X, Y ] = X ◦
Y − Y ◦ X. A la función [ , ] : T M n × T M n → T M n (X, Y ) → [X, Y ] se denomina
producto ó paréntesis de Lie de los campos vectoriales.
4. UNO FORMAS 39

De la definición se siguen sus propiedades y el hecho que con el paréntesis de


Lie, el espacio tangente es una álgebra.
Proposición 37. El paréntesis de Lie tiene las siguientes propiedades
i) [X, Y ] = − [Y, X]
ii) [αX + βY, Z] = α [X, Z] + β [Y, Z] , [X, αY + βZ] = α [X, Y ] + β [X, Z]
iii) [[X, Y ] , Z] + [[Y, Z] , X] + [[Z, X] , Y ] = 0 (Identidad de Jacobi).
iv) La estructura (T M n , +, [, ]; <, ·) es una álgebra, llamada Álgebra de Lie de
los vectores tangentes.
Ejercicio 23. Demostrar la proposición.
Por supuesto los vectores coordenados conmutan, esto se ve en la siguiente
proposición.
h i
∂ ∂
Proposición 38. ∂x i , ∂xj =0

¡ ∂ ¢ ∂
¡ ∂ ¡ −1
¢¢
Proof. Tomamos ∂x i ∂xj f = ∂x i ∂r j f ◦ ψ ◦ ψ para la carta c =
(U, ψ, V )
µµ ¶ ¶
∂ ∂ −1 −1
= (f ◦ ψ ) ◦ ψ ◦ ψ ◦ψ
∂ri ∂rj
µ ¶
∂ ∂
= (f ◦ ψ −1 ) ◦ ψ
∂ri ∂rj
µ ¶
∂ ∂ −1
= (f ◦ ψ ) ◦ ψ
∂rj ∂ri
µµ ¶ ¶
∂ ∂ −1 −1
= (f ◦ ψ ) ◦ ψ ◦ ψ ◦ψ
∂rj ∂ri
µ ¶
∂ ∂
= (f )
∂xj ∂xi
∂ ∂ −1 n
(Hay que recordar que ∂x ¯ i (f ) = ∂r∂i (f ◦ ψ −1) ◦ ψ, ya que para cada punto x ∈ M
∂ ∂ ¯
se tiene ∂xi (f )(x) = ∂xi x (f ) = ∂ri (f ◦ ψ )|ψ(x) ). ¤
Para calcular con los paréntesis de Lie, es conveniente trabajar en una base
coordenada. En terminos de una base coordenada, se puede ver que los parentesis
de Lie de dos vectores se ven como:
Pn
i ∂
Proposición 39. [X, Y ] = [X, Y ] ∂x i , con
i=1
n ¡
P ¡ i¢ ¡ i ¢¢
i ∂ ∂
[X, Y ] = X j ∂x j Y − Y j ∂x j X
J=1

Proof. Por substitución directa. ¤


Supongamos que existe una función ϕ que va de una variedad a otra. En la
primera variedad se tiene un vector X y en la segunda variedad se tiene un vector
Y . Si mapeamos el vector X con la diferencial dϕ, este mapeo no necesariamente
tiene algo que ver con el vector Y . Sin embargo, si para todo punto de la variedad se
tiene que el mapeo del vector X por medio de dϕ corresponde al vector Y evaluado
en el punto por ϕ, se dice que estos dos vectores estan relacionados por medio de
ϕ, que estan ϕ-relacionados. Es decir, se tiene la definición:
40 2. VARIEDADES DIFERENCIALES

Definición 51. Sean M m y N n variedades y ϕ ∈ C ∞ (M m , N n ). Se dice que


X ∈ T M m y Y ∈ T N n están ϕ -relacionados si para toda x ∈ M m se sigue que
dϕx (Xx ) = Yϕ(x) , ver figura 9.

Figure 9. Los vectores X y Y están ϕ relacionados, si para todo


elemento x de la variedad M m se sigue que dϕx (Xx ) = Yϕ(x) .

De aquı́ se desprenden varias propiedades muy interesantes que despues se


usaran. Vamos a ver las mas importantes.
Proposición 40. Sean X ∈ T M m y Y ∈ T N n . X y Y están ϕ -relacionados
ssı́ ϕ∗ ◦ Y = X ◦ ϕ∗
Proof. Sea f ∈ C ∞ (N n , <) y x ∈ M m . Se sigue que
dϕα (Xx )(f ) = Xx (ϕ∗ (f )) = Xx ◦ ϕ∗ (f ) = X (ϕ∗ (f )) (x) = X ◦ ϕ∗ (f )(x)
= Xx (f ◦ ϕ) = Yϕ(x) (f ) = Y (f ) (ϕ(x)) = Y (f ) ◦ ϕ (x) = ϕ∗ (Y (f )) (x)
= ϕ∗ ◦ Y (f )(x) ssi ϕ∗ ◦ Y = X ◦ ϕ∗ ,
es decir, el diagrama

ϕ∗
C ∞ (M m , <) ←− C ∞ (N n , <)
X↓ Y ↓
ϕ∗
C ∞ (M m , <) ←− C ∞ (N n , <)
conmuta. ¤

Si ahora aplicamos la definición de vectores ϕ-relacionados al mismo vector,


obtenemos la definición de ϕ-invariante. Formalmente la definición es:
Definición 52. Sean X ∈ T M n y ϕ ∈ C ∞ (M m , M m ). X se llama ϕ-
invariante o invariante bajo ϕ si X ◦ ϕ∗ = ϕ∗ ◦ X, es decir si dϕx (Xx ) = Xϕ(x)
para toda x ∈ M n
4. UNO FORMAS 41

Comentario 10. Observemos que si ϕ : M m → N n , entonces dϕ : T M m →


T N tal que dϕ(X)(g)(y) = dϕ(X)y (g) con ϕ(x) = y ∈ N n , x ∈ M m . Si ϕ
n
dif
m ∼
es un difeomorfismo
¡ ¢ entre M = N n , entonces dϕx ¡(Xx ) (g)¢ = Xx (g ◦ ϕ) =
dϕϕ−1 (y) Xϕ−1 (y) (g) = Xϕ−1 (y) (g ◦ ϕ) = X (ϕ∗ (g)) ϕ−1 (y) = X (ϕ∗ (g)) ◦
ϕ−1 (y), entonces se tiene la identidad
dϕ (X) (g) = X (ϕ∗ (g)) ◦ ϕ−1
Para terminar este capitulo vamos a introducir una transformación lineal equiv-
alente a la diferencial, pero ahora en los espacios contangente a una variedad. La
manipulación y sus propiedades son muy parecidas a las de la diferencial.
Definición 53. Sean M m y N n variedades y F : M m → N n suave. Sea
x ∈ M m y y = F (x) ∈ N n . Con F podemos inducir la función
Fy∗ : Ty∗ N n → Tx∗ M m ,
wy → Fy∗ (wy ) : Tx M m → <,
Xx → Fy∗ (wy ) (Xx ) := wy (dF |x (Xx ))
y notemos que wy (dF |x (Xx )) = wy ◦ dF |x (Xx ) = wy ◦ Fx∗ (Xx ), es decir, se tiene
la identidad Fy∗ (wy ) = wy ◦ Fx∗ .
A esta función también se le conoce con el nombre de pull-back, su definición
es:
Definición 54. A Fy∗ (wy ) se le denomina la imagen reciproca o “pull-
back” de la 1 forma wy por F .
El Pull-back es una tranformación lineal entre los espacios contangentes.
Proposición 41. Fyx es una transformación lineal.
Ejercicio 24. Demostrar la proposición.
A esta transformación lineal a veces también se le llama la diferencial del espacio
cotangente, ya que tiene propiedades de una diferencial, por ejemplo cumple la regla
de la cadena, veamos.

Proposición 42. (G ◦ F )G◦F (x) = FF∗ (x) ◦ G∗G◦F (x)
Proof. Sea M m , N n y S s variedades, F ∈ C ∞ (M m , N n ), G ∈ C ∞ (N n , S s ),
x ∈ M m , wF (x) ∈ TF∗ (x) N n , vG◦F (x) ∈ TG◦F

S s . Entonces se tiene si wF (x) =
¡ ¢ ¡ ¢ ³ (x) ¡ ¢´ ¡ ¢
G∗G◦F (x) vG◦F (x) , FF∗ (x) wF (x) = FF∗ (x) G∗G◦F (x) vG◦F (x) = FF∗ (x) ◦G∗G◦F (x) vG◦F (x) =
¡ ¢ ¡ ¢
wF (x) ◦ dF |x = G∗G◦F (x) vG◦F (x) ◦ dF |x = vG◦F (x) ◦ dG|F (x) ◦ dF |x = vG◦F (x) ◦
∗ ¡ ¢
d (G ◦ F ) |x = (G ◦ F )G◦F (x) vG◦F (x) , ver figura 10. ¤
42 2. VARIEDADES DIFERENCIALES

Figure 10. Esquema de la demostración de la proposición 42.


CHAPTER 3

TENSORES Y P-FORMAS

1. Tensores
El material de los dos capitulos anteriores es fundamentalmente para estudiar
los tensores. La importancia de los tensores en ciencias exáctas e ingenierı́a, es el
hecho de que los tensores son cantidades matemáticas que no dependen del sistema
coordenado. El significado de “no depende” del sistema de coordenadas la daremos
en este capitulo, pero estas cantidades matemáticas han servido bien para modelar
cantidades fı́sicas importantes, como los campos. La idea es que estas cantidades
fı́sicas realmente no dependen del observador, es decir, las cantidades fı́sicas no im-
porta si el observador las mide con una vara de un metro o una de un centimetro,
o con coordenadas catesianas o esfericas. El objeto fı́sico no se ve afectado por la
forma de medirlo o de observarlo. Esta condición la cumplen los tensores, por eso
se usan para modelar las cantidades fı́sicas observables. Desde el punto de vista
matemático, un tensor es una función multilineal, es decir, una función de varias
variables, pero la función es lineal en cada entrada. El dominio es el producto
cartesiano de un espacio vectorial varias veces, con su dual, también varias veces.
Nosotros vamos a tomar ese espacio vectorial como el espacio tangente a una var-
iedad y su dual como el espacio cotangente a la variedad. Asi, la idea es definir
tensores que viven en variedades. Empecemos por la definición formal de un tensor.
Definición 55. Sea V espacio vectorial y V ∗ su espacio dual. Un tensor del
tipo (r, s) es una transformación multilineal T tal que
T : V ∗ × · · · × V ∗ × V × · · · × V → <,
| {z } | {z }
r veces s veces
¡ 1 ¢ ¡ ¢
w , · · · , w r , v1 , · · · , vs → T w 1 , · · · , w r , v1 , · · · , vs

Es decir, se tiene que si v1 , · · · , vs ∈ V y w1 , · · · , wr ∈ V ∗ , son transformaciones


lineales¡ en el espacio vectorial V , se sigue ¢ que ¡ ¢
T w1 ,¡· · · , wr , αv + βw, v2 , · · · ,¢vs = αT w1 , · · · , wr , v, v2 , · · · , vs
+ βT w1 , · · · , wr , w, v2 , · · · , vs para cada entrada del tensor.

Notación 16. Al conjunto de tensores lo denotamos como T ∈ V ⊗ · · · ⊗ V ⊗


V ∗ ⊗ · · · ⊗ V ∗ y se le llama producto tensorial.
¡ ¢ ¡ ¢
¡ Con la suma (T + T 0¢) w1 , · · · , wr , v1 , · · · , vs = T w¡1 , · · · , wr , v1 , · · · , vs +¢
T 0 w1¡, · · · , wr , v1 , · · · , vs y ¢el producto por escalar (αT ) w1 , · · · , wr , v1 , · · · , vs
= αT w1 , · · · , wr , v1 , · · · , vs para todo T, T 0 ∈ V ⊗ · · · ⊗ V ⊗ V ∗ ⊗ · · · ⊗ V ∗ , α ∈ <,
la estructura (<, V ⊗ · · · ⊗ V ⊗ V ∗ ⊗ · · · ⊗ V ∗ , +, ·) es un espacio vectorial. A los
elementos del espacio tensorial se les denota por X1 ⊗ · · · ⊗ Xr ⊗ µ1 ⊗ · · · ⊗ µs , este
elemento denota el tensor tal que
43
44 3. TENSORES Y P-FORMAS

¡ ¢ ¡ ¢
X1 ⊗ · · · ⊗ Xr ⊗­ µ1 ⊗ ·®· · ⊗ µs w1 , ·­· · , wr®, v1 , · · · , vs = X1 w1 · · · Xr (wr )
µ1 (v1 ) · · · µs (vs ) = µ1 , X1 · · · hµr , Xr i µ1 , v1 · · · hµs , vs i dados X1 , · · · , Xr ∈ V
y µ1 , · · · , µs ∈ V ∗ . Al espacio de tensores lo denotamos también por
Tsr = V ⊗ · · · ⊗ V ⊗ V ∗ ⊗ · · · ⊗ V ∗ . Sean R ∈ Tsr y S ∈ Tqp , el producto entre
| {z } | {z }
r veces s veces ¡ ¢
r+p
tensores se define entonces como el tensor Ts+q tal que R⊗S µ1 , · · · , µr+p , v1 , · · · , vs+q
¡ 1 ¢ ¡ ¢
= R µ , · · · , µr , v1 , · · · , vs · S µr+1 , · · · , µr+p , vs+1 , · · · , vs+q
La estructura (Tsr , +, ·, ⊗, <, ·) es una álgebra llamada Álgebra tensorial.
Sea {ea }a=1,··· ,n y {ea }a=1,··· ,n bases de V y V ∗ , espacios vectoriales de di-
mensión n y su dual. Entonces podemos escribir tensores T ∈ Tsr en términos
Pn
de esa base como T = Tba11···b
···ar
s
ea1 ⊗ · · · ⊗ ear ⊗ebi ⊗ · · · ⊗ ebs , ya que
a1 ···ar ,b1 ···bs
© ª
ea1 ⊗ · · · ⊗ ear ⊗ ebj ⊗ · · · ⊗ ebs ⊂ Tsr será una base del espacio tensorial y las
componentes de T están dadas por Tba11···b ···ar
s
= T (ea1 , · · · , ear , eb1 , · · · ebs )
Como se ve, debido a la definición de tensores, la notación es muy extensa. Mas
adelante cambiaremos de notación por una mas simple, para reducir la escritura,
pero por ahora la mantendremos con el objetivo de que no vaya a haber confusión.
La propiedad importante de los tensores es la de no depender del sistema coor-
denado. Aquı́ vamos a ser mas generales, vamos a demostrar que los tensores son
invariates al cambiar la base.
Proposición 43. Los tensores son invaraintes bajo cambios de base.
Proof. Sean {ea }a=1,··· ,n y {e0a }a=1,··· ,n bases de V y {ea }a=1,··· ,n y {e0a }a=1,··· ,n
bases de V ∗ tal que {ea }a=1,··· ,n sea dual a {ea }a=1,··· ,n y {e0a }a=1,··· ,n , sea dual
P
n Pn
a {e0a }a=1,··· ,n . Se sigue que e0a = Λba eb y e0a = Λab eb donde Λba y Λab son
b=1 b=1
coeficientes de matrices no singulares
¿ n n × n.n Por laÀdualidad de las bases, se sigue
b
­ b ® ­ 0b 0 ® P b c P d P
n Pn
b d c
P
n
que δa = e , ea = e , ea = Λc e , Λa ed Λc Λa δd = Λbc Λca . Es
c=1 d=1 c=1d=1 c=1
P
n
decir Λbc Λca = δab , por lo que Λbc y Λca son una la inversa de otra como matrices.
c=1
Ahora escribimos un tensor Tsr en términos de estas bases, esto es
n
X
T = Tb0a1 ···b
1 ···ar 0
s
ea1 ⊗ · · · ⊗ e0ar ⊗ e0b1 ⊗ · · · ⊗ e0bs
a1 ···bs =1
X n n
X n
X
= Tb0a1 ···b
1 ···ar
s
Λca11 ec1 ⊗ · · · ⊗ Λcarr ecr
a1 ···bs =1 c1 =1 cr =1
X n n
X
⊗ Λbd11 ed1 ⊗ · · · ⊗ Λbdss eds
d1 =1 ds =1
X n Xn n
X n
X n
X
= ··· ··· Λca11 · · · Λcarr Λbd11 · · · Λbdss Tb0a1 ···b
1 ···ar
s
e c1
a1 ···bs =1 c1 =1 cr =1d1 =1 ds =1

⊗ · · · ⊗ ecr ⊗ e ⊗ · · · ⊗ eds
dr

X n
= Tdc11···d
···cr
s
ec1 ⊗ · · · ⊗ ecr ⊗ edr ⊗ · · · ⊗ eds
c1 ···ds =1
1. TENSORES 45

donde hemos llamado


n
X n X
X n n
X
c1 ···cr
(1.1) Td1 ···ds = ··· ··· Λca11 · · · Λcarr Λbd11 · · · Λbdss Tb0a1 ···b
1 ···ar
s
.
a1 =1 ar =1b1 =1 bs =1

¤
Comentario 11. Note que en cada caso se tiene que
¡ ¢
Tb0a1 ···b
1 ···ar
s
= T e0a1 , · · · , e0ar , e0b1 , · · · , e0bs
y
Tdc11···d
···cr
s
= T (ec1 , · · · ecr , ed1 , · · · , eds ) .
Es decir, debido al cambio de base las componentes del tensor cambiaron,
pero el tensor mismo se quedo inalterado. Es en este sentido que los tensores son
invariantes ante cambios de base y por tanto de coordenadas. En ciencias fı́sicas
este hecho se usa continuamente. Una operación también muy usada en ciencias
fı́sicas es la contracción de tensores. A partir de uno o varios tensores, se contruye
otro usando la contracción. Vamos a definirla.
Definición 56. Sea T ∈ Tsr en un espacio vectorial V . La contracción C11 (T )
de un tensor en las bases duales {ea }{ea } es un tensor (r − 1, s − 1) tal que las
P
n
aa2 ...ar P
n Pn
aa2 ...ar
componentes de C11 (T ) son Tab2 ···bs
, i.e. C11 (T ) = Tab 2 ···bs
a=1 a=1 a2 ···ar b2 ···bs =1
eas ⊗ · · · ⊗ ear ⊗ eb2 ⊗ · · · ⊗ ebs
Proposición 44. La contracción es independiente de las bases.
Proof. Sean {ea }{ea } y {e0a }{e0a } bases duales de V . Entonces
n
X n
X
0aa2 ...ar 0
C101 (T ) = Tab2 ···bs
eas ⊗ · · · ⊗ e0ar ⊗ e0b2 ⊗ · · · ⊗ e0bs
a=1a2 ···ar b2 ···bs =1
Xn X n X n n
X n
X
= ··· ··· Λca22 · · · ∧carr ∧bd22 · · · ∧bdss 0a...ar
Ta···b s
ecs
a1 =1 ar =1b1 =1 bs =1 a=1
d2 ds
⊗ · · · ⊗ e cr ⊗ e ⊗ · · · ⊗ e
Xn X n n
X
= δdc11 Tdc11dc22···d
...cr
s
ecs ⊗ · · · ⊗ ecr ⊗ ed2 ⊗ · · · ⊗ eds
c1 =1d1 =1 c2 ···cr d2 ···ss =1

= C101 (T )
¤
De la misma forma se pueden definir las contracciones de los demás ı́ndices.
Suele llamarse a los ı́ndices superiores de un tensor ı́ndices covariantes y a los
inferiores, ı́ndices contravariantes. Ası́ la contracción queda definida entre
ı́ndices covariantes con indices contravariantes.
Notación 17. Del mismo modo, se suele llamar a los vectores ea vectores
covariantes o uno-formas y a los ea vectores contravariantes o simplemente
vectores.
En lo que sigue vamos a dar algunos ejemplos simples de tensores usados en
fı́sica.
46 3. TENSORES Y P-FORMAS

Exemplo 37. El tensor de campo electromagnético es un tensor definido como


3
X
A= Aµ dxµ + dΛ
µ=0

donde Λ es una función arbitraria que va de los reales a los reales.


Exemplo 38. El tensor de energia momento es un tensor definido como
3
X
T = Tµν dxµ ⊗ dxν
µ,ν=0

en donde las componentes Tµν son basicamente las presiones y la densidad en la


diagonal, y los flujos de energia y momento en las componentes fuera de la diagonal.
Exemplo 39. El tensor métrico es un tensor definido como
3
X
g= gµν dxµ ⊗ dxν
µ,ν=0

el cual define una métrica en la variedad, a traves del producto escalar entre vec-
tores. Mas adelante daremos los detalles de esta tensor, por el momento vamos a
discutir dos ejemplos simples. Primero tomemos las componentes gij = δij i, j =
1, 2, 3, y con las componentes con subindice 0 igual a cero. Lo que se obtiene es
una métrica Euclidiana, esta es:
g = dx ⊗ dx + dy ⊗ dy + dz ⊗ dz
∂ ∂ ∂ ∂
Tomemos el vector X = 2 ∂x − ∂y y el vector Y = − ∂x + 2 ∂z . El producto interno
entre X y Y esta dado por:
g(X, Y ) = dx(X) ⊗ dx(Y ) + dy(X) ⊗ dy(Y ) + dz(X) ⊗ dz(Y )
= 2 · (−1) + (−1) · 0 + 0 · 2 = −2
Mientras que la norma de los vectores es
g(X, X) = dx(X) ⊗ dx(X) + dy(X) ⊗ dy(X) + dz(X) ⊗ dz(X) = 5 = ||X||2
g(Y, Y ) = dx(Y ) ⊗ dx(Y ) + dy(Y ) ⊗ dy(Y ) + dz(Y ) ⊗ dz(Y ) = 5 = ||Y ||2
La norma de los vectores siempre va a ser positiva. La distancia entre estos vectores
∂ ∂ ∂
será (X − Y = ∂x − ∂y + 2 ∂z )
g(X − Y, X − Y ) =
= dx(X − Y ) ⊗ dx(X − Y ) + dy(X − Y ) ⊗ dy(X − Y ) + dz(X − Y ) ⊗ dz(X − Y )
= ||X − Y ||2 = 1 + 1 + 4 = 6
Un ejemplo mas interesante es la métrica de Minkowski, esta esta definida por
g = dx ⊗ dx + dy ⊗ dy + dz ⊗ dz − dt ⊗ dt
∂ ∂ ∂ ∂
Tomemos ahora los vectores X = ∂x − ∂t yY = ∂x + ∂t . El producto interno entre
X y Y ahora esta dado por:
g(X, Y ) = dx(X) ⊗ dx(Y ) + dy(X) ⊗ dy(Y ) + dz(X) ⊗ dz(Y ) − dt(X) ⊗ dt(Y )
= 1+1=2
2. P-FORMAS 47

Pero ahora las normas de los vectores es


g(X, X) = dx(X) ⊗ dx(X) + dy(X) ⊗ dy(X) + dz(X) ⊗ dz(X) − dt(X) ⊗ dt(X) = 0
g(Y, Y ) = dx(Y ) ⊗ dx(Y ) + dy(Y ) ⊗ dy(Y ) + dz(Y ) ⊗ dz(Y ) − dt(Y ) ⊗ dt(Y ) = 0
O sea, estos vectores tienen norma nula, sus tamaños son nulos, a pesar de que los
vectores no lo son. Esta es la principal caracteristica de la métrica de Minkowsky,
en este espacio existe vectores no nulos con norma nula o negativa. Esta métrica
podria ser vista como algo exótico, como una invención de algún matemático con
demasiada imaginación. Pero no lo es, es el mejor modelo del espacio tiempo que
tenemos, es algo muy real.
Vamos a tomar las componentes del ejemplo de la pelota 36. Tomemos a la
métrica para una pelota como
¡ ¢
g = dw1 ⊗ dw1 + dw2 ⊗ dw2 = r2 dθ ⊗ dθ + sin2 (θ)dϕ ⊗ dϕ
Se suele denotar (abusando de la notación) a una métrica también como
¡ ¢
g = dΩ2 = r2 dθ2 + sin2 (θ)dϕ2
el cual puede ser confuso, pues los elementos dθ2 y dϕ2 no son el cuadrado de una
diferencial, sino el producto tensorial de dos formas. Hay que tomar esto siempre
en cuenta.

2. p-Formas
En esta sección hablaremos de las p-formas. Las formas son productos tenso-
riales de uno-formas antisimetrizados. Su importancia también viene de la fı́sica y
de las ciencias naturales. Con las p-formas es posible hacer oparaciones con mucha
mas sincillez y en muchos casos, las cantidades que se estudian adquieren un sig-
nificado mas claro y presiso. En esta sección daremos algunos ejemplos en la fı́sica,
con aplicaciones directas a la ingenierı́a. Vamos primero a definir las p-formas.
Definición 57. Sea V ∗ el conjunto de uno-formas. Al conjunto de tensores
(0, p) antisimétricos en cada entrada se llama p-formas.
Vamos a ser mas explı́citos, sean w1 , w2 , w3 ∈ V ∗ , entonces las p-formas se
contruyen como en los ejemplos siguientes.
¡ ¢
Exemplo 40. Una dos-forma se escribe como w = 21 w1 ⊗ w2 − w2 ⊗ w1

Exemplo 41. Una tres-forma w = 16 (w1 ⊗w2 ⊗w3 +w3 ⊗w1 ⊗w2 +w2 ⊗w3 ⊗w1
−w ⊗ w2 ⊗ w1 −w1 ⊗ w3 ⊗ w2 − w2 ⊗ w1 ⊗ w3 ), etc.
3

En lo que sigue vamos a construir el álgebra de las p-formas. Primero vamos a


construir un producto entre p-formas, llamado el producto wedge. Su definición es
como sigue.
Definición 58. Sean w y µ una p y q-formas respectivamente. El producto
w ∧ µ es una (p + q)-forma, donde ∧ es antisimétrico i.e.
pq
w ∧ µ = (−1) µ∧w
Esto quiere decir, que si {ea } es base de las uno-formas, entonces una 2-forma
se escribe como
48 3. TENSORES Y P-FORMAS

n
X 1 a1
w= wa1 a2 ea1 ∧ ea2 donde ea1 ∧ ea2 = (e ⊗ ea2 − ea2 ⊗ ea1 )
a1 a2 =1
2

Analogamente, una tres forma se escribe como

n
X 1X [P ]
w= wa1 a2 a3 ea1 ∧ea2 ∧ea3 donde ea1 ∧ea2 ∧ea3 = (−1) ea1 ⊗ea2 ⊗ea3
a1 a2 a3 =1
6
[P ]

donde
µ ¶[P ] significa permutación de (a1 , a2, a3 ). De esta forma, se pueden construir
n
p-formas en un espacio V ∗ n-dimensional. Al conjunto de las p-formas se
p
denota como ∧p .
Proposición 45. Toda (n+k)-forma en un espacio n-dimensional es idénticamente
cero, para k > 1.
Proof. Sean V ∗ un espacio n-dimensional y α ∈ V ∗ una n+1 forma. Entonces
α = αai ···aj ak ···an+1 eai ∧ · · · ∧ eaj ∧ eak ∧ · · · ∧ ean+1 pero algún kj se repite. Ası́
que intercambiándolos α = −αai ···aj ak ···an+1 eai ∧ · · · ∧ eak ∧ eaj ∧ · · · ∧ ean+1 = −α
por lo tanto α = 0. ¤

Ası́ como construimos el campo de las uno-formas y de los vectores, se puede


construir el campo de los tensores, simplemente definiendo los tensores en cada
punto de la variedad. Formalmente se tiene:
Definición 59. Un tensor T del tipo (r, s) sobre una variedad M n , es un
tensor construido sobre el espacio tangente T M n y el espacio cotangente T ∗ M n de
M n.

3. Diferenciación e integración en variedades


Para evitar un poco la notación de los indices con sumandos y factores extensos,
a partir de esta sección usaremos la convención de suma sobre ı́ndices repetidos de
Einstein, es decir, si dos indices se repiten en un tensor, es que estos indices se
estan sumando, a menos que se especifique lo contrario. En esta sección vamos a
definir la diferencial y la integral de p-formas y tensores sobre la variedad. Vamos
a definir tres tipos de operadores diferenciales y la integración de estos, en especial
veremos el teorema de Stokes. Para iniciar vamos a introducir la notación sobre las
diferenciales, ası́ todo sera mas compacto.
Notación 18. En esta sección denotaremos la derivada por una coma, es decir
∂f
= f,k
∂xk
2
∂ f
= f,kl
∂xk ∂xl
etc.
Primero vamos a definir la diferencial de p-formas, la cual es la mas usada y la
mas simple de los operadores diferenciales que veremos.
3. DIFERENCIACIÓN E INTEGRACIÓN EN VARIEDADES 49

Definición 60. Sea M n variedad y w una p-forma sobre M n . La diferencial


exterior¡ d es un
¢ mapeo d : ∧p → ∧p+1© tal ªque a w = wi1 ···ip dxi1 ∧ · · · ∧ dxip →
dw = d wi1 ···ip ∧ dx ∧ · · · ∧ dxip para dxi i=1,··· ,n base coordenada de T ∗ M n =
i1

∧1 . Se tiene que dw = wi1 ···ip ,k dxk ∧ dxij ∧ · · · ∧ dxip


La primera propiedad importante de este operador es que la diferencial de la
diferencial de una p-forma, es cero. Como veremos esta propiedad es muy impor-
tante.
Proposición 46. d (dw) = 0 para toda p-forma w ∈ ∧p , y para toda p ∈ Z + .
Proof. Tenemos dw = wi1 ···ip ,k dxk ∧ dxi1 ∧ · · · ∧ dxip , entonces d (dw) =
wi1 ···ip ,k` dx` ∧ dxk ∧ dxi1 ∧ · · · ∧ dxip donde se están sumando ı́ndices simétricos k, `,
con ı́ndices antisimétricos dx` ∧ dxk , por tanto d (dw) = 0. ¤
Para calcular la diferencial de p-formas se aplica la siguiente fórmula.
Proposición 47. Sean w y µ una p y q-formas respectivamente. Se sigue que
p
d (w ∧ µ) = dw ∧ µ + (−1) w ∧ dµ.
Proof. Sean w = wi1 ···ip dxi1 ∧ · · · ∧ dxip y µ = µji ···jq dxj1 ∧ · · · ∧ dxjq
Entonces
¡ ¢
d wi1 ···ip dxi1 ∧ · · · ∧ dxip ∧ µj1 ···jq dxj1 ∧ · · · ∧ dxjq
= wi1 ···ip ,k dxk ∧ dxi1 ∧ · · · ∧ dxip ∧ µj1 ···jq dxj1 ∧ · · · ∧ dxjq +
+wi1 ···ip µj1 ···jq ,` dx` ∧ dxi1 · · · ∧ dxip ∧ dxj1 ∧ · · · ∧ dxjq
p
= dw ∧ µ + (−1) w ∧ dµ
¤
Ejercicio 25. Muestre que dw (X, Y ) = X (w (Y )) − Y (w (X)) − w ([X, Y ])
En el capitulo anterior introdujimos el concepto de full-back. Ahora vamos a
introducir un concepto similar, pero no hay que confudirlos, con el que podemos
trasladar formas o tensores covarientas de una variedad a otra. Vamos a escribir la
definición y luego daremos una breve explicación.
Definición 61. Sea φ : M m → N n , y M m , N n variedades. Entonces:
· El pull-back de tensores covariantes se define como
φ∗ T (v1 , · · · , vs ) |p = T (φ∗ v1 , · · · , φ∗ vs ) |φ(p) ,
v1 , · · · , vs ∈ T M m , p ∈ M m donde y T ∈ Ts0 .
· Análogamente para tensores contravariantes se tiene
¡ ¢ ¡ ¢
φ∗ T w1 , · · · , wr |φ(p) = T φ∗ w1 , · · · , φ∗ wr |p
para T ∈ T0r y w1 , · · · , wr ∈ T ∗ N n
Vamos a ver primero el pull-back de una uno-forma.
Exemplo 42. Sea w ∈ T ∗ N n y v ∈ T M m . Y sea ϕ : M m → N n . Entonces
el pull-back de w esta dado por ϕ∗ w : T M m → < tal que v → w(ϕ∗ v) = w(dϕ(v)).
Esto quiere decir que ϕ∗ es una función tal que ϕ∗ : T ∗ N n → T ∗ M m , ya que
φ∗ w ∈ T ∗ M m y w ∈ T ∗ N n . Recordemos que dϕ = ϕ∗ : T M → T N , ver figura 1.
50 3. TENSORES Y P-FORMAS

Figure 1. Representación de la función ϕ, del pull-back ϕ∗ y de


la diferencial de la función ϕ , dϕ = ϕ∗ .

Con el ejemplo anterior ya se puede proceder a encontrar el pull-back de un


tensor covariante en general. Y con este el de un tensor contravariante. Vamos a
demostrar ahora que el pull-back y la diferencial conmutan.
Proposición 48. Sea M m y N n variedades y φ : M m → N n y φ∗ el pull-back.
La diferencial exterior conmuta con el pull-bak.
Proof. Sea w ∈ ∧p y f : M n → < suave. Entonces, por la regla de la
cadena d (f ◦ φ) = d (φ∗ f ) = df ◦ dφ = df ◦ φ∗ = φ∗ (df ) i.e. d (φ∗ f ) = φ∗ (df ).
Análogamente para 1-formas: d (φ∗ w) = d (w ◦ φ∗ ) = d (w ◦ dφ) = dw ◦ φ∗ =
φ∗ (dw) y análogamente para p -formas. ¤
El rotacional de un vector es un concepto matemático muy utilizado en ciencias
exactas. En si es definido como la diferencial totalmente antisimétrica de un vector.
Vamos a introducir el tensor de Levi-Civita, que nos va a servir para trabajar con
la antisimetrización de vectores y tensores. Es de hecho la generalización de la
antisimetrización que se usa en algabra de vectores. Aqui lo podemos introducir
para cualquier variedad de dimensión arbitraria.
Definición 62. El tensor totalmente antisimétrico de Levi-Civita ²i1 ,··· ,in
se define como
 1 si i1 , · · · , in es permutación par de (1, 2, · · · , n)
²i1 ,··· ,in = -1 si i1 , · · · , in es permutación impar de (1, 2, · · · , n)

0 cualquier otro caso
3. DIFERENCIACIÓN E INTEGRACIÓN EN VARIEDADES 51

Con el tensor de Levi-Civita podemos definir el operador de Hodge. Este


operador es muy usado para poder simplificar la notación. Vamos a escribir su
definición y luego daremos algunos ejemplos de su uso.
Definición 63. El operador * de Hodge o transformación de dualidad
es una función que mapea ∗ : ∧p → ∧n−p tal que
¡ ¢ 1
∗ dxij ∧ · · · ∧ dxip = ²i ···i i ···i dxip+1 ∧ · · · ∧ dxin
(n − p)! 1 p p+1 n
donde ²i1 ,··· ,in es el tensor de Levi-Civita
Esta definición es posible gracias a la dualidad que existe entre los espacios
vectoriales de uno-formas ∧p y ∧n−p , ambas son de la misma dimensión. Es por
eso que la aplicación del operador de Hodge dos veces a una p-forma, es proporcional
a la p-forma, es decir, se regresa al lugar de origen.
p(n−p)
Proposición 49. ∗ ∗ wp = (−1) wp donde wp ∈ ∧p
Proof. Por substitución directa. ¤
Veamos algunos ejemplos simples.
Exemplo 43. Sea w = f dx ∧ dy + g dy ∧ dz donde g, f : <3 → < en <3 .
Entoncees, n = 3 y w ∈ ∧2
dw = f,z dz ∧ dx ∧ dy + g,x dx ∧ dy ∧ dz = (f,z + g,x ) dx ∧ dy ∧ dz
∗w = f ∗ dx ∧ dy + g ∗ dy ∧ dz
1 1
= f ²123 dz + g ²231 dx
1! 1!
= f dz + gdx
∗dw = f,z + g,x
Es decir, la aplicación del operador de Hodge a una p-forma, consiste en quitar
todos los elementos de la base que tiene la p-forma y poner todos los restantes, los
que no se usan, en el orden que nos da el tensor de Levi-Civita. Las funciones que
van enfrente de la base no son afectadas por el operador de Hodge. Con este oper-
ador se define otro operador diferencial muy importante, llamado la codiferencial.
Definición 64. La codiferencial exterior ó derivada exterior adjunta
np+n+1
se define por δ = (−1) ∗ d∗ para espacios n-dimensionales y para p-formas.
p
Se tiene que δ = − ∗ d∗ en espacios de dimensión par y δ = (−1) ∗ d∗ en espacios
de dimensión impar.
Como en el caso de la diferencial, la doble aplicación de la codiferencial también
es cero.
Proposición 50. δ (δwp ) = 0
np+n+1 2(np+n+1) 2(np+n+1)
Proof. δ (−1) ∗ d ∗ wp = (−1) ∗ d ∗ ∗d∗ = (−1) ∗
p(n−p)
(−1) dd ∗ wp ¤
Comentario 12. Se tiene entonces que
d : ∧p → ∧p+1
δ : ∧p → ∧p−1
52 3. TENSORES Y P-FORMAS

Utilizando la definición de la diferencial y la codiferencial se puede definir otro


operador diferencial que llamaremos Laplaciano. En ciertos casos este operador es
el Laplaciano que se conoce en álgebra vectorial, pero de hecho es una generalización
de este para cualquier variedad de cualquier dimensión.
Definición 65. El Lapaciano ∆ sobre una variedad, es una función ∆ : ∧p →
p
∧ definida por ∆ = dδ + δd
Vamos a hacer algunos ejemplos con todos los operadores diferenciales que
hemos definido, por facilidad lo haremos en <2 , que es donde el cálculo nos es mas
familiar, con ellos estas definiciones adquiriran mas sentido.
Exemplo 44. Sea M = <2 . Entonces una base para ∧0 ⊃ {1}. Analogamente
para ∧1 ⊃ {dx, dy} , y para ∧2 ⊃ {dx ∧ dy}. También podemos obtener la aplicación
∗, esta nos da:
∗1 = dx ∧ dy; ∗dx = dy; ∗dy = −dx; ∗dx ∧ dy = 1.
Para las diferenciales obtenemos:
df (x, y) = f,x dx + f,y dy
ddf = f,xy dy ∧ dx + f,yx dx ∧ dy = 0
d (udx + vdy) = (v,x −u,y ) dx ∧ dy
Analogamente, para las codiferenciales se obtiene:
δf (x, y)= − ∗ d ∗ f (x, y) = − ∗ d (f (x, y) dx ∧ dy) = 0
δ (udx + vdy) = − ∗ d ∗ (udx + vdy) = − ∗ d (udy − vdx)
= − ∗ (u,x dx ∧ dy − v,y dy ∧ dx) =
= − ∗ ((u,x +v,y ) dx ∧ dy) = − (u,x +v,y )
δ (φdx ∧ dy) = − ∗ d ∗ (φdx ∧ dy) = − ∗ d (φ) = − ∗ (φ,x dx + φ,y dy) =
= − (φ,x dy − φ,y dx) = −φ,x dy + φ,y dx
Y para los Laplacianos obtenemos:
∆f = (dδ + δd) f = d (0) + δ (f,x dx + f,y dy) = − (f,xx +f,yy )
∆(udx + vdy) = d [− (u,x +v,y )] + δ [(v,x −u,y ) dx ∧ dy]
= − [u,xx dx + v,xy dx + u,yx dy + v,yy dy] − ∗ [(v,xx −u,yx )dx + (v,xy −u,yy )dy]
= − [(u,xx +v,xy )dx + (v,yy +u,xy )dy] − [(v,xx −u,yx )dy − (v,xy −u,yy )dx]
= − [(u,xx +u,yy )dx + (v,xx +v,yy )dy]
Estos últimos ejemplos justifican el nombre del operador ∆ como Laplaciano.
Para el caso de M = <3 las bases respectivamente estan dadas como ∧0 ⊃ {1},
∧ ⊃ {dx, dy, dz} , para ∧2 ⊃ {dx ∧ dy, dx ∧ dz, dy ∧ dz} y para ∧3 ⊃ {dx ∧ dy ∧ dz}.
1

Igualmente podemos obtener la aplicación ∗ , esta nos da:

∗1 = dx ∧ dy ∧ dz; ∗dx = dy ∧ dz; ∗dy = −dx ∧ dz; ∗dz = dx ∧ dy;


∗dx ∧ dy = dz; ∗dy ∧ dz = dx; ∗dz ∧ dx = dy; ∗dx ∧ dy ∧ dz = 1.
Ejercicio 26. Muestre que ∗d (v1 dx + v2 dy + v3 dz) = −∇ × → v · d−

→x , donde


v = (v1 , v2 , v3 ) y d x = (dx, dy, dz) es el radio vector.


3. DIFERENCIACIÓN E INTEGRACIÓN EN VARIEDADES 53

Ejercicio 27. Muestre que δ (v1 dx + v2 dy + v3 dz) = −∇ · −


v , donde −
→ v =

(v1 , v2 , v3 )
2
∂ v
− ·d−

Ejercicio 28. Muestre que ∆ (v1 dx + v2 dy + v3 dz) = − ∂xk ∂x →
x = −∇2 −



k

d x donde −
v = (v1 , v2 , v3 ).

El espacio tiempo se modela generalmente como una variedad 4-dimensional.
Los ejemplos en fı́sica son hechos en esta dimensión, aunque hay teorı́as modernas de
unificación que utilizan dimensiones mas altas. Por eso para trabajar en el espacio
tiempo debemos trabajar en el espacio M = <4 , donde las bases respectivamente
estan dadas por
para ∧0 ⊃ {1}
para ∧1 ⊃ {dx, dy, dz, dt} ,
para ∧2 ⊃ {dx ∧ dy, dx ∧ dz, dy ∧ dz, dx ∧ dt, dy ∧ dt, dz ∧ dt}
para ∧3 ⊃ {dx ∧ dy ∧ dz, dx ∧ dy ∧ dt, dx ∧ dz ∧ dt, dy ∧ dz ∧ dt}
para ∧4 ⊃ {dx ∧ dy ∧ dz ∧ dt}
Igualmente podemos obtener la aplicación ∗ , esta nos da:
∗1 = dx ∧ dy ∧ dz ∧ dt
∗dx = dy ∧ dz ∧ dt ∗ dy = −dx ∧ dz ∧ dt ∗ dz = −dx ∧ dy ∧ dt ∗ dt = dx ∧ dy ∧ dz
∗dx ∧ dy = dz ∧ dt ∗ dy ∧ dz = dx ∧ dt dz ∧ dx = dy ∧ dt
∗dx ∧ dt = dy ∧ dz ∗ dy ∧ dt = dx ∧ dz ∗ dz ∧ dt = dx ∧ dy
∗dy ∧ dz ∧ dt = dx ∗ dx ∧ dz ∧ dt = −dy ∗ dx ∧ dy ∧ dt = dz ∗ dx ∧ dy ∧ dz = dt
∗dx ∧ dy ∧ dz ∧ dt = 1
Exemplo 45. Sea F = Fi dxi ∧ dt − ²ijk H i dxj ∧ dxk = Fx dx ∧ dt + Fy dy ∧
dt + Fz dz ∧ dt − Hx dy ∧ dz + Hy dx ∧ dz − Hz dx ∧ dy, donde ²ijk es el tensor de
Levi-Civita y H i = Hi para i = 1, 2, 3. Podemos calcular su diferencial
dF = [(Fz,y − Fy,z ) dy ∧ dz + (Fz,x − Fx,z ) dx ∧ dz + (Fy,x − Fx,y ) dx ∧ dy] ∧ dt
− (Hx,x + Hy,y + Hz,z ) dx ∧ dy ∧ dz
− [Hx,t dy ∧ dz − Hy,t dx ∧ dz + Hz,t dx ∧ dy] ∧ dt
Usando las expresiones anteriores, podemos calcular ∗dF
∗dF = [(Fz,y − Fy,z ) dx − (Fz,x − Fx,z ) dy + (Fy,x − Fx,y ) dz]
− (Hx,x + Hy,y + Hz,z ) dt
− [Hx,t dx + Hy,t dy + Hz,t dz]
Si ahora definimos los vectores −F = (Fx , Fy , Fz ) y −
→ H = (Hx , Hy , Hz ) obtenemos

∗dF en representación vectorial como

∗dF = −∇ × − F · d→


x −∇·− →H dt − − H · d−

x
∂t →
la cual es una expresión vectorial muy interesante que usaremos mas adelante.
En función de la acción de los operadores sobre las p-formas, podemos clasificar
las p-formas de la siguiente forma.
54 3. TENSORES Y P-FORMAS

Definición 66. Una p-forma wp ∈ ∧p se dice:


· Armónica si ∆wp = 0
· Cerrada si dwp = 0
· Cocerrada si δwp = 0
· Exacta si wp = dαp−1 αp−1 ∈ ∧p−1
· Coexacta si wp = δαp+1 αp+1 ∈ ∧p+1
La integración de p-formas tiene dos teoremas que hacen de las p-formas objetos
fácil de manipular. Vamos a presentar dos teoremas sin demostración, el teorema de
Hodge, que dice que cualquier p-forma es la superposición de una p-forma exácta,
una mas coexáta o otra amónica. Ası́ es posible escribir las p-formas en términos de
estas p-formas con caracteristicas muy especiales. Este teorema es de gran ayuda
como veremos. Y el segundo teorema es el teorema de Stokes, que como veremos
en los ejemplos, es la generalización de una gran cantidad de teoremas matemáticos
sobre integración puestos todos en el mismo contexto. Empecemos por el teorema
de Hodge.
Teorema 2 (Hodge). Sea M n variedad compacta y sin frontera y ∧p el con-
junto de p-formas sobre M n . Entonces
wp = dαp−1 + δβp+1 + γp
para toda wp ∈ ∧ , con αp−1 ∈ ∧p−1 , βp+1 ∈ ∧p+1 y γp ∈ ∧p armónica.
p

Proof. Sin Dem. ¤


Y el teorema de Stokes.
Teorema 3 (Stokes). Sea M n variedad con frontera no vacı́a. Sea wp−1 ∈
p−1
∧ una p − 1-forma sobre M n . Entonces
Z Z
dwp−1 = wp−1
M ∂M

Proof. Sin Dem. ¤


Para ver este teorema, es mejor ver la manera de trabajar con él. Para fa-
miliarizarnos con el teorema de Stokes vamos a dar algunos ejemplos en varios
espacios.
Exemplo 46. En <, n = 1, solo hay dos espacio de formas, las 0- y las 1-
formas, es decir ∧0 y ∧1 . Sea f ∈ ∧0 y df ∈ ∧1 . Entonces se tiene
Z Z
df = f .
M ∂M

Sea M = (a, b), entonces el teorema de Stokes es simplemente


Z b
df = f |ba = f (b) − f (a)
a

que es el teorema fundamental del cálculo.


Exemplo 47. En <2 hay tres espacios de formas, las 0-, 1-, y 2-formas, es
decir, ∧0 , ∧1 y ∧2 . Sea w = w1 dx + w2 dy una 1-forma en <2 . Entonces dw =
3. DIFERENCIACIÓN E INTEGRACIÓN EN VARIEDADES 55

w1,y dy ∧ dx + w2,x dx ∧ dy. La aplicación del teorema de Stokes en este espacio nos
da Z Z
dw = w.
M ∂M

Sea M una superficie, su frontera es una curva


Z I
(w2,x − w1,y ) dx ∧ dy = (w1 dx + w2 dy) ,
M `

Que es el teorema de Stokes en el plano, ver figura 2

Figure 2. Región de integración. M es una superficie y l es su contorno.

Exemplo 48. En <3 podemos definir 0-, 1-, 2- y 3-formas. Sea w una 1-
forma en <3 , su diferencial esta dada por dw = d (w1 dx + w2 dy + w3 dz). Vamos a
escribir esta diferencial explicitamente, veamos
dw = w1,y dy ∧ dx + w1,z dz ∧ dx
+w2,x dx ∧ dy + w2,z dz ∧ dy
+w3,x dx ∧ dy + w3,y dy ∧ dz
= (w2,x − w1,y ) dx ∧ dy
+ (w3,x − w1,z ) dx ∧ dz
+ (w3,y − w2,z ) dy ∧ dz
1
= (wi,j − wj,i ) dxi ∧ dxj
2
1
= ²ijk Bk dxi ∧ dxj
2
Si denotamos −
w = (w1 , w2 , w3 ), obtenemos que −
→ B =rot −
→ w , siendo →
→ B = (B1 , B2 , B3 ) .

56 3. TENSORES Y P-FORMAS

R R
La aplicación del teorema de Stokes dw = w implica que
M ∂M
Z Z Z I
rot −
w · d−
→ S =
→ B · d→

→ S =
− w · d→

→ x =
− w · d−

− x

M M ∂M

donde hemos usado el vector d− →S = (dy ∧ dz, −dx ∧ dz, dx ∧ dy). Esta es la fórmula
del flujo magnético sobre una superficie o ley de Gauss.
Vamos a dar algunos ejemplos utilizando parte del material desarrollado hasta
ahora.
Exemplo 49. Vamos a iniciar de nuevo con el tensor electromagnético del
ejemplo 37. Sea de nuevo el tensor A = Aµ dxµ + dΛ. Tomemos su diferencial
F = dA = Aµ,ν dxν ∧ dxµ , ya que ddΛ = 0. Debido a la antisimetria del operador
∧, el nuevo tensor F es antisimétrico, es el tensor de Faraday. En componentes
este tensor se escribe como F = Fµν dxν ∧ dxµ , donde las componentes Fµν estan
dadas por
 
0 Ax,t − At,x Ay,t − At,y Az,t − At,z
1  − (Ax,t − At,x ) 0 Ay,x − Ax,y Az,x − Ax,z 
Fµν =  

2 − (Ay,t − At,y ) − (Ay,x − Ax,y ) 0 Az,y − Ay,z 
− (Az,t − At,z ) − (Az,x − Ax,z ) − (Az,y − Ay,z ) 0
Por lo general también se escriben las componentes del tensor de Faraday en
términos de las componentes del campo eléctrico y magnético como
 
0 −Ex −Ey −Ez
1  Ex 0 Bz −By 
Fµν =  

2 Ey −Bz 0 Bx 
Ez By −Bx 0
Ası́ que F = −Ei dxi ∧dt+²ijk B i dxj ∧dxk = − (Ex dx ∧ dt + Ey dy ∧ dt + Ez dz ∧ dt)+
Bx dy ∧ dz − By dx ∧ dz + Bz dx ∧ dy. Comparando las componentes de las matrices,
se puede ver que
∂−
A

−→
E
− = + ∇Φ
∂t
B

− = ∇×→A

donde claramente se ha definido el vector − →A = (Ax , Ay , Az ), y dos vectores mas, el
vector eléctrico −
E = (Ex , Ey , Ez ) y el vector magnético −
→ B = (Bx , By , Bz ), de tal
→ ³ ´
forma que las componentes del tensor electromagnético son Aµ = −Φ, − → . Como
A
se sigue que dF = ddA = 0, esto implica que ∗dF = 0. Usando el resultado del
ejercicio 45 se tiene que

E · d−
∗dF = ∇ × →


x +∇·−
B dt + −
→ B · d−

x =0
∂t →
Esta identidad implica que

∇×−
E+
→ B = 0
∂t −

∇·−B = 0

3. DIFERENCIACIÓN E INTEGRACIÓN EN VARIEDADES 57

las cuales son la ecuación de Faraday y la ecuación de Gauss para el campo magnético,
respectivamente. Análogamente, se puede obtener una expresión para δF . Para
esto, vamos a obtener primero ∗F

∗F = Bx dx ∧ dt + By dy ∧ dt + Bz dz ∧ dt − (Ex dy ∧ dz − Ey dx ∧ dz + Ez dx ∧ dy)

Si ahora usamos el resultado del ejercicio 45 obtenemos que



B · d−
∗d ∗ F = −∇ × −


x +∇·→
E dt + −
− E · d→

x
∂t →
de donde claramente se ven la ley de Ampere y la ley de Gauss para el campo
eléctrico, es decir

∇×−
B−
→ E = 4π j
∂t −
→ −

∇·−E
→ = 4πρ

de donde concluimos que las ecuaciones de Maxwell en términos de formas son

dF = 0
(3.1) δF = −4πJ

donde J = ρdt + j · d−

x


Ejercicio 29. Muestre que la norma de Lorentz se puede representar como
δA = 0

Exemplo 50 (Monopolo de Dirac). Ahora vamos a ver un ejemplo ya no en un


espacio plano, sino en una variedad no trivial, por ejemplo sobre la pelota. Dada la
generalidad de las formas, podemo incluso resolver las ecuaciones de Maxwell 3.1
sobre la pelota. Sea M = S 2 , y ya sabemos que unas bases de T ∗ S 2 estan dadas
por
dx xdz
dx1± = + 2
1∓z (1 ∓ z)
dy ydz
dx2± = + 2
1∓z (1 ∓ z)

Cualquier 1-forma en T ∗ S 2 se escribe entonces como A± = A1± dx1± + A2± dx2± y


su diferencial se obtiene como dA± = (A2± ,2 −A1± ,1 ) dx1± ∧ dx2± . Una expresión
equivalente para este resultado es que F = ddA = 0. Análogamente, la aplicación
del operador de Hodge a la 1-forma A± nos da ∗A± = A1± dx2± − A2± dx1± . De
aqui podemos obtener la diferencial de esta última forma, obtenemos d ∗ A± =
(A1± ,1 +A2± ,2 ) dx1± ∧ dx2± . Para obtener la segunda ecuación de Maxwell, vamos
a obtener la aplicación del operador δ se obtiene entonces

dA± = (A1± ,2 −A2± ,1 ) dx1± ∧ dx2±


δA± = A1± ,1 +A2± ,2 .

Si ahora usamos la Norma de Lorentz δA = 0, podemos reducir las ecuaciones


electromagnéticas sobre la esféra sustancialmente. Vamos a escribir la segunda
58 3. TENSORES Y P-FORMAS

ecuación de Maxwell. Se tiene que

δF = − ∗ d ∗ F = − ∗ d (A1± ,2 −A2± ,1 )
¡ ¢
= − ∗ A1± ,21 dx1± + A1± ,22 dx2± − A2± ,11 dx1± − A2± ,12 dx2±
£ ¤
= − ∗ − (A2± ,22 +A2± ,11 ) dx1± + (A1± ,22 +A1± ,11 ) dx2±
= (A1± ,11 +A1± ,22 ) dx1± + (A2± ,11 +A2± ,22 ) dx2±

donde ya hemos usado la norma de Lorentz para simplificar las ecuaciones. Una
solución de las ecuaciones de Maxwell en el vacio δF = 0 sobre la esfera es:

A1± = A0 x2± , A2± = −A0 x1±

donde A0 es una constante. Observe que x1± = r1 ◦ σ± (p) = x/(1 ∓ z) and x2± =
r2 ◦ σ± (p) = y/(1 ∓ z). La solución entoces es
¡ ¢ A0 A0
A± = A0 x2± dx1± − x1± dx2± = 2 (ydx − xdy) ∓ 3 (xy − yx) dz
(1 ∓ z) (1 ∓ z)
Si ahora cambiamos las coordenadas a coordenadas esféricas 4.1, las cuales son mas
convenientes para analizar este caso, se obtiene:
A0 (∓1 − cos(θ))
A± = (ydx − xdy) = A0 dϕ
(1 ∓ z)2 (±1 − cos(θ))
1 − cos(θ)
A+ = −A0 dϕ
1 + cos(θ)
1 + cos(θ)
A− = −A0 dϕ
1 − cos(θ)
la cual es una solución a las ecuaciones de Maxwell en el vacio sobre la pelota.

Exemplo 51. Vamos a tomar alguna solución con fuentes. Supongamos que
tenemos un tensor de corrientes dado por
x1 x2
J= dx1 + dx2
(x 12 +x22 + 1)3 (x 12 + x2 2 + 1)3
(vamos a quitar en este ejemplo los subindices ± por comodidad). Igualando la
ecualción δF = −4πJ se llega a un sistema de ecuaciones
−4πx1
A1 ,11 +A1 ,22 =
(x1 2 + x2 2 + 1)3
−4πx2
A2 ,11 +A2 ,22 =
(x1 2 + x2 2 + 1)3
Este sistema tiene una solución dada por
πx1
A1 =
2(x1 2 + x2 2 + 1)
πx2
A2 =
2(x1 2 + x2 2 + 1)
3. DIFERENCIACIÓN E INTEGRACIÓN EN VARIEDADES 59

En términos de las coordenadas de <3 , la solución (regresando a la notación con


±) es
A0
A± = (ydx − xdy) = A0 (∓1 − cos(θ)) dϕ
(1 ∓ z)
A+ = A0 (−1 − cos(θ)) dϕ
A− = A0 (1 − cos(θ)) dϕ
Es decir A+ = A− − 2A0 dϕ. Por lo tanto A± es solamente un campo de norma.
A± se llama el monopolo de Dirac
En la siguiente sección vamos a introducir otros dos operadores diferenciales,
uno es llamado derivada de Lie y el otro la derivada covariante. Ambos tienen
su esfera de interes y se utilizan para diferentes objetivos. La derivada de Lie es
muy importante para encontrar simetrias en alguna variedad. Con ella es posible
encontrar los vectores de Killing, que son asociados a simetrias del espacio. Con la
derivada covariante se construye el tensor de curvatura, que es un tensor con el que
podemos medir ésta en todo punto del espacio. Para poder introducir la derivada
de Lie es necesario introducir algunos conceptos previos. Para esto necesitamos
primero algunas definiciones.
Definición 67. Sea M n variedad, U ⊂ M n y (−², ²) ⊂ <. Un grupo uni-
paramétrico de transformación es una función suave ϕ : (−², ²) × U → M n tal
que
1) ϕ (0, x) = x
2) ϕ (t + s, x) = ϕ (t, ϕ (s, x)) para toda t, s ∈ <, x ∈ M n
Comentario 13. Observe que ϕ (t + s, x) = ϕ (s + t, x) = ϕ (s, ϕ (t, x))
El nombre de grupo es porque con esta función efectivamente se puede formar
un grupo, de un solo parámetro, esto se hace en la siguiente proposición.
Proposición 51. Sea ϕ : < × M n → M n un grupo uniparamétrico de trans-
formaciones y Ψ = {ϕt : M n → M n , x → ϕt (x) = ϕ (t, x)}. Entonces (Ψ,◦ ) es un
subgrupo del grupo de difeomorfismos.
Proof. Se tiene que ϕt ◦ ϕs (x) = ϕt+s (x) = ϕ (t + s, x) = ϕ (t, ϕ (s, x)) =
ϕt (ϕs (x)). Entonces ϕ es cerrado. ϕt+s = ϕs+t implica que Ψ es abeliano, ϕ0 es
la identidad y ϕ−t = ϕ−1
t , ya que ϕt ◦ ϕ−t = ϕ0 ¤
Como el grupo uniparamétrico de transformaciones es una función de los reales
a la variedad, se puede construir una curva. Entonces con la curva se puede contruir
la tangente a esta curva que a su vez define un vector. Entonce se dice que esta curva
es la curva integral del vector tangente a la curva. Vamos a hacer esto formalmente.
Definición 68. Sea M n variedad. Una curva integral de X ∈T M n es un
·
camino suave γ : (a, b) → M n tal que γ (s) = Xγ(s) , s ∈ (a, b) ver figura 3.
Vamos a aclarar esta definición un poco. Sea c = (U, ψ, v) una carta y X ∈ T U .
Entonces la función γ : (a, b) → U es una curva que cumple con ¡ ¯ ¢

dγ : Ts < → Tγ(s) M n tal que explicitamente se cumple que dγ dt s
= Xγ(s) :=
· d
γ(s) = ◦ γ ∗ . Esto es, para una función cualquiera de la variedad a los reales
dt
· ¡ d¯ ¢ ¯
f : M n → < se tiene que γ (f ) = dγ dt ¯ (f ) = d ¯ (f ◦ γ) = Xγ(s) (f ). Vamos
s dt s
60 3. TENSORES Y P-FORMAS

Figure 3. La curva integral del vector X, es el camino suave


representado en la figura.

· ¡ ¢
a tomar una función muy particular, sea f = xi , entonces se tiene que γ xi =
¡ d ¯ ¢ ¡ i¢ ¯ ¡ i ¢ ¡ i ¢ ¯ ¡ i¢ ¡ ¢
dγ dt ¯ x = dt d¯
x ◦ γ = dt d j
x ◦ γ (s) = Xγ(s) ∂ ¯
= Xγ(s) xi =
∂xj γ(s) x
¡ j¢ s s
X x (γ (s)).
d
¡ i ¢ ¡ ¢
Ası́ es que se cumple dt x ◦ γ = X xj ◦ γ. Esto quiere decir que, dado
un vector X en la variedad, para encontrar una curva integral, hay que resolver el
sistema de ecuaciones diferenciales
d ¡ i ¢ ¡ ¢
(3.2) x ◦ γ = X xi ◦ γ
dt
.
Exemplo 52. Vamos a encontra la curva integral del vector
∂ ∂
X = x2 1 − x1 2
∂x ∂x
Entonces, de la ecuación (3.2), las ecuaciones a resolver son (recuerden que r1 =
x1 ◦ γ, r2 = x2 ◦ γ)
dr1
= X(x1 ) ◦ γ = r2
dt
dr2
= X(x2 ) ◦ γ = −r1
dt
Una solución a este sistema es r1 = r sin(t), r2 = r cos(t). Es fácil ver que la curva
2 2
integral es un cı́rculo de radio r, ya que r1 + r2 = r2
Exemplo 53. Veamos ahora la curva integral del vector del ejemplo 36
µ ¶
∂ sin(ϕ) ∂
X = (cos(θ) − 1) cos(ϕ) +
∂θ sin(θ) ∂ϕ
Entonces, de la ecuación (3.2), las ecuaciones a resolver son
dr1 ¡ ¢
= X(θ) ◦ γ = cos(r1 ) − 1 cos(r2 )
dt
dr2 ¡ ¢ sin(r2 )
= X(ϕ) ◦ γ = cos(r1 ) − 1
dt sin(r1 )
Si dividimos la primera ecuación entre la segunda y separamos las variables, podemos
integrar este sistema de ecuaciones. El resultado es que (csc(r1 ) − cot(r1 )) =
3. DIFERENCIACIÓN E INTEGRACIÓN EN VARIEDADES 61

c sin(r2 ). Una parametrización de esta curva esta dada por r1 = λ, r2 = 1/c arcsin(csc(λ)−
cot(λ)). La curva es graficada en la figura 4

Figure 4. Curva integral del vector del ejemplo 53. Como este
vector corresponde a uno de los vectores base de la pelota, esta
curva esta sobre la pelota y hay que imaginarsela dando vuelta
alrededor de ella y con los extremos que se juntan.

Ejercicio 30. Encuetre la curva integral de los vectores


∂ ∂
1) X = 1
+m 2 sobre <2
∂x ∂x

2) X = sin(θ) sobre S 2
∂ϕ
Otra propiedad importente del grupo unimaramétrico de transformaciones es
que induce dos importantes funciones. Con ellas vamos a poder contruir la derivada
de Lie. Vamos a definir estas funciones.
Definición 69. Sea ϕ : < × M n → M n un grupo uniparamétrico de transfor-
maciones sobre M n variedad. ϕ induce dos funciones
ϕt = M n → M n x → ϕt (x) = ϕ (t, x)
ϕx = < → M n t → ϕx (t) = ϕ (t, x)
62 3. TENSORES Y P-FORMAS

Entonces {ϕt } es un subgrupo abeliano del grupo de difeomorfismos y ϕx induce


·
el vector X = ϕx .
Observe que el conjunto {ϕx |ϕ ¡ xd(t)
¯ ¢= ϕ (t, x)} cumple
¡ ¯ que
¢ ϕx ◦ ϕy 6= ϕy ◦ ϕx
en general, por lo que d (ϕx ◦ ϕy ) dt ¯ = dϕx ◦ dϕy d ¯ = X ◦ Y 6= Y ◦ X =
¡ d¯ ¢ s dt s
d (ϕy ◦ ϕx ) dt ¯ . Esto es, la función ϕx induce un producto que en general es un
s
producto no conmutativo entre los vectores de la variedad.

4. Derivada de Lie y Derivada Covariante


Debido a la rica estructura que tienen los tensores, es posible definir varios oper-
adores diferenciales. En esta sección vamos a introducir dos operadores diferenciales
muy importantes y utilizados en fı́sica, son operadores que generalizan la derivada
normal. La derivada de Lie es conveniente para espacios que tinen isometrias o
simetrias especiales. Con la derivada de Lie, como veremos, es posible encontrar
estas simetrias. La derivada covariante es un operador que convierte a un tensor
en otro tensor, por eso su importancia como operador diferencial. A la derivada
de Lie la vamos a introducir sin demostraciones, pero para la derivada covariante
daremos las demostraciones mas importantes. Ahora estamos listos para definir la
derivada de Lie.
Definición 70. Sea M n variedad y T ∈ Tsr tensor sobre M n . Sea ϕ en grupo
·
uniparamétrico de transformaciones sobre M n , X = ϕx . La derivada de Lie de
T a lo largo de X se define como
LX T |p = lim 1t (T |p −ϕt∗ T |p )
t→0
donde ϕx y ϕt son las funciones inducidas por ϕ.
La derivada de Lie tiene varias propiedades, que aquı́ vamos a poner sin demostración,
y que podemos resumir en la siguiente proposición.
Proposición 52. Sea LX derivada de Lie del vector X, entonces se cumple:
1) LX preserva el tipo de tensor, es decir mapea LX : Tsr → Tsr
2) LX es lineal y preserva la contracción
3) Si S y T son tensores arbitarios, se cumple LX (S ⊗ T ) = (LX S) ⊗ T + S ⊗
(LX T )
4) LX f = X (f ) para f : M n → <
5) LX Y = −LY X = [X, Y ] para toda X, Y ∈ T M n
6) d (LX w) = LX (dw)
Proof. Sin Dem. ¤
Finalmente, como dijimos, vamos a introducir otro operador diferencial, la
derivada covariante. Para esto necesitamos introducir una nueva estructura llamada
la conexión, y que vamos a denotar por ∇. La idea de la conexón es dar una forma
de conectar un vector que es trasladado paralelamente a traves de la variedad. Ası́,
si el vector base ea es traslado paralelamente a lo largo de la curva γ, que tiene como
vector tangente al vector eb , el vector final trasladado paralelamente sera ∇eb ea ,
ver figura 5. Vamos a desarrolar esta idea con cuidado. Formalmente la definición
de conexión es:
Definición 71. Una conexión ∇ para algún p ∈ M n , variedad, es un mapeo
que le asocia a cada tensor del tipo T ∈ Tsr un tensor del tipo Ts+1
r
∇ : Tsr → Ts+1
r

tal que
4. DERIVADA DE LIE Y DERIVADA COVARIANTE 63

1) ∇ es una derivación en el álgebra tensorial, i.e. ∇ (αT + βT 0 ) = α∇T +


β∇T 0 y ∇ (T ⊗ S) = ∇S ⊗ T + S ⊗ ∇T
2) ∇f = df para toda f : M n → <
3) ∇ = ea ∇eb donde {ea }a=1,··· ,n y {eb }b=1,··· ,n son bases duales de T ∗ M n y
T M n respectivamente.
4) ∇X es lineal, i.e. ∇αX+βY = α∇X + β∇Y .
No hay una manera única de definir la conexión en una variedad. La mas común
es la conexión que hace que la derivada covariante haga cero al tensor métrico, la
cual introduciremos mas adelante. Pero en general, la forma de definir la conexión
es usando la siguiente regla.
Sea {ea }a=1,...,n una base de T M n no necesariamente coordinada, es decir

ea = eia ∂x i . Entonces

∇eb ea = Γcab ec ∈ T M n
donde los coeficientes Γcab son funciones
© ª suaves, ver figura 5, que se obtienen del
producto Γcab = hec , ∇eb ea i, donde eb b=1,··· ,n es la base dual a {ea }a=1,··· ,n , es
decir eb = ebj dxj y se cumple que
¿ À
­ b ® ∂
(4.1) e , ea = ebj eja dxj , j = δab .
∂x
De hecho, definir la conexión es equivalente a dar los valores de las funciones Γcab
sobre la variedad. Para una base coordenada, los coeficientes de la conexión son
∂ ∂
∇ ∂j i
= Γkij k
∂x ∂x ∂x
nosotros vamos a tomar siempre conexiones simétricas, es decir, para las bases
coordenadas se cumple que
Γkij = Γkji

Figure 5. El desplazamiento paralelo de un vector. Este de-


splazamiento en una variedad define los coeficientes de la derivada
covariante entre bases dadas.
64 3. TENSORES Y P-FORMAS

Ejercicio 31. Estudiar como se comportan los coeficientes Γcab bajo un cambio
de base (de coordenadas).
Conociendo la conexión en la variedad, se puede conocer la derivada covariante
de un vector. La forma de hacerlos se ve en la siguiente proposición.
Proposición 53. Las componentes de la derivada covariante del vector Y a lo
largo del vector X, se ven como
³ ´
∇X Y = Y|ba X b ea

donde {ea }a=1,··· ,n es una base de T M n y Y|ba = eb (Y a ) + Γacb X c

Proof. Tomemos X = X b eb Y = Y a ea , entonces


∇e b Y = ∇eb (Y a ea ) = (∇eb Y a ) ea + Y a (∇eb ea )
= eb (Y a ) ea + Γcab ec Y a = (eb (Y a ) + Γacb Y c ) ea = Y|ba ea
por la linearidad del operador ∇ea se obtiene el resultado deseado. ¤
Notación 19. En el caso que la base sea una base coordenada {dxi }, se acos-
tumbra denotar a la derivada covariante no por el simbolo |, sino por ; entonces:
¡ ¢ ∂ ∂
∇ ∂ Y = Y i ,j +Γikj Y k = Y;ji i
∂xj ∂xi ∂x

Por supuesto ∇Y = dxj Y;ji ∂x i no depende de las bases.

De hecho, la definición de la conexión o del transporte paralelo es equivalente.


Si se define una, se puede definir la otra. En este caso hemos definido a la conexión,
entonces el trasporte paralelo se define como:
Definición 72. Sea γ un camino en la variedad M , y sea X = γ̇ el vector
tangente a lo largo de γ. Se dice que el vector Y ha sido trasladado paralelamente
a traves de X, si
∇X Y = 0
∂ i ∂
Supongamos por facilidad que X = X j ∂x j , y que Y = Y ∂xi . Si desarrollamos

la fórmula de la definición 72, se tiene


¡ ¢ ∂
0 = ∇X Y = ∇X j ∂ j Y = X j ∇ ∂ j Y = X j Y i ,j +Γikj X j Y k
∂x ∂x ∂xi
que puede escribirse de la forma equivalente
¡ ¢
¡ i i j k
¢ d Yi◦γ
X(Y ) + Γkj X Y ◦ γ = + Γikj X j Y k ◦ γ = 0
dt
donde hemos usado la fórmula de la cuarva integral de la ecuación (3.2) de X en la
igualdad.
Exemplo 54. Vamos a discutir un ejemplo simple, para iniciar, vamos a

suponer que la conexión es cero. Supongamos que tenemos el vector Y = Y 1 ∂x 1 +

Y 2 ∂x 2 el cual queremos desplazar paralelamente a lo largo de una curva. Ahora
veamos la ecuación del desplazamiento paralelo, se tiene
dY 1 ◦ γ dY 2 ◦ γ
= 0, =0
dt dt
4. DERIVADA DE LIE Y DERIVADA COVARIANTE 65

cuya solución es Y 1 = Y01 , Y 2 = Y02 , donde ya hemos puesto las condiciones


iniciales a la solución, es decir, el valor del vector Y |t=t0 en el punto donde se
inicia el desplazamiento. Este vector será siempre Y |t=t0 , es decir, si la conexión
es cero, un vector se desplaza paralelamente sin cambiar.
Exemplo 55. Ahora vamos a estudiar un ejemplo donde la conexión no es
cero. Sea la variedad M 2-dimensional, con coordenadas θ, ϕ y con la conexión
sin(θ) 1
Γθθθ = Γθϕϕ = sin(θ) Γϕ ϕ
θϕ = Γϕθ = −
cos(θ) − 1 sin(θ)
y vamos a transportar paralelamente un vector sobre esta variedad a lo largo del
vector X dado por


X = sin(θ)
∂ϕ
cuya curva integral es un desplazamiento sólo en la dirección ϕ y esta dada por la
parametrización θ = θ0 constante y ϕ = θ0 t. Entonces encontremos el desplaza-
miento paralelo de un vector en M a lo largo de este vector, obtenemos
¡ ¢
d Yθ ◦γ
0 = + Γθθθ X θ Y θ ◦ γ + Γθϕϕ X ϕ Y ϕ ◦ γ
dt
dy 1
= + sin2 (θ0 )y 2
dt
d (Y ϕ ◦ γ)
0 = + Γϕ θ ϕ ϕ
θϕ X Y ◦ γ + Γϕθ X Y ◦ γ
ϕ θ
dt
dy 2
= − y1
dt
Para obtener el desplazamiento paralelo de Y , hay que resolver este sistema de ecua-
ciones con las condiciones iniciales correspondientes al punto inicial. La solución
del sistema esta dada por
y 1 (t) = C1 sin (sin (θ0 ) t) + C2 cos (sin (θ0 ) t)
C2 C1
y 2 (t) = sin (sin (θ0 ) t) − cos (sin (θ0 ) t)
sin (θ0 ) sin (θ0 )
Dado el valor inicial de y 1 y y 2 , se fijan las constantes y se puede encontrar el
vector desplazado paralelamente en otro punto, para algún valor de t.
De la misma forma podemos calcular la derivada covariante de una 1-forma,
dado que ya conocemos la conexión en la variedad. Esto se ve en la proposición
siguiente.
Proposición 54. Sea ∇ conexión en M n . Si ∇eb ea = Γcab ec entonces ∇eb ea =
−Γacb ec .
Proof. Sea Y = Y a ea ∈ T M n y w = wc ec ∈ T ∗ M n . Usemos el hecho que ∇
y por lo tanto ∇eb son derivaciones, entonces
∇eb (wc Y c ) = wc|b Y c + wc Y|bc Y como wc Y c es una función, se tiene:
= eb (wc ) Y c + wc eb (Y c ) Por otro lado, se sigue que:
= (eb (wc ) − Γcb wa ) Y + wa (eb (Y a ) + Γacb Y c )
a c

Por lo que entonces ∇eb w = wc|b ec = (eb (wc ) − Γacb wa ) ec ¤


66 3. TENSORES Y P-FORMAS

Ejercicio 32. Demuestre que las componentes de la derivada covariante ∇eb T ,


aplicada a un tensor T = Tab11···a
···br
e ⊗ · · · ⊗ ebr ⊗ ea1 ⊗ · · · ⊗ eas estan dadas por
s b1
r
X s
X
Tab11···a
···br
s |b
= eb (Tab11···a
···br
s
)+ Γbcbi Tab11···a
···c···br
s
− Γcaj b Tab11···c···a
···br
s
i=1 j=1

Existe una relación entre todas los operadores diferenciales que hemos definido,
la diferencial de p-formas, la derivada de Lie y la derivada covariante. Entre la
diferencial de p-formas y la derivada covariante la relación es que la diferencial se
puede facilmente generalizar a espacios con conexión¡ ∇. La ¢diferencial exterior,
definición 60, en espacios con conexión es dw = ∇ ∂ j wi1 ,··· ,ip ∧ dxi1 ∧ · · · ∧ dxip ,
∂x
que, por ejemplo, para una 1-forma w = wi dxi se obtiene dw = ∇ ∂ (wi )dxi =
∂xj
(wi,j − Γkij wk )dxi ∧ dxj . Todas las proposiciones y teoremas que se aplican a la
derivada exterior se siguen igualmente con la definición extendida. Por lo general,
los coeficientes de conexón en un sistema coordenado {dxi } son simétricos, es decir
Γkij = Γkji , en tal caso la definición anterior es exactamente la definición 60.
La relación entre la derivada de Lie y la derivada covariante, la cual daremos
sin demostración, se sigue de la siguiente proposicón.
Proposición 55. Sea T = Tab11···a ···br
e ⊗· · ·⊗ebr ⊗ea1 ⊗· · ·⊗eas tensor. Entonces
s b1
la derivada de Lie a lo largo del vector X = X c ec de este tensor esta dada por
Xr s
X
c b1 ···br b1 ···c···br bn
(4.2) LX Tab11···a
···br
s
= X Ta1 ···as |c − Ta1 ···as X|c + Tab11···c···a
···br
s
c
X|a m
n=1 m=1

Proof. Sin Dem. ¤


Vamos a ver algunos ejemplos de como usar la fórmula (4.2).
Exemplo 56. Vamos a encontrar la derivada de Lie de un vector Y = Y b eb a
lo largo del vector X = X c ec . Usando la fórmula (4.2) se tiene
LX Y b = X c Y|cb − Y c X|c
b
= [X, Y ]b − Dcd
b
X cY d
b
donde Dcd = Γbdc − Γbcd . Si las componentes de la conexión son simétricas Dcd
b
= 0,
la última igualdad fué dada en la proposción 52 sobre las propiedades de la derivada
de Lie. Vamos a encontrar ahora la derivada de Lie de una uno forma w = wa ea
a lo largo del mismo vector X = X c ec . Usando la fórmula (4.2) se tiene
LX wa = X c wa|c + wc X|a
c

∂ i i
Si {ej } = { ∂x j }, {e } = {dx } son bases coordenadas, entoces solo hay que cambiar
i
el simbolo | por ; y Djk = 0 generalmente.
Exemplo 57. Ahora vamos a buscar la derivada de Lie a lo largo del vector
X = X c ec de un tensor T = Tab ea ⊗ eb . De nuevo, usando la fórmula (4.2) se tiene
LX Tab = X c Tab|c + Tcb X|a
c c
+ Tac X|b
Este resultado lo usaremos mas adelante.
El interes de la derivada de Lie radica en lo siguiente. Supongamos que ϕ es
una isometria (ver capitulo 9 definición ??). Es decir, esta función deja invariate
la métrica ρ ◦ ϕ(X, Y ) = ρ(ϕ(X), ϕ(Y )) = ρ(X, Y ). La presencia de isometrias
4. DERIVADA DE LIE Y DERIVADA COVARIANTE 67

es común en problemas reales, por ejemplo, si un prblema tiene simetria axial, la


métrica del problema permanece inalterada alrededor del eje z, o si el prblema a
tratar es periodico, la métrica (Lorentziana) del problema tiene una isometria en
el tiempo. Ahora bien, si ϕ es una isometria, la derivada de Lie de la métrica a
lo largo de su vector tangente ϕ̇ = X es cero, lo cual se ve de la definición 70.
Es decir, las simetrias de un problema conducen siempre a derivadas de Lie de la
métrica a lo largo del vector de la isometria igual a cero. A los vectores tangente
generados por una isometria se les llama vectores de Killing. Su definición formal
es la siguiente.
Definición 73. Sea ϕ un grupo uniparametrico de trasformaciones que a su
vez es una isomentria ϕ∗t g = g. Entonces el vector generado por ϕ̇x = X se llama
vector de Killing
La manera de encontrar los vectores de Killing de una variedad M , es utilizando
el ejmplo 57. Para esto, supongamos que se tiene una métrica como la definida en
el ejemplo 39. Entonces se sigue que

Proposición 56. Un vector de Killing X = X i ∂x i cumple con la ecuación

diferencial
LX gij = X k gij;k + gkj X;ik + gik X;jk = 0
donde la mı́etrica esta dada como g = gij dxi ⊗ dxj .
Proof. Por sustitución directa en el ejercicio 57 ¤
Comentario 14. Mas adelante veremos que una métrica es compatible con la
conexión si su derivada covariante es cero, es decir, ∇g = 0. Para estas métricas,
las que mas nos interesan a nosotros, la ecuación anterior se reduce a
Xj;i + Xi;j = 0
donde hemos definido Xk;i = gkj X;ik . A esta ecuación se le llama la ecuación de
Killing
Existen varias propiedades de los tensores cuando se les aplican los operadores
diferenciales que hemos visto. En lo que sigue, vamos a deducir solo algunas de las
propiedades mas importantes. Vamos a iniciar con la siguiente proposición.
Proposición 57. Sean {ea = eai dxi } 1-formas base del espacio cotangente
T M y ∇ la derivada covariante en M , tal que Γabc es su conexión asociada. En-

tonces se sigue que


dea = Γabc eb ∧ ec
Proof. Sea {eb = ekb ∂x∂ k } la base dual a {ea = eai dxi } en T M . De la definición
de la conexión Γabc , se sigue que

Γabc = hea , ∇c eb i = heai dxi , ekb;j ejc k i = eak ejc ekb;j
∂x
De una forma análoga se puede ver que

−Γabc = h∇c ea , eb i = heai;j ejc dxi , ekb k i = eak;j ejc ekb
∂x
Donde hemos usado para simplificar, la notación ∇ec = ∇c . Si juntamos los dos
resultados anteriores se tiene
Γabc = eak ejc ekb;j = −eak;j ejc ekb
68 3. TENSORES Y P-FORMAS

De la definición de diferencial exterior se sigue que

dea = eak;i dxi ∧ dxk


= eak;i δji δlk dxj ∧ dxl
= eak;i ebj eib ecl ekc dxj ∧ dxl
= −eak;i eic ekb eb ∧ ec
= Γabc eb ∧ ec

Esta es la llamada primera forma fundamental de Cartan. ¤

Notación 20. Es conveniente definir la 1-forma de conexón por

Γab = Γabc ec

de tal forma que


dea = Γab ∧ eb

Para terminar esta sección, vamos a definir las curvas geodésicas. Una curva
geodésica es aquella que transporta paralelamente su vector tangente. Es decir:

Definición 74. Sea γ una trayectoria en una variedad M y X su vector tan-


gente, γ̇ = X. Se dice que la curva descrita por esta trayectoria es una geodésica
si
∇X X = 0

Comentario 15. La ecuación geodésica también puede escribirse usando la


fórmula (3.2) de la curva integral del vector X.

dX i ◦ γ d2 r i j
i dr dr
k
(4.3) + Γijk X j X k ◦ γ = + Γjk =0
dt dt2 dt dt
donde hemos usado la fórmula dri /dt = X i ◦ γ de la curva integral de X.

Vamos a estudiar un ejemplo sencillo.

Exemplo 58. Vamos a estudiar un ejemplo donde la conexión es de la variedad


M 2-dimensional, con coordenadas θ, ϕ del ejemplo 55. Recordando las ecuaciones
del desplazamiento paralelo, podemos escribir las ecuaciones para las geodésicas en
este espacio como
µ ¶2 µ ¶2
d2 rθ sin(θ) drθ drϕ
+ + sin(θ) = 0
dt2 cos(θ) − 1 dt dt
d2 rϕ 2 drθ drϕ
− = 0
dt2 sin(θ) dt dt
La resolución de este sistema no es simple y en algunos casos se pueden dar solu-
ciones parciales o se resuelven estos sistemas numericamente.
5. EL TENSOR MÉTRICO Y EL TENSOR DE CURVATURA 69

5. El Tensor Métrico y el Tensor de Curvatura


La definición de la conexión es, en general totalmente independiente de la
métrica de la variedad. En esta sección vamos a definir al tensor de curvatura
en terminos de la conexión. Eso quiere decir que la curvatura de la variedad es,
en general, totalmente independiente de la métrica. El transporte paralelo, equiv-
alente a la conexión, asi como la curvatura, son cantidades que no dependen, en
general, de la métrica de la variedad. Estrictamente hablando, no hay forma de
fijar la conexión de una manera universal. En fı́sica, y mas concretamente en rela-
tividad general, la conexión se fija utilizando las ecuaciones de Einstein. La razón
por la que introducimos al tensor métrico y al tensor de curvatura en la misma
sección, es porque hay una manera particular de fijar la conexón conociendo el ten-
sor métrico, que es la manera canónica utilzada en fı́sica para relacionar a los dos
tensores. Ası́, las ecuaciones de Einstein son ecuaciones diferenciales para las com-
ponentes del tensor métrico, que a la vez fija la conexión y con ello a la curvatura.
Esta conexión es la que mas nos va a interesar aquı́. Sin embargo, empezaremos
introduciendo al tensor de curvatura sin relación con el tensor métrico, y despues
discutiremos el caso especial en el que si estan relacionados. Este último caso es de
mucho interes porque la métrica fija la conexión y la curvatura de manera única y
nos limitaremos a estudiar las propiedades del tensor de curvatura solo para este
caso. Vamos a iniciar introduciendo el tensor métrico.
Definición 75. Sea M n una variedad n-dimensional y {wa }a=1,··· ,n una base
de T ∗ M . Un tensor del tipo (0, 2) simétrico tal que
g = ηab wa ⊗ wb
donde (η)ab = ηab = diag(±1, · · · , ±1), es un tensor métrico de M .
Notación 21. A la matriz ηab se le llama la signatura de la variedad. Si
η es la matriz identidad, se dice que la variedad es Euclidiana. Si hay solo un
uno con signo diferente a los demas, se dice que la variedad es Riemanniana.
Sin embargo, en algunos libros (de matemáticas) lo que aquı́ llamamos variedad
Euclidiana lo llaman variedad Riemanniana y lo que aqui llamamos Riemanniana
lo llaman variedad Pseudoriemanniana o variedad Lorenziana.
Con el tensor métrico, la variedad y su espacio tangente adquieren varias es-
tructuras. Si M n es una variedad con métrica, entonces g es un producto interno
entre vectores g(X, Y ). El espacio (T M, g) es un espacio Euclidiano y g su producto
interno.pCon este producto se define una norma tal que la norma del vector X es
||X|| = g(X, X). Entoces (T M, ||·||) es un espacio normado.
p Con la norma defin-
imos la métrica sobre T M como ρ(X, Y ) = ||X −Y || = g(X − Y, X − Y ), entoces
(T M, ρ) es un espacio métrico (vea el capitulo 9). Sin embargo, debe quedar claro
que solo si la sigatura corresponde a una variedad Euclidiana (y sólo en este caso),
este tensor define un espacio Euclidiano. En el caso de la signatura Lorenziana, el
espacio (T M, g) se llama espacio pseudoeuclidiano, (T M, ||¦||), ||X|| = g(X, X)
es un espacio pseudonormado y (T M, ρ), ρ(X, Y ) = ||X − Y || es un espacio
pseudométrico o Riemanniano en la variedad. Claramente, si tomamos una base
{eb } dual a {wa }, se tiene que ηab = g(ea , eb ). El caso mas interesante en fı́sica es
el de signatura Lorenziana, ya que corresponde al modelo del espacio tiempo. El
espacio tiempo es una variedad Riemanniana 4-dimensional, en este caso a los 4
vectores base del espacio cotangente se le llama tetrada. En espacios con signatura
70 3. TENSORES Y P-FORMAS

Lorenziana entonces los vectores pueden tener normas no positivas. Se clasifica a


los vectores segun su norma, si la norma es positiva se dice que el vector es tipo
tiempo, si su norma es nula, el vector es tipo nulo y si tiene norma negativa, se
dice que el vector es tipo espacio. Para signaturas Lorenzianas podemos usar la
signatura η = diag(1, 1, 1 − 1). Sin embargo, es posible usar signaturas no diago-
nales, como
 
0 1 0 0
 1 0 0 0 
η=  0 0 0

−1 
0 0 −1 0
Esta signatura define una base del espacio muy particular llamada tetrada nula, ya
que g(ea , ea ) = 0 (no sumatoria!) para todo a = 1, 2, 3, 4. Esto es, los vectores base
del espacio tangente tienen norma (magnitud) nula. Es mas, el producto interno
de los vectores e1 y e2 es g(e1 , e2 ) = 1, y de los vectores e3 y e4 es g(e3 , e4 ) = −1.
Claramente, en este caso la norma y por tanto la distancia, no cumplen con el
axioma de ser definidas positivas. Esta signatura es de gran interes en relatividad
general.
En una base arbitraria, {wa = wia dxi }, el tensor métrico se escribe como

g = gab wa ⊗ wb = gab wia wjb dxi ⊗ dxj = gij dxi ⊗ dxj

donde hemos definido la cantidad gij = gab wia wjb . En ocaciones se acostumba
designar por el simbolo ds2 a la métrica, es decir ds2 = gij dxi ⊗ dxj . Ahora vamos
a definir la métrica compatible con la conexión.

Definición 76. Sea M variedad con conexión ∇ y métrica g. Se dice que g es


una métrica compatible con la conexión ∇ si

∇c g = 0, ⇔ ec (gab ) − Γbac − Γabc

para todo vector ec , donde hemos utilizado el resultado del ejercicio 32 y hemos
definido la cantidad Γabc = gad Γdbc .

De aqui se desprende inmediatamente que si la conexión ∇ y la métrica g son


compatibles, se sigue entonces una relación para las componentes de la métrica
dada por

(5.1) dgab = Γba + Γab

ya que si multiplicamos la relación de la definición 76 por los duales ec de los


vectores base ec , se llega a la relación anterior, recordemos que Γcb = Γcbd ed .
Esta definición también trae como consecuencia que un tensor métrico compat-
ible con la conexión, define la univocamente la conexión en la variedad. Esto se ve
en la siguiente proposición.

Proposición 58. Sea M n variedad n-dimensional con conexión ∇ y métrica


g compatible con la conexión. Entonces las componentes de la conexión son deter-
minadas univocamente por las componentes del tensor métrico.
∂ n
Proof. Sea { ∂x i }i=1,··· ,n una base coordenada de la variedad M . De la
definición de compatibilidad para esta base coordenada entre la métrica y la conexión,
5. EL TENSOR MÉTRICO Y EL TENSOR DE CURVATURA 71

se tiene que
−gij,k + Γjik + Γijk = 0
gki,j − Γikj − Γkij = 0
gkj,i − Γjki − Γkji = 0
Si sumamos estas tres ecuaciones, obtenemos
1
Γkij = (gki,j + gkj,i − gij,k )
2
ya que Γkij es simétrica en los indices ij. Asi mismo podemos definir análogamente
los coeficientes de conexión
1 kl
Γkij = g (gli,j + glj,i − gij,l )
2
donde g kl es la matriz inversa a gij , es decir g kl glj = δjk . ¤

Notación 22. A los coeficientes de conexión Γkij de una base coordenada se


les llama simbolos de Christoffel.
Para poder obtener los coeficiente de conexión en otra base, observemos que
ea Γabc eb ⊗ ec no depende de las bases, asi que
∂ ∂
Γabc ea ⊗ eb ⊗ ec = Γabc eia ⊗ ebj eck dxj ⊗ dxk = Γijk i ⊗ dxj ⊗ dxk
∂xi ∂x
donde se ha definido la cantidad
Γijk = eia Γabc ebj eck

Claramente hemos usado las bases duales {ea } y {eb }. Para escribir los coeficientes
Γabc en terminos de los Γijk , se usan las relaciones de dualidad eia ebi = δba y eib ebj = δji ,
de donde obtenemos
Γabc = eai Γijk ejb ekc
Ahora vamos a introducir la dos forma de curvatura. La curvatura se define en
un espacio con conexión, no necesariamente con métrica. Formalmente su definición
es
Definición 77. Sea M n variedad y ∇ una conexión en M n . Entonces la dos
forma de curvatura o segunda forma fundamental de Cartan, se define
como
Θab = dΓab + Γac ∧ Γcb
En término de sus componentes, podemos escribir a la dos forma de curvatura
como ciertos coeficientes por la base de las 2-formas, es decir
1 a c
Θab = R e ∧ ed
2 bcd
donde claramente {ea } es una base de T ∗ M n . A las componentes Rbcd
a
se les conoce
como tensor de curvatura, ya que a su vez son las componentes de un tensor que
a
se puede escribir como R = Rbcd ea ⊗ eb ⊗ ec ⊗ ed . También podemos obtener las
72 3. TENSORES Y P-FORMAS

componentes de la dos forma de curvatura en términos de las componentes de la


conexión. Observemos que de su definición se sigue
³ ´
Θab = Γabc|d − Γecd Γabe ed ∧ ec + Γaec Γebd ec ∧ ed
1³ a ´ 1
= Γbc|d − Γabd|c ed ∧ ec + (Γaec Γebd − Γaed Γebc ) ec ∧ ed
2 2
1
+ (−Γecd Γabe + Γedc Γabe ) ed ∧ ec
2
1³ a ´
= Γbd|c − Γabc|d + Γaec Γebd − Γaed Γebc + Dcd
e a
Γbe ec ∧ ed
2
de donde obtenemos que las componentes estan dadas por
a
Rbcd = Γabd|c − Γabc|d + Γaec Γebd − Γaed Γebc + Dcd
e a
Γbe
En un sistema coordenado, las componentes del tensor de curvatura estan dadas
por una expresión un poco mas simple
i
Rjkl = Γijl,k − Γijk,l + Γink Γnjl − Γinl Γnjk
El tensor de curvatura tiene una interpretación geométrica doble. Por un lado,
es una medida de la diferencia que existe entre un vector y el mismo al ser trans-
portado paralelamente a lo largo de una curva cerrada. El tensor de curvatura nos
da una medida de cuanto se diferencia el vector inicial y el final, despues de ser
transportado. Si la curvatura es cero, esa diferencia también es cero. Y también
nos da la separación que experimentan dos geodésicas al propagarse paralelamente.
Si se trata de un espacio de curvatura cero, las geodésicas no se separan o se juntan,
se propagan paralelamente. Pero si la curvatura no es cero, estas suelen separarse
o juntarse. El tensor de curvatura es una medida de esta separación.
El tensor de curvatura cumple con varias identidades y relaciones que sirven
para simplificar su cálculo. Vamos a derivar las mas importantes, empecemos por
una relación que aplica a la segunda derivada de un vector y al tensor de curvatura.
Proposición 59. Sea M n variedad y ∇ la conexión en la variedad. Sea w =
wi dxi una 1-forma en M n . Entonces se sigue que
l
wi;j;k − wi;k;j = Rijk wl

Proof. La demostración es por cálculo directo, se tiene que wi;j = wi,j −Γlij wl ,
entonces se sigue
¡ ¢ ¡ ¢ ¡ ¢
wi;j;k = wi,j − Γlij wl ,k − Γnik wn,j − Γlnj wl − Γnjk wi,n − Γlin wl

Recordemos que las componentes de la conexión en un sistema coordenado son


simétricas, asi que
¡ ¢
wi;j;k = wi,jk − Γlij,k wl − Γlij wl,k − Γlik wl,j − Γnik Γlnj wl − Γnjk wi,n − Γlin wl
¡ ¢
wi;k;j = wi,jk − Γlik,j wl − Γlik wl,j − Γlij wl,k − Γnij Γlnk wl − Γnjk wi,n − Γlin wl
⇒ wi;j;k − wi;k;j = Γlik,j wl − Γlij,k wl + Γnij Γlnk wl − Γnik Γlnj wl = Rijk
l
wl
¤
5. EL TENSOR MÉTRICO Y EL TENSOR DE CURVATURA 73


Ejercicio 33. Sea M n variedad y X = X i ∂x i . Demuestre que

i i i
X;j;k − X;k;j = −Rljk Xl

Ejercicio 34. Sea M n variedad y T = Tij11···i


···jr ∂
s ∂xj1
⊗· · ·⊗ ∂x∂jr ⊗dxi1 ⊗· · ·⊗dxis
un tensor en M n . Demuestre por inducción que
s
X r
X
Tij11···i
···jr
s ;j;k
− Tij11···i
···jr
s ;k;j
= Rinl jk Tij11···n···i
···jr
s
− jl
Rnjk Tij11···i
···n···jr
s
l=1 l=1

Observen que de la proposición 59 y del ejercicio 33 se desprenden la relación


i i
para las componentes del tensor de curvatura Rjkl = −Rjlk . Si aplicamos la relación
del ejercicio 32 al tensor de curvatura, obtenemos
l l
gnm;j;k − gnm;k;j = Rnjk glm + Rmjk gnl
de donde se desprende que para una conexión compatible con la métrica g, se sigue
l
que Rmnjk = −Rnmjk , donde Rmnjk = Rnjk glm .
Otra relación que debemos explorar es las consecuencias sobre la curvatura de
la realción ddw = 0 para una 1-forma w. Dado que dw = wi;j dxj ∧ dxi , se sugue
que
¡ ¢
ddw = wi,j − Γnij wn ;k dxk ∧ dxj ∧ dxi
³¡ ¢ ¡ ¢ ´
= wi,j − Γnij wn ,k − Γlik wl,j − Γnlj wn − Γljk (wi,l − Γnil wn ) dxk ∧ dxj ∧ dxi
¡ ¢
= −Γnij,k wn − Γnij wn,k − Γlik wl,j − Γlik Γnlj wn dxk ∧ dxj ∧ dxi
¡ ¢
= −Γnij,k − Γlik Γnlj wn dxk ∧ dxj ∧ dxi
n
= Rijk wn dxk ∧ dxj ∧ dxi = 0
de donde se sigue la relación
n n n
(5.2) Rijk + Rkij + Rjki = 0.
Una relación que es muy importante para entender la teorı́a general de la rela-
tividad, son las identidades de Bianchi. Estas identidades se obtienen en la siguiente
proposición.
Proposición 60 (Identidades de Bianchi). Sea M n variedad con conexión ∇
n
y tensor de curvatura Rijk . Entonces se sigue que
n n n
Rijk;l + Rikl:j + Rilj;k =0

Proof. Sea w = wl dxl una 1-forma en M n . Si usamos la fórmula del ejercicio


34 para el tensor wi;l , se obtiene
n n
wi;l;j;k − wi;l;k;j = Rijk wn;l + Rljk wi;n
Ahora aplicamos la derivada covariante al resultado de la proposición 59, se obtiene
n n
wi;j;k;l − wi;k;j;l = Rijk;l wn + Rijk wn;l
74 3. TENSORES Y P-FORMAS

Ahora usamos el mismo procedimiento anterior, sumamos ambos resultados ante-


riores cambiando los indices j, k, l circularmente. Se obtiene
n n
wi;l;j;k − wi;l;k;j = Rijk wn;l + Rljk wi;n
n n
wi;k;l;j − wi;k;j;l = Rilj wn;k + Rklj wi;n
n n
wi;j;k;l − wi;j;l;k = Rikl wn;j + Rjkl wi;n

n n
wi;j;k;l − wi;k;j;l = Rijk;l wn + Rijk wn;l
n n
wi;k;l;j − wi;l;k;j = Rikl;j wn + Rikl wn;j
n n
wi;l;j;k − wi;j;l;k = Rilj;k wn + Rilj wn;k
y restamos las 3 identidades de arriba menos los 3 identidades de abajo, se obtiene
¡ n n n
¢ ¡ n n n
¢
0 = Rljk + Rklj + Rjkl wi;n − Rijk;l + Rikl;j + Rilj;k wn
pero lo que esta entre el primer paréntesis es cero, por la relación (5.2) que enco-
tramos anteriormente, asi que se sigue lo que buscamos. ¤
Notación 23. A las relaciones anteriores se les llama las Identidades de
Bianchi.
Resumen 1. Vamos a resumir las identidades salidas del tensor de curvatura.
i i
1.− Rjkl = −Rjlk
n n n
2.− Rljk + Rklj + Rjkl =0
n n n
3.− Rijk;l + Rikl;j + Rilj;k Identidades de Bianchi
4.− Rmnjk = −Rnmjk Conexiones Compatibles con la métrica

En lo que sigue veremos algunos ejemplos de curvatura, por supuesto, si conoce-


mos la conexión, es sencillo calcular la curvartura usando su definición o la segunda
forma fundamental de Cartan. Pero nosotros vamos a utilizar solo conexiones que
son compatibles con la métrica. Asi que para calcular la conexión conociendo la
métrica, puede usarse la definición de los simbolos de Christoffel o la primera forma
fundamental de Cartan. Vamos a resumir todas estas definciones en este espacio.
Resumen 2. Sea M n variedad con métrica g = ηab dwa ⊗ dwb = gij dxi ⊗
dx , donde {w = wi dxi } es una base y {dxi } es una base coordenada del espacio
j

contangente T ∗ M n . Entonces, la conexión y la curvatura estan determinadas por


1.− dwa = Γab ∧ wb
2.− Θab = dΓab + Γac ∧ Γcb Para una base no coordenada
1
3.− Γijk = g il (glj,k + glk,j − gjk,l )
2
4.− Rjkl = Γijl,k − Γijk,l + Γink Γnjl − Γinl Γnjk Para una base coordenada
i

Exemplo 59. En este ejemplo vamos a utilizar la notación convencional dw ⊗


dw → dw2 . Vamos a buscar la métrica de la pelota S 2 . Como la pelota esta inmersa
en <3 , la forma mas simple de encotrar la métrica de la pelota es substituyendo la
5. EL TENSOR MÉTRICO Y EL TENSOR DE CURVATURA 75

ecuación de la pelota de radio a, x2 + y 2 + z 2 = a2 , en la métrica euclidiana de <3 ,


2 2 2 2
dl< 3 = dx + dy + dz . Si substituimos

(xdx + ydy)2
dz 2 =
a2 − (x2 + y 2 )
obtenemos
(xdx + ydy)2
dlS2 2 = dx2 + dy 2 +
a2 − (x2 + y 2 )
Ahora bien, podemos usar coordenadas polares x = R cos(θ), y = R sin(θ) en la
métrica, para obtener
a2 dR2
dlS2 2 = R2 dθ2 + 2
a − R2
Conviene escribir la métrica de la pelota en términos del cociente r = R/a, entonces
la métrica se ve como
· ¸
dr2
dlS2 2 = a2 + r 2
dθ 2
1 − r2
Para finalizar este ejemplo, vamos a escribir la métrica del espacio <3 en términos
de las coordenadas esféricas 4.1 (vamos a cambiar la r de la definición 4.1 por a,
para denotar el radio de la esfera), se obtiene
¡ ¢
2
dl< 2 2
3 = dx + dy + dz
2
= da2 + a2 dθ2 + sin2 (θ)dϕ2
la cual es la métrica euclidiana, pero ahora escrita en coordenadas esféricas. Si
limitamos esta métrica a la pelota, es decir, si hacemos a =constante, obtenemos
¡ ¢
dlS2 2 = a2 dθ2 + sin2 (θ)dϕ2 = a2 dΩ2
que es la métrica de la pelota pero en coordenadas esféricas. Hay que comparala con
la anterior forma que esta en coordenadas polares y con la métrica que se obtiene
si g = dw1 ⊗ dw1 + dw2 ⊗ dw2 , usando las formas de la pelota definidas en 4.2 en
el ejemplo 36. Esta comparación es la que justifica el uso de la notación de este
ejemplo.
Ahora vamos a calcular la conexión y la curvatura. Primero lo haremos usando
la base coordenada. Usando las formulas del resumen 2, se obtiene
· ¸
2 2 dr2 2 2
dlS 2 = a + r dθ
1 − r2
r 1
Γrrr = Γrθθ = −r(1 − r2 ) sin2 (θ), Γθθθ = cot(θ), Γθrθ =
1 − r2 r
1
θ
Rrrθ = − , Rθrθr
= r2 sin2 (θ)
1 − r2
y todas las demas componentes igual a cero. También podemos calcular estas can-
tidades de la métrica en coodenadas esféricas, se obtiene
¡ ¢
dlS2 2 = a2 dθ2 + sin2 (θ)dϕ2
Γϕ
θϕ = cot(θ), Γθϕϕ = − sin(θ) cos(θ)
ϕ
θ
Rϕθϕ = sin2 (θ), Rθθϕ = −1
76 3. TENSORES Y P-FORMAS

Ejercicio 35. Siguiendo el ejemplo anterior, demuestre que la métrica de S 3


en coordenadas esféricas esta dada por
· ¸
dr2 ¡ ¢
dlS2 3 = a2 2
+ r2 dθ2 + sin2 (θ)dϕ2
1−r

donde a es el radio de la esfera S 3 y r/a → r. Esta es la parte espacial de la


métrica de Friedman-Robertson-Waker. Calcule la conexión y el tensor de
curvatura de esta métrica.

Exemplo 60. Sea M 4 una variedad con métrica de signatura Lorenziana dada
por g = ηab wa ⊗ wb , ηab = diag(1, 1, 1, 1 − 1), donde la tetrada esta dada por

t t
w1 = √ dx, w2 = √ dy, x > 0
x x x x
r r r
3x 2 2
w3 = dz + 4
dt, w = dt
2 3x 3x

Lo primero que hay que notar, es que se debe cumplir la relación 5.1, es decir,
dηab = Γab + Γba = 0, entonces la conexión es antisimétrica en los indices ab.
Recordemos que Γab = ηad Γdb . Vamos a calcular la conexión utilizando las formulas
1 y 2 del resumen 2. Para esto encontremos primero la diferencial de la tetrada,
esta es

3
dw1 = x−3/2 dt ∧ dx, dw2 = − x−5/2 t dx ∧ dy + x−3/2 dt ∧ dy,
Ãr 2 !
r r
1 3 −1/2 2 −3/2 1 2 −3/2
dw3 = x dx ∧ dz − x dx ∧ dt 4
dw = − x dx ∧ dt
2 2 3 2 3

que en terminos de la tetrada, se obtiene

√ 3√ 1√
dw1 = 6x w4 ∧ w1 , dw2 = −
x w1 ∧ w2 + 6x w4 ∧ w2
2 t
1√ √ √
dw3 = x w1 ∧ w3 − 2 x w1 ∧ w4 , dw4 = − x w1 ∧ w4
2

De aqui podemos entonces leer las componentes de la conexión


√ √
Γ14 = − 6xw1 − x w4
3√ 2 1√
Γ21 = xw , Γ24 = − 6x w2 ,
2 t
1√ √ √
Γ31 = − x w3 + x w4 , Γ34 = − x w1 ,
2

donde hemos tomado en cuenta la antisimetria de la conexión, por ejemplo, agre-


gando términos convenientes a las componentes Γ14 y Γ41 . Ahora calculemos el tensor
5. EL TENSOR MÉTRICO Y EL TENSOR DE CURVATURA 77

de curvatura, obtenemos,
1
Θ14 = − x w1 ∧ w4
2 õ !
¶ √
3 6 6
Θ21 = x w2 ∧ − + w1 + w4
4 t t
Ãr µ ¶ µ ¶ !
3 1 2 1
Θ24 = xw ∧2 1
−3 w −3 2 + w 4
2 t t 2
1 ¡ ¢
Θ31 = − x w1 ∧ w3 − 2 w4
4Ã !
r
3 1 √ 1 3
Θ34 = x − 3 1
w ∧w + 6 w ∧w + w ∧w 4 4
2 2

de donde se pueden leer las componentes de la curvatura en esta base.


Para terminar este capitulo, vamos a introducir tres tensores mas, estos son
la contracción del tensor de curvatura, la traza de este tensor y una combinación
muy adecuada de estos dos. Vamos a iniciar con las contracciones del tensor de
curvatura.
Definición 78. Sea M n variedad y sea {ea } una base del espacio tangente con
dual {eb }. Sea ∇ conexión en M n y tensor de curvatura R = Rbcd
a
ea ⊗ eb ⊗ ec ⊗ ed .
Entonces el tensor de Ricci es es la contracción del tensor de curvatura, tal que
b = C 1 R = Ra eb ⊗ ed = Rbd eb ⊗ ed
R 2 bad

Análogamente, la traza del tensor de Ricci se llama escalar de Ricci, es decir


b = Rd
R = C11 R d

donde Rdc = η cb Rbd


La importancia de estas dos nuevas cantidades radica en el siguiente proposición
Proposición 61. Sea M n variedad y sea {ea } una base del espacio tangente
con dual {eb }. Sea g = ηab wa ⊗ wb una métrica en M n compatible con la conexión.
Sea ∇ conexión en M n y tensor de curvatura R = Rbcd a
ea ⊗ eb ⊗ ec ⊗ ed . Entonces
se sigue que µ ¶
ab ab 1 ab
G |b = R − g R =0
2 |b

Proof. Vamos a demostrar la proposición en el sistema coordenado, la demostración


en general es exactamente igual. Ecribamos las identidades Bianchi en compo-
nentes, contrayendo los indices adecuados para obtener el tensor de Ricci, esto es
n n n
0 = Rink;l + Rikl;n + Riln;k = Rik;l + g nm Rmikl;n − Ril;k = Rk;l
i
− g nm Rmkl;n
i i
− Rl;k
Y volvamos a contraer los indices
k
Rk;l − g nm Rmkl;n
k k
− Rl;k = R;l − g nm Rml;n − Rl;k
k
= R;l − 2g nm Rml;n = 0
Si multiplicamos por 1/2 y la inversa de las componentes de la métrica en esta
última expresión, llegamos al resultado deseado. ¤
78 3. TENSORES Y P-FORMAS

Este resultado es de suma importancia en fı́sica, ya que es la ralación funda-


mental para definir las ecuaciones de Einstein.
Notación 24. Al tensor Gab ea ⊗ eb cuyas componentes estan definidas por
1
Gab = Rab − gab R
2
se le llama tensor de Einstein.
El hecho de que la contracción del tensor de Einstein con la derivada covariate
sea cero, hacen a este tensor el candidato idonea para ser la parte geométrica de
las ecuaciones fundamentales de la gravitación. Vamos a ver un ejemplo.
Exemplo 61. Vamos a calcular el tensor de Ricci de la pelota S 2 en coorde-
nadas esféricas. Primero hay que usar las propiedades del tensor de curvatura del
resumen 1 para encontrar todas las componentes no cero del tensor. Lo primero
que hay que notar es que la única componente no cero es Rθϕθϕ = a2 sin2 (θ), y con
ellos calcular
θ ϕ θ ϕ
Rθθ = Rθθθ + Rθϕθ = 1, Rθϕ = Rθθϕ + Rθϕϕ = 0,
ϕ
Rϕθ θ
= Rϕθθ + Rϕϕθ = 0, θ
Rϕϕ = Rϕθϕ ϕ
+ Rϕϕϕ = sin2 (θ),
Entonces podemos calcular el escalar de Ricci, haciendo R = Rθθ + Rϕ ϕ
= 2/a2 y
con él finalmente calcular el tensor de Einstein. El resultado es que G = 0.
Ejercicio 36. Calcule el tensor de Ricci, el escalar de Ricci y el tensor de
Einstein para la métrica de la pelota S 2 en coordenadas polares.
Ejercicio 37. Calcule el tensor de Ricci, el escalar de Ricci y el tensor de
Einstein para la métrica de la pelota S 3 en coordenadas esféricas.
Ejercicio 38. Calcule el tensor de Ricci, el escalar de Ricci y el tensor de
Einstein para la métrica del ejemplo 60
CHAPTER 4

HACES FIBRADOS

1. Haces
Los haces fibrados son unos de las estructruras matemáticas mas fascinantes
que hay. Son la generalización del producto cartesiano entre espacios topológicos.
Ya sabemos que el producto cartesino de dos espacios topológicos es un espacio
topológico. Los haces son productos cartesianos de espacios topologicos localmente,
aunque no necesariamente el espacio resultante, el haz, es un porducto cartesiano.
El ejemplo mas simple es la cinta de Möbius. Localmente se puede ver como
producto cartesiano de la recta con el cı́rculo, pero globalmente, es decir, toda la
cinta no es un producto cartesiano. Vamos a iniciar este capitulo con la definición
de haz, luego vamos a introducir el concepto de haz fibrado.
Definición 79. Un haz es una terna ξ = (E, B, π) donde E y B son espacios
topológicos y π : E → B es una función contı́nua y sobre. Se llama:
· A E espacio total,
· A B espacio base y
· A π la proyección.
La representación gráfica de los haces es como sigue
E
π ↓
B
Notación 25. Si b ∈ B, Fb (ζ) = π −1 ({b}) se le llama la fibra sobre b.
Comentario 16. Observe que si b = 6 b0 , entonces Fb ∩ Fb0 = φ, por eso E =
∪ Fb (ξ), el espacio total es la unión de las fibras disjuntas de B. (Fb , τFb ), con
b∈B
τFb = {Fb ∩ U }U ∈τE es un subespacio topológico de (E, τE ).
Entre los haces existe también el concepto de isomorfismo, se puede clasificar
a los haces usando los isomorfismos entre haces, dos de estos son el mismo, si son
isomórficos.
Definición 80. Dos haces ξ = (E, B, π) y ξ 0 = (E 0 , B, π 0 ) son isomórficos
f
ξ ≡ ξ 0 , si existe f : E → E 0 homeomorfismo, tal que π 0 ◦ f = π. Gráficamente se
tiene
f
E −→ E0
π& . π0
B
Definición 81. Un haz ξ = (E, B, π) se llama trivial si existen F , espacio
ϕ
topológico y ϕ : E → B × F homeomorfismo y se cumple que ξ ' (B × F, B, π1 ).
79
80 4. HACES FIBRADOS

Gráficamente, un haz es trivial si se ve como


ϕ
E −→ B × F
π& . B1
B
Definición 82. Una sección s del haz ξ = (E, B, π) es una función continua
s : B → E tal que π ◦ s = id|B , es decir s(b) ∈ Fb tal que b ∈ B. Esto es
E
s» ↓ π
B
Los haces triviales tienen la caracteristica especial de tener una sección, es
decir, se puede definir una función que vaya de la base del haz a todo el haz, a un
punto de cada fibra del haz. Esto se ve en la siguiente proposición
Proposición 62. Todo haz trivial tiene al menos una sección.
Proof. Sea ζ = (E, B, π) un haz trivial, ϕ : E → B × F un homeomorfismo
y ψ : B → F una función continua arbitraria. Entonces s = B → E, b → s(b) :=
ϕ−1 (b, ψ(b)) es continua, pues ϕ−1 y ψ lo son, y π ◦ s(b) = π ◦ ϕ−1 (b, ψ(b)) =
π1 (b, ψ(b)) = b. Gráficamente
ϕ
E −→ B × F
s-π& . π1
B
¤
Definición 83. Un haz fibrado es un haz ζ = (E, B, π)¡ que es localmente triv- ¢
ial, esto es, para toda cubierta {Uα }α∈J de B y cada sub-haz π −1 (Uα ) , Uα , π|π−1 (Uα ) =
α, existe F tal que el haz (Uα × F, Uα , π1 ) := αF es isomórfico a α, es decir existe
ϕα : π −1 (Uα ) → Uα × F homemorfismo y π1 ◦ ϕα = π|π−1 (Uα ) . Su gráfica serı́a
ϕα
π −1 (Uα ) −→ Uα × F
π|π−1 (Uα ) & . π1

Notación 26. A (Uα , ϕα ) se le llama sistema de coordenada local del
haz. A F la fibra del haz. A ϕα se le llama la trivialización local.
Comentario 17. Observe que un haz fibrado tiene siempre una sección local,
es decir, para cada Uα con α ∈ J el haz α tiene una función sα . sα : Uα → π −1 (Uα )
con π ◦ sα = Id|Uα , sin embargo, si el haz no es globalmente trivial, no existira una
sección del haz (total).
Sea ξ = (E, B, π, F, U ) haz fibrado con U = {Uα }α∈J una cubierta de B. Sean
Uα ∩ Uβ 6= φ α, β ∈ J, (Uα , ϕα ) y (Uβ , ϕβ ) dos sistemas de coordinadas locales
en ξ y F la fibra del haz. Como ξ es un haz fibrado, es localmente trivial y por
tanto posee una sección en cada Uα ⊂ B. Sea sα y sβ secciones locales para
−1
cada (Uα , ϕα ) y (Uβ , ϕβ ), tales que sα (b) = ϕ−1
α (b, ψα (b)) y sβ (b) = ϕβ (b, ψβ (b)).
Las funciones de transición del haz son funciones gαβ : Uα ∩ Uβ → Aut(F ),
b → gαβ (b) : F → F, f → gαβ (b)(f ) tales que la composición de homeomorfismos
ϕβ ◦ϕ−1 −1
α = (Uα ∩ Uβ )×F → (Uα × Uβ ) ×F, (b, f ) → ϕβ ◦ϕα (b, f ) = (b, gαβ (b)(f )),
2. ESPACIOS G 81

es decir gαβ queda definida por ϕβ ◦ ϕ−1


α = Id|Ua ∩Uβ ×gαβ . Observe que para
cada F , ({gαβ (b)} ,◦) ⊂ Aut(F ) y por tanto es un grupo llamado el grupo de
subgr.
estructura del haz. La identidad está dada por gαα (b) y la inversa por gαβ (b) =
−1
(gβα (b)) .

2. Espacios G
Los espacios topolgicos pueden tener a su vez, otras estructuras ya sea alge-
braicas o analiticas. En el capitulo anterior vimos espacios topológicos dotados
de métrica, norma y producto interno. Vamos a introducir aqui una estructura
algebraica extra dentro de un espacio toplógico, dotando al conjunto que forma
el espacio topológico con una estructura de grupo. A estos espacios se les llama
grupos topolǵicos. Su definición es la siguiente.
Definición 84. Un grupo topológico es una terna (G, ·, τg ) en donde (G, ·)
es un grupo y (G, τG ) es un espacio topológico, y se cumple que las funciones
a) ·: G × G → G, (a, b) → a · b
b) inv. : G → G, a → inv(a) = a−1
son continuas.
Hay una manera sencilla de saber si la estructura de grupo de un conjunto es
compatible con la topologia. Vamos a presentar aqui la proposición sin demostración
que nos da este criterio. Esta es:
Proposición 63. La terna (G, ·, τG ) con (G, ·) grupo y (G, τG ) espacio topológico,
es un grupo topológico ssı́ para
© toda a, b ∈ G y para ª toda Uab−1 ∈ τG existe Ua y
Ub ∈ τG tal que Ua (Ub )−1 = a · b−1 |a ∈ Ua , b ∈ Ub ⊂ Uab−1 .
Proof. Sin Dem. ¤
En lo que sigue vamos a introducir dos funciones que son de mucha utilidad
para mas adelante, pero que ahora nos ayudaran a introducir los espacios G. Estas
son las funciones de traslación. Su definición es para cualquier grupo topológico,
pero seran de gran utilidad cuando estudiemos grupos de Lie. La caracteristica mas
importante de estas fuciones es que son automorfimos del grupo topológico. Vamos
a ver esto en la siguiente proposicón.
Proposición 64. Sea (G, ·, τG ) grupo topológico y g ∈ G. Las funciones Lg :
G → G, x → Lg(x) := gx y Rg : G → G, x → Rg(x) = xg llamadas traslación
izquierda y traslación derecha por g respectivamente, son automorfismos de G.
Proof. Lg y Rg son continuas porque el producto y la inversa son continuas.
Además tienen inversa continua, ya que (Lg)−1 = Lg −1 y (Rg)−1 = Rg −1 , ie.
Lg ◦ Lg −1 (x) = Lg(g −1 x) = gg −1 x = x e igual para Rg. ¤
Habiendo definido las traslaciones en un grupo topologico, ahora podemos in-
troducir los espacios G. Los espacios G son estructuras en un espacio topológico, de
una manera sencilla, es la axión de un grupo topológico sobre un espacio topológico.
Veamos esto formalmente.
Definición 85. Un espacio G derecho es una terna (E, G, ψ), donde E es
un espacio topológico, G es un grupo topológico y ψ : E × G → E (x, g) −→ ψ(x, g)
es una función continua tal que
82 4. HACES FIBRADOS

1) ψ(x, e) = x
2) ψ (x, g1 · g2 ) = ψ (ψ(x, g1 ), g2 )
Notación 27. Es común denotar a ψ (x, g) como xg solamente.
Definición 86. Análogamente, se define un espacio G izquierdo con ϕ :
G × E → E continua tal que:
1) ϕ(e, x) = x
2) ϕ (g1 · g2 , x) = ϕ (g1 , ϕ (g2 , x))
de la misma forma, suele denotarse a ϕ(g, x) por gx. Estas funciones son
análogas a las definidas cuando vimos los grupos uniparemétricos de trasforma-
ciones, en el capitulo anterior. De la misma forma a los grupos uniparametricos, la
función ψ induce la función ψg : E → E, x → ψg (x) = ψg (x, g) que cumple con:
i) ψe (x) = x
ii) ψg1 g2 (x) = ψg1 ◦ ψg2 (x)
Se dice entonces que G actúa por la derecha sobre E ó análogamente que
actúa por la izquierda de E.
A las acciones derecha e izquierda se les puede clasificar. Una clasificación esta
dada como sigue.
Definición 87. Sea (G, E, ψ) un espacio G derecho. La acción derecha de
G sobre E se dice :
· Efectiva si ψ (x, g) = x para toda x ∈ E implica g = e
· Libre si ψ (x, g) = x para algún x ∈ E implica g = e
· Transitiva si para todo x, y ∈ E existe algún y ∈ E tal que y = Ψ (x, g)
(Análogamente se hace la misma clasificación para la acción por la izquierda)
La acción de grupos sobre espacios topológicos tiene algunas propiedades. Va-
mos a discutir algunas de las más importantes.
Proposición 65. Si la acción de G sobre E es libre entonces es efectiva.
Proof. Supongamos que la acción no es efectiva, esto implica que existe algún
g0 ∈ G, g0 6= e tal que ψ (x, g0 ) = x para toda x ∈ E y por lo tanto la acción no es
libre. ¤

Proposición 66. Si la acción de G sobre E es libre y transitiva, entonces para


toda x, y ∈ E, existe un único g ∈ G tal que ψ (x, g) = y,
Proof. Sean x, y ∈ E y g ∈ G tal que ψ (x, g) =¡y ya que¢ψ es transitiva.
¡ Sea¢
g 0 ∈ ¡G tal que también
¢ ϕ¡(x, g 0
) =¢y. Entonces x = ψ x, g g −1
= ψ ψ (x, g) , g −1

= ψ ψ (x, g 0 ) , g −1 = ψ x, g 0 g −1 , esto implica que g −1 = e, o sea g 0 = g. ¤

Los isomorfismos en los espacios G son análogamente definidos en terminos de


sus estructuras separadas. Vamos a ver su definición formal.
Definición 88. Dos espacios G derechos γ = (E, G, ψ) y γ 0 = (E 0 , G, ψ 0 ) se
dicen isomórficos si existe h : E → E 0 homeomorfismo tal que ψ 0 ◦ (h × idG )
¡ ¢ h h×id|G
= h ◦ ψ h ◦ ψg = ψg0 ◦ h . Se denota γ ∼
= γ 0 ó γ ∼= γ0
Esta definición se puede poner en terminos del diagrama
3. HACES FIBRADOS PRINCIPALES 83

ψ
E×G −→ E
h × id|G ↓ ↓h
ψ0
E0 × G −→ E0
Es decir, el diagrama anterior conmuta.

3. Haces Fibrados Principales


La sección anterior tiene por objetivo introducir los haces fibrados principales.
Estos son haces en donde la fibra y el grupo que actua en él son el mismo grupo.
Su importancia radica en que estos haces son un excelente modelo para espacios
tiempo multidimensionales. De tal forma que si el espacio tiempo 4 dimensional
es la base del haz, el grupo puede ser parte del grupo de alguna teorı́a de norma,
en donde actua el grupo. La descomposición del haz da una teorı́a natural para
la unificación de teorı́as de norma y el espacio tiempo. Vamos a iniciar con la
definición de haces fibrados principales.
Definición 89. Un haz fibrado principal es un sexteto (P, B, π, G; U, ψ)
donde (P, B, π, G; U ) es un haz fibrado y (P, G, ψ) es un espacio G derecho tal que
se cumplen los isomorfismos de G espacios
¡ ¢ (ϕα ,ϕα × id |G )
π −1 (Uα ) , G, ψ ∼
= (Uα × G, G, δ)
donde δ : (Uα × G) × G → Uα × G, ((x, g) , g 0 ) → δ ((x, g) , g 0 ) := (x, g g 0 ). El
diagrama
π −1 (Uα ) × G ψ π −1 (Uα )
−−−−−−→
ϕα × id |G ↓ ↓ ϕα
(Uα × G) × G −−−−s−−−→ Uα × G
conmuta.
Entonces un haz fibrado principal, es un haz fibrado, es decir, un haz localmente
trivial, en el que el grupo G es lo mismo que la fibra y es lo mismo que el grupo
de estructura. Se representa como en la figura 1. De la definición de δ, es claro
entonces que G actúa libre y transitivamente sobre el haz.
Proposición 67. Un haz fibrado principal es trivial si tiene una sección (global).
Proof. ⇒) Un haz fibrado trivial tiene una sección.
⇐) Sea s : B → P en el haz ζ = (P, B, π, G; U ; ψ) y construyamos un homeo-
morfismo
ϕ : P → B × G, x → ϕ(x) = (b, g) con π (x) = b y x = ψ (s (b) , g) = s(b)g,
es decir ϕ(s(b)g) = (b, g). (Esto es siempre posible, ya que G actúa libre y
transı́tivamente en P ). Claramente ϕ es sobre. ϕ es inyectiva, ya que

x 6= x0 ⇒ ϕ (x = s (b) g) =
µ ½ ¶ ½
0 s(b0 )g, x0 ∈
/ Fb (b0 , g)
= (b, g) =
6 ϕ x = =
s(b)g 0 x0 ∈ Fb (b, g 0 )
Además ϕ es continua, pues s lo es. Entonces ϕ es un homeomorfismo. ¤
84 4. HACES FIBRADOS

Figure 1. Un haz fibrado principal, es un haz fibrado, es decir,


un haz localmente trivial, en el que el grupo G es lo mismo que la
fibra y es lo mismo que el grupo de estructura. Estos haces son
muy importantes en fı́sica.

Exemplo 62. El ejemplo mas simple es el producto cartesiano. Sea P = B×G,


donde B es una variedad y G un grupo. La proyección es simplemente π −1 (p) = b,
con π (b) = Fb ∼
= G. Supongamos que B = <4 y G = U (1).
+
Recordemos © que el grupo U (N ) = {U matriz
ª compleja N × N | U U = 1} por
lo que U (1) = U número complejo | U U = 1 . Podemos representar los elemen-
tos de U (1) por g1 = eiϕ1 , 0³≤ ϕ1´< 2π. ³La acción
´ de U (1) sobre <4 la definimos
como ψ : <4 × U (1) → <4 , → x,g → ψ −
− x,g = −
→ x · eiϕ , la cual cumple con las

iϕ1
propiedades
³ (note
´ que g1 · g2 = e ·eiϕ2 = ei(ϕ1 +ϕ2 ) ).
1.- ψ − x,e = − x · e0 = − x
³→³ →
´ ´ →³ ´ ³ ´
iϕ1 iϕ1 iϕ2
2.- ψ ψ − x
→ 1, g , g2 = ψ −
→x · e , g 2 = −
→x · e · e =ψ x , g
→ 1 2
− g
n³ ´ o
4
Los elementos de B × G = −
→x , g |− →x ∈ < , g ∈ U (1) . La fibra en un punto
n o iso © ª
x 0 fijo será F x 0 = −

− →x 0 · eiϕ ∼ = eiϕ ≡ U (1).


π
Exemplo 63. Tomemos el haz P −→ S 1 con fibra F = [−1, 1]. Tomemos
las cubiertas para el cı́rculo S 1 , U1 = (0, 2π) y U2 = (−π, π) y sean A = (0, π) y
B = (π, 2π) en las intersecciones de éstas, A, B ⊂ U1 ∩ U2 . Cada una de estas
intersecciones son difeomórficas a S 1 . Tomemos las trivializaciones en A tal que
ϕ1 (u) = (θ, t) y ϕ2 (u) = (θ, t). La función de transición para θ ∈ A está dada por
g12 (θ) : F → F , t → g12 (θ) (t) = t. En B podemos escoger las trivalizaciones de
dos formas
I. ϕ1 (u) = (θ, t) ϕ2 (u) = (θ, t) θ∈B
II. ϕ1 (u) = (θ, t) ϕ2 (u) = (θ, −t) θ∈B
Para el caso I, la función de transición es de nuevo la identidad en F , pero
para el caso II la función de transición es g12 (θ) (t) = −t , θ ∈ B. El grupo de
estructura en el primer caso consta solo de un elemento G1 = {e}, mientras que el
3. HACES FIBRADOS PRINCIPALES 85

segundo tiene 2 elementos G2 = {e, g}, e : F → F, e(b) = t y g : F → F , g(t) = −t.


iso iso
Observe que g 2 = e, por lo que G2 ∼ = {1, −1} = Z2 ∼ = S 0 . Si en II reemplazamos
el intervalo F = [−1, 1] por solo los dos puntos F = {−1, 1}, entonces tenemos un
haz fibrado principal, con fibra Z2 = {1, −1} = S 0 , el cual es un haz de cı́rculos. El
haz I es un cilindro, mientras que el haz II es la banda de Möbius. Gráficamente
serı́a
S0
|
P
π ↓
S1
ver figura 2.

Figure 2. El cilindro y la cinta de Möbius son haces fibrados


principales si sólo se toma a los elementos 1,-1 de la fibra. El
cilindro es un haz fibrado trivial mientras que la cinta de Möbius
no es trivial. El grupo de estructura y a la vez la fibra son el grupo
Z2 .

Exemplo 64. Otro ejemplo interesante es el haz de Hopf, el cual también es


un haz de esferas. Gráficamente es el haz
S1
|
S3
π ↓
S2
donde
n ³ ´o
4 12 22 32 42
S3 = −x
→ ∈ < |x + x + x + x = 1 con −
→x = (x 1
, x 2
, x3
, x 4

½ ¯ o
¯ →
S 2 = y ∈ <3 ¯¯ x2 + y 2 + z 2 = 1 y = (x, y, z)

86 4. HACES FIBRADOS

0
Las esferas pueden ser parametrizados n¯utilizando numeros
o complejos como z =
¯ 2 ¯ ¯ 2
x1 + ix2 , z 1 = x3 + ix4 , ası́ que S 3 = ¯z 0 ¯ + ¯z 1 ¯ = 1 . La proyección π : S 3 →
³ ¡ ¢ ¡ ¢ 2 2 2 2
´
S 2 , π(x1 , x2 , x3 , x4 ) = 2 x1 x3 + x2 x4 , 2 x2 x3 − x1 x4 , x1 + x2 − x3 − x4
2 2 2 2
= (x, y, z) es una proyección. Note que x2 + y 2 + z 2 = x1 + x2 + x3 + x4 = 1.
Usando la notación del ejemplo 30 tenemos que si hacemos
x + iy x1 + ix2 z0
Z = u + iv = = 3 4
= 1 y y = (x, y, z) ∈ S 2 \ {N } = UN
1−z x + ix z −

x + iy x3 + ix4 z1
W = u + iv = = 1 = 0 y ∈ S 2 \ {S} = US
1+z x + ix2 z →

y entonces Z = 1/W en US ∩ UN . Las trivializaciones locales las definimos como

φN : π −1 (US ) → Us × U (1)
µ ¶
¡ ¢ z0 z1
(z 0 , z 1 ) → φS z 0 , z 1 = ,
z 1 |z 1 |
φS : π −1 (UN ) → UN × U (1)
µ ¶
¡ 0 1¢ ¡ ¢ z1 z0
z , z → φN z 0 , z 1 = ,
z 0 |z 0 |
¯ 0¯ ¯ 1¯
En el ecuador se tiene que z = 0 y entonces ¯z ¯ = ¯z ¯ = √12 . Ahı́ se tiene que
las trivializaciones están dadas por
µ 0 ¶ µ 1 ¶
¡ ¢ z √ 1 ¡ 0 1¢ z √ 0
φN z 0 , z 1 = , 2z , φS z , z = , 2z ,
z1 z0
³ ´ 0
entonces la función de transición en el ecuador estará dada por gN S − x = zz1 =

x+iy ∈ U (1). En la región UN ∩US todos los puntos son equivalentes al ecuador, ası́
que U (1) será el grupo de estructura, por lo que tenemos un haz fibrado principal.
Fı́sicamente, este haz describe un monopolo de carga 1. Otros ejemplos de haces
π π
de Hopf son S 3 → S 7 → S 4 y S 7 → S 15 → S 8 , aunque en este último S 7 no es
3 ∼ π
un grupo como S = SU (2). El haz S → S 7 → S 4 puede ser interpretado como el
3

haz de un instantón de carga 1.

4. Haces Vectoriales
Al igual que los haces principales, los haces vectoriales son utilizados para
describir estructuras fı́sicas. Con los haces vectoriles se pueden representar los
sistemas de coordenadas de una variedad, los vectores del espacio tangente, etc. Es
por eso de su importancia. Su definición formal es como sigue.
Definición 90. Un haz vectorial de dimensión n es un haz fibrado donde
cada fibra es un espacio vectorial de dimension n. Las funciones de transición
forman el grupo GL(n, <). Ver figura 3.
Para enteder la definición, vamos a ver algunos ejemplos sencillos.
Exemplo 65. El cilindro S 1 × < es un haz vectorial trivial mientras que la
cinta de Möbius es un haz vectorial no trivial, con fibra <.
4. HACES VECTORIALES 87

Figure 3. La representación gráfica de un haz vectorial.

Exemplo 66. Una variedad con su espacio tangente en cada punto forma un
haz vectorial llamado el haz tangente. Sea u ∈ T M = ∪ {p} × Tp M n un punto
p∈M
en la intersección Ui ∩ Uj tal que π (u) = p ∈ Ui ∩ Uj , donde {Ui } y {Uj } son
cubiertas abiertas de M n , varidad. Sean ϕi : Ui → <n y ϕj : Uj → ¡ <n los homeo-
¢
morfismos de la variedad, tal que ϕi (u) = (x1 , · · · , xn ) y ϕj (u) = y 1 , · · · , y n , son
sistemas de coordenadas en cada abierto. Un vector v sobre el espacio tangente Tp M
se puede escribir vp = vpµ = vepµ ∂y∂µ |p . Las trivializaciones locales estarán dadas por
¡ ¡ ¢¢
φi : π −1 (Ui )| → Ui × <n , u → φi (u) = p, vp1 , · · · , vpn , φj : π −1 (Uj )| → Uj × <n ,
¡ ¡ −1 ¢¢
u → φj (u) = p, vp , · · · , vpn , π (u) = p, donde hemos utilizado el isomorfismo
¡ ¢ ¡ ¢
natural iso : T M → <n , v µ ∂x∂ µ |p → iso v µ ∂x∂ µ |p = vp1 , · · · , vpN .

Comentario 18. Se puede dotar al haz tangente de una estructura diferencia-


ble.

Las funciones v µ y veµ están relacionadas entre si por vpµ = Gµpv vep,
v
dode Gµpv ∈
GL (n, <) es una transformación lineal de espacios vectoriales. Una construcción
totalmente análoga se pude hacer con el espacio cotangente, llamada el haz cotan-
gente
³ . En ambas,
´ las secciones serán campos vectoriales v : Ui → T M , p → v(p)
µ ϕ
= p, v ϕx µ|p o campos de 1-formas w : Ui → T ∗ M , p → w (p) := (p, wµ dxµ |p )

Exemplo 67. Del ejemplo 29 podemos construir el haz vectorial T S 2 . Tenemos


(x, y)
σN (x, y, z) = = (uN , vN )
1−z
88 4. HACES FIBRADOS

y llamemos
(x, y)
σS (x, y, z) = = (uS , vS ) .
1+z
Ellos están relacionados por
u− v−
uN = , vN = 2 .
u2S + vS2 uS + vS2
Si escribimos uS = r cos (θ) y vS = r sin (θ), tenemos que uN = cos (θ) /r, y
vN = sin (θ) /r, entonces las trivializaciones estaran dadas por
µ ¶
∂ ∂ ¡ ¢
φN p, v 1 + u2 |p = p, vp1 , vp2 ,
∂uN ∂vN
µ ¶
∂ ∂ ¡ ¢
φS p, ve1 +ue2 |p = p, vep1 , vep2
∂uS ∂vS
con la función de transición
µ ¶
∂ (uN , vN ) 1 − cos (2θ) − sin (2θ)
gSN = = 2
∂ (uS , vS ) r sin (2θ) − cos (2θ)
Para terminar este capitulo, vamos a ver como podemos asociar a cada vector
del haz vectorial un vector de <n , de esta manera podemos trabajar con la fibra
del haz, que de hecho son vectores. Veamos esto.
Definición 91. Sea ζ = (A, B, πB , F, {Uα }) haz fibrado y η = (P, B, π, G; {Uα } , ψ)
un haz principal, ambos con la misma base y grupo de estructura. Se dice que ξ es
un haz asociado a η, si las cubiertas {Uα } de ξ y η trivializan tanto A como a P
con las mismas funciones de estructura.
Un ejemplo sencillo de la definición anterior es el siguiente.

Exemplo 68. Si en el haz tangente asociamos a cada vector base ∂xµ =
µ
(0, · · · , 1, · · · , 0), lo que obtenemos es un marco de referencia para cada punto.
Este haz es llamado el haz de marcos y es un haz asociado al haz tangente o
cotangente.
CHAPTER 5

GRUPOS DE LIE

Desde el descubrimiento de las teorı́as de norma, los grupo de Lie han tomado
una relevancia en todas las areas de la fı́sica y la ingenierı́a. Ya anteriormente
se sabia que las simetrias de los problemas conducia a la existencia de grupos
actuando en espacios asociados al problema. Esta asociación esta presente también
en las teorı́as de norma, en donde un grupo de simetrı́a esta actuando sobre un
espacio asociado al problema fı́sico, en este caso esta actuando en el espacio de
isoespin. Los grupos de Lie son variedades suaves con estructura de grupo, en
analogia a los grupos topológicos. En este campitulo también vamos a introducir
algunos conceptos que vamos a necesitar para la comprención de los grupos de Lie,
como es el concepto de campos invariates por la izquierda.

1. Campos Invariantes por la Izquierda


La definición de grupos de Lie es como sigue.
Definición 92. Un grupo de Lie es una terna (G, ·, A)donde (G, ·) es un grupo,
(G, A) es una variedad y las funciones.
1) · : G × G → G, (g1 , g2 ) → g1 · g2
2) inv : G → G, g → g −1
son suaves.
En general es suficiente con checar que µ : G × G → G, (g1 , g2 ) → µ (g1 , g2 ) =
i
g1 · g2−1 es suave. Un subgrupo de Lie H de G es un grupo en el que H ,→ G es
un encaje, o sea si i y di son inyectivas.
Proposición 68. Las traslaciones derecha e izquierda son difeomorfismos.
Proof. Sea (G, ·, A) grupo de Lie y Lg : G → G , g 0 → Lg (g 0 ) = gg 0 y
Rg : G → G, g 0 → Rg (g 0 ) = g 0 g. Claramente Lg y Rg son suaves con inversas
Lg = Lg y Rg−1 = Rg−1 suaves. ¤
Para ahorrar espacio, en lo que sigue estudiaremos todas las proposiciones y
teoremas asi como sus demostraciones solo por la izquierda, las demostraciones
por la derecha son completamente análogas. Daremos un pequeño comentario sólo
cuando sea necesario, vamos a introducir el concepto de invariante por la izquierda.
Definición 93. Sea X ∈ T G en donde (G, ·, A) es grupo de Lie. Se dice que
X es invariante por la izquierda (por
³ la derecha) ó Lg -invariante (R´g -invariante)
si d Lg |g0 (Xg0 ) = Xg0 ◦ L∗g = Xgg0 d Rg |g0 (Xg0 ) = Xg0 ◦ Rg∗ = Xg0 g , para todos
g, g 0 ∈ G.
La primera consecuencia de esta definición, es que estos vectores quedan de-
terminados si escogemos un solo punto de ellos. En particular se escoge su valor
89
90 5. GRUPOS DE LIE

en la identidad, aunque cualquier punto sea igual bueno para esto. Formalmente
tenemos.
Proposición 69. Todo campo vectorial invariante por la izquierda o derecha
es determinado por su valor en la identidad.
Proof. Sea (G, ·, A) grupo de Lie y X ∈ T G invariante por la izquierda. Se
cumple d Lg |e (Xe ) = Xg . Análogamente para Rg . ¤
De la misma forma, si un vector se puede trasladar por la acción izquierda de
ese vector en la identidad, esto implica que el vector es invariante por la izquierda.
Veamos esto.
Proposición 70. Si X ∈ T G en un grupo de Lie y se cumple que Xg =
d Lg |e (Xe ) para todo g ∈ G, esto implica que X es invariante por la izquierda
(análogamente por la derecha).
Proof. Observemos que Lgg0 = Lg ◦ Lg0 , esto implica que dLgg0 = dLg ◦
dLg0 = d Lg |g0 o más especı́ficamente d Lg |g0 (Xg0 ) = d Lg |g0 ◦ d Lg0 |e (Xe ) =
d (Lg ◦ Lg0 )|e (Xe ) = d Lgg0 |e (Xe ) = Xgg0 , esto implica que X es invariante por
la izquierda (lo mismo por la derecha). ¤
De aquı́ en adelante solo consideraremos vectores invariantes por la izquierda o
por la derecha. El espacio tangente será un espacio exclisivamente de estos vectores.
iso
Esto implica que Tα G ∼ = Tg G para todo g ∈ G . De hecho se puede demostrar
que para todo grupo de Lie, el haz tangente es un haz trivial, ya que la fibra
está formada por vectores invariantes por la izquierda, los cuales están globalmente
definidos y estos forman secciones globales en el haz.
Un resultado interesante que vamos a usar en este capitulo para definir el
álgebra de Lie, es que los parentesis de Poisson estan ϕ relacionados si los vectores
lo estan. Esto es.
Proposición 71. Sean (X, Y ) y (X 0 , Y 0 ) ∈ T M m × T N n , M m , N n var-
iedades y ϕ ∈ C ∞ (M m , N n ) tal que X, Y y X 0 , Y 0 están ϕ relacionados. Entonces
([X, X 0 ] , [Y, Y 0 ]) están ϕ-relacionados.
Proof. Sea f ∈ C ∞ (N, <). Entonces
[Y, Y 0 ] (f ) ◦ ϕ = (Y (Y 0 (f )) − Y 0 (Y (f ))) ◦ ϕ
= Y (Y 0 (f )) ◦ ϕ − Y 0 (Y (f )) ◦ ϕ = ∗,
pero se cumple que ϕ∗ ◦ Y = X ◦ ϕ∗ , entonces
∗ = ϕ∗ (Y (Y 0 (f ))) − ϕ∗ (Y 0 (Y (f ))) = ϕ∗ ◦ Y (Y 0 (f )) − ϕ∗ ◦ Y 0 (Y (f )) =
= X ◦ ϕ∗ (Y 0 (f )) − X 0 ◦ ϕ∗ (Y (f )) = X (ϕ∗ ◦ Y 0 (F )) − X 0 (ϕ∗ ◦ Y 0 (f )) =
= X (X 0 ◦ ϕ∗ (f )) − X 0 (X ◦ ϕ∗ (f )) = [X, X 0 ] (f ) ◦ ϕ,
entonces [X, X 0 ] está ϕ relacionado con [Y, Y 0 ]. ¤
Es decir, si nos limitamos a los vectores del espacio tangente que son ϕ rela-
cionados por la acción izquierda, podemos tener una estructura de álgebra en el
espacio tangente del grupo de Lie. A esta álgebra se le conoce como el álgebra
de Lie del grupo de Lie. Es decir, en un grupo de Lie, el subespacio del espacio
tangente de los vectores asociados por la acción izquieda forman el álgebra de Lie
asociada al grupo. Veamos esto formalmente.
2. LA FUNCIÓN EXPONENCIAL 91

Corolario 4. Los campos invariatens por la izquierda forman una sub-álgebra


G de T G llamada Álgebra de Lie correspondiente al grupo de Lie G.
Esta subálgebra es isomórfica a T eG en cada punto g ∈ G. Se acostumbra
tomar el álgebra de Lie G respecto a G como el álgebra de vectores invariantes por
la izquierda en la identidad e ∈ G . Si dLg (X) = X y dLg (Y ) = Y , resulta que
dLg ([X, Y ]) = [X, Y ].

2. La Función Exponencial
En esta sección vamos a introducir la función exponencial. Esta función mapea
elementos del álgebra de Lia al grupo de Lie correspondiente. Sus propiedades nos
recuerdan a la función exponencial en <, por eso su nombre. Para poder definir
esta función, primero tenemos que introducir algunos conceptos y adaptar conceptos
conocidos a los grupos de Lie. Vamos a iniciar con la introducción de un grupo
uniparametrico de transformaciones en el grupo de Lie. Para esto vamos a ver
primero una proposición que utilizaremos aqui.
Proposición 72. Sea (M n , A) variedad diferenciable y F ∈ Dif (M n ). Sea
X ∈ T M n y ψ el grupo 1-paramétrico inducido por X. Entonces X es F-invariante
ssı́ ψt ◦ F = F ◦ ψt .
Proof. Xy = ψ̇y (0), (tomando ψy (0) = y) y dF |y (Xy ) = Xy ◦ Fy∗ , donde Xy
es el vector tangente al camino ψ̇y en y y dF |y (Xg ) es el vector tangente al camino
ψF (y) = F ◦ ψy en F (g). Se tiene que F ◦ ψy (t) = F ◦ ψt (y) = F ◦ ψt ◦ F −1 (F (y))
⇒) Si X es F-invariante
XF (y) = dF |y (Xg ) , esto es ψ̇F (y) (0) = XF (y)
por lo tanto ψF (y) (f ) = ψt (F (y)) = F ◦ ψt ◦ F −1 (F (y)) , i.e.
ψt = F ◦ ψt ◦ F −1

⇐) Si
ψt = F ◦ ψt ◦ F −1 esto implica que
ψF (t) (t) = ψt (F (y))
y esto implica que ψ̇F (y) (0) = XF (y) i.e. XF (y) = dF |y (Xg )
¤
Usando la proposición anterior podemos definir la función exponencial. Su
definición es como sigue.
Definición 94. Sea G grupo de Lie y X ∈ G el álgebra correspondiente a
G. Sea ψ el grupo uniparamétrico que induce a X y ψ1 ∈ {ψt }. La función
exponencial se define como exp : G → G, X → exp (X) := ψ1 (e) = ψe (1). Es
decir ψ : < × G → G, (t, g) → ψ (t, g); con
i) ψ (0, g) = g,
ii) ψ (t + s, g) = ψ (t, ψ (s, g)); X = ψ̇e y ψe (0) = e
La primera propiedad, la cual nos recuerda una de las propiedades de la expo-
nencial de los reales, es que la exponencial del vector 0, es la identidad en el grupo.
Veamos esto.
92 5. GRUPOS DE LIE

Proposición 73. exp (0) = e


Proof. ψ̇e = 0 implica que ψe (t) = cte ∈ G, pero ψe (0) = e, por lo tanto
ψe (t) = e. Entonces exp (0) = ψe (1) = e. ¤
El punto interesante ahora, es que con este valor se puede obtener el valor de
la exponencial a lo largo de un parametro. Se sigue la proposición:
Proposición 74. exp (tX) = ψt (e) = ψe (t)
d
¡ i ¢
Proof. Sea ψ̇e (t) = X, vamos a denotar ψe = ψX . Entonces dt x ◦ ψX =
X i ◦ ψX en las coordenadas locales de G. Probemos¡primero que¢ ψrX (t) ¡ i= ψX (rt),¢
d d
i.e. ψ̇rX (t) = (rX) = ψ̇X (rt) lo que implica que dt xi ◦ ψrX (t) = dt x ◦ ψX (rt) =
i
(rX) ◦ ψrX (t) = rX i ◦ ψX (rt). Hagamos t0 = rt, se obtiene
d ¡ ¢ d ¡ i ¢
r 0 xi ◦ ψrX (t) = r x ◦ ψX (t0 ) = rX i ◦ ψX (t0 )
dt dt
lo cual es correcto. Entonces exp (tX) = ψtX (1) = ψX (t). De esta última expresión
se tiene que
d d
exp (tX) = ψ̇X (t) = XψX (t) ó exp (tX)|t=0 = Xe
dt dt
y también
exp (tX + sX) = ψX (t + s) = ψX (t) · ψX (s) = exp (sX) exp (tX) .
¤
La propiedad anterior es la que mas nos recuerda las propiedades de la ex-
ponencial, y es la que usaremos al trabajar con esta función. Para finalizar esta
sección, vamos a mencionar, algunas sin demostración, algunas propiedades mas de
la función exponencial que serán utliles.
Proposición 75. Sea ψ el grupo uniparamétrico inducido por X ∈ G, álgebra
correspondiente a G, entonces ψt = Rexp(tX) .
Proof. ψt (g) = ψt (ge) = ψt ◦ Lg (e) = Lg ◦ ψt (e) = gψt (e) = g exp (tX) =
Rexp(tX) (g). ¤
Proposición 76. exp: G → G tiene las siguientes propiedades:
i) exp es función suave
ii) d exp|0 = id|G
iii) Si U0 ∈ τG , exp|U0 es inyectiva
Proof. Sin Dem. ¤

3. La representación Adjunta y la Forma de Maurer Cartan.


Esta sección la vamos a dedicar a una 1-forma que tiene gran importancia en
teorı́as de norma. Esta representación es el campo de norma para una teorı́a basada
en algún grupo de Lie, por eso su importancia. Aqui la vamos a introducir solo
desde el punto de vista matemático. Para iniciar vamos a dar algunas definiciones
que se van a utilizar mas adelante. Primero definamos la función Ag .
Definición 95. Sea g ∈ G grupo de Lie y Ag : G → G, g 0 → Ag (g 0 ) = gg 0 g −1
Lo interesante de Ag es que es un isomorfismo en el grupo de Lie.
3. LA REPRESENTACIÓN ADJUNTA Y LA FORMA DE MAURER CARTAN. 93

Proposición 77. Ag ∈ Dif (G) y es un homomorfismo de grupos, es decir es


un isomorfismo de grupos de Lie.
−1
Proof. (Ag ) = Ag−1 y ambas Ag y Ag−1 son suaves, por lo tanto Ag ∈
Dif (G). Ag (xy) = g(xy)g −1 = gxg −1 gyg −1 = Ag (x)Ag (y), por lo tanto Ag es un
homomorfismo. ¤
Comentario 19. Observe que Agg0 = Ag ◦ Ag0 para todos gg 0 ∈ G.
Para trabajar con los grupos, se utiliza el hecho que estos forman clases de
equivalencia, entonces lo mas sencillo es trabajar con algun representante de la clase.
A este representante lo llamamos asi, un representante del grupo. Formalmente su
definición es como sigue.
Definición 96. Sea V un espacio vectorial, G un grupo de Lie y G`(V ) el
conjunto de transformaciones lineales en V invertibles. Una representación de
G sobre V es un homomorfismo ϕ : G → G` (V ) del grupo G al grupo (G` (V ) , ◦).
Un representante singular es la representación adjunta del grupo, la cual se
define con la siguiente proposición.
Proposición 78. La función ϕ : G → G` (Te G), g → ϕ (g) := d Ag |e := Adg
es una representación de G sobre Te G, llamada la representación adjunta.
Proof. d Ag |g0 : Tg0 G → Tgg0 g−1 G es un isomorfismo de espacios vectoriales y
d Ag |e (ve ) = ve ◦A∗g es una transformación lineal d Ag |e : Te G → Te G, i.e. d Ag |e ∈
G` (T eG). Además ϕ (gg 0 ) = d Agg0 |e = d (Ag ◦ Ag0 )| |e = d Ag |e=A 0 (e) ◦ d Ag0 |e
g
por lo que ϕ es un homomorfismo de grupos. ¤
Por otro lado, vamos a definir lo que es invarianza por la izquierda o por la
derecha de una 1-forma sobre el grupo de Lie. Recordemos que sobre el grupo, los
vectores interesantes son los vectores invariantes por la izquierda o la derecha, este
concepto lo podemos transladar al espacio cotangente de la siguiente forma.
Definición 97. Sea wg ∈ Tg∗ G, G grupo de Lie. wg es invariante por la
¡ ¢
izquierda si para todos g, g 0 ∈ G, L∗g g0 (wg0 ) = wg−1 g0 o wg es invariante por
¡ ¢
la derecha si para todos g, g 0 ∈ G, Rg∗ g0 (wg0 ) = wg0 g−1 .
¡ ¢ ¡ ¢
Comentario 20. Note que L∗g g0 : Tg∗0 G → TL∗−1 (g0 ) G = Tg∗−1 g0 G y Rg∗ g0 :
g
Tg∗0 G → TR∗ −1 (g0 ) G = Tg∗0 g−1 G.
g

Al igual que los vectores invariantes por la izquierda o derecha, las 1-formas
invariantes quedan determinadas por su valor en un punto, donde normalmente se
escoge la identidad. Veamos esto.
Proposición 79. Si w ∈ T G es invariante por la izquierda o por la derecha,
entonces w está determinada por su valor en la identidad del grupo.
³ ´
Proof. Sea w ∈ T G invariante por la izquierda, entonces wg = L∗g−1 (we ),
e
lo mismo por la derecha. ¤
Ya estamos listos para introducir la forma canónica de Maurer-Cartan. Su
definición formal esta dada como sigue.
94 5. GRUPOS DE LIE

Definición 98. Sea G grupo de Lie y G su respectiva álgebra. La forma


canónica o de Maurer-Cartan sobre el grupo de Lie¯ G es la 1-forma wg ∈
Tg∗ G ⊗ G, con wg : Tg G → Te G, Xg → wg (Xg ) := dLg−1 ¯g (Xg ) .
La primera propiedad importante es que la forma de Maurer-Cartan esta de-
terminada por su valor en la identidad. Es decir:
Proposición 80. w es invariante por la izquierda.

Proof.
¡ ∗¢ ¡ ¢ ³ ´¡ ¢
Lg g0 (wg0 ) Xg−1 g0 = wg0 ◦ d Lg |g−1 g0 Xg−1 g0
¯ ³ ¡ ¢´ ³ ¯ ´¡ ¢
= d Lg0−1 ¯g0 d Lg |g−1 g0 Xg−1 g0 = d Lg0−1 ¯g0 ◦ d Lg |g−1 g0 Xg−1 g0
¡ ¢¯ ¡ ¢ ¯ ¡ ¢ ¡ ¢
d = Lg0−1 ◦ Lg ¯g−1 g0 Xg−1 g0 = d Lg0−1 ¯g−1 g0 Xg−1 g0 = wg−1 g0 Xg−1 g0
¡ ∗¢
lo que implica que Lg g0 (wg0 ) = wg−1 g0
¤
Si la forma de Maurer-Cartan es invariante por la izquierda, cuando se toma
la acción derecha de ella, el resultado es una fórmula utilizada mucho en teorı́a de
norma. Vamos a ver ésta en la proposición que sigue.
¡ ¢
Proposición 81. Rg∗ g0 (wg0 ) = Adg−1 ◦ wg0 g−1
Proof.
¡ ¢ ¡ ¢ ³ ´¡ ¢
Rg∗ (wg0 ) Xg0 g−1
g0
= wg0 ◦ d Rg |g0 g−1 Xg0 g−1 =
¯ ¡ ¢ ¡ ¢¯ ¡ ¢
d Lg0−1 ¯g0 ◦ d Rg |g0 g−1 Xg0 g−1 = d Lg0−1 ◦ Rg ¯g0 g−1 Xg0 g−1 =
¡ ¢¯ ³ ´¯ ¡ ¢
¯
d Lg0−1 ◦ Rg ¯g0 g−1 ◦ d L−1
gg 0−1 ◦ L gg 0−1 ¯ 0 −1 Xg0 g−1 =
g g
¡ ¢¯ ¯ ¡ ¢
¯
d Lg0−1 ◦ Rg ¯g0 g−1 ◦ d Lg0 g−1 ¯ ◦ wg0 g−1 Xg0 g−1
1
=
³ ´¯e ¡ ¢
−1 ¯
d Lg0 ◦ Rg ◦ Lg0 g−1 ¯ ◦ wg0 g−1 Xg0 g−1 =
¯e ¡ ¢ ¡ ¢
d Ag−1 ¯e ◦ wg0 g−1 Xg0 g−1 = Adg−1 ◦ wg0 g−1 Xg0 g−1
¤
Para trabajar en una variedad con estructura de grupo, en un grupo de Lie,
se procede como sigue. Sean {V1 , · · · , Vn } una base de Te G. Con esta base
podemos definir una base a traves de todo el espacio T G usando vectores invari-
antes
¡ por la izquierda.
¢ Sea {Xµ1 , · · · ∗, Xn } base de T G, tal queµdLg (Vµ ) = Xµ (g)
µ
d Lg |e (Vµ ) = Xµ ge y sean θ ∈ T G sus duales, es decir, hθ , Xν i = δν . Como
[Xµ , Xν ] es también invariante por la izquierda, se cumple que [Xµ , Xν ] = cλµν Xλ
donde las cλµν son las constantes de estructura del álgebra de Lie G, correspondiente
a G, ya que la cλµν puede ser determinada en e ∈ G. Esto se pude ver usando la
invariacia por la izquierda. dLg ([Xµ , Xν ]) = cλµν Xλ (g) para todo g ∈ G. En par-
ticular para e ∈ G, lo que hace que cλµν no depende de g. A las constentes cλµν se les
conoce como constantes de estructura del grupo. Estas constantes cumplen
con algunas propiedades interesantes que quedaran como ejercicio.
4. REPRESENTACIÓN DE GRUPOS Y ALGEBRAS DE LIE 95

Ejercicio 39. Demuestre que


a) cλµν = cλµν
b) cτµν cλτσ + cτσµ cλτν + cτνσ cλτµ = 0, identidad de Jacobi
La ecuación fundamental de las 1-formas en el espacio contangente de un grupo
de Lie es la que sigue.
base
Proposición 82. La base dual {θµ } ⊂ T ∗ G cumple con la ecuación
1
dθµ = − cµνλ θν ∧ θλ
2
donde las cµνλ son las constantes de estructura de G, el álgebra correspondiente a
G.
Proof. Sabemos que
dθµ (Xν , Xλ ) = Xν (θµ (Xλ )) − Xλ (θµ (Xν )) − θµ ([Xν , Xλ ])
= Xν (δλµ ) − Xλ (δνµ ) − θµ (cνλ α Xα ) = −cνλ µ
y − 12 cαβ µ θα ∧ θβ (Xν , Xλ ) = −cµνλ ¤
Asi mismo, la forma de Maurer-Cartan cumple con la misma ecuación anterior,
que se acostumbta escribir de una manera mas elegante. Esta forma la veremos en
la siguiente proposición.
Proposición 83. La forma de Maurer-Cartan w se puede escribir como
w = Vν ⊗ θ ν ; w (g) := wg , para toda g ∈ G
iso base
donde {Vµ } es la base de Te G ∼
= G y {θµ } ⊂ T ∗ G y satisface la ecuación
1
dθ + [θ ∧ θ] = 0.
2
µ
Proof. Sea Y = Y Xµ ∈ Tg G, con Xµ la base invariante por la izquierda de
T G, entonces
¯ ³ ´ ¯
θ (Y ) = Y µ θ (Xµ ) = Y µ d Lg−1 ¯g Xµ |g = Y µ d Lg−1 ¯g ◦ dLg (Vµ )|e
¡ ¢¯
= Y µ d Lg−1 ◦ Lg ¯e (Vµ ) = Y µ Vµ
Por otro lado
Vν ⊗ θν (Y ) = Y µ Vν θµ (Xµ ) = Y µ Vµ .
Observe que [θ ∧ θ] = [Vµ , Vν ] ⊗ θµ ∧ θν , se sigue entonces
1 1 1
dθ + [θ ∧ θ] = − Vµ ⊗ cµνλ θν ∧ θλ + cµνλ Vµ ⊗ θν ∧ θλ = 0
2 2 2
¤

4. Representación de Grupos y Algebras de Lie


El espacio de las matrices es el espacio vectorial mas apropiado para usarse como
representantes de grupos y álgebras. En esta sección veremos los representantes de
los grupos mas usados en fı́sica, quı́mica e ingenierı́a. Primero vamos a dar la
definición formal.
Definición 99. Sea G un grupo de Lie y H un grupo de Lie de matrices. Una
representación de G es un homomorfismo ϕ : G → H.
96 5. GRUPOS DE LIE

Definición 100. Sea G un álgebra de Lie y H un álgebra de Lie de matrices.


Una representación de G es un homomorfismo ϕ : G → H

Ya en la práctica, por lo general se trabaja con las representaciones matriciales


de los grupos o de las álgebras. Vamos a resumir las álgebras y grupos de matrices
más importantes.
Sean GL (n, <) y GL (n, C) los conjuntos de matrices no singulares n×n reales y
complejas respectivamente. Estos conjuntos forman un grupo con la multiplicación
de matrices. Las coordenadas locales de ellos son las n2 entradas (Xij ) = M ∈ GL,
los cuales forman un grupo de Lie de dimensión n2 , real o compleja respectivamente.
Topológicamente GL(n, <) es un grupo no compacto, para-compacto y no-conexo.
Sea c una trayectoria en GL(n, <), c : (−², ²) ¡→ ¢GL (n, <), c (0) = I la identidad
en GL(n, <). Cerca de cero c (s) = ¯I + sA + O s2 , A matriz n × n, real. El vector
.
tangente de c (s) en I es dsdc
= c (s)¯s=0 = A . Entonces el álgebra correspondiente
a GL(n, <) es el conjunto gl (n, <) de matrices reales n × n (singulares o no).
Análogamente, el álgebra gl (n, C) correspondiente a GL(n, C) es el conjunto de
matrices complejas n × n. Mas interesantes son los subgrupos de GL.
i) Subgrupos© de GL (n, <) ª
a) O (n) = M ∈ GL (n, <)| M T M = M M T = I llamadas grupo Ortogo-
T
nal. Una curva en O (n) debe cumplir c (s) c (s) = I, por lo que si la diferenciamos
T ¡ T¢
obtenemos ċ (s) c (s) + c s ċ (s) = 0. En s = 0 uno obtiene que AT + A = 0.
Entonces el álgebra correspondiente a O (n) es o (n), el conjunto de matrices anti-
simétricas.
b) SL (n, <) := {M ∈ GL (n, <)| det M = 1}, llamado el grupo especial
lineal . Si c es una trayectoria en SL (n, <) , det c (s) = 1 + str (A) = 1, o
sea tr (A) = 0. Entonces el álgebra correspondiente de SL (n, <) es sl (n, <),
el conjunto de matrices con traza cero. La dimensión de este conjunto es dim
SL (n, <) = n2 − 1.
c) SO (n) = O (n) ∩ SL (n, <), el grupo especial ortogonal, su álgebra
correspondiente es también o (n) = so (n). Ambas álgebras tienen dimensión
dim o (n) = n(n−1)
2 .
II) Subgrupos© de GL (n, C) ª
a) U (n) = M ∈ GL (n, C)| M M T = M T M = 1 , el grupo unitario. Su
álgebra u (n) es el conjunto de matrices complejas antihermitianas AT + A = 0.
b) SL (n, C) = {M ∈ GL (n, C)| det M = 1}, el grupo especial lineal com-
plejo, su álgebra sl (n, C) es un conjunto de matrices complejas con tr (A) = 0.
c) SU (n) = U (n) ∩ SL (n, C) , grupo especial unitario, su álgebra su (n),
es el conjunto de matrices complejas antihermitianas con traza cero.
Además existen una infinidad de grupos que se clasifican diferente. Veamos
algunos ejemplos explicitamente.

Exemplo ©69. El grupo de Lorentz se define como ª


O (1, 3) = M ∈ GL (4, <) | M γM T = γ, γ = diag (−1, 1, 1, 1) el cual no es
compacto, es paracompacto y es no-conexo.

Exemplo 70.
½µ ¶ ¾
x −y hom © ª
O (2) = 2 2
|x +y =1 ; SO (2) ∼
= (x, y) ∈ <2 | x2 + y 2 = 1
y x
4. REPRESENTACIÓN DE GRUPOS Y ALGEBRAS DE LIE 97

o sea, O (2) = SO (2) es topológicamente S 1 . Su álgebra es


½µ ¶ ¾
0 −a
o (2) = |a∈<
a 0
= so(2). Una base de esta álgebra como espacio vectorial, es
½µ ¶¾
0 −1
o (2) = .
1 0
hom © ª
Exemplo 71. U (1) = SU (1) = {z ∈ C | zz = 1} ∼
= (x, y) ∈ < | x2 + y 2 = zz = 1, z = x + iy .
De nuevo U (1) es topológicamente S 1 .
Exemplo 72.
½µ ¶ ¾
z0 −z 1 2
hom

SU (2) = | (z0 , z1 ) ∈ C , z0 z 0 + z1 z 1 = 1 = S3,
z1 z0
su álgebra es ½ µ ¶ ¾
c a − ib
su (2) = i | a, b, c, ∈ < .
a + ib c
Una base de esta álgebra 3-dimensional es
½ µ ¶ µ ¶ µ ¶¾
0 1 0 −i 1 0
σ1 = i , σ2 = i , σ3 = i
1 0 i 0 0 −1
que son las matrices de Pauli, las cuales cumplen con las relaciones de conmutación
[σ1 , σ2 ] = 2iσ3 ,
[σ2 , σ3 ] = 2iσ1 ,
[σ3 , σ1 ] = 2iσ2 .

También podría gustarte