Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Tonatiuh Matos
TOPOLOGÍA
Contents
v
CHAPTER 1
ESPACIOS TOPOLÓGICOS
1. Definición y Ejemplos
Los espacios topologicos son la base, entre otras cosas, de la estructura metemática
que le dara forma a los conjuntos. Como veremos en esta sección, basicamente dos
espacios topologicos son los mismos (homeomorficos), si se puede moldear uno de
ellos en plastilina y transformar este hasta llegar al otro sin romper la plastilina,
sin hacerle agujeros. Por ejemplo, un baso para tomar agua y una pelota, serı́an
los mismos desde el punto de vista de la topologı́a, ası́ mismo, una taza con una
aza es equivalente a una dona, etc. Estos espacios han adquirido importancia en
varias ramas de la fı́sica y la ingenierı́a para poder hacer modelos. Por ejemplo, en
la ingenierı́a, las imágenes que se obtienen en la computadora son dijitales, estan
hechas por pixeles discontinuos. En este caso, resulta muy inexacto para algunas
aplicaciones tomar el espacio métrico correspondiente. En la actualidad existen
varios modelos topológicos que prometen ser mas eficientes. En fı́sica, los cam-
pos estan cuantizados y viven entonces en espacios que no pueden ser modelados
por espacios métricos simples. Los espacios topológicos podrı́an ser mas exactos
en modelar espacios cuantizados o los espacios cuánticos mismos. Asi mismo, la
geometrı́a diferencial es una herramienta que se utiliza hoy en dı́a intensivamente
en varias ramas de la ciencia. El control automático necesita de esta herramienta
en gran medida. En este capitulo veremos tanto la topologia como la geometrı́a
diferencial. Iniciemos con la definición de espacio topológico.
Definición 1. Sea X conjunto y τX ⊂ P (X) subconjunto del conjunto poten-
cia P (X) . Un espacio topológico es el par (X, τX ) , tal que: φ y X pertenecen a
τX y τX es cerrado bajo uniones arbitrarias e intersecciones finitas.
Vamos a entender esta definición. Explicitatmente, un espacio topológico es un
subconjunto del conjunto potencia que cumple con los siguientes axiomas:
i) φ, X ∈ τX es decir, el vacio y todo el conjunto siempre estan en la topologia
τX de X.
ii) Si Uα ∈ τX con α ∈ J (J un conjunto de indices) entonces ∪ Uα ∈ τx , es
α∈J
decir, la union arbitraria de elementos de τX es un elemento de τX .
iii) Ui ∈ τX con i = 1, · · · , n implica que ∩ni=1 Ui ∈ τX , es decir, la intersección
finita de elementos de τX es un elemento de τX .
Notación 1. A los elementos de τX se les llama abiertos, a sus complementos
cerrados y a τX se le llama topologı́a sobre X.
Comentario 1. Note que tanto en vacio como todo el conjunto φ y X son
abiertos y cerrados a la vez, ya que φc = X y X c = φ. Esta es una propiedad de
todos los espacios topológicos.
1
2 1. ESPACIOS TOPOLÓGICOS
Mas adelante veremos algunos ejemplos de espacios topológicos para ser mas
explicitos, pero por ahora vamos a definir algunos conceptos mas que nos van a
servir durante nuestra discusión.
Definición 2. Sea x ∈ U y U ∈ τX . Se dice entonces que U es una vecindad
de x, se denota x ∈ Ux . Un entorno de x ∈ X es un sobconjunto N ⊂ X, tal que
x ∈ N y existe Ux ⊂ N , ver figura 1.
Es decir, una vecindad de algún punto es siempre un abierto que contiene
al punto, mientras el entorno es un conjunto mas grande que algún abierto, que
contiene al punto, pero no es un abierto él mismo.
Corolario 2. A es cerrado.
Exemplo 7. Los ejemplos mas representativos y simples son en la recta real con
la topologia canónica. Es claro que [a, b] es cerrado. La cerradura de (a, b) = [a, b],
etc.
Exemplo 8. La cerradura del conjunto de los racionales o del conjunto de los
irracionales son los reales, ya que junto a un racional siempre hay un irracional y
junto a un irracional hay un racional.
Exemplo 9. Un ejemplo mas interesante es el conjunto <\Z. Observemos que
<\Z = <.
Ejercicio 2. Demuestre que
a) A ∪ B ⊃ A ∪ B
b) A ∩ B ⊂ A ∩ B
De una manera análoga se puede hacer lo mismo para puntos interiores de un
conjunto. Estos se definen como:
Definición 8. Sea (X, τX ) espacio topológico y p ∈ X. p es punto interior
de A ⊂ X si existe Vp ∈ τX con Vp ⊂ A, ver figura 4.
Corolario 3. Å es abierto.
Exemplo 10. Los ejemplos mas representativos y simples de nuevo son en la
recta real con la topologia canónica. Es claro que (a, b) es abierto. El interior de
o
[a, b] = (a, b), etc.
2. CERRADURA, INTERIOR Y FRONTERA 9
Exemplo 11. El interior del conjunto de los racionales o del conjunto de los
irracionales es vacio, ya que no hay abiertos que contengan racionales o irracionales
solamente.
Exemplo 12. Un ejemplo mas interesante es de nuevo el conjunto <\Z. Ob-
servemos que (<\Z)o = <\Z
Entonces, el interior es abierto y la cerradura es un cerrado. Para dar un
criterio de donde termina el espacio topológico, se define la frontera del conjunto.
La idea intiutiva es simple y su definición formal es como sigue:
Definición 10. La frontera (topológica) de A es la intersección de las cer-
raduras de A y su complemento, se denota ∂A, i.e.
∂A = A ∩ Ac
La frontera de A tiene las siguientes propiedades:
i) ∂A es cerrado, ya que es intersección de cerrados.
c
ii) ∂Ac = Ac ∩ (Ac ) = Ac ∩ A = ∂A
/ A se sigue que p ∈ Ac ∩ A ⊂ Ac ∩ A = ∂A,
iii) A = A ∪ ∂A ya que si p ∈ A y p ∈
lo que implica que A ⊂ A ∪ ∂A, de la misma forma, si p ∈ A esto implica que p ∈ A
ó y si p ∈ ∂A implica que p ∈ A ya que ∂A = A ∩ Ac .
iv) ∂A = φ ssı́ A es cerrado y abierto a la vez. Esto es debido a que si ∂A = φ
se sigue que A = A ya que A = A ∪ ∂A, es decir A es cerrado. Por otro lado como
A = A, si A ∩ Ac = φ esto implica que Ac ⊂ Ac , pero como Ac ⊂ Ac , se sigue que
Ac = Ac , entonces Ac es cerrado, por lo que A es abierto. Al contrario, si A es
cerrado, se sigue que A = A, A abierto implica que Ac es cerrado y por lo tanto
Ac = Ac . Entonces A ∩ Ac = A ∩ Ac = φ.
v) ∂X = ∂φ = φ ya que X y φ son abiertos y cerrados.
vi) A es cerrado ssı́ ∂A ⊂ A, ya que A cerrado implica que A = A = A ∪ ∂A y
por lo tanto ∂A ⊂ A. A la inversa ∂A ⊂ A implica que A ∪ ∂A = A = A de donde
se sigue que A es cerrado.
Exemplo 13. Tomemos de nuevo unTejemplo sobre la Trecta real con la topologia
c
canónica. La frontera de ∂(a, b) = (a, b) (a, b) = [a, b] (−∞, a]∪[b, ∞) = {a, b},
etc.
Exemplo 14. Regresemos al conjunto <\Z. Observemos que
T T
∂(<\Z) = (<\Z) (<\Z)c = < Z = Z.
Es decir, el conjunto <\Z es un conjunto abierto, cuya cerradura es < y su
frontera es Z. Esto también quiere decir que Z es un conjunto cerrado, pues es la
frontera de <\Z.
Ejercicio 3. Demuestre que la frontera del conjunto de los racionales o del
conjunto de los irracionales son los reales.
Para terminar esta sección, vamos a definir un conjunto denso. Un conjunto es
denso si su cerradura es todo el espacio, esto es:
Definición 11. A es denso en X si A = X.
Exemplo 15. Claramente <\Z no es denso en los reales, pues su cerradura
no son los reales.
Comentario 3. Note que si A es un espacio métrico, A es denso si para todo
x ∈ X y para todo ² > 0 existe p ∈ A tal que p ∈ B² (x).
10 1. ESPACIOS TOPOLÓGICOS
3. Funciones Continuas
En esta sección vamos a introducir conceptos tı́picos de espacios normados
o métricos relacionados con funciones, pero usando sólo la topologia del espacio.
Vamos a iniciar con el concepto de continuidad de funciones en espacio topológicos.
Basicamente la idea es la misma que en espacios métricos, pero como aqui no
tenemos una distancia, tenemos que usar sólo la exitencia de los abiertos. La
idea es entonces, que si podemos mapear un abierto, tan arbitrario (“pequeño”)
como sea, y éste es también abierto en el dominio, entonces la función es continua.
Formalmente se tiene:
Definición 12. Sean (X, τX ) y (Y, τy ) espacios topológicos. Se dice que el
mapeo f : X → Y x → f (x) es una función continua, si f −1 (V ) ∈ τX para todo
V ∈ τY , i.e. preimágenes de abiertos son abiertas.
Notación 3. Al conjunto de funciones continuas se denota por M ap(X, Y ) =
C 0 (X, Y ).
Dado que en un espacio métrico la topologia se contruye con los abiertos del
espacio, podemos demostrar una serie de proposiciones en espacios topológicos que
despues se pueden extender a espacios métricos o normados. Veamos la siguiente
proposición.
Proposición 10. Sean (X, τX ) y (Y, τY ) espacios topológicos f : X → Y,
función. Son equivalentes
1) f es continua.
2) Para todo x ∈ X y Wf (x) ∈ τY existe Vx ∈ τX tal que f (Vx ) ⊂ Wf (x)
3) f (A) ⊂ f (A) para todo A ⊂ X
4) f −1 (B) ⊂ f −1 (B) para todo B ⊂ Y
5) Si A es cerrado en Y implica que f −1 (a) es cerrado en X.
Proof. 1) =⇒ 2) Sean x ∈ X y Wf (x) ⊂ τY ; como f es continua x ∈
f −1 (Wf (x) ) ∈ τx y entonces existe Vx ∈ τX tal que Vx ⊂ f −1 (Wf (x) ), se sigue
entonces que f (Vx ) ⊂ Wf (x) .
2) =⇒ 3) Sea b ∈ A, entonces para todo Ub ∈ τX se sigue que Ub ∩ A 6= φ,
entonces φ 6= f (Ub ∩ A) ⊂ f (Ub ) ∩f (A). Sea Wf (b) ∈ τY arbitrario, por 2) existe
Vb ∈ τX con f (Vb ) ⊂ Wf (b) , por lo que f (Vb ) ∩ f (A) ⊂ Wf (b) ∩f (A) es decir
f (b) ∈ f (A).
3) =⇒ 4) Sea a = f −1 (B) con B ⊂ Y ; por 3 f (A) ³⊂ f (A) −1
´ = f (f (B)) ⊂ B,
¡ −1 ¢
ya que f f (B) ⊂ B. Por lo tanto, también f −1 f (A) ⊂ f −1 (B) y como
¡ ¢
A ⊂ f −1 f (A) tenemos A ⊂ f −1 (B); o sea f −1 (B) ⊂ f −1 (B).
4) =⇒ 5) Sea B cerrado en Y , por 4) f −1 (B) ⊂ f −1 (B) = f −1 (B) ⊂ f −1 (B)
por lo que f −1 (B) = f −1 (B), entonces f −1 (B) es cerrado en X.
5) =⇒ 1) Sea B ¡∈ τY , entonces
¢c B c es cerrado en Y , como f −1 (B c ) = (f −1 (B))c ,
por 5) se tiene que f (B) es cerrado en X, o sea f −1 (B) ∈ τX .
−1
¤
Proposición 11. La composición de funciones continuas es continua.
Proof. Sean (X, τX ) , (Y, τY ) y (Z, τz ) espacios y f : X → Y, g : Y → Z
funciones continuas. Se tiene que si U 00 ∈ τz entonces g −1 (U 00 ) ∈ τY y por lo tanto
f −1 (g −1 (U 00 )) = f ◦ g (U 00 ) ∈ τZ . ¤
3. FUNCIONES CONTINUAS 11
Las funciones en espacios que son productos cartesianos también tienen un cri-
terio de continuidad. Estas funciones son interesantes y serán usadas mas adelante,
por ahora veamos este criterio de continuidad usando la siguiente proposición:
Proposición 12. Sean (X, τX ) , (Y, τY ) y (Z, τZ ) espacios y f : X × Y → Z
función. f es continua ssı́ para todo Wf (x,y) ∈ τz existe Ux ∈ τX y Vy ∈ τY tales
que f (Ux × Uy ) ⊂ Wf (x,y) .
Proof. ⇐=) Sea Wf (x,y) ∈ τZ esto implica que existe Ux ∈ τX , Vy ∈ τY
con f (Ux × Vy ) ⊂ Wf (x,y) con Ux × Vy ∈ τX × Y , esto implica que para todo
(x, y) ∈ X × Y existe Ux × Vy ∈ τX × Y tal que Ux × Vy ⊂ f −1 (Wf (x,y) ) por lo que
f −1 (Wf (x,y) ) ∈ τX×Y .
=⇒) Sea Wf (x,y) ∈ τZ , entonces f −1 (Wf (x,y) ) ∈ τX×Y esto implica que para
todo (x, y) ∈ f (Wf (x,y) ) existe Ux × Vy ∈ τX×Y tal que Ux × Vy ⊂ f −1 (Wf (x,y) ),
por tanto f (Ux × Vy ) ⊂ Wf (x,y) . ¤
Mas adelante, en la contrucción de los haces, vamos a necesitar el uso de la
proyección, que es una función que mapea solo una parte de un producto cartesiano
de espacios topológicos. Vamos a introducir ahora este concepto.
Definición 13. Sea (X × Y, τX×Y ) espacio producto de los espacios (X, τX ) y
(Y, τY ). A las funciones Πx : X × Y → X, (x, y) → x y Πy : X × Y → Y, (x, y) → y
se les llama las proyecciones de X × Y , ver figura 6.
una reparametrización de c.
Lo interesante de este concepto es que las curvas (no los caminos) son invari-
antes ante estos automorfismos, es decir:
Proposición 18. Las curvas son invariantes bajo reparametrizaciones.
Proof. Sea c ∈ C 0 (I, X) trayectoria y Γc = c(I) la curva correspondiente.
Entonces Γϕ∗(c) = ϕ∗ (c)(I) = c ◦ ϕ(I) = c(ϕ(I)) = c(I) = Γc . ¤
Exemplo 16. Al camino c(t) = p para todo t ∈ I se le llama camino con-
stante.
Exemplo 17. Sea c : [0, 1] → X con c(0) = c(1) = p. A este camino se le
llama lazo o loop en X.
4. Topologı́a cociente
Imaginemos que podemos construir una función entre dos conjuntos y que el
dominio tiene una topologia. Entonces podemos mapear los abiertos del dominio
al codominio y definir estos como abiertos del codominio. Surge la pregunta si
ahora las imagenes de estos abiertos forman una topologia para el codominio. La
respuesta la podemos dar en la siguiente proposición.
Proposición 19.©Sean (X, τX ) espacios Y ªconjunto y f : X → Y función so-
bre. El conjunto τf = V ∈ P (Y ) | f −1 (V ) ∈ τX es una topologı́a para Y , llamada
topologı́a cociente de Y respecto a f .
Proof. i) φ ∈ τf ya que f −1 (φ) = φ ∈ τX y Y esta en τf ya que f es sobre y
por lo tanto f −1 (Y ) = X ;
ii) Sean V1 , · · · , Vn ∈ τf , entonces f −1 (∪ni=1 Vi ) = ∪ni=1 f −1 (Vi ) ∈ τX se sigue
que ∩ni=1 Vi ∈ τf ya que cada f −1 (Vi ) ∈ τX ;
iii) Sea {Vα }α∈K con Vα ∈ τf . Entonces f −1 ( ∪ Vα ) = ∪ f −1 (Vα ) ∈ τX
α∈K α∈K
pues cada f −1 (Vα ) ∈ τX , se sigue entonces que ∪ Vα ∈ τf . ¤
α∈K
14 1. ESPACIOS TOPOLÓGICOS
p = q ó si p 6= q, (p, q) = ((0, y), (1, 1 − y)) ó ((1, y), (0, 1 − y)) . Gráficamente se
ve en las figura 7 y figura 8.
5. Espacios Compactos
Entre las nociones intuitivas que tenemos de conjuntos, exiten dos clases que se
diferencian notablemente. Existe espacios como < que no tienen fin y otros como la
esfera que son finitos. Por supuesto, desde el punto de vista matemático podemos
dar una diferenciacion de estos espacios, ya que no es lo mismo que un conjunto
no tenga fin o principio o que este conjunto sea simplemten muy grande. Para dar
5. ESPACIOS COMPACTOS 15
una noción concreta de estos conceptos, diremos que los conjuntos como la esfera,
son compactos. Basicamente la diferencia es que a la esfera la podemos cubrir con
un numero finito de abiertos. La definición formal es:
Definición 21. Sean (X, τX ) espacio topológico y A ⊂ X. A es un conjunto
compacto si toda cubierta U de A contiene una subcubierta finita.
Proposición 20. Sean (X, τX ), (Y, τY ) espacios y f : X → Y función con-
tinua. Entonces la imagen de subconjuntos compactos de X son subconjuntos com-
pactos de Y .
Proof. Sea A subconjunto
© compacto
ª de X y sea V = {Vα }α∈K una cubierta de
f (A), entonces V −1 = f −1 (Vα ) α∈K es una cubierta de A. Como A es compacto,
© ªN
existe una cubierta finita de A, U = f −1 (Vj ) J=1 , subcubierta de V −1 . Como
16 1. ESPACIOS TOPOLÓGICOS
n N
Uext . Vext = {Vi , Ac }i=1 que cubre X. Por tanto V = {Vi }i=1 es cubierta finita
de A, ya que para todo Vj ∈ Vext existe Ur ∈ Uext tal que Vj = Ur , es decir, A es
compacto. ¤
También es fácil imaginarse que el producto cartesiano de espacios compactos,
es compacto. Formalmente se tiene la siguiente proposición:
Proposición 25. El producto topológico (X × Y, τx×y ) es compacto sı́ cada
(X, τX ) y (Y, τy ) es compacto.
Proof. =⇒) Como X × Y es compacto, entonces Π1 : X × Y = X y Π2 :
X × Y → Y son compactos, ya que Π1 y Π2 son continuas.
⇐=) Sin Dem. ¤
De estas propiedades resultan algunos ejemplos y resultados sencillos. Por
N
ejemplo tenemos que el n-cubo es compacto, i.e. I ⊂ <n es compacto.
Otro concepto relacionado con espacios compactos, es el concepto de conjunto
acotado, concepto que se puede dar en un espacio normado. Entonces podemos
definir conjuntos acotados en los reales, utilizando su norma canónica. Intuiti-
vamente, un espacio compacto debe ser acotado, finito. Formalmente se tiene la
definición:
Definición 22. Sea A subconjunto de (<n , τ<n ) y n ∈ Z + . Se dice que A es
1 n +
un
¯ i ¯conjunto acotado si para todo x = (x , · · · , x ) ∈ A, existe K ∈ < , tal que
¯x ¯ ≤ K para todo i = 1, · · · , xm .
Para terminar esta sección daremos una clasificación interesante de los espacios
topológicos según su estructura.
Definición 26. Sea(X, τX ) espacio topológico.
· Se dice que X es espacio T0 si para todo x, y ∈ X , x 6= y, existe Ux con
y∈/ Ux ó existe Uy con x ∈/ Uy
· Se dice que X es espacio T1 si para todo x, y ∈ X, x 6= y, existe Ux y Uy
con y ∈/ Ux y x ∈/ Uy
· Se dice que X es espacio T2 o Hausdorff si para todo x, y ∈ X, x 6= y,
existe Ux , Uy con Ux ∩ Uy = φ
· Se dice que X es espacio T3 o espacio regular, si X es T1 y si para todo
x ∈ X y F cerrado en X con x ∈ / F , existe Ux y U en τX con F ⊂ U y Ux ∩ U = φ
· Se dice que X es espacio T4 o espacio normal , si X es T1 y para todo
F, G cerrados disjuntos en X, existe U, V ∈ τX tal que U ∩ V = φ y F ⊂ U, G ⊂ V ,
ver figura 12.
6. Espacios Conexos.
Un espacio topológico puede ser también hecho de piezas separadas, o pedazos
sin unión. Cuando los espacios son hechos de una sola pieza, se dice que son espa-
cios conexos. Para definir los espacios conexos es mas sencillo definir los espacios
disconexos, es decir:
Definición 27. Un espacio topológico (X, τX ) es disconexo si existen A, B ∈
τX tales que A, B 6= φ, A ∪ B = X y A ∩ B = φ.
Definición 28. Un espacio es conexo si no es disconexo.
Definición 29. Sea (X, τX ) espacio topológico y A ⊂ X (subespacio). A es
conexo si lo es como subespacio topológico de X.
Algunos ejemplos simples son:
6. ESPACIOS CONEXOS. 21
VARIEDADES DIFERENCIALES
1. Variedades
Las variedades son espacios topológicos que son localmente igual a <n . Este
hecho permite entonces utilizar conceptos que conocemos de <n y usarlos en la var-
iedad, al menos localmente (es decir, al menos para cada abierto). Por ejemplo, la
diferencial es un conceptos bien importante de <n porque nos da un modelo simple
de movimiento. El movimiento es la propiedad mas importante de todo objeto en
la naturaleza, de hecho la fı́sica se dedica a estudiar principalmente esta caracter-
istica, el movimiento. Ya sea el movimiento de un objeto o el movimiento de los
campos en el espacio tiempo o el movimiento de las cantidades termodinámicas en
un sólido. Esa es la razón de la importancia del cálculo diferencial, tanto en cien-
cias exactas, como en su aplicación mas directa, que es la tecnologia avanzada. Las
variedades diferenciales son una generalización del cálculo diferencial a variedades,
que llamamos variedades diferenciales. En la actualidad, las variedades diferen-
ciales tienen aplicación en un gran numero de áreas de la ciencia y la tecnologia.
Por sólo nombrar algunas, diremos que el mejor modelo que se tiene hasta el mo-
mento del espacio tiempo es el de una variedad diferenciable. El estudio de teorı́a
de campos en espacios curvos necesita para su mejor comprensión de las variedades
diferenciables. La función de calor en termodinámica es una fafiana, es decir, una
1-forma, que es un concepto formal de variedades diferenciables. O el estudio mod-
erno del control automático en ingenierı́a, usa intensivamente la herramienta de las
variedades diferenciales, etc. En este capitulo daremos los conceptos mas impor-
tantes de las variedades y de las variedades diferenciables. Vamos a empezar por
su definición.
Definición 30. Una variedad real de dimensión n es un espacio topológico
de Hausdorff (M n , τM N ), tal que para todo elemento p ∈ M n existe una terna
c = (Up , ψ, V ) donde Up ∈ τM n , V ∈ τ<n y ψ : Up → V , homeomorfismo. Ver
figura 1.
Es decir, una variedad es un espacio topológico que localmente es <n (o sea,
para todo p ∈ M n , se tiene que Up ∈ τM n , es homeomorfo a <n ). Si en la definición
cambiamos real por complejo, tenemos variedades complejas de dimensión n. Por
hom
ejemplo, C ∼= <2 es una variedad compleja de dimensión uno.
Para trabajar con variedades se acostumbra definir algunos conceptos de la
variedad, que estaremos usando en el futuro.
Definición 31. Sea M n una variedad, a:
· cα = (Uα , ψα , Vα ) , ∪ Uα = M n se le denomina carta sobre M n
α∈J
· Uα se le llama dominio de la carta.
· (Uα , ψα ) se le llama sistema de coordenadas sobre Uα
23
24 2. VARIEDADES DIFERENCIALES
Exemplo 28. (<, τ<n ) es una variedad real de dimensión n con una sola carta
c = (<n , id|<n , <n ) .
Exemplo 29 (Pelota). Vamos a dar un ejemplo
¡ que
¢ vamos a utilizar a lo largo
de estos capitulos. Se trata de las pelotas o S 2 , τS 2 , con su topologı́a heredada
de <3 . La pelota es una 3-esfera y es una variedad 2-dimesional real que al menos
tiene dos cartas. Estas son:
¡ ¢
c1 = U1 , σ+ , <2 con U1 = S 2 \ {(0, 0, 1)} .
donde el homeomorfismo σ+ esta definido como:
1
σ+ (x, y, z) = (x, y)
1−z
cuya inversa esta dada por:
−1 1 ¡ ¢
σ+ (x, y) = 2 2
2x, 2y, x2 + y 2 − 1
1+x +y
Análogamente, la segunda carta, ahora sin el polo sur, esta dada por:
26 2. VARIEDADES DIFERENCIALES
¡ ¢
c2 = U2 , σ− , <2 con U2 = S 2 \ {(0, 0, −1)} .
donde el homeomorfismo σ− esta definido como:
1
σ− (x, y, z) = (x, y)
1+z
cuya inversa esta dada por:
−1 1 ¡ ¢
σ− (x, y) =2 2
2x, 2y, −x2 − y 2 + 1
1+x +y
2
Entonces U1 ∪ U2 = S y σ+ y σ− son homeomorfismos. A σ+ se le llama la
proyección estereográfica desde el norte y a σ− desde el sur.
Exemplo 30 (Esferas). Vamos ahora a generalizar el ejemplo anterior a cualquier
dimensión, y formemos la variedad de las esferas. La esfera con su topologia
heredada de <n , es el espacio topológico (S n , τS n ). La n-esfera es una variedad
n-dimesional, real que al menos tiene dos cartas. Estas son:
¡ 1 ¢ 1 ³ 2
´
−1
σ+ x , · · · , xn = 2x1 , · · · , 2xn , x1 + · · · + xn 2 − 1
1 + x1 2 + · · · + xn 2
Hay que comparar estos homeomorfismos con los de la compactificación de <n
en el exemplo 22. Analogamente, la segunda carta, ahora sin el polo sur, esta dada
por:
¡ 1 ¢ 1 ³ 2
´
−1
σ− x , · · · , xn = 2x1 , · · · , 2xn , −x1 − · · · − xn 2 + 1
1 + x1 2 + · · · + xn 2
Entonces U1 ∪ U2 = S n y σ+ y σ− son homeomorfismos. Igual que en el caso
de las pelotas, a σ+ se le llama la proyección estereográfica desde el norte y a
σ− desde el sur.
En lo que sigue, vamos a trasladar el concepto de diferencial a la variedad
utilizando los homeomofismos de ésta en <n . Como sabemos como diferenciar en
<n , podemos definir diferenciales en la variedad. Cuando esto se puede, se dice que
la variedad es suave. Recordemos la definición de suave en <n .
1. VARIEDADES 27
2. Funciones suaves
El siguiente paso es definir la diferencial en una variedad diferenciable. Para
hacer esto, lo que se acostumbra es transladar a <n por medio de los homeomor-
fismos, la diferenciabilidad de una función. Vamos a iniciar con la definición de
diferencial de una función.
Definición 38. Sea f : M n → < una función en una variedad (M n , A). f es
suave o diferenciable si f ◦ ψα−1 : ψα (Uα ) → < es suave para toda carta de A,
ver figura 4.
Es decir, una función f que va de la variedad a los reales es suave, si su función
correspondiente, la que va de <n a los reales, es suave. Para analisar la función f
entonces, es necesario estudiar su función f ◦ ψα−1 correspondiente.
Notación 5. Se denota al conjunto de funciones suaves por C ∞ (M n , <)
ó al conjunto de funciones suaves en la vecindad de x por C ∞ (M n , x, <)
Comentario 6. Observe que
a) (C ∞ (M n , <) , +, ·, <, ·) es un álgebra conmutativa con unidad.
b) (C ∞ (M n , <) , +, ·) es anillo
c) (<, C ∞ (M n , <) , +, ·) es espacio vectorial.
Definición 39. Si f es suave en todo punto x ∈ W ⊂ M n , se dice que f es
una función suave en W.
Proposición 32. f suave implica f continua.
Proof. Sin dem. ¤
3. Vectores Tangentes.
En esta sección vamos a construir los vectores tangentes a una variedad difer-
enciable. Esta construcción tiene varios objetivos, pero el mas importante es que
con los vectores tangente podemos contruir un espacio vectorial en cada punto de
la variedad. A este espacio se le llama el espacio tangente. Es necesario construir
tantos vectores base del espacio tangente a la variedad diferenciable como la di-
mensión de la variedad, o sea, tantos como la dimensión al espacio <n al cual la
variedad diferenciable es homeomorfica. Ya construido el espacio tangente podemos
contruir el dual a este espacio vectorial, o sea, el espacio de las transformaciones
lineales en el espacio tangente. A este espacio se le llama el espacio contangente de
la variedad. Estos dos espacio son muy importantes en modelos del espacio tiempo,
ya que la métrica de una variedad, es un elemento del espacio contangente, como
3. VECTORES TANGENTES. 31
4. Uno formas
En todo espacio vectorial se pueden definir transformaciones lineales que forman
a la vez un espacio vectorial de la misma dimensión, llamado el espacio dual (ver
capitulo 3). Entoces podemos formar el conjunto de transformaciones lineales en
el espacio tangente a una variedad y formar el espacio dual. A este espacio se le
llama espacio contangente y a sus elementos, las transformaciones lineales, se les
llama formas. Vamos a ver todo esto formalmente.
Sean M m y N n variedades y F ∈ C ∞ (M m , N n ) con x ∈ M m .
Definición 44. La diferencial de F en x es la función definida por
dFx : Tx M m → TF (x) N n
vx → dFx (vx ) : C ∞ (N n , F (x) , <) → <
g → dFx (vx ) (g) := vx (F ∗ (g))
ver figura 7.
4. UNO FORMAS 33
d id|M n : Tx M m → Tx M m
vx → d id|M n (vx ) :C ∞ (M m , <) → <
¡ ∗ ¢ g → d id|M n (vx ) (g)
= vx id|M n (g) = vx (g ◦ id|M n ) = vx (g) es decir
d id|M n (vx ) = vx
Un caso especial de diferencial muy importante es cuando la diferencial es una
función inyectiva, entonces se dice que la diferencial es una inmersión: esto es:
Definición 45. Una inmersión de M m en N n , es una función suave F :
M → N n con diferencial dFx inyectiva.
m
Ahora vamos a definir las formas formalmente. Las formas son diferenciales
de una función que va de la variedad a los reales. Como los reales también son
una variedad, podemos usar la definición de la diferencial en estas funciones. La
diferencia es que vamos a identificar al espacio tangente de los reales con los reales
mismos. De hecho son el mismo espacio. Veamos esto formalmente.
Definición 46. Sea M n variedad, f ∈ C ∞ (M n , <) y x ∈ M n . Entonces
d
dfx : Tx M n → Tf (x) <, vx → dfx (vx ) = λ dr ∈ Tf (x) <, λ ∈ < con dfx (vx ) (r) =
d ∗
λ dr (r) = λ = vx (f (r)) = vx (r ◦ f ) = vx (f ), (recuerden que r : < → < tal que
d
r (x) = x). Esto es dfx (vx ) = vx (f ) dr ∈ Tf (x) <.
d
¡ d¢
Consideremos el isomorfismo J : Tf(x) < → <, λ dr → J λ dr = λ, entonces
¡ d
¢
la composición J ◦ dfx : Tx M n → <, vx → J (df (vx )) = J vx (f ) dr = vx (f ) es
un homomorfismo de espacios lineales y J ◦ dfx es un elemento del espacio dual de
Tx∗ M n que llamaremos el espacio cotangente de la variedad en x. A los elementos
de este espacio, que denotamos como Tx∗ M n , se llaman 1-formas en x y se denotan
como wx ∈ Tx∗ M n . Identificamos entonces Tf(x) < con < (a través del isomorfismo
J), por lo que podemos escribir
∂ ¡ ¢ ∂ ∂ ∂
1 = 1 − z − x2 − xy + x(1 − z)
∂x+ ∂x ∂y ∂z
ya que
¯ ¯ 2
x2 + y 2 (1 − z) − x2 + y 2
u2 + v 2 ¯σ+ (x) = 2 y 1 − u2 + v 2 ¯σ+ (x) = 2
(1 − z) (1 − z)
Análogamente
∂ ∂ ¡ ¢ ∂ ∂
2 = −xy + 1 − z − y2 + y(1 − z)
∂x+ ∂x ∂y ∂z
Como era de esperarse, los vectores base del espacio tangente de S 2 son perpendic-
ulares al radio vector, es decir:
¡ ¢ ∂
(x, y, z) · 1 − z − x2 , −xy, x (1 − z) = 0= r ·
∂x1+
*
¡ ¢ ∂
(x, y, z) · −xy, 1 − z − y 2 , y (1 − z) = 0= r · 2
* ∂x+
Es decir, los vectores tangente, son realmente tangentes a la esfera en cada punto,
pues son perpendiculares al radio vector r . Entonces el espacio tangente en el
n→ *
→
o
punto x a una pelota es T x S 2 = y ∈ <3 | y · x = 0
* *
n o
∂
Ejercicio 20. Calcular ∂x1−
, ∂x∂2 . Demostrar que ∂
, ∂
∂x1± ∂x2±
son li.
−
dx xdz dy ydz
dx1+ = + 2
2 , dx+ = 1 − z + 2
1−z (1 − z) (1 − z)
Estos dos vectores (transformaciones lineales) del espacio contangente son dos uno-
formas definidas en la carta sin polo norte.
© ª
Ejercicio 21. Calcular dx1− , dx2− . Demostrar que dx1± , dx2± son li.
x = r sin(θ) cos(ϕ)
y = r sin(θ) sin(ϕ)
(4.1) x = r cos(θ)
vectores tangente
∂ y ∂
= −
∂x x2 + y 2 ∂ϕ
∂ x ∂
= 2 2
∂y x + y ∂ϕ
∂ 1 ∂
= −p
∂z 2
x +y 2 ∂θ
Usando estos resultados, los vectores base del espacio tangente en coordenadas
esféricas se leen:
µ ¶
∂ ∂ sin(ϕ) ∂
= (cos(θ) − 1) cos(ϕ) +
∂x1+ ∂θ sin(θ) ∂ϕ
µ ¶
∂ ∂ cos(ϕ) ∂
= (cos(θ) − 1) sin(ϕ) −
∂x2+ ∂θ sin(θ) ∂ϕ
De la misma forma podemos ahora calcular los duales, las uno formas del espacio
cotangente. Se obtiene:
1
dx1+ = (cos(ϕ)dθ + sin(ϕ) sin(θ)dϕ)
cos(θ) − 1
1
dx2+ = (sin(ϕ)dθ − cos(ϕ) sin(θ)dϕ)
cos(θ) − 1
Claramente podriamos definir como bases del espacio tangente y cotangente una
1
combinacion lineal de estos vectores, por ejemplo w+ = (cos(θ) − 1)dx1+ w+ 2
=
(cos(θ)−1)dx2+ y a los vectores X+1
, X+ 2
como sus duales, de tal forma que podamos
1 2 1 2
hacer lo mismo con los correspondientes vectores w− w− X+ , X+ , al multiplicar
los vectores base por (cos(θ) + 1). Entonces los vectores w s y X 0 s obtendrán la
0
ϕ∗
C ∞ (M m , <) ←− C ∞ (N n , <)
X↓ Y ↓
ϕ∗
C ∞ (M m , <) ←− C ∞ (N n , <)
conmuta. ¤
TENSORES Y P-FORMAS
1. Tensores
El material de los dos capitulos anteriores es fundamentalmente para estudiar
los tensores. La importancia de los tensores en ciencias exáctas e ingenierı́a, es el
hecho de que los tensores son cantidades matemáticas que no dependen del sistema
coordenado. El significado de “no depende” del sistema de coordenadas la daremos
en este capitulo, pero estas cantidades matemáticas han servido bien para modelar
cantidades fı́sicas importantes, como los campos. La idea es que estas cantidades
fı́sicas realmente no dependen del observador, es decir, las cantidades fı́sicas no im-
porta si el observador las mide con una vara de un metro o una de un centimetro,
o con coordenadas catesianas o esfericas. El objeto fı́sico no se ve afectado por la
forma de medirlo o de observarlo. Esta condición la cumplen los tensores, por eso
se usan para modelar las cantidades fı́sicas observables. Desde el punto de vista
matemático, un tensor es una función multilineal, es decir, una función de varias
variables, pero la función es lineal en cada entrada. El dominio es el producto
cartesiano de un espacio vectorial varias veces, con su dual, también varias veces.
Nosotros vamos a tomar ese espacio vectorial como el espacio tangente a una var-
iedad y su dual como el espacio cotangente a la variedad. Asi, la idea es definir
tensores que viven en variedades. Empecemos por la definición formal de un tensor.
Definición 55. Sea V espacio vectorial y V ∗ su espacio dual. Un tensor del
tipo (r, s) es una transformación multilineal T tal que
T : V ∗ × · · · × V ∗ × V × · · · × V → <,
| {z } | {z }
r veces s veces
¡ 1 ¢ ¡ ¢
w , · · · , w r , v1 , · · · , vs → T w 1 , · · · , w r , v1 , · · · , vs
¡ ¢ ¡ ¢
X1 ⊗ · · · ⊗ Xr ⊗ µ1 ⊗ ·®· · ⊗ µs w1 , ·· · , wr®, v1 , · · · , vs = X1 w1 · · · Xr (wr )
µ1 (v1 ) · · · µs (vs ) = µ1 , X1 · · · hµr , Xr i µ1 , v1 · · · hµs , vs i dados X1 , · · · , Xr ∈ V
y µ1 , · · · , µs ∈ V ∗ . Al espacio de tensores lo denotamos también por
Tsr = V ⊗ · · · ⊗ V ⊗ V ∗ ⊗ · · · ⊗ V ∗ . Sean R ∈ Tsr y S ∈ Tqp , el producto entre
| {z } | {z }
r veces s veces ¡ ¢
r+p
tensores se define entonces como el tensor Ts+q tal que R⊗S µ1 , · · · , µr+p , v1 , · · · , vs+q
¡ 1 ¢ ¡ ¢
= R µ , · · · , µr , v1 , · · · , vs · S µr+1 , · · · , µr+p , vs+1 , · · · , vs+q
La estructura (Tsr , +, ·, ⊗, <, ·) es una álgebra llamada Álgebra tensorial.
Sea {ea }a=1,··· ,n y {ea }a=1,··· ,n bases de V y V ∗ , espacios vectoriales de di-
mensión n y su dual. Entonces podemos escribir tensores T ∈ Tsr en términos
Pn
de esa base como T = Tba11···b
···ar
s
ea1 ⊗ · · · ⊗ ear ⊗ebi ⊗ · · · ⊗ ebs , ya que
a1 ···ar ,b1 ···bs
© ª
ea1 ⊗ · · · ⊗ ear ⊗ ebj ⊗ · · · ⊗ ebs ⊂ Tsr será una base del espacio tensorial y las
componentes de T están dadas por Tba11···b ···ar
s
= T (ea1 , · · · , ear , eb1 , · · · ebs )
Como se ve, debido a la definición de tensores, la notación es muy extensa. Mas
adelante cambiaremos de notación por una mas simple, para reducir la escritura,
pero por ahora la mantendremos con el objetivo de que no vaya a haber confusión.
La propiedad importante de los tensores es la de no depender del sistema coor-
denado. Aquı́ vamos a ser mas generales, vamos a demostrar que los tensores son
invariates al cambiar la base.
Proposición 43. Los tensores son invaraintes bajo cambios de base.
Proof. Sean {ea }a=1,··· ,n y {e0a }a=1,··· ,n bases de V y {ea }a=1,··· ,n y {e0a }a=1,··· ,n
bases de V ∗ tal que {ea }a=1,··· ,n sea dual a {ea }a=1,··· ,n y {e0a }a=1,··· ,n , sea dual
P
n Pn
a {e0a }a=1,··· ,n . Se sigue que e0a = Λba eb y e0a = Λab eb donde Λba y Λab son
b=1 b=1
coeficientes de matrices no singulares
¿ n n × n.n Por laÀdualidad de las bases, se sigue
b
b ® 0b 0 ® P b c P d P
n Pn
b d c
P
n
que δa = e , ea = e , ea = Λc e , Λa ed Λc Λa δd = Λbc Λca . Es
c=1 d=1 c=1d=1 c=1
P
n
decir Λbc Λca = δab , por lo que Λbc y Λca son una la inversa de otra como matrices.
c=1
Ahora escribimos un tensor Tsr en términos de estas bases, esto es
n
X
T = Tb0a1 ···b
1 ···ar 0
s
ea1 ⊗ · · · ⊗ e0ar ⊗ e0b1 ⊗ · · · ⊗ e0bs
a1 ···bs =1
X n n
X n
X
= Tb0a1 ···b
1 ···ar
s
Λca11 ec1 ⊗ · · · ⊗ Λcarr ecr
a1 ···bs =1 c1 =1 cr =1
X n n
X
⊗ Λbd11 ed1 ⊗ · · · ⊗ Λbdss eds
d1 =1 ds =1
X n Xn n
X n
X n
X
= ··· ··· Λca11 · · · Λcarr Λbd11 · · · Λbdss Tb0a1 ···b
1 ···ar
s
e c1
a1 ···bs =1 c1 =1 cr =1d1 =1 ds =1
⊗ · · · ⊗ ecr ⊗ e ⊗ · · · ⊗ eds
dr
X n
= Tdc11···d
···cr
s
ec1 ⊗ · · · ⊗ ecr ⊗ edr ⊗ · · · ⊗ eds
c1 ···ds =1
1. TENSORES 45
¤
Comentario 11. Note que en cada caso se tiene que
¡ ¢
Tb0a1 ···b
1 ···ar
s
= T e0a1 , · · · , e0ar , e0b1 , · · · , e0bs
y
Tdc11···d
···cr
s
= T (ec1 , · · · ecr , ed1 , · · · , eds ) .
Es decir, debido al cambio de base las componentes del tensor cambiaron,
pero el tensor mismo se quedo inalterado. Es en este sentido que los tensores son
invariantes ante cambios de base y por tanto de coordenadas. En ciencias fı́sicas
este hecho se usa continuamente. Una operación también muy usada en ciencias
fı́sicas es la contracción de tensores. A partir de uno o varios tensores, se contruye
otro usando la contracción. Vamos a definirla.
Definición 56. Sea T ∈ Tsr en un espacio vectorial V . La contracción C11 (T )
de un tensor en las bases duales {ea }{ea } es un tensor (r − 1, s − 1) tal que las
P
n
aa2 ...ar P
n Pn
aa2 ...ar
componentes de C11 (T ) son Tab2 ···bs
, i.e. C11 (T ) = Tab 2 ···bs
a=1 a=1 a2 ···ar b2 ···bs =1
eas ⊗ · · · ⊗ ear ⊗ eb2 ⊗ · · · ⊗ ebs
Proposición 44. La contracción es independiente de las bases.
Proof. Sean {ea }{ea } y {e0a }{e0a } bases duales de V . Entonces
n
X n
X
0aa2 ...ar 0
C101 (T ) = Tab2 ···bs
eas ⊗ · · · ⊗ e0ar ⊗ e0b2 ⊗ · · · ⊗ e0bs
a=1a2 ···ar b2 ···bs =1
Xn X n X n n
X n
X
= ··· ··· Λca22 · · · ∧carr ∧bd22 · · · ∧bdss 0a...ar
Ta···b s
ecs
a1 =1 ar =1b1 =1 bs =1 a=1
d2 ds
⊗ · · · ⊗ e cr ⊗ e ⊗ · · · ⊗ e
Xn X n n
X
= δdc11 Tdc11dc22···d
...cr
s
ecs ⊗ · · · ⊗ ecr ⊗ ed2 ⊗ · · · ⊗ eds
c1 =1d1 =1 c2 ···cr d2 ···ss =1
= C101 (T )
¤
De la misma forma se pueden definir las contracciones de los demás ı́ndices.
Suele llamarse a los ı́ndices superiores de un tensor ı́ndices covariantes y a los
inferiores, ı́ndices contravariantes. Ası́ la contracción queda definida entre
ı́ndices covariantes con indices contravariantes.
Notación 17. Del mismo modo, se suele llamar a los vectores ea vectores
covariantes o uno-formas y a los ea vectores contravariantes o simplemente
vectores.
En lo que sigue vamos a dar algunos ejemplos simples de tensores usados en
fı́sica.
46 3. TENSORES Y P-FORMAS
el cual define una métrica en la variedad, a traves del producto escalar entre vec-
tores. Mas adelante daremos los detalles de esta tensor, por el momento vamos a
discutir dos ejemplos simples. Primero tomemos las componentes gij = δij i, j =
1, 2, 3, y con las componentes con subindice 0 igual a cero. Lo que se obtiene es
una métrica Euclidiana, esta es:
g = dx ⊗ dx + dy ⊗ dy + dz ⊗ dz
∂ ∂ ∂ ∂
Tomemos el vector X = 2 ∂x − ∂y y el vector Y = − ∂x + 2 ∂z . El producto interno
entre X y Y esta dado por:
g(X, Y ) = dx(X) ⊗ dx(Y ) + dy(X) ⊗ dy(Y ) + dz(X) ⊗ dz(Y )
= 2 · (−1) + (−1) · 0 + 0 · 2 = −2
Mientras que la norma de los vectores es
g(X, X) = dx(X) ⊗ dx(X) + dy(X) ⊗ dy(X) + dz(X) ⊗ dz(X) = 5 = ||X||2
g(Y, Y ) = dx(Y ) ⊗ dx(Y ) + dy(Y ) ⊗ dy(Y ) + dz(Y ) ⊗ dz(Y ) = 5 = ||Y ||2
La norma de los vectores siempre va a ser positiva. La distancia entre estos vectores
∂ ∂ ∂
será (X − Y = ∂x − ∂y + 2 ∂z )
g(X − Y, X − Y ) =
= dx(X − Y ) ⊗ dx(X − Y ) + dy(X − Y ) ⊗ dy(X − Y ) + dz(X − Y ) ⊗ dz(X − Y )
= ||X − Y ||2 = 1 + 1 + 4 = 6
Un ejemplo mas interesante es la métrica de Minkowski, esta esta definida por
g = dx ⊗ dx + dy ⊗ dy + dz ⊗ dz − dt ⊗ dt
∂ ∂ ∂ ∂
Tomemos ahora los vectores X = ∂x − ∂t yY = ∂x + ∂t . El producto interno entre
X y Y ahora esta dado por:
g(X, Y ) = dx(X) ⊗ dx(Y ) + dy(X) ⊗ dy(Y ) + dz(X) ⊗ dz(Y ) − dt(X) ⊗ dt(Y )
= 1+1=2
2. P-FORMAS 47
2. p-Formas
En esta sección hablaremos de las p-formas. Las formas son productos tenso-
riales de uno-formas antisimetrizados. Su importancia también viene de la fı́sica y
de las ciencias naturales. Con las p-formas es posible hacer oparaciones con mucha
mas sincillez y en muchos casos, las cantidades que se estudian adquieren un sig-
nificado mas claro y presiso. En esta sección daremos algunos ejemplos en la fı́sica,
con aplicaciones directas a la ingenierı́a. Vamos primero a definir las p-formas.
Definición 57. Sea V ∗ el conjunto de uno-formas. Al conjunto de tensores
(0, p) antisimétricos en cada entrada se llama p-formas.
Vamos a ser mas explı́citos, sean w1 , w2 , w3 ∈ V ∗ , entonces las p-formas se
contruyen como en los ejemplos siguientes.
¡ ¢
Exemplo 40. Una dos-forma se escribe como w = 21 w1 ⊗ w2 − w2 ⊗ w1
Exemplo 41. Una tres-forma w = 16 (w1 ⊗w2 ⊗w3 +w3 ⊗w1 ⊗w2 +w2 ⊗w3 ⊗w1
−w ⊗ w2 ⊗ w1 −w1 ⊗ w3 ⊗ w2 − w2 ⊗ w1 ⊗ w3 ), etc.
3
n
X 1 a1
w= wa1 a2 ea1 ∧ ea2 donde ea1 ∧ ea2 = (e ⊗ ea2 − ea2 ⊗ ea1 )
a1 a2 =1
2
n
X 1X [P ]
w= wa1 a2 a3 ea1 ∧ea2 ∧ea3 donde ea1 ∧ea2 ∧ea3 = (−1) ea1 ⊗ea2 ⊗ea3
a1 a2 a3 =1
6
[P ]
donde
µ ¶[P ] significa permutación de (a1 , a2, a3 ). De esta forma, se pueden construir
n
p-formas en un espacio V ∗ n-dimensional. Al conjunto de las p-formas se
p
denota como ∧p .
Proposición 45. Toda (n+k)-forma en un espacio n-dimensional es idénticamente
cero, para k > 1.
Proof. Sean V ∗ un espacio n-dimensional y α ∈ V ∗ una n+1 forma. Entonces
α = αai ···aj ak ···an+1 eai ∧ · · · ∧ eaj ∧ eak ∧ · · · ∧ ean+1 pero algún kj se repite. Ası́
que intercambiándolos α = −αai ···aj ak ···an+1 eai ∧ · · · ∧ eak ∧ eaj ∧ · · · ∧ ean+1 = −α
por lo tanto α = 0. ¤
w1,y dy ∧ dx + w2,x dx ∧ dy. La aplicación del teorema de Stokes en este espacio nos
da Z Z
dw = w.
M ∂M
Exemplo 48. En <3 podemos definir 0-, 1-, 2- y 3-formas. Sea w una 1-
forma en <3 , su diferencial esta dada por dw = d (w1 dx + w2 dy + w3 dz). Vamos a
escribir esta diferencial explicitamente, veamos
dw = w1,y dy ∧ dx + w1,z dz ∧ dx
+w2,x dx ∧ dy + w2,z dz ∧ dy
+w3,x dx ∧ dy + w3,y dy ∧ dz
= (w2,x − w1,y ) dx ∧ dy
+ (w3,x − w1,z ) dx ∧ dz
+ (w3,y − w2,z ) dy ∧ dz
1
= (wi,j − wj,i ) dxi ∧ dxj
2
1
= ²ijk Bk dxi ∧ dxj
2
Si denotamos −
w = (w1 , w2 , w3 ), obtenemos que −
→ B =rot −
→ w , siendo →
→ B = (B1 , B2 , B3 ) .
−
56 3. TENSORES Y P-FORMAS
R R
La aplicación del teorema de Stokes dw = w implica que
M ∂M
Z Z Z I
rot −
w · d−
→ S =
→ B · d→
−
→ S =
− w · d→
−
→ x =
− w · d−
→
− x
→
M M ∂M
donde hemos usado el vector d− →S = (dy ∧ dz, −dx ∧ dz, dx ∧ dy). Esta es la fórmula
del flujo magnético sobre una superficie o ley de Gauss.
Vamos a dar algunos ejemplos utilizando parte del material desarrollado hasta
ahora.
Exemplo 49. Vamos a iniciar de nuevo con el tensor electromagnético del
ejemplo 37. Sea de nuevo el tensor A = Aµ dxµ + dΛ. Tomemos su diferencial
F = dA = Aµ,ν dxν ∧ dxµ , ya que ddΛ = 0. Debido a la antisimetria del operador
∧, el nuevo tensor F es antisimétrico, es el tensor de Faraday. En componentes
este tensor se escribe como F = Fµν dxν ∧ dxµ , donde las componentes Fµν estan
dadas por
0 Ax,t − At,x Ay,t − At,y Az,t − At,z
1 − (Ax,t − At,x ) 0 Ay,x − Ax,y Az,x − Ax,z
Fµν =
2 − (Ay,t − At,y ) − (Ay,x − Ax,y ) 0 Az,y − Ay,z
− (Az,t − At,z ) − (Az,x − Ax,z ) − (Az,y − Ay,z ) 0
Por lo general también se escriben las componentes del tensor de Faraday en
términos de las componentes del campo eléctrico y magnético como
0 −Ex −Ey −Ez
1 Ex 0 Bz −By
Fµν =
2 Ey −Bz 0 Bx
Ez By −Bx 0
Ası́ que F = −Ei dxi ∧dt+²ijk B i dxj ∧dxk = − (Ex dx ∧ dt + Ey dy ∧ dt + Ez dz ∧ dt)+
Bx dy ∧ dz − By dx ∧ dz + Bz dx ∧ dy. Comparando las componentes de las matrices,
se puede ver que
∂−
A
→
−→
E
− = + ∇Φ
∂t
B
→
− = ∇×→A
−
donde claramente se ha definido el vector − →A = (Ax , Ay , Az ), y dos vectores mas, el
vector eléctrico −
E = (Ex , Ey , Ez ) y el vector magnético −
→ B = (Bx , By , Bz ), de tal
→ ³ ´
forma que las componentes del tensor electromagnético son Aµ = −Φ, − → . Como
A
se sigue que dF = ddA = 0, esto implica que ∗dF = 0. Usando el resultado del
ejercicio 45 se tiene que
∂
E · d−
∗dF = ∇ × →
−
→
x +∇·−
B dt + −
→ B · d−
→
x =0
∂t →
Esta identidad implica que
∂
∇×−
E+
→ B = 0
∂t −
→
∇·−B = 0
→
3. DIFERENCIACIÓN E INTEGRACIÓN EN VARIEDADES 57
las cuales son la ecuación de Faraday y la ecuación de Gauss para el campo magnético,
respectivamente. Análogamente, se puede obtener una expresión para δF . Para
esto, vamos a obtener primero ∗F
∗F = Bx dx ∧ dt + By dy ∧ dt + Bz dz ∧ dt − (Ex dy ∧ dz − Ey dx ∧ dz + Ez dx ∧ dy)
dF = 0
(3.1) δF = −4πJ
donde J = ρdt + j · d−
→
x
→
−
Ejercicio 29. Muestre que la norma de Lorentz se puede representar como
δA = 0
δF = − ∗ d ∗ F = − ∗ d (A1± ,2 −A2± ,1 )
¡ ¢
= − ∗ A1± ,21 dx1± + A1± ,22 dx2± − A2± ,11 dx1± − A2± ,12 dx2±
£ ¤
= − ∗ − (A2± ,22 +A2± ,11 ) dx1± + (A1± ,22 +A1± ,11 ) dx2±
= (A1± ,11 +A1± ,22 ) dx1± + (A2± ,11 +A2± ,22 ) dx2±
donde ya hemos usado la norma de Lorentz para simplificar las ecuaciones. Una
solución de las ecuaciones de Maxwell en el vacio δF = 0 sobre la esfera es:
donde A0 es una constante. Observe que x1± = r1 ◦ σ± (p) = x/(1 ∓ z) and x2± =
r2 ◦ σ± (p) = y/(1 ∓ z). La solución entoces es
¡ ¢ A0 A0
A± = A0 x2± dx1± − x1± dx2± = 2 (ydx − xdy) ∓ 3 (xy − yx) dz
(1 ∓ z) (1 ∓ z)
Si ahora cambiamos las coordenadas a coordenadas esféricas 4.1, las cuales son mas
convenientes para analizar este caso, se obtiene:
A0 (∓1 − cos(θ))
A± = (ydx − xdy) = A0 dϕ
(1 ∓ z)2 (±1 − cos(θ))
1 − cos(θ)
A+ = −A0 dϕ
1 + cos(θ)
1 + cos(θ)
A− = −A0 dϕ
1 − cos(θ)
la cual es una solución a las ecuaciones de Maxwell en el vacio sobre la pelota.
Exemplo 51. Vamos a tomar alguna solución con fuentes. Supongamos que
tenemos un tensor de corrientes dado por
x1 x2
J= dx1 + dx2
(x 12 +x22 + 1)3 (x 12 + x2 2 + 1)3
(vamos a quitar en este ejemplo los subindices ± por comodidad). Igualando la
ecualción δF = −4πJ se llega a un sistema de ecuaciones
−4πx1
A1 ,11 +A1 ,22 =
(x1 2 + x2 2 + 1)3
−4πx2
A2 ,11 +A2 ,22 =
(x1 2 + x2 2 + 1)3
Este sistema tiene una solución dada por
πx1
A1 =
2(x1 2 + x2 2 + 1)
πx2
A2 =
2(x1 2 + x2 2 + 1)
3. DIFERENCIACIÓN E INTEGRACIÓN EN VARIEDADES 59
· ¡ ¢
a tomar una función muy particular, sea f = xi , entonces se tiene que γ xi =
¡ d ¯ ¢ ¡ i¢ ¯ ¡ i ¢ ¡ i ¢ ¯ ¡ i¢ ¡ ¢
dγ dt ¯ x = dt d¯
x ◦ γ = dt d j
x ◦ γ (s) = Xγ(s) ∂ ¯
= Xγ(s) xi =
∂xj γ(s) x
¡ j¢ s s
X x (γ (s)).
d
¡ i ¢ ¡ ¢
Ası́ es que se cumple dt x ◦ γ = X xj ◦ γ. Esto quiere decir que, dado
un vector X en la variedad, para encontrar una curva integral, hay que resolver el
sistema de ecuaciones diferenciales
d ¡ i ¢ ¡ ¢
(3.2) x ◦ γ = X xi ◦ γ
dt
.
Exemplo 52. Vamos a encontra la curva integral del vector
∂ ∂
X = x2 1 − x1 2
∂x ∂x
Entonces, de la ecuación (3.2), las ecuaciones a resolver son (recuerden que r1 =
x1 ◦ γ, r2 = x2 ◦ γ)
dr1
= X(x1 ) ◦ γ = r2
dt
dr2
= X(x2 ) ◦ γ = −r1
dt
Una solución a este sistema es r1 = r sin(t), r2 = r cos(t). Es fácil ver que la curva
2 2
integral es un cı́rculo de radio r, ya que r1 + r2 = r2
Exemplo 53. Veamos ahora la curva integral del vector del ejemplo 36
µ ¶
∂ sin(ϕ) ∂
X = (cos(θ) − 1) cos(ϕ) +
∂θ sin(θ) ∂ϕ
Entonces, de la ecuación (3.2), las ecuaciones a resolver son
dr1 ¡ ¢
= X(θ) ◦ γ = cos(r1 ) − 1 cos(r2 )
dt
dr2 ¡ ¢ sin(r2 )
= X(ϕ) ◦ γ = cos(r1 ) − 1
dt sin(r1 )
Si dividimos la primera ecuación entre la segunda y separamos las variables, podemos
integrar este sistema de ecuaciones. El resultado es que (csc(r1 ) − cot(r1 )) =
3. DIFERENCIACIÓN E INTEGRACIÓN EN VARIEDADES 61
c sin(r2 ). Una parametrización de esta curva esta dada por r1 = λ, r2 = 1/c arcsin(csc(λ)−
cot(λ)). La curva es graficada en la figura 4
Figure 4. Curva integral del vector del ejemplo 53. Como este
vector corresponde a uno de los vectores base de la pelota, esta
curva esta sobre la pelota y hay que imaginarsela dando vuelta
alrededor de ella y con los extremos que se juntan.
tal que
4. DERIVADA DE LIE Y DERIVADA COVARIANTE 63
∇eb ea = Γcab ec ∈ T M n
donde los coeficientes Γcab son funciones
© ª suaves, ver figura 5, que se obtienen del
producto Γcab = hec , ∇eb ea i, donde eb b=1,··· ,n es la base dual a {ea }a=1,··· ,n , es
decir eb = ebj dxj y se cumple que
¿ À
b ® ∂
(4.1) e , ea = ebj eja dxj , j = δab .
∂x
De hecho, definir la conexión es equivalente a dar los valores de las funciones Γcab
sobre la variedad. Para una base coordenada, los coeficientes de la conexión son
∂ ∂
∇ ∂j i
= Γkij k
∂x ∂x ∂x
nosotros vamos a tomar siempre conexiones simétricas, es decir, para las bases
coordenadas se cumple que
Γkij = Γkji
Ejercicio 31. Estudiar como se comportan los coeficientes Γcab bajo un cambio
de base (de coordenadas).
Conociendo la conexión en la variedad, se puede conocer la derivada covariante
de un vector. La forma de hacerlos se ve en la siguiente proposición.
Proposición 53. Las componentes de la derivada covariante del vector Y a lo
largo del vector X, se ven como
³ ´
∇X Y = Y|ba X b ea
∂
X = sin(θ)
∂ϕ
cuya curva integral es un desplazamiento sólo en la dirección ϕ y esta dada por la
parametrización θ = θ0 constante y ϕ = θ0 t. Entonces encontremos el desplaza-
miento paralelo de un vector en M a lo largo de este vector, obtenemos
¡ ¢
d Yθ ◦γ
0 = + Γθθθ X θ Y θ ◦ γ + Γθϕϕ X ϕ Y ϕ ◦ γ
dt
dy 1
= + sin2 (θ0 )y 2
dt
d (Y ϕ ◦ γ)
0 = + Γϕ θ ϕ ϕ
θϕ X Y ◦ γ + Γϕθ X Y ◦ γ
ϕ θ
dt
dy 2
= − y1
dt
Para obtener el desplazamiento paralelo de Y , hay que resolver este sistema de ecua-
ciones con las condiciones iniciales correspondientes al punto inicial. La solución
del sistema esta dada por
y 1 (t) = C1 sin (sin (θ0 ) t) + C2 cos (sin (θ0 ) t)
C2 C1
y 2 (t) = sin (sin (θ0 ) t) − cos (sin (θ0 ) t)
sin (θ0 ) sin (θ0 )
Dado el valor inicial de y 1 y y 2 , se fijan las constantes y se puede encontrar el
vector desplazado paralelamente en otro punto, para algún valor de t.
De la misma forma podemos calcular la derivada covariante de una 1-forma,
dado que ya conocemos la conexión en la variedad. Esto se ve en la proposición
siguiente.
Proposición 54. Sea ∇ conexión en M n . Si ∇eb ea = Γcab ec entonces ∇eb ea =
−Γacb ec .
Proof. Sea Y = Y a ea ∈ T M n y w = wc ec ∈ T ∗ M n . Usemos el hecho que ∇
y por lo tanto ∇eb son derivaciones, entonces
∇eb (wc Y c ) = wc|b Y c + wc Y|bc Y como wc Y c es una función, se tiene:
= eb (wc ) Y c + wc eb (Y c ) Por otro lado, se sigue que:
= (eb (wc ) − Γcb wa ) Y + wa (eb (Y a ) + Γacb Y c )
a c
Existe una relación entre todas los operadores diferenciales que hemos definido,
la diferencial de p-formas, la derivada de Lie y la derivada covariante. Entre la
diferencial de p-formas y la derivada covariante la relación es que la diferencial se
puede facilmente generalizar a espacios con conexión¡ ∇. La ¢diferencial exterior,
definición 60, en espacios con conexión es dw = ∇ ∂ j wi1 ,··· ,ip ∧ dxi1 ∧ · · · ∧ dxip ,
∂x
que, por ejemplo, para una 1-forma w = wi dxi se obtiene dw = ∇ ∂ (wi )dxi =
∂xj
(wi,j − Γkij wk )dxi ∧ dxj . Todas las proposiciones y teoremas que se aplican a la
derivada exterior se siguen igualmente con la definición extendida. Por lo general,
los coeficientes de conexón en un sistema coordenado {dxi } son simétricos, es decir
Γkij = Γkji , en tal caso la definición anterior es exactamente la definición 60.
La relación entre la derivada de Lie y la derivada covariante, la cual daremos
sin demostración, se sigue de la siguiente proposicón.
Proposición 55. Sea T = Tab11···a ···br
e ⊗· · ·⊗ebr ⊗ea1 ⊗· · ·⊗eas tensor. Entonces
s b1
la derivada de Lie a lo largo del vector X = X c ec de este tensor esta dada por
Xr s
X
c b1 ···br b1 ···c···br bn
(4.2) LX Tab11···a
···br
s
= X Ta1 ···as |c − Ta1 ···as X|c + Tab11···c···a
···br
s
c
X|a m
n=1 m=1
∂ i i
Si {ej } = { ∂x j }, {e } = {dx } son bases coordenadas, entoces solo hay que cambiar
i
el simbolo | por ; y Djk = 0 generalmente.
Exemplo 57. Ahora vamos a buscar la derivada de Lie a lo largo del vector
X = X c ec de un tensor T = Tab ea ⊗ eb . De nuevo, usando la fórmula (4.2) se tiene
LX Tab = X c Tab|c + Tcb X|a
c c
+ Tac X|b
Este resultado lo usaremos mas adelante.
El interes de la derivada de Lie radica en lo siguiente. Supongamos que ϕ es
una isometria (ver capitulo 9 definición ??). Es decir, esta función deja invariate
la métrica ρ ◦ ϕ(X, Y ) = ρ(ϕ(X), ϕ(Y )) = ρ(X, Y ). La presencia de isometrias
4. DERIVADA DE LIE Y DERIVADA COVARIANTE 67
diferencial
LX gij = X k gij;k + gkj X;ik + gik X;jk = 0
donde la mı́etrica esta dada como g = gij dxi ⊗ dxj .
Proof. Por sustitución directa en el ejercicio 57 ¤
Comentario 14. Mas adelante veremos que una métrica es compatible con la
conexión si su derivada covariante es cero, es decir, ∇g = 0. Para estas métricas,
las que mas nos interesan a nosotros, la ecuación anterior se reduce a
Xj;i + Xi;j = 0
donde hemos definido Xk;i = gkj X;ik . A esta ecuación se le llama la ecuación de
Killing
Existen varias propiedades de los tensores cuando se les aplican los operadores
diferenciales que hemos visto. En lo que sigue, vamos a deducir solo algunas de las
propiedades mas importantes. Vamos a iniciar con la siguiente proposición.
Proposición 57. Sean {ea = eai dxi } 1-formas base del espacio cotangente
T M y ∇ la derivada covariante en M , tal que Γabc es su conexión asociada. En-
∗
Γab = Γabc ec
Para terminar esta sección, vamos a definir las curvas geodésicas. Una curva
geodésica es aquella que transporta paralelamente su vector tangente. Es decir:
dX i ◦ γ d2 r i j
i dr dr
k
(4.3) + Γijk X j X k ◦ γ = + Γjk =0
dt dt2 dt dt
donde hemos usado la fórmula dri /dt = X i ◦ γ de la curva integral de X.
donde hemos definido la cantidad gij = gab wia wjb . En ocaciones se acostumba
designar por el simbolo ds2 a la métrica, es decir ds2 = gij dxi ⊗ dxj . Ahora vamos
a definir la métrica compatible con la conexión.
para todo vector ec , donde hemos utilizado el resultado del ejercicio 32 y hemos
definido la cantidad Γabc = gad Γdbc .
se tiene que
−gij,k + Γjik + Γijk = 0
gki,j − Γikj − Γkij = 0
gkj,i − Γjki − Γkji = 0
Si sumamos estas tres ecuaciones, obtenemos
1
Γkij = (gki,j + gkj,i − gij,k )
2
ya que Γkij es simétrica en los indices ij. Asi mismo podemos definir análogamente
los coeficientes de conexión
1 kl
Γkij = g (gli,j + glj,i − gij,l )
2
donde g kl es la matriz inversa a gij , es decir g kl glj = δjk . ¤
Claramente hemos usado las bases duales {ea } y {eb }. Para escribir los coeficientes
Γabc en terminos de los Γijk , se usan las relaciones de dualidad eia ebi = δba y eib ebj = δji ,
de donde obtenemos
Γabc = eai Γijk ejb ekc
Ahora vamos a introducir la dos forma de curvatura. La curvatura se define en
un espacio con conexión, no necesariamente con métrica. Formalmente su definición
es
Definición 77. Sea M n variedad y ∇ una conexión en M n . Entonces la dos
forma de curvatura o segunda forma fundamental de Cartan, se define
como
Θab = dΓab + Γac ∧ Γcb
En término de sus componentes, podemos escribir a la dos forma de curvatura
como ciertos coeficientes por la base de las 2-formas, es decir
1 a c
Θab = R e ∧ ed
2 bcd
donde claramente {ea } es una base de T ∗ M n . A las componentes Rbcd
a
se les conoce
como tensor de curvatura, ya que a su vez son las componentes de un tensor que
a
se puede escribir como R = Rbcd ea ⊗ eb ⊗ ec ⊗ ed . También podemos obtener las
72 3. TENSORES Y P-FORMAS
Proof. La demostración es por cálculo directo, se tiene que wi;j = wi,j −Γlij wl ,
entonces se sigue
¡ ¢ ¡ ¢ ¡ ¢
wi;j;k = wi,j − Γlij wl ,k − Γnik wn,j − Γlnj wl − Γnjk wi,n − Γlin wl
∂
Ejercicio 33. Sea M n variedad y X = X i ∂x i . Demuestre que
i i i
X;j;k − X;k;j = −Rljk Xl
n n
wi;j;k;l − wi;k;j;l = Rijk;l wn + Rijk wn;l
n n
wi;k;l;j − wi;l;k;j = Rikl;j wn + Rikl wn;j
n n
wi;l;j;k − wi;j;l;k = Rilj;k wn + Rilj wn;k
y restamos las 3 identidades de arriba menos los 3 identidades de abajo, se obtiene
¡ n n n
¢ ¡ n n n
¢
0 = Rljk + Rklj + Rjkl wi;n − Rijk;l + Rikl;j + Rilj;k wn
pero lo que esta entre el primer paréntesis es cero, por la relación (5.2) que enco-
tramos anteriormente, asi que se sigue lo que buscamos. ¤
Notación 23. A las relaciones anteriores se les llama las Identidades de
Bianchi.
Resumen 1. Vamos a resumir las identidades salidas del tensor de curvatura.
i i
1.− Rjkl = −Rjlk
n n n
2.− Rljk + Rklj + Rjkl =0
n n n
3.− Rijk;l + Rikl;j + Rilj;k Identidades de Bianchi
4.− Rmnjk = −Rnmjk Conexiones Compatibles con la métrica
(xdx + ydy)2
dz 2 =
a2 − (x2 + y 2 )
obtenemos
(xdx + ydy)2
dlS2 2 = dx2 + dy 2 +
a2 − (x2 + y 2 )
Ahora bien, podemos usar coordenadas polares x = R cos(θ), y = R sin(θ) en la
métrica, para obtener
a2 dR2
dlS2 2 = R2 dθ2 + 2
a − R2
Conviene escribir la métrica de la pelota en términos del cociente r = R/a, entonces
la métrica se ve como
· ¸
dr2
dlS2 2 = a2 + r 2
dθ 2
1 − r2
Para finalizar este ejemplo, vamos a escribir la métrica del espacio <3 en términos
de las coordenadas esféricas 4.1 (vamos a cambiar la r de la definición 4.1 por a,
para denotar el radio de la esfera), se obtiene
¡ ¢
2
dl< 2 2
3 = dx + dy + dz
2
= da2 + a2 dθ2 + sin2 (θ)dϕ2
la cual es la métrica euclidiana, pero ahora escrita en coordenadas esféricas. Si
limitamos esta métrica a la pelota, es decir, si hacemos a =constante, obtenemos
¡ ¢
dlS2 2 = a2 dθ2 + sin2 (θ)dϕ2 = a2 dΩ2
que es la métrica de la pelota pero en coordenadas esféricas. Hay que comparala con
la anterior forma que esta en coordenadas polares y con la métrica que se obtiene
si g = dw1 ⊗ dw1 + dw2 ⊗ dw2 , usando las formas de la pelota definidas en 4.2 en
el ejemplo 36. Esta comparación es la que justifica el uso de la notación de este
ejemplo.
Ahora vamos a calcular la conexión y la curvatura. Primero lo haremos usando
la base coordenada. Usando las formulas del resumen 2, se obtiene
· ¸
2 2 dr2 2 2
dlS 2 = a + r dθ
1 − r2
r 1
Γrrr = Γrθθ = −r(1 − r2 ) sin2 (θ), Γθθθ = cot(θ), Γθrθ =
1 − r2 r
1
θ
Rrrθ = − , Rθrθr
= r2 sin2 (θ)
1 − r2
y todas las demas componentes igual a cero. También podemos calcular estas can-
tidades de la métrica en coodenadas esféricas, se obtiene
¡ ¢
dlS2 2 = a2 dθ2 + sin2 (θ)dϕ2
Γϕ
θϕ = cot(θ), Γθϕϕ = − sin(θ) cos(θ)
ϕ
θ
Rϕθϕ = sin2 (θ), Rθθϕ = −1
76 3. TENSORES Y P-FORMAS
Exemplo 60. Sea M 4 una variedad con métrica de signatura Lorenziana dada
por g = ηab wa ⊗ wb , ηab = diag(1, 1, 1, 1 − 1), donde la tetrada esta dada por
t t
w1 = √ dx, w2 = √ dy, x > 0
x x x x
r r r
3x 2 2
w3 = dz + 4
dt, w = dt
2 3x 3x
Lo primero que hay que notar, es que se debe cumplir la relación 5.1, es decir,
dηab = Γab + Γba = 0, entonces la conexión es antisimétrica en los indices ab.
Recordemos que Γab = ηad Γdb . Vamos a calcular la conexión utilizando las formulas
1 y 2 del resumen 2. Para esto encontremos primero la diferencial de la tetrada,
esta es
3
dw1 = x−3/2 dt ∧ dx, dw2 = − x−5/2 t dx ∧ dy + x−3/2 dt ∧ dy,
Ãr 2 !
r r
1 3 −1/2 2 −3/2 1 2 −3/2
dw3 = x dx ∧ dz − x dx ∧ dt 4
dw = − x dx ∧ dt
2 2 3 2 3
√ 3√ 1√
dw1 = 6x w4 ∧ w1 , dw2 = −
x w1 ∧ w2 + 6x w4 ∧ w2
2 t
1√ √ √
dw3 = x w1 ∧ w3 − 2 x w1 ∧ w4 , dw4 = − x w1 ∧ w4
2
de curvatura, obtenemos,
1
Θ14 = − x w1 ∧ w4
2 õ !
¶ √
3 6 6
Θ21 = x w2 ∧ − + w1 + w4
4 t t
Ãr µ ¶ µ ¶ !
3 1 2 1
Θ24 = xw ∧2 1
−3 w −3 2 + w 4
2 t t 2
1 ¡ ¢
Θ31 = − x w1 ∧ w3 − 2 w4
4Ã !
r
3 1 √ 1 3
Θ34 = x − 3 1
w ∧w + 6 w ∧w + w ∧w 4 4
2 2
HACES FIBRADOS
1. Haces
Los haces fibrados son unos de las estructruras matemáticas mas fascinantes
que hay. Son la generalización del producto cartesiano entre espacios topológicos.
Ya sabemos que el producto cartesino de dos espacios topológicos es un espacio
topológico. Los haces son productos cartesianos de espacios topologicos localmente,
aunque no necesariamente el espacio resultante, el haz, es un porducto cartesiano.
El ejemplo mas simple es la cinta de Möbius. Localmente se puede ver como
producto cartesiano de la recta con el cı́rculo, pero globalmente, es decir, toda la
cinta no es un producto cartesiano. Vamos a iniciar este capitulo con la definición
de haz, luego vamos a introducir el concepto de haz fibrado.
Definición 79. Un haz es una terna ξ = (E, B, π) donde E y B son espacios
topológicos y π : E → B es una función contı́nua y sobre. Se llama:
· A E espacio total,
· A B espacio base y
· A π la proyección.
La representación gráfica de los haces es como sigue
E
π ↓
B
Notación 25. Si b ∈ B, Fb (ζ) = π −1 ({b}) se le llama la fibra sobre b.
Comentario 16. Observe que si b = 6 b0 , entonces Fb ∩ Fb0 = φ, por eso E =
∪ Fb (ξ), el espacio total es la unión de las fibras disjuntas de B. (Fb , τFb ), con
b∈B
τFb = {Fb ∩ U }U ∈τE es un subespacio topológico de (E, τE ).
Entre los haces existe también el concepto de isomorfismo, se puede clasificar
a los haces usando los isomorfismos entre haces, dos de estos son el mismo, si son
isomórficos.
Definición 80. Dos haces ξ = (E, B, π) y ξ 0 = (E 0 , B, π 0 ) son isomórficos
f
ξ ≡ ξ 0 , si existe f : E → E 0 homeomorfismo, tal que π 0 ◦ f = π. Gráficamente se
tiene
f
E −→ E0
π& . π0
B
Definición 81. Un haz ξ = (E, B, π) se llama trivial si existen F , espacio
ϕ
topológico y ϕ : E → B × F homeomorfismo y se cumple que ξ ' (B × F, B, π1 ).
79
80 4. HACES FIBRADOS
2. Espacios G
Los espacios topolgicos pueden tener a su vez, otras estructuras ya sea alge-
braicas o analiticas. En el capitulo anterior vimos espacios topológicos dotados
de métrica, norma y producto interno. Vamos a introducir aqui una estructura
algebraica extra dentro de un espacio toplógico, dotando al conjunto que forma
el espacio topológico con una estructura de grupo. A estos espacios se les llama
grupos topolǵicos. Su definición es la siguiente.
Definición 84. Un grupo topológico es una terna (G, ·, τg ) en donde (G, ·)
es un grupo y (G, τG ) es un espacio topológico, y se cumple que las funciones
a) ·: G × G → G, (a, b) → a · b
b) inv. : G → G, a → inv(a) = a−1
son continuas.
Hay una manera sencilla de saber si la estructura de grupo de un conjunto es
compatible con la topologia. Vamos a presentar aqui la proposición sin demostración
que nos da este criterio. Esta es:
Proposición 63. La terna (G, ·, τG ) con (G, ·) grupo y (G, τG ) espacio topológico,
es un grupo topológico ssı́ para
© toda a, b ∈ G y para ª toda Uab−1 ∈ τG existe Ua y
Ub ∈ τG tal que Ua (Ub )−1 = a · b−1 |a ∈ Ua , b ∈ Ub ⊂ Uab−1 .
Proof. Sin Dem. ¤
En lo que sigue vamos a introducir dos funciones que son de mucha utilidad
para mas adelante, pero que ahora nos ayudaran a introducir los espacios G. Estas
son las funciones de traslación. Su definición es para cualquier grupo topológico,
pero seran de gran utilidad cuando estudiemos grupos de Lie. La caracteristica mas
importante de estas fuciones es que son automorfimos del grupo topológico. Vamos
a ver esto en la siguiente proposicón.
Proposición 64. Sea (G, ·, τG ) grupo topológico y g ∈ G. Las funciones Lg :
G → G, x → Lg(x) := gx y Rg : G → G, x → Rg(x) = xg llamadas traslación
izquierda y traslación derecha por g respectivamente, son automorfismos de G.
Proof. Lg y Rg son continuas porque el producto y la inversa son continuas.
Además tienen inversa continua, ya que (Lg)−1 = Lg −1 y (Rg)−1 = Rg −1 , ie.
Lg ◦ Lg −1 (x) = Lg(g −1 x) = gg −1 x = x e igual para Rg. ¤
Habiendo definido las traslaciones en un grupo topologico, ahora podemos in-
troducir los espacios G. Los espacios G son estructuras en un espacio topológico, de
una manera sencilla, es la axión de un grupo topológico sobre un espacio topológico.
Veamos esto formalmente.
Definición 85. Un espacio G derecho es una terna (E, G, ψ), donde E es
un espacio topológico, G es un grupo topológico y ψ : E × G → E (x, g) −→ ψ(x, g)
es una función continua tal que
82 4. HACES FIBRADOS
1) ψ(x, e) = x
2) ψ (x, g1 · g2 ) = ψ (ψ(x, g1 ), g2 )
Notación 27. Es común denotar a ψ (x, g) como xg solamente.
Definición 86. Análogamente, se define un espacio G izquierdo con ϕ :
G × E → E continua tal que:
1) ϕ(e, x) = x
2) ϕ (g1 · g2 , x) = ϕ (g1 , ϕ (g2 , x))
de la misma forma, suele denotarse a ϕ(g, x) por gx. Estas funciones son
análogas a las definidas cuando vimos los grupos uniparemétricos de trasforma-
ciones, en el capitulo anterior. De la misma forma a los grupos uniparametricos, la
función ψ induce la función ψg : E → E, x → ψg (x) = ψg (x, g) que cumple con:
i) ψe (x) = x
ii) ψg1 g2 (x) = ψg1 ◦ ψg2 (x)
Se dice entonces que G actúa por la derecha sobre E ó análogamente que
actúa por la izquierda de E.
A las acciones derecha e izquierda se les puede clasificar. Una clasificación esta
dada como sigue.
Definición 87. Sea (G, E, ψ) un espacio G derecho. La acción derecha de
G sobre E se dice :
· Efectiva si ψ (x, g) = x para toda x ∈ E implica g = e
· Libre si ψ (x, g) = x para algún x ∈ E implica g = e
· Transitiva si para todo x, y ∈ E existe algún y ∈ E tal que y = Ψ (x, g)
(Análogamente se hace la misma clasificación para la acción por la izquierda)
La acción de grupos sobre espacios topológicos tiene algunas propiedades. Va-
mos a discutir algunas de las más importantes.
Proposición 65. Si la acción de G sobre E es libre entonces es efectiva.
Proof. Supongamos que la acción no es efectiva, esto implica que existe algún
g0 ∈ G, g0 6= e tal que ψ (x, g0 ) = x para toda x ∈ E y por lo tanto la acción no es
libre. ¤
ψ
E×G −→ E
h × id|G ↓ ↓h
ψ0
E0 × G −→ E0
Es decir, el diagrama anterior conmuta.
x 6= x0 ⇒ ϕ (x = s (b) g) =
µ ½ ¶ ½
0 s(b0 )g, x0 ∈
/ Fb (b0 , g)
= (b, g) =
6 ϕ x = =
s(b)g 0 x0 ∈ Fb (b, g 0 )
Además ϕ es continua, pues s lo es. Entonces ϕ es un homeomorfismo. ¤
84 4. HACES FIBRADOS
½ ¯ o
¯ →
S 2 = y ∈ <3 ¯¯ x2 + y 2 + z 2 = 1 y = (x, y, z)
→
86 4. HACES FIBRADOS
0
Las esferas pueden ser parametrizados n¯utilizando numeros
o complejos como z =
¯ 2 ¯ ¯ 2
x1 + ix2 , z 1 = x3 + ix4 , ası́ que S 3 = ¯z 0 ¯ + ¯z 1 ¯ = 1 . La proyección π : S 3 →
³ ¡ ¢ ¡ ¢ 2 2 2 2
´
S 2 , π(x1 , x2 , x3 , x4 ) = 2 x1 x3 + x2 x4 , 2 x2 x3 − x1 x4 , x1 + x2 − x3 − x4
2 2 2 2
= (x, y, z) es una proyección. Note que x2 + y 2 + z 2 = x1 + x2 + x3 + x4 = 1.
Usando la notación del ejemplo 30 tenemos que si hacemos
x + iy x1 + ix2 z0
Z = u + iv = = 3 4
= 1 y y = (x, y, z) ∈ S 2 \ {N } = UN
1−z x + ix z −
→
x + iy x3 + ix4 z1
W = u + iv = = 1 = 0 y ∈ S 2 \ {S} = US
1+z x + ix2 z →
−
y entonces Z = 1/W en US ∩ UN . Las trivializaciones locales las definimos como
φN : π −1 (US ) → Us × U (1)
µ ¶
¡ ¢ z0 z1
(z 0 , z 1 ) → φS z 0 , z 1 = ,
z 1 |z 1 |
φS : π −1 (UN ) → UN × U (1)
µ ¶
¡ 0 1¢ ¡ ¢ z1 z0
z , z → φN z 0 , z 1 = ,
z 0 |z 0 |
¯ 0¯ ¯ 1¯
En el ecuador se tiene que z = 0 y entonces ¯z ¯ = ¯z ¯ = √12 . Ahı́ se tiene que
las trivializaciones están dadas por
µ 0 ¶ µ 1 ¶
¡ ¢ z √ 1 ¡ 0 1¢ z √ 0
φN z 0 , z 1 = , 2z , φS z , z = , 2z ,
z1 z0
³ ´ 0
entonces la función de transición en el ecuador estará dada por gN S − x = zz1 =
→
x+iy ∈ U (1). En la región UN ∩US todos los puntos son equivalentes al ecuador, ası́
que U (1) será el grupo de estructura, por lo que tenemos un haz fibrado principal.
Fı́sicamente, este haz describe un monopolo de carga 1. Otros ejemplos de haces
π π
de Hopf son S 3 → S 7 → S 4 y S 7 → S 15 → S 8 , aunque en este último S 7 no es
3 ∼ π
un grupo como S = SU (2). El haz S → S 7 → S 4 puede ser interpretado como el
3
4. Haces Vectoriales
Al igual que los haces principales, los haces vectoriales son utilizados para
describir estructuras fı́sicas. Con los haces vectoriles se pueden representar los
sistemas de coordenadas de una variedad, los vectores del espacio tangente, etc. Es
por eso de su importancia. Su definición formal es como sigue.
Definición 90. Un haz vectorial de dimensión n es un haz fibrado donde
cada fibra es un espacio vectorial de dimension n. Las funciones de transición
forman el grupo GL(n, <). Ver figura 3.
Para enteder la definición, vamos a ver algunos ejemplos sencillos.
Exemplo 65. El cilindro S 1 × < es un haz vectorial trivial mientras que la
cinta de Möbius es un haz vectorial no trivial, con fibra <.
4. HACES VECTORIALES 87
Exemplo 66. Una variedad con su espacio tangente en cada punto forma un
haz vectorial llamado el haz tangente. Sea u ∈ T M = ∪ {p} × Tp M n un punto
p∈M
en la intersección Ui ∩ Uj tal que π (u) = p ∈ Ui ∩ Uj , donde {Ui } y {Uj } son
cubiertas abiertas de M n , varidad. Sean ϕi : Ui → <n y ϕj : Uj → ¡ <n los homeo-
¢
morfismos de la variedad, tal que ϕi (u) = (x1 , · · · , xn ) y ϕj (u) = y 1 , · · · , y n , son
sistemas de coordenadas en cada abierto. Un vector v sobre el espacio tangente Tp M
se puede escribir vp = vpµ = vepµ ∂y∂µ |p . Las trivializaciones locales estarán dadas por
¡ ¡ ¢¢
φi : π −1 (Ui )| → Ui × <n , u → φi (u) = p, vp1 , · · · , vpn , φj : π −1 (Uj )| → Uj × <n ,
¡ ¡ −1 ¢¢
u → φj (u) = p, vp , · · · , vpn , π (u) = p, donde hemos utilizado el isomorfismo
¡ ¢ ¡ ¢
natural iso : T M → <n , v µ ∂x∂ µ |p → iso v µ ∂x∂ µ |p = vp1 , · · · , vpN .
Las funciones v µ y veµ están relacionadas entre si por vpµ = Gµpv vep,
v
dode Gµpv ∈
GL (n, <) es una transformación lineal de espacios vectoriales. Una construcción
totalmente análoga se pude hacer con el espacio cotangente, llamada el haz cotan-
gente
³ . En ambas,
´ las secciones serán campos vectoriales v : Ui → T M , p → v(p)
µ ϕ
= p, v ϕx µ|p o campos de 1-formas w : Ui → T ∗ M , p → w (p) := (p, wµ dxµ |p )
y llamemos
(x, y)
σS (x, y, z) = = (uS , vS ) .
1+z
Ellos están relacionados por
u− v−
uN = , vN = 2 .
u2S + vS2 uS + vS2
Si escribimos uS = r cos (θ) y vS = r sin (θ), tenemos que uN = cos (θ) /r, y
vN = sin (θ) /r, entonces las trivializaciones estaran dadas por
µ ¶
∂ ∂ ¡ ¢
φN p, v 1 + u2 |p = p, vp1 , vp2 ,
∂uN ∂vN
µ ¶
∂ ∂ ¡ ¢
φS p, ve1 +ue2 |p = p, vep1 , vep2
∂uS ∂vS
con la función de transición
µ ¶
∂ (uN , vN ) 1 − cos (2θ) − sin (2θ)
gSN = = 2
∂ (uS , vS ) r sin (2θ) − cos (2θ)
Para terminar este capitulo, vamos a ver como podemos asociar a cada vector
del haz vectorial un vector de <n , de esta manera podemos trabajar con la fibra
del haz, que de hecho son vectores. Veamos esto.
Definición 91. Sea ζ = (A, B, πB , F, {Uα }) haz fibrado y η = (P, B, π, G; {Uα } , ψ)
un haz principal, ambos con la misma base y grupo de estructura. Se dice que ξ es
un haz asociado a η, si las cubiertas {Uα } de ξ y η trivializan tanto A como a P
con las mismas funciones de estructura.
Un ejemplo sencillo de la definición anterior es el siguiente.
∂
Exemplo 68. Si en el haz tangente asociamos a cada vector base ∂xµ =
µ
(0, · · · , 1, · · · , 0), lo que obtenemos es un marco de referencia para cada punto.
Este haz es llamado el haz de marcos y es un haz asociado al haz tangente o
cotangente.
CHAPTER 5
GRUPOS DE LIE
Desde el descubrimiento de las teorı́as de norma, los grupo de Lie han tomado
una relevancia en todas las areas de la fı́sica y la ingenierı́a. Ya anteriormente
se sabia que las simetrias de los problemas conducia a la existencia de grupos
actuando en espacios asociados al problema. Esta asociación esta presente también
en las teorı́as de norma, en donde un grupo de simetrı́a esta actuando sobre un
espacio asociado al problema fı́sico, en este caso esta actuando en el espacio de
isoespin. Los grupos de Lie son variedades suaves con estructura de grupo, en
analogia a los grupos topológicos. En este campitulo también vamos a introducir
algunos conceptos que vamos a necesitar para la comprención de los grupos de Lie,
como es el concepto de campos invariates por la izquierda.
en la identidad, aunque cualquier punto sea igual bueno para esto. Formalmente
tenemos.
Proposición 69. Todo campo vectorial invariante por la izquierda o derecha
es determinado por su valor en la identidad.
Proof. Sea (G, ·, A) grupo de Lie y X ∈ T G invariante por la izquierda. Se
cumple d Lg |e (Xe ) = Xg . Análogamente para Rg . ¤
De la misma forma, si un vector se puede trasladar por la acción izquierda de
ese vector en la identidad, esto implica que el vector es invariante por la izquierda.
Veamos esto.
Proposición 70. Si X ∈ T G en un grupo de Lie y se cumple que Xg =
d Lg |e (Xe ) para todo g ∈ G, esto implica que X es invariante por la izquierda
(análogamente por la derecha).
Proof. Observemos que Lgg0 = Lg ◦ Lg0 , esto implica que dLgg0 = dLg ◦
dLg0 = d Lg |g0 o más especı́ficamente d Lg |g0 (Xg0 ) = d Lg |g0 ◦ d Lg0 |e (Xe ) =
d (Lg ◦ Lg0 )|e (Xe ) = d Lgg0 |e (Xe ) = Xgg0 , esto implica que X es invariante por
la izquierda (lo mismo por la derecha). ¤
De aquı́ en adelante solo consideraremos vectores invariantes por la izquierda o
por la derecha. El espacio tangente será un espacio exclisivamente de estos vectores.
iso
Esto implica que Tα G ∼ = Tg G para todo g ∈ G . De hecho se puede demostrar
que para todo grupo de Lie, el haz tangente es un haz trivial, ya que la fibra
está formada por vectores invariantes por la izquierda, los cuales están globalmente
definidos y estos forman secciones globales en el haz.
Un resultado interesante que vamos a usar en este capitulo para definir el
álgebra de Lie, es que los parentesis de Poisson estan ϕ relacionados si los vectores
lo estan. Esto es.
Proposición 71. Sean (X, Y ) y (X 0 , Y 0 ) ∈ T M m × T N n , M m , N n var-
iedades y ϕ ∈ C ∞ (M m , N n ) tal que X, Y y X 0 , Y 0 están ϕ relacionados. Entonces
([X, X 0 ] , [Y, Y 0 ]) están ϕ-relacionados.
Proof. Sea f ∈ C ∞ (N, <). Entonces
[Y, Y 0 ] (f ) ◦ ϕ = (Y (Y 0 (f )) − Y 0 (Y (f ))) ◦ ϕ
= Y (Y 0 (f )) ◦ ϕ − Y 0 (Y (f )) ◦ ϕ = ∗,
pero se cumple que ϕ∗ ◦ Y = X ◦ ϕ∗ , entonces
∗ = ϕ∗ (Y (Y 0 (f ))) − ϕ∗ (Y 0 (Y (f ))) = ϕ∗ ◦ Y (Y 0 (f )) − ϕ∗ ◦ Y 0 (Y (f )) =
= X ◦ ϕ∗ (Y 0 (f )) − X 0 ◦ ϕ∗ (Y (f )) = X (ϕ∗ ◦ Y 0 (F )) − X 0 (ϕ∗ ◦ Y 0 (f )) =
= X (X 0 ◦ ϕ∗ (f )) − X 0 (X ◦ ϕ∗ (f )) = [X, X 0 ] (f ) ◦ ϕ,
entonces [X, X 0 ] está ϕ relacionado con [Y, Y 0 ]. ¤
Es decir, si nos limitamos a los vectores del espacio tangente que son ϕ rela-
cionados por la acción izquierda, podemos tener una estructura de álgebra en el
espacio tangente del grupo de Lie. A esta álgebra se le conoce como el álgebra
de Lie del grupo de Lie. Es decir, en un grupo de Lie, el subespacio del espacio
tangente de los vectores asociados por la acción izquieda forman el álgebra de Lie
asociada al grupo. Veamos esto formalmente.
2. LA FUNCIÓN EXPONENCIAL 91
2. La Función Exponencial
En esta sección vamos a introducir la función exponencial. Esta función mapea
elementos del álgebra de Lia al grupo de Lie correspondiente. Sus propiedades nos
recuerdan a la función exponencial en <, por eso su nombre. Para poder definir
esta función, primero tenemos que introducir algunos conceptos y adaptar conceptos
conocidos a los grupos de Lie. Vamos a iniciar con la introducción de un grupo
uniparametrico de transformaciones en el grupo de Lie. Para esto vamos a ver
primero una proposición que utilizaremos aqui.
Proposición 72. Sea (M n , A) variedad diferenciable y F ∈ Dif (M n ). Sea
X ∈ T M n y ψ el grupo 1-paramétrico inducido por X. Entonces X es F-invariante
ssı́ ψt ◦ F = F ◦ ψt .
Proof. Xy = ψ̇y (0), (tomando ψy (0) = y) y dF |y (Xy ) = Xy ◦ Fy∗ , donde Xy
es el vector tangente al camino ψ̇y en y y dF |y (Xg ) es el vector tangente al camino
ψF (y) = F ◦ ψy en F (g). Se tiene que F ◦ ψy (t) = F ◦ ψt (y) = F ◦ ψt ◦ F −1 (F (y))
⇒) Si X es F-invariante
XF (y) = dF |y (Xg ) , esto es ψ̇F (y) (0) = XF (y)
por lo tanto ψF (y) (f ) = ψt (F (y)) = F ◦ ψt ◦ F −1 (F (y)) , i.e.
ψt = F ◦ ψt ◦ F −1
⇐) Si
ψt = F ◦ ψt ◦ F −1 esto implica que
ψF (t) (t) = ψt (F (y))
y esto implica que ψ̇F (y) (0) = XF (y) i.e. XF (y) = dF |y (Xg )
¤
Usando la proposición anterior podemos definir la función exponencial. Su
definición es como sigue.
Definición 94. Sea G grupo de Lie y X ∈ G el álgebra correspondiente a
G. Sea ψ el grupo uniparamétrico que induce a X y ψ1 ∈ {ψt }. La función
exponencial se define como exp : G → G, X → exp (X) := ψ1 (e) = ψe (1). Es
decir ψ : < × G → G, (t, g) → ψ (t, g); con
i) ψ (0, g) = g,
ii) ψ (t + s, g) = ψ (t, ψ (s, g)); X = ψ̇e y ψe (0) = e
La primera propiedad, la cual nos recuerda una de las propiedades de la expo-
nencial de los reales, es que la exponencial del vector 0, es la identidad en el grupo.
Veamos esto.
92 5. GRUPOS DE LIE
Al igual que los vectores invariantes por la izquierda o derecha, las 1-formas
invariantes quedan determinadas por su valor en un punto, donde normalmente se
escoge la identidad. Veamos esto.
Proposición 79. Si w ∈ T G es invariante por la izquierda o por la derecha,
entonces w está determinada por su valor en la identidad del grupo.
³ ´
Proof. Sea w ∈ T G invariante por la izquierda, entonces wg = L∗g−1 (we ),
e
lo mismo por la derecha. ¤
Ya estamos listos para introducir la forma canónica de Maurer-Cartan. Su
definición formal esta dada como sigue.
94 5. GRUPOS DE LIE
Proof.
¡ ∗¢ ¡ ¢ ³ ´¡ ¢
Lg g0 (wg0 ) Xg−1 g0 = wg0 ◦ d Lg |g−1 g0 Xg−1 g0
¯ ³ ¡ ¢´ ³ ¯ ´¡ ¢
= d Lg0−1 ¯g0 d Lg |g−1 g0 Xg−1 g0 = d Lg0−1 ¯g0 ◦ d Lg |g−1 g0 Xg−1 g0
¡ ¢¯ ¡ ¢ ¯ ¡ ¢ ¡ ¢
d = Lg0−1 ◦ Lg ¯g−1 g0 Xg−1 g0 = d Lg0−1 ¯g−1 g0 Xg−1 g0 = wg−1 g0 Xg−1 g0
¡ ∗¢
lo que implica que Lg g0 (wg0 ) = wg−1 g0
¤
Si la forma de Maurer-Cartan es invariante por la izquierda, cuando se toma
la acción derecha de ella, el resultado es una fórmula utilizada mucho en teorı́a de
norma. Vamos a ver ésta en la proposición que sigue.
¡ ¢
Proposición 81. Rg∗ g0 (wg0 ) = Adg−1 ◦ wg0 g−1
Proof.
¡ ¢ ¡ ¢ ³ ´¡ ¢
Rg∗ (wg0 ) Xg0 g−1
g0
= wg0 ◦ d Rg |g0 g−1 Xg0 g−1 =
¯ ¡ ¢ ¡ ¢¯ ¡ ¢
d Lg0−1 ¯g0 ◦ d Rg |g0 g−1 Xg0 g−1 = d Lg0−1 ◦ Rg ¯g0 g−1 Xg0 g−1 =
¡ ¢¯ ³ ´¯ ¡ ¢
¯
d Lg0−1 ◦ Rg ¯g0 g−1 ◦ d L−1
gg 0−1 ◦ L gg 0−1 ¯ 0 −1 Xg0 g−1 =
g g
¡ ¢¯ ¯ ¡ ¢
¯
d Lg0−1 ◦ Rg ¯g0 g−1 ◦ d Lg0 g−1 ¯ ◦ wg0 g−1 Xg0 g−1
1
=
³ ´¯e ¡ ¢
−1 ¯
d Lg0 ◦ Rg ◦ Lg0 g−1 ¯ ◦ wg0 g−1 Xg0 g−1 =
¯e ¡ ¢ ¡ ¢
d Ag−1 ¯e ◦ wg0 g−1 Xg0 g−1 = Adg−1 ◦ wg0 g−1 Xg0 g−1
¤
Para trabajar en una variedad con estructura de grupo, en un grupo de Lie,
se procede como sigue. Sean {V1 , · · · , Vn } una base de Te G. Con esta base
podemos definir una base a traves de todo el espacio T G usando vectores invari-
antes
¡ por la izquierda.
¢ Sea {Xµ1 , · · · ∗, Xn } base de T G, tal queµdLg (Vµ ) = Xµ (g)
µ
d Lg |e (Vµ ) = Xµ ge y sean θ ∈ T G sus duales, es decir, hθ , Xν i = δν . Como
[Xµ , Xν ] es también invariante por la izquierda, se cumple que [Xµ , Xν ] = cλµν Xλ
donde las cλµν son las constantes de estructura del álgebra de Lie G, correspondiente
a G, ya que la cλµν puede ser determinada en e ∈ G. Esto se pude ver usando la
invariacia por la izquierda. dLg ([Xµ , Xν ]) = cλµν Xλ (g) para todo g ∈ G. En par-
ticular para e ∈ G, lo que hace que cλµν no depende de g. A las constentes cλµν se les
conoce como constantes de estructura del grupo. Estas constantes cumplen
con algunas propiedades interesantes que quedaran como ejercicio.
4. REPRESENTACIÓN DE GRUPOS Y ALGEBRAS DE LIE 95
Exemplo 70.
½µ ¶ ¾
x −y hom © ª
O (2) = 2 2
|x +y =1 ; SO (2) ∼
= (x, y) ∈ <2 | x2 + y 2 = 1
y x
4. REPRESENTACIÓN DE GRUPOS Y ALGEBRAS DE LIE 97