Está en la página 1de 23

Geometrı́a en Espacios Afines y Aplicaciones en Fı́sica

Carlos Zapata Carratalá


2
Índice general

1. Introducción: El Espacio Afı́n 5


1.1. Espacio Afı́n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2. Subvariedades Afines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3. Distancia y Métrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

2. Álgebra Multilineal 7
2.1. Álgebra Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.1.1. Espacio Vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.1.2. Aplicaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.1.3. Espacio Dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.4. Producto Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2. Tensores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2.1. Suma y Producto por un Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2.2. Producto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2.3. Contracciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.3. Tensores Asociados - Subida y Bajada de Índices . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.4. Cambio de Base y Componentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.5. Aplicaciones Inducidas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.6. Álgebra Exterior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.6.1. Formas y Producto Exterior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.6.2. Derivaciones y Graduación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.6.3. Formas de Volumen y Orientación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.6.4. Formas Vector-Valuadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

3. Topologı́a y Diferenciabilidad 23

3
4 ÍNDICE GENERAL
Capı́tulo 1

Introducción: El Espacio Afı́n

1.1. Espacio Afı́n


Sea un conjunto no contable de elementos M = {p, q, ...}, que denominaremos puntos y sea un espacio
vectorial real de dimensión n, Vn , decimos que M es un espacio afı́n con espacio vectorial asociado Vn o
que (M, Vn ) forma una estructura afı́n si existe una apliacación Φ de la forma:

Φ :M × M → Vn
(p, q) 7→ pq

que satisface:

∀p ∈ M, v ∈ Vn ∃q ∈ M : pq = v

∀p, q ∈ M : pq = 0 ⇔ p = q

∀p, q, r ∈ M : pq + qr = pr

Efectivamente puede verse pues que siempre es posible establecer una correspondencia biunı́voca entre el
espacio de puntos M y el espacio vectorial asociado Vn . Intuitivamente resulta sugerente imaginar el espacio
vectorial como un ente abstracto que de las reglas para codificar la idea de dirección y sentido en el espacio
e imaginar que de cada punto p ∈ M emana un espacio de flechas isomorfo a aquel, siendo, pues, las flechas
los caminos que conectarán p con cualquier otro punto del espacio afı́n.

1.2. Subvariedades Afines


Recordemos que un espacio vectorial Vn tendrá n clases de subespacios vectoriales de dimensión dife-
rente que podemos designar genéricamente como Vi , i = 1, 2, ..., n. A partir de este hecho definimos las
subvariedades afines de dimensión k que pasa por un punto p de un espacio afı́n dado como sigue:

p + Vk = {q ∈ M |pq ∈ Vk }
En particular, y especialmente cuando tratamos con tres o cuatro dimensiones, es habitual designar a las
variedades 1-dimensionales rectas, a las 2-dimensionales planos y a las 3-dimensionales hiperplanos.

Resulta fácil comprobar que cualquier subvariedad de dimensión k de un espacio afı́n dado M es, a su
vez, un espacio afı́n de dimensión k.

5
6 CAPÍTULO 1. INTRODUCCIÓN: EL ESPACIO AFÍN

1.3. Distancia y Métrica


Una distancia definida sobre el espacio afı́n M es una apliación de la forma:

d :M × M → R+
(p, q) 7→ d(p, q)

y que cumple las propiedades:

∀p, q ∈ M : d(p, q) = d(q, p)


∀p ∈ M : d(p, p) = 0

∀p, q, r ∈ M : d(p, q) + d(q, r) ≥ d(p, r)

Lo que proporciona al espacio afı́n M las nociones intuitivas que cotidianamente asociamos a la distancia
entre dos puntos del espacio tridimensional.

Una métrica, g, definida sobre el espacio afı́n M con espacio vectorial asociado Vn no es más que un
producto escalar definido sobre el espacio vectorial Vn que nos permite, por lo tanto, asignar valores de
módulo y ángulo a vectores que unan puntos del espacio afı́n M . Para la definición general de métrica
que se dará en la siguiente sección conviene imaginar el esquema que dimos más arriba de un espacio afı́n
como un conjunto de puntos emanando de cada uno de ellos un espacio vectorial de dimensión finita que
asociamos a las flechas que apunatrı́an desde ese punto; la métrica será un aplicación que asigne a cada uno
de esos espacios vectoriales una estructura de producto escalar que permita hablar de longitud y orientación
relativa de las flechas.

Si consideramos una clase especial de métricas, las denominadas riemannianas que se distinguen por estar
definidas positivas, resulta inmediato ver que una vez definida una métrica sobre un espacio afı́n se puede
obtener de forma única una distancia sobre ese mismo espacio. El recı́proco también es cierto y para probarlo
basta con hacer uso de la identificación:

g(pq, pq) = d(p, q)2


y hacer uso de la simetrı́a que nos permite escribir la identidad:
1
g(v, w) = {g(v + w, v + w) − g(v, v) − g(w, w)}
2
Capı́tulo 2

Álgebra Multilineal

Es posible que el concepto de espacio vectorial sea el más valioso de los constructos que se usan hoy en
dı́a en fı́sica puesto que, de alguna manera, uno podrı́a aventurarse a decir, sin demasiado miedo a cometer
una barbaridad, que, en fı́sica, todo es un espacio vectorial. Desde las flechas en un plano, hasta los conjuntos
de funciones integrables en espacios de dimensión infinita, dadas las operaciones apropiadas, inifinidad de
conjuntos pueden entenderse como espacios vectoriales. Esperamos que esto sea motivación suficiente para el
estudio de los espacios vectoriales y toda la estructura multilineal que de ellos desprende. Términos como dual
o tensor, tan usados en fı́sica moderna hoy en dı́a y, a veces, tan pobremente presentados a los estudiantes
quedarán claramente definidos y, esperamos, entendidos al finalizar este escrito.

2.1. Álgebra Lineal


2.1.1. Espacio Vectorial
1
Sea un grupo (V, +), un cuerpo (K, +, ·) y una aplicación de la forma:

· :K × V → V
(α, v) 7→ α · v

que satisface:

Distributiva en V : ∀v, w ∈ V, ∀α ∈ K : α · (v + w) = α · v + α · w
Distributiva en K: ∀v ∈ V, ∀α, β ∈ K : (α + β) · v = α · v + β · v
Asociativa en K: ∀v ∈ V, ∀α, β ∈ K : α · (β · v) = (α · β) · v
Unidad en K: ∀v ∈ V : 1 · v = v

Entonces se dice que ((V, +), (K, +, ·), ·) es espacio vectorial; a V se le dice el conjunto de vectores
y normalmente éste abreviará toda la definición arriba escrita cuando no se de pie a confusión; a K se le
dice el conjunto de escalares; se dice también, a veces, espacio vectorial V sobre K. Seguramente el lector
haya notado que hemos abusado de la notación en cuanto a lo que se refiere a sı́mbolos para las leyes de
composición de vectores, de escalares y de vectores con escalares, este abuso que mantedremos a lo largo del
libro y que es estandar en la literatura actual, viene justificado y no crea ambigüedad por las propiedades
de asociatividad, distributividad y conmutatividad expuestas.

1 por los casos que resultan de interés en este libro el cuerpo será usualmente R o C

7
8 CAPÍTULO 2. ÁLGEBRA MULTILINEAL

Una idea básica en espacios vectoriales, a veces llamados también espacios lineales, es la de dependencia
lineal. Se dice que un conjunto de vectores {xi }i∈I es linealmente independiente si:
X
αi xi = 0 ⇔ αi = 0 ∀i ∈ I
i∈I
Otro término propio de espacios vectoriales es el de combinación lineal de un conjunto de vectores
{xi }i∈I , que no es más que la suma de todos los vectores multiplicados por algunos escalares; denotamos:
X
span({xi }i∈I ) = {v ∈ V |v = αi xi ∀αi ∈ K}
i∈I
Por lo tanto, span({xi }i∈I ) es el conjunto de todas las combinaciones lineales posibles del conjunto
{xi }i∈I de vectores. Además, una forma de entender la dependencia lineal es pensar en una combinación
lineal de vectores y preguntarse si se pueden obtener alguno de los mismo como una combinación lineal del
resto, es fácil mostrar que si el conjunto es linealmente independiente esto no será posible, mientras que si
son linealmente dependiente sı́ lo será.

2
Llamaremos base del espacio vectorial V a un conjunto de vectores B = {ei }i∈I que satisfacen:
span(B) = V , es decir, podemos expresar cualquier v ∈ V como combinación lineal de los elementos
de la base
B es linearmente independiente
Cuando el conjunto {ei }i∈I es finito con, digamos, m elementos, diremos que V es m dimensional,
dimV = m; en cualquier otro caso diremos que V es infinito dimensional.

Este es un buen momento para introducir la convención de sumación de Einstein que dicta que
ı́ndices que aparezcan repetidos a pares en posiciones super- y subı́ndice deberán estar sumados sobre todos
los valores posibles del ı́ndice (normalmente hasta un máximo finito). En cualquier expresión algebraica
tendremos, para un cierto ı́ndice i ∈ I:
X
(...)...i... ...(...)...i... = (...)...i... ...(...)...i...
i∈I
En este punto de la exposición los superı́ndices aun no han aparecido y esta regla puede antojarse confusa
y artificiosa pero, conforme avancemos en materia en esta sección y en la siguiente, esperamos, la idoneidad
de la convención de Einstein resultará clara. Es importante acostumbrarse rápido a esta notación ya que, de
aquı́ en adelante, la usaremos extensivamente.

Consideremos un espacio vectorial V de dimensión m y una base en el mismo B = {ei }i=1,...,m , un vector
arbitrario del espacio, v ∈ V se escribirá pues:

v = v i ei para algunos vi ∈ K
En este pequeña ecuación se concentran bastantes convenios estandares de notación. En primer lugar se
hace uso de la convención de Einstein, por otra parte, tanto la posición de los ı́ndices de los elementos de la
base como la de los escalares coeficientes o componentes, va a ser común a la inmensa mayorı́a de espacios
vectoriales que trataremos.

Por último definimos subespacio vectorial de un espacio vectorial V como un subconjunto W ⊂ V


que es, a su vez, espacio vectorial sobre el mismo cuerpo y con la misma ley de composición de escalares y
vectores.
2 aunque I puede ser contı́nuo en general, nosotros nos restringimos a espacios separables, en los que siempre encontraremos

una base con un conjunto numerable de vectores, finito o infinto


2.1. ÁLGEBRA LINEAL 9

2.1.2. Aplicaciones Lineales


Sean dos espacios vectoriales V y W sobre el mismo cuerpo K , una aplicación f : V → W es lineal si:

f (αx + βy) = αf (x) + βf (y) ∀α, β ∈ K ∀x, y ∈ V

Recordando la definición de espacio vectorial notamos que (V, +) es un grupo, y como tal, si restringimos
el producto por escalares, las aplicaciones lineales son homomorfismos y como tales, para los casos especiales
de biyectividad, etc. se les designa con los nombres propios de isomorfismo, etc. Es inmediato ver, vı́a la
elección de una base en V sobre K, que todo espacio vectorial de dimensión finita m es isomorfo a Km , en
el sentido de que existe una aplicación lineal 3 que es biyectiva.

Es también rápido comprobar que, para una apliación lineal f : V → W , tanto ker(f ) ⊂ V como
Im(f ) ⊂ W son subespacios vectoriales de sus respectivos espacios ambiente. Siendo esto ası́, damos el
siguiente teorema que se deriva del primer teorema de isomorfismos entre grupos:

Apliaciones Lineales 2.1.1 Sea f : V → W lineal, entonces se tiene

dimV = dimker(f ) + dimIm(f )

Consideremos el conjutno de todas las aplicaciones lineales entre dos espacios vectoriales sobre el mismo
cuerpo K, L(V, W ) = {f : V → W |f es lineal} y las definiciones naturales de suma de aplicaciones y producto
por un escalar definidas como sigue:

+ :L × L → L
(f, g) 7→ f + g : (f + g)(v) = f (v) + g(v) ∀v ∈ V

· :K × L → L
(α, f ) 7→ α · f : (α · f )(v) = α · f (v) ∀v ∈ V, α ∈ K

Entonces, es inmediato probar por linealidad que ((L, +), (K, +, ·), ·) es un espacio vectorial.

Un caso particular, pero importante y por tanto con notación estandar propia, son las apliaciones lineales
biyectivas - por lo tanto invertibles - de un espacio V sobre K en sı́ mismo o automorfismos. El conjutno
de estas aplicaciones se denota por GL(V, K) y junto a la operación ◦, la composición de aplicaciones, for-
ma un grupo que se denomina generalmente el grupo lineal de V . Haciendo una elección de base en V
podemos obtener de cada automorfismo en V un automorfismo en Km simplemente tomando las componen-
tes de los vectores y sus imágenes. A su vez, estas aplicaciones quedarán totalmente determinadas por m2
escalares debido a la linealidad de las aplicaciones originales. Operando cuidadosamente todas las cuentas
correspondientes, no cuesta mostrar que el conjunto de matrices m × m no singulares junto con el produc-
to convencional de matrices es un grupo, designado por GL(m, K), y que éste es isomorfo al grupo lineal de V .

Otro caso particular importante es el de los llamados funcionales lineales en un espacio vectorial V sobre
K, es decir, las aplicaciones lineales de la forma

ω : V 7→ K
3 simplemente, la aplicación que da las componentes en una base determinada dado un vector cualquiera
10 CAPÍTULO 2. ÁLGEBRA MULTILINEAL

2.1.3. Espacio Dual


Sea un espacio vectorial V de dimensión m, se llama espacio dual de V al conjunto de funcionales
lineales en V y se denota por V ∗ . Particularizando para el argumento dado para los grupos lineales en la
sección anterior, vemos que V ∗ es un espacio vectorial de dimensión m. Definiendo la acción de un vector
v sobre un funcional ω como la imagen de v por ω podemos comprobar que, para el caso finito-dimensional
que nos ocupa: (V ∗ )∗ = V . Los elementos del espacio dual se denominan usualmente covectores.

Vamos a dar la base más sencilla que se le puede venir a uno a la cabeza de V ∗ . Tomemos una base en V ,
B = {ei }i=1,...,m , y definamos los funcionales lineales que actúan sobre los elementos de la base como sigue:

ei : V → K : ei (ej ) = δji , i = 1, ..., m


Que, por linealidad, está definida para un argumento arbitrario en V . Este conjutno de funcionales
{ei }i=1,...,m es efectivamente base de V ∗ y se denomina base dual. De esta manera tomando un vector
arbitrario v = v i ei ∈ V y un funcional arbitrario ω = ωi ei ∈ V ∗ tenemos:

ω(v) = ωi ei (v j ej ) = ωi v i
Lo que muestra la conveniencia de la elección de esta base en particular. Notar que llegados a este punto,
de nuevo, la notación usada será estandar en todo momento en que nos encontremos con espacios duales.

2.1.4. Producto Escalar


Sea un espacio vectorial V sobre R, se llama producto escalar en V a una aplicación de la forma:

h·, ·i :V × V → R
(v, w) 7→ hv, wi

que satisface

Simetrı́a 4 , se le llama producto escalar : hv, wi = hw, vi∀v, w ∈ V


Linealidad : hv, aw1 + bw2 i = ahv, w1 i + bhv, w2 i∀v, wi ∈ V, a, b ∈ R
No Degeneración - Positividad : hv, vi ≥ 0 y hv, vi = 0 ⇒ v = 0

Las aplicaciones de esta forma se caracterizan por matrices m × m simétricas no singulares, donde m es
la dimensión de V . Esto es inmediato de comprobar si se escoge una base cualquiera en V .

2.2. Tensores
Tomando un espacio vectorial V sobre R, se llama espacio tensorial de orden (r, q), denotado por Tqr (V ),
al conjunto de todas las aplicaciones multilineales (lineales en todos sus argumentos simultáneamente) de la
forma:

t :V ∗ × ...r... × V ∗ × V × ...q... × V → R
(ω1 , ..., ωr , v1 , ..., vq ) 7→ t(ω1 , ..., ωr , v1 , ..., vq )
4 si el cuerpo es C, todas las condiciones que hagan uso de la simetrı́a se tendrán que reemplazar por sesquisimetria, es deceir,

simetrı́a en el segundo argumento pero simetrı́a salvo conjugación compleja en el primero


2.2. TENSORES 11

y a t se le llama tensor de orden (r, q). Por lo tanto, un tensor no es más que una aplicación que está pi-
diendo que se le enchufen r covectores y q vectores para escupir un número real y que, además, simpre lo
hará de forma lineal. A lo largo de todo el desarrollo que se hará a continuación se encontrarán resultados
que permiten entender tensores de órdenes concretos como objetos reconocibles previos a la definición de
tensor, cosa que históricamente tiene mucho sentido ya que éstos precisamente se desarrollaron como una ge-
neralización de muchos objetos, a priori muy diferentes, que se tenı́an definidos sobre los espacios vectoriales.
No obstante, y aunque esto puede cambiar según la disciplina en la que se vayan a utilizar, seguramente la
mejor intuición que se puede tener de tensor es la que se obtiene precisamente la definición dada, explicada
en la frase en cursiva más arriba. Muy habitualmente, en la literatura fı́sica, uno se topa con desarrollos ten-
soriales en los que nunca se precisa la idea de tensor más allá de la de un conjunto de números indexados que
se transforman de una determinada manera; este enfoque, aunque formalizable matemáticamente, resulta
extremadamente crı́ptico para el lector inexperto. Uno de los principales propósitos de esta sección es el de
dar las claves formales que permiten entender todas las operaciones con tensores, que tan habitualmente se
definen con ı́ndices ocultando el verdadero contenido conceptual, de forma precisa.

De la definición de espacio tensorial tenemos los siguientes resultados inmediatos:

T01 (V ) = V, T10 (V ) = V ∗ , T11 (V ) ∼


= L(V, V ) ∼
= L(V ∗ , V ∗ )

Las dos primeras identidades son clares por construcción, la segunda requiere alguna aclaración. Para
construir, digamos, el isomorfismo entre T11 (V ) y L(V, V ) necesitamos identificar tensores que actúan li-
nealmente sobre un covector y un vector con aplicaciones lineales que dado un vector dan otro vector. Sea
t ∈ T11 (V ), una forma de hacer este tipo de identificación es tomar un vector v ∈ V e identificarlo con el
objeto t(·, v). Efectivamente, este objeto es una aplicación que pide un covector y que escupe un numero real
y, puesto que la linealidad se hereda del hecho de que t ∈ T11 (V ), éste será un vector. Para corroborar que
se trata de un isomorfismo y no solo de una biyección, debemos esperar a llegar a la siguiente sección en la
que definimos todas las operaciones con tensores. Para el isomorfismo con L(V ∗ , V ∗ ) se usa un argumento
paralelo dejando ahora el segundo argumento de t vacı́o. Siguiendo la estética de estos resultados tomamos
la convención T00 (V ) = R

2.2.1. Suma y Producto por un Escalar


De la misma forma que cualquier otro conjunto de aplicaciones lineales, la suma y multiplicación por
un escalar se definen de la forma natural 5 :

+ :Tqr (V ) × Tqr (V ) → Tqr (V )


(t1 , t2 ) 7→ t1 + t2 : (t1 + t2 )(ω, v) = t1 (ω, v) + t2 (ω, v) ∀ω ∈ V ∗ , v ∈ V

· :R × Tqr (V ) → Tqr (V )
(α, t) 7→ α · t : (α · t)(ω, v) = αt(ω, v) ∀ω ∈ V ∗ , v ∈ V, α ∈ R

De esta manera, ((Tqr (V ), +), (R, +, ·), ·) es un espacio vectorial. Ahora, los isomorfismos presentados en
la sección 2.5 cobran pleno significado.

5 muy habitualmente, y cuando no genere confusión, escribiremos t(ω, v) para un tensor (r, q) en lugar de escribir toda la

ristra de argumentos
12 CAPÍTULO 2. ÁLGEBRA MULTILINEAL

2.2.2. Producto
Puesto que los tensores dan números reales cuando se les proporcionan todos sus argumentos, parece
razonable definir un producto de tensores que simplemente use el hecho de que podemos multiplicar números
reales con normalidad. El producto tensorial se define:

⊗ :Tqr11 (V ) × Tqr22 (V ) → Tqr11+q


+r2
2
(V )
(t1 , t2 ) 7→ t1 ⊗ t2 : (t1 ⊗ t2 )(ω1 , ω2 , v1 , v2 ) = t1 (ω1 , v1 )t2 (ω2 , v2 ) ∀ωi ∈ V ∗ , vi ∈ V

Por la linealidad de los objetos definidos el conjunto de todos los productos tensoriales de todos los
tensores de Tqr11 (V ) con todos los tensores de Tqr22 (V ) y sus combinaciones lineales, genera completamente
el espacio tensorial Tqr11+q
+r2
2
(V ) y decimos, pues, que Tqr11+q
+r2
2
(V ) es el producto tensorial 6 de Tqr11 (V ) y
r2
Tq2 (V ) escribiendo:

Tqr11+q
+r2
2
(V ) = Tqr11 ⊗ Tqr22
Siendo esto ası́, podemos ver que es posible contruir cualquier espacio tensorial a partir de V y V ∗
entendidos como T01 (V ) y T10 (V ), respectivamente. De forma que:

Tqr (V ) = V ⊗ ...r... ⊗ V ⊗ V ∗ ⊗ ...q... ⊗ V ∗


De forma que, haciendo una elección de base en V , digamos {ei }i=1,...,m y tomando su dual en V ∗ ,
{e }j=1,...,m , deberı́amos ser capaces de dar una base para Tqr (V ). Claramente, de la definición de producto
j

tensorial de tensores se desprende que ésta es una operación lineal en sus argumentos. Como ya hemos
señalado, Tqr (V ) será generado por las combinaciones lineales de productos tensoriales de elementos de V
y V ∗ , por lo tanto, si expresamos los vectores y covectores en las bases correspondientes, veremos que un
tensor general de Tqr (V ) será una combinación lineal de los siguientes elementos:

ei1 ⊗ ... ⊗ eir ⊗ ej1 ⊗ ... ⊗ ejq


De forma que, siguiendo la convención de ı́ndices estandar tenemos:

t ∈ Tqr (V ) ⇒ t = tji11...i j1
...jq ei1 ⊗ ... ⊗ eir ⊗ e ⊗ ... ⊗ e
r jq

Dónde se ha usado la convención de Einstein para los ı́ndices repetidos con tji11...i
...jq ∈ R por lo que la
r

expresión de arriba no es más que una sofisticada manera de escribir una, potencialmente muy larga, com-
binación lineal.

Recordemos que los covectores son funcionales lineales sobre vectores y que los vectores son funcionales
lineales sobre covectores, con esta idea en mente, una forma muy apropiada de ver el producto tensorial es
entendiendo cada uno de los factores como un argumento que pide un vector o un covector correspondien-
temente a que el factor sea un covector o un vector respectivamente. Es un buen ejercicio comprobar que
todo el análisis realizado con el producto tensorial hasta el momento puede reinterpretarse en términos de
la acción de un tensor Tqr (V ) sobre covectores y vectores expandidos en una base. De nuevo simplificando la
notación reduciendo el número de argumentos, tenemos:

t ∈ Tqr (V ), t(ω, v) = t(ωi ei , v j ej ) = ωi v j t(ei , ej ) = ωi v j tij


Donde podemos ver que con el formalismo del producto tensorial no se hace más que explicitar la base
en V y V ∗ para construir una base formal de Tqr (V ), pero la idea es similar a cuando concluimos que para
6 es importante notar que aquı́ hacemos un abuso de la notación una vez más, puesto que usamos el mismo sı́mbolo para

el producto de tensores como para el espacio producto tensorial de otros dos; veremos que esto no será nunca una fuente de
confusión
2.2. TENSORES 13

especificar una aplicación lineal basta con especificar la acción de la misma sobre todos los elementos de
una base arbitraria del espacio vectorial. Ası́ que, de alguna manera, podemos entender tji11...i
...jq ∈ R como la
r

r
expresión matricial de un tensor t ∈ Tq (V ) y por lo tanto nunca se debe confundir el objeto vectorial t con
sus componentes en una base particular, como de costumbre para aplicaciones lineales.

2.2.3. Contracciones
La operación de contracción se define inicialmente para vectores y covectores como una aplicación lineal:

C :T10 (V ) ⊗ T01 (V ) → T00 (V )


ω ⊗ v 7→ C(ω ⊗ v) = ω(v)

Más genralmente, consideremos un tensor de Tqr (V ) en una base determinada:

t = tij11...i j1
...jq ei1 ⊗ ... ⊗ eir ⊗ e ⊗ ... ⊗ e
r jq

Definimos la contracción del ı́ncide superior l-ésimo con el ı́ndice inferior m-ésimo como la aplicación de
la forma:

l r−1
Cm : Tqr (V ) → Tq−1 (V )
Que actúa sobre un tesor expresado en una base como sigue:

l
Cm l
(t) = Cm (tij11...ir j1 jq
...jq ei1 ⊗ ... ⊗ eir ⊗ e ⊗ ... ⊗ e )
i ...i ki ...i
= tj11 ...jl−1 m+1 r
m−1 kjm+1 ...jq
ei1 ⊗ ...êil ... ⊗ eir ⊗ ej1 ⊗ ...êjm ... ⊗ ejq )

Donde la notación ê indica la omisión de e. Un buen ejercicio es demostrar que esta definción es, de
hecho, independiente de la elección de base, es decir, que, independientemente de en qué base expandamos
l
t, la operación Cm da siempre el mismo tensor.

Una aplicación importante de las contracciones es la de expresar la acción de un determinado tensor


sobre sus argumentos usando el producto tensorial. Supongamos t ∈ T11 (V ) y tomemos una base en V y su
dual en V ∗ de forma que t = tij ei ⊗ ej . La acción de este tensor sobre sus argumentos, digamos ω ∈ V ∗ y
v ∈ V , expresados en las mencionadas bases, es:

t(ω, v) = ωi v j tij
Si ahora tomamos ω ∈ V ∗ y v ∈ V como tensores T10 (V ) y T01 (V ) respectivamente podemos operar:

t ⊗ ω ⊗ v ∈ T22 (V )
teniendo la expresión en componentes:

t ⊗ ω ⊗ v = ωi v j tlk ej ⊗ el ⊗ ei ⊗ ek
Ahora, tomando contracciones en ambos ı́ndices tenemos:

C11 C22 (t ⊗ ω ⊗ v) ∈ T00 (V ) = R


Y que en componentes queda:

C11 C22 (t ⊗ ω ⊗ v) = ωi v j tij


14 CAPÍTULO 2. ÁLGEBRA MULTILINEAL

Ası́ que, efectivamente, podemos siempre expresar la acción de un tensor sobre sus argumentos como la
contracción del producto tensorial de los mismos:

C11 C22 (t ⊗ ω ⊗ v) = t(ω, v)

2.3. Tensores Asociados - Subida y Bajada de Índices


Sea V un espacio vectorial con una base {ei }i=1,...,m en el se ha definido un producto interno h·, ·i. Las
componentes del producto interno en esta base son gij = hei , ej i. Definimos la operación bajada de ı́ndice
para un vector de V como la aplicación:

[ :V → V ∗
v 7→ hv, ·i

Por las propiedades del producto interno esta aplicación es un isomorfismo de forma que su inversa
está perfectamente definida y se denomina subida de ı́ndice para un covector:

]:V∗ →V
Escogiendo la base dual en V ∗ podemos ver la acción de estas operaciones en componentes. La bajada
de ı́ndices es inmediato expresarla en componentes dadas las componentes del producto interno:

v = v j ej ∈ V, [v = gij v j ei ∈ V ∗
La operación inversa se puede definir de forma independiente como

]ω = w| hw, vi = ω(v) ∀v ∈ V
pero puesto que sabemos que se trata de un isomorfismo, la expresión en componentes de la inversa
[−1 = ] no será más que la matriz inversa de la aplicación directa [. Por lo tanto definimos la inversa de la
matriz del producto interno:

g ij | g ij gjk = δki
De forma que tenemos:

ω = ωj e j ∈ V ∗ , ]ω = g ij ωj ei ∈ V
Es fácil ahora generalizar estas operaciones a tensores generales Trq (V ) simplemente aplicando las ope-
raciones a los argumentos de éstos. Por lo general resultará inambiguo a qué argumentos aplicar la subida o
bajada de ı́ndices, pero en caso de confusión siempre se hará al primero de ellos. Por ejemplo, sea t ∈ T11 (V ),
decimos que t tiene un tensor asociado por bajada de ı́ndice definido por:

]t ∈ T20 (V ) : ]t(ω1 , ω2 ) = t(]ω1 , ω2 )


De forma similar, se dice que t tiene un tensor asociado por subida de ı́ndice definido por:

[t ∈ T02 (V ) : [t(v1 , v2 ) = t([v1 , v2 )


Cuando se introducen los elementos de una base concreta en V y su dual en V ∗ se puede comprobar
, deacuerdo con la expresión en componentes de [ y ], que la subida y bajada de ı́ndices ası́ definida se
corresponde con lo que tan habitualmente se encuentra en al literatura que sólo utiliza expresiones en
componentes:
2.4. CAMBIO DE BASE Y COMPONENTES 15

([t)ij = gik tkj

(]t)ij = g ik tjk
Por mostrar otra forma de aplicar las contracciones, mostramos a continuación que las operaciones de
subida y bajada de ı́ndices se pueden expresar de forma sencilla considerando el producto interno como un
tensor g ∈ T20 (V ) cuyas componentes en un determinada base son, efectivamente gij = hei , ej i. Vemos pues
que es sencillo comprobar en componentes que:

[v = C21 (g ⊗ v)

]ω = C12 (γ ⊗ ω)
Dónde γ se llama el producto interno inverso - cuya expresión matricial es la inversa de la expresión
matricial del producto interno - y se define por γ(ω1 , ω2 ) = g(]ω1 , ]ω2 ).

Una puntualización importante sobre notación muy extendida en la literatura fı́sica es que en la inmensa
mayorı́a de textos los operadores [ y ] se omiten cuando se explicitan únicamente las componentes; dando
lugar a las siguientes expresiones:

v = v j ej ∈ V, ([v)i = gij v j = vi

ω = ωj ej ∈ V ∗ , (]ω)i = g ij ωj = ω i

2.4. Cambio de Base y Componentes


Consideremos un espacio vectorial V de dimensión finita m y su espacio dual V ∗ . Tomemos ahora una
base en V , {ei }, y su dual en V ∗ , {ei } recordando que son tales que ei (ej ) = δji . Consideremos ahora un
cambio de base en V expresando los elementos de una segunda base {i } en términos de la primera {ei }
como sigue:

i = Aji ej
Ahora podemos preguntarnos cómo estará relacionada la dual de la nueva base con la dual de la primera,
es decir, tratar de identificar los coeficientes de i = Bji ej . Tras un simple cómputo:

i (j ) = δji ⇒ Bki Alj ek (el ) = Bki Akj = δji


Por lo tanto, vistas como matrices, la relación entre los cambios de base en V y V ∗ es B = A−1 . Aunque
esta relación se mantendrá siempre para espacios de dimensión finita, por claridad en la notación usaremos
A y B como sı́mbolos diferentes. Consideremos ahora un tensor arbitrario del espacio tensorial t ∈ Tqr (V ),
haciendo una elección de base en V y V ∗ como arriba, obtenemos las componentes de t:

tji11...i i1 ir
...jq = t(e , ..., e , ej1 , ..., ejq )
r

Ahora, cambiando la base en V , tendremos las componentes de t en la nueva base:

τji11...j
...ir
q
= t(i1 , ..., ir , j1 , ..., jq )
Como vimos arriba, la relación entre los elementos de las bases es
16 CAPÍTULO 2. ÁLGEBRA MULTILINEAL

i = Aji ej y i = Bji ej
ası́ pues, sin más que sustituir en la expresión de τji11...j
...ir
q
y usando la linealidad de t, tenemos:
l
τji11...j
...ir
q
= Bki11 · · · Bkirr tkl11...l
...kr
q
Alj11 · · · Ajqq
Notar que aquı́ hemos usado la convención de Einstein para sumar ı́ndices repetidos y se han dispuesto
los coeficientes de forma que resulten más fáciles de leer, pero en ningún caso debe olvidarse que, para
cada conjunto de ı́ndices en el miembro de la izquierda, esta expresión no es más que una (potencialmente)
enorme combinación lineal. Esta ecuación, de hecho, se denomina a veces criterio de tensorialidad ya
que cualquier objeto que defininamos en un espacio vectorial que quede identificado con una serie de compo-
nentes y éstas se transformen de la manera expuesta bajo cambios de base, corresponderán, efectivamente,
a algún tensor de un determinado orden, posiblemente contraido o rellenado parcialmente en sus argumentos.

Un tensor especialmente interesante por lo que respecta a cómo cambian sus componentes es el llamado
tensor invariante de Kronecker δ ∈ T11 (V ) definido como:

δ : (ω, v) 7→ ω(v)
Resulta inmediato comprobar que las componentes de este tensor en cualquier base {ei } tiene por com-
ponentes:

δ = δji ei ⊗ ej
cosa que coincide con el hecho de que cualquier transformación de componentes recupera los mismos
valores.

2.5. Aplicaciones Inducidas


Consideremos una aplicación lineal f : V → W donde V y W son espacios vectoriales reales de dimen-
siones m y n respectivamenre. Definimos la aplicación dual de f como:

f ∗ :W ∗ → V ∗
ω 7→ f ∗ ω : (f ∗ ω)(v) = ω(f (v)) ∀v ∈ V
Por convención escribiremos f como f∗ cuando se actúa en vectores. En la literatura en lengua inglesa es
usual denominar a las aplicaciones lineales que lleven vectores hacia adelante de V a W push-forwards y
aquellas que traigan covectores de W ∗ a V ∗ pull-backs. Teniendo en cuenta esta convención y que éstos son
los nombres que realmente se utilizan, a lo largo de este libro nosotros los denominaremos, apropiadamente,
empujones y tirones respectivamente.

Es posible generalizar la definición de empujón de un vector v ∈ T01 (V ) a tensores T0r (V ) y la de tirón


de un covector β ∈ T10 (W ) a tensores Tr0 (W ). Hacemos esto de la forma obvia:

f∗ :T0r (V ) → T0r (W )
t 7→ f∗ t : (f∗ t)(β1 , ..., βr ) = t(f ∗ β1 , ..., f ∗ βr )

f ∗ :Tr0 (W ) → Tr0 (V )
t 7→ f ∗ t : (f ∗ t)(v1 , ..., vr ) = t(f∗ v1 , ..., f∗ vr )
2.6. ÁLGEBRA EXTERIOR 17

Para generalizar estas aplicaciones inducidas a tensores Tqr (V ), tiene que poderse definir la inversa de f∗
para que tenga sentido tanto empujar como tirar vectores y covectores indistintamente. Ası́ pues, en el caso
de que f∗ sea un isomorfismo definimos el tirón de un vector y el empujón de un covector 7 como sigue:

f ∗ :W → V
w 7→ f ∗ w = (f −1 )∗ w

f∗ :V ∗ → W ∗
ω 7→ f∗ ω = (f −1 )∗ ω

Y de esta manera la generalización para orden arbitrario es naturalmente:

f∗ :Trq (V ) → T0r (W )
t 7→ f∗ t : (f∗ t)(v1 , ..., vr , β1 , ..., βq ) = t(f ∗ v1 , ..., f ∗ vr , f ∗ β1 , ..., f ∗ βq )

f ∗ :Trq (W ) → Tr0 (V )
t 7→ f ∗ t : (f ∗ t)(v1 , ..., vr , β1 , ..., βq ) = t(f∗ v1 , ..., f∗ vr , f∗ β1 , ..., f∗ βq )

A continuación se dan una serie de resultados importantes para las aplicaciones inducidas:

Apliaciones Inducidas 2.5.1 Para unos espacios vectoriales V , W y U reales de dimensión finita se tiene:

Sean f∗ : V → W y g∗ : W → U entonces (g ◦ f )∗ = f ∗ ◦ g ∗

Sea la identidad i∗ : V → V entonces i∗ : V ∗ → V ∗ es también la identidad

Sean t1 ∈ Tqr11 (V ) y t2 ∈ Tqr22 (V ) entonces f∗ (t1 ⊗ t2 ) = f∗ t1 ⊗ f∗ t2

2.6. Álgebra Exterior


2.6.1. Formas y Producto Exterior
Vk
Definimos el conjunto de k-formas sobre un espacio vectorial V como el suespacio (V ) ⊂ Tk0 (V ) de
∗ 1
(V ), digamos {ω i }ni=1 ,
V
tensores totalmente antisimétricos. Si tomamos una base para el espacio dual V ≡
0
entonces una k-forma η se expresará en la base producto de Tk (V ) como:

η = ηi1 ...ik ω i1 ⊗ · · · ⊗ ω ik
Ahora, definiendo el objeto completamente antisimétrico o delta de Kronecker generalizada como:
 +1 si (i1 . . . ip ) es par respecto a (j1 . . . jp )
i ...i i ...i
j11 ...jpp ≡ δj11 ...jpp = −1 si (i1 . . . ip ) es impar respecto a (j1 . . . jp )
0 en cualquier otro caso

por convención a veces se escribe: 12...p


i1 i2 ...ip ≡ i1 ...ip , tenemos las siguientes propiedades:

7 notar que lo que se habı́a definido hasta ahora era el empujón de un vector y el tirón de un covector
18 CAPÍTULO 2. ÁLGEBRA MULTILINEAL

i ...i
δj11 ...jpp = det([δjiab ])
i ...i j ...j i ...i
j11 ...jpp k11 ...kpp = p!k11 ...kpp

Definimos el producto exterior de formas como una aplicación:


k
^ l
^ k+l
^
·∧·: (V ) × (V ) → (V )
tal que
1 X
ω ∧ η(v1 , . . . , vk+l ) = (−)σ ω(vσ(1) , . . . , vσ(k) )η(vσ(k+1)...vσ(k+l) ).
k!l!
σ∈Sk+l
Vk Vl
que satisface la propiedad de anticonmutación generalizada, esto es, sean ω ∈ (V ), η ∈ (V ) entonces
ω ∧ η = (−)kl η ∧ ω.

Con estas definiciones resulta inmediato comprobar que, dada una base del dual {ω i }ni=1 , el producto de
los elementos de la base se puede escribir:
i ...i
ω i1 ∧ · · · ∧ ω ik = j11 ...jpp ω i1 ⊗ · · · ⊗ ω ik
de manera que una k-forma arbitraria η tendrá por expresión en componentes y componentes es-
trictas, respectivamete:
1
η= ηi ...ı ω i1 ∧ · · · ∧ ω ik = ηI1 ...Ik ω I1 ∧ · · · ∧ ω Ik
k! 1 k
dónde en el segundo miembro se hace uso del convenio de ı́ndices estrictos y se mantiene siempre I1 < . . . < Ik
y dónde las componentes son siempre completamente antisimétricas bajo permutación de ı́ndices, como es
natural a partir de su definición. Si expresamos dos formas, ω, η, en la base producto tendremos, en base a
la definición de las expresiones en componentes y a la definición del producto exteriror, la siguiente relación
entre componentes:
1 i1 ...ik j1 ...jl
(ω ∧ η)n1 ...nk+l =  αi ...i βj ...j
k!l! n1 ...nk nk+1 ...nk+l 1 k 1 l

2.6.2. Derivaciones y Graduación


V
Podemos definir el álgebra exterior como el par ( (V ), ∧)

^ m ^
M k
(V ) = (V )
k=0
V
con la multiplicación que no es más que el producto exterior generalizado a (V ) de forma natural.
Entonces vemos que claramente el álgebra exterior es un álgebra asociativa no conmutativa en general y
graduada ya que el producto actúa en los subespacios aditivamente.

Se denomina derivación de orden s a toda aplicación lineal de la forma:


k
^ k+s
^
T : (V ) → (V ) (∀k)
tal que satisface:
2.6. ÁLGEBRA EXTERIOR 19

1. Nilpotencia: T ◦ T = 0

2. Regla de Leibnitz: T (ω ∧ η) = T ω ∧ η + ω ∧ T η

Se denomina antiderivación de orden s a toda aplicación lineal de la forma:

k
^ k+s
^
T : (V ) → (V ) (∀k)

tal que satisface:

1. Nilpotencia: T ◦ T = 0

2. Regla de antiLeibnitz: T (ω ∧ η) = T ω ∧ η + (−)η ω ∧ T η

2.6.3. Formas de Volumen y Orientación


Una de las razones por las que el álgebra exterior resulta de una utilidad conceptual considerable es
porque nos permite definir con precisión las ideas de orientabilidad y volumen en espacios vectoriales de
dimensión arbitraria, ya que en R3 ya sabemos cómo hacerlo.
Vm Primeramente,
Vm consideremos un endomorfismo
f : V → V y el tirón entre formas máximas, f ∗ : (V ) → (V ) donde m es la dimensión de V y
definimos el determinante de f como el único escalar que satisface:
^m
f ∗ β = (detf )β, detf ∈ R, β ∈ (V )
Vm
Definimos como forma de volumen aquellas formas máximas que son no nulas, es decir, ν ∈ (V )
con ν 6= 0. Diremos que dos formas de volumen, ν1 , ν2 , son equivalentes si existe un número real positivo
c tal que ν1 = cν2 . Las clases de equivalencia de las formas de volumen [ν] se denominan orientaciones
del espacio vectorial V . Diremos que dado un espacio vectorial orientado, esto es, dado un par (V, [ν]) una
base del mismo {ei } es positiva orientada si ν(e1 , ..., em ) > 0 y negativa orientada si ν(e1 , ..., em ) < 0.
Considerando cambios de base como endomorfismos, es fácil comprobar que una orientación queda comple-
tamente determinada con un conjunto de bases ordenadas que esten relacionadas mediante endomorfismos
con determinante positivo.

Dar un forma de volumen particular requiere de estructura adicional y por ello consideramos un espacio
vectorial dotado de un producto interno g. Sea, dada una orientación de V , una base positivamente orientada
arbitraria {ei } y su dual {ei } , entonces la siguiente forma máxima es un elemento de volumen válido
denominado g-volumen o volumen métrico:
q
µ = |det[g(ei , ej ]|e1 ∧ · · · ∧ em

Además de permitirnos definir una forma de volumen


Vk de esta manera, la exitencia de un producto interno
nos induce un producto interno para cada espacio (V ) de la siguiente forma: puesto que disponemos de
las operaciones de subida y bajada de ı́ndices ] = [−1 y usando las contracciones podemos pasar de dos
k-formas, esto es, dos tensores Tk0 (V ) a un número real mediante la aplicación:

^ ^
h, ik : (V ) × (V ) → R
1...k k
(ω, η) 7→ hω, ηik = C1...k (] ω ⊗ η)
Vk
que efectivamente satisface las condiciones de producto interno en (V ) y que en componentes se expresa
como:
20 CAPÍTULO 2. ÁLGEBRA MULTILINEAL

1 i1 ...ik
hω, ηik = ω I1 ...Ik ηI1 ...Ik =
ω ηi1 ...ik
k!
Dados estos ingredientes, a saber, un producto interno g, una forma de volumen métrico µ y los productos
internos inducidos h, ik , se puede comprobar que existe un isomofismo único, llamado el operador o estrella
de Hodge:
k
^ m−k
^
?: (V ) → (V )
Vk
que satisface ∀ω, η ∈ (V )

ω ∧ ?η = hω, ηik µ
Si tomamos una k-forma η, la relación de las componentes en las bases producto de la aplicación de
Hodge es:
p
|g|
(?η)i1 ...in−k = η j1 ...jk j1 ...jk i1 ...in−k
k!(n − k)!
Y tenemos el siguiente listado de propiedades relevantes:
ω ∧ ?η = η ∧ ?ω
?1 = µ, ?µ = (−)s 1
? ? ω = (−)s (−)k(n−k) ω
donde s es la signatura de la métrica, esto es, el número de autovalores negativos que presenta.

2.6.4. Formas Vector-Valuadas


Definimos el conjunto de k-formas valuadas sobre un espacio vectorial W como todas las aplica-
ciones:
k
^
(V, W ) = {ω : V × ...k... × V → W }
que son multilineales y totalmente antisimétricas. Resulta evidente que, haciendo
Vk una elección de base en
el espacio vectorial de llegada W , {ei }, podemos expresar cualquier elemento ω ∈ (V, W ) como el producto
tensorial de k-formas (habituales) y los elementos de la base, ası́ diremos que el conjutno de k-formas {ω i }
tales que:

ω = ω i ⊗ ei
son las componentes de ω. Podemos definir derivaciones sobre las formas vector-valuadas a partir de
derivaciones sobre las k-formas de la siguiente manera: sea T una derivación o antiderivación, entoncese
comprueba que la siguiente definición es independiente de base

T ω = T ω i ⊗ ei
Supongamos que el espacio vectorial incorpora una estructura de álgebra de Lie (W, [, ]), entonces, usando
de nuevo, la elección de una base pero comprobando que esta definición es independiente de la misma,
definimos el corchete de Lie generalizado para formas vector-valuadas como sigue:

[ω, η] = (ω i ∧ η j ) ⊗ [ei , ej ]
que
Vkse trata de una
Vl operación V
bilineal con las siguientes propiedades generalizadas de corchete de Lie
p
∀ω ∈ (V, W ), η ∈ (V, W ), θ ∈ (V, W ):
2.6. ÁLGEBRA EXTERIOR 21

[ω, η] = (−)kl [η, ω]


(−)kp [ω, [η, θ]] + (−)kl [η, [θ, ω]] + (−)pl [θ, [ω, η]] = 0

Además si se tiene definida una (derivación o) antiderivación T tendremos:

T [ω, η] = [T ω, η] + (−)k [ω, T η]


22 CAPÍTULO 2. ÁLGEBRA MULTILINEAL
Capı́tulo 3

Topologı́a y Diferenciabilidad

23

También podría gustarte