Documentos de Académico
Documentos de Profesional
Documentos de Cultura
2. Álgebra Multilineal 7
2.1. Álgebra Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.1.1. Espacio Vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.1.2. Aplicaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.1.3. Espacio Dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.4. Producto Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2. Tensores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2.1. Suma y Producto por un Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2.2. Producto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2.3. Contracciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.3. Tensores Asociados - Subida y Bajada de Índices . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.4. Cambio de Base y Componentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.5. Aplicaciones Inducidas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.6. Álgebra Exterior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.6.1. Formas y Producto Exterior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.6.2. Derivaciones y Graduación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.6.3. Formas de Volumen y Orientación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.6.4. Formas Vector-Valuadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3. Topologı́a y Diferenciabilidad 23
3
4 ÍNDICE GENERAL
Capı́tulo 1
Φ :M × M → Vn
(p, q) 7→ pq
que satisface:
∀p ∈ M, v ∈ Vn ∃q ∈ M : pq = v
∀p, q ∈ M : pq = 0 ⇔ p = q
∀p, q, r ∈ M : pq + qr = pr
Efectivamente puede verse pues que siempre es posible establecer una correspondencia biunı́voca entre el
espacio de puntos M y el espacio vectorial asociado Vn . Intuitivamente resulta sugerente imaginar el espacio
vectorial como un ente abstracto que de las reglas para codificar la idea de dirección y sentido en el espacio
e imaginar que de cada punto p ∈ M emana un espacio de flechas isomorfo a aquel, siendo, pues, las flechas
los caminos que conectarán p con cualquier otro punto del espacio afı́n.
p + Vk = {q ∈ M |pq ∈ Vk }
En particular, y especialmente cuando tratamos con tres o cuatro dimensiones, es habitual designar a las
variedades 1-dimensionales rectas, a las 2-dimensionales planos y a las 3-dimensionales hiperplanos.
Resulta fácil comprobar que cualquier subvariedad de dimensión k de un espacio afı́n dado M es, a su
vez, un espacio afı́n de dimensión k.
5
6 CAPÍTULO 1. INTRODUCCIÓN: EL ESPACIO AFÍN
d :M × M → R+
(p, q) 7→ d(p, q)
Lo que proporciona al espacio afı́n M las nociones intuitivas que cotidianamente asociamos a la distancia
entre dos puntos del espacio tridimensional.
Una métrica, g, definida sobre el espacio afı́n M con espacio vectorial asociado Vn no es más que un
producto escalar definido sobre el espacio vectorial Vn que nos permite, por lo tanto, asignar valores de
módulo y ángulo a vectores que unan puntos del espacio afı́n M . Para la definición general de métrica
que se dará en la siguiente sección conviene imaginar el esquema que dimos más arriba de un espacio afı́n
como un conjunto de puntos emanando de cada uno de ellos un espacio vectorial de dimensión finita que
asociamos a las flechas que apunatrı́an desde ese punto; la métrica será un aplicación que asigne a cada uno
de esos espacios vectoriales una estructura de producto escalar que permita hablar de longitud y orientación
relativa de las flechas.
Si consideramos una clase especial de métricas, las denominadas riemannianas que se distinguen por estar
definidas positivas, resulta inmediato ver que una vez definida una métrica sobre un espacio afı́n se puede
obtener de forma única una distancia sobre ese mismo espacio. El recı́proco también es cierto y para probarlo
basta con hacer uso de la identificación:
Álgebra Multilineal
Es posible que el concepto de espacio vectorial sea el más valioso de los constructos que se usan hoy en
dı́a en fı́sica puesto que, de alguna manera, uno podrı́a aventurarse a decir, sin demasiado miedo a cometer
una barbaridad, que, en fı́sica, todo es un espacio vectorial. Desde las flechas en un plano, hasta los conjuntos
de funciones integrables en espacios de dimensión infinita, dadas las operaciones apropiadas, inifinidad de
conjuntos pueden entenderse como espacios vectoriales. Esperamos que esto sea motivación suficiente para el
estudio de los espacios vectoriales y toda la estructura multilineal que de ellos desprende. Términos como dual
o tensor, tan usados en fı́sica moderna hoy en dı́a y, a veces, tan pobremente presentados a los estudiantes
quedarán claramente definidos y, esperamos, entendidos al finalizar este escrito.
· :K × V → V
(α, v) 7→ α · v
que satisface:
Distributiva en V : ∀v, w ∈ V, ∀α ∈ K : α · (v + w) = α · v + α · w
Distributiva en K: ∀v ∈ V, ∀α, β ∈ K : (α + β) · v = α · v + β · v
Asociativa en K: ∀v ∈ V, ∀α, β ∈ K : α · (β · v) = (α · β) · v
Unidad en K: ∀v ∈ V : 1 · v = v
Entonces se dice que ((V, +), (K, +, ·), ·) es espacio vectorial; a V se le dice el conjunto de vectores
y normalmente éste abreviará toda la definición arriba escrita cuando no se de pie a confusión; a K se le
dice el conjunto de escalares; se dice también, a veces, espacio vectorial V sobre K. Seguramente el lector
haya notado que hemos abusado de la notación en cuanto a lo que se refiere a sı́mbolos para las leyes de
composición de vectores, de escalares y de vectores con escalares, este abuso que mantedremos a lo largo del
libro y que es estandar en la literatura actual, viene justificado y no crea ambigüedad por las propiedades
de asociatividad, distributividad y conmutatividad expuestas.
1 por los casos que resultan de interés en este libro el cuerpo será usualmente R o C
7
8 CAPÍTULO 2. ÁLGEBRA MULTILINEAL
Una idea básica en espacios vectoriales, a veces llamados también espacios lineales, es la de dependencia
lineal. Se dice que un conjunto de vectores {xi }i∈I es linealmente independiente si:
X
αi xi = 0 ⇔ αi = 0 ∀i ∈ I
i∈I
Otro término propio de espacios vectoriales es el de combinación lineal de un conjunto de vectores
{xi }i∈I , que no es más que la suma de todos los vectores multiplicados por algunos escalares; denotamos:
X
span({xi }i∈I ) = {v ∈ V |v = αi xi ∀αi ∈ K}
i∈I
Por lo tanto, span({xi }i∈I ) es el conjunto de todas las combinaciones lineales posibles del conjunto
{xi }i∈I de vectores. Además, una forma de entender la dependencia lineal es pensar en una combinación
lineal de vectores y preguntarse si se pueden obtener alguno de los mismo como una combinación lineal del
resto, es fácil mostrar que si el conjunto es linealmente independiente esto no será posible, mientras que si
son linealmente dependiente sı́ lo será.
2
Llamaremos base del espacio vectorial V a un conjunto de vectores B = {ei }i∈I que satisfacen:
span(B) = V , es decir, podemos expresar cualquier v ∈ V como combinación lineal de los elementos
de la base
B es linearmente independiente
Cuando el conjunto {ei }i∈I es finito con, digamos, m elementos, diremos que V es m dimensional,
dimV = m; en cualquier otro caso diremos que V es infinito dimensional.
Este es un buen momento para introducir la convención de sumación de Einstein que dicta que
ı́ndices que aparezcan repetidos a pares en posiciones super- y subı́ndice deberán estar sumados sobre todos
los valores posibles del ı́ndice (normalmente hasta un máximo finito). En cualquier expresión algebraica
tendremos, para un cierto ı́ndice i ∈ I:
X
(...)...i... ...(...)...i... = (...)...i... ...(...)...i...
i∈I
En este punto de la exposición los superı́ndices aun no han aparecido y esta regla puede antojarse confusa
y artificiosa pero, conforme avancemos en materia en esta sección y en la siguiente, esperamos, la idoneidad
de la convención de Einstein resultará clara. Es importante acostumbrarse rápido a esta notación ya que, de
aquı́ en adelante, la usaremos extensivamente.
Consideremos un espacio vectorial V de dimensión m y una base en el mismo B = {ei }i=1,...,m , un vector
arbitrario del espacio, v ∈ V se escribirá pues:
v = v i ei para algunos vi ∈ K
En este pequeña ecuación se concentran bastantes convenios estandares de notación. En primer lugar se
hace uso de la convención de Einstein, por otra parte, tanto la posición de los ı́ndices de los elementos de la
base como la de los escalares coeficientes o componentes, va a ser común a la inmensa mayorı́a de espacios
vectoriales que trataremos.
Recordando la definición de espacio vectorial notamos que (V, +) es un grupo, y como tal, si restringimos
el producto por escalares, las aplicaciones lineales son homomorfismos y como tales, para los casos especiales
de biyectividad, etc. se les designa con los nombres propios de isomorfismo, etc. Es inmediato ver, vı́a la
elección de una base en V sobre K, que todo espacio vectorial de dimensión finita m es isomorfo a Km , en
el sentido de que existe una aplicación lineal 3 que es biyectiva.
Es también rápido comprobar que, para una apliación lineal f : V → W , tanto ker(f ) ⊂ V como
Im(f ) ⊂ W son subespacios vectoriales de sus respectivos espacios ambiente. Siendo esto ası́, damos el
siguiente teorema que se deriva del primer teorema de isomorfismos entre grupos:
Consideremos el conjutno de todas las aplicaciones lineales entre dos espacios vectoriales sobre el mismo
cuerpo K, L(V, W ) = {f : V → W |f es lineal} y las definiciones naturales de suma de aplicaciones y producto
por un escalar definidas como sigue:
+ :L × L → L
(f, g) 7→ f + g : (f + g)(v) = f (v) + g(v) ∀v ∈ V
· :K × L → L
(α, f ) 7→ α · f : (α · f )(v) = α · f (v) ∀v ∈ V, α ∈ K
Entonces, es inmediato probar por linealidad que ((L, +), (K, +, ·), ·) es un espacio vectorial.
Un caso particular, pero importante y por tanto con notación estandar propia, son las apliaciones lineales
biyectivas - por lo tanto invertibles - de un espacio V sobre K en sı́ mismo o automorfismos. El conjutno
de estas aplicaciones se denota por GL(V, K) y junto a la operación ◦, la composición de aplicaciones, for-
ma un grupo que se denomina generalmente el grupo lineal de V . Haciendo una elección de base en V
podemos obtener de cada automorfismo en V un automorfismo en Km simplemente tomando las componen-
tes de los vectores y sus imágenes. A su vez, estas aplicaciones quedarán totalmente determinadas por m2
escalares debido a la linealidad de las aplicaciones originales. Operando cuidadosamente todas las cuentas
correspondientes, no cuesta mostrar que el conjunto de matrices m × m no singulares junto con el produc-
to convencional de matrices es un grupo, designado por GL(m, K), y que éste es isomorfo al grupo lineal de V .
Otro caso particular importante es el de los llamados funcionales lineales en un espacio vectorial V sobre
K, es decir, las aplicaciones lineales de la forma
ω : V 7→ K
3 simplemente, la aplicación que da las componentes en una base determinada dado un vector cualquiera
10 CAPÍTULO 2. ÁLGEBRA MULTILINEAL
Vamos a dar la base más sencilla que se le puede venir a uno a la cabeza de V ∗ . Tomemos una base en V ,
B = {ei }i=1,...,m , y definamos los funcionales lineales que actúan sobre los elementos de la base como sigue:
ω(v) = ωi ei (v j ej ) = ωi v i
Lo que muestra la conveniencia de la elección de esta base en particular. Notar que llegados a este punto,
de nuevo, la notación usada será estandar en todo momento en que nos encontremos con espacios duales.
h·, ·i :V × V → R
(v, w) 7→ hv, wi
que satisface
Las aplicaciones de esta forma se caracterizan por matrices m × m simétricas no singulares, donde m es
la dimensión de V . Esto es inmediato de comprobar si se escoge una base cualquiera en V .
2.2. Tensores
Tomando un espacio vectorial V sobre R, se llama espacio tensorial de orden (r, q), denotado por Tqr (V ),
al conjunto de todas las aplicaciones multilineales (lineales en todos sus argumentos simultáneamente) de la
forma:
t :V ∗ × ...r... × V ∗ × V × ...q... × V → R
(ω1 , ..., ωr , v1 , ..., vq ) 7→ t(ω1 , ..., ωr , v1 , ..., vq )
4 si el cuerpo es C, todas las condiciones que hagan uso de la simetrı́a se tendrán que reemplazar por sesquisimetria, es deceir,
y a t se le llama tensor de orden (r, q). Por lo tanto, un tensor no es más que una aplicación que está pi-
diendo que se le enchufen r covectores y q vectores para escupir un número real y que, además, simpre lo
hará de forma lineal. A lo largo de todo el desarrollo que se hará a continuación se encontrarán resultados
que permiten entender tensores de órdenes concretos como objetos reconocibles previos a la definición de
tensor, cosa que históricamente tiene mucho sentido ya que éstos precisamente se desarrollaron como una ge-
neralización de muchos objetos, a priori muy diferentes, que se tenı́an definidos sobre los espacios vectoriales.
No obstante, y aunque esto puede cambiar según la disciplina en la que se vayan a utilizar, seguramente la
mejor intuición que se puede tener de tensor es la que se obtiene precisamente la definición dada, explicada
en la frase en cursiva más arriba. Muy habitualmente, en la literatura fı́sica, uno se topa con desarrollos ten-
soriales en los que nunca se precisa la idea de tensor más allá de la de un conjunto de números indexados que
se transforman de una determinada manera; este enfoque, aunque formalizable matemáticamente, resulta
extremadamente crı́ptico para el lector inexperto. Uno de los principales propósitos de esta sección es el de
dar las claves formales que permiten entender todas las operaciones con tensores, que tan habitualmente se
definen con ı́ndices ocultando el verdadero contenido conceptual, de forma precisa.
Las dos primeras identidades son clares por construcción, la segunda requiere alguna aclaración. Para
construir, digamos, el isomorfismo entre T11 (V ) y L(V, V ) necesitamos identificar tensores que actúan li-
nealmente sobre un covector y un vector con aplicaciones lineales que dado un vector dan otro vector. Sea
t ∈ T11 (V ), una forma de hacer este tipo de identificación es tomar un vector v ∈ V e identificarlo con el
objeto t(·, v). Efectivamente, este objeto es una aplicación que pide un covector y que escupe un numero real
y, puesto que la linealidad se hereda del hecho de que t ∈ T11 (V ), éste será un vector. Para corroborar que
se trata de un isomorfismo y no solo de una biyección, debemos esperar a llegar a la siguiente sección en la
que definimos todas las operaciones con tensores. Para el isomorfismo con L(V ∗ , V ∗ ) se usa un argumento
paralelo dejando ahora el segundo argumento de t vacı́o. Siguiendo la estética de estos resultados tomamos
la convención T00 (V ) = R
· :R × Tqr (V ) → Tqr (V )
(α, t) 7→ α · t : (α · t)(ω, v) = αt(ω, v) ∀ω ∈ V ∗ , v ∈ V, α ∈ R
De esta manera, ((Tqr (V ), +), (R, +, ·), ·) es un espacio vectorial. Ahora, los isomorfismos presentados en
la sección 2.5 cobran pleno significado.
5 muy habitualmente, y cuando no genere confusión, escribiremos t(ω, v) para un tensor (r, q) en lugar de escribir toda la
ristra de argumentos
12 CAPÍTULO 2. ÁLGEBRA MULTILINEAL
2.2.2. Producto
Puesto que los tensores dan números reales cuando se les proporcionan todos sus argumentos, parece
razonable definir un producto de tensores que simplemente use el hecho de que podemos multiplicar números
reales con normalidad. El producto tensorial se define:
Por la linealidad de los objetos definidos el conjunto de todos los productos tensoriales de todos los
tensores de Tqr11 (V ) con todos los tensores de Tqr22 (V ) y sus combinaciones lineales, genera completamente
el espacio tensorial Tqr11+q
+r2
2
(V ) y decimos, pues, que Tqr11+q
+r2
2
(V ) es el producto tensorial 6 de Tqr11 (V ) y
r2
Tq2 (V ) escribiendo:
Tqr11+q
+r2
2
(V ) = Tqr11 ⊗ Tqr22
Siendo esto ası́, podemos ver que es posible contruir cualquier espacio tensorial a partir de V y V ∗
entendidos como T01 (V ) y T10 (V ), respectivamente. De forma que:
tensorial de tensores se desprende que ésta es una operación lineal en sus argumentos. Como ya hemos
señalado, Tqr (V ) será generado por las combinaciones lineales de productos tensoriales de elementos de V
y V ∗ , por lo tanto, si expresamos los vectores y covectores en las bases correspondientes, veremos que un
tensor general de Tqr (V ) será una combinación lineal de los siguientes elementos:
t ∈ Tqr (V ) ⇒ t = tji11...i j1
...jq ei1 ⊗ ... ⊗ eir ⊗ e ⊗ ... ⊗ e
r jq
Dónde se ha usado la convención de Einstein para los ı́ndices repetidos con tji11...i
...jq ∈ R por lo que la
r
expresión de arriba no es más que una sofisticada manera de escribir una, potencialmente muy larga, com-
binación lineal.
Recordemos que los covectores son funcionales lineales sobre vectores y que los vectores son funcionales
lineales sobre covectores, con esta idea en mente, una forma muy apropiada de ver el producto tensorial es
entendiendo cada uno de los factores como un argumento que pide un vector o un covector correspondien-
temente a que el factor sea un covector o un vector respectivamente. Es un buen ejercicio comprobar que
todo el análisis realizado con el producto tensorial hasta el momento puede reinterpretarse en términos de
la acción de un tensor Tqr (V ) sobre covectores y vectores expandidos en una base. De nuevo simplificando la
notación reduciendo el número de argumentos, tenemos:
el producto de tensores como para el espacio producto tensorial de otros dos; veremos que esto no será nunca una fuente de
confusión
2.2. TENSORES 13
especificar una aplicación lineal basta con especificar la acción de la misma sobre todos los elementos de
una base arbitraria del espacio vectorial. Ası́ que, de alguna manera, podemos entender tji11...i
...jq ∈ R como la
r
r
expresión matricial de un tensor t ∈ Tq (V ) y por lo tanto nunca se debe confundir el objeto vectorial t con
sus componentes en una base particular, como de costumbre para aplicaciones lineales.
2.2.3. Contracciones
La operación de contracción se define inicialmente para vectores y covectores como una aplicación lineal:
t = tij11...i j1
...jq ei1 ⊗ ... ⊗ eir ⊗ e ⊗ ... ⊗ e
r jq
Definimos la contracción del ı́ncide superior l-ésimo con el ı́ndice inferior m-ésimo como la aplicación de
la forma:
l r−1
Cm : Tqr (V ) → Tq−1 (V )
Que actúa sobre un tesor expresado en una base como sigue:
l
Cm l
(t) = Cm (tij11...ir j1 jq
...jq ei1 ⊗ ... ⊗ eir ⊗ e ⊗ ... ⊗ e )
i ...i ki ...i
= tj11 ...jl−1 m+1 r
m−1 kjm+1 ...jq
ei1 ⊗ ...êil ... ⊗ eir ⊗ ej1 ⊗ ...êjm ... ⊗ ejq )
Donde la notación ê indica la omisión de e. Un buen ejercicio es demostrar que esta definción es, de
hecho, independiente de la elección de base, es decir, que, independientemente de en qué base expandamos
l
t, la operación Cm da siempre el mismo tensor.
t(ω, v) = ωi v j tij
Si ahora tomamos ω ∈ V ∗ y v ∈ V como tensores T10 (V ) y T01 (V ) respectivamente podemos operar:
t ⊗ ω ⊗ v ∈ T22 (V )
teniendo la expresión en componentes:
t ⊗ ω ⊗ v = ωi v j tlk ej ⊗ el ⊗ ei ⊗ ek
Ahora, tomando contracciones en ambos ı́ndices tenemos:
Ası́ que, efectivamente, podemos siempre expresar la acción de un tensor sobre sus argumentos como la
contracción del producto tensorial de los mismos:
[ :V → V ∗
v 7→ hv, ·i
Por las propiedades del producto interno esta aplicación es un isomorfismo de forma que su inversa
está perfectamente definida y se denomina subida de ı́ndice para un covector:
]:V∗ →V
Escogiendo la base dual en V ∗ podemos ver la acción de estas operaciones en componentes. La bajada
de ı́ndices es inmediato expresarla en componentes dadas las componentes del producto interno:
v = v j ej ∈ V, [v = gij v j ei ∈ V ∗
La operación inversa se puede definir de forma independiente como
]ω = w| hw, vi = ω(v) ∀v ∈ V
pero puesto que sabemos que se trata de un isomorfismo, la expresión en componentes de la inversa
[−1 = ] no será más que la matriz inversa de la aplicación directa [. Por lo tanto definimos la inversa de la
matriz del producto interno:
g ij | g ij gjk = δki
De forma que tenemos:
ω = ωj e j ∈ V ∗ , ]ω = g ij ωj ei ∈ V
Es fácil ahora generalizar estas operaciones a tensores generales Trq (V ) simplemente aplicando las ope-
raciones a los argumentos de éstos. Por lo general resultará inambiguo a qué argumentos aplicar la subida o
bajada de ı́ndices, pero en caso de confusión siempre se hará al primero de ellos. Por ejemplo, sea t ∈ T11 (V ),
decimos que t tiene un tensor asociado por bajada de ı́ndice definido por:
(]t)ij = g ik tjk
Por mostrar otra forma de aplicar las contracciones, mostramos a continuación que las operaciones de
subida y bajada de ı́ndices se pueden expresar de forma sencilla considerando el producto interno como un
tensor g ∈ T20 (V ) cuyas componentes en un determinada base son, efectivamente gij = hei , ej i. Vemos pues
que es sencillo comprobar en componentes que:
[v = C21 (g ⊗ v)
]ω = C12 (γ ⊗ ω)
Dónde γ se llama el producto interno inverso - cuya expresión matricial es la inversa de la expresión
matricial del producto interno - y se define por γ(ω1 , ω2 ) = g(]ω1 , ]ω2 ).
Una puntualización importante sobre notación muy extendida en la literatura fı́sica es que en la inmensa
mayorı́a de textos los operadores [ y ] se omiten cuando se explicitan únicamente las componentes; dando
lugar a las siguientes expresiones:
v = v j ej ∈ V, ([v)i = gij v j = vi
ω = ωj ej ∈ V ∗ , (]ω)i = g ij ωj = ω i
i = Aji ej
Ahora podemos preguntarnos cómo estará relacionada la dual de la nueva base con la dual de la primera,
es decir, tratar de identificar los coeficientes de i = Bji ej . Tras un simple cómputo:
tji11...i i1 ir
...jq = t(e , ..., e , ej1 , ..., ejq )
r
τji11...j
...ir
q
= t(i1 , ..., ir , j1 , ..., jq )
Como vimos arriba, la relación entre los elementos de las bases es
16 CAPÍTULO 2. ÁLGEBRA MULTILINEAL
i = Aji ej y i = Bji ej
ası́ pues, sin más que sustituir en la expresión de τji11...j
...ir
q
y usando la linealidad de t, tenemos:
l
τji11...j
...ir
q
= Bki11 · · · Bkirr tkl11...l
...kr
q
Alj11 · · · Ajqq
Notar que aquı́ hemos usado la convención de Einstein para sumar ı́ndices repetidos y se han dispuesto
los coeficientes de forma que resulten más fáciles de leer, pero en ningún caso debe olvidarse que, para
cada conjunto de ı́ndices en el miembro de la izquierda, esta expresión no es más que una (potencialmente)
enorme combinación lineal. Esta ecuación, de hecho, se denomina a veces criterio de tensorialidad ya
que cualquier objeto que defininamos en un espacio vectorial que quede identificado con una serie de compo-
nentes y éstas se transformen de la manera expuesta bajo cambios de base, corresponderán, efectivamente,
a algún tensor de un determinado orden, posiblemente contraido o rellenado parcialmente en sus argumentos.
Un tensor especialmente interesante por lo que respecta a cómo cambian sus componentes es el llamado
tensor invariante de Kronecker δ ∈ T11 (V ) definido como:
δ : (ω, v) 7→ ω(v)
Resulta inmediato comprobar que las componentes de este tensor en cualquier base {ei } tiene por com-
ponentes:
δ = δji ei ⊗ ej
cosa que coincide con el hecho de que cualquier transformación de componentes recupera los mismos
valores.
f ∗ :W ∗ → V ∗
ω 7→ f ∗ ω : (f ∗ ω)(v) = ω(f (v)) ∀v ∈ V
Por convención escribiremos f como f∗ cuando se actúa en vectores. En la literatura en lengua inglesa es
usual denominar a las aplicaciones lineales que lleven vectores hacia adelante de V a W push-forwards y
aquellas que traigan covectores de W ∗ a V ∗ pull-backs. Teniendo en cuenta esta convención y que éstos son
los nombres que realmente se utilizan, a lo largo de este libro nosotros los denominaremos, apropiadamente,
empujones y tirones respectivamente.
f∗ :T0r (V ) → T0r (W )
t 7→ f∗ t : (f∗ t)(β1 , ..., βr ) = t(f ∗ β1 , ..., f ∗ βr )
f ∗ :Tr0 (W ) → Tr0 (V )
t 7→ f ∗ t : (f ∗ t)(v1 , ..., vr ) = t(f∗ v1 , ..., f∗ vr )
2.6. ÁLGEBRA EXTERIOR 17
Para generalizar estas aplicaciones inducidas a tensores Tqr (V ), tiene que poderse definir la inversa de f∗
para que tenga sentido tanto empujar como tirar vectores y covectores indistintamente. Ası́ pues, en el caso
de que f∗ sea un isomorfismo definimos el tirón de un vector y el empujón de un covector 7 como sigue:
f ∗ :W → V
w 7→ f ∗ w = (f −1 )∗ w
f∗ :V ∗ → W ∗
ω 7→ f∗ ω = (f −1 )∗ ω
f∗ :Trq (V ) → T0r (W )
t 7→ f∗ t : (f∗ t)(v1 , ..., vr , β1 , ..., βq ) = t(f ∗ v1 , ..., f ∗ vr , f ∗ β1 , ..., f ∗ βq )
f ∗ :Trq (W ) → Tr0 (V )
t 7→ f ∗ t : (f ∗ t)(v1 , ..., vr , β1 , ..., βq ) = t(f∗ v1 , ..., f∗ vr , f∗ β1 , ..., f∗ βq )
A continuación se dan una serie de resultados importantes para las aplicaciones inducidas:
Apliaciones Inducidas 2.5.1 Para unos espacios vectoriales V , W y U reales de dimensión finita se tiene:
Sean f∗ : V → W y g∗ : W → U entonces (g ◦ f )∗ = f ∗ ◦ g ∗
η = ηi1 ...ik ω i1 ⊗ · · · ⊗ ω ik
Ahora, definiendo el objeto completamente antisimétrico o delta de Kronecker generalizada como:
+1 si (i1 . . . ip ) es par respecto a (j1 . . . jp )
i ...i i ...i
j11 ...jpp ≡ δj11 ...jpp = −1 si (i1 . . . ip ) es impar respecto a (j1 . . . jp )
0 en cualquier otro caso
7 notar que lo que se habı́a definido hasta ahora era el empujón de un vector y el tirón de un covector
18 CAPÍTULO 2. ÁLGEBRA MULTILINEAL
i ...i
δj11 ...jpp = det([δjiab ])
i ...i j ...j i ...i
j11 ...jpp k11 ...kpp = p!k11 ...kpp
Con estas definiciones resulta inmediato comprobar que, dada una base del dual {ω i }ni=1 , el producto de
los elementos de la base se puede escribir:
i ...i
ω i1 ∧ · · · ∧ ω ik = j11 ...jpp ω i1 ⊗ · · · ⊗ ω ik
de manera que una k-forma arbitraria η tendrá por expresión en componentes y componentes es-
trictas, respectivamete:
1
η= ηi ...ı ω i1 ∧ · · · ∧ ω ik = ηI1 ...Ik ω I1 ∧ · · · ∧ ω Ik
k! 1 k
dónde en el segundo miembro se hace uso del convenio de ı́ndices estrictos y se mantiene siempre I1 < . . . < Ik
y dónde las componentes son siempre completamente antisimétricas bajo permutación de ı́ndices, como es
natural a partir de su definición. Si expresamos dos formas, ω, η, en la base producto tendremos, en base a
la definición de las expresiones en componentes y a la definición del producto exteriror, la siguiente relación
entre componentes:
1 i1 ...ik j1 ...jl
(ω ∧ η)n1 ...nk+l = αi ...i βj ...j
k!l! n1 ...nk nk+1 ...nk+l 1 k 1 l
^ m ^
M k
(V ) = (V )
k=0
V
con la multiplicación que no es más que el producto exterior generalizado a (V ) de forma natural.
Entonces vemos que claramente el álgebra exterior es un álgebra asociativa no conmutativa en general y
graduada ya que el producto actúa en los subespacios aditivamente.
1. Nilpotencia: T ◦ T = 0
2. Regla de Leibnitz: T (ω ∧ η) = T ω ∧ η + ω ∧ T η
k
^ k+s
^
T : (V ) → (V ) (∀k)
1. Nilpotencia: T ◦ T = 0
Dar un forma de volumen particular requiere de estructura adicional y por ello consideramos un espacio
vectorial dotado de un producto interno g. Sea, dada una orientación de V , una base positivamente orientada
arbitraria {ei } y su dual {ei } , entonces la siguiente forma máxima es un elemento de volumen válido
denominado g-volumen o volumen métrico:
q
µ = |det[g(ei , ej ]|e1 ∧ · · · ∧ em
^ ^
h, ik : (V ) × (V ) → R
1...k k
(ω, η) 7→ hω, ηik = C1...k (] ω ⊗ η)
Vk
que efectivamente satisface las condiciones de producto interno en (V ) y que en componentes se expresa
como:
20 CAPÍTULO 2. ÁLGEBRA MULTILINEAL
1 i1 ...ik
hω, ηik = ω I1 ...Ik ηI1 ...Ik =
ω ηi1 ...ik
k!
Dados estos ingredientes, a saber, un producto interno g, una forma de volumen métrico µ y los productos
internos inducidos h, ik , se puede comprobar que existe un isomofismo único, llamado el operador o estrella
de Hodge:
k
^ m−k
^
?: (V ) → (V )
Vk
que satisface ∀ω, η ∈ (V )
ω ∧ ?η = hω, ηik µ
Si tomamos una k-forma η, la relación de las componentes en las bases producto de la aplicación de
Hodge es:
p
|g|
(?η)i1 ...in−k = η j1 ...jk j1 ...jk i1 ...in−k
k!(n − k)!
Y tenemos el siguiente listado de propiedades relevantes:
ω ∧ ?η = η ∧ ?ω
?1 = µ, ?µ = (−)s 1
? ? ω = (−)s (−)k(n−k) ω
donde s es la signatura de la métrica, esto es, el número de autovalores negativos que presenta.
ω = ω i ⊗ ei
son las componentes de ω. Podemos definir derivaciones sobre las formas vector-valuadas a partir de
derivaciones sobre las k-formas de la siguiente manera: sea T una derivación o antiderivación, entoncese
comprueba que la siguiente definición es independiente de base
T ω = T ω i ⊗ ei
Supongamos que el espacio vectorial incorpora una estructura de álgebra de Lie (W, [, ]), entonces, usando
de nuevo, la elección de una base pero comprobando que esta definición es independiente de la misma,
definimos el corchete de Lie generalizado para formas vector-valuadas como sigue:
[ω, η] = (ω i ∧ η j ) ⊗ [ei , ej ]
que
Vkse trata de una
Vl operación V
bilineal con las siguientes propiedades generalizadas de corchete de Lie
p
∀ω ∈ (V, W ), η ∈ (V, W ), θ ∈ (V, W ):
2.6. ÁLGEBRA EXTERIOR 21
Topologı́a y Diferenciabilidad
23