Está en la página 1de 29

Análisis tensorial

Iwasawa

Notas de Métodos matemáticos II

Mayo 2022
2
Capítulo 1

Álgebra tensorial

1.1. Introducción
Los tensores son un objeto matemático que hasta las fechas modernas no había sido muy
usado más que para el tratamiento de la relatividad general y un poco de hidrodinámica.
Ahora son muchas ramas de la física las que se encargan de atormentar a los nuevos físicos con el
uso de los tensores: gravitación, física de partículas, física de la materia condensada, elasticidad,
mecánica de fluidos, etc. Algunos ejemplos de tensores muy conocidos son el tensor métrico
de la relatividad: g µν . También tenemos al tensor de esfuerzos: T ab . El tensor métrico nos
describe la geometría del espacio tiempo, así como el tensor de esfuerzos describe las tensiones
geométricamente.
Al espacio físico siempre se le puede asociar un espacio vectorial, sea R3 tal espacio, la geometría
intrínseca de este y las simetrías que juegan un rol importante en el estudio de las teorías físicas
son tratables mediante el análisis tensorial.
La notación a usar para los espacios vectoriales será en general la letra V, para tal espacio es
posible construir su espacio dual, denotado por V ∗ . Si {ei }i=1,...,N es una base para en espacio
N −dimensional V entonces su respectiva base dual se denota {ϵi }i=1,...,N , pues dado el espacio
V ∗ de transformaciones de V en R o en C se tiene que
dim(V) = N = dim(V ∗ )
También se usará la convención de sumas de Einstein para simplificar la notación de las
sumas:

Definición 1.1.1: Convención de sumas de Einstein


Cualquier par de índices repetidos, donde uno aparece arriba y otro abajo, se asume
representan una suma:

X
N
aki bij ≡ aki bij (1.1.1)
i=1

También se dice que la expresión (1.1.1) es una contracción. De este modo se pueden escribir
los elementos de la representación matricial de un operador A mediante como αij , pues Aei =
P j
αij ej = αi ej . De igual forma se pueden representar vectores de V en una base {ei }: Sea
j
v ∈ V, entonces, v = αj ej . Usando el producto interior usual del espacio Rn se tiene:
X X
n
x · y = α j ej · β i ei = αj β i (ej · ei ) = α j β j ≡ α j βj
i,j
| {z } j=1
=δij

1.2. Tensores como mapeos multilineales


El espacio de mapeos lineales de V en W se denota como L (V, W ), de modo que su di-
mensión es dim (L (V, W )) = dim (V ) · dim (W ). Por ejemplo, si V = W = Rn , cualquier

3
4 CAPÍTULO 1. ÁLGEBRA TENSORIAL

transformación T : V 7→ W se asocia a una matriz de n × n de modo que podemos representar


a L (V, W ) como el espacio de matrices de n × n.

Proposición 1.2.1

′ ′ N2
Sea B = {ei }N
i=1 la base de V y B = {eα }α=1 la base de W. Entonces
1

1) Las transformaciones lineales Tjβ : V 7→ W definidas por

Tjβ ei = δij e′β i, j ∈ {1, ..., N1 }, β ∈ {1, ..., N2 }

forman una base de L (V, W) y dim (L (V, W)) = dim (V) · dim (W).
2) Si τjα son los elementos de la matriz T ∈ L (V, W) con respecto a las bases B y B ′
entonces

X
N2 X
N1
T = τjα Tjα ≡ τjα Tjα
α=1 j=1

Demostración. Primeramente suponemos que


N2 X
X N1
cβj Tjβ ≡ cβj Tjβ = 0 (transformación nula)
β=1 j=1

Al aplicar sobre la base B:

cβj Tjβ ei = cβj δij e′β = cβi e′β = 0W ∀β, j, i

La independencia lineal de los e′β ser base de W implica que cβi = 0 para cada i, β. Por tanto las
transformaciones Tjβ son linealmente independientes. Vemos que la cantidad de transformaciones
dadas es N1 · N2 = dim (V) · dim (W).
Ahora usamos el hecho de que existe una representación matricial de T : V 7→ W dada por

Tei = τij e′j i ∈ {1, .., N1 }, j ∈ {1, .., N2 }

Si definimos la transformación U como U = τβj Tβj entonces

Uei = τβj Tβj ei = τβj δiβ e′j = τij e′j = Tei

Por tanto, dado v ∈ V

T(v) = T(ζ i ei ) = ζ i T(ei ) = U(v)

Es decir, τβj Tβj = T. Por tanto, las transformaciones dadas forman una base de L (V, W) y, se
sigue que dim (L (V, W)) = N1 · N2 . ■

Con la proposición 1.2.1 y el hecho de que dim (F) = 1 para cualquier campo F, se tiene que
dim (V ∗ )) = dim (L (V, F)) = N , donde N es la dimensión de V. En este caso, los elementos del
espacio dual V ∗ son llamados funcionales lineales y la base de ese espacio es llamada base dual.
Cuando el campo F es el campo de los reales (R), la base de la proposición 1.2.1 es {Tβ1 }N β=1 ,
denotada como {ϵj }N j=1 y cumplen
ϵj ei = δij (1.2.1)
La ecuación (1.2.1) es llamada relación dual, donde la base de R es e′ = 1. La base dual de la
base B de V se denota como B ∗ .
Si B ′ = {f i }N ′
i=1 es otra base de V y R es la matriz de transición de B en B , tomamos la base
dual de B como B = {φ }k=1 , queremos ver la forma de la matriz de transición de B ∗ a B ′∗ .
′ ′∗ k N

Sea A tal matriz y sean aji sus elementos, entonces,

φk f i = akt ϵt (rij ej ) = akt rij ϵt ej = akt rij δjt = akj rij = δik
1.2. TENSORES COMO MAPEOS MULTILINEALES 5

donde rij son las entradas de la matriz R. Vemos que todos los índices corren de 1 a N , por
P
N
tanto akj rij = akj rij es la entrada ki1 de la matriz AR:
j=1

(AR)ki = δik

Es decir, cualquier entrada fuera de la diagonal de AR es cero, por tanto AR = I o A = R−1 .

Definición 1.2.1: Mapeo r-lineal

Un mapeo T : V1 × V2 × · · · × Vr 7→ W es r-lineal (también llamado multilineal), si es


lineal, en todas sus variables:

T(v 1 , · · · , av i , · · · , v r ) =aT(v 1 , · · · , v i , · · · , v r )
T(v 1 , · · · , v i + v ′i , · · · , v r ) =T(v 1 , · · · , v i , · · · , v r ) + T(v 1 , · · · , v ′i , · · · , v r )

para cada i ∈ {1, ..., r}.

Ejemplo 1.2.1

Sea el mapeo 2-lineal T : V1 × V2 7→ R denotado por T = τ1 ⊗ τ2 definido por


| {z }
producto tensorial

T(v 1 , v 2 ) = τ 1 (v 1 )τ 2 (v 2 ) ∈ R

donde τ i ∈ Vi∗ . Es fácil ver que en cada variable el mapeo resulta ser lineal.

El conjunto de todos los mapeos r−lineales de V1 × V2 × · · · × Vr 7→ W también forma


un espacio vectorial, denotado por L (V1 , V2 , ..., Vr ; W): Recordemos que dados dos espacios
V, W con dim (V ) = n y dim (W ) = m, podemos formar el espacio vectorial V × W tal que
dim (V × W ) = n · m. De modo que cualquier mapeo r−lineal resulta ser una transformación
lineal y, por tanto, pertenece al espacio de transformaciones lineales de V1 × V2 × · · · × Vr en
W.

Ejemplo 1.2.2

Los siguientes son espacios de mapeos multilineales:


L (V ∗ , R) = {v : V ∗ 7→ R : v(τ ) := τ (v)}, es el espacio doble dual de V.
L (V1∗ , V2∗ ; R). Dado un elemento T∗ de este espacio, tenemos que T∗ : V1∗ ×V2∗ 7→ R,
es decir, T∗ = v1 ⊗ v2 . De esta manera, dados τ 1 ∈ V1∗ y τ 2 ∈ V2∗ , T∗ (τ 1 , τ 2 ) =
v1 ⊗ v2 (τ 1 , τ 2 ) = v1 (τ 1 )v2 (τ 2 ) := τ 1 (v1 )τ 2 (v2 ).
L (V ∗ , V; R). Dado T elemento de dicho espacio, tenemos que se puede definir
como T = v ⊗ τ : V ∗ × V 7→ R, de modo que dados τ ′ ∈ V ∗ y v ′ ∈ V: T(τ ′ , v ′ ) =
v(τ ′ ) τ (v ′ ) = τ ′ (v)τ (v ′ ).
| {z }
:=τ ′ (v)

Del ejemplo anterior, dados τ ∈ V ∗ y v ∈ V, dados las bases correspondientes {ϵj } y {ei }:
τ = tj ϵj , v = ai ei . Podemos entonces dar el mapeo T : V ∗ × V 7→ R como

T := v ⊗ τ = ai ei ⊗ tj ϵj

Además, tenemos que

τ (v) = τ (ai ei ) = ai τ (ei ) = ai tj ϵj (ei ) = ai tj δji = ai ti ∈ R


1 El índice superior es el número de fila, el inferior es el número de columna.
6 CAPÍTULO 1. ÁLGEBRA TENSORIAL

De igual forma se tiene

T(ϵℓ , eρ ) = ai ei (ϵℓ )tj ϵj (eρ ) = aℓ tρ

De modo que también se puede definir el mapeo Tℓρ : L (V ∗ , V; R) 7→ R como

Tℓρ (T) = T(ϵℓ , eρ )

Ejemplo 1.2.3

Figura 1.2.1

Representación de una superficie y su


espacio tangente.

Tensor de curvatura de Riemann: Sea R∗ : V ∗ × V × V × V 7→ R un mapeo 4-lineal,


este mapeo se conoce como el tensor de curvatura de Riemann pues dado V = Tp (M)
(espacio tangente a una superficie M, ver figura 1.2.1), R∗ es la curvatura generalizada
de Gauss para dimensiones arbitrarias.

También se puede obtener un mapeo bilineal que empareja a V y V ∗ definiendo h : V ∗ ×


V 7→ R como h(τ , v) = τ (v) donde τ ∈ V ∗ y v ∈ V. A este mapeo se le conoce como el
emparejamiento natural de V y V ∗ en R, también es denotado por los brackets (y llamado
producto interior en mecánica cuántica):

h(τ , v) = hτ , vi = τ (v) (1.2.2)

Definición 1.2.2: Tensores

Sea V un espacio vectorial con espacio dual V ∗ . Un tensor tipo (r, s) es un mapeo
multilineal:
T rs : V ∗ × V ∗ × · · · × V ∗ × V × V × · · · × V 7→ R
| {z } | {z }
r veces s veces

El conjunto de todos los tensores (r, s) es denotado por Tsr (V) y es un espacio vectoriala .
a Aclárese que esto es bajo la definición de suma y multiplicación por escalar usual para mapeos

lineales, pues un tensor es al final uno de ellos.

El índice r y el índice s de la definición de un tensor son llamados, respectivamente, grado


contravariante y grado covariante del tensor.
1.2. TENSORES COMO MAPEOS MULTILINEALES 7

Ejemplo 1.2.4

Un ejemplo directo de un tensor (r, s) es el mapeo definido por

T = v1 ⊗ v2 ⊗ · · · ⊗ vr ⊗ τ 1 ⊗ τ 2 ⊗ · · · ⊗ τ s

Pues cada mapeo v i ∈ V y τ i ∈ V ∗ toma un elemento del dual correspondiente y lo lleva


a R, de este modo
Y
r Y
s
T (ω 1 , ..., ω r , w1 , ..., ws ) = v i (ω i ) τ j (wj )
| {z } | {z }
i=1 j=1
∈V ∗ r ∈V s

De este modo, definimos el mapeo T 00 ∈ T00 (V) como un escalar: T 00 ∈ R. Retomando al


tensor métrico, dadas sus componentes gab y dadas las componentes de los cuatro-vectores xa
y xa se tiene que
xa ≡ gab xb
Dado un espacio M, se pueden asociar varios tipos de tensores a V = Tp M (M puede ser una
variedad diferencial):

Tipo de tensor Nombre Mapeo


(0, 0) Escalar f : M 7→ R
(1, 0) Vector ordinario o vector contravariante T 10 : V ∗ 7→ R
(0, 1) Vector covariante o vector dual T 01 : V 7→ R
(r, 0) Tensor contravariante T r0 : V ∗ r 7→ R
(0, s) Tensor covariante T 0s = V s 7→ R

Ejemplo 1.2.5

El elemento de línea en R2 está dado por ds2 = dx2 + dy 2 . Se puede definir un tensor
covariante que va de V × V en R como g := dx ⊗ dx + dy ⊗ dy, cuyas componentes son
gij :
 
1 0
g ij ≡
0 1

Así, g = gij dxi ⊗ dxj .

Definición 1.2.3: Producto tensorial

El producto tensorial de un tensor T del tipo (r, s) y un tensor U del tipo (k, ℓ) es el
tensor denotado por T ⊗ U del tipo (r + k, s + ℓ):

T ⊗ U : (V ∗ )r+k × V s+ℓ 7→ R

que se define como

T ⊗ U(θ 1 , ..., θ r+k , u1 , ..., us+ℓ ) = T(θ 1 , ..., θ r , u1 , ..., us )U(θ r+1 , ..., θ r+k , us+1 , ..., us+ℓ )

Nótese como en la definición anterior, se tienen dos tensores:


T(θ 1 , ..., θ r , u1 , ..., us ) U(θ 1 , ..., θ k , u1 , ..., uℓ )
Al hacer el producto T ⊗ U, se multiplican los escalares dados por T y U respectivamente, de
modo que los índices de T se preservan y los índices de U se recorren respectivamente r y s
unidades:
T(θ 1 , ..., θ r , u1 , ..., us ) =⇒ T(θ 1 , ..., θ r , u1 , ..., us )
U(θ 1 , ..., θ k , u1 , ..., uℓ ) =⇒ U(θ r+1 , ..., θ r+k , us+1 , ..., us+ℓ )
8 CAPÍTULO 1. ÁLGEBRA TENSORIAL

Ejemplo 1.2.6

Sean V un espacio vectorial y V ∗ su dual y sea T : V × V 7→ R definido como

T=τ ⊗τ

donde τ ∈ V ∗ . Se tiene cada tensor τ : V 7→ R: τ (v). Luego, T tiene dos variables en V,


v 1 y v 2 tal que T(v 1 , v 2 ) = τ (v 1 )τ (v 2 ).

Si tomamos una base {ei } de V, entonces v = v i ei ∈ V. Se pueden definir los escalares

Tij = T(ei , ej ) = τ (ei )τ (ej )

Además, tomando la base dual {ϵk } se tiene τ = τk ϵk , y así,

τ (ei ) = τk ϵk (ej ) = τk δjk = τj

de modo que Tij = τi τj .

Dada una base de V y su base dual, los escalares Tij dados en el ejemplo 1.2.6 son llamados
las componentes del tensor T.

Teorema 1.2.1. De la base del espacio tensorial




Sea {ei }N
i=1 una base de V y {ϵ }j=1 una base de V que es dual a {ei } ϵ (ei ) = δj .
j N j i

Entonces el conjunto de todos los productos tensoriales

e i1 ⊗ e i2 ⊗ · · · ⊗ e i r ⊗ ϵ j 1 ⊗ ϵ j 2 ⊗ · · · ⊗ ϵ j s

donde ik , jk ∈ {1, ..., N }, de modo que se tienen N r+s productos tensoriales de esta
forma, es una base de Tsr (V). Más aún, si A ∈ Tsr (V) entonces

Aji11,i,j22,...,i
,...,jr
s
= A(ϵj1 , ..., ϵjr , ei1 , ..., eis )

son las componentes del tensor A.

Demostración. Se desea probar que ei1 ⊗ ei2 ⊗ · · · ⊗ eir ⊗ ϵj1 ⊗ ϵj2 ⊗ · · · ⊗ ϵjs forma una
base vectorial de Tsr (V), sean Cij11,i,j22,...,i
,...,jr
s
∈ R tales que

Cij11,i,j22,...,i
,...,jr
s
e i1 ⊗ e i2 ⊗ · · · ⊗ e i r ⊗ ϵ j 1 ⊗ ϵ j 2 ⊗ · · · ⊗ ϵ j s = 0

Nótese que ei1 ⊗ ei2 ⊗ · · · ⊗ eir ⊗ ϵj1 ⊗ ϵj2 ⊗ · · · ⊗ ϵjs es un tensor (r, s) actuando sobre (V ∗ )r × V s
en R. Asi, se define el vector

V = (ϵk1 , ϵk1 , ..., ϵkr , eℓ1 , eℓ2 , ..., eℓs ) ∈ (V ∗ )r × V s

Así,

ei1 ⊗ ei2 ⊗ · · · ⊗ eir ⊗ ϵj1 ⊗ ϵj2 ⊗ · · · ⊗ ϵjs (V) =0 ∈ R

ei1 ⊗ ei2 ⊗ · · · ⊗ eir ⊗ ϵj1 ⊗ ϵj2 ⊗ · · · ⊗ ϵjs (ϵk1 , ϵk1 , ..., ϵkr , eℓ1 , eℓ2 , ..., eℓs ) =0

ei1 (ϵk1 )ei2 (ϵk2 ) · · · eir (ϵkr ) · ϵj1 (eℓ1 )ϵj2 (eℓ2 ) · · · ϵjs (eℓs ) =0

δik11 δik22 · · · δikrr δℓj11 δℓj22 · · · δℓjss =0


1.2. TENSORES COMO MAPEOS MULTILINEALES 9

De modo que

X
N
Cij11,i,j22,...,i
,...,jr
s
ei1 ⊗ ei2 ⊗ · · · ⊗ eir ⊗ ϵj1 ⊗ ϵj2 ⊗ · · · ⊗ ϵjs (V) =0
i1 ,i2 ,...,ir
j1 ,...,js =1

X
N
⇒ Cij11,i,j22,...,i s
δi1 δi2 · · · δikrr δℓj11 δℓj22 · · · δℓjss = Ckℓ11 ,ℓ
,...,jr k1 k2 2 ,...,ℓr
,k2 ,...,ks =0
i1 ,i2 ,...,ir
j1 ,...,js =1

Es decir, la combinación lineal hecha implica que cada escalar es cero, por lo que el conjunto de
los ei1 ⊗ ei2 ⊗ · · · ⊗ eir ⊗ ϵj1 ⊗ ϵj2 ⊗ · · · ⊗ ϵjs es linealmente independiente. Ya que no conocemos
la dimensión de Tsr (V), tenemos que ver si el conjunto dado genera a dicho espacio. Para esto,
retomamos a los vectores V = (ϵj1 , ϵj2 , ..., ϵjr , ei1 , ei2 , ..., eis ), que son una base de (V ∗ )r × V s ,
sabemos que cualquier tensor (r, s) actúa sobre V de la siguiente forma:

A(V) =Aji11,i,j22,...,i
,...,jr
s

Si definimos U := Alk11,l,k22,...,l
,...,ks el1 ⊗el2 ⊗· · ·⊗elr ⊗ϵ ⊗ϵ ⊗· · ·⊗ϵ
r k1 k2 ks 2
como cualquier combinación
lineal, entonces,

A(V) = Alk11,l,k22,...,l r j1 j2 j r i1 i2
,...,ks δl1 δl2 · · · δlr δk1 δk2 · · · δks = U(ϵ , ϵ , ..., ϵ , ei1 , ei2 , ..., eis ) = U(V)
is j1 j2 jr

Por tanto, la igualdad se cumple para todo elemento de (V + )r × V s y, A = U. ■


r+s
Un resultado directo del teorema 1.2.1 es que dim (Tsr (V)) = N r+s = (dim (V)) . En resumen,
con la definición del producto tensorial (⊗) podemos entonces representar a cualquier tensor
T ∈ Tsr (V) como

T = Tji11,j,i22,...,j
,...,ir
e ⊗ e i 2 ⊗ · · · ⊗ e ir ⊗ ϵ j 1 ⊗ ϵ j 2 ⊗ · · · ⊗ ϵ j s
s i1
(1.2.3)

donde las componentes están determinadas según el teorema 1.2.1.

Ejemplo 1.2.7

Para un tensor tipo (1, 1): A : V ∗ × V 7→ R se tiene

A = Aij ei ⊗ |{z}
ϵj
|{z}
∈V ∈V ∗

Si (θ, u) ∈ V ∗ × V, entonces A(θ, u) ∈ R y podemos definir A : V 7→ V como

A( , u) = Aij ei ⊗ ϵj ( , u) = Aij ei ϵj (u) ∈ V


| {z }
∈R

Es decir, si ϵj (u) := uj entonces A( , u) = Aij uj ei es una combinación lineal de los


vectores de la base {ei }. Vemos al tensor A = Aij ei ⊗ ϵj como un operador lineal de V.
De manera análoga A es también un operador en V ∗ . Entonces podemos ver que T11 (V),
L (V) y L (V ∗ ) coinciden.

De manera similar al ejemplo anterior, un tensor T ∈ Tsr (V) se puede ver como un operador
en V o V ∗ :

T(τ 2 , τ 3 , ..., τ r , e1 , e2 , ..., es ) = Tji11,j,i22,...,j


,...,ir
τ τ · · · τir e j 1 e j 2 · · · e j s e i1
s i2 i 3

T(τ 1 , τ 2 , ..., τ r , e2 , e3 , ..., es ) = Tji11,j,i22,...,j


,...,ir
τ τ · · · τir e j 2 e j 3 · · · e j s τ j 1
s i1 i2

2 Se está usando la convención de sumas de Einstein.


10 CAPÍTULO 1. ÁLGEBRA TENSORIAL

1.2.1. Regla de transformación de un tensor


Consideremos al tensor (1, 2):

A = Aijk ei ⊗ ϵj ⊗ ϵk

donde B = {ei }N
i=1 es la base de V y B = {ϵ }ℓ=1 es la base dual. Sean B = {ei }i=1 y
ℓ N N
∗ ∗
B = {ϵ }ℓ=1 otras bases de V y V respectivamente. Tenemos que
ℓ N

ei = rin en ϵj = zkj ϵk (1.2.4)

El tensor A se puede escribir según las otras bases como


i
A = Ajk ei ⊗ ϵj ⊗ ϵk
i
donde Ajk = A(ϵi , ej , ek ), que, usando (1.2.4) se puede reescribir como

A(zki ϵk , rjn en , slk el ) = zki rjn slk A(ϵk , en , el ) = zki rjn slk Aknl

Es decir,
i
Ajk = zki rjn slk Aknl (1.2.5)
La ecuación (1.2.5) es lo que se conoce como regla de transformación del tensor A.

Ejemplo 1.2.8

Del electromagnetismo se pueden considerar el gradiente ∂α y F αβ (el tensor de campo


electromagnético) de modo que

J β := ∂α F αβ

es el cuadrivector de fuentes del campo, así mismo, se puede obtener la relación

∂α Fµν + ∂µ Fνα + ∂ν Fαµ = 0

que junto a la ecuación anterior, forman un par de ecuaciones equivalente a las cuatro
ecuaciones de Maxwell, es decir, describen el electromagnetismo. El tensor F αβ se define
como

Fαβ = ∂α Aβ − ∂β Aα

donde los Ai son las componentes del tensor (0, 1) o vector covariante antisimétricoa
(también llamado 1-formab ) A que contiene la información sobre los potenciales de los
observadores inerciales. Al hacer el cambio de base, se tendrá que

F αβ = ∂ α Aβ − ∂ β Aα

donde la regla de transformación es Aβ = Rβγ Aγ y ∂ α = Rα


ϵ
∂ϵ . De este modo tenemos

ϵ
F αβ =Rα ∂ϵ Rβγ Aγ − Rβϵ ∂ϵ Rα
γ

ϵ γ
=Rα Rβ ∂ϵ Aγ − Rβϵ Rα
γ
∂ ϵ Aγ
| {z }
ϵ Rγ ∂ A
=Rα β γ ϵ

ϵ γ ϵ γ
=Rα Rβ (∂ϵ Aγ − ∂ γ Aϵ ) = R α Rβ Fϵγ
a Más adelante se definen los tensores antisimétricos.
b De igual forma se definirán lo que son las p−formas y los p−vectores.

1.2.2. Contracción
Como Tsr (V) es un espacio vectorial, para cada (r, s), podemos determinar transformacio-
nes lineales de este a un espacio (r′ , s′ ), por ejemplo: T01 (V) 7→ T00 (V) mapea del espacio de
1.2. TENSORES COMO MAPEOS MULTILINEALES 11

tensores (1, 0): aj ej ∈ V a R; T01 (V) 7→ T01 (V) resulta ser el mapeo de V 7→ V. Si definimos la
transformación lineal tr : T11 (V) 7→ T00 (V) ≡ R como
X
tr(A) = Aii
i

donde A = Aik ei ⊗ ϵk , tenemos lo que se conoce como traza de la matriz dada por Aik . El tipo
de transformaciones que ”bajan el rango del tensor” de esta forma son lo que se conoce como
contracciones.

Ejemplo 1.2.9
i
El tensor de curvatura R es un tensor tipo (1, 3), dado por sus componentes Rjkl .
Podemos definir una transformación C : T3 (V) 7→ T2 (V) similar a tr al ”contraer” los
1 0

índices i y k:
C
X
i
Rjkl 7→ Rjkl
k
= k
Rjkl
k

k
Las nuevas componentes Rij := Rikj definen lo que se conoce como el tensor de Ricci. Así
mismo, usando las componentes del tensor métrico g ij , se puede determinar la curvatura
escalar:

R = g ij Rij

Esta transformación va de T20 (V) en R, no es una contracción.

También se pueden plantear mapeos de la forma

h : Tsr (V) × Tsr (V) × · · · × Tsr (V) 7→ Tℓk (V)


| {z }
k̄ veces

tal que

h(T1 , T2 , ..., Tk̄ ) ∈ Tℓk (V) donde Tα ∈ Tsr (V) con α ∈ {1, ..., k̄}

Definición 1.2.4: Contracción

Una contracción de un tensor A ∈ Tsr (V) respecto a un índice contravariante en la


posición p y un índice covariante en la posición q, es un mapeo lineal dado por

C pq : Tsr (V) 7−→∈ Ts−1


r−1
(V)

donde C(A) está dado según sus componentes:


i′ ,i′ ,...,i′ i ,i ,...,i ,k,i ,...,i
[C(A)]j1′ ,j2′ ,...,jr−1
′ = Aj11 ,j22 ,...,jp−1 p+1 r
q−1 ,k,jq+1 ,...,js
1 2 s−1

Notamos que en la definición anterior, los índices en la posición p y q respectivamente, son


tomados como índices para una suma de modo que dados los índices

i′1 = i1 , · · · , i′p = ip+1 , · · · , i′r−1 = ir


j1′ = j1 , · · · , jq′ = jq+1 , · · · , js−1

= js

entonces hay una suma sobre k para cada componente dada por cada arreglo de dichos índices,
es decir,
p
dim(V)
X ↓
i′ ,i′ ,...,i′ i1 ,i2 ,...,ip−1 ,k,ip+1 ,...,ir
[C(A)]j1′ ,j2′ ,...,jr−1
′ = Aj1 ,j2 ,...,jq−1 ,k,jq+1 ,...,js (1.2.6)
1 2 s−1
k=1 ↑
q
12 CAPÍTULO 1. ÁLGEBRA TENSORIAL

Ejemplo 1.2.10

Dado T32 (V), se tiene C 12 : T32 (V) 7→ T21 (V), si T ∈ T32 (V) entonces sus componentes son
αβ
Tijk , si tomamos V = R3 entonces cada índice está en {1, 2, 3} y

β
X
3
αβ 1β 2β 3β
[C(T )]ik = Tiαk = Ti1k + Ti2k + Ti3k
α

De este modo, el tensor T es transformado en


 
β 1β 2β 3β
C(T ) = Zik eβ ⊗ ϵi ⊗ ϵk := Ti1k + Ti2k + Ti3k e β ⊗ ϵi ⊗ ϵ k

donde eβ pertenece a una base de V y ϵj son elementos de la base dual correspondiente.

Retomando el tensor del ejemplo 1.2.9, es decir el tensor de curvatura R ∈ T31 (Tp M), se
puede dar una contracción C 12 : Rijk
α
7−→ Rilk
l
.
El mapeo de contracción se puede aplicar sucesivamente:

C pq11 :Tsr (V) 7−→ Ts−1


r−1
(V)
C pq22 :Ts−1
r−1
(V) 7−→ Ts−2
r−2
(V)

Es decir, podemos componer las contracciones (ver figura 1.2.2): C pq22 ◦ C pq11 : Tsr (V) 7→ Ts−2
r−2
(V).

Figura 1.2.2

C pq11 C pq22

Tsr (V) Ts−1


r−1
(V) Ts−2
r−2
(V)

C pq22 ◦ C pq11
Composición de las contracciones, que
resulta en una ”contracción doble”.

Así, la contracción está definida por


 i′1 ,i′2 ,...,i′r−1 i ,...,i ,k,...,i ,l,...,i
C pq22 ◦ C pq11 (A) j1′ ,j2′ ,...,js−2
′ = Aj11 ,...,jpq1 −1 p2 −1 r
−1 ,l,...,jq −1 ,k,...,js
2 1

donde los índices están dados por

i′1 = i1 , . . . , i′p1 = ip1 +1 , . . . , i′p2 = ip2 +1 , . . . , i′r−2 = ir


j1′ = j1 , . . . , jq′ 1 = jq1 +1 , . . . , jq′ 2 = jq2 +1 , . . . , js−2

= js

En general, podemos dar un mapeo de m contracciones:

Cm
m := C qm ◦ C qm−1 ◦ · · · ◦ C q1 : Ts (V) 7−→ Ts−m (V)
pm pm−1 p1 r r−m
(1.2.7)

Particularmente, si r = s entonces se tiene

Crr : Trr (V) 7−→ T00 (V) ≡ R (1.2.8)

La ecuación (1.2.8) es lo que se conoce como la generalización de la traza, pues dado un


tensor A tipo (r, r) definido por sus componentes: Aij11ij22...i
...jr entonces
r

Crr (A) = Aα
α1 α2 ...αr ∈ R
1 α2 ...αr
1.2. TENSORES COMO MAPEOS MULTILINEALES 13

Retomando el tensor de Ricci: Ri = Rαβ ϵα ⊗ ϵβ y el tensor g = g µν eµ ⊗ eν entonces

g αβ Rαβ := R ∈ R = T00

es lo que se conoce como contracción métrica. En las ecuaciones de Einstein encontramos la


relación
1
Rµν − gµν R = kTµν
2

Definición 1.2.5: Notación

Sean A ∈ T0r (V) y B ∈ Tr0 (V), se define h , i : T0r (V) × Tr0 7→ R comoa

hA, Bi := C pqm
m
◦ C pqm−1
m−1
◦ · · · ◦ C pq11 (A ⊗ B)
a Este operador es más bien una generalización del emparejamiento natural dado por la ecuación

(1.2.2), podemos pensarlo como el producto interior de dos tensores.

Ejemplo 1.2.11

Para r = 2, sean A = Aαβ eα ⊗eβ y B = Bγη ϵγ ⊗ϵη , entonces A⊗B : V ∗ ×V ∗ ×V×V 7→ R


y
i j
=δα =δβ =δ γ =δ η
z }| { z }| { z }|k { z }|l {
A ⊗ B(ϵ , ϵ , ek , el ) =A Bγη eα (ϵi ) eβ (ϵj ) ϵγ (ek ) ϵη (el )
i j αβ

=Aij Bkl

Podemos escribir el producto tensorial como A ⊗ B = Aij Bkl ei ⊗ ej ⊗ ϵk ⊗ ϵl . Luego,


podemos aplicar el mapeo de la definición 1.2.5:

hA, Bi = C 22 ◦ C 11 (A ⊗ B) = Aαβ Bαβ

De igual forma se pueden obtener otros dos mapeos para r = 2:

C 12 ◦C 21
Aij Bkl ei ⊗ ej ⊗ ϵk ⊗ ϵl 7−→ Aβα Bαβ
C 21 ◦C 12
Aij Bkl ei ⊗ ej ⊗ ϵk ⊗ ϵl 7−→ Aαβ Bβα ≡ Aβα Bαβ

Ejemplo 1.2.12

El escalar de Ricci se puede definir entre el tensor g y el tensor de curvatura R :=, es


decir,

R =g αβ Rαβ = g αβ Rαkβ
k
= C 11 C 22 g ⊗ C 12 R ≡ C 11 C 32 C 23 g ⊗ R

De manera general, si A ∈ T0r y B ∈ Tr0 entonces representamos ambos tensores como

A =Ai1 i2 ...ir ei1 ⊗ ei2 ⊗ · · · ⊗ eir


B =Bj1 j2 ...jr ϵj1 ⊗ ϵj2 ⊗ · · · ⊗ ϵjr

y su producto está dado por

A ⊗ B = Ai1 i2 ...ir Bj1 j2 ...jr ei1 ⊗ · · · ⊗ eir ⊗ ϵj1 ⊗ · · · ⊗ ϵjr

De tal forma que

hA, Bi =C rr ◦ C 22 ◦ · · · ◦ C 11 (A ⊗ B)
=Aαβ...τ Bαβ...τ (1.2.9)
14 CAPÍTULO 1. ÁLGEBRA TENSORIAL

Podemos definir un mapeo dado por A, de modo que tome un tensor en Tr0 y lo lleve a R de la
siguiente forma:
 
A(B) = Ai1 i2 ...ir ei1 ⊗ · · · ⊗ eir (Bj1 j2 ...jr ϵj1 ⊗ · · · ⊗ ϵjr )
=Ai1 i2 ...ir Bj1 j2 ...jr ei1 (ϵj1 ) · · · eik (ϵjk ) · · · eir (ϵjr )
| {z }
j
=δi k
k
i1 i2 ...ir
=A Bi1 i2 ...ir
Así, (1.2.9) se puede escribir como
hA, Bi = A(B)
De igual forma se puede obtener
hB, Ai = B(A) = Bi1 i2 ...ir Ai1 i2 ...ir
de donde es claro que hA, Bi = hB, Ai, el mapeo es simétrico.

1.3. Tensores simétricos


Ejemplo 1.3.1

El tensor métrico es simétrico, dada la métrica ds2 = dx2 + dy 2 + dz 2 donde x = x1 ,


y = x2 y z = x3 se tiene
ds2 = δij dxi dxj − (dx0 )2
El tensor métrico se define como

g = gij dxi ⊗ dxj

También se puede dar como g = gij ϵi ⊗ ϵj . La simetría viene dada por la invarianza del
tensor al intercambiar los índices:

g = gµν ϵµ ⊗ ϵν = gνµ ϵν ⊗ ϵµ

recuérdese que el espacio-tiempo es de dimensión 4, los cuadrivectores se pueden espe-


cificar mediante sus componentes esféricas: r, θ, φ, t.

Fuera del ejemplo anterior, podemos pensar en tensores simétricos como matrices simétricas,
recordemos que T11 (V) ' L (V) ' L (V ∗ ), entonces podemos ver a los tensores tipo (1, 1) como
matrices, mediante sus componentes. En el espacio tiempo el tensor métrico tiene una matriz
 
g11 g12 g13 g14
g21 g22 g23 g24 
g= g31 g32 g33 g34 

g41 g42 g43 g44


El hecho de que gµν = gνµ nos dice que
   
g11 g12 g13 g14 g11 g21 g31 g41
g21 g22 g23 g24  g12 g22 g32 g42 
 = 
g31 g32 g33 g34  g13 g23 g33 g43 
g41 g42 g43 g44 g14 g24 g34 g44
Podemos pensar que al cambiar los índices (o variables) del tensor, este no cambia.

Definición 1.3.1: Tensor simétrico


Un tensor A es simétrico en las variables i y j, si su valor como función multilineal
es invariante cuando estas variables son intercambiadas: Sea A ∈ Tr0 , entonces A =
Ai1 i2 ...ir ϵi1 ⊗ ϵi2 ⊗ · · · ⊗ ϵir y

Ai1 ...i...j...ir = Ai1 ...j...i...ir


1.3. TENSORES SIMÉTRICOS 15

Definición 1.3.2: Tensor simétrico covariante y contravariante

Un tensor es simétrico covariante es simétrico en cada par de sus índices covariantes,


similarmente es simétrico contravariante si es simétrico en cada par de sus índices contra-
variantes. Un tensor es simétrico(o totalmente simétrico) si es simétrico covariante
y contravariante.

i ...i
Si A ∈ Tsr y Aij11ij22...i
...js = Ajl ...jls entonces A es totalmente simétrico.
r k1 kr

Teorema 1.3.1.

Un tensor S del tipo (r, 0) es simétrico si y sólo si para cualquier permutación π a de


1, 2, ...r y cualquier τ 1 , τ 2 , . . . , τ r ∈ V se tiene:

S(τ π(1) , τ π(2) , . . . , τ π(r) = S(τ 1 , τ 2 , . . . , τ r )


a Recordemos que las permutaciones nos intercambian los índices, por ejemplo, π : 1, 2, 3 7→ 2, 3, 1.

Podemos pensar también en transformaciones geométricas:

2 1

π
π(1)=2
π(2)=1
π(3)=2

1 3 2 3

Demostración. Si S ∈ T0r es simétrico, entonces por definición S es invariante ante el


intercambio de la i−ésima y la j−ésima variable. Como S ∈ T0r entonces

S = S i1 i2 ...ir ei1 ⊗ ei2 ⊗ · · · ⊗ eir : (V ∗ ) 7−→ R


r

Sea (τ 1 , τ 2 , ..., τ r ) ∈ (V ∗ ) , entonces S(τ 1 , τ 2 , ..., τ r ) ∈ R, se tiene que


r

S(τ 1 , . . . , τ i , ..., τ j , . . . , τ r ) = S(τ 1 , . . . , τ j , ..., τ i , . . . , τ r ) (1.3.1)

donde π(i) = j y π(j) = i. Tenemos también, que cualquier permutación π se puede ver como
una sucesión de transposiciones (denotadas por σk ):

π → σn σn−1 · · · σ1 (1.3.2)

donde cada transposición representa una permutación entre dos elementos de un conjunto de
modo que la ecuación (1.3.1) representa la simetría del tensor S bajo σ. De este modo, el
intercambio arbitrario de índices del tensor es equivalente a aplicar (1.3.2) de modo que para
cada σi el tensor se preserva y al final es invariante bajo π. ■

Así como denotamos por T0r (V) al conjunto de tensores (r, 0), S r (V) denotará el conjunto de
todos tensores simétricos tipo (r, 0). Se puede ver que si A, B ∈ S r (V) y a es un escalar entonces

(aA + B)() := aA() + B() ∈ S r (V)

es decir, S r (V) es subespacio de Tsr (V). También se define el espacio de tensores simétricos de
tipo (0, s): Ss (V). Ahora queremos definir un mapeo, tal que si A ∈ T0r entonces

A 7−→ As ∈ Sr

Si consideramos un tensor tipo (1, 1) con componentes Aij podemos definir el siguiente mapeo:

1
Aij 7→ Sij := (Aij + Aji )
2
16 CAPÍTULO 1. ÁLGEBRA TENSORIAL

Es decir, al ser las componentes Aij arbitrarias, no podemos concluir nada del tensor A :=
Aji ei ⊗ ϵj . Pero vemos que Sji = Sij de modo que el tensor correspondiente S es simétrico:

1 1
(Aij + Aji )ei ⊗ ϵj = (Aji + Aij )ej ⊗ ϵi
2 2

Nótese que la única permutación distinta de la identidad es {i, j} 7→ {j, i}3 Ahora podemos dar
la siguiente

Definición 1.3.3: Simetrizador


Un simetrizador es un operador S : T0r 7→ S r dado por
1 X
[S(A)](τ 1 , τ 2 , . . . , τ r ) = A(τ π(1) , τ π(2) , . . . , τ π(r) )
r! π

donde la suma es sobre todas las r! permutaciones π de {1, 2, ..., r}. Vamos a escribir
S(A) := AS .

Sea σ una permutación arbitraria,


′ ′ ′
AS (τ σ(1) , τ σ(2) , ..., τ σ(r) ) := AS (τ 1 , τ 2 , ..., τ r )

Si suponemos que A es un tensor simétrico, entonces tenemos que

1 X
AS (τ σ(1) , τ σ(2) , ..., τ σ(r) ) = A(τ σ(1) , τ σ(2) , ..., τ σ(r) )
r! π
1 X
= A(τ 1 , τ 2 , ..., τ r )
r! π
1 X
=A(τ 1 , τ 2 , ..., τ r ) = A(τ 1 , τ 2 , ..., τ r )
r! π
|{z}
=r!

Es decir, S(A) = A si A es simétrico. De este modo, S(S(A)) = S(A), y S2 ≡ S es el proyector


(proyecta al subespacio de tensores métricos). De manera similar se define el simetrizador para
tensores covariantes, tomando en cuenta que ahora debe actuar sobre vectores (contravariantes).

Ejemplo 1.3.2

Para r = 2 solo hay dos permutaciones, e = (1, 2) y π = (2, 1) de modo que π 2 = e (es
equivalente al grupo cíclico Z2 ) y
1 X
AS (τ 1 , τ 2 ) = A(τ π(1) , τ π(2) )
2! π
1 
= A(τ 1 , τ 2 ) + A(τ 2 , τ 1 )
2

Si se evalua en la base dual {ϵi }N


i=1 , se tiene que

1 
Aij
S = A(ϵi , ϵj ) + A(ϵj , ϵi )
2
1
= (Aij + Aji ) em ⊗ en (ϵi , ϵj ) = δm
i j
δn
2
Para r = 3, tenemos un grupo de permutaciones de orden 3, como el grupo de simetrías del
triángulo como se muestra en la figura 1.3.1.
3 Recordar que las permutaciones son solo mapeos biyectivos sobre un mismo conjunto A, mapean cada

elemento de A al lugar de algún otro y solo un elemento de A.


1.3. TENSORES SIMÉTRICOS 17

Figura 1.3.1

1
e=(1,2,3)
g1 =(3,1,2)
g2 =(2,3,1)
g3 =(2,1,3)
g4 =(3,2,1)
g5 =(1,3,2)
2 3
Las transformaciones de simetría del
triángulo forman un grupo, en este caso
es isomorfo o equivalente al grupo Z3 .

Así, podemos ver que el simetrizador del tensor A := Aijk ei ⊗ ej ⊗ ek es

1
AS = A(τ 1 , τ 2 , τ 3 ) + A(τ 3 , τ 2 , τ 1 ) + A(τ 2 , τ 3 , τ 1 )
6 
A(τ 2 , τ 1 , τ 3 ) + A(τ 3 , τ 2 , τ 1 ) + A(τ 1 , τ 3 , τ 2 )

Evaluando en la base dual {ϵi }N


i=1 , se obtiene que (identificando i ≡ 1, j ≡ 2, k ≡ 3)

1 ijk
Aijk
S = (A + Atodas las permutaciones de ijk )
6

¿Cuál es la dimensión de S r (V)?

Ejemplo 1.3.3

Consideramos r = 2, con N = dim (V):

A = Aij ei ⊗ ej

Si A ∈ S2 entonces Aij = Aji , fuera de la diagonal se tienen N 2 − N elementos, de modo


que la mitad de ellos son linealmente independientes, luego contamos los de la diagonal
de modo que debe suceder que
 N2 − N N (N + 1)
dim S2 = +N =
2 2
Es decir, para cada elemento Aij con i 6= j se cumple la simetría, lo cual implica
que Aij ei ⊗ ej = Aji ej ⊗ ei , por tanto de los N 2 elementos de la base se tiene que
ei ⊗ ej = ej ⊗ ei para i 6= j.

Ahora bien, en el caso general, se tiene que si A ∈ Sr entonces

A = Ai1 i2 ···ir ei1 ⊗ ei2 ⊗ · · · ⊗ eir

Donde ik ∈ {1, ..., N } para cada k = 1, ..., r. Por la simetría, debemos tener que

ei1 ⊗ ei2 ⊗ · · · ⊗ eir = eπ(i1 ) ⊗ eπ(i2 ) ⊗ · · · ⊗ eπ(ir ) (1.3.3)

para cada permutación. Nos fijamos en la figura 1.3.2, tenemos una caja con N − 1 paredes
móviles en su interior además de N espacios vacíos. En cada espacio podemos colocar cierto
número de objetos ×. De este modo, cada espacio o casilla representa uno de los N vectores de
la base de V que podemos escoger para eik , y el número de × que hay en cada una es el número
de veces que ha sido escogido ese vector. Así, debe haber r × dentro de la caja, estamos dejando
que se repitan los índices ik . De este modo, para ver las posibles combinaciones para la base
del tensor, debemos contar todas las posiciones posibles para las paredes y las ×, permutamos
estos N − 1 + r elementos y nos da (N + r − 1)!.
18 CAPÍTULO 1. ÁLGEBRA TENSORIAL

Figura 1.3.2

× ×× · · · ×× × × × ×
1 2 3 N-5 N-4 N-3 N-2 N-1
Permutaciones dentro de una caja.

Ahora bien, por la simetría sabemos que cada arreglo de posiciones que se repita bajo
permutaciones de las ×(equivalente a permutar los ínidces ik ) no debe contarse, para cada
arreglo hay r! permutaciones equivalentes a un solo arreglo. De este modo obtenemos el número
(N + r − 1)!/r!, pues el orden de las × no importa. Del mismo modo, el orden de las paredes
internas no importa, por lo que al final el conteo nos dice que

(N + r − 1)!
dim (S r (V)) = (1.3.4)
r!(N − 1)!

Definición 1.3.4: Producto simétrico


Sean dos tensores simétricos A ∈ S r y B ∈ S s , su producto simétrico es un tensor
denotado por AB en S r+s definido por

(r + s)!
AB(τ 1 , τ 2 , . . . , τ r+s ) = S(A ⊗ B)(τ 1 , τ 2 , . . . , τ r+s )
r!s!
1 X
= A(τ π(1) , . . . , τ π(r) )B(τ π(r+1) , . . . , τ π(r+s) )
r!s! π

1.4. Tensores antisimétricos


Definición 1.4.1: Tensor antisimétrico

Un tensor covariante (o contravariante) antisimétrico es un tensor antisimétrico en todos


los pares de variablesa covariantes (o contravariantes). Un tensor es antisimétrico si es
antisimétrico covariante y antisimétrico contravariante.
a Así como una matriz es antisimétrica si A = −A , un tensor es antisimétrico en un par de variables
ij ji
si al cambiarlas el tensor cambia de signo: T (..., i, j, ...) = −T (..., j, i, ...).

Vamos a considerar solamente tensores de tipo (r, 0), para los covariantes todos los resultados
son análogos.

Teorema 1.4.1.

Un tensor A de tipo (r, 0) es antisimétrico si y sólo si para cualquier permutación π y


cualesquiera vectores duales τ 1 , τ 2 , ..., τ r ∈ V ∗ se tiene que

A(τ π(1) , τ π(2) , ..., τ π(r) ) = ϵπ A(τ 1 , τ 2 , ..., τ r )

donde ϵπ = 1 si π es permutación par y ϵπ = −1 si π es permutación impar (ϵπ = 0 si π


no es ninguna de las anteriores).

Al espacio de los tensores antisimétricos lo denotamos por Ar (V), este es subespacio vectorial
de los tensores del tipo (r, 0). Análogamente, Ar (V) será el subespacio correspondiente de Tr0 .
1.4. TENSORES ANTISIMÉTRICOS 19

Definición 1.4.2: Antisimetrizador


El antisimetrizador A : T0r 7→ Ar es el mapeo dado por
1 X
A(T )(τ 1 , τ 2 , . . . , τ r ) = ϵπ T (τ π(1) , τ π(2) , . . . , τ π(r) )
r! π

De manera similar, vamos a escribir T A := A(T ). Ahora queremos ver si T A es antisimétrico,


para ello mostramos que se cumple lo siguiente:

T A (τ π(1) , τ π(2) , . . . , τ π(r) ) = ϵπ T A (τ 1 , τ 2 , . . . , τ r )

Sea σ cualquier permutación de Sr := {π} y sean cualesquiera τ 1 , τ 2 , . . . , τ r vectores duales


de V ∗ . Dejamos que T A actúe en estos vectores de la siguiente forma

T A (τ σ(1) , τ σ(2) , . . . , τ σ(r) )

Como σ ∈ Sr , es decir Sr = {e, ..., σ, ...}4 , entonces podemos determinar el siguiente conjunto
llamado coset de σ en teoría de grupos (las permutaciones forman un grupo)

Sr σ = {σ, π1 σ, ..., πr−1 σ} = Sr 5

Denotamos π ′ = πσ, de modo que cada π ′ es determinada de manera única por π o de otro
modo π ′ ≡ π, así
1 X ′ ′ ′
T A (τ σ(1) , τ σ(2) , . . . , τ σ(r) ) = ϵπ T (τ π (1) , τ π (2) , . . . , τ π (r) )
r! ′
π

Pero como (ϵσ )2 = 1 y además ϵπσ = ϵπ ϵσ 6 entonces


1 X ′ ′ ′
T A (τ σ(1) , τ σ(2) , . . . , τ σ(r) ) =ϵσ ϵπ′ T (τ π (1) , τ π (2) , . . . , τ π (r) )
r! ′
π
=ϵσ T A (τ 1 , τ 2 , . . . , τ r )

Donde la permutación σ es arbitraria, por tanto T A es un tensor antisimétrico(usamos el teo-


rema 1.4.1). Entonces, si T es antisimétrico se tiene que A(T ) = T (análogo al caso simétrico),
de modo que A2 = A.

Ejemplo 1.4.1

Tomamos un tensor (3, 0): T ∈ T03 , hacemos actuar A dados τ 1 , τ 2 , τ 3 :


1 X
T A (τ 1 , τ 2 , τ 3 ) = ϵπ T (τ π(1) , τ π(2) , τ π(3) )
6
π∈S3

Vemos que

ϵ123 = 1 ϵ213 = −1
S3 = {(1, 2, 3) (3, 1, 2) (2, 3, 1)
ϵ312 = 1 ϵ321 = −1
(2, 1, 3) (3, 2, 1) (1, 3, 2)}
ϵ231 = 1 ϵ132 = −1

Así,
1
T A (τ 1 , τ 2 , τ 3 ) = (T (τ 1 , τ 2 , τ 3 ) + T (τ 3 , τ 1 , τ 2 ) + T (τ 2 , τ 3 , τ 1 )
6
− T (τ 2 , τ 1 , τ 3 ) − T (τ 3 , τ 2 , τ 1 ) − T (τ 1 , τ 3 , τ 2 ))

4 Recuérdese que e denota a la permutación identidad. S será el grupo de permutaciones para r elementos
r
de un conjunto de cardinalidad r.
6 Cuando σ y π son pares o impares, πσ es par y por tanto ϵ ϵ = (±1)(±1) = 1, cuando una es par y la otra
π σ
es impar entonces πσ es impar y por tanto ϵπ ϵσ = (±1)(∓1) = −1. Si una de las dos permutaciones no es par
ni impar, πσ tampoco y ϵπ ϵσ = 0.
20 CAPÍTULO 1. ÁLGEBRA TENSORIAL

En el ejemplo anterior nótese que si aplicamos la permutación a (i, i, k) nos arroja (π(i), π(i), k),
que no es par ni impar, por tanto se tendrá que (T A )iik = 0. De manera similar para índices
repetidos los coeficientes son cero.

1.5. Álgebra exterior


Trabajaremos con tensores de tipo (r, 0), todos los resultados y definiciones se extienden
a tensores d tipo (0, s). Consideremos a todos los tensores antisimétricos, vamos a definir en
específico a las p-formas y a los p-vectores.

Definición 1.5.1: p-vectores y p-formas

Si T es un tensor antisimétrico de tipo (p, 0) entonces es llamado p-vector. T es una


p-forma si es un tensor antismétrico de tipo (0, p).
Al conjunto de p-vectores se lo denota por Λp (V ∗ ) y al conjunto de p-formas por Λp (V).

Nótese como el espacio vectorial define si se trata de p-vectores o p-formas, pues los p-
vectores son tensores tipo (p, 0), es decir, (V ∗ )p 7→ R. En cambio las p-formas son de tipo
(0, p): V p 7→ R. De ahí el nombre, pues los p-vectores se expresan en la base de vectores
(contravariantes):

T = Ai1 ···ip ei1 ⊗ · · · ⊗ eip

y las p-formas en la base de vectores covariantes (duales):

T = Ai1 ···ip ϵi1 ⊗ · · · ⊗ ϵip

Definición 1.5.2: Producto exterior (wedge)

Sean A ∈ Λp (V ∗ ) y B ∈ Λq (V ∗ ), su producto wedge es un tensor antisimétrico en


Λp+q (V ∗ ) (o sea un p+q-vector) dado por

(p + q)!
A∧B = A(A ⊗ B)
p!q!

De manera explícita, tomamos p + q vectores duales τ 1 , τ 2 , . . . , τ p , τ p+1 , . . . , τ p+q y


1 X
(A ∧ B)(τ 1 , . . . , τ p+q ) = ϵπ A(τ π(1) , . . . , τ π(p) )B(τ π(p+1) , . . . , τ π(p+q) ) (1.5.1)
p!q! π

Si tomamos p = 1, entonces Λ1 (V ∗ ) ⊆ T01 (V) ≡ V, y si v 1 , v 2 ∈ Λ1 (V ∗ ) su producto exterior es


dado por
1 X
v 1 ∧ v 2 (τ 1 , τ 2 ) = ϵπ v 1 (τ π(1) )v 2 (τ π(2) )
1!1!
π∈S2

Recordemos que el grupo de permutaciones S2 es isomorfo a Z2 , S2 = {(1, 2), (2, 1) }, de modo


| {z } | {z }
ϵ12 =1 ϵ21 =−1
que obtenemos
=v 2 (τ 1 )v 1 (τ 2 )
z }| {
v 1 ∧ v 2 (τ 1 , τ 2 ) =v 1 (τ 1 )v 2 (τ 2 ) − v 1 (τ 2 )v 2 (τ 1 )
=(v 1 ⊗ v 2 − v 2 ⊗ v 1 )(τ 1 , τ 2 )
=2!A(v 1 ⊗ v 2 )(τ 1 , τ 2 )

Sea V = R3 , con {ei }3i=1 base de V y V∗ con base dual {ϵj }3j=1 . El producto wedge (v 1 ∧ v 2 ) ∈
Λ2 (V ∗ ) es

v 1 ∧ v 2 (ϵi , ϵj ) =v 1 (ϵi )v 2 (ϵj ) − v 1 (ϵj )v 2 (ϵi )


1.5. ÁLGEBRA EXTERIOR 21

Sabemos que v 1 = v ℓ eℓ , v 2 = um em , entonces,

v 1 (ϵj ) =v ℓ eℓ (ϵj ) = v j
v 2 (ϵi ) =um em (ϵi ) = ui

Por tanto, podemos definir B ij como

B ij = v 1 ∧ v 2 (ϵi , ϵj ) = v i uj − v j ui

donde i, j = 1, 2, 3 ≡ x, y, z, así,

B xy =v x uy − v y ux
B xz =v x uz − v z ux
B yz =v y uz − v z uy

Y como sabemos, el producto vectorial en R3 está dado por:




x ŷy ẑz

⃗v1 × ⃗v2 = v v v
ux uy uz
=(v y uz − v z uy )x̂ − (v x uz − v z ux )ŷ + (v x uy − v y ux )ẑ

de donde se nota claramente que ⃗v1 × ⃗v2 = B yz x̂ − B xz ŷ + B xy ẑ.


Si v = v µ eµ ∈ V = M con µ = 0, 1, 2, 3, el dual correspondiente es τ = tα ϵα y tenemos
eµ (ϵα ) = δµα . Así,

(v ∧ b)µν =v µ bν − v ν bµ
hv, bi =v µ bν ηµν

El resultado de este ejemplo puede generalizarse al producto de r vectores:


X
v1 ∧ v2 ∧ · · · ∧ vr = ϵπ v π(1) ∧ v π(2) ∧ · · · ∧ v π(r)
| {z }
π∈Sr
∈Λr (V ∗ )

=r!A(v 1 ⊗ v 2 ⊗ · · · ⊗ v r )

donde el orden del grupo Sr resulta ser |Sr | = r!, de este modo, tomando S3 = {e, g1 , g2 , g3 , g4 , g5 }
entonces |S3 | = 3!.
Se puede verificar que el producto ∧ es asociativo y lineal . Retomando {ei }N i=1 base de V y

{ϵj }N j=1 base de V , determinamos el producto e 1 ∧ e 2 ∧ · · · ∧ e N . Tomamos N vectores duales
ϵj 1 , ϵj 2 , . . . , ϵj N :
X
(e1 ∧ e2 ∧ · · · ∧ eN )(ϵj1 , . . . , ϵjN ) = ϵπ eπ(1) (ϵj1 ) ∧ eπ(2) (ϵj2 ) ∧ · · · ∧ eπ(N ) (ϵjN )
π∈SN
X j1 j2 jN
= ϵπ δπ(1) δπ(2) · · · δπ(N )
π

Notemos que j1 , j2 , ..., jN = 1, 2, ..., N y π(1), π(2), ..., π(N ) = 1, 2, ..., N , con π(1) 6= π(2), si
j1 = j2 = j entonces
j j
δπ(1) δπ(2) = δ1j δ2j = 0 para π(1) = 1, π(2) = 2
j j
En general si π(m) 6= π(n), δπ(m) δπ(n) = 0; es decir, si hay dos elementos iguales del conjunto
{j1 , j2 , ..., jN } entonces

(e1 ∧ e2 ∧ · · · ∧ eN )(ϵj1 , . . . , ϵjN ) = 0

Si suponemos que todos los elementos de {j1 , j2 , ..., jN } son distintos entonces ∃σ ∈ SN tal que

j1 = σ(1), j2 = σ(2), ..., jN =σ(N )


1 = σ −1 (j1 ), 2 = σ −1 (j2 ), ..., N =σ −1 (jN )
22 CAPÍTULO 1. ÁLGEBRA TENSORIAL

y por tanto,

X j1 j2 jN
(e1 ∧ e2 ∧ · · · ∧ eN )(ϵj1 , . . . , ϵjN ) = ϵπ δπδ −1 (j ) δπδ −1 (j ) · · · δπδ −1 (j ) = 0
1 2 N
π

si π 6= σ, pero si π = σ entonces,

(e1 ∧ e2 ∧ · · · ∧ eN )(ϵj1 , . . . , ϵjN ) = ϵσ δjj11 δjj22 · · · δjjNN = ±1

Por tanto, como ϵ ∈ SN es arbitraria y σ ∈ SN es fija,


 1 {1, ..., N } 7→ {j1 , ..., jN } es impar
(e1 ∧ · · · ∧ eN )(ϵj1 , . . . , ϵjN ) =ϵj1 j2 ···jN = 0 dos o más índices iguales (1.5.2)

−1 {1, ..., N } 7→ {j1 , ..., jN } es par

Teorema 1.5.1.

El producto exterior (wedge) es asociativo y distributivo:

a ∧ (b + c) = a ∧ b + a ∧ c

Más aún, es anticonmutativo:

A ∧ B = (−1)pq B ∧ A

donde A ∈ Λp (V ∗ ) y B ∈ Λq (V ∗ ).

Particularmente, si p = q = 1, v 1 ∧ v 2 = −v 2 ∧ v 1 .

Recordemos que al conjunto de tensores antisimétricos covariantes de orden (0, p) se le


denota por Λp (V) y sus elementos se llaman p-formas. En la figura 1.2.1 se muestra el espacio
tangente de un punto p en una variedad M, en ese caso el espacio tangente Tp M es un espacio
vectorial y su dual se llama espacio cotangente: Tp∗ M. La base del espacio cotangente resulta
ser {ϵj = dxj } ⊂ Tp∗ M, que es la base dual de {ei = ∂i } ⊂ Tp M.
Ahora consideremos dos espacios vectoriales V y W, además de una transformación lineal T :
V 7→ W:

V W

De modo que tenemos dos espacios: Λp (V) y Λp (W), con una transformación inducida T ∗ :
Λp (W) 7→ Λp (V) llamada transformación pull-back, está definida por

T ∗ p(v 1 , v 2 , ..., v p ) = p(T (v 1 ), T (v 2 ), ..., T (v p )) (1.5.3)


1.5. ÁLGEBRA EXTERIOR 23

Figura 1.5.1

V W
T∗

Λp (V) Λp (W)

En la figura 1.5.1 se observa un esquema de los mapeos T y T ∗, notamos que (v 1 , ..., v p ) ∈ V p


y (T v 1 , ..., T v p ) ∈ W.

Proposición 1.5.1

Sea T : V 7→ W y S : W 7→ U :
1. T ∗ : Λp (W) 7→ Λp (V),
2. (S ◦ T )∗ = T ∗ ◦ S ∗ ,

3. Si T es el mapeo identidad T ∗ también lo es,


4. Si T es un isomorfismo, T ∗ también y (T ∗ )−1 = (T −1 )∗ ,
5. Si p ∈ Λp (W) y σ ∈ Λq (W),

T ∗ (p ∧ σ) = (T ∗ p) ∧ (T ∗ σ)


Si {ei }N
i=1 es una base de V, con estos vectores construimos una base para Λ (V ) usando
p

el producto wedge:

e i 1 ∧ e i 2 ∧ · · · ∧ e ip

Pues cada elemento de esta forma es un tensor antisimétrico, de modo que al aplicarlo sobre
la base de (V ∗ )p da la relación “dual” (1.5.2). ¿Cuántos elementos hay en la base? ¿Cuál es la
dimensión dim (Λp (V ∗ ))? Sea ω ∈ Λp (V ∗ ), entonces

ω = ω j1 j2 ...jp ei1 ∧ ei2 ∧ · · · ∧ eip

De modo que, queremos todos los vectores linealmente independientes, tomando en cuenta la
anticonmutatividad del producto wedge (teorema 1.5.1) vemos que

e i1 ∧ e i 2 ∧ · · · ∧ e i p , e i 2 ∧ e i 1 ∧ · · · ∧ e ip , ..., e i2 ∧ e i3 ∧ · · · ∧ e i1

son linealmente dependientes, es decir, no contamos las p! permutaciones. Tenemos N opciones


para el primer índice, N − 1 para el siguiente y así sucesivamente hasta el índice p, para el cual
tenemos N − p + 1. Entonces tenemos

1 N (N − 1) · · · (N − (p − 1) · · · 3 · 2 · 1 N!
N (N − 1) · · · (N − p + 1) = =
p! p!(N − p)! p!(N − p)!

elementos en la base, es decir,

N!
dim (Λp (V ∗ )) = (1.5.4)
p!(N − p)!
24 CAPÍTULO 1. ÁLGEBRA TENSORIAL

Ejemplo 1.5.1

Tomando Λ2 (V ∗ ), vemos que por la antisimetría de sus elementos ω = Aij vi ∧v j , se tiene


que Aij = −Aji . Tomando V = R3 , las 2-formas son equivalente a matrices simétricas
de 3 × 3:
 
0 A12 A13
ω ≡ −A12 0 A23 
−A 12
−A 23
0

(Nótese que Aii = −Aii implica Aii = 0) Por tanto, este espacio tiene dimensión 3!/2!(3−
2)! = 3, que es la dimensión del espacio de matrices correspondientes.

¿Cuánto vale dim ΛN (V ∗ ) ?
 N!
dim ΛN (V ∗ ) = =1
N !(N − N )!
De la misma manera se tiene que
  N!
dim Λp (V ) = (1.5.5)
p!(N − p)!

Para cada elemento A ∈ Λp (V ∗ ) tenemos

X
N
A= Ai1 i2 ...ip ei1 ∧ ei2 ∧ · · · ∧ eip
i1 <i2 <···<ip =1

1 X X X
N N N
= ··· Ai1 i2 ...ip ei1 ∧ ei2 ∧ · · · ∧ eip
p! i =1 i =1 i =1
1 2 p

Teorema 1.5.2. Del álgebra exterior

Hagamos Λ0 (V ∗ ) ≡ R y Λ(V ∗ ) como la suma directa de todos los Λp (V ∗ ):

M
N
Λ(V ∗ ) = Λp (V ∗ )
p=0

=R ⊕ V ⊕ Λ2 (V ∗ ) ⊕ · · · ⊕ ΛN (V ∗ )

Λ(V ∗ ) es un álgebra 2N −dimensional con el producto exterior (∧) definido como su


multiplicación.

Demostración. Queremos probar que la dimensión del álgebra es 2N . Partiendo de la suma


directa
M
N
Λ(V ∗ ) = Λp (V ∗ )
p=0

X
N
=⇒ dim (Λ(V ∗ )) = dim (Λp (V ∗ ))
p=0

X
N XN  
N! N
= = 1p 1N −p
p=0
p!(N − p)! p=0
p

=(1 + 1)N = 2N

donde se ha usado el teorema binomial y el hecho de que dim (W ⊕ V ) = dim (W ) + dim (V ).


Como el producto wedge es asociativo y distributivo (teorema 1.5.1) entonces hemos terminado.
1.5. ÁLGEBRA EXTERIOR 25

Dados espacios vectoriales V y U se puede construir un producto tensorial entre Λ(V ∗ ) y


Λ(U ∗ ). Sea A1 , A2 ∈ Λ(V ∗ ) y B 1 , B 2 ∈ Λ(U ∗ ) entonces

(A1 ⊗ B 1 ) (A2 ⊗ B 2 ) = (−1)p2 q1 (A1 ∧ A2 ) ⊗ (B 1 ∧ B 2 ) (1.5.6)

donde Ai ∈ Λpi (V ∗ ) y B i ∈ Λqi (U ∗ ). La ecuación (1.5.6) define el llamado producto tensorial


torcido (o anti tensorial, de skew).

Proposición 1.5.2

Un conjunto de vectores v 1 , ..., v p es linealmente independiente si y sólo si v 1 ∧ v 2 ∧ · · · ∧


v p 6= 0.

Demostración. Suponemos que {v i }pi=1 es linealmente independiente, entonces generan un


subespacio M ⊂ V tal que dim (M) = p, asociado a este está el espacio de p-formas Λp (M∗ )
cuya dimensión es 1, por tanto solo hay un elemento base de este espacio que es linealmente
independiente:

v 1 ∧ v 2 ∧ · · · ∧ v p 6= 0

Ahora suponemos que la ecuación anterior se cumple además de

α1 v 1 + · · · + αp v p = 0 ∈ V

Multiplicando esto por v 2 ∧ · · · ∧ v p :

α1 v 1 ∧ v 2 ∧ · · · ∧ v p = 0 ∈ Λ(V ∗ )

Pero el producto de vectores es distinto de cero, por tanto, α1 = 0. De la misma forma se


prueba que αi = 0 para i = 2, ..., p, i.e., son linealmente independientes. ■

Ejemplo 1.5.2

Sea {ei }3i=1 una base de V y

v 1 =e1 + 2e2 − e3
v 2 =3e1 + e2 + 2e3
v 3 = − e1 − 3e2 + 2e3

Determinamos su producto:

v 1 ∧ v 2 ∧ v 3 =(e1 + 2e2 − e3 ) ∧ (3e1 + e2 + 2e3 ) ∧ (−e1 − 3e2 + 2e3 )


=v 1 ∧ (−9e1 ∧ ⃗e2 + 6e1 ∧ e3 − e2 ∧ e1 + 2e2 ∧ e3 − 2e3 ∧ e1 − 6e3 ∧ e3 )
=(e1 + 2e2 − e3 ) ∧ (−8e1 ∧ e2 + 8e1 ∧ e3 + 8e2 ∧ e3 )
=8 e1 ∧ e2 ∧ e3 +16e2 ∧ e1 ∧ e3 + 8 e3 ∧ e1 ∧ e2 = 0
| {z } | {z }
=−e2 ∧e1 ∧e3 =−e2 ∧e1 ∧e3

No es difícil verificar que, en efecto los 3 vectores dados son dependientes, como acabamos
de determinar.
26 CAPÍTULO 1. ÁLGEBRA TENSORIAL

Teorema 1.5.3. Lema de Cartan

Suponga que {ei }pi=1 con p ≤ dim (V) es un conjunto de vectores linealmente indepen-
dientes en V y que {v i }pi=1 son vectores en V tal que

X
p
ei ∧ v i = 0
i=1

Entonces todos los vectores en {v i }pi=1 son combinaciones lineales de {ei }pi=1 , más aún,
P
p
si v i = Aij ej entonces Aij = Aji .
j=1

Demostración. Multiplicamos la identidad por e2 ∧ · · · ∧ ep :

X
p
ei ∧ v i ∧ e2 ∧ · · · ∧ ep = e1 ∧ v 1 ∧ e2 ∧ · · · ∧ ep = 0
i=1

Por antisimetría se tiene que

−v 1 ∧ e1 ∧ e2 ∧ · · · ∧ ep = 0

Esto implica que el conjunto de los vectores ei más el vector v 1 es linealmente dependiente, es
decir,

v 1 − A11 e1 − A12 e2 − · · · − A1p ep = 0

es decir,

X
p
v1 = A1j ej
j=1

En general, se obtiene que

X
p
vk = Akj ej
j=1

Entonces,

X X
p X 1X
ei ∧ Akj ej = Aij ei ∧ ej = (Aij − Aji )ei ∧ ej = 0
i j=1 i,j
2 i<j

De donde Aij = Aji . ■

1.6. Orientación
Observemos que

(ϵi1 ∧ ϵi2 ∧ · · · ∧ ϵiN )(e1 , e2 , ..., eN ) = ϵi1 i2 ...iN

análogamente a la ecuación (1.5.2).Así, podemos escribir

ϵi1 ∧ ϵi2 ∧ · · · ∧ ϵiN = ϵi1 i2 ...iN ϵ1 ∧ ϵ2 ∧ · · · ∧ ϵN ∈ ΛN (V ∗ )



donde {ϵi }N
i=1 es base de V . ¿Cómo generalizamos el concepto de sistema orientado en R
3

(mano derecha/izquierda)?
1.6. ORIENTACIÓN 27

Definición 1.6.1: Base orientada


Una base orientada es una base de un espacio vectorial N −dimensional ordenada.

Sea {v i }N
i=1 base de V, esta está ordenada de la siguiente forma

{v 1 , v 2 , v 3 , ..., v N }

y tiene esa orientación. Otra orientación para tal base sería

{v 2 , v 1 , v 3 , ..., v N }

Si {v i }N
i=1 es una base orientada y {ui }i=1 es otra base orientada, como los vectores en cada
N

base son linealmente independientes y los vectores ui están relacionados con los vectores v i ,
tenemos que

uk = Rkj v j

donde (Rij ) es la matriz de transición (cambio de base). De esta manera podemos escribir

u1 ∧ u2 ∧ · · · ∧ uN = R1j1 R2j2 · · · RN jN v j1 ∧ v j2 ∧ · · · ∧ v jN

Notamos que v j1 ∧ v j2 ∧ · · · ∧ v jN = ϵj1 j2 ...jN v 1 ∧ v 2 ∧ · · · ∧ v N , de modo que

u1 ∧ u2 ∧ · · · ∧ uN = ϵj1 j2 ...jN R1j1 R2j2 · · · RN jN v j1 ∧ v j2 ∧ · · · ∧ v jN


| {z }
=det(Rij )

En donde tendremos dos casos, det(Rij ) > 0 o det(Rij ) < 0.

Definición 1.6.2: Orientación


Una orientación es la colección de todas las bases orientadas relacionadas por una
matriz de transformación cuyo determinante es positivo.

Cuando tenemos un espacio vectorial donde especificamos la orientación este se llama


espacio vectorial orientado.

En la definición 1.6.2, decimos que dos bases {v i }N


i=1 y {uj }j=1 forman parte de una orien-
N

tación si su matriz de cambio de base R tal que uk = Rv j cumple det(R) > 0.

Definición 1.6.3:

Sea V un espacio vectorial. Sea {ϵ}N
i=1 una base orientada de V . El elemento de volumen
orientado µ ∈ ΛN (V) de V es definido por

µ = ϵ 1 ∧ ϵ2 ∧ · · · ∧ ϵ N

De este modo, tenemos el elemento de volumen en R3 :


Z Z
dx ∧ dy ∧ dz ≡ dxdydz

Si {ei }N
i=1 y {ϵ }j=1 tienen la misma orientación,
j N

1
µ(e1 , e2 , ..., eN ) =
N!
Si {v i }N
i=1 es otra base orientada de V entonces es orientada respecto a la forma de volumen si
µ(v 1 , v 2 , ..., v N ) > 0.
28 CAPÍTULO 1. ÁLGEBRA TENSORIAL
Capítulo 2

Cálculo tensorial

CONTINUARÁ...

29

También podría gustarte