Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Notas Sobre Tensores
Notas Sobre Tensores
Introducción
Estas notas están pensadas como una introducción elemental a la teorı́a de tensores,
desde un punto de vista “coordenado”. De esta forma, no desarrollamos el producto ten-
sorial de espacios vectoriales sino que introducimos la noción de tensor de forma aislada
para después ponerla dentro de un contexto más genérico.
Para la comprensión completa de este material , el lector deberá realizar los ejercicios
que están entre el texto de la teorı́a (pues en ellos se desarrollan varios puntos teóricos
adicionales). En la parte final, se detalla una lista de ejercicios adicionales para la completar
la práctica de este tema.
1. Ejemplos de tensores
Comenzamos con una serie de ejemplos sobre tensores, en los cuales fijamos una no-
tación conveniente para el desarrollo de estas notas. Más adelante damos la definición
formal y los resultados básicos de la teorı́a de tensores. Por simplicidad vamos a suponer
que los cuerpos considerados son k = Q, ó k = R ó k = C.
f (v) = k1 α1 + . . . + kn αn ,
MB, B0 = ... .. .. ,
. .
c1 . . . cnn
n
donde convenimos en emplear el ı́ndice superior para indicar la fila y el inferior para indicar
la columna. Recordemos que en este caso, la matriz de cambio base MB, B0 de la base B 0
1
−1
en la base B es inversible y su inversa está dada por MB, B0 = MB , B , es decir la matriz
0
donde
Xn n
X
l
hi = f (wi ) = f ( ci vl ) = cli kl , i = 1, . . . , n. (2)
l=1 l=1
Notación 1.1. Convengamos ahora en abreviar las notaciones siguiendo la regla de Ein-
stein: si en una expresión cualquiera se repite dos veces, una arriba y otra vez abajo, un
mismo ı́ndice - digamos i - esto significa que se realiza la sumación respecto a este ı́ndice
- en este caso i - en los correspondientes lı́mites de sumación (i = 1, . . . , n). De esta forma
omitimos el signo de sumatoria “ ni=1 ”.
P
f (v) = hi β i , hi = cli kl .
Por otro lado, con las notaciones anteriores se tiene: [f ]B = (ki )ni=1 , [f ]B0 = (hi )ni=1 y vale
la relación
[f ]B0 = [f ]B · MB, B0 . (3)
Notemos que de esta forma estamos considerando las representaciones matriciales de los
funcionales como vectores fila.
1.2. Vectores de V
Con las notaciones anteriores, dada la base B de V, todo vector v ∈ V queda rep-
resentado por sus coordenadas [v]B = (α1 , . . . , αn ). En la base B 0 este mismo vector se
representa por las coordenadas [v]B0 = (β 1 , . . . , β n ) y las relaciones entre estos dos vectores
de coordenadas está dada por la matriz de cambio de base
αl = cli β i .
Claro que para calcular las coordenadas [v]B0 en términos de [v]B necesitamos la matriz de
−1
cambio de base MB0 , B = MB, B0 (como hemos visto en la teorı́a). De esta forma, recordemos
que se tiene
[v]B0 = MB0 ,B · [v]B . (4)
Los dos ejemplos considerados (el de funcional lineal y el de vector) tienen algo en
común que permite incluirlos dentro de una definición más general. Dada una base, tanto
un funcional como un vector quedan determinados por n coeficientes (coordenadas), de
forma que al pasar a una nueva base estos coeficientes se transforman linealmente (a través
de la matriz de cambio de base). Los coeficientes de una funcinal lineal ası́ como los de
un vector son ejemplos de tensores, entendiendo por un tensor una familia de n-uplas de
2
coeficientes que representan coordenadas en alguna base y que se transforman linealmente
al cambiar una base por otra.
Es claro que, con respecto al espacio vectorial V los vectores y funcionales son entidades
bien distintas. El hecho de que se trate de objetos distintos queda de manifiesto en la forma
diferente (comparar las ecuaciones (3) y (4)) de pasar de un sistema de coordenadas a otro.
Mencionamos que ambos ejemplos son de tensores univalentes ya que se determinan
por un sistema de números que dependen de un ı́ndice.
donde MB, B0 = (cij ), MB0 , B = (bij ) ∈ k n×n son las matrices de cambio de base y [T ]B0 =
(dij ) ∈ k n×n es la matriz de T en la base B 0 . La fórmula en (5) también puede escribirse
como
dij = bil alt ctj (6)
donde hemos utilizado la convención de Einstein y omitido dos signos de sumatoria
(cuales?!)
Por consiguiente, un operador lineal T se determina en una base dada mediante un
sistema formado por n2 coeficientes aij que dependen de dos ı́ndices, el superior y el inferior,
y que al pasar a una nueva base se transforman según la fórmula (6). Tenemos ahora un
ejemplo de tensor, que en este caso es de valencia dos (pues depende de dos ı́ndices).
Además notemos la conveniencia de que un ı́ndice sea superior y el otro inferior (que se
ve reflejada en la sencillez de la fórmula (6)).
MB, B0 = (cij ), MB0 , B = (bij ) ∈ k n×n son las matrices de cambio de base. Decimos entonces
i ...i
que la familia de coeficientes aj11 ...jpq (B) forma un tensor (p + q)-valente p-covariante
y q-contravariante.
Un escalar, es decir, una magnitud que tiene el mismo valor en todos los sistemas de
coordenadas puede ser considerado un tensor de valencia nula.
Ejemplo 2.2. Sea V un k-espacio vectorial con dimk V = n y sea T ∈ L(V) un operador
lineal. A partir de T construimos un tensor 1-covariante 1-contravariante como sigue. Para
cada base B de V consideramos [T ]B = (aij )ni, j=1 y definimos aij (B) = aij , 1 ≤ i, j ≤ n.
Entonces la ecuación (6) en la sección 1.3 muestra que la familia ası́ definida es un tensor
de la estructura mencionada.
3
De forma análoga, un vector induce (puede considerarse como) un tensor 1-contravariante
0-covariante (que llamaremos simplemente 1-contravariante) - a partir de sus coordenas
en bases - y un funcional induce un tensor 1-covariante - a partir de sus n valores en los
elemetos de las bases (ver las ecuaciones (3) y (4)).
Observación 2.4 (Como construir tensores). Sea V un k-espacio vectorial con dimk V = n
i ...i
y sea B una base de V. Sean aj11 ...jpq ∈ k, 1 ≤ i1 , . . . , iq ≤ n y 1 ≤ j1 , . . . , jp ≤ n. Entonces
definimos un tensor (p + q)-valente p-covariante y q-contravariante de la siguiente forma:
si B 0 es otra base de V entonces
i ...i i l ... l t
aj11 ...jpq (B 0 ) := bil11 · · · blqq · at11 ... tpq · ctj11 · · · cjpp (7)
donde MB, B0 = (cij ), MB0 , B = (bij ) ∈ k n×n son las matrices de cambio de base (donde la
expresión de la izquierda es, por definición, la expresión que figura a la derecha).
Veamos que esta definición corresponde a un tensor: en efecto, si B1 y B2 son dos bases
de V entonces se verifican las identidades
i ...i i l ... l t
aj11 ...jpq (B1 ) := bil11 · · · blqq · at11 ... tpq · ctj11 · · · cjpp (8)
i ...i i l ... l t
aj11 ...jpq (B2 ) := dil11 · · · dlqq · at11 ... tpq · etj11 · · · ejpp (9)
i ...i i l ... l t
aj11 ...jpq (B1 ) := fli11 · · · flqq · at11 ... tpq (B2 ) · gjt11 · · · gjpp (10)
donde MB2 , B1 = (gji ), MB1 , B2 = (fji ) ∈ k n×n . Pero (10) es una consecuencia de (8) y (9)
junto con las identidades (verificadas en la teorı́a)
Si dos tensores de la misma estructura tienen las mismas coordenadas con respecto a
una base B determinada, entonces es claro que los tensores son iguales ya que al pasar
a una base nueva las coordenadas se transforman de la misma manera (según la fórmula
(7)).
Por ello, la construcción descripta arriba determina todos los posibles tensores de una
estructura dada. Enunciamos este hecho elemental en la siguiente
4
Proposición 2.5. Sea V un k-espacio vectorial con dimk V = n y sea B una base de V. Si A
i ...i
es un tensor p-variante y q-contravariante entonces existen aj11 ...jpq ∈ k, 1 ≤ i1 , . . . , iq ≤ n
i ...i
y 1 ≤ j1 , . . . , jp ≤ n tal que A es el tensor inducido por aj11 ...jpq ∈ k, 1 ≤ i1 , . . . , iq ≤ n y
1 ≤ j1 , . . . , jp ≤ n en la base B.
aij31ij22i1 i4 (B) = aij11ij22i3 i4 (B), aij41ij22i3 i1 (B) = aij11ij22i3 i4 (B), aij11ij22i4 i3 (B) = aij11ij22i3 i4 (B).
Supongamos que B es una base de V en donde valen las ecuaciones de arriba. Con-
centremos nuestra atención en una de las identidades anteriores, por ejemplo: para todos
1 ≤ i1 , i2 , i3 , i4 ≤ n y 1 ≤ j1 , j2 ≤ n aij31ij22i1 i4 (B) = aji11ij22i3 i4 (B). Sea B 0 otra base de V con
lo cual
aji31ij22i1 i4 (B 0 ) = bil13 bil22 bil31 bil44 · alt11lt22l3 l4 (B) · ctj11 ctj22 = bil13 bil22 bil31 bil44 · alt31lt22l1 l4 (B) · ctj11 ctj22
= bil31 bil22 bil13 bil44 · alt31lt22l1 l4 (B) · ctj11 ctj22 = bil11 bil22 bil33 bil44 · alt11lt22l3 l4 (B) · ctj11 ctj22
= aij11ij22i3 i4 (B 0 )
donde la primer igualdad es por definición de tensor, la segunda por simetrı́a en la base
B, la tercera es por conmutación (del primer y tercer factor en la expresión) y la cuarta
es porque las variables l1 , . . . , l4 son mudas (o de sumación).
Con respecto a esta última afirmación, conviene notar que las expresiones (para r, s, t
fijos) aj1 t j2 cjr1 cjs2 y aj2 t j1 cjr2 cjs1 coinciden, pues se tiene
n X
X n n X
X n
aj1 t j2 cjr1 cjs2 = aj1 t j2 cjr1 cjs2 = aj2 t j1 cjr2 cjs1 = aj2 t j1 cjr2 cjs1
j1 =1 j2 =1 j1 =1 j2 =1
5
que todas las identidades anteriores se preservan, es decir: para todos 1 ≤ i1 , i2 , i3 , i4 ≤ n
y 1 ≤ j1 , j2 ≤ n
6
3.2. Multiplicación de tensores
Sean A y D tensores p-covariante y q-contravariante y r-covariante y s-contravariante
respectivamente sobre V. Definimos el tensor producto A · D de la siguiente forma. Si B
denota una base de V entonces: para todos 1 ≤ i1 , . . . , iq+s ≤ n y 1 ≤ j1 , . . . , jp+r ≤ n
i ...i i ...i i ...i q+s
(A · D)j11 ...jq+s
p+r
(B) = aj11 ...jqp (B) · djq+1
1+p ...jp+r
(B)
c11 = a1 (B) b1 (B), c12 = a1 (B) b2 (B), c21 = a2 (B) b1 (B), c22 = a2 (B) b2 (B)
c011 = b1 (B) a1 (B), c012 = b1 (B) a2 (B), c021 = b2 (B) a1 (B), c022 = b2 (B) a2 (B) .
Es claro que en general las segundas coordenadas (en las listas de arriba) no serán iguales
(dar un ejemplo concreto!).
7
Ejemplo 3.5. Consideremos el caso en que n = 2 y A es un tensor 2-covariante y 1-
contravariante. De esta forma, dada una base B de V entonces A tiene ocho coordenadas
con respecto a esta base, Aij k (B), 1 ≤ i, j, k ≤ 2. Contrayendo a este tensor con respec-
to a los ı́ndices 1 (superior) y 1 (inferior) se obtiene un tensor A0 1-contravariante de
coordenadas
A0 (B)1 = A111 + A221 , A0 (B)2 = A112 + A222 .
Por otro lado, si contraemos con respecto a 1-(superior) y 2-(inferior) se obtiene el tensor
A00 1-contravariante de coordenadas
que es lo que hemos llamado la traza de T . El hecho de que la traza de T sea un tensor
indica que este escalar es independiente de la base en que se lo calcule!!
1. Sean S, T ∈ L(V) dos operadores lineales y sean A = aij (·), D = dij (·) los tensores
inducidos por estos operadores sobre V. Entonces el producto A · D es un tensor
2-covariante y 2-contravariante. Si contraemos al producto por los ı́ndices 1-inferior
y 2-superior y denotamos a esta contracción por E entonces
ul al k v k = A(u, v).
8
Sea I = {1, . . . , s}. En lo que sigue SI denota el conjunto de todas las funciones
f : I → I biyectivas. Como I es un conjunto de s elementos se deduce (es un ejercicio de
álgebra I) que la cantidad de elementos de SI es s! = s · (s − 1) · . . . · 1. Los elementos
de SI serán denotados por letras como σ, τ , etc. Notemos que si σ, τ ∈ SI entonces la
composición σ ◦ τ , denotaremos simplemente por σ τ es también un elemento de SI . Más
aún, la función Lσ : SI → SI dada por Lσ (τ ) = σ τ es una biyección del conjunto SI : en
efecto, si Lσ (τ ) = Lσ (τ 0 ) entonces σ τ = σ τ 0 pero entonces
τ = id|I ◦ τ = (σ −1 ◦ σ) ◦ τ = σ −1 ◦ (σ ◦ τ ) = σ −1 ◦ (σ ◦ τ 0 ) = (σ −1 ◦ σ) ◦ τ 0 = τ 0
respectivamente
i ...i 1 X i1 ... iq
Dj11 ...jqp (B) = ajσ(1) ...jσ(r) jr+1 ... jp (B).
s!
σ∈SJ
Ejemplo 3.8. Supongamos que, con las notaciones anteriores se tiene I = {1, 2} de forma
las únicos elementos de SI son la identidad y la función (1 2) : {1, 2} → {1, 2} tal que
(1 2)(1) = 2, (1 2)(2) = 1. Entonces
es decir, D es simétrico con respecto al conjunto de ı́ndices superiores {1, 2}. Más aún, si
suponemos que A es un tensor simétrico con respecto al conjunto de ı́ndices superiores
{1, 2} entonces A = D.
Como conclusión del ejemplo anterior observamos que la simetrización de A con re-
specto a I produce un tensor simétrico con respecto al conjunto I. Más aún, los tensores
simétricos con respecto a I no cambian al simetrizarlos con respecto a I.
9
3.5.2. Alternación de un tensor
i ...i
Sea A un tensor p-covariante y q-contravariante sobre V con coordenadas aj11 ...jqp (·) y
consideremos un subconjunto I = {1, . . . , s} ⊂ {1, . . . , q} (esta elección de I es por simpli-
cidad) (respectivamente J = {1, . . . , r} ⊂ {1, . . . , p}) del conjunto de ı́ndices. Decimos que
D se obtiene por alternación (ó anti-simetrización) de A con respecto a I (respectivamente
a J) si
i ...i 1 X i ...iσ(s) is+1 ... iq
Dj11 ...jqp (B) = sgn(σ) ajσ(1) 1 ...jp
(B)
s!
σ∈SI
respectivamente
i ...i 1 X i ... iq
Dj11 ...jqp (B) = sgn(σ) aj1σ(1) ...j σ(r) jr+1 ... jp
(B),
s!
σ∈SJ
Ejemplo 3.10. Supongamos que, con las notaciones anteriores se tiene I = {1, 2} de
forma las únicos elementos de SI son la identidad y la función (1 2) : {1, 2} → {1, 2} tal
que (1 2)(1) = 2, (1 2)(2) = 1. Entonces
Como conclusión del ejemplo anterior observamos que la alternación de A con respecto
a I produce un tensor anti-simétrico con respecto al conjunto I. Más aún, los tensores anti-
simétricos con respecto a I no cambian al alternarlos con respecto a I.
10
Si u, w ∈ V son vectores y U, W son los tensores 1-contravariantes inducidos por u y
w respectivamente, con coordenadas ui (·), wi (·) entonces se verifica que
hu, wi = ui (B) · gij (B) · wj (B), para toda base B.
La contracción del producto del tensor métrico con el tensor W cuyas coordenadas son
wi (B) = gij (B) wj (B)
es un tensor univalente 1-covariante. Las coordenadas de este tensor son llamadas coor-
denadas covariantes del vector w ∈ V (a diferencia de sus coordenadas contravariantes -
usuales). Puesto que dada una base B = {v1 , . . . , vn }
n
X n
X
wi (B) = gij (B) wj (B) = hvi , vj i wj (B) = hvi , wj (B) vj i = hvi , wi
j=1 j=1
vemos que las coordenadas covariantes de w son las proyecciones de w sobre los elementos
de la base B (donde hemos usado la identidad w = nj=1 wj (B) vj ). Ası́, en el caso par-
P
ticular de una base ortonormal (b.o.n.) B entonces se tiene wj (B) = wj (B) es decir, las
coordenadas covariantes y contravariantes coinciden.
Notemos que, por propiedad básica de un tensor, si B1 , B2 son bases de V entonces
gij (B1 ) = gk l (B2 ) cki clj , 1 ≤ i, j ≤ n
donde MB2 , B1 = (cij ) es la matriz cambio de base. En particular, se verifica la relación
matricial
(gij (B1 ))ni, j=1 = MBt 2 , B1 (gij (B2 ))ni, j=1 MB2 , B1 .
Si B1 es una base arbitraria y B2 es una b.o.n. (que existe por ortogonalización de una
base arbitraria de V) entonces
(gij (B1 ))ni, j=1 = MBt 2 , B1 MB2 , B1
ya que (gij (B2 ))ni, j=1 es la matriz identidad. En particular, (gij (B1 ))ni, j=1 es una matriz
inversible (pues es producto de matrices de cambio de base, que son inversibles).
En este caso, definimos el tensor 2-contravariante G 0 cuyas coordenadas están dadas
por
g ij (B) = Aij , donde A = A(B) = ((gij (B))ni, j=1 )−1 ∈ Rn×n
es decir, la coordenada g ij (B) de G 0 es la entrada (i, j) de la matriz A (que depende de
B) inversa de la matriz (gij (B))ni, j=1 .
Ejercicio 4.1. Probar que G 0 definido como antes es de hecho un tensor 2-contravariante
sobre V.
El tensor G 0 se llama tensor métrico contravariante. Notemos que entonces se tiene,
por construcción de G 0 la indentidad
g ij (B) gjk (B) = δji (B) , gjk (B) g ij (B) = δji (B)
donde δji (B) denotas las coordenadas del tensor 1-variante 1-contravariante inducido por
el operador lineal identidad id|V ∈ L(V).
El paso de las coordenadas contravariantes del vector w a sus coordenadas covariantes
se llama operación de descenso del ı́ndice. Para elevar el ı́ndice, es decir, pasar de sus
coordenadas covariantes a las contravariantes observamos que tomando la contracción del
producto
g ij (B) wj (B) = g ij (B) gjk (B) wk (B) = wi (B)
se recuperan las coordenadas contravariantes a partir de las covariantes.
11
5. Apéndice: la función signo
Sea I(n) = {1, . . . , n} y consideremos Sn = SI(n) el conjunto de las biyecciones (per-
mutaciones) de n elementos. Si σ ∈ Sn (es decir, σ : I(n) → I(n) es una función biyectiva)
construimos la matriz Pσ ∈ Rn×n dada por (Pσ )ij = δi σ(j) , 1 ≤ i, j ≤ n.
Por ejemplo, si σ ∈ S3 es la permutación dada por σ(1) = 2, σ(2) = 3, σ(3) = 1
entonces la matriz Pσ es
0 1 0
Pσ = 0 0 1 .
1 0 0
A partir de la matriz Pσ definimos el signo de σ, notado sgn(σ) mediante
sgn(σ) = det(Pσ ).
Un hecho fundamental es que para toda σ ∈ Sn
sgn(σ) ∈ {−1, 1}
En caso del ejemplo anterior es fácil ver que sgn(σ) = 1. A partir de la definición anterior
se puede ver que si σ, τ ∈ Sn entonces
sgn(σ τ ) = sgn(σ) · sgn(τ ).
Hay otras formas posibles de definir esta función, que dependen de ciertas descomposi-
ciones de permutaciones.
6. Ejercicios
1. Considerar el tensor (1 − 1) (es decir, 1-covariante, 1-contravariante) cuyas coorde-
nadas en una base fija {e1 , e2 , . . . , en } se determinan por
i 1, si i=j
δj = ,
0, si i 6= j
probar que las coordenadas del tensor δji son las mismas en todos los sistemas de
coordenadas.
2. Dar un ejemplo de un tensor simétrico y de uno antisimétrico.
3. Mostrar que todo tensor (1−1) puede considerarse como el conjunto de los elementos
de la matriz de un operador lineal.
4. Contraer el tensor aij
klm respecto de los ı́ndices j y l, considerando n = 2. Detallar
los valores que se obtienen.
5. Mostrar que al contraer p veces un tensor de tipo (p − p) se obtiene como resultado
un escalar (invariante).
6. Sea el tensor aij (que determina una forma bilineal A(x, y)). Analizar que se ob-
tiene al contraer este tensor con un par de vectores x = (x1 , x2 , . . . , xn ) e y =
(y 1 , y 2 , . . . , y n ).
7. Sea un tensor de tipo (1 − 2) aij
k.
a) Analizar que tipo de tensor se obtiene al contraerlo con un tensor métrico gpj .
b) Y al contraerlo con un tensor métrico de tipo g qk ?
12
Referencias
[1] L.I. Golovina, Algebra Lineal y algunas de sus aplicaciones, Editorial M.I.R., Moscú,
1974.
13