Está en la página 1de 13

Apéndice A

APÉNDICE A: RESUMEN DE ALGUNAS NOCIONES DE ALGEBRA


LINEAL

A.1 Espacios vectoriales


Suponemos conocidas por el lector nociones de espacios vectoriales de dimensión finita,
como las que se aprenden en un curso de introducción al álgebra lineal. Aquí recordamos
sólo algunos conceptos y fórmulas, con la mira puesta en las aplicaciones físicas. Son
nociones mínimas para una introducción a los tensores cartesianos.
Un espacio vectorial E sobre el cuerpo de los números reales R, {α, β, ..., a, b, ...},
es una colección de elementos, llamados vectores, {u, v, w, ...}, para los cuales están defi-
nida
a) la operación suma de vectores que produce otro vector

w = u + v, (A.1)

con las propiedades usuales, conmutativa w = v + u y asociativa u + (v + w) = (u + v) + w.


b) Existe el elemento 0 tal que u + 0 = u.
c) Para todo vector u existe otro vector v tal que u + v = 0 y v se denota como
−u.
d) Está definido el producto de un vector u1 por un número real α, el cual genera
otro vector u2
u2 = αu1 , (A.2)
con las propiedades distributiva α(u + v) = αu + αv y (αβ)u = α(βu) = (βα)u = β(αu).
Un conjunto de m vectores {ui } tal que α1 u1 + ... + αm um = 0, donde los αi
no son todos nulos, se dice linealmente dependiente. En cambio, cuando no existe ningún
conjunto de números αi no todos nulos, tal que entre los m vectores ui subsiste una
relación como α1 u1 + ... + αm um = 0, los ui son linealmente independientes. En otras
palabras, la relación α1 u1 +...+αm um = 0 sólo puede valer cuando todos los αi son nulos.
El espacio vectorial E tiene dimensión n (finita) cuando existe un número n
(máximo) tal que cualquier conjunto de m vectores con m > n es linealmente dependiente,
o sea, siempre hay por lo menos uno de ellos que se puede expresar como combinación
lineal de los demás, mientras que existe un conjunto de n vectores que es linealmente
independiente, es decir que la combinación lineal

α1 u1 + ... + αn un = 0, (A.3)

sólo se cumple cuando todos los αi valen cero.


En un espacio E de dimensión n se dice que un conjunto de n vectores {ui }
linealmente independientes forman una base, porque cualquier vector u de E se puede
expresar mediante una combinación lineal de los vectores de la base en la forma

u = α1 u1 + ... + αn un ≡ αi ui . (A.4)

Aquí se introduce la convención de suma sobre índices repetidos en un monomio. Se dice


que el conjunto ordenado de n números (α1 , ..., αn ) son las componentes o coordenadas de
u correspondientes a la base ui .
Formas lineales 74

El lector recordará, entre tantos ejemplos posibles, que el conjunto {A, B, ...} de
las matrices n × n forma un espacio vectorial de dimensión n2 . Que las matrices n × 1, o
bien 1 × n (columnas o filas) es decir, los conjuntos ordenados de n números (a1 , a2 , ..., an )
también llamados n-plas, forman un espacio vectorial de dimensión n. Las flechas (los
segmentos de recta orientados) que representan geométricamente las fuerzas en mecánica,
forman un espacio vectorial de tres dimensiones, el cual fue el paradigma de la noción
de vector en el desarrollo histórico del concepto y es todavía el más importante en las
aplicaciones físicas. El espacio de los polinomios de variable t de grado ≤ n − 1 (en
este caso una base es 1, t, ...tn−1 ) es también un espacio vectorial de dimensión n, y así
siguiendo.

A.2 Formas lineales


Repasamos las nociones de función lineal y función bilineal, sobre un espacio vectorial.
Una función lineal, también llamada forma lineal, es una correspondencia E → R,
tal que a todo vector u se le asocia un número f (u) con las siguientes propiedades:
a) f (u + v) = f (u) + f (v);
b) f (αu) = αf (u).
Sean los ui una base de E, de modo que todo vector u se puede expresar como
u = αi ui , entonces si f es una función lineal vale f (u) = αi f (ui ). Aplicando la función
lineal a los elementos de la base obtenemos los n números ai = f (ui ), por lo tanto

f (u) = a1 α1 + ... + an αn = ai αi , (A.5)

fórmula con la que se obtiene una representación algebráica de la función lineal, mediante
la n-pla (a1 , ..., an ) ligada a la base particular elegida. La A.5 se parece a un producto
escalar entre vectores, operación que no todavía no está definida en E. En los espacios
euclidianos, mencionados más adelante, en los cuales existe el producto escalar, las formas
lineales f (u) son equivalentes a productos escalares.
Una función bilineal, o forma bilineal, es una correspondencia E × E → R . Aquí
E ×E indica el producto cartesiano, o sea el conjunto de los pares ordenados de elementos
de E. La función bilineal es tal que a todo par ordenado de vectores (w, v) le asigna un
número F (w, v) con las condiciones:
a) F (w1 + w2 , v) = F (w1 , v) + F (w2 , v);
b)F (w, v1 + v2 ) = F (w, v1 ) + F (w, v2 ).
c) F (αw, v) = αF (w, v) y F (w, αv) = αF (w, v).
En otras palabras, F (w, v), es lineal en cada uno de los argumentos, separada-
mente. Si tenemos las coordenadas de w, v respecto de la base ui de E, w = β i ui , v = γ i ui
y si conocemos el cuadro de números que corresponde a la aplicación de F sobre los pares
de elementos de la base, aij = F (ui , uj ), resulta

F (w, v) = aij β i γ j . (A.6)

Esta es una expresión explícita para la función bilineal mediante la matriz n × n, de


las componentes aij , vinculadas con la base elegida. Se dice que una forma bilineal es
simétrica cuando se cumple
F (w, v) = F (v, w), (A.7)
para cualquier par de vectores (w, v).

A.3 Espacio Dual


Las funciones lineales sobre el espacio vectorial E forman un espacio vectorial E ∗ de una
manera natural. Sean {f, g, h, ...} formas lineales definidas como en A.2. Las ecuaciones

(f + g)(u) = f (u) + g(u), (λf )(u) = λf (u) (A.8)


Cambios de base y reglas de transformación 75

definen la suma de dos funciones lineales y el producto de una función lineal por un número.
Es fácil comprobar que se cumplen las demás propiedades de un espacio vectorial dadas
en A.1. La función cero es tal que f + 0 = f , las propiedades asociativa y distributivas de
la suma se heredan de las correpondientes al cuerpo de ńumeros reales R, etc.. El espacio
vectorial de las funciones lineales E ∗ se denomina espacio dual de E. Se demuestra
facilmente que debe tener la misma dimensión de E. Los elementos del espacio dual se
denominan covectores.
Puesto que todo vector u ∈ E induce una correspondencia lineal con un número
f (u) cuando actúa en asociación con cualquier f ∈ E ∗ , podemos ahora pensar que los
elementos de E son funciones lineales sobre E ∗ . Por lo tanto, ahora el dual de E ∗ es E,
o sea, el dual del dual es el espacio original, (E ∗ )∗ = E.
Debido al distinto comportamiento de vectores y formas frente a los cambios de
base, mientras se trabaje con bases generales resulta útil introducir una nueva convención
para los índices. Esta convención será omitida cuando trabajemos con bases ortogonales,
es decir con tensores cartesianos en espacios euclidianos. En general, hay que hacer
atención a la siguiente notación para la posición de los índices, que modifica la empleada
más arriba en A.1, y A.2,

u = αi ui , f (u) = f (αi ui ) = αi f (ui ) = ai αi , ai = f (ui ). (A.9)

Las componentes αi de los vectores de E llevarán el supraíndice, la n-pla ai de la forma


f aplicada sobre la base de E llevan el subíndice, los vectores ui de la base de E llevan
subíndice. Cuando se conviene establecer la distinción entre subíndices y supraíndices
sólo se permite la suma de índices repetidos entre un par con distinta posición, como en
el caso ai αi . Las expresiones como ai bi , o bien, αj β j están prohibidas.
Dado que las formas lineales son elementos de un espacio vectorial E ∗ existen
conjuntos de funciones, {f i }, que forman base, de manera que toda función lineal se
puede expresar como
f = ϕk f k , (A.10)
donde los ϕk son números de una n-pla (ϕ1 , ϕ2 , ...ϕn ), también llamados coordenadas o
componentes del covector f . Los covectores de una base de formas lineales aplicados sobre
vectores de E producen números, f k (u) ∈ R, como cualquier otra función. Una base f k
de E ∗ tal que
f k (ui ) = δ ki , (A.11)
donde δ ki es la delta de Kroenecker (δ ki = 0, si i 6= k, δ ki = 1, si i = k) se denomina la base
dual de ui . Evidentemente, la representación de la forma lineal

f (u) = ak f k (αi ui ) = ak (f k (ui ))αi = ak δ ki αi = ai αi , (A.12)

emplea las coordenadas de f en la base dual.

A.4 Cambios de base y reglas de transformación


Veamos que sucede cuando se realiza un cambio de la base en E. Sea otra base, {u0i },
diferente de {ui } en E, es decir, que podemos representar cualquier vector de E tanto en
la vieja como en la nueva base
u = αi ui = αk0 u0k . (A.13)
En particular
u0k = ul γ lk , (A.14)
y también
ui = u0k ηki , (A.15)
donde la matriz de las componentes de la nueva base en la vieja, G = (l=filas, [γ lk ]
k=columnas) y la matriz correspondiente a las componentes de la vieja base en la nueva,
Cambios de base y reglas de transformación 76

H = [ηki ] (k=filas, i=columnas), son inversas una respecto de la otra, G = H−1 , puesto
que
u0k = ul γ lk = u0i η il γ lk , =⇒ u0i (δ ik − ηil γ lk ) = 0. (A.16)
Pero los u0i forman una base y por lo tanto son linealmente independientes, de modo que
(δ ik − η il γ lk ) = 0, HG = I. (A.17)
En forma similar se muestra que GH = I. Es fácil argumentar que para formar una base
{u0i } debe estar ligada a {ui } por una matriz que posea inversa, es decir que G debe ser
no singular, i.e., det(G) 6= 0. Lo mismo dígase de H.
Utilizando δ ij la delta de Kroenecker, podemos escribir

γ lk ηki = δ li , η lk γ ki = δ li . (A.18)
Por lo tanto, partiendo de A.13 y siguientes,
u = (αk0 γ lk )ul = αl ul , (A.19)
= (αi ηki )u0k = αk0 u0k ,
de las cuales se desprende que
αk0 = ηki αi , αl = γ lk αk0 , (A.20)
es decir que las coordenadas de los vectores se transforman mediante los elementos de
la matriz inversa y transpuesta de la que transforma las bases. Con notación matricial,
donde las componentes α = (α1 , ..., αn )T son vectores columna y las bases vectores filas
u = (u1 , ..., un ), podemos escribir
u0 = uGT , u = u0 H T , (A.21)
α0 = Hα, α = Gα0 .
Para la transformación de las formas lineales tenemos
f (u) = ai αi = a0i αi0 , ai = f (ui ), a0i = f (u0i ), (A.22)
donde las n-plas a = (a1 , ...an ) y a0 = (a01 , ...a0n ) son covectores filas y de aquí, de manera
similar, se obtiene
a0k αk0 = ai αi = (ai γ ik )αk0 , (A.23)
ai αi = (a0k ηki )αi , (A.24)
o sea,
a0k = ai γ ik , ai = a0k ηki , (A.25)
a0 = aGT , a = a0 H T , (A.26)
la cual muestra que los covectores se transforman como los elementos de la base de E.
Se dice que las componentes de los vectores αi son contravariantes y las componentes de
los covectors ai son covariantes. En estas notas, sólo necesitaremos la distinción entre
índices de covariancia y contravariancia cuando sea necesario trabajar con coordenadas
curvilíneas.
Dado que las bases duales son tales que
f i (uj ) = δ ij = f 0 i (u0j ), (A.27)
resulta
f i (u0k η kj ) = f i (u0k )ηkj = δ ij , (A.28)
i
y por lo tanto f (u0k )
son los elementos de la matriz inversa de es decir, los elementosη kj ,
γ ik de G, la inversa de H. Analogamente, f 0 i (uk ), son las componentes de la inversa de
γ kj , es decir, de H, la inversa de G.
Espacios Euclidianos 77

A.5 Espacios Euclidianos


Conviene recordar ahora la noción de espacio euclidiano que se basa en una operación
adicional: el producto interno (también llamado producto escalar ). Un espacio vectorial
E está dotado de un producto interno cuando existe una correspondencia E × E → R,
con las siguientes propiedades
a) es una funcíon bilineal simétrica que para cualquier par de vectores w, v, le
asigna un número real, denotado por (w, v) = (w, v);
b) para todo v es (v, v) ≥ 0 y (v, v) = 0 si y sólo si v = 0.
Naturalmente, por la bilinealidad pedida para (w, v), se cumplen las ecuaciones
(w1 + w2 , v) = (w1 , v) + (w2 , v) y (αw, v) = α(w, v). Un espacio vectorial con un producto
interno que cumple todas las condiciones citadas se llama espacio euclidiano. Cuando sea
conveniente recordar la dimensión n del espacio escribiremos E(n) .
El espacio de tres dimensiones de la mecánica, o de la geometría elemental, donde
los vectores son flechas y en el cual el producto interno de − →
x por − →
y se define como el
producto de sus longitudes por el coseno del ángulo comprendido

(−

x ,− x | |−
y ) ≡ |−
→ → →
y | cos(∠−

x ,−

y ), (A.29)

es un espacio euclidiano. En este caso, la notación más difundida para el producto interno
es −
→x •−→
y y el nombre habitual de la operación producto escalar. En el espacio vectorial
cuyos elementos son n-plas a = (a1 , a2 , ..., an ), b = (b1 , b2 , ..., bn ),..., etc., podemos definir
un producto interno con la expresión

(a, b) = a1 b1 + ... + an bn . (A.30)

El lector puede comprobar que con este producto interno el espacio de n-plas es euclidiano.
En el espacio de los polinomio P (t), Q(t),..., etc., de grado ≤ n − 1 un producto interno
se puede definir mediante
Zb
(P, Q) = P (t)Q(t)dt, (A.31)
a

empleando un intervalo arbitrario a ≤ t ≤ b. El lector posiblemente recordará que en la


teoría de la relatividad se encuentra conveniente abandonar la condición b) (v, v) ≥ 0 ,
para el producto interno, por lo tanto no se define la longitud o norma de un vector, como
haremos a continuación, sino una métrica. El espacio de los cuadrivectores relativísticos
no es euclidiano.
En un espacio euclidiano el número
p
|v| = + (v, v), (A.32)

es la longitud (o norma) del vector v. Con esta definición se puede generalizar la noción
de ángulo entre dos vectores w, v:
(w, v)
φ = arccos . (A.33)
|w| |v|
Dos vectores w, v son ortogonales cuando

(w, v) = 0, (A.34)

de manera que el ángulo entre dos vectores ortogonales no nulos es 12 π. La definición de


ángulo es consistente con
(w, v)
−1 ≤ ≤ 1, (A.35)
|w| |v|
en virtud de la desigualdad de Schwarz

(w, v)2 ≤ (v, v)(w, w). (A.36)


Bases ortogonales 78

El lector puede facilmente demostrar la extensión del teorema de Pitágora a los espacios
euclidianos
2 2 2
|w + v| = |w| + |v| , (A.37)
válida cuando los vectores son ortogonales, (w, v) = 0. En general, también como conse-
cuencia de la desigualdad de Schwarz, tenemos la desigualdad triangular

|w + v| ≤ |w| + |v| . (A.38)

Por analogía con la geometría euclidiana en tres dimensiones se define la distancia, d,


entre dos vectores w, v de modo similar a la distancia entre dos puntos

d ≡ |w − v| . (A.39)

A.6 Bases ortogonales


En un espacio euclidiano E(n) existe una base ortonormal, {Ei }, cuyo empleo es muy
conveniente. En vista de las aplicaciones a la mecánica de medios contínuos a las cuales
apuntan estas notas, nos limitaremos a espacios euclidianos (manteniendo por el momento
la dimensión n arbitraria) y escribiremos la condición de ortonormalidad con la notación
del producto escalar más difundida en física

Ei • Ej = δ ij , (A.40)

donde también δ ij designa la delta de Kroenecker. En los espacios euclidianos, cuando se


usan sólo bases ortonormales, o como se dice a menudo, ejes y coordenadas cartesianas, no
se distinguen componentes covariantes de componentes covariantes. Todas las coordena-
das cumplen las mismas leyes de transformación, como veremos enseguida. No es preciso
utilizar la distinción de supraíndices y de subíndices y en consecuencia retornamos a la
convención más simple, con índices en una sóla posición. En el cuerpo del texto, mientras
se opere con sistemas de ejes cartesianos (lo cual ocurre en la mayor parte de los capítulos,
salvo en ciertos problemas que requieren coordenadas curvilíneas) los índices están en un
sólo nivel.
Un cambio de base ortogonal {Ei } a otra también ortogonal {Ek0 } se realiza
mediante matrices ortogonales Q =[Qij ]. Estas matrices son tales que su inversa es la
transpuesta. En efecto, sea la ecuación de transformación de una base a la otra

Ek0 = Qki Ei , (A.41)

en otras palabras sean Qki las componentes de la nueva base Ek0 respecto de la vieja base
Ei ,
Ek0 • Ei = Qkl El • Ei = Qki . (A.42)
Entonces debido a la condición de ortonormalidad

Ek0 • El0 = δ kl = Qki Ei • Qlj Ej = Qki δ ij Qlj = Qki Qli , (A.43)

o sea
Q QT = I. (A.44)
Por otra parte, todo vector x de E se puede representar en las dos bases como

x = xi Ei = x0k Ek0 . (A.45)

De estas ecuaciones, empleando el producto escalar, obtenemos de inmediato

x0k = Qki xi , xi = Qki x0k , (A.46)

y combinando ambas ecuaciones

x0l (δ kl − Qki Qli ) = 0. (A.47)


Tensores Cartesianos 79

Pero, en vista de que x (y por lo tanto x0l ) es un vector arbitrario

Qki Qli = δ kl , (A.48)

que completa las condiciones que deben cumplir las matrices que transforman una base
ortonormal en otra también ortonormal. Resumiendo, con notación matricial, hemos
obtenido

x0 = Q x, x = QT x0 , (A.49)
Q QT = I, QT Q = I, (A.50)

que dan la transformación de las coordenadas (componentes) de un vector, y las con-


diciones que deben cumplir las matrices de transformación. Estas matrices se llaman
ortogonales y como se ve están caracterizadas por la propiedad de ser su inversa la matriz
transpuesta.
Se puede demostrar facilmente, verificando la condición de ortogonalidad en ca-
da instancia, que las transformaciones ortogonales forman un grupo de transformaciones,
O(n), al cual se asocian las matrices ortogonales. La inversa de una transformación orto-
gonal es por supuesto ortogonal y está asociada a la matriz inversa. Realizando dos trans-
formaciones ortogonales sucesivas x0 = Q1 x, x00 = Q2 x0 , se obtiene otra transformación
ortogonal x000 = Q3 x, cuya matriz es el producto de las matrices de las dos transformacio-
nes, Q3 = Q1 Q2 . Tomando el determinante de Q QT = Iresulta que (det(Q ))2 = 1. Las
transformaciones ortogonales con det(Q ) = 1 forman un subgrupo denominado transfor-
maciones ortogonales propias o rotaciones (puesto que en el espacio geométrico de tres
dimensiones coinciden con las rotaciones alrededor de un eje). Las transformaciones con
det(Q ) = −1 se llaman impropias.
Dado que en las transformaciones ortogonales la inversa es la transpuesta Q−1 =
Q resulta que (Q−1 )T = Q y por lo tanto, las leyes de transformación de las formas
T

lineales coinciden con las leyes de transformación de los vectores. Por lo tanto cae la
necesidad de distinguir la posición de los índice de covariancia y contravariancia, como
anticipamos. Evidentemente, en un espacio euclidiano, las formas lineales se pueden
representar con el producto escalar entre vectores de E, es decir el papel del covector f
de E ∗ lo puede realizar un vector f de E

f (u) = f • u (A.51)

y el espacio dual E ∗ coincide con E.

A.7 Tensores Cartesianos


El cálculo tensorial es una derivación, o desprendimiento, de la teoría de las matrices y
determinantes en pleno desarrollo durante la primera mitad del siglo XIX. Como opera-
dores que transforman linealmente vectores en vectores fueron estudiados por Grassmann
(1844), Hamilton (1853) y Gibbs (1880). Voigt, en el curso de sus investigaciones sobre
cristales (1882) reconoció que se trataba de nuevos entes matemáticos y les dió el nombre
de tensores. Los trabajos fundacionales de esta disciplina se deben a Ricci y a Levi-Civita,
entre los últimos años del siglo XIX y las primeras dos décadas del XX.
En esta sección definimos tensores cartesianos como formas multilineales. Opera-
mos con espacios euclidianos y bases ortonormales. A partir de un espacio vectorial eucli-
diano E(n) de n dimensiones se pueden obtener nuevos espacios vectoriales con n2 , n3 , ...nm
dimensiones, mediante la operación de producto exterior o producto tensorial. Comence-
mos con el producto tensorial de dos vectores: la operación w ⊗ v es una nueva magnitud,
que no pertenece ya a E(n) sino a un espacio vectorial más amplio, ⊗2 E, formado por los
tensores de segundo rango. El producto externo satisface a reglas simples de linealidad en
cada miembro de la operación

w ⊗ v = (wi Ei ) ⊗ (vj Ej ) = (wi vj ) Ei ⊗ Ej . (A.52)


Tensores Cartesianos 80

Hay que observar que no cualquier tensor de rango dos es igual al producto externo de
dos vectores de E. Cuando esto ocurre, como en A.52, el tensor se denomina díada. La
colección de n2 elementos Ei ⊗Ej forma una base en el espacio vectorial ⊗2 E de funciones
bilineales, donde todo vector {T, U, V, ...}, se representa con
T = Tij Ei ⊗ Ej . (A.53)
En este espacio vectorial los elementos se llaman tensores de segundo rango; Tij son las
componentes del tensor. Como se ve en el ejemplo de A.52, al producto exterior de dos
vectores le corresponde el producto de las componentes wi vj , de modo de generar una
matriz n × n.
Para captar intuitivamente el sentido de la precedente construcción, consideremos
por un momento el ordinario espacio de tres dimensiones de la geometría elemental o de


la mecánica. Así como los vectores unitarios de la base, E i , son los elementos que
permiten representar magnitudes físicas que dependen de una dirección en el espacio,
−→ −

fuerza, velocidad, etc., como − →
v = vi E i , de manera similar los elementos de la base E i ⊗


E j permiten describir otro tipo de cantidades, las cuales dependen de dos direcciones del
espacio, como en A.53. Por ejemplo, dada una superficie plana de área unidad, pongamos
atención a la cantidad de movimiento que pasa a través de esta superficie por unidad de
tiempo. Esta es una magnitud que depende de dos direcciones: una es la normal a la
superficie, la cual define su orientación en el espacio, la otra depende de la componente de
la cantidad de movimiento que estamos examinando. La superficie puede ser perpendicular
al eje x, la cantidad de movimiento considerada puede ser la componente z, etc.. He
aquí el flujo de una magnitud física que depende de la especificación simultánea de dos
direcciones. Otro ejemplo, supongamos que estamos midiendo las fluctuaciones de señales
de campo eléctrico en dos puntos próximos del espacio. Interesa la correlación de la señal
correspondiente, digamos, a la componente x en un lugar con la componente y en la otra
posición, etc.. Evidentemente la correlación de estas fluctuaciones es una magnitud que
depende de dos direcciones. El lector probablemente recuerda la definición del momento
de inercia de un cuerpo, en la cual intervienen dos direcciones del espacio para cada una
de las componentes. Los tensores de rango dos aparecen en forma natural durante el
desarrollo de la física. Por extensión, podemos concebir cantidades más complicadas que
dependen de tres direcciones en el espacio, y así siguiendo.
El significado operativo del producto externo o producto tensorial, ⊗, se obtiene a
través de las función bilineal que este tensor representa cuando actúa sobre los elementos
del espacio euclidiano E mediante operaciones de producto escalar. Veamos como esto se
realiza, sea (u, v) un elemento de E × E, definimos la forma bilineal mediante

T (u, v) = α, T : E × E → R,
T (u, v) = (Tij Ei ⊗ Ej ) • •(u, v) = Tij (Ei • u)(Ej • v) = Tij ui vj = α. (A.54)
La función es bilineal y la prueba es muy simple. Por ejemplo
T (λ1 w1 + λ2 w2 , v) = Tij (λ1 w1i + λ2 w2i )vj = λ1 Tij w1i vj + λ2 Tij w2i vj
= λ1 T (w1 , v) + λ2 T (w2 , v), (A.55)
La suma de tensores y el producto de un tensor por un número se definen de la manera
natural
T +U = (Tij + Uij )Ei ⊗ Ej = V, Vij = Tij + Uij ; (A.56)
λT = (λTij )Ei ⊗ Ej = W, Wij = λTij . (A.57)
El tensor genera también aplicaciones lineales en E, puesto que mediante produc-
tos escalares puede actuar como operador lineal. Operando a izquierda

(u)T = v T : E → E,
(u)T = u • (Tij Ei ⊗ Ej ) = Tij (Ei • u)Ej = (Tij ui )Ej = v, (A.58)
Tensores Cartesianos 81

o bien, operando a derecha

T (u) = w T : E → E,
T (u) = (Tij Ei ⊗ Ej ) • u = Tij (Ej • u)Ei = (Tij uj )Ei = w. (A.59)

El operador es lineal como es muy facil de ver, por ejemplo,

T (λ1 w1 + λ2 w2 ) = (Tij Ei ⊗ Ej ) • (λ1 w1 + λ2 w2 ) = (λ1 Tij w1j + λ2 Tij w2j ) Ei


= λ1 T (w1 ) + λ2 T (w2 ), (A.60)

La suma de operadores y el producto de un operador por un número se introducen de


forma obvia, precisamente como en A.56, A.57. En conclusión, los tensores de rango dos
se pueden definir de modos equivalentes de las dos maneras indicadas: como funciones
bilineales, o bien, como operadores lineales.
Las reglas de transformación de las componentes se deducen inmediatamente a
partir de la representación A.53, escrita en dos bases distintas, Ei y Ej0
0
T = Tij Ei ⊗ Ej = Tpq Ep0 ⊗ Eq0 . (A.61)

La conexión entre las bases es


Ep0 = Qpl El , (A.62)
o sea
Ep0 • El = Qpl . (A.63)
Por lo tanto
T (Ep0 , Eq0 ) = Tpq
0
= Qpi Qqj Tij . (A.64)
De manera similar se obtiene
0
T (Ei , Ej ) = Tij = Qpi Qqj Tpq . (A.65)

Generalizamos ahora la noción de tensor cartesiano. Un tensor de rango m, es


una forma m-lineal sobre E m = E ×...×E, T : E m → R, posee nm componentes Tk1 k2 ...km
respecto de los elementos de la base Ek1 ⊗ Ek2 ⊗ ... ⊗ Ekm . La representación general es

T = Tk1 k2 ...km Ek1 ⊗ Ek2 ⊗ ... ⊗ Ekm . (A.66)

que incluye a los tensores de rango dos como caso particular. Se dice que los vectores de
E son tensores de rango uno. El lector puede demostrar sin dificultad, continuando el
argumento precedente, que la ley de transformación de las componentes del tensor es

Tp0 1 p2 ...pm = Qp1 k1 Qp2 k2 ...Qpm km Tk1 k2 ...km , (A.67)

es decir cada índice tiene una ley de transformación similar a la de un vector. El punto
clave de esta ley de transformación es que es lineal y homogénea en las componentes del
tensor, de manera que si se demuestra que un cierto tensor tiene todas sus componentes
nulas en una base, entonces sus componentes serán nulas en cualquier otra base (es el
elemento cero). Esta ley de transformación se puede tomar como punto de arranque para
la definición de los tensores cartesianos, como lo hacen muchos textos y en particular uno
muy conocido en nuestro medio, Vectores y tensores, de Luis Santaló.
El producto exterior Ek1 ⊗ Ek2 ⊗ ... ⊗ Ekm adquiere significado cuando lo vemos
aplicado como una forma multilineal sobre un elemento (w1 , w2 , ..., wm ) del producto
cartesiano E m = E × ... × E

T (w1 , w2 , ..., wm ) = Tk1 k2 ...km (Ek1 ⊗ Ek2 ⊗ ... ⊗ Ekm ) • •... • (w1 , w2 , ..., wm(A.68)
)
= Tk1 k2 ...km (Ek1 • w1 )(Ek2 • w2 )...(Ekm • wm )
= Tk1 k2 ...km w1,k1 w2,k2 ...wm,km .
Tensores Cartesianos 82

Los tensores de rango m forman un espacio vectorial de nm dimensiones.


En el espacio euclidiano la base ortonormal no depende de la posición xj , de
manera que las derivadas de Ei respecto de xj son nulas. El operador gradiente

∂...
grad(...) ≡ Ej , (A.69)
∂xj

permite definir nuevos tensores. Sea el vector w = wk Ek , su gradiente es el tensor


∂wk
T = grad(w) = Ej ⊗ Ek , (A.70)
∂xj

las componentes de este tensor son las n2 derivadas ∂wk /∂xj . La divergencia del vector w
resulta de proyectar grad(w) sobre un vector de base El mediante dos productos escalares

∂wk ∂wl
div(v) = grad(w) • •(El , El ) = (Ej • El )(Ek • El ) = . (A.71)
∂xj ∂xl

Ejemplo con un tensor de rango m

T = Tk1 k2 ...km Ek1 ⊗ Ek2 ⊗ ... ⊗ Ekm , (A.72)


∂Tk1 k2 ...km
grad(T ) = Ej ⊗ Ek1 ⊗ Ek2 ⊗ ... ⊗ Ekm , (A.73)
∂xj

La notación para las componentes del gradiente de un tensor es


∂Tk1 k2 ...km
Tk1 k2 ...km /j ≡ . (A.74)
∂xj

Una vez comprendido el mecanismo del producto externo y la estructura de los


sucesivos espacios vectoriales de dimensión creciente que contienen tensores de cualquier
rango, es conveniente dejar a un lado la notación completa que señala explícitamente las
bases de tipo Ek1 ⊗ Ek2 ⊗ ... ⊗ Ekm . En efecto, para un procedimiento de cálculo agil es
suficiente trabajar con las componentes, escribiendo por ejemplo simplemente
∂wk
wi vj , Tij , , Tk1 k2 ...km , (A.75)
∂xj

y llamar tensores, por brevedad, estas cantidades (recordando que en verdad son compo-
nentes y que cambian según reglas precisas junto con las bases). Ejemplos de operaciones
con productos externos e internos en la forma abreviada del cálculo tensorial son las
siguientes
∂wk ∂wk ∂wi
Tij wk , Tij , Tk1 k2 ...km Tij , (A.76)
∂xl ∂xj ∂xl
∂wi ∂wk ∂wi
Tik wk , Tij , Tllk3 ...km Tij . (A.77)
∂xj ∂xj ∂xk

Todas estas operaciones producen nuevos tensores cartesianos (pertenecientes, en general,


a espacios de distintas dimensiones) cuando se realizan combinando componentes que de
partida son tensores y se pone cuidado de respetar la regla acerca de la suma de índices
. El producto externo aumenta el número de índices libres de estas combinaciones y por
lo tanto el rango del tensor resultante y la dimensión del espacio al cual pertenece. Cada
producto interno, representado por la suma de un par de índices, reduce en dos el número
de componentes y por lo tanto disminuye el rango del tensor y la dimensión del espacio
en dos.
Tensores Cartesianos 83

Se pueden definir nuevos tensores operando sobre otros tensores mediante el sím-
bolo de Levi-Civita. Cuando E tiene n dimensiones, un símbolo de Levi-Civita de rango
n se define como
 
 +1 si k1 , k2 , ..., kn es una permutación de clase par 
εk1 k2 ...kn ≡ 0 si algún ı́ndice se repite , (A.78)
 
−1 si k1 , k2 , ..., kn es una permutación de clase impar

donde una permutación de clase par es tal que se necesita un número par de intercam-
bios de índices para llevar k1 , k2 , ..., kn al orden natural 1, 2, ..., n, mientras que para una
permutación de clase impar se necesita un número impar de intercambios de índices. Es
evidente que si los índices corren de 1 a n, es decir, cuando E tiene n dimensiones, no se
puede definir ε con rangos mayores de n, pero se pueden definir símbolos de Levi-Civita de
rangos menores. Se puede demostrar que el símbolo de Levi-Civita es un tensor isótropo,
es decir, un tensor cuyas componentes toman el mismo valor en todos los sistemas de
coordenadas cartesianas ortogonales, cuando las transformaciones de la base se restingen
al subgrupo de las ortogonales con det(Qij) = +1. En tres dimensiones estas son las
rotaciones propias de los ejes.
Se pueden definir rotores generalizados mediante el símbolo de Levi-Civita. En
el cálculo con las componentes de los tensores, la operación de rotor mediante εk1 k2 ...kn
de rango n sobre un tensor de rango m, Tk1 k2 ...km , se indica como
∂Tk1 k2 ...km−1 l
εi1 i2 ...in−2 jl Tk1 k2 ...km−1 l/j = εi1 i2 ...in−2 jl , (A.79)
∂xj
y genera otro tensor de rango m + n − 3. Por supuesto, podemos generar otros rotores
empleando símbolos de Levi-Civita con rangos más bajos de n,
∂Tk1 k2 ...km−1 l
εijkl Tk1 k2 ...km−1 l/k = εijkl . (A.80)
∂xk
En todos estos casos el rotor resultante se anula cuando los índices del tensor in-
volucrado en la operación son simétricos, es decir cuando Tk1 k2 ...km−1 l/k = Tk1 k2 ...km−1 k/l .
Esto ocurre, por ejemplo, cuando el índice l en Tk1 k2 ...km−1 l corresponde a una derivada
respecto de xl , es decir cuando es índice de un gradiente
∂Uk1 k2 ...km−1
Tk1 k2 ...km−1 l = . (A.81)
∂xl
En estos casos es evidente que

∂ 2 Uk1 k2 ...km−1
εijkl Tk1 k2 ...km−1 l/k = εijkl = 0, (A.82)
∂xk ∂xl
y otras expresiones construidas del mismo modo se anulan. En el espacio ordinario de
tres dimensiones el rotor de un vector genera otro vector,
∂wk
εijk (A.83)
∂xj
pero esto es una peculiaridad propia de la tridimensionalidad. Naturalmente si wk =
∂φ/∂xk
∂2φ
εijk = 0, (A.84)
∂xj ∂xk
es decir el rotor de un gradiente se anula.
Se puede también emplear el símbolo de Levi-Civita como operador para combinar
dos tensores T y U de rango m y r, respectivamente, en la forma

εi1 i2 ...in−2 jl Tk1 k2 ...km−1 j Up1 p2 ...pr−1 l , (A.85)


Ejercicios del apéndice A 84

u otras expresiones análogas, aunque probablemente la operación más útil y conocida se


da en el espacio de n = 3 dimensiones, donde el producto vectorial de dos vectores genera
otro vector
εijk uj vk . (A.86)
En particular, podemos realizar productos internos de ε y un tensor T de rango m

εi1 i2 ...in−2 jl Tk1 k2 ...km−2 lj , (A.87)

para generar un nuevo tensor de rango n + m − 4, el cual es antisimétrico, obviamente, en


cualquier par de los índices i1 i2 ...in−2 y el nuevo tensor es nulo cuando Tk1 k2 ...km−2 lj =
Tk1 k2 ...km−2 jl , o sea, cuando saturamos dos índices de ε con dos índices de simetría de T .

A.8 Ejercicios del apéndice A


Ejercicio A.1 a) En el espacio euclidiano ordinario de tres dimensiones probar que la
matriz de una rotación de ángulo θ alrededor del eje xz es
 
cos(θ) sin(θ) 0
Q =  − sin(θ) cos(θ) 0  . (A.88)
0 0 1

b) Probar que una reflexión en el plano x2 cos(θ) − x1 sin(θ) = 0 tiene por matriz
 
cos(2θ) sin(2θ) 0
Q =  sin(2θ) − cos(2θ) 0  , (A.89)
0 0 1

y que la transformación es ortogonal.


Ejercicio A.2 a) Demostrar que en cualquier matriz ortogonal propia (det(Q) = +1)
toda componente Qij es igual a su cofactor (sección 1.5). b) En consecuencia,
demostrar que
det(Qij − δ ij ) = 0. (A.90)
c) Deducir de lo anterior que para toda matriz ortogonal propia existe un vector nj
tal que
Qij nj = ni . (A.91)
El vector nj está sobre el eje de la rotación.
Ejercicio A.3 a) Demostrar que si wk es un vector
∂wk
, (A.92)
∂xj

satisface la ley de transformación de los tensores cartesianos. b) Probar que si vi


dada por
vi = Tij uj , (A.93)
resulta ser un vector, cualquiera sea la elección del vector uj , entonces necesaria-
menete Tij es un tensor cartesiano de rango dos (este es un caso particular de la
llamada ley del cociente).

→ −
→ −
→ −

Ejercicio A.4 Sean S = σij E i ⊗ E j y E = epq E p ⊗ E q dos tensores cartesianos de


rango dos y −→v = vi E i un vector, definidos en el espacio euclidiano ordinario de
tres dimensiones. Escribir en forma explícita y desarrollada las siguientes cantidades
dadas en notación compacta

S•−

u, E • •E, u)•−
div (grad(−
→ →
u ). (A.94)
Bibliografía del apéndice A 85

A.9 Bibliografía del apéndice A


[Deschamps] G. A. Deschamps, Exterior differential forms, Cap.III, en Mathematics applied to physics,
Roubine, E., editor, Springer-Verlag, New York, 1970.
[Finzi e Pastori] Finzi, B. y M. Pastori, Calcolo tensoriale e applicazioni, Zanichelli, Bologna, 1951.
[Gel’fand] Gel’fand, I. M., Lectures on linear algebra, Interscience Pub., New York, 1967.
[Santalo] Santaló, L., Vectores y tensores, Eudeba, Buenos Aires, 1961.
[Schutz] Schutz B., Geometrical methods of mathematical physics, Cambridge University Press,
1980.
[Temple] Temple, G., Cartesian tensors, Methuen, London 1960.

También podría gustarte