Está en la página 1de 87

Capı́tulo 3

ar
Vectores duales y tensores

in
m
La ruta de este capı́tulo
Este capı́tulo completa el esfuerzo de formalización de conceptos que comenzamos en el capı́tulo anterior.
Iniciamos con el estudio de los funcionales lineales, extendiendo el concepto de función al de una aplicación

eli
entre elementos de espacios vectoriales, lo cual nos llevará a la definición de los espacios vectoriales duales.
Incorporamos el concepto de 1 forma como ese conjunto de funcionales que forman al espacio vectorial dual.
Ahora el producto interno se definirá entre 1 formas y vectores. En la sección 3.2 definiremos una nueva
clase de objetos matemáticos, los tensores, los cuales pueden verse como arreglos multilineales y constituyen
una extensión de objetos ya conocidos: los escalares, los vectores y las 1 formas. Desarrollaremos el álgebra
Pr
tensorial y sus leyes de transformación. Ejemplificamos la utilización de este concepto en Fı́sica cuando
discutimos, en la sección 8, el tensor de inercia y el de esfuerzos (strees). En la sección 3.3 incursionaremos
en los espacios pseudoeuclidianos para mostrar una situación en la cual podemos diferenciar 1 formas de
vectores, aprovechamos además para introducir algunas nociones básicas de la teorı́a especial de la relatividad.
Para finalizar, el la sección 3.4 extenderemos los conceptos de espacios vectoriales y bases discretas a espacios
de funciones y bases continuas y en ese contexto discutimos algunos rudimentos de teorı́as de distribuciones.
or

3.1. Funcionales lineales


En los cursos más elementales de cálculo se estudiaron funciones de una y más variables reales. Estas
ad

funciones pueden considerarse que actúan sobre vectores en R3 y podemos extender esta idea para otras que
tengan como argumento vectores de un espacio vectorial abstracto. Comenzaremos con las más sencillas, las
lineales, que también son conocidas como operadores lineales.
Definiremos funcionales lineales como aquella operación que asocia un número complejo (o real) 2 K a
un vector |vi 2 V, es decir:
rr

8 |vi 2 V ) F [|vi] 2 C ,
y cumple con:
Bo

F [↵ |v1 i + |v2 i] ⌘ ↵ F [|v1 i] + F [|v2 i] , 8 |v1 i , |v2 i 2 V y 8 ↵, 2 K.

156
3.1. FUNCIONALES LINEALES

En otras palabras, un funcional lineal (o forma lineal) es un morfismo1 del espacio lineal V a un espacio
unidimensional K.
Notemos que cuando se escoge una base {|ei i} de un espacio vectorial V de manera que para cualquier
vector |vi 2 V se especifican sus componentes {⇠ 1 } respecto a esa base, es decir, |vi = ⇠ i |ei i, entonces lo que
se tiene para cada componente es un funcional lineal, como por ejemplo, F [|vi] = ⇠ 1 . Algo parecido ocurre
con el producto interno, cuando en un espacio vectorial V se define el producto escalar hv |v0 i, del vector |vi
con un vector fijo |v0 i, lo que tenemos es un funcional lineal F [|vi] = hv |v0 i = ↵ 2 K.
Otro ejemplo sencillo de un funcional lineal es la integral de Riemann que podemos interpretar de la
manera siguiente:

ar
Z b
I [|f i] = f0 (x)f (x)dx ,
a
donde f (x), f0 (x) 2 C[a,b] , es decir, pertenece al espacio vectorial de funciones reales y continuas en el intervalo

in
[a, b] y f0 (x) es una función que se toma como fija.

3.1.1. Espacio vectorial dual

m
El conjunto de funcionales lineales {F1 , F2 , F3 , · · · , Fn , · · · } constituyen a su vez un espacio vectorial, el
cual se denomina espacio vectorial dual de V –que es el espacio directo– y se denotará como V? (aquı́ ? no
es complejo conjugado). Si V es de dimensión finita n, entonces dimV = dimV? = n.
Es fácil convencerse que los funcionales lineales forman un espacio vectorial ya que, dados F1 , F2 2 V?

eli
se tiene: 9
(F1 + F2 ) [|vi] = F1 [|vi] + F2 [|vi] =
8 |vi 2 V .
;
(↵ F) [|vi] = ↵ F [|vi]
A este espacio lineal se le llama espacio de formas lineales y, a los funcionales se les denomina 1 formas o
covectores.
Pr
Como ya lo mencionamos, en aquellos espacios lineales con producto interno definido, el mismo producto
interno constituye la expresión natural del funcional. Ası́ tendremos que:

Fa [|vi] ⌘ ha |vi 8 |vi 2 V ^ 8 ha| 2 V? .

Es claro comprobar que el producto interno garantiza que los {Fa , Fb , · · · } forman un espacio vectorial:
or

9
(Fa + Fb ) [|vi] = Fa [|vi] + Fb [|vi] = ha |vi + hb |vi =
8 |vi 2 V .
;
(↵ Fa ) [|vi] = h↵a |vi = ↵⇤ ha |vi = ↵⇤ Fa [|vi]
ad

Esta última propiedad se conoce como antilinealidad.


Se establece entonces una correspondencia 1 a 1 entre kets y bras, entre vectores y funcionales lineales (o
formas diferenciales):
⇤ ⇤
1 |v1 i + 2 |v2 i 1 hv1 | + 2 hv2 | ,
rr

que ahora podemos precisar de la siguiente forma:



ha |vi = hv |ai ,
ha | 1 v1 + 2 v2 i = 1 ha |v1 i + 2 ha |v2 i ,
Bo

⇤ ⇤
h 1 a1 + 2 a2 |vi = 1 ha1 |vi + 2 ha2 |vi .
1 Entenderemos por morfismo a toda regla o mapa que asigne a todo vector |vi de un espacio vectorial V un vector |wi de

un espacio vectorial W y usualmente se denota por F : V ) W.

157
3.1. FUNCIONALES LINEALES

Más aún, dada una base {|e1 i , |e2 i , · · · |en i} para V siempre es posible asociar una base para V? de tal
manera que:
⌦ ⌦
|vi = ⇠ i |ei i hv| = ⇠i⇤ ei , con ⇠ i = ei |vi ^ ⇠i⇤ = hv |ei i , para i = 1, 2, · · · , n .
En un lenguaje
⌦ arcaico (y muchos textos de mecánica todavı́a lo reproducen) se denota a la base del
espacio dual ei como la base recı́proca de la base {|ei i}, este caso lo ilustraremos más adelante.
Se puede ver también que si |vi = ⇠ i |ei i, entonces
⇥ ⇤
F [|vi] = F ⇠ i |ei i = ⇠ i F [|ei i] = ⇠ i !i , con F [|ei i] ⌘ !i .

ar
Nótese que estamos utilizando la notación de Einstein en la⌦ que ı́ndices repetidos indican suma. Nótese
también que las bases del espacio dual de formas diferenciales ek llevan los ı́ndices arriba, los llamaremos
ı́ndices contravariantes, mientras que los ı́ndices abajo, serán covariantes.⌦ Por lo tanto, las componentes de

in
las formas diferenciales en una base dada, llevan ı́ndices abajo ha| = ai ei mientras que las componentes de
los vectores los llevan arriba |vi = ⇠ j |ej i.
Observe también que dada una base en el espacio directo {|ei i} existe una única base canónica en el dual
definida como: ⌦ i

m
e |ej i = F i [|ej i] = ji .
Esta 1 forma al actuar sobre un vector arbitrario resulta en:
⇥ ⇤
F i [|vi] = F i ⇠ j |ej i = ⇠ j F i [|ej i] = ⇠ j i
j = ⇠i

eli
su componente contravariante. El conjunto de 1 formas {F i } será linealmente ⌦ independientes.
Si |vi = ⇠ i |ei i es un vector arbitrario en el espacio directo y ha| = ai ei un vector en el espacio dual,
entonces: ⌦ ⌦ ↵ ⌦
ha |vi = ai ei ⇠ j |ej i = a⇤i ⇠ j ei |ej i = a⇤i ⇠ j ji = a⇤i ⇠ i ,
Pr ⌦ ⌦
y para bases arbitrarias, no ortogonales, {|wi i} de V y { wi } de V? se tiene: ha |vi = wi |wj i a⇤i ⇠ j .

3.1.2. Espacios duales y bases recı́procas


Un ejemplo que ilustra las bases duales es la construcción de las llamadas bases recı́procas que mencio-
namos anteriormente en los ejercicios de Aplicaciones del álgebra vectorial en la página 30. Este ejemplo
or

ilustra la pregunta de siempre: si los vectores se representan geométricamente como un segmento orienta-
do, con módulo, dirección y sentido, como representamos geométricamente una forma lineal o covector. Los
cristalógrafos lograron ejemplificar las bases duales y luego la aplicación de la difracción de rayos x a la
cristalografı́a potenció utilidad de este concepto.
ad

Bases recı́procas
Consideremos el problema de expandir un vector |ai con respecto a una base oblicua (no es ortogonal),
{|wi i}, de tal forma que, |ai = ai |wi i. Por simplicidad, tomemos el caso R3 , de manera que a = ai wi
(i = 1, 2, 3).
rr

Al proyectar el vector a sobre los ejes de algún sistema de coordenadas, es posible resolver el sistema
de tres ecuaciones que resulta para las incógnitas ai . Las bases de vectores wi y de formas o covectores wi
serán duales, y por contrucción satisfacen wi · wj = ij . Es decir, cada uno de los vectores bases duales es
perpendicular a los otros dos de la base dual: w1 será perpendicular a w2 y w3 : w1 = ↵(w2 ⇥ w3 ). Como
Bo

w1 · w1 = 1, entonces:
1 w2 ⇥ w3
↵w1 · (w2 ⇥ w3 ) = 1 ) ↵ = ) w1 = ,
w1 · (w2 ⇥ w3 ) w1 · (w2 ⇥ w3 )

158
3.1. FUNCIONALES LINEALES

Figura 3.1: Bases directas y recı́procas. Note como los covectores representan planos perpendiculares a
dos vectores de la base directa. Figura tomada de https://commons.wikimedia.org/w/index.php?curid=

ar
457850 CC BY-SA 3.0,

y en general, es fácil ver que:

in
wj ⇥ wk
wi = , (3.1)
wi · (wj ⇥ wk )
donde i, j, k son permutaciones cı́clicas de 1, 2, 3. La definición (3.1) nos permite construir la base de 1-
formas o covectores, a partir de su ortogonalidad con los vectores de la base directa. Notemos también que

m
V = wi · (wj ⇥ wk ) es el volumen del paralelepı́pedo que soportan los vectores {wi } y que además se puede
obtener una expresión análoga para los {wi } en término de los {wi }.
Al ser {wi } y {wi } duales, a = aj wj ) wi · a = wi · (aj wj ) = aj (wi · wj ) = aj ji = ai , con i = 1, 2, 3
y equivalentemente, el covector de a: ā = āj wj ) ā · wi = (āj wj ) · wi = āj (wj · wi ) = āj ij = āi , con

eli
i = 1, 2, 3. Hemos querido enfatizar el carácter dual del covector ā al vector a y obviamente ā · a = |a|2 .
De la misma ecuación (3.1) se puede ver que la representación gráfica de una forma será una superficie
orientada. La figura 3.1 muestra como, a partir de una base directa de vectores oblı́cuos se construyen
planos perpendiculares a esos vectores y la orientación (dirección y sentido) representan las direcciones de
Pr
los vectores duales. En cristalografı́a esa base dual se le representa como los ı́ndices de Miller.
Claramente si las base directa es ortonormal su dual también lo será y, más importante aún, ambas bases
coinciden ei ⌘ ei , y si la base original o directa es dextrógira su dual también lo será.

3.1.3. Vectores, formas y leyes de transformación


Tal y como hemos mencionado anteriormente (tempranamente en la sección 1.4.3 y luego en la sección
or

2.3.4), un determinado vector |ai 2 V puede expresarse en una base ortonormal {|ej i} como: aj |ej i donde
las aj son las componentes contravariantes del vector en esa base. En general, como es muy largo decir
“componentes del vector contravariante” uno se refiere (y nos referiremos de ahora en adelante) al conjunto
aj como un vector contravariante obviando la precisión de componente, pero realmente las aj son las
ad

componentes del vector.


Adicionalmente, en esta etapa pensaremos a las bases como distintos observadores o sistemas de referen-
cias. Con ello tendremos (algo que ya sabı́amos) que un vector se puede expresar en distintas bases y tendrá
distintas componentes referidas a esa base
rr

|ai = aj |ej i = ãj |ẽj i .

Ası́ una misma cantidad fı́sica vectorial se verá distinta (tendrá distintas componentes) desde diferentes
sistemas de coordenadas. Las distintas “visiones” están conectadas mediante un transformación de sistema
Bo

de referencia como veremos más adelante.


Igualmente hemos dicho al comienzo de este capı́tulo
⌦ (sección 3.1.1) que una forma⌦diferencial o 1-forma,
hb| 2 V? es susceptible de expresarse en una base ei del espacio dual V? como bi ei y, como el espacio

159
3.1. FUNCIONALES LINEALES

está equipado con un producto interno, entonces:



ha |bi = hb |ai = bi aj ei |ej i = bi aj i
j = a i bi .

Con lo cual avanzamos otra vez en la interpretación de este tipo de objetos: una cantidad fı́sica escalar se
verá igual (será invariante) desde distintos sistemas de referencia.
Además sabemos que unas y otras componentes se relacionan como:
⌦ i ⌦ ⌦ 9 8 i
e |ai = aj ei |ej i = aj ji = ãj ei |ẽj i = < a = Aij ãj

ar
⌦ i ⌦ ⌦ )
; : i
ẽ |ai = ãj ẽi |ẽj i = ãj ji = aj ẽi |ej i ã = Ãij aj ,

donde claramente:

in
⌦ i ⌦ 1
e |ẽj i = Aij ; ẽi |ej i = Ãij y Aik Ãkj = i
j () Ãij = Aij .

Diremos entonces que aquellos objetos cuyas componentes transforman como: ai = Aij ãj o, equivalente-

m
mente como: ãi = Ãij aj serán vectores, o en un lenguaje un poco más antiguo, vectores contravariantes2 .
Tradicionalmente, e inspirados
⌦ en la ley de transformación, la representación matricial de las componentes
contravariantes de un vector, ei |ai = aj , para una base determinada {|ej i} se representan como una columna
0 1
a1

eli
⌦ B a2 C
B C
|ai ) ai = ei |ai , con i = 1, 2, 3, · · · , n () B .. C.
@ . A
an

De la misma manera, en el espacio dual, V?⌦, las formas


Pr
⌦ diferenciales se podrán expresar en término de
una base de ese espacio vectorial como hb| = bi ei = b̃i ẽi . Las {bi } serán las componentes de las formas
diferenciales o las componentes covariantes de un vector |bi, o dicho rápidamente un vector covariante o
covector. Al igual que en el caso de las componentes contravariantes las componentes covariantes transforman
de un sistema de referencia a otro mediante la siguiente ley de transformación:
⌦ ⌦ 9 8
or

hb |ej i = bi ei |ej i = bi ji = b̃i ẽi |ej i = < bj = b̃i Aij


⌦ ⌦ )
; :
hb |ẽj i = b̃i ẽi |ẽj i = b̃i ji = bi ei |ẽj i b̃j = bi Ãij .

Otra vez, objetos cuyas componentes transformen como bj = b̃i Aij los denominaremos formas diferenciales
ad

o vectores covariantes o covectores y serán representados como matrices en un arreglo tipo fila:

hb| ) bi = hb |ei i , con i = 1, 2, 3, · · · , n () b1 b2 ··· bn .

Quizá hasta este punto la diferencia de formas y vectores, de componentes covariantes y contravariantes,
rr

ası́ como sus esquemas de transformación es todavı́a confusa. No disponemos de ejemplos contundentes
que ilustren esa diferencia. Estos serán evidentes cuando nos toque discutir las caracterı́sticas de los espacios
pseudoeuclidianos en la sección 3.3. Luego, en la sección 5.1, consideraremos algunos ejemplos en coordenadas
Bo

generalizadas.
0 0 0
2 Algunos autores prefieren utilizar la siguiente notación para las transformaciones: ai = Aij 0 aj y ai = Aij aj , por lo que
0
i = Aik0 Akj
j

160
3.1. FUNCIONALES LINEALES

3.1.4. Ejemplos
1. Consideremos V = R3 como el espacio vectorial conformado por todos los vectores columna
0 1 1

|vi = @ ⇠ 2 A ,
⇠3

el cual al representarse en su base canónica {|ii i} resulta en:


0 1 0 1 0 1

ar
1 0 0
1@
|vi = ⇠ 0 A + ⇠ @ 1 A + ⇠ @ 0 A = ⇠ 1 |i1 i + ⇠ 2 |i2 i + ⇠ 3 |i3 i = ⇠ i |ii i .
2 3

0 0 1

in
Sea un funcional lineal F 2 V? , de manera que los vectores duales F[ ] ⌘ hF | $ (w1 , w2 , w3 ), puedan
ser representados por “vectores” filas.

Notemos que la base de funcionales lineals ⇣ i [ ] ⌘ ii , la definimos como:

m
⌦ ⌦ ⌦ ⌦ ⌦ ⌦
⇣ i [|ij i] = ii |ij i = ji ) i1 |i1 i = 1 , i1 |i2 i = 0 , i1 |i3 i = 0 , i2 |i1 i = 0 , i2 |i2 i = 1 , · · ·

En este caso: ⇣ i = hii | entonces ⇣ 1 = (1, 0, 0), ⇣ 2 = (0, 1, 0), ⇣ 3 = (0, 0, 1) y además,
0 1 1 0 1 1 0 1 1

eli
⇠ ⇠ ⇠
⇣ 1 [|vi] = (1, 0, 0) @ ⇠ 2 A = ⇠ 1 , ⇣ 2 [|vi] = (0, 1, 0) @ ⇠ 2 A = ⇠ 2 , ⇣ 3 [|vi] = (0, 0, 1) @ ⇠ 2 A = ⇠ 3 .
⇠3 ⇠3 ⇠3

2. Encontremos la base dual para el espacio vectorial V = R3 , con base ortogonal:


0 1
Pr 0 1 0 1
1 2 0
|e1 i = @ 1 A , |e2 i = @ 1 A , |e3 i = @ 1 A .
1 1 1

Todo vector de ese espacio queda representado en esa base por:


0 1 0 1 0 1 0 1
or

1 2 0 v 1 + 2v 2
|vi = v i |ei i = v 1 @ 1 A + v 2 @ 1 A + v3 @ 1 A = @ v1 v2 v3 A
1 1 1 v1 + v2 v3
ad

Una vez más, sea un funcional


⌦ i lineal F 2 V? , representa vectores
⌦ duales F[ ] ⌘ hF | $ (w1 , w2 , w3 ) y
la base en el dual es: e = (ai , bi , ci ). Además sabemos que: ei |ej i = ji . Por lo tanto:
0 1
⌦ 1 1
e |e1 i = (a1 , b1 , c1 ) @ 1 A = a1 + b1 c1 = 1
rr

1
0 1 8
⌦ 1 2 < a1 = 13
e |e2 i = (a1 , b1 , c1 ) @ 1 A = 2a1 b1 + c1 = 0 ) b1 = 13
:
c1 = 13
Bo

1
0 1
⌦ 1 0
e |e3 i = (a1 , b1 , c1 ) @ 1 A = b1 c1 = 0
1

161
3.1. FUNCIONALES LINEALES

0 1
⌦ 1
e2 |e1 i = (a2 , b2 , c2 ) @ 1 A = a 2 + b2 c 2 = 0
1
0 1 8 1
⌦ 2 < a2 = 3
2
e |e2 i = (a2 , b2 , c2 ) @ 1 A = 2a2 b2 + c2 = 1 ) b2 = 1
6
: 1
1 c2 = 6
0 1

ar
⌦ 0
e2 |e3 i = (a2 , b2 , c2 ) @ 1 A = b2 c 2 = 0
1
Y finalmente:

in
0 1
⌦ 1
e3 |e1 i = (a3 , b3 , c3 ) @ 1 A = a 3 + b3 c 3 = 0
1
0 1 8

m
⌦ 2 < a3 = 0
e3 |e2 i = (a3 , b3 , c3 ) @ 1 A = 2a3 b3 + c3 = 0 ) b3 = 12
:
1 c3 = 12
0 1
0

eli

e3 |e3 i = (a3 , b3 , c3 ) @ 1 A = b3 c 3 = 1
1
⌦ ⌦ ⌦
La base del dual es: e1 = ( 13 , 13 , 1
3 ), e2 = ( 13 , 16 , 16 ), e3 = (0, 1
2,
1
2 ), de manera que:
Pr ⌦ ⌦ ⌦
hF | = w1 e1 + w2 e2 + w3 e3 .

Notemos que, como era de esperarse:


0 1 0 1
✓ ◆ v 1 + 2v 2 ✓ ◆ v 1 + 2v 2
⌦ 1 1 1 1 @ ⌦ 1 1 1
e |vi = , , v1 v2 v3 A = v1 , e2 |vi = , , @ v1 v2 v3 A = v2
3 3 3 1 2 3 3 6 6
v1 + v2 v3
or

v +v v
0 1
✓ ◆ v 1 + 2v 2
⌦ 3 1 1 @ 1
e |vi = 0, , v v2 v3 A = v3 .
2 2
v + v2 v3
1
ad

3. Dados los vectores: u1 = i + j + 2k, u2 = i + 2j + 3k, y u3 = i 3j + 4k. Revisaremos si estos vectores


son mutuamente ortogonales. Encontraremos la base recı́proca ui , el tensor métrico en ambas bases y
para el vector a = 3u1 + 2u2 + u3 encontraremos sus componentes covariantes.
Para saber si son ortogonales simplemente calculamos el producto escalar entre ellos: u1 · u2 = 9 ,
rr

u1 · u3 = 6 y u2 · u3 = 7, por lo tanto no son ortogonales y adicionalmente sabemos que:


uj ⇥ uk
ui =
ui · (uj ⇥ uk )
Bo

Procederemos a calcular primero el denominador:

V = u1 · (u2 ⇥ u3 ) ) (i + j + 2k) · ([i + 2j + 3k] ⇥ [i 3j + 4k]) = 6 .

162
3.1. FUNCIONALES LINEALES

En general: 8 1 u2 ⇥u3 17 1 5
>
> u = V = 6 i 6j 6k
>
>
uj ⇥ uk <
u3 ⇥u1
ui = ) u2 = V = 5
3i + 13 j + 23 k
V >
>
>
>
: 3 u1 ⇥u2 1 1
u = V = 6i 6j + 16 k
Notemos que:
✓ ◆ ✓  ◆

ar
1 2 3 17 1 5 5 1 2 1 1 1 1
Ṽ = u · (u ⇥ u ) ) i j k · i+ j+ k ⇥ i j+ k = .
6 6 6 3 3 3 6 6 6 6

in
m
eli
Pr
or
ad
rr
Bo

163
3.1. FUNCIONALES LINEALES

3.1.5. Practicando con Maxima


1. Tenemos para el espacio vectorial V = R3 , la base ortogonal:

|e1 i = (1, 1, 1), |e2 i = (2, 1, 1), |e3 i = (0, 1, 1) .


⌦ ⌦
Con F 2 V? donde F[ ] ⌘ hF | $ (w1 , w2 , w3 ) y ei = (ai , bi , ci ), con ei |ej i = i
j.
Comencemos introduciendo los vectores como listas:

ar
(%i1) e1:[1,1,-1];e2:[2,-1,1];e3:[0,-1,-1];

( %o1) [1, 1, 1]
( %o2) [2, 1, 1]

in
( %o3) [0, 1, 1]

Efectivamente son mutuamente ortogonales:

m
(%i4) e1.e2;e1.e3;e2.e3;

( %o4) 0

eli
( %o5) 0
( %o6) 0

Para fines prácticos del cálculo que vamos a realizar, construiremos una matriz con los vectores como
filas:
Pr
(%i7) E:matrix([1,1,-1],[2,-1,1],[0,-1,-1]);
0 1
1 1 1
( %o7) @2 1 1A
or

0 1 1

De manera que:

(%i8) M1:E.[a1,b1,c1];
ad

0 1
c1 + b1 + a1
( %o8) @ c1 b1 + 2 a1 A
c1 b1
⌦ ⌦
rr

De esta forma es sencillo calcular todas las combinaciones de ei |ei i, con las condición ei |ej i = i
j, y
resolver los sistemas de ecuaciones para los diferentes {ai , bi , ci }. Veamos:

(%i9) ec1:M1[1,1]=1;ec2:M1[2,1]=0;ec3:M1[3,1]=0;
Bo

( %o9) c1 + b1 + a1 = 1
( %o10) c1 b1 + 2 a1 = 0

164
3.1. FUNCIONALES LINEALES

( %o11) c1 b1 = 0

(%i12)linsolve([ec1,ec2,ec3],[a1,b1,c1]);

1 1 1
( %o12) a1 = , b1 = , c1 =
3 3 3
(%i13)M2:E.[a2,b2,c2];
0 1

ar
c2 + b2 + a2
( %o13) @ c2 b2 + 2 a2 A
c2 b2
(%i14)ec1:M2[1,1]=0;ec2:M2[2,1]=1;ec3:M2[3,1]=0;

in
( %o14) c2 + b2 + a2 = 0
( %o15) c2 b2 + 2 a2 = 1

m
( %o16) c2 b2 = 0

(%i17)linsolve([ec1,ec2,ec3],[a2,b2,c2]);

eli
1 1 1
( %o17) a2 = , b2 = , c2 =
3 6 6
(%i18)M3:E.[a3,b3,c3];
0 1
c3 + b3 + a3
Pr
( %o18) @ c3 b3 + 2 a3 A
c3 b3
(%i19)ec1:M3[1,1]=0;ec2:M3[2,1]=0;ec3:M3[3,1]=1;

( %o19) c3 + b3 + a3 = 0
or

( %o20) c3 b3 + 2 a3 = 0
( %o21) c3 b3 = 1

(%i22)linsolve([ec1,ec2,ec3],[a3,b3,c3]);
ad


1 1
( %o22) a3 = 0, b3 = , c3 =
2 2
⌦ i
De manera que la base dual e es:
rr

(%i23)d1:[1/3,1/3,-1/3];d2:[1/3,-1/6,1/6];d3:[0,-1/2,-1/2];

1 1 1
Bo

( %o23) , ,
3 3 3

1 1 1
( %o24) , ,
3 6 6

165
3.1. FUNCIONALES LINEALES


1 1
( %o25) 0, ,
2 2

Y son mutuamente ortogonales:

(%i26)d1.d2;d1.d3;d2.d3;

( %o26) 0
( %o27) 0

ar
( %o28) 0

Originalmente tenı́amos que:

in
|vi = v i |ei i = v 1 |e1 i + v 2 |e2 i + v 3 |e3 i

Si construimos la siguiente matriz:

m
(%i29)V:transpose(matrix(v1*e1,v2*e2,v3*e3));
0 1
v1 2 v2 0
( %o29) @ v1 v3A

eli
v2
v1 v2 v3

Podremos comprobar que efectivamente: ei |vi = v i

(%i30)d1.V;d2.V;d3.V;
Pr
( %o30) v1 0 0
( %o31) 0 v2 0
( %o32) 0 0 v3
or

(%i33)kill(all)$

2. En este ejercicio veremos la manera de construir la matriz de transformación entre bases y el cálculo
de las bases recı́procas.
ad

Si tenemos la siguiente transformación entre bases:

|e1 i = |ji + |ki , |e2 i = |ii + |ki , |e3 i = |ii + |ji .

Para calcular la matriz de transformación:


rr

|ei i = Ãji |ij i ,

podemos trabajar de la manera siguiente. Primero introducimos los vectores como una matriz y luego
Bo

calculamos la transpuesta:

(%i1) v1:[0,1,1]$v2:[1,0,1]$v3:[1,1,0]$

166
3.1. FUNCIONALES LINEALES

(%i2) Aij:transpose(matrix(v1,v2,v3));
0 1
0 1 1
( %o2) @1 0 1A
1 1 0

La matriz de transformación inversa |ii i = Aji |ej i, es simplemente la matriz inversa:

ar
(%i3) A_ji:invert(%);
0 1 1 1
1
2 2 2
( %o3) @ 1
2
1
2
1 A
2

in
1 1 1
2 2 2

Es claro que Ajk Ãki = j


i

(%i4) A_ij.A_ji;

m
0 1
1 0 0
( %o4) @0 1 0A
0 0 1

eli
(%i5) kill(all)$

3. Con el uso del paquete vect podemos hacer algunos cálculos sencillos con vectores, como por ejemplo,
el cálculo de las bases recı́procas.
Pr
(%i1) load(vect)$

Dado el siguiente conjunto de vectores:

b1 = e1 = i + j + 2k , b2 = e2 = i j k , b3 = e3 = 2i 2j + k
or

Calcularemos la base recı́proca a través de:


ej ⇥ ek
ei = ,
ei · (ej ⇥ ek )
ad

(%i2) b1:[1,1,2];

( %o2) [1, 1, 2]
rr

(%i3) b2:[-1,-1,-1]

( %o3) [ 1, 1, 1]
Bo

(%i4) b3:[2,-2,1];

( %o4) [2, 2, 1]

167
3.1. FUNCIONALES LINEALES

Podemos comprobar si la base original bi es ortogonal calculando sus productos escalares:

(%i5) b1.b2; b1.b3; b2.b3;

( %o5) 4
( %o6) 2
( %o7) 1

ar
Por lo tanto, no son ortogonales.
Ahora, los vectores recı́procos ei se calculan de la manera siguiente:

(%i8) e1:express(b2~b3)/(b3.(express(b1~b2)));

in

3 1
( %o8) , ,1
4 4

m
(%i9) e2:express(b3~b1)/(b3.(express(b1~b2)));

5 3
( %o9) , ,1
4 4

eli
(%i10)e3:express(b1~b2)/(b3.(express(b1~b2)));

1 1
( %o10) , ,0
4 4
Pr
La base recı́proca es entonces:
3 1 5 3 1 1
e1 = i j + k , e2 = i j + k , e3 = i j
4 4 4 4 4 4
Que tampoco es ortogonal:
or

(%i11)e1.e2; e1.e3; e2.e3;

17
( %o11)
8
ad

1
( %o12)
8
1
( %o13)
8
rr

El tensor métrico para la base original gij = ei · ej lo podemos construir de la manera siguiente:

(%i14)gb:matrix([b1.b1,b1.b2,b1.b3],[b2.b1,b2.b2,b2.b3],[b3.b1,b3.b2,b3.b3]);
Bo

0 1
6 4 2
( %o14) @ 4 3 1A
2 1 9

168
3.1. FUNCIONALES LINEALES

Para la base recı́proca g ij = ei · ej

(%i15)ge:matrix([e1.e1,e1.e2,e1.e3],[e2.e1,e2.e2,e2.e3],[e3.e1,e3.e2,e3.e3]);
0 13 17
1
1
8 8 8
( %o15) @ 17
8
25
8
1A
8
1 1 1
8 8 8

De manera que: ei · ej = gji = i


j:

ar
(%i16)gb.ge;
0 1
1 0 0

in
( %o16) @0 1 0A
0 0 1

m
3.1.6. Ejercicios
1. Encuentre las bases duales para los siguientes espacios vectoriales:
✓ ◆ ✓ ◆

eli
2 4
a) R , donde: |e1 i $
2
y |e2 i $ .
1 1
0 1 0 1 0 1
1 0 2
b) R3 , donde: |e1 i $ @ 1 A , |e2 i $ @ 1 A y |e3 i $ @ 1 A.
3
Pr
1 0
2. Si V es el espacio vectorial de todos los polinomios reales de grado n  1, y definimos:
Z 1 Z 2
⇣ 1 [|pi] = p(x)dx ^ ⇣ 2 [|pi] = p(x)dx ,
0 0

donde {⇣ , ⇣ } 2 V . Encuentre una base {|e1 i , |e2 i} 2 V que resulte ortogonal a la dual a {⇣ 1 , ⇣ 2 }.
1 2 ?
or

3. Si V es el espacio vectorial de todos los polinomios reales de grado n  2. Y si además definimos


Z 1
1 dp(x)
⇣ [|pi] = p(x)dx = 1 , ⇣ 2 [|pi] = ^ ⇣ 3 [|pi] = p(1)
ad

0 dx x=2

donde {⇣ 1 , ⇣ 2 , ⇣ 3 } 2 V? . Encuentre una base {|e1 i , |e2 i , |e3 i} 2 V que resulte ortogonal a la dual a
{⇣ 1 , ⇣ 2 , ⇣ 3 }.
rr

4. Sean |v1 i y |v2 i 2 V y supongamos que F [|v1 i] = 0 implica que F [|v2 i] = 0 8 F 2 V? . Muestre que
|v2 i = ↵ |v1 i con ↵ 2 K.
5. Sean F1 y F2 2 V? y supongamos que F1 [|vi] = 0 implica que F2 [|vi] = 0 8 |vi 2 V. Muestre que
Bo

F2 = ↵F1 con ↵ 2 K.
6. En el caso 3D tenemos que si {ei } define un sistema de coordenadas (dextrógiro) no necesariamente
ortogonal, entonces, demuestre que:

169
3.2. TENSORES Y PRODUCTO TENSORIAL

a)
ej ⇥ ek
ei = , i, j, k = 1, 2, 3 y sus permutaciones cı́clicas
ei · (ej ⇥ ek )

b) si los volumenes: V = e1 · (e2 ⇥ e3 ) y Ṽ = e1 · (e2 ⇥ e3 ), entonces V Ṽ = 1.


c) ¿Qué vector satisface a · ei = 1? Demuestre que a es único.
d ) Encuentre el producto vectorial de dos vectores a y b que están representados en un sistema de
coordenadas oblicuo: Dada la base: w1 = 4i+2j+k , w2 = 3i+3j , w3 = 2k. Entonces encuentre:

ar
1) Las bases recı́procas {ei }.
2) Las componentes covariantes y contravariantes del vector a = i + 2j + 3k.
7. Resuelva los problemas anteriores utilizando Maxima.

in
3.2. Tensores y producto tensorial
Las funciones más simples que se pueden definir sobre un espacio vectorial son los funcionales lineales y

m
éstos nos permiten extendernos al concepto de tensor. Para llegar a la noción de tensores ampliaremos la idea
de funcionales lineales, que actúan sobre un único vector, al de funcionales bilineales (o formas bilineales)
que tienen dos vectores en su argumento. Como veremos más adelante este tipo de funcionales nos revelarán
un contenido geométrico de gran riqueza. Es conocido que presentar el concepto de tensores para estudiantes

eli
de pregrado o, estudiantes graduados de ingenierı́a tiene algunas barreras3 y, la principal barrera quizá sea
la notación. En esta capı́tulo presentaresmos la notación que mas nos sedujo desde las épocas de estudiantes,
es tomada de dos libros clásicos4 , que han marcado una huella en nuestra generación y que creemos permite
su aplicación a variados campos.
Pr
3.2.1. Tensores, una definición funcional
Definiremos como un tensor a un funcional lineal (bilineal en este caso) que asocia un elemento del campo
K, complejo o real, a un vector |vi 2 V, a una forma hu| 2 V? , o ambas, y cumple con la linealidad. Esto
es:
8 |vi 2 V ^ hu| 2 V? ! T [hu| ; |vi] 2 C .
or

Entonces se debe cumplir:


T [hu| ; ↵ |v1 i + |v2 i] ⌘ ↵T [hu| ; |v1 i] + T [hu| ; |v2 i] 8 |v1 i , |v2 i 2 V ^ hu| 2 V? .
ad

T [µ hu1 | + ⌫ hu2 | ; |vi] ⌘ µ⇤ T [hu1 | ; |vi] + ⌫ ⇤ T [hu2 | ; |vi] 8 |vi , 2 V ^ hu1 | , hu2 | 2 V? .
En pocas palabras: un tensor es un funcional generalizado cuyos argumentos son vectores y/o formas5 , lo
que significa que T [ ; •] es una cantidad con dos “puestos” y una vez “cubiertos” se convierte en un escalar
(complejo o real).
Las combinaciones son muy variadas:
rr

3 Tal y como lo plantea Battaglia, Franco, y Thomas F. George. ”Tensors: A guide for undergraduate students.”American

Journal of Physics 81 (2013): 498-511


4 Misner, C. W., K. S. Thorne, and J. A. Wheeler. Gravitation. Princeton University Press, 2017; y Cohen-Tannoudji, C.,
Bo

Diu, B. and Laloë, F., 1977. Quantum Mechanics vol 1 (Paris: Hermann).
5 Una presentación interesante y detallada de la utilización del concepto de tensor para el manejo de datos en computación

la pueden encontrar en: Lu, H., Plataniotis, K. N., & Venetsanopoulos, A. N. (2011). A survey of multilinear subspace learning
for tensor data. Pattern Recognition, 44(7), 1540-1551.

170
3.2. TENSORES Y PRODUCTO TENSORIAL

Un tensor, con un argumento correspondiente a un vector y un argumento correspondiente a una forma,


lo podremos representar de la siguiente manera:
2|vi hu|3
✓ ◆
# # 1
T 4 ; • 5 2 C ◆ tensor de tipo .
1

Un tensor con dos argumentos correspondientes a vectores y uno a una forma serı́a:
2|v i |v i hu|3

ar
1 2 ✓ ◆
# # # 1
T [ , ; •] ◆ T 4 , ; • 2 C ◆ tensor de tipo
5 ,
2

in
Un tensor con dos argumentos correspondientes a formas y uno a un vector:
2|vi hu | hu |3
1 2 ✓ ◆
# # # 2
T [ ; •, •] ◆ T 4 ; • , • 5 2 C ◆ tensor de tipo .
1

m
En general:
2|v 3

eli
1i |v2 i |vn i hu1 | hu2 | hum | ✓ ◆
# # # # # # m
T 4 , ,··· , ; • , • ··· , • 5 2 C ◆ tensor de tipo .
n

En ésta notación el punto y coma (;) separa las “entradas” formas de las “entradas” vectores. Es impor-
Pr
tante recalcar que el orden si importa, no sólo para las cantidades separadas por el punto y coma, sino el
orden de los “puestos” vectores y “puestos” formas separados por coma, y repercutirá en las propiedades de
los tensores. Por ejemplo: si el orden de las “entradas” vectores no importa, podremos permutarlas sin
alterar al tensor, tendremos entonces tensores simétricos respecto a esos “puestos” o “entradas”;
del mismo modo, serán tensores antisimétricos aquellos en los cuales el orden si importa y al permutar
esos “puestos” o “entradas” hay un cambio de signo en el tensor. Todos estos casos serán tratados con detalle
or

más adelante, pero vale la pena recalcar que en general, para un tensor genérico el orden de la “entradas” o
“puestos” si importa pero no necesariamente se comporta como los casos reseñados anteriormente.
Notemos que en el caso general un tensor es básicamente un aplicación multilineal T sobre V? ⇥ V:

T : V?m ⇥ Vn = V? ⇥ V? · · · V? ⇥ V? ⇥ V ⇥ V · · · V ⇥ V ) C,
ad

| {z } | {z }
m n

con n el orden covariante y m el orden contravariante. Hay que hacer notar que por simplicidad hemos
construido el espacio tensorial a partir de una solo espacio vectorial V y su conjugado V? , pero muy bien
cada espacio vectorial puede ✓ser diferente.

rr

m
Por lo tanto, un tensor es un funcional multilineal que asocia m 1 formas y n vectores con C.
n
Un ejemplo sencillo de un funcional bilineal sobre un espacio vectorial Vn con una base |ei i es:
Bo

T [|v1 i , |v2 i] = aij ⇠ i ⇣ j (i, j = 1, 2, . . . , n) ,

donde:
|v1 i = ⇠ i |ei i ^ |v2 i = ⇣ i |ei i .

171
3.2. TENSORES Y PRODUCTO TENSORIAL

son vectores arbitrarios 2 Vn y los aij son números. Notemos que:


⇥ ⇤
T [|v1 i , |v2 i] = T ⇠ i |ei i , ⇣ j |ej i = ⇠ i ⇣ j T [|ei i , |ej i] = ⇠ i ⇣ j aij .

Diremos que ésta será la representación del funcional bilineal para Vn .


Obviamente las formas pueden ser representadas por tensores ya que son funcionales lineales de vectores.
Para finalizar, notemos lo siguiente:
Un vector es un tensor del tipo:

ar
2hu|3
✓ ◆
1 #
◆ T 4 • 5 2 C.
0

in
Los vectores constituyen un caso especial de tensores.
Una forma es un tensor del tipo: 2|vi3
✓ ◆

m
0 #
◆ T 4 5 2 C,
1

porque son funcionales lineales para las formas diferenciales.

eli
Un escalar es un tensor del tipo: ✓ ◆
0
2 C.
0

3.2.2. Producto tensorial


Pr
Como será evidente más adelante, los tensores (simples) pueden provenir del producto tensorial (exterior
o directo) de espacios vectoriales. Esto es, consideraremos E1 y E2 dos espacios vectoriales con dimensiones
n1 y n2 , respectivamente y vectores genéricos, |'(1)i y | (2)i pertenecientes a estos espacios vectoriales:
|'(1)i 2 E1 y | (2)i 2 E2 .
Definiremos el producto tensorial (exterior o directo)✓de espacios
◆ vectoriales, E = E1 ⌦ E2 , si a cada par
or

2
de vectores |'(1)i y | (2)i le asociamos un tensor tipo y si se cumple que:
0
2h (1)| h (2)|
3
# #
|'(1) (2)i ⌘ |'(1)i ⌦ | (2)i , T 4 • , • 5 = h (1) |'(1)i h (2) | (2)i 2 C ,
ad

y si además se cumplen las siguientes propiedades:

1. La suma entre tensores de E viene definida como:


rr

|'(1) (2)i + |⇣(1)⇠(2)i = |'(1)i ⌦ | (2)i + |⇣(1)i ⌦ |⇠(2)i = |'(1) + ⇣(1)i ⌦ | (2) + ⇠(2)i .
Bo

2. El producto tensorial es lineal respecto a la multiplicación con números reales y µ:

[| '(1)i] ⌦ | (2)i = [ |'(1)i] ⌦ | (2)i = [|'(1)i ⌦ | (2)i] = |'(1) (2)i ,


|'(1)i ⌦ [|µ (2)i] = |'(1)i ⌦ [µ | (2)i] = µ [|'(1)i ⌦ | (2)i] = µ |'(1) (2)i .

172
3.2. TENSORES Y PRODUCTO TENSORIAL

3. El producto tensorial es distributivo respecto a la suma:

|'(1)i ⌦ [| 1 (2)i +| 2 (2)i] = |'(1)i ⌦ | 1 (2)i + |'(1)i ⌦ | 2 (2)i


[|'1 (1)i + |'2 (1)i] ⌦ | (2)i = |'1 (1)i ⌦ | (2)i + |'2 (1)i ⌦ | (2)i .

Nótese que las etiquetas (1) y (2) denotan la pertenencia al espacio respectivo.

3.2.3. Espacios tensoriales

ar
Es fácil convencerse que los tensores |'(1) (2)i 2 E = E1 ⌦ E2 forman un espacio vectorial y la demos-
tración se basa en comprobar los axiomas o propiedades de los espacios vectoriales tal y como lo describimos
en la sección 2.1.3:

in
1. La operación suma es cerrada en V : 8 |vi i , |vj i 2 V ) |vk i = |vi i |vj i 2 V.
Esto se traduce en demostrar que sumados dos tensores |'(1) (2)i y |⇣(1)⇠(2)i 2 E el tensor suma
también pertenece a E, con ↵ y pertenecientes al campo del espacio vectorial

m
↵ |'(1) (2)i + |⇣(1)⇠(2)i = |↵'(1) + ⇣(1)i ⌦ | (2) + ⇠(2)i ,

y esto se cumple siempre ya que, el producto tensorial es lineal respecto a la multiplicación con números
reales, y por ser E1 y E2 espacios vectoriales se cumple:

eli
9
|↵'(1) + ⇣(1)i = ↵ |'(1)i + |⇣(1)i 2 E1 =
) |'(1) + ⇣(1)i ⌦ | (2) + ⇠(2)i 2 E .
;
|'(2) + ⇣(2)i = |'(2)i + |⇣(2)i 2 E2

2. La operación suma
Pr
es conmutativa y asociativa.
Conmutativa: 8 |vi i , |vj i 2 V ) |vi i |vj i = |vj i |vi i.
Esta primera es clara de la definición de suma:

|'(1) (2)i + |⇣(1)⇠(2)i = |'(1) + ⇣(1)i ⌦ | (2) + ⇠(2)i


|⇣(1)⇠(2)i + |'(1) (2)i = |⇣(1) + '(1)i ⌦ |⇠(2) + (2)i ,
or

por ser E1 y E2 dos espacios vectoriales.


Asociativa: 8 |vi i , |vj i , |vk i 2 V ) (|vi i |vj i) |vk i = |vj i (|vi i |vk i)
Una vez más, esto se traduce en:
ad

(|'(1) (2)i + |⇣(1)⇠(2)i) + |{(1)(2)i = |'(1) (2)i + (|⇣(1)⇠(2)i + |{(1)(2)i) ,

con lo cual, por la definición de suma, la expresión anterior queda como:


rr

(|'(1) + ⇣(1)i ⌦ |⇠(2) + (2)i) + |{(1)(2)i = |'(1) (2)i + (|⇣(1) + {(1)i ⌦ |⇠(2) + (2)i)
|('(1) + ⇣(1)) + {(1)i ⌦ |(⇠(2) + (2)) + (2)i = |'(1) + (⇣(1) + {(1))i ⌦ |⇠(2) + ( (2) + (2))i .
Bo

3. Existe un único elemento neutro: 9 |0i / |0i |vj i = |vj i |0i = |vj i 8 |vj i 2 V.
Es decir:

|'(1) (2)i + |0(1)0(2)i = |'(1) + 0(1)i ⌦ | (2) + 0(2)i = |'(1)i ⌦ | (2)i = |'(1) (2)i .

173
3.2. TENSORES Y PRODUCTO TENSORIAL

4. Existe un elemento simétrico para cada elemento de V: 8 |vj i 2 V 9 | vj i / |vj i | vj i = |0i.

|'(1) (2)i |'(1) (2)i = |'(1) '(1)i ⌦ | (2) (2)i = |0(1)i ⌦ |0(2)i = |0(1)0(2)i .

5. ↵ ( |vi i) = (↵ ) |vi i:

↵ ( |'(1) (2)i) = ↵ (| (2)i ⌦ |'(1)i) = |↵ (2)i ⌦ |'(1)i = (↵ ) | (2)i ⌦ |'(1)i = (↵ ) |'(1) (2)i .

ar
6. (↵ + ) |vi i = ↵ |vi i + |vi i:

(↵ + ) |'(1) (2)i = |'(1)i ⌦ |(↵ + ) (2)i = |'(1)i ⌦ |↵ (2) + (2)i


= |'(1)i ⌦ [(↵ | (2)i + | (2)i)]

in
= ↵ |'(1)i ⌦ | (2)i + |'(1)i ⌦ | (2)i .

7. ↵ (|vi i |vj i) = ↵ |vi i ↵ |vj i:

m
↵ (|'(1) (2)i + |⇣(1)⇠(2)i) = ↵ (|'(1) + ⇣(1)i ⌦ |⇠(2) + (2)i) = |↵ ('(1) + ⇣(1))i ⌦ |⇠(2) + (2)i
= |↵'(1) + ↵⇣(1)i ⌦ |⇠(2) + (2)i = |↵'(1) (2)i + |↵⇣(1)⇠(2)i
= ↵ |'(1) (2)i + ↵ |⇣(1)⇠(2)i .

eli
Equivalentemente, podemos construir un producto tensorial entre espacios de formas diferenciales. Si
E?1 y E?2 son dos espacios vectoriales duales a E1 y E2 , con dimensiones n1 y n2 , respectivamente. A estos
espacios pertenecen las formas diferenciales genéricas h⇣(1)| 2 E?1 y h⇠(2)| 2 E?2 .
Definiremos el producto tensorial de espacios vectoriales duales, E✓? = E ? ?
◆1 ⌦ E2 , si a cada par de formas
Pr
diferenciales h⇣(1)| 2 E?1 y h⇠(2)| 2 E?2 le asociamos un tensor tipo
0
. Esto es: h⇣(1)⇠(2)| = h⇣(1)| ⌦
2
h⇠(2)| .
Es importante aclarar que el número h'(1)
˜ ˜(2) |'(1) (2)i = h'(1)˜ |'(1)i · h ˜(2) | (2)i , NO representa
el producto interno entre los tensores, h'(1)
˜ ˜(2)| y |'(1) (2)i. Tal y como hemos descrito arriba,

T [|'(1)i , | (2)i] ⌘ T ⇤ [h'(1)|


˜ , h ˜(2)|] = h'(1)
˜ |'(1)i · h ˜(2) | (2)i ,
or

representa las evaluaciones de los funcionales T [ ] y T ⇤ [•], respectivamente.

3.2.4. Bases para un producto tensorial


ad

Si {|ui (1)i} y {|vi (2)i} son, respectivamente, bases discretas para E1 y E2 entonces podremos construir
el tensor:
|ui (1)vj (2)i = |ui (1)i ⌦ |vj (2)i 2 E ,
el cual funcionará como una base para E y, por lo tanto, podremos construir un tensor genérico de E:
rr

|'(1) (2)i = |'(1)i ⌦ | (2)i = 'i j


|ui (1)vj (2)i ,

donde 'i y j son las componentes de |'(1)i y | (2)i en sus respectivas bases. En otras palabras, las
Bo

componentes de un tensor en E corresponden a la multiplicación de las componentes de los vectores en E1


y E2 . Recuerde que estamos utilizandoPn la convención de Einstein de suma tácita en ı́ndices covariantes y
contravariantes, en la cual ck |vk i ⌘ k=1 ck |vk i.

174
3.2. TENSORES Y PRODUCTO TENSORIAL

Es importante señalar que si bien un tensor genérico | i 2 E siempre se puede expandir en la base
|ui (1)vj (2)i no es cierto que todo tensor de E provenga del producto tensorial de E1 y E2 . Es decir, E tiene
más tensores de los que provienen el producto tensorial. Esta afirmación puede intuirse del hecho que si
| i 2 E entonces:
| i = cij |ui (1)vj (2)i ,
por ser {|ui (1)vj (2)i} base para E. Es claro que dados dos números ↵1 y ↵2 habrá cij que no provienen de
la multiplicación de ↵1 ↵2 .
El conjunto de todas funciones bilineales T [hu| ; |vi] forman un espacio vectorial sobre el espacio directo

ar
E. Este espacio vectorial de funciones tendrá una base dada por:

|ui (1)vj (2)i = |ui (1)i ⌦ |vj (2)i .

in
3.2.5. Tensores, sus componentes y sus contracciones
Hemos mencionado anteriormente, ubicándonos en R3 , que un escalar es una cantidad que se puede
especificar, independientemente del sistema de coordenadas, por un sólo número. Los vectores geométricos
que dibujábamos con flechas los sustituimos ahora por tres números respecto a una base seleccionada, es

m
decir, a través de sus tres componentes. Los escalares y los vectores son casos particulares de objetos más
generales que denominamos tensores, tensores de orden o rango k y cuya especificación en cualquier sistema
de coordenadas requerirá de 3k números, llamadas las componentes del tensor. Esto significa que un escalar
es un tensor de orden 0 (30 = 1 componente) y un vector un tensor de orden 1 (31 = 3 componentes). Si el

eli
espacio vectorial es de dimensión n, entonces un tensor de orden k tendrá nk componentes6 .
Como veremos más adelante, los tensores son mucho más que simples números respecto a un sistema
de coordenadas y la clave radica en la “ley de transformación” de sus componentes, es decir, en la relación
que existe entre las componentes de un tensor en un sistema de coordenadas y las componentes del mismo
Pr
tensor en otro sistema de coordenadas diferente. Lo que hay detrás de todo esto es el hecho de que las
leyes matemáticas que describen los fenómenos fı́sicos deben ser “invariantes” bajo transformaciones de
coordenadas, como por ejemplo: traslaciones (el espacio es homogéneo) y rotaciones (el espacio es isótropo).

Componentes de un tensor
Consideremos un espacio tensorial V = E?1 ⌦ E?2 ⌦ E?3 ⌦ E1 ⌦ E2 . Denominaremos componentes de un
or

tensor, aquellos números que surgen al evaluar los funcionales (formas diferenciales o vectores) con la bases de
los espacios que lo constituyen. Ası́, si {|ui (1)i} y {|xi (1)i} son base para E1 , mientras ✓ {|vj (2)i}
◆ y {|yj (2)i}
2
lo son para E2 y finalmente {|tk (3)i} para E3 , entonces las componentes de un tensor serán:
3
ad

2hxm (1)| hyn (2)| |u (1)i |v (2)i |w (3)i3


i j k
# # # # # ⇥ ⇤
mn
S ijk = S 4 • , • ; , , 5 ) S = S mnijk xm (1), yn (2); ui (1), v j (2), tk (3) ,

⇥ ⇤
donde hemos denotado xm (1), yn (2); ui (1), v j (2), tk (3) como el tensor base
rr

⇥ ⇤ ⌦ ⌦ ⌦
xm (1), yn (2); ui (1), v j (2), tk (3) = |xm (1)i ⌦ |yn (2)i ⌦ ui (1) ⌦ v j (2) ⌦ tk (3) .
6 Existen varias presentaciones operativas de estos conceptos para Fı́sica e Ingenierı́a, pueden consultar:
Bo

Battaglia, F., & George, T. F. (2013). Tensors: A guide for undergraduate students. American Journal of Physics, 81(7),
498-511.
Comon, P. (2014). Tensors: a brief introduction. IEEE Signal Processing Magazine, 31(3), 44-53.

175
3.2. TENSORES Y PRODUCTO TENSORIAL

Podemos comentar varias cosas:


Por simplicidad hemos considerado un espacio tensorial de la forma V = E?1 ⌦ E?2 ⌦ E?3 ⌦ E1 ⌦ E2 ,
pero claramente pudimos haberlo construido mas general, W = E?1 ⌦ E?2 ⌦ E?3 ⌦ E4 ⌦ E5 .
⇥ ⇤
En este ejemplo, en la base del espacio tensorial xm (1), yn (2); ui (1), v j (2), tk (3) , hemos colocado
primero su “parte” vectorial y luego su “parte” forma. Los ı́ndices de las componentes heredan esta
convención S mnijk : primero irán los contravariantes y luego los covariantes. Pero lo importante es que
los ı́ndices etiqueten el espacio al cual corresponde.

ar
Nuestra notación será:
• | (1), (2)i ⌘ | (1)i ⌦ | (2)i = C ij |ui (1), vj (2)i = C̃ ij |xi (1), vj (2)i = C̄ ij |ui (1), yj (2)i. Es decir
un tensor pertenciente a un espacio tensorial conformado por dos espacios vectoriales y que se

in
pueden expresar en varias de las bases de esos espacios.
⌦ ⌦ ⌦
• h (1), (2)| ⌘ h (1)| ⌦ h (2)| = Kij ui (1), v j (2) = K̃ij xi (1), v j (2) = K̄ij ui (1), y j (2) . Igual
que para el caso anterior pero a partir de 1-formas.
⇥ ⇤ ⇥ ⇤ ⇥ ⇤
• [ (1), (2)] ⌘ h (1)| ⌦ | (2)i = Mi j ui (1); vj (2) = M̃i j xi (1); vj (2) = M̄i j ui (1); yj (2) . Un

m
tensor mixto

Es importante convenir el orden en el cual se presenten los espacios con los cuales se realiza el producto
tensorial

eli
Es de hacer notar que la selección de las bases no es arbitraria sino que deben corresponderse, entre el
espacio directo, E, y su dual E? , i.e.

{|ui (1)i , |vj (2)i , |wk (3)i} ⌦ {hxm (1)| , hy n (2)|} , {|xp (1)i , |yq (2)i} ⌦ hua (1)| , v b (2) , hwc (2)| .
Pr
Si consideramos un tensor como resultado de un producto tensorial y consideramos las bases: {|ui (1)i , hxm (1)|},
sus componentes se pueden expresar {'m (1) i (1)}, vale decir:
✓ ◆
1
() |'(1)i ⌦ h (1)| ) hxm (1) |'(1)i ⌦ h (1)| ui (1)i ) {'m (1) i (1)} .
1
or

Combinaciones lineales de tensores


Es claro que podremos sumar (componentes) de tensores como lo hemos hecho con la suma de (compo-
nentes) de vectores:
ad

a + b = (ax + bx ) i + (ay + by ) j + (az + bz ) k = a1 + b1 i + a2 + b2 j + a3 + b3 k = ai + bi |ii i ,

esto es:
Rklij = ↵Qklij + Pkl ij .
rr

Producto tensorial de tensores


Podemos extender aún más la idea del producto directo y extenderla para tensores. Ası́, para dos tensores,
Bo

uno tipo: 2h⇣(1)| h⇠(2)|3


✓ ◆
2 # #
) |'(1) (2)i = |'(1)i ⌦ | (2)i = T 4 • , • 5 |µ(1)(2)⇥(1)i ,
0

176
3.2. TENSORES Y PRODUCTO TENSORIAL

y el otro tipo: 2|u 3


✓ ◆ i (1)i h"(1)| h (2)|
2 # # #
) |µ(1)i ⌦ |(2)i ⌦ h⇥ (1)| = P 4 ; • , • 5,
1

el producto directo es:

|'(1) (2)i ⌦ |µ(1)(2)⇥(1)i = |'(1)i ⌦ | (2)i ⌦ |µ(1)i ⌦ |(2)i ⌦ h⇥ (1)|


2h⇣(1)| h⇠(2)|3 2|u (1)i h"(1)| h (2)|3
i

ar
# # # # #
= T 4 • , • 5⌦P4 ; • , • 5

2|u h"(1)| h (2)| h⇣(1)| h⇠(2)|


3
i (1)i
# # # # #
= R4 ; • , • , • , • 5.

in
En componentes será como se muestra a continuación:

m
Rij k lm = T ij Pk lm .

Un vez más, note que los puestos de los ı́ndices en las componentes de los tensores heredan las posiciones de
los vectores y formas que construyeron el espacio tensorial a partir del producto directo o tensorial.

eli
Contracción de un tensor
Denominaremos una contracción cuando sumamos las componentes covariantes y contravariantes, esto
es, si tenemos 'i (1) i (1), entonces se genera un escalar independiente de la base. Esta situación será más
Pr
evidente cuando definamos métricas y contracción de tensores. ✓Por ◆ analogı́a y considerando un caso más
mn 2
general, dada las componentes Sijk correspondiente a un tensor podremos construir un nuevo tensor
3
✓ ◆
1
a partir de una contracción. Las componentes de este nuevo tensor serán: Sijk mn ) Sijk in ⌘ Sjkn .
2
Del mismo modo, dadas las componentes de dos tensores, P lm y Qzkij generarán componentes de nuevos
or

tensores Rk lij = P lm Qmkij . Ası́:


✓ ◆ 9
2 >
) P lm > = ✓ ◆
0 3
✓ ◆ ) ) Rk lij = P lm Qmkij .
ad

2 ij > 1
) Qzk > ;
2

Es claro que si dos tensores derivan de productos tensoriales y si {|ui (1)i} , {hum (1)|} y {|vi (2)i} son
bases ortonormales para E1 , E?1 y E2 , entonces sus productos tensoriales podrán ser expresados como:
rr

i
| (1); (2)i = (1) j (2) |ui (1)i ⌦ |vj (2)i , [↵(1); (1)] = ↵l (1) m (1) |ul (1)i ⌦ hum (1)| ,
| {z } | {z }
P ij l
Qm
Bo

177
3.2. TENSORES Y PRODUCTO TENSORIAL

entonces:

↵l (1) m (1) |ul (1)i ⌦ hum (1)| i


(1) j (2) |ui (1)i ⌦ |vj (2)i
= ↵l (1) m (1)
i
(1) j (2) {hum (1) |ui (1)i} |vj (2)i ⌦ |ul (1)i
| {z }
m
i

= ↵l (1) k (1)
k
(1) j (2) |vj (2)i ⌦ |ul (1)i
= P ij Qil |ul (1); vj (2)i

ar
= Rjl |ul (1); vj (2)i .

Pero más aún, si |ui (1)vj (2)i = |ui (1)i ⌦ |vj (2)i 2 E es base de E entonces se puede demostrar lo anterior
sin circunscribirnos a tensores cuyas componentes provengan de multiplicación de las componentes en cada

in
espacio vectorial.

Simetrización de tensores
Un tensor (las componentes) será simétrico respecto a dos de sus ı́ndices si su permutación no cambia su

m
valor:
Sij = Sji , S ij = S ji , Sij···kl···mn = Sij···lk···mn , S ij···kl···mn = S ij···lk···mn ,
y será antisimétrico si:

eli
Aij = Aji , Aij = Aji , Aij···kl···mn = Aij···lk···mn , Aij···kl···mn = Aij···lk···mn .

Un tensor de rango 2, viene representado por una matriz que tendrá 32 = 9 componentes. Si la matriz es
simétrica tendrá como máximo 6 componentes distintas.
0 1 1 0 1
Pr 1
S1 S21 S31 S1 S12 S13
j
Sj = Si = @ S1 S2 S3 A = @ S21 S22
i 2 2 2
S23 A .
S13 S23 S33 S31 S32 S33

Mientras que un tensor antisimétrico de segundo orden tendrá, cuando máximo, tres componentes con valor
absoluto distintos de cero, 0 1
or

0 A12 A13
Aj i = Ai j = @ A21 0 A23 A .
3 3
A1 A2 0
Siempre es posible construir tensores simétricos y antisimétricos a partir de un tensor genérico. Esto es:
ad

1 1
Sij = (Tij + Tji ) ⌘ T(ij) () Sij···kl···mn = (Tij···kl···mn + Tij···lk···mn ) = Tij···(kl)···mn
2 2

1 1
rr

Aij = (Tij Tji ) ⌘ T[ij] () Aij···kl···mn = (Tij···kl···mn Tij···lk···mn ) = Tij···[kl]···mn .


2 2
Es evidente que las componentes de un tensor genérico, Tij , pueden expresarse como una combinación de su
parte simétrica y antisimétrica:
Bo

Tij = Sij + Aij .


Obviamente que algo equivalente se puede realizar para componentes contravariantes de tensores.

178
3.2. TENSORES Y PRODUCTO TENSORIAL

3.2.6. Tensor métrico, ı́ndices y componentes


Para una base genérica, {|uj i}, no necesariamente ortogonal,
✓ ◆ de un espacio vectorial con producto interno,
0
podemos definir la expresión de un tensor simétrico, que denominaremos “tensor métrico”, de la
2
siguiente manera:
2|u i |u i3 2 i 3
i j h u | h uj |
# # 6 # # 7 ⇥⌦ ⌦ ⇤
g 4 , , 5 = g [|ui i , |uj i] = gij ⌘ gji , g 4 • , • 5 = g ui , uj = g ij ⌘ g ji ,

ar
h i
1
con g ij = (gij ) . Nótese que las gij ⌘ gji son las componentes del tensor g una vez que la base {|uj i}
,

in
ha actuado. Esto hace que podamos⇥⌦ definir ⇤una forma a partir del tensor métrico como g [|ui i , ] = ui y
equivalentemente un vector como g uj , • = |uj i. Ambas definiciones ⇥⌦ nos⌦ llevan
⇤ a pensar que ⌦el tensor
métrico está asociado a una función del producto interno, vale decir g ui , uj = g ij ⌘ g ji = F[ ui |uj i],
que preserve la idea de métrica: F 2 R, que sea simétrico respecto a los ı́ndices i, j y que cumpla con la

m
desigualdad triangular. Es decir, la denominación de tensor métrico, no es gratuita, g cumple con todas
las propiedades de la métrica definida para un espacio vectorial euclidiano expuestas en la sección 2.2.1,
vale decir:

eli
1. g [|ui i , |uj i] = gij ⌘ gji 0 8 |uj i , y si g [|ui i , |uj i] = 0 ) i = j .

2. g [|ui i , |uj i] = g [|uj i , |ui i] ) gij ⌘ gji .


3. g [|ui i , |uj i]  g [|ui i , |uk i] + g [|uk i , |uj i]: La desigualdad Triangular.
Pr
Si la base genérica es ortonormal, {|ui i} ! {|ei i}, entonces tendremos, de manera natural:
⌦ ⌦ ⌦ ⌦
g [ , ] ⌘ gij ei ⌦ ej ⌘ gji ej ⌦ ei y g [•, •] ⌘ g ij |ei i ⌦ |ej i ⌘ g ji |ej i ⌦ |ei i , (3.2)

con lo cual sus componentes serán matrices simétricas gij = gji , e igualmente g ij = g ji .
En general impondremos que:
⌦ ⌦ ⌦ ⌦
or

gij ui ⌦ uj g km |uk i ⌦ |um i = gij g km ui |uk i uj |um i = gij g km ki m


j
= gij g ji = i
i = n,

ya que i, j = 1, 2, 3, · · · , n. Con lo cual gij es la matriz inversa de g ij , es decir, hemos definido las componentes
contravariantes del tensor de modo que cumplan con gik g kj = ij .
ad

También es claro que si |ai = ak |uk i, entonces:


⌦ ⌦ ⌦ ⌦ ⌦ ⌦ ⌦ ⌦ ⌦
gij ui ⌦ uj |ai = ak gij ui ⌦ uj |uk i = ak gij uj |uk i ui = ak gij kj ui = ak gik ui ⌘ ai ui ,

con lo cual ai = ak gik .


De la misma forma:
rr


ha| g ij |ui i ⌦ |uj i = ha| g ij |ui i ⌦ |uj i = g ij ha |ui i ⌦ |uj i = ak g ij uk |ui i |uj i = ak g kj |uj i ⌘ aj |uj i ,

otra vez aj = ak g kj , ahora subimos el ı́ndice correspondiente.


Bo

De esta manera, el tensor métrico nos permite asociar formas con vectores, componentes covariantes
(formas) a componentes contravariantes (vectores) y dicho rápido y mal, pero de uso muy frecuente: el

179
3.2. TENSORES Y PRODUCTO TENSORIAL

tensor métrico nos “permite subir y bajar ı́ndices”. Otra forma de verlo es combinando las propiedades del
producto directo de tensores y contracción de ı́ndices:
⌦ ⌦
g ij |ui i ⌦ |uj i ⌦ Pk lmn |ul i ⌦ |um i ⌦ |un i ⌦ uk ) g ij Pk lmn |uj i ⌦ Pk lmn |ul i ⌦ |um i ⌦ |un i ⌦ uk ui i


g ij Pk lmn |uj i ⌦ |ul i ⌦ |um i ⌦ |un i · uk ui i = P jlmn |uj i ⌦ |ul i ⌦ |um i ⌦ |un i ) g ij Pi lmn
⌘ P jlmn .
| {z }
k
i

ar
Adicionalmente, el tensor métrico permite la contracción de ı́ndices. Ası́, dado un producto tensorial de
dos vectores que se pueden expresar en una base ortonormal {|ei i}:

|a, bi = |ai ⌦ |bi = ak bm |ek i ⌦ |em i

in
+
⌦ i
⌦ j k m k m i j
gij e ⌦ e a |ek i ⌦ b |em i = a b gij k m = ak bm gkm = ak bk = hb |ai = ha |bi .

Es decir, el producto interno de dos vectores involucra, de manera natural, la métrica del espacio,

m
hb |ai = ha |bi = ak bk = ak bk = ak bm gkm = ak bm g km .

Obviamente la norma de un vector, también incluirá al tensor métrico:


eli
2
k|aik = ha |ai = ai aj ei |ej i = ai ai = ai aj g ij = ai aj gij .

Finalmente, será útil especificar la forma de construir el tensor métrico para para los espacios euclideanos
(y pseudo-euclideanos que nos ocuparán en la sección 3.3) definir la métrica a través del producto escalar
entre vectores de la forma
Pr
g [|ui i , |uj i] = gij ⌘ gji = ui · uj , g [hui | , huj |] = g ij ⌘ g ji = ui · uj

Donde · representa el producto escalar estándar de Rn . Claramente gij ⌘ gji = ui · uj = i


j. En los ejemplos
expuestos en la sección 3.2.10, haremos uso de estas definciones.

3.2.7. Métrica, elemento de lı́nea y factores de escala


or

El caso más emblemático lo constituye la norma de un desplazamiento infinitesimal. Para una base
genérica, {|ui i}, no necesariamente ortogonal de un espacio vectorial con producto interno, el desplazamiento
infinitesimal puede expresarse como:
ad

⌦ ⌦
ds2 ⌘ hdr |dri = dxk uk (dxm |um i) = uk |um i dxk dxm = dxm dxm = gkm dxk dxm . (3.3)

Si las bases de formas y vectores son ortogonales, {|ei i}, (cosa más o menos común pero no necesariamente
cierta siempre) la métrica será diagonal y como en general: k|ei ik 6= 1, entonces surgen los llamados factores
p
de escala hi = gii :
rr

1 2 2 2 2
gii = ) (ds) = h1 dx1 + h2 dx2 + h3 dx3 , (3.4)
g ii
p
Bo

donde hi = gii , con i, j = 1, 2, 3 (aquı́ no hay suma).


En la sección 5.1 discutiremos con detalle la construcción y el significado de los factores de escala para
sistemas de coordenadas tridimensionales, por ahora los mencionamos destacando sus consecuencias en la
transformación de las componentes covariantes y contravariantes entre distintas bases de vectores.

180
3.2. TENSORES Y PRODUCTO TENSORIAL

De esta manera, las componentes covariantes y contravariantes estarán relacionadas, a través de los
factores de escala como:

aj = gjk ak ) ai = h[i] a[i] . (Aquı́ h[i] a[i] NO indica suma).

En otras palabras, en aquellos sistemas de coordenadas en los cuales la métrica es diagonal pero no viene
representada por la matriz unidad, subir y bajar indices puede incluir los cambios de escala. Obviamente, si
la base {|ii i} es la canónica, es fácil ver que:

ar
2 k
(ds) ⌘ hdr |dri = m dxk dxm = dxm dxm .

es decir: g11 = g22 = g33 = 1 , gij = 0 si i 6= j , esto significa que en coordenadas cartesianas el desplaza-
miento infinitesimal es la ya conocida expresión: ds2 = dx2 + dy 2 + dz 2 .

in
3.2.8. Teorema del cociente
Al igual que existe el producto directo entre tensores, cabe preguntarse si es posible multiplicar un tensor

m
arbitrario (de cualquier rango) por un “objeto” desconocido ¿Ese producto será un tensor?
Existe importantes situaciones fı́sicas en las cuales es aplicable esta pregunta. Si Tij son las componentes
de un tensor de rango 2 y el producto Tij V i = Bj es un objeto representado por un sólo ı́ndice ¿Este objeto
V i será un vector? La respuesta es siempre afirmativa, y puede ser utilizada como un criterio para identificar

eli
componente de tensores. Este criterio se denomina el Teorema del Cociente.
La respuesta a ésta pregunta surge de la respuesta a una pregunta distinta pero equivalente. Supongamos
que nos dan n2 números aij y un (una componente de un) vector genérico V i , si la cantidad aij V i V✓ j
es un

1 0
escalar entonces la parte simétrica a(ij) = 2 (aij + aji ) será un (una componente de) tensor del tipo: .
2
Pr
La demostración involucra algunas de las ideas antes expuestas y la haremos para fijar conceptos.
Dados dos sistemas de coordenadas xi = xi (x̃m ) y x̃j = x̃j (xm ) (con i, j = 1, 2, 3, · · · , n) se cumple que:

aij xi xj = = ˜ = ãij x̃i x̃j , donde = ˜ constituye un escalar ,

y por lo tanto, derivando y utilizando la regla de la cadena:


or

@xi @xi @ x̃j


xi = xi x̃j (xm ) ) m
= = i
m ,
@x @ x̃j @xm
por lo que:
✓ ◆
ad

@ x̃k @ x̃l
aij xi xj ãij x̃i x̃j ⌘ aij ãkl xi xj = 0 ,
@xi @xj

como hay una suma en ij no se puede afirmar que la cantidad del paréntesis se anula. Como esta afirma-
ción vale para cualquier sistema de coordenadas, seleccionaremos las componentes coordenadas en la base
rr

canónica.
x1 = (1, 0, 0, · · · , 0) , x2 = (0, 1, 0, · · · , 0) , · · · · · · xn = (0, 0, 0, · · · , 1) ,
con lo cual:
Bo

@ x̃k @ x̃l @ x̃k @ x̃l @ x̃k @ x̃l


a11 ãkl = 0 , a22 ãkl = 0 , · · · , · · · ann ãkl = 0,
@x1 @x1 @x2 @x2 @xn @xn

181
3.2. TENSORES Y PRODUCTO TENSORIAL

1 1
Como siempre podemos hacer: ã(kl) = 2 (ãkl + ãlk ) y ã[kl] = 2 (ãkl ãlk ) y separar el tensor:

@ x̃k @ x̃l @ x̃k @ x̃l


ãkl = ã(kl) + ã[kl] ) a(mm) ã(kl) + ã[kl] m m
= 0 ) a(mm) = ã(kl) .
@x @x @xm @xm
La parte simétrica del tensor transforma siguiendo la regla: amn = ⇤km ⇤ln ãkl y es lo que de ahora en
adelante denominaremos un tensor de segundo orden. En este caso, la parte simétrica de un tensor transforma
como un verdadero tensor una vez que se contrae con un par de vectores.

ar
3.2.9. Vectores, formas, tensores y leyes de transformación
En esta sección discutiremos la importancia de caracterizar objetos identificando las leyes de transforma-
ción. La invariancia bajo determinadas leyes de transformación es clave en Fı́sica y nos permite identificar
propiedades fundamentales. Ya hemos visto, en la sección 1.4.4, como los esquemas de transformación de

in
coordenadas nos han permitido diferenciar escalares y pseudoescalares y vectores de pseudovectores. En esta
sección puntualizaremos como transforman vectores y formas y como esos esquemas de transformaciones los
heredan los tensores.
En general las afirmaciones anteriores se pueden generalizar considerando que las coordenadas que definen

m
un determinado punto, P, expresado en un sistema de coordenadas particular, son x1 , x2 , · · · , xn y las
coordenadas de ese mismo punto P, expresado en otro sistema de coordenadas son x̃1 , x̃2 , · · · , x̃n . Ambas
coordenadas estarán relacionadas por:
9 8 1

eli
x̃1 = x̃1 x1 , x2 , · · · , xn >
> >
> x = x1 x̃1 , x̃2 , · · · , x̃n
> >
x̃2 = x̃2 x1 , x2 , · · · , xn = < x2 = x2 x̃1 , x̃2 , · · · , x̃n
.. () ..
. >
> >
> .
>
; >
: n
x̃n = x̃n x1 , x2 , · · · , xn x = xn x̃1 , x̃2 , · · · , x̃n
Pr
En una notación más compacta lo que tenemos es:
x̃i = x̃i xj () xi = xi x̃j , con i, j = 1, 2, 3, · · · , n . (3.5)
Retomemos lo que discutimos en la sección 3.1.3, pero ahora en el lenguaje de coordenadas. En esa
oportunidad mostramos como transformaban las bases y las componentes de formas y vectores. Ahora lo
generalizaremos a los tensores. Otra vez, sólo exigiremos (y es bastante) que:
or

1. Las funciones xi = xi (x̃m ) y x̃j = x̃j (xm ) sean al menos C 2 (función y derivada continua)
2. Que el determinante de la matriz jacobiana sean finito y distinto de cero, esto es
ad

@x1 @x1 @x1


@ x̃1 @ x̃2 ··· @ x̃n

@xi (x̃m ) @x2 @x2


··· @x2
det 6= 0 ) @ x̃1 @ x̃2 @ x̃n 6= 0 ) xi = xi (x̃m ) () x̃j = x̃j (xm ) .
@ x̃j .. .. ..
. . .
@xn @xn @xn
rr

@ x̃1 @ x̃2 ··· @ x̃n

Ahora bien, una vez más, derivando y utilizando la regla de la cadena:


@xi @xi @ x̃j @xi j
Bo

xi = xi x̃j (xm ) ) = = i
m ) dxi = dx̃ ,
@xm @ x̃j @xm @ x̃j
como hemos comprobado para los dos casos particulares estudiados con anterioridad.
De ahora en adelante tendremos las siguientes ReDefiniciones:

182
3.2. TENSORES Y PRODUCTO TENSORIAL

Un conjunto de cantidades a1 , a2 , · · · , an se denominarán componentes contravariantes de un vector


|ai 2 V en un punto P de coordenadas x1 , x2 , · · · , xn , si:

1. dada dos bases ortonormales de vectores coordenados: {|e1 i , |e2 i , · · · , |en i} y {|ẽ1 i , |ẽ2 i , · · · , |ẽn i},
se cumple que:
⇢ ⌦ i i ⌦
|ai = ai |ei i = ãi |ẽi i ) ⌦ei ai = ai ) ãi = aj ẽi |ej i .
ẽ ai = ã

ar
2. o equivalentemente, bajo una transformación de coordenadas: xi = xi x̃j , con i, j = 1, 2, 3, · · · , n,
estas cantidades transforman como:
@ x̃i k @xi k @xi @ x̃k
ãi = a () ai = ã , con: = i
, (3.6)

in
k l
@x @ x̃k @ x̃k @xl
@ x̃i @xi
y donde las cantidades @xk
y @ x̃k
deberán ser evaluadas en el punto P .

m
Un conjunto de cantidades {b1 , b2 , · · · , bn } se denominarán componentes covariantes de un vector
hb| 2 V? en un punto P de coordenadas x1 , x2 , · · · , xn , si:
⌦ ⌦ ⌦ ⌦
1. dada dos bases de formas: e1 , e2 , · · · , hen | y ẽ1 , ẽ2 , · · · , hẽn | se cumple que:

eli
⇢ ↵
⌦ i ⌦ i hb| ei ↵ = bi ↵
hb| = bi e = b̃i ẽ ) i i ) b̃i = bj hej ẽi .
hb| ẽ = b̃

2. o equivalentemente, bajo una transformación de coordenadas xi = xi x̃j (con i, j = 1, 2, 3, · · · , n)


estas cantidades transforman como:
Pr
@xi @ x̃i @xi @ x̃k i
b̃k = k
bi () bk = k
b̃i , con: = l , (3.7)
@ x̃ @x @ x̃k @xl
@ x̃i @xi
y donde las cantidades: @xk
y @ x̃k
deberán ser evaluadas en el punto P .
or

Generalizamos los conceptos anteriores de la siguiente manera. Dado un conjunto bases para las formas
diferenciales {hxm (1)| , hy n (2)|}, hemos definido las componentes contravariantes de un tensor:
2 3
hxi (1)| hyj (2)|
6 # # 7
ad

T ij = T 4 • , • 5 () T ij ⌘ T 11 , T 12 , · · · , T 1n , T 21 , T 22 , · · · , T 2n , · · · , T nn ,

en esta visión, las componentes contravariantes en un punto P de coordenadas x1 , x2 , · · · , xn , xi =


xi x̃j (con i, j = 1, 2, 3, · · · , n) transforman como:
rr

@ x̃i @ x̃j km @xi @xj km @xi @ x̃k


T̃ ij = T () T ij
= T̃ , con: = i
l ,
@xk @xm @ x̃k @ x̃m @ x̃k @xl
Bo

@ x̃i @xi
donde @xk
y @ x̃k
deberán ser evaluadas en el punto P .
Esto nos permite construir el caso más general.

183
3.2. TENSORES Y PRODUCTO TENSORIAL


Si {|ti (1)i , |uj (2)i , · · · , |vk (m)i} y hxe (1)| , y f (2) , · · · , hz g (n)| son bases para los vectores y las
formas, respectivamente, las componentes de un tensor:
2 3
|vk (m)i hxe (1)| hy (2)|
f
|ti (1)i |uj (2)i hz g (n)|
6 # # # # # # 7
Tijk mn = T 4 , , ,··· , ; • , • ,··· , • 5 ,

serán un conjunto de cantidades: T1···11···1 , T1···12···1 , · · · , T1···1···1 , T1···1ñ···1 , T2···1ñ···1 , · · · , Tm̃···11···1 , · · · , Tm̃···
ñ···ñ

que se denominarán las componentes contravariantes y covariantes respectivamente, de un tensor mixto

ar
en un punto P de coordenadas x1 , x2 , · · · , xn .
Bajo una transformación de coordenadas xi = xi x̃j (con i, j = 1, 2, 3, · · · , n) estas cantidades trans-
forman como:

in
@ x̃i @ x̃k @xa @xd @xi @xk @ x̃a @ x̃d
T̃e···gi···k = p
··· q e
· · · g Ta···dp···q () Te···gi···k = p
··· q e
· · · g Ta···dp···q , (3.8)
@x @x @ x̃ @ x̃ @ x̃ @ x̃ @x @x
@xi @ x̃k i @ x̃i @xi
nuevamente con: @ x̃k @xl
= l y donde las cantidades @xk
y @ x̃k
deberán ser evaluadas en el punto P .

m
3.2.10. Ejemplos
1. Productos tensoriales, vectores y matrices: Para fijar los conceptos que hemos desarrollado en

eli
las secciones 3.2.2, y 3.2.5 consideremos dos espacios vectoriales V1 , V2 y sus duales V1? y V2? cuyos
vectores y formas pueden ser representados como
0 1 1
0 1 1 u
v B u2 C
|vi = @ v A 2 V1 , hv| = (v1 v2 v3 ) 2 V1 y |ui = B
2 ? C
@ u3 A 2 V2 , hu| = (u1 u2 u3 u4 ) 2 V2
?

v 3
Pr
u4
Para ejemplificar las componentes y bases de los espacios tensoriales a partir de los espacios vectoriales y
sus duales previamente identificados, podemos entonces definir la siguiente operación, como el producto
tensorial:
0 1 1 0 1 1
v v u1 v 1 u2 v 1 u3 v 1 u4
or

|v(1)i⌦hu(2)| ⌘ [v(1)u? (2)] = @ v 2 A⌦(u1 u2 u3 u4 ) = @ v 2 u1 v 2 u2 v 2 u3 v 2 u4 A 2 V3 = V1 ⌦V2? .


v3 v 3 u1 v 3 u2 v 3 u3 v 3 u4
y del mismo modo el dual del producto anterior
0 1 0 1 1
ad

z1 z w1 z 1 w2 z 1 w3
B z 2 C B 2
z 2 w2 z 2 w3 C
hw(1)| ⌦ |z(2)i ⌘ [w⇤ (1)z(2)] = (w1 w2 w3 ) ⌦ B C = B z 3 w1 C 2 V3? = V1? ⌦ V2 .
@ z A @ z w1
3
z 3 w2 z 3 w3 A
z4 z 4 w1 z 4 w2 z 4 w3
Notemos que tanto [v(1)u? (2)] como [v? (1)u(2)] son funcionales bilineales tal y como lo definimos en
rr

3.2.2. Es fácil convencerse que [v(1)u⇤ (2)] y [v⇤ (1)u(2)] son tensores duales uno del otro.
⌦ ⌦ ⌦
Consideremos que si {|e1 (1)i , |e2 (1)i , |e3 (1)i} es una base para V1 con { e1 (1) , e2 (1) , e3 (1) } y su
dual en V?1 , entonces, éstas pueden ser definidas como:
Bo

0 1 0 1 0 1
1 0 0 ⌦ ⌦ ⌦
|e1 (1)i = @ 0 A , |e2 (1)i = @ 1 A , |e3 (1)i = @ 0 A , e1 (1) = (1 0 0) , e2 (1) = (0 1 0) , e3 (1) = (0 0 1) .
0 0 1

184
3.2. TENSORES Y PRODUCTO TENSORIAL

De igual forma las bases para V2 y V2? pueden ser definidas como
0 1 0 1 0 1 0 1
1 0 0 0
B 0 C B C B C B 0 C
|e1 (2)i = B C , |e2 (2)i = B 1 C , |e3 (2)i = B 0 C , |e4 (2)i = B C,
@ 0 A @ 0 A @ 1 A @ 0 A
0 0 0 1

y repectivamente:
⌦ 1 ⌦ ⌦ ⌦

ar
e (2) = (1 0 0 0) , e2 (2) = (0 1 0 0) , e3 (2) = (0 0 1 0) , e4 (2) = (0 0 0 1) ,

Entonces con el producto tensorial previamente definido, podemos construir la siguiente base para el
espacio tensorial V3 = V1 ⌦ V2? :

in
0 1 0 1
⇥ ⇤ ⌦ 1 0 0 0 ⇥ ⇤ ⌦ 0 1 0 0
e1 (1) ; e1 (2) = |e1 (1)i⌦ e1 (2) = @ 0 0 0 0 A , e1 (1) ; e2 (2) = |e1 (1)i⌦ e2 (2) = @ 0 0 0 0 A,
0 0 0 0 0 0 0 0

m
0 1 0 1
⇥ ⇤ ⌦ 0 0 1 0 ⇥ ⇤ ⌦ 0 0 0 1
e1 (1) ; e3 (2) = |e1 (1)i⌦ e3 (2) =@ 0 0 0 0 A , e1 (1) ; e4 (2) = |e1 (1)i⌦ e4 (2) =@ 0 0 0 0 A,
0 0 0 0 0 0 0 0

eli
0 1 0 1
⇥ ⇤ ⌦ 0 0 0 0 ⇥ ⇤ ⌦ 0 0 0 0
e2 (1) ; e1 (2) = |e2 (1)i⌦ e1 (2) =@ 1 0 0 0 A , e2 (1) ; e2 (2) = |e2 (1)i⌦ e2 (2) =@ 0 1 0 0 A,
0 0 0 0 0 0 0 0
0 1 0 1
0 0 0 0 0 0 0 0
⇥ ⇤ ⌦
e2 (1) ; e3 (2) = |e2 (1)i⌦ e3 (2)
Pr
=@ 0 0 1
⇥ ⇤ ⌦
0 A , e2 (1) ; e4 (2) = |e2 (1)i⌦ e4 (2) =@ 0 0 0 1 A,
0 0 0 0 0 0 0 0
0 1 0 1
⇥ ↵ ⌦ 0 0 0 0 ⇥ ⇤ ⌦ 0 0 0 0
e3 (1) ; e1 (2) = |e3 (1)i⌦ e1 (2) =@ 0 0 0 0 A , e3 (1) ; e2 (2) = |e3 (1)i⌦ e2 (2) =@ 0 0 0 0 A,
1 0 0 0 0 1 0 0
0 1 0 1
or

⇥ ↵ ⌦ 0 0 0 0 ⇤ ⌦ 0 0 0 0
e3 (1) ; e3 (2) = |e3 (1)i⌦ e3 (2) =@ 0 0 0 0 A , e3 (1) ; e4 (2) = |e3 (1)i⌦ e4 (2) =@ 0 0 0 0 A.
0 0 1 0 0 0 0 1

Invocando la correspondencia entre kets y bras que expresamos en 3.1.1 construimos la base tensorial
ad

⇥ ⇤ ⌦
dual ei (1) ; ej (2) = ei (1) ⌦ |ej (2)i 2 V3? y tendremos
0 1 0 1 0 1
1 0 0 0 0 0 0 0 0
⇥ 1 ⇤ B 0 0 0 C ⇥ 1 ⇤ B 1 0 0 C ⇥ 1 ⇤ B 0 0 0 C
e (1) ; e1 (2) = B C B C B
@ 0 0 0 A , e (1) ; e2 (2) = @ 0 0 0 A , e (1) ; e3 (2) = @ 1 0
C,
0 A
rr

0 0 0 0 0 0 0 0 0
0 1 0 1 0 1
0 0 0 0 1 0 0 0 0
⇥ 1 ⇤ B 0 0 C ⇥ ⇤ B 0 C ⇥ ⇤ B 0 C
Bo

0 0 0 0 1
e (1) ; e4 (2) = B
@ 0
C , e2 (1) ; e1 (2) = B C , e2 (1) ; e2 (2) = B C,
0 0 A @ 0 0 0 A @ 0 0 0 A
1 0 0 0 0 0 0 0 0

185
3.2. TENSORES Y PRODUCTO TENSORIAL

0 1 0 1 0 1
0 0 0 0 0 0 0 0 1
⇥ 2 ⇤ B 0 0 0 C ⇥ 2 ⇤ B 0 0 0 C ⇥ 3 ⇤ B 0 0 0 C
e (1) ; e3 (2) = B
@ 0
C, e (1) ; e4 (2) = B C, e (1) ; e1 (2) = B C,
1 0 A @ 0 0 0 A @ 0 0 0 A
0 0 0 0 1 0 0 0 0
0 1 0 1 0 1
0 0 0 0 0 0 0 0 0
⇥ 3 ⇤ B 0 0 1 C ⇥ 3 ⇤ B 0 0 0 C ⇥ 3 ⇤ B 0 0 0 C
e (1) ; e2 (2) = B
@ 0
C, e (1) ; e3 (2) = B C, e (1) ; e4 (2) = B C.
0 0 A @ 0 0 1 A @ 0 0 0 A
0 0 0 0 0 0 0 0 1

ar
Como no tenemos definido un producto interno entre tensores y sus duales no podemos afirmar que
m
⇥ i base sea ⇤ortogonal, pero es claro que ambos conjuntos? de vectores {[ek (1) ; e (2)]} y sus duales
esta
e (1) ; ej (2) son linealmente independientes en V3 y V3 , respectivamente. Por lo tanto, cualquier
tensor, [v(1) ; u⇤ (2)] 2 V3 se puede expresar como combinación lineal de esta base

in
⇥ ⇤ ⇥ ⇤
|v(1)i ⌦ hu(2)| ⌘ [v(1) ; u⇤ (2)] = v i uj ei (1) ; ej (2) ⌘ Uji ei (1) ; ej (2) ,

donde los Uji = v i uj son las componentes del tensor en esta base.

m
Equivalentemente, el tensor [w⇤ (1) ; z(2)] 2 V3? , también podrá expresarse en la base dual
⇥ ⇤ ⇥ ⇤
hw(1)| ⌦ |z(2)i ⌘ [w⇤ (1) ; z(2)] = ei (1) ; ej (2) z j wi ⌘ ei (1) ; ej (2) Wij .
⇥ ⇤
Otra vez, los Wij = z j wi son las componente del tensor [w⇤ (1) ; z(2)] en la base ei (1) ; ej (2) .

eli
2. Bases recı́procas y tensores métricos.En este punto analizaremos dos ejemplos en los cuales
construiremos los tensores métricos a partir de dos bases para el R3 .
a) Bases oblicuas, bases recı́procas y tensores métricos. Consideremos una base genérica
Pr
oblicua para R3 , formada por los vectores: u1 = i + j + 2k, u2 = i + 2j + 3k, y u3 = i 3j + 4k.
Revisaremos si estos vectores son mutuamente ortogonales. Encontraremos la base recı́proca ui , el
tensor métrico en ambas bases y para el vector a = 3u1 +2u2 +u3 encontraremos sus componentes
covariantes.
Para saber si son ortogonales simplemente calculamos el producto escalar entre ellos: u1 · u2 = 9 ,
u1 · u3 = 6 y u2 · u3 = 7, por lo tanto no son ortogonales y adicionalmente sabemos que:
or

uj ⇥ uk
ui = ,
ui · (uj ⇥ uk )
que no es otra cosa que la receta para construir la base recı́proca, que en el lenguaje de formas y
vectores coincide con la base dual, es decir la base del espacio de 1-formas.
ad

En general la base dual será:


8 1 u2 ⇥u3 17 1 5
> u = V = 6 i 6j 6k
>
>
>
<
uj ⇥ uk
ui = ) u2 = u3 V⇥u1 = 53 i + 13 j + 23 k
rr

V >
>
>
>
: 3
u = u1 V⇥u2 = 16 i 16 j + 16 k ,

donde V = u1 · (u2 ⇥ u3 ) ) (i + j + 2k) · ([i + 2j + 3k] ⇥ [i 3j + 4k]) = 6 . Notemos que el


Bo

volumen unitario del espacio dual se construye:


✓ ◆ ✓  ◆
17 1 5 5 1 2 1 1 1 1
Ṽ = u1 · (u2 ⇥ u3 ) ) i j k · i+ j+ k ⇥ i j+ k = .
6 6 6 3 3 3 6 6 6 6

186
3.2. TENSORES Y PRODUCTO TENSORIAL

Construimos entonces el tensor métrico para la base recı́proca como:


0 1 1 1 0 35 16 7
1
u · u u1 · u2 u1 · u3 4 3 12
g̃ ij = g̃ ji = ui ⌦ uj = @ u2 · u1 u2 · u2 u2 · u3 A = @ 16 3
10
3
1
3
A,
7 1 1
u3 · u1 u3 · u2 u3 · u3 12 3 12

mientras que para la base original:


0 1 0 1
u1 · u1 u1 · u2 u1 · u3 6 9 6
gij = gji = ui ⌦ uj = @ u2 · u1 u2 · u2 u2 · u3 A = @ 9 14 7 A.

ar
u3 · u1 u3 · u2 u3 · u3 6 7 26

Y, como debe ser,


0 10 1 0 1

in
35 16 7
6 9 6 4 3 12 1 0 0
ui ⌦ uj = gij = @ 9 14 7 A@ 16
3
10
3
1
3
A=@ 0 1 0 A.
7 1 1
6 7 26 12 3 12
0 0 1

m
Entonces, para un vector dado por: a = 3u1 + 2u2 + u3 , podemos calcular sus componentes
covariantes de la manera siguiente:
8
< a1 = g11 a1 + g12 a2 + g13 a3 = (6)(3) + (9)(2) + (6)(1) = 42
j
ai = gij a = a2 = g21 a1 + g22 a2 + g23 a3 = (9)(3) + (14)(2) + (7)(1) = 62

eli
:
a3 = g31 a1 + g32 a2 + g33 a3 = (6)(3) + (7)(2) + (26)(1) = 58

Esto es: a = a1 i + a2 j + a3 k = 42u1 + 62u2 + 58u3 .


b) Bases ortogonales, bases recı́procas y tensores métricos. El segundo ejemplos será cons-
Pr
truir una base dual a una base de vectores mutuamente ortogonales, para ello consideraremos los
siguientes vectores

w1 = i + j + 2k , w2 = i j + k, w3 = 3i 3j .

Ortogonalidad: w1 · w2 = 0 , w1 · w3 = 0 y w2 · w3 = 0 . Son ortogonales.


La base recı́proca se construye a partir de:
or

wj ⇥ wk
wi = ,
wi · (wj ⇥ wk )
donde el denominador es:
ad

V = w1 · (w2 ⇥ w3 ) ) (i + j + 2k) · ([ i j + k] ⇥ [3i 3j]) = 18 ,

y por lo tanto: 8 1 w2 ⇥w3


>
> w = V = 16 i + 16 j + 13 k
>
>
<
rr

wj ⇥ wk w3 ⇥w1
wi = ) w2 = V = 1
3i
1
3j + 13 k
V >
>
>
>
: 3 w1 ⇥w2
w = V = 16 i 1
6j
Bo

El volumen recı́proco, como era de esperarse:


✓ ◆ ✓  ◆
1 1 1 1 1 1 1 1 1
Ṽ = w1 · (w2 ⇥ w3 ) ) i+ j+ k · i j+ k ⇥ i j = ,
6 6 3 3 3 3 6 6 18

187
3.2. TENSORES Y PRODUCTO TENSORIAL

mientras que el tensor métrico para la base recı́proca es:


0 1 1 0 1 1
w · w1 w1 · w2 w1 · w3 6 0 0
ḡ ij = ḡ ji = wi ⌦ wj = @ w2 · w1 w2 · w2 w2 · w3 A = @ 0 1
3 0 A
1
w3 · w1 w3 · w2 w3 · w3 0 0 18

y para la base original


0 1 0 1
w1 · w1 w1 · w2 w1 · w3 6 0 0

ar
gij = gji = wi ⌦ wj = @ w2 · w1 w2 · w2 w2 · w3 A = @ 0 3 0 A.
w3 · w1 w3 · w2 w3 · w3 0 0 18

Entonces el vector a = 3w1 + 2w2 + w3 = a1 w1 + a2 w2 + a3 w3 , tendrá como componentes

in
covariantes 8
< a1 = g11 a1 = (6)(3) = 18
j
ai = gij a = a2 = g22 a2 = (3)(2) = 6
:
a3 = g33 a3 = (18)(1) = 18

m
Esto es: a = a1 i + a2 j + a3 k = 18w1 + 6w2 + 18w3 .
Notemos que si la base original hubiese sido ortonormal:
p p p
w1 = (i + j + 2k)/ 6 , w2 = ( i j + k)/ 3 , w3 = (3i 3j)/ 18 ,

eli
entonces: 0 1 8
1 0 0 < a1 = a1
gij = ḡ ij =@ 0 1 0 A ) a2 = a2
:
0 0 1 a3 = a3
Pr
3. Un ejemplo detallado de transformación de tensores Ilustremos ahora las transformaciones de
tensores bajo cambios de la base del espacio tensorial. Esta vez, consideraremos ⇥ que
⇤ un tensor ⌦tendrá
componentes Tj i cuando se expresa como combinación lineal de la base ei (1); ej (2) = |ei (1)i⌦ ej (2)
donde la base {|e1 i , |e2 i , |e3 i} ⌘ {|ii , |ji , |ki} son los vectores unitarios cartesianos para el espacio
vectorial R3 . Esto es
0 1 0 1 0 1
or

1 0 0
|e1 i = |ii = @ 0 A ; |e2 i = |ji = @ 1 A , |e3 i = |ki = @ 0 A
0 0 1

y su base dual
ad

he1 | = hi| = (1 0 0), he2 | = hj| = (0 1 0), he3 | = hk| = (0 0 1),


⇥ ⇤
Consideremos un tensor en la base tensorial ei (1); ej (2) se expresa como:
0 1
2 1 3
rr

Tji = @ 2 3 4 A .
1 2 2

Este ejercicio consiste en ver cómo calcular las expresiones de los siguientes tensores: T̃ij , T̃ij y T̃ ij , si
Bo

consideramos una nueva base:

|w̃1 i = |ii , |w̃2 i = |ii + |ji y |w̃3 i = |ii + |ji + |ki , hw̃1 | = hi| , hw̃2 | = hi| + hj| y hw̃3 | = hi| + hj| + hk| ,

188
3.2. TENSORES Y PRODUCTO TENSORIAL

⌦ k k
⌦ k base no es ortogonal , w̃ |w̃i i 6= i , con lo cual no se cumplen muchas cosas,
Nótese que la nueva
entre ellas: |w̃k i w̃ 6= 1. Pero sin duda se cumple que para transformar componentes de un tensor
tendremos siempre la relación
k @ x̃k @xj i
T̃m = T .
@xi @ x̃m j
k j
Tenemos que identificar las matrices de transformación @@xx̃ @x
i y @ x̃m . Estas matrices de transformación son

las mismas que transforman componentes (contravariantes) de vectores y las componentes (covariantes)
de covectores o formas, i.e.

ar
@ x̃i k @xm
ãi = a , ã k = am
@xk @ x̃k
y además son las mismas matrices que devuelven el cambio de un sistema de coordenadas a otro:

in
@xi k @ x̃m
ai = ã , ak = ãm .
@ x̃k @xk
@xi @ x̃k i
Adicionalmente, estas matrices son una la inversa de la otra @ x̃k @xj
= j.

m
Para identificar esas matrices recordamos que un vector genérico transforma de la siguiente manera:
|ai = aj |ej i = ãj |w̃j i , por lo tanto:

|ai = aj |ej i = ã1 |w̃1 i + ã2 |w̃2 i + ã3 |w̃3 i = ã1 |e1 i + ã2 (|e1 i + |e2 i) + ã3 (|e1 i + |e2 i + |e3 i) ,

eli

donde hemos sustituido la expresión de la base w̃ ˜ i en términos de la base {|ej i} con lo cual:

|ai = a1 |e1 i + a2 |e2 i + a3 |e3 i = ã1 + ã2 + ã3 |e1 i + ã2 + ã3 |e2 i + ã3 |e3 i .
Pr
Lo que nos lleva al siguiente sistema de ecuaciones:
8
> @x1 @x1 @x1
9 >
> @ x̃1 = 1; @ x̃2 = 1; @ x̃3 =1
>
>
a1 = ã1 + ã2 + ã3 = <
@xi k @x2 @x2 @x2
a2 = ã2 + ã3 ) ai = ã ) @ x̃1 = 0; @ x̃2 = 1; @ x̃3 =1
; @ x̃k >
>
a3 = ã3 >
>
>
: @x3 @x3 @x3
= 0; = 0; =1
or

@ x̃1 @ x̃2 @ x̃3

Es de hacer notar que dado que la base: {|e1 i , |e2 i , |e3 i} ⌘ {|ii , |ji , |ki} es ortonormal, se tiene que:
⌦ ⌦ ⌦ @xi ⌦ i
|ai = aj |ej i = ãi |w̃i i ) ei ai = aj ei |ej i = aj i
= ai = ãk ei |w̃k i ) = e |w̃k i .
ad

j
@ x̃k

Este mismo procedimiento se puede aplicar para expresar el vector |ai como una combinación lineal
de los vectores |w̃j i:

|ai = ãj |ẽj i = aj |ej i = a1 |e1 i + a2 |e2 i + a3 |e3 i = a1 |w̃1 i + a2 (|w̃2 i |w̃1 i) + a3 (|w̃3 i |w̃2 i) ,
rr

esto es: 8
> @ x̃1 @ x̃1 @ x̃1
9 >
> @x1 = 1; @x2 = 1; @x3 =0
>
>
ã1 = a1 a2 =
Bo

@ x̃k i <
ã2 = a2 a3 ) ãk = a ) @ x̃2 @ x̃2 @ x̃2
@x1 = 0; @x2 = 1; @x3 = 1
; @xi >
>
ã3 = a3 >
>
>
: @ x̃3 @ x̃3 @ x̃3
@x1 = 0; @x2 = 0; @x3 =1

189
3.2. TENSORES Y PRODUCTO TENSORIAL

Nótese que, como era de esperarse:


0 10 1 0 1
1 1 1 1 1 0 1 0 0
@xi @ x̃k @ 0
= i
j ) 1 1 A@ 0 1 1 A=@ 0 1 0 A.
@ x̃k @xj
0 0 1 0 0 1 0 0 1

Con las expresiones matriciales para las transformaciones, estamos en capacidad de calcular, compo-
nente a componente, las representación del tensor dado en la nueva base:

ar
k @ x̃k @xj i
T̃m = T .
@xi @ x̃m j

Veamos:

in
@ x̃1 @xj i
T̃11 = T
@xi @✓x̃1 j ◆ ✓ ◆
@ x̃1 @x1 1 @x2 1 @x3 1 @ x̃1 @x1 2 @x2 2 @x3 2
= T + T + T + T + T + T
@x1 @ x̃1 1 @ x̃1 2 @ x̃1 3 @x2 @ x̃1 1 @ x̃1 2 @ x̃1 3

m
✓ ◆
@ x̃1 @x1 3 @x2 3 @x3 3
+ T + T + T ,
@x3 @ x̃1 1 @ x̃1 2 @ x̃1 3

eli
es decir:

T̃11 = 1 · 1 T11 + 0 T21 + 0 T31 1 · 1 T12 + 0 T22 + 0 T32 + 0 1 T13 + 0 T23 + 0 T33
= T11 T12 = 2 2 = 0.

Del mismo modo para T̃21 :


Pr
@ x̃1 @xj i
T̃21 = T
@xi @✓x̃2 j ◆ ✓ ◆
@ x̃1 @x1 1 @x2 1 @x3 1 @ x̃1 @x1 2 @x2 2 @x3 2
= T + T + T + T + T + T
@x1 @ x̃2 1 @ x̃2 2 @ x̃2 3 @x2 @ x̃2 1 @ x̃2 2 @ x̃2 3
✓ ◆
or

@ x̃1 @x1 3 @x2 3 @x3 3


+ T + T + T ,
@x3 @ x̃2 1 @ x̃2 2 @ x̃2 3
resultando:
ad

T̃21 = 1 · 1 T11 + 1 T21 + 0 T31 1 · 1 T12 + 1 T22 + 0 T32 + 0 1 T13 + 1 T23 + 0 T31
= T11 + T21 T12 + T22 = (2 + 1) (2 + 3) = 2.

Se puede continuar término a término (el lector debe terminar los cálculos) o realizar la multiplicación
rr

de las matrices provenientes de la transformación de componentes de tensores. Vale decir:


0 10 10 1 0 1
✓ k◆ ✓ j◆ 1 1 0 2 1 3 1 1 1 0 2 3
@ x̃ @x
k
T̃m = Tji , @ 0 1 1 A@ 2 3 4 A@ 0 1 1 A = @ 1 2 4 A.
@xi @ x̃m
Bo

0 0 1 1 2 2 0 0 1 1 3 5

Hay que resaltar el especial cuidado que se tuvo en la ubicación de las matrices para su multiplicación.
x̃k @xj @ x̃k
k
Si bien en la expresión T̃m = @@x i
i @ x̃m Tj las cantidades @xi son números y no importa el orden con

190
3.2. TENSORES Y PRODUCTO TENSORIAL

el cual se multipliquen, cuando se escriben como matrices debe respetarse la “concatenación interna
k
de ı́ndices”. Esto es, cuando queremos expresar T̃m como una matriz, donde el ı́ndice contravariante k
indica filas y el ı́ndice covariante m las columnas, fijamos primero estos ı́ndices y luego respetamos la
“concatenación de ı́ndices” covariantes con los contravariantes. Esta es la convención para expresar la
multiplicación de matrices en la notación de ı́ndices7 . Esto es:

@ x̃k @xj i ⇣ ⌘ ✓ @ x̃k ◆ ✓ j◆


@x
k k i
T̃m = T ) T̃m = Tj .
@xi @ x̃m j @xi @ x̃m

ar
k j
Los objetos @@x
x̃ i @x
i , Tj y @ x̃m fueron sustituidos (en sus puestos correspondientes) por su representación

matricial. Con lo cual hemos encontrado la representación matricial T̃ij de las componentes del tensor
T en la base {|w̃1 i , |w̃2 i , |w̃3 i}

in
0 1 0 1
T̃11 T̃21 T̃21 0 2 3
T̃ij = @ T̃12 T̃22 T̃32 A = @ 1 2 4 A.
T̃13 T̃23 T̃33 1 3 5

m
Para encontrar la expresión de T̃ij (T̃ij = g̃ik T̃jk ), requeriremos las componentes covariantes y contra-
variantes del tensor métrico g̃ik que genera esta base. Para ello recordamos que para una base genérica,
{|w̃j i}, no necesariamente ortogonal, de un espacio vectorial con producto interno, podemos definir la

eli
expresión de un tensor que denominaremos tensor métrico como:
✓ ◆
0 @xm @xn
un tensor del tipo ) g̃ij = gmn ⌘ hem |w̃i i hen |w̃j i gmn .
2 @ x̃i @ x̃j
Pr
Recordemos que la métrica covariante gij generada por una base ortonormal {|ei i} ⌘ {|ii i} es:

g11 = 1 , g22 = 1 , g33 = 1 , g12 = g21 = g13 = g31 = g23 = g32 = 0 .

Es decir: 0 1
1 0 0
gij = g ij = gji () @ 0 1 0 A.
or

0 0 1

Con lo cual, para el caso de la base genérica no ortonormal {|w̃j i} tenemos dos formas de calcular las
componentes covariantes y contravariantes del tensor métrico.
ad

La primera es la forma directa: g̃ij = hem |w̃i i hen |w̃j i gmn . Esto es:
⌦ ⌦ ⌦ ⌦ ⌦ ⌦
g̃11 = hen |w̃1 i hem |w̃1 i gnm = e1 |w̃1 i e1 |w̃1 i + e2 |w̃1 i e2 |w̃1 i + e3 |w̃1 i e3 |w̃1 i
⌦ 1 2
= e |w̃1 i = 1 ⌦ 1 ⌦ 1 ⌦ 2 ⌦ 2 ⌦ 3 ⌦ 3
n m
g̃12 = he
⌦ 1 |w̃1 i he
⌦ 1 |w̃2 i gnm = e |w̃1 i e |w̃2 i + e |w̃1 i e |w̃2 i + e |w̃1 i e |w̃2 i
rr

= e |w̃1 i e |w̃2 i = 1 ⌦ 1 ⌦ 1 ⌦ 2 ⌦ 2 ⌦ 3 ⌦ 3
n m
g̃13 = he
⌦ 1 |w̃1 i he
⌦ 1 |w̃3 i gnm = e |w̃1 i e |w̃3 i + e |w̃1 i e |w̃3 i + e |w̃1 i e |w̃3 i
= e |w̃1 i e |w̃3 i = 1
Bo

7 Quizá una forma de comprobar si los ı́ndices están bien concatenados se observa si se “bajan” los ı́ndices contravariantes

pero se colocan antes que los covariantes. Esto es, Tji ! Tij . Ası́, la multiplicación de matrices queda representada de la siguiente
forma: Cji = Aik Bjk ! Cij = Aik Bkj y aquı́ es claro que ı́ndices consecutivos están “concatenados” e indican multiplicación.

191
3.2. TENSORES Y PRODUCTO TENSORIAL

n m
⌦ 1 ⌦ 1 ⌦ 2 ⌦ 2 ⌦ 3 ⌦
g̃21 = he
⌦ 1 |w̃2 i he
⌦ 1 |w̃1 i gnm = e |w̃2 i e |w̃1 i + e |w̃2 i e |w̃1 i + e |w̃2 i e3 |w̃1 i
= e |w̃2 i e |w̃1 i = 1 ⌦ ⌦ ⌦ ⌦ ⌦ ⌦
n m
g̃22 = he
⌦ 1 |w̃2 i he
⌦ 1 |w̃2 i⌦gnm = ⌦e1 |w̃2 i e1 |w̃2 i + e2 |w̃2 i e2 |w̃2 i + e3 |w̃2 i e3 |w̃2 i
= e |w̃2 i e |w̃2 i e2 |w̃2 i⌦ e2 |w̃2 i⌦ = 2 ⌦ 2 ⌦ 2 ⌦ 3 ⌦
n m 1 1
g̃23 = he
⌦ 1 |w̃2 i he
⌦ 1 |w̃3 i gnm
⌦ 2= e ⌦|w̃22 i e |w̃3 i + e |w̃2 i e |w̃3 i + e |w̃2 i e3 |w̃3 i
= e |w̃2 i e |w̃3 i + e |w̃2 i e |w̃3 i = 2
n m
⌦ 1 ⌦ 1 ⌦ 2 ⌦ 2 ⌦ 3 ⌦
g̃31 = he
⌦ 1 |w̃3 i he
⌦ 1 |w̃1 i gnm = e |w̃3 i e |w̃1 i + e |w̃3 i e |w̃1 i + e |w̃3 i e3 |w̃1 i
= e |w̃3 i e |w̃1 i = 1 ⌦ 1 ⌦ 1 ⌦ 2 ⌦ 2 ⌦ 3 ⌦

ar
n m
g̃32 = he
⌦ 1 |w̃3 i he
⌦ 1 |w̃2 i gnm
⌦ 2= e ⌦|w̃23 i e |w̃2 i + e |w̃3 i e |w̃2 i + e |w̃3 i e3 |w̃2 i
= e |w̃3 i e |w̃2 i + e |w̃⌦3 i e |w̃⌦2 i = 2 ⌦ 2 ⌦ 2 ⌦ 3 ⌦
n m 1 1
g̃33 = he
⌦ 1 |w̃3 i he
⌦ 1 |w̃3 i gnm
⌦ 2= e ⌦|w̃23 i e |w̃⌦3 i3+ e ⌦|w̃33 i e |w̃3 i + e |w̃3 i e3 |w̃3 i
= e |w̃3 i e |w̃3 i + e |w̃3 i e |w̃3 i + e |w̃3 i e |w̃3 i = 3

in
De manera que:
g̃ij ) g̃11 = 1 , g̃12 = 1 , g̃13 = 1 , g̃21 = 1 , g̃22 = 2 , g̃23 = 2 , g̃31 = 1 , g̃32 = 2 , g̃33 = 3 .

m
Consecuentemente podemos “arreglarlo como una matriz”8 de la siguiente forma:
0 1 0 1
1 1 1 2 1 0
1
g̃ij ⌘ g̃ji () @ 1 2 2 A ) g̃ ij ⌘ g̃ ji = (g̃ij ) () @ 1 2 1 A.

eli
1 2 3 0 1 1

Nótese que también podrı́amos haber procedido, y en términos “matriciales”, de la siguiente forma:
0 10 10 1 0 1
1 0 0 1 0 0 1 1 1 1 1 1
@xi @xj @ 1 1 0 A@ 0 1 0 A@ 0 1 1 A = @ 1 2 2 A .
g̃km =
@ x̃k
g ij
@ x̃m
)
Pr
1 1 1 0 0 1 0 0 1 1 2 3

Nuevamente es bueno aclarar que para conservar la convención de ı́ndices y poder representar la
multiplicación de matrices, los ı́ndices deben estar consecutivos, por lo tanto, hay que trasponer la
representación matricial para multiplicarlas. Es por eso que en el cálculo anterior aparece como primera
matriz la transpuesta de la última. El cálculo se debe hacer como se muestra a continuación:
or

@xi @xj ¯ ki gij ⇧jm .


g̃km = g ij ! g̃km = ⇧ik gij ⇧jm ! g̃km = ⇧
@ x̃k @ x̃m

Finalmente, estamos en capacidad de obtener las representaciones matriciales para los tensores: T̃ij , T̃ij , T̃ ij .
ad

0 1T 0 1
0 2 3 0 1 1
j j
T̃i = (T̃ji )T () T̃i = @ 1 2 4 A =@ 2 2 3 A.
1 3 5 3 4 5
0 10 1 0 1
1 1 1 0 2 3 2 3 6
rr

T̃km = g̃kn T̃m n


() T̃km = @ 1 2 2 A @ 1 2 4 A = @ 4 8 15 A .
1 2 3 1 3 5 5 11 20
0 10 1 0 1
0 2 3 2 1 0 2 1 1
Bo

T̃ kn = T̃m
n mk
g̃ () T̃ kn = @ 1 2 4 A@ 1 2 1 A=@ 0 1 2 A.
1 3 5 0 1 1 1 0 2
8 Recordemos que hemos insistido que las matrices representan tensores mixtos

192
3.2. TENSORES Y PRODUCTO TENSORIAL

Quisiéramos ejemplificar una forma “rápida y furiosa” (pero sucia) de calcular la métrica generada por
una determinada base genérica. La idea es que, violentando toda nuestra notación e idea de tensores,
construimos la métrica a partir de los vectores base definiéndola como g̃ij = hw̃i |w̃i i, de esta manera:
0 1
hw̃1 |w̃1 i hw̃1 |w̃2 i hw̃1 |w̃3 i
g̃ij = @ hw̃2 |w̃1 i hw̃2 |w̃2 i hw̃2 |w̃3 i A
hw̃3 |w̃1 i hw̃3 |w̃2 i hw̃3 |w̃3 i
0 1 0 1
hi |ii hi| [|ii + |ji] hi| [|ii + |ji + |ki] 1 1 1
= @ A=@ 1 2 2 A.

ar
[hi| + hj|] |ii [hi| + hj|] [|ii + |ji] [hi| + hj|] [|ii + |ji + |ki]
[hi| + hj| + hk|] |ii [hi| + hj| + hk|] [|ii + |ji] [hi| + hj| + hk|] [|ii + |ji + |ki] 1 2 3

Dejamos al lector, la reflexión si esta forma “rápida de calcular la métrica” a partir de unos vectores

in
base es general o, si en su defecto, es una coincidencia únicamente válida para este caso.
4. Otros ejemplos con tensores cartesianos
a) Dado los tensores: 0 1 0
1

m
1 0 2 1
Tij = @ 3 4 1 A, Ei = @ 4 A .
1 3 4 3

eli
La parte simétrica de Tij es:
20 1 0 13 0 1
1 0 2 1 3 1 2 3 3
1 1 4@ 1
Sij = [Tij + Tji ] = 3 4 1 A+@ 0 4 3 A5 = @ 3 8 4 A.
2 2 2
1 3 4 2 1 4 3 4 8
Pr
Para la parte antisimétrica de Tij :
20 1 0 13 0 1
1 0 2 1 3 1 0 3 1
1 1 4@ 1
Aij = [Tij Tji ] = 3 4 1 A @ 0 4 3 A5 = @ 3 0 2 A.
2 2 2
1 3 4 2 1 4 1 2 0
or

Por lo tanto:
20 1 0 13 0 1
2 3 3 0 3 1 1 0 2
1 4@
Tij = Sij + Aij = 3 8 4 A+@ 3 0 2 A5 = @ 3 4 1 A.
2
ad

3 4 8 1 2 0 1 3 4

Para calcular Tij E j hacemos lo siguiente:


8
< C1 = T11 E 1 + T12 E 2 + T13 E 3 = (1)(1) + (0)(4) + (2)(3) = 7
1 2 3
Ci = Ti1 E + Ti2 E + Ti3 E = C2 = T21 E 1 + T22 E 2 + T23 E 3 = (3)(1) + (4)(4) + (1)(3) = 22
rr

:
C3 = T31 E 1 + T32 E 2 + T33 E 3 = (1)(1) + (3)(4) + (4)(3) = 25

b) Dados Tji , ai y bi 2 R3 con:


Bo

0 1 0 1 0 1
1 0 3 5 2
Tji = @ 3 4 1 A, a=@ 2 A y b=@ 5 A.
3 1 4 5 4

193
3.2. TENSORES Y PRODUCTO TENSORIAL

Supongamos que Tji , a y b están expresados en coordenadas cartesianas.


Vamos a calcular: Aij ai bj , Sij ai aj y Aij bi bj , donde Sij y Akl son, respectivamente, las partes
simétrica y antisimétrica del tensor Tji .
La métrica en coordenadas cartesianas viene dada por:
0 1
1 0 0
gij = @ 0 1 0 A .
0 0 1

ar
Tendremos que:
00 1 0 11 0 1
1 0 3 1 3 3 2 3 6
1 1 @@ 1
Sij = (Tij + Tji ) = 3 4 1 A+@ 0 4 1 AA = @ 3 8 2 A.

in
2 2 2
3 1 4 3 1 4 6 2 8

Nótese que la expresión matricial para Tij ⌘ gik Tjk es la misma que para Tji debido a la forma de
la métrica en este espacio. Del mismo modo:

m
00 1 0 11 0 1
1 0 3 1 3 3 0 3 0
1 1 1
Aij = (Tij Tji ) = @@ 3 4 1 A @ 0 4 1 AA = @ 3 0 0 A,
2 2 2
3 1 4 3 1 4 0 0 0

eli
por lo tanto:
0 10 1
0 3 0 2
1 @ 3 87
ai Aij bj = 5 2 5 0 0 A@ 5 A = ,
2 2
Pr 0 0 0 4

0 10 1
2 3 6 5
1 @ 3
ai Sij aj = 5 2 5 8 2 A@ 2 A = 1,
2
6 2 8 5
or

bi Aij bj = 0 .

5. Sistema genérico de coordenadas. Dado un sistema genérico de coordenadas oblicuas:


ad

|e1 i = a |ii + b |ji , |e2 i = c |ii + d |ji .

a) Para una base arbitraria, {|ei i}, la métrica viene definida por:

gij ⌘ gji = g [|ei i , |ej i] ⌘ ei |ej i
✓ ⌦ 1 ⌦ ◆ ✓ 2 ◆
rr

⌦ e |e1 i ⌦e1 |e2 i a + b2 ac + bd


gij = = .
e2 |e1 i e2 |e2 i ac + bd c2 + d2

b) Un vector genérico: |vi = vx |ii + vy |ji, en estas coordenadas se escribe como:


Bo

9 8
|e1 i = a |ii + b |ji = < |ii = 1 (d |e1 i b |e2 i)
,
; :
|e2 i = c |ii + d |ji |ji = 1 ( c |e1 i + a |e2 i)

194
3.2. TENSORES Y PRODUCTO TENSORIAL

con = ad bc, por lo cual:


vx vy
|vi = vx |ii + vy |ji = (d |e1 i b |e2 i) + ( c |e1 i + a |e2 i)

⇣ v vy ⌘ ⇣ v vy ⌘
x x
= d c |e1 i b a |e2 i .

c) Consideremos ahora una base y un tensor de manera concreta.

ar
p p ✓ ◆
2 2 i 4 2
|e1 i = |ii , |e2 i = |ii + |ji , Tj = .
2 2 1 4

Encontremos primero la expresión matricial para el tensor T̃ij 9 .

in
En general:
@ x̃k @xn
T̃ij = gik T̃jk = gik m Tnm j ,
@x @ x̃

m
Identificando:
@ x̃1 j @ x̃1 1 @ x̃1 2 d c
ṽx = ṽ 1 = j
v = v + v = vx vy ,
@x @x1 @x2

eli
@ x̃2 j @ x̃2 1 @ x̃2 2 b a
ṽy = ṽ 2 = v = v + v = vx + vy ,
@xj @x1 @x2
@ x̃1 d @ x̃1 c @ x̃2 b @ x̃2 a
donde: = , = , @x1 = y = .
@x1 @x2
p
2
Prp
@x2
Como a = 1, b = 0, c = 2 ,d = 22 , entonces:
p ! ✓ ◆ ✓ ◆ !
1 p1
1 2
2 @ x̃k 1 p1 @xn @ x̃n 1 2
gik ) p , ) , = ) p1
.
2
1 @xm 0 2 @ x̃j @xj 0 2
2

Finalmente:
or

p !✓ ◆✓ ◆ ! ✓ p ◆
2
1 1 p1 4 3 2
T̃ij =
1
p 2 p1 4 2 2 = .
2 0 2 1 4 0 p1 p5 11
2 1 2 2 2
ad

6. Cartesianas y polares, otra vez


El ejemplo más simple, y por ello clásico y emblemático de cambio de coordenadas, lo constituye las
expresiones de un mismo vector en dos sistemas de coordenadas en el plano: Cartesianas {|ii , |ji} y
polares {|ur i , |u✓ i}. Esto es, para un vector |ai:
rr

|ai = ax |ii + ax |ji = a1 |e1 i + a2 |e2 i y |ai = ar |ur i + a✓ |u✓ i = ã1 |ẽ1 i + ã2 |ẽ2 i .

Al expresar una base en términos de la otra obtenemos:


Bo

|ur i = cos(✓) |ii + sen(✓) |ji y |u✓ i = sen(✓) |ii + cos(✓) |ji ,
✓ ◆ !
D B
9 Ayuda: A B
dada una matriz genérica Aij = , su inversa será AD BC
C
AD BC
A .
C D AD BC AD BC

195
3.2. TENSORES Y PRODUCTO TENSORIAL

con lo cual:
✓ ◆ ✓ ◆
⌦ i hur |ii hur |ji cos(✓) sen(✓)
ẽ |ej i = Ãij () Ãij = ⌘ .
hu✓ |ii hu✓ |ji sen(✓) cos(✓)

Para la transformación inversa se tiene:


✓ ◆ ✓ ◆
⌦ i hi |ur i hi |u✓ i cos(✓) sen(✓)
e |ẽj i = Aij () Aij = ⌘ .
hj |ur i hj |u✓ i sen(✓) cos(✓)

ar
y por lo tanto:

|ii = cos(✓) |ur i sen(✓) |u✓ i y |ji = sen(✓) |ur i + cos(✓) |u✓ i .

in
Cumpliendo además con:
✓ ◆✓ ◆ ✓ ◆
cos(✓) sen(✓) cos(✓) sen(✓) 1 0
= () Aik Ãkj = i
j .
sen(✓) cos(✓) sen(✓) cos(✓) 0 1

m
Por otro lado, si:

|ai = ar |ur i + a✓ |u✓ i ⌘ ã1 |ẽ1 i + ã2 |ẽ2 i = ax |ii + ax |ji ⌘ a1 |e1 i + a2 |e2 i ,

eli
tendremos que:
✓ ◆ ✓ ◆✓ ◆ ✓ ◆
i ar cos(✓) sen(✓) ax ax cos(✓) + ay sen(✓)
ã = Ãij aj () = = ,
a✓ sen(✓) cos(✓) ay ax sen(✓) + ay cos(✓)

con lo cual:
Pr
ar = ax cos(✓) + ay sen(✓) y a✓ = ax sen(✓) + ay cos(✓) .

Del mismo modo:


✓ ◆ ✓ ◆✓ ◆ ✓ ◆
i ax cos(✓) sen(✓) ar ar cos(✓) a✓ sen(✓)
a = Aij ãj () = =
ay sen(✓) cos(✓) a✓ ar sen(✓) + a✓ cos(✓)
or

y
ax = ar cos(✓) a✓ sen(✓) y ay = ar sen(✓) + a✓ cos(✓) .

7. Pensando en componentes
ad

Arriba consideramos los cambios de base entre cartesianas y polares. A partir de cambios de la base
construimos la matriz de transformación entre sus componentes. Ahora pondremos la atención en las
componentes. En general, podemos pensar que las componentes de los vectores pueden ser funciones
de las otras. Consideremos el ejemplo anterior con esta visión para estudiarlo con más detalle en dos
rr

y tres dimensiones.

Caso bidimensional
Tendremos que un punto en el plano viene representado en coordenadas cartesianas por dos
Bo

números (x, y) y en coordenadas polares por otros dos números (r, ✓). Siguiendo el ejemplo anterior
un punto P , en el plano lo describimos como:

|P i = rP |ur i = xP |ii + yP |ji .

196
3.2. TENSORES Y PRODUCTO TENSORIAL

Veamos como están relacionadas estas dos descripciones, para este caso en el cual las ecuaciones
de transformación son:

xP = xP (r, ✓) = x1 = x1 x̃1 , x̃2 rP = rP (x, y) = x̃1 = x̃1 x1 , x2
2 2 1 2 ()
yP = yP (r, ✓) = x = x x̃ , x̃ ✓ = ✓P (x, y) = x̃2 = x̃2 x1 , x2

y explı́citamente:
8 q
1 1 2 < r = px2 + y 2 1 2
) x̃ = (x1 ) + (x2 )
2
xP = rP cos(✓) ) x = x̃ cos(x̃ ) P P⇣ P
⌘ ⇣ 2⌘
y

ar
yP = rP sen(✓) ) x2 = x̃1 sen(x̃2 ) : ✓ = arctan yP ) x̃2 = arctan xx1
xP

Es claro que ambas coordenadas están relacionadas y que se puede invertir la relación.
⇢ 1

in
x̃1 = x̃1 x1 , x2 x = x1 x̃1 , x̃2
2 2 1 2 () .
x̃ = x̃ x , x x2 = x2 x̃1 , x̃2

Se debe pedir, eso si, dos cosas razonables:

m
a) que las funciones xi = xi (x̃m ) y x̃j = x̃j (xm ) sean al menos C 2 (función y derivada continua)
b) que el determinante de la matriz Jacobiana sea finito,

@xi x̃k

eli
det 6= 0 .
@ x̃j

Más aún, si:


@xi @xi @ x̃j @xi j
xi = xi x̃j xk ) = = i
k ) dxi = dx̃ ,
Pr @x k @ x̃j @xk @ x̃j
con lo cual intuimos dos cosas:
a) que las componentes de un vector, |P i, deben transformar bajo un cambio de coordenadas
como:
@xi x̃k j
pi = p̃ .
@ x̃j
or

@xi @ x̃i
b) Las matrices jacobianas @ x̃k
y @xk
son una la inversa de la otra.
Veamos si es cierto para el caso de vectores en el plano. Para ello calculamos la matriz jacobiana:
0 @x1 (x̃1 ,x̃2 ) @x1 (x̃1 ,x̃2 )
1
i 1 2 ✓ ◆
ad

@x x̃ , x̃ B @ x̃1 @ x̃2 C cos(x̃2 ) x̃1 sen(x̃2 )


) @ A= ,
@ x̃j @x2 (x̃1 ,x̃2 ) @x2 (x̃1 ,x̃2 )
sen(x̃2 ) x̃1 cos(x̃2 )
@ x̃1 @ x̃2
y seguidamente, identificando |P i = xP |ii + yP |ji = rP |ur i
✓ 1 ◆ ✓ ◆✓ 1 ◆
rr

@xi x̃1 , x̃2 j p cos(x̃2 ) x̃1 sen(x̃2 ) p̃


pi = p̃ ) = .
@ x̃j p2 sen(x̃2 ) x̃1 cos(x̃2 ) 0

Igualmente, si calculamos la inversa de la matriz jacobiana:


Bo

! 1 ! 0 1
x2
1
@xi x̃1 , x̃2 cos(x̃2 ) sen(x̃2 ) p x2 p
2 )2 (x1 )2 +(x2 )2
= @ (x ) +(x A,
1
= sen(x̃2 ) cos(x̃2 )
@ x̃j x2 x1
x̃1 x̃1 1 2 2 2 (x ) +(x ) (x1 )2 +(x2 )2

197
3.2. TENSORES Y PRODUCTO TENSORIAL

tendremos:
0 1
✓ ◆ p x1 p x2 ✓ ◆
1
p̃ (x1 )2 +(x2 )2 (x1 )2 +(x2 )2 p1 @ x̃i x1 , x2 j
=@ A ) p̃i = p .
0 x2 x1 p2 @xj
(x1 )2 +(x2 )2 (x1 )2 +(x2 )2

Caso tridimensional
Consideremos nuevamente dos sistemas de coordenadas: uno cartesiano x1 = x, x2 = y, x3 = z
y otro esférico x̃1 = r, x̃2 = ✓, x̃3 = .

ar
Tal y como hemos supuesto anteriormente el punto P vendrá descrito por:

|P i = rP |ur i = xP |ii + yP |ji + zP |ki ,

de nuevo

in
9 8
x = x (r, ✓, ) = x1 = x1 x̃1 , x̃2 , x̃3 = < r = r (x, y, z) = x̃1 = x̃1 x1 , x2 , x3
y = y (r, ✓, ) = x2 = x2 x̃1 , x̃2 , x̃3 () ✓ = ✓ (x, y, z) = x̃2 = x̃2 x1 , x2 , x3
; :
z = z (r, ✓, ) = x3 = x3 x̃1 , x̃2 , x̃3 = (x, y, z) = x̃3 = x̃3 x1 , x2 , x3

m
Las ecuaciones de transformación serán:
8
< xP = rP sen(✓) cos( ) ) x1 = x̃1 sen(x̃2 ) cos(x̃3 )
yP = rP sen(✓)sen( ) ) x2 = x̃1 sen(x̃2 )sen(x̃3 )

eli
:
zP = rP cos(✓) ) x3 = x̃1 cos(x̃2 )
y las transformaciones inversas:
8 p q
>
> rP = x2P + yP2 + zP2 ) x̃1 =
2
(x1 ) + (x2 ) + (x3 )
2 2
>
>
< ⇣ ⌘
Pr ⇣ 2⌘
= arctan xyPP ) x̃2 = arctan xx1
> ✓p ◆ ✓p ◆
>
> x2P +yP
2
(x1 )2 +(x2 )2
>
: ✓ = arctan ) x̃3 = arctan 3
zP x

Con lo cual la matriz de las derivadas para esta transformación en particular será:
0 1
or

@xi x̃1 , x̃2 , x̃3 sen (✓) cos ( ) rsen (✓) sen ( ) r cos (✓) cos ( )
= @ sen (✓) sen ( ) rsen (✓) cos ( ) r cos (✓) sen ( ) A
@ x̃j
cos (✓) 0 rsen (✓)
0 2 3 1 2 3
1
sen x̃ cos x̃ x̃ sen x̃ sen x̃ x̃1 cos x̃2 cos x̃3
ad

= @ 2
sen x̃ sen x̃ 3 1 2
x̃ sen x̃ cos x̃ 3
x̃1 cos x̃2 sen x̃3 A.
2
cos x̃ 0 x̃1 sen x̃2

Mientras que la inversa es:


0 1
sen (✓) cos ( ) sen (✓) sen ( ) cos (✓)
rr

i 1 2 3
@ x̃ x , x , x B sen( ) cos( ) C
= @ rsen(✓) rsen(✓) 0 A
@xj cos(✓) cos( ) cos(✓)sen( ) sen(✓)
r r r
0 p 2 x2 2 p y p z 1
Bo

x +y +z x2 +y 2 +z 2 x2 +y 2 +z 2
B y x C
= B x2 +y 2 x2 +y 2 0 C.
@ p A
xz p yz p x2 +y 2
(x2 +y 2 +z 2 ) x2 +y 2 (x2 +y 2 +z 2 ) x2 +y 2 (x2 +y 2 +z 2 )

198
3.2. TENSORES Y PRODUCTO TENSORIAL

Dejaremos al lector comprobar que, efectivamente,

@xi x̃1 , x̃2 , x̃3 j @ x̃i x1 , x2 , x3 j


pi = p̃ () p̃i = p .
@ x̃j @xj
8. Algunos tensores en Fı́sica: Esfuerzos, Inercia y Energı́a libre de un medio elástico En este
punto vamos a ejemplificar la utilización de los tensores en varios ámbitos de la Fı́sica, en particular de
la Mecánica. Para comenzar consideraremos el tensor de esfuerzos para describir las tensiones internas
de cuerpos sometidos a fuerzas externas10 . Haremos el análisis tanto para el caso de dos como de tres

ar
dimensiones. Luego a continuación consideraremos el tensor de inercia y su impacto en la dinámica de
cuerpos en movimiento.
a) El tensor de esfuerzos (stress) caso 2D Supongamos un cuerpo que se encuentra en equilibrio

in
y está sometido a un conjunto de fuerzas externas. Para facilitar las cosas consideremos el efecto
de esas fuerzas sobre un plano que contiene a un determinado punto P (ver figura 3.2 cuadrante
Ia). Es decir, vamos a considerar los efectos de las componentes de todas las fuerzas sobre ese
plano y obviaremos el efecto del resto de las componentes.

m
Como observamos en la figura 3.2 Ib y Ic, si cortamos la superficie en dos lı́neas (AB y A0 B 0 ),
podemos ver que el efecto del conjunto de fuerzas externas es distinto sobre P , en la dirección
perpendicular a cada una de esas lı́neas. De hecho, al “cortar” la superficie las fuerzas que aparecen
sobre las lı́neas AB (y A0 B 0 ) eran fuerzas internas y ahora son externas al nuevo cuerpo “cortado”.

eli
Ası́, estas fuerzas por unidad de longitud11 sobre el punto P existen como un conjunto de fuerzas
que generan esfuerzos (stress). Por lo tanto, es claro que los esfuerzos sobre un punto dependen
del punto, de las fuerzas externas y de la dirección del efecto.
Para irnos aclarando consideremos un elemento de área infinitesimal ds sobre la cual actúa un
conjunto de fuerzas externas, las cuales podemos descomponer como normales y tangenciales a la
Pr
lı́nea sobre la cual están aplicadas (ver figura 3.2 cuadrante II). Es costumbre denotar los esfuerzos
normales y tangenciales por y ⌧ respectivamente.
8
>
> " Y2 = 2 dx ! X2 = ⌧2 dx
>
>
< dx
Y3 = ⌧3 dy " " Y1 = ⌧1 dy
dA = dxdy ) dy ds dy
>
> X 3 = 3 dy ! ! X1 = 1 dy
or

>
> dx
:
" Y4 = 4 dx ! X4 = ⌧4 dx

Consideramos la segunda ley de Newton aplicada a cada diferencial de masa dm y obtendremos:


8
ad

X < ⌧1 dy + 2 dx + ⌧3 dy + 4 dx = 0 = ( 2 + 4 ) dx + (⌧1 + ⌧3 ) dy
Fext
i = dm a = 0 )
:
1 dy + ⌧2 dx + 3 dy + ⌧4 dx = 0 = (⌧2 + ⌧4 ) dx + ( 1 + 3 ) dy

con lo cual:
rr

2 = 4 , ⌧1 = ⌧ 3 , ⌧2 = ⌧4 , 1 = 3 .
10 Una presentación más contemporánea del tensor de esfuerzos la pueden encontrar en De Prunelé, E. (2007). Linear strain

tensor and di↵erential geometry. American Journal of Physics, 75(10), 881-887.


11 En el caso tridimensional, las fuerzas que generan los esfuerzos serán definidas como fuerzas por unidad de área. Ese caso
Bo

lo veremos en la próxima sección.

199
3.2. TENSORES Y PRODUCTO TENSORIAL

ar
in
m
eli
Pr
Figura 3.2: Tensor de Esfuerzos (stress) en 2 dimensiones
or

Como se trata de una situación en equilibrio, también la sumatoria de torques se tendrá que
anular. Esto significa que:
9
(⌧1 dy) dx
2 (⌧2 dx) dy2 =0 =
) ⌧1 = ⌧2 = ⌧3 = ⌧4 ,
ad

dy ;
(⌧3 dy) dx
2 (⌧ 4 dx) 2 = 0
entonces, nos damos cuenta que existen sólo tres cantidades independientes: dos esfuerzos normales
1 y 2 ; y un esfuerzo tangencial ⌧1 . Adicionalmente notamos que los esfuerzos tienen que ver
con la dirección de la fuerza y la superficie sobre la cual va aplicada. Con ello podemos diseñar
rr

la siguiente notación para los esfuerzos: ij . El primer ı́ndice indica la dirección de la fuerza y el
segundo la dirección de la normal de la superficie donde está aplicada. Ası́, tal y como muestra la
figura (ver figura 3.2 cuadrante II)
Bo

1 ⌘ xx , 4 ⌘ yy , ⌧2 ⌘ xy ⌘ yx .

El cambio de signo se debe a lo incómodo de la notación: 4 ⌘ y y ya que la normal de lado 4


apunta en la dirección y. Es importante también señalar que los esfuerzos en cualquier punto

200
3.2. TENSORES Y PRODUCTO TENSORIAL

contenido en el diferencial de área dA = dxdy deben ser considerado constantes, o lo que es lo


mismo, que podemos hacer tender a cero el área del diferencial y con ello asociar los esfuerzos ij
a un punto P contenido en dA sobre la cual hemos calculado los esfuerzos.
En esta misma lı́nea de razonamiento, nos podemos preguntar cuál es la expresión de los esfuerzos
cuando se miden respecto a una superficie genérica, definida por un vector normal n (ver figura 3.2
cuadrante III). Es decir, queremos conocer los esfuerzos medidos en el punto P y en la dirección
n, es decir, nn .
Por lo tanto, tendremos que:

ar
x ! xx dy + xy dx = nn ds cos( )+ sn ds sen( )
y ! yy dx + yx dy = nn ds sen( ) sn ds cos( )

Ahora bien, dado que dy = ds cos( ) y dx = ds sen( ), entonces podemos expresar:

in
nn = xx cos2 ( ) + xy sen( ) cos( ) + yx sen( ) cos( ) + yy sen (
2
)
2 2
sn = xx sen( ) cos( ) + xy sen ( ) yx cos ( ) yy sen( ) cos( )

m
y si ahora nos damos cuenta que si construimos una matriz:
✓ x ◆ ✓ ◆
i An Axs cos( ) sen( )
Aj = = ,
Ayn Ays sen( ) cos( )

eli
entonces:

nn = Axn Axn xx + Axn Ayn xy + Ayn Axn yx + Ayn Ayn yy ) nn = Ain Ajn ij coni, j = x, y

sn = Axs Axn xx + Axs Ayn xy


Pr
+ Ays Axn yx + Ays Ayn yy ) sn = Ais Ajn ij coni, j = x, y

es decir:
kl = Aik Ajl ij , con i, j, k, l = n, s .
Como ya hemos mencionado, y veremos más adelante con más detalle, cualquier objeto que
transforme como kl = Aik Ajl ij lo llamaremos tensor de segundo orden.
or

b) El tensor de esfuerzos (caso 3D) Podemos proceder como en el caso anterior estableciendo las
siguientes condiciones de equilibrio:
X X
Fext
i =0 y ⌧ ext
i = 0,
ad

con ello construimos un volumen (cúbico) diferencial y construimos los esfuerzos normales y
tangenciales, los cuales serán:

xx dydz , yy dxdz , zz dxdy , xz dxdy , yz dxdy , xy dxdz .


rr

Siguiendo el mismo proceso que involucra imponer el equilibrio, es fácil demostrar que al igual
que el caso anterior, el tensor de esfuerzos ij cumple con:

xz = zx , yz = zy , xy = yx .
Bo

Tendremos 6 componentes (tres normales y tres tangenciales) independientes. Es decir, si bien el


tensor de esfuerzos ij viene representado por una matriz 3 ⇥ 3 y por lo tanto tiene 9 elementos,
sólo 6 son independientes.

201
3.2. TENSORES Y PRODUCTO TENSORIAL

ar
in
Figura 3.3: Tensor de Esfuerzos en 3 dimensiones

m
Vayamos ahora el caso general para un tensor de esfuerzos en un medio elástico. Para ello cons-
truimos un tetraedro regular tal y como muestra la figura 3.3, y sobre su cara genérica asociada
a un vector normal n una fuerza F:

eli
8 9
> Fx = xn dSn >
>
> >
>
>
< >
=
i
F = F i i = Fx i + F y j + Fz k ) Fy = yn dSn ) F i = ji nj dS ) F = · dS .
>
> >
>
>
> >
>
: ;
Pr Fz = zn dSn
De ésta manera se especifica como la fuerza actúa sobre un determinado elemento de superficie.
Es claro que la condición de equilibrio se traduce en:
X 1 1 1
Fxi = 0 ) xn dSn xx dy dz xy dx dz xz dx dy = 0 ,
2 2 2
or

X 1 1 1
Fyi = 0 ) yn dSn yx dy dz yy dx dz yz dx dy = 0 ,
2 2 2
ad

X 1 1 1
Fzi = 0 ) zn dSn zx dy dz zy dx dz zz dx dy = 0 .
2 2 2
Si consideramos la proyección de dSn sobre cada uno de los planos del sistema cartesiano tendre-
mos: 9
dS n cos (i; n) = 12 dy dz = dS n Axn >
rr

>
>
>
=
n 1
dS cos (j; n) = 2 dx dz = dS An n y
) xn = xx Axn + xy Ayn + xz Azn ,
>
>
>
>
;
Bo

dS n cos (k; n) = 12 dx dy = dS n Azn


y equivalentemente:
x y z x y z
yn = yx An + yy An + yz An y zn = zx An + zy An + zz An ,

202
3.2. TENSORES Y PRODUCTO TENSORIAL

las cuales se conocen como las relaciones de Cauchy. Estas relaciones representan los esfuerzos
sobre la superficie con normal n.
Ahora bien, dado que: F = dS es una relación vectorial podemos proyectar en la dirección ûm :
ûm · F = ûm · ( dS) ) F m = m
n dS
n
= m i
i An dS n = m i
i An dS n ,
por lo tanto:
n i
mn dS = mi An dS n ) mn dS
n
= k i
ki Am An dS n , con i, j = x, y, z .

ar
Una vez más, podemos ver que transforma como un tensor.
c) El Tensor de inercia Consideremos el caso de un sistema de n partı́culas. La cantidad de movi-
miento angular para este sistema vendrá dada por:
X
L= m(i) r(i) ⇥ v(i) ,

in
i

donde hemos indicado que la i ésima partı́cula que está en la posición r(i) tiene una velocidad
v(i) .

m
Si las distancias entre las partı́culas, y entre las partı́culas con el origen de coordenadas, es
constante, podremos expresar la velocidad de cada una de ellas como:
v(i) = ! ⇥ r(i) , ¿Por qué?

eli
Donde ! es la velocidad angular instantánea del sistema. Entonces tendremos que:
X ⇥ ⇤ X ⇥ ⇤
L= m(i) r(i) ⇥ ! ⇥ r(i) = m(i) ! r(i) · r(i) r(i) ! · r(i) ,
i i

X ⌘
Pr
y para cada partı́cula se cumple que las componentes de la cantidad de movimiento angular serán:
h ⇣ i
Lk = m(i) ! k r(i)
m
r(i)m k
r(i) ! m r(i)m .
i

k k l
Si vemos que !(i) = l !(i) entonces:
" #
X h ⇣ ⌘ i X ⇣ ⇣ ⌘ ⌘
or

k k l m k m l k m k
L = m(i) l! r(i) r(i)m r(i) ! r(i)m = !(i) m(i) l r(i) r(i)m r(i) r(i)l
i i
| {z }
Ilk

es decir: ⇣ ⇣ ⌘ ⌘
ad

X
Lk = !(i)
l
Ilk , donde: Ilk = m(i) k
l
m
r(i) r(i)m k
r(i) r(i)l .
i

El objeto Ilk se conoce como el tensor de inercia y corresponde a 9 cantidades (sólo 6 son in-
dependientes porque es un tensor simétrico). En coordenadas cartesianas se verá de la siguiente
rr

forma:
0 P ⇣ ⌘ P P 1
0 1 m y 2
+ z 2
Ixx Ixy Ixz i (i) (i) (i) i m(i) x(i) y(i) i m(i) x(i) z(i)
B C
B C B B C
B C B P P ⇣ ⌘ P C
Bo

C
Ilk = B I
B yx I yy I C
yz C = B i m(i) x(i) y(i)
2
i m(i) x(i) + z(i)
2
i m(i) y(i) z(i) C
@ A B B
C
C
Izx Izy Izz @ P P P ⇣ ⌘ A
2 2
i m (i) x (i) z (i) i m (i) y (i) z (i) i m (i) x (i) + y (i)

203
3.2. TENSORES Y PRODUCTO TENSORIAL

Por ahora, nos contentaremos con esta construcción y en los ejercicios le propondremos que mues-
tre que es un tensor.
d ) Energı́a libre para un medio elástico
Consideremos el siguiente par de tensores provenientes de la teorı́a de elasticidad:
✓ ◆
1 1 @ui @uk 0 1 m i
uik = (@k ui + @i uk ) ⌘ + , uik = uik u ,
2 2 @x k @x i 3 m k
0

ar
y construyamos el tensor de esfuerzos como: pij = 2 uij + Kull i
j.
Calculemos la energı́a libre para el medio elástico, definida como: F = 12 pij uji .
Tenemos que:
✓ ◆ ✓ ◆

in
0 1 m i 2
pij = 2 uij + Kull ji = 2 uij um j + Kull ji = 2 uij + ull ji K ,
3 3
1
donde: um
m = 2 (@ m um + @m um ) = @ m um , con lo cual:

m
✓ ✓ ◆◆ ✓ ✓ ◆◆
1 i j 1 2 1
F = pj u i = 2 uij + ull i
j K uji = uij uji + ull ji uji K
2 2 3 2 3
✓ ◆

eli
1 2
= ui1 u1i + ui2 u2i + ui3 u3i + K ull
2 3
✓ ◆
1 2
= u11 u11 + u21 u12 + u31 u13 + u12 u21 + u22 u22 + u32 u23 + u13 u31 + u23 u32 + u33 u33 + K ull
2 3
⌘ ✓1 ◆
⇣ 2 2 2
Pr 2
= u11 + u22 + u33 + 2 u12 u21 + u23 u32 + u31 u13 + K ull
2 3
✓ ◆
1 2 2
= K+ ull + 2 u12 u21 + u23 u32 + u31 u13
2 3
✓ ◆
1 2 2
= K+ (@x ux + @y uy + @z uz ) + 2 (@x uy @y ux + @y uz @z uy + @z ux @x uz ) .
2 3
or
ad
rr
Bo

204
3.2. TENSORES Y PRODUCTO TENSORIAL

3.2.11. Practicando con Maxima


Tensores y Maxima
Maxima presenta dos paquetes para la manipulación de tensores, paquetes en constante desarrollo
todavı́a. Estos paquetes son ctensor, manipulación de componentes y el paquete itensor, manipulación
indexada. En la manipulación por componentes los tensores se representan por arreglos o matrices. En la
manipulación indexada los tensores se representan por funciones de sus ı́ndices covariantes, contravariantes
y de derivadas.

ar
Los ı́ndices covariantes se especifican mediante una lista que será el primer argumento del objeto indexado,
siendo los ı́ndices contravariantes otra lista que será el segundo argumento del mismo objeto indexado. Si
al objeto indexado le falta cualquiera de estos grupos de ı́ndices, entonces se le asignará al argumento
correspondiente la lista vacı́a [ ]. Ası́, g([a, b], [c]) representa un objeto indexado llamado g, el cual tiene dos
c
ı́ndices covariantes (a, b), un ı́ndice contravariante (c) y no tiene ı́ndices de derivadas, es decir, gab

in
(%i1) load(itensor)$
(%i2) imetric(g);

m
(%i3) ishow(g([j,k],[])*g([i,l],[])*a([],[i,j]))$

( %t3) ai j gj k gi l

eli
(%i4) ishow(contract(%))$
( %t4) ak l
(%i5) ishow(kdelta([i],[k])*a([k,l],[]))$

( %t5) k
i ak l
Pr
(%i6) ishow(contract(%))$
( %t6) ai l
j i
La identidad i j =3
or

(%i7) ishow(contract(kdelta([i], [j])*kdelta([j], [i])))$

( %t7) kdelta
(%i8) ishow(ev(%,kdelta))$
ad

( %t8) 3

El sı́mbolo de Levi-Civita:
rr

(%i9) levi_civita([1, 2, 3]);levi_civita([1, 3, 2]);levi_civita([3, 3, 2]);


( %o9) 1
( %o10) 1
Bo

( %o11) 0
(%i12)expr:ishow(’levi_civita([],[i,j,k])*’levi_civita([i,j,k],[]))$

205
3.2. TENSORES Y PRODUCTO TENSORIAL

( %t12) "i j k "i j k

Aquı́ es necesario utilizar la función lc2kdt( ) que simplifica expresiones que contengan el sı́mbolo de
Levi-Civita, para convertirlas en expresiones con la delta de Kronecker siempre que esto sea posible.12
(%i13)ishow(lc2kdt(expr))$
⇣ ⌘
( %t13) ik ji 3 jk kj + ij jk 3 k
i
i
k 3 j
i
i
j + 27

ar
(%i14)ishow(contract(expand(%)))$

( %t14) 27 7
(%i15)ishow(ev(%,kdelta))$

in
( %t15) 6
(%i16)kill(all)$

m
Transformación de tensores y Maxima
Como ya mencionamos, Maxima contiene un paquete para manipular componentes de tensores: ctensor.
La manipulación en componentes se realiza en términos de matrices. La métrica se almacena en la matriz lg

eli
y la métrica inversa se obtiene y almacena en la matriz ug.
En un ejemplo visto con anterioridad se especificaba las componentes de un tensor en coordenadas
cartesianas, esto es:
0 1
2 1 3
Pr
To = Tji = @ 2 3 4 A , en la base: {|e1 i , |e2 i , |e3 i} ⌘ {|ii , |ji , |ki} .
1 2 2

Para luego representarlo en la nueva base: |w̃1 i = |ii, |w̃2 i = |ii + |ji y |w̃3 i = |ii + |ji + |ki. Entonces
necesitamos calcular:
k @ x̃k @xj i
T̃m = T ) Tn = ↵ To =
@xi @ x̃m j
or

Como vimos cuando hacı́amos los cálculos:


0 1 0 1
1 1 0 1 1 1
@ x̃k @ 0 A, @x i
@ 0
↵= = 1 1 = = 1 1 A.
ad

@xi @ x̃k
0 0 1 0 0 1

Respetando “la concatenación interna de ı́ndices” podemos realizar la multiplicación de matrices.


(%i1) To:matrix([2,1,3],[2,3,4],[1,2,2]);
rr

0 1
2 1 3
( %o1) @2 3 4A
1 2 2
Bo

(%i2) alpha:matrix([1,-1,0],[0,1,-1],[0,0,1]);

12 En ocaciones, la función lc2kdt( ) hace uso del tensor métrico. Si el tensor métrico no fue previamente definido con imetric,

se obtiene un mensaje de error.

206
3.2. TENSORES Y PRODUCTO TENSORIAL

0 1
1 1 0
( %o2) @0 1 1A
0 0 1
(%i3) beta:matrix([1,1,1],[0,1,1],[0,0,1]);
0 1
1 1 1
( %o3) @0 1 1A
0 0 1
(%i4) Tn:alpha.To.beta;

ar
0 1
0 2 3
( %o4) @1 2 4A
1 3 5

in
Una vez que hemos calculado el nuevo tensor Tn = T̃ij en la nueva base, podemos calcular: T̃ ij , T̃ij .
Pero podemos utilizar la métrica para las coordenadas nuevas y con el paquete ctensor hacer las respectivas
contracciones.

m
(%i5) load(ctensor)$
(%i6) ct_coordsys(cartesian3d)$

Introducimos la métrica g̃ik :

eli
(%i7) lg:matrix([1,1,1],[1,2,2],[1,2,3]);
0 1
1 1 1
( %o7) @1 2 2A
1 2 3
Pr
Para tener la métrica inversa g̃ ik escribimos:
(%i8) cmetric()$
(%i9) ug;
0 1
or

2 1 0
( %o9) @ 1 2 1A
0 1 1
Para calcular T̃ij = g̃ik T̃jk hacemos lo siguiente:
ad

(%i10)lg.Tn;
0 1
2 3 6
( %o10) @4 8 15A
5 11 20
rr

Y para calcular T̃ ij = T̃ki g̃ kj procedemos ası́:


(%i11)Tn.ug;
Bo

0 1
2 1 1
( %o11) @ 0 1 2A
1 0 2

207
3.2. TENSORES Y PRODUCTO TENSORIAL

(%i12)kill(all)$

Es posible, y a manera de completar esta primer acercamiento con la librerı́a de tensores, calcular la
métrica a partir de una transformación de coordenadas, como vimos en la sección anterior, ejemplo 7.
Escribimos las coordenadas que queremos utilizar, en este caso esféricas, utilizando la función ct coordsys.
(%i1) load(ctensor)$

ar
(%i2) ct_coordsys([r*sin(theta)*cos(phi),r*sin(theta)*sin(phi),r*cos(theta),[r,theta,phi]])$

Y le pedimos al programa que calcule el tensor métrico, al que le asigna el nombre lg.

in
(%i3) cmetric()$

El tensor métrico gij es entonces


(%i4) lg:trigsimp(lg);

m
0 1
1 0 0
( %o4) @0 r2 0 A
2 2
0 0 r sin ✓

eli
Y la métrica inversa g ij , el programa la identifica con la etiqueta ug
(%i5) trigsimp(ug);
0 1
1 0 0
( %o5) @0 r12 0 A
Pr
1
0 0 r2 sin 2✓

3.2.12. Ejercicios
or

1. Si Aijk es un tensor covariante de orden 3 y B lmno un tensor contravariante de orden 4, pruebe que
Aijk B jkno es un tensor mixto de orden 3.
2. Dados los tensores:
0 1 0 1 0 1
ad

1/2 1 3/2 1/3 1 0 0


Rji = @ 2 5/2 3 A, T i = @ 2/3 A , gji = g ij = gij = @ 0 1 0 A.
7/2 4 9/2 1 0 0 1

Encuentre:
rr

a) La parte simétrica Sji y antisimétrica Aij de Rji .


b) Rkj = gik Rji , Rki = g jk Rji , Tj = gij T i ¿Qué se concluye de estos cálculos?
Bo

c) Rji Ti , Rji T j , Rji Ti T j .


d ) Rji Sij , Rji Aji , Aji T i , Aji T i Tj .
e) Rji 2 ji Rll , (Rji 2 ji Rll )Ti , (Rji 2 ji Rll )Ti T j .

208
3.2. TENSORES Y PRODUCTO TENSORIAL

3. Demuestre que si Sji representa un tensor simétrico y Aij uno antisimétrico, entonces, Sji Aji = 0.
4. Dado Fijk un tensor totalmente antisimétrico respecto a sus ı́ndices ijk, demuestre que el rotor de Fijk
definido como sigue, también será un tensor.
@Fijk @Fjkm @j Fkmi @k Fmij
rot [Fijk ] = @m Fijk @i Fjkm + @j Fkmi @k Fmij ⌘ + .
@xm @xi @xj @xk

5. Consideremos un tensor B con componentes Bij , un tensor A con componentes Ai y el producto:

ar
Bij Aj = Ci .

Esta última expresión se puede interpretar como la acción de B sobre A que consiste en producir un

in
nuevo tensor C que tendrá una magnitud y una dirección diferente a A. Podremos estar interesados
en encontrar todos los vectores que NO son rotados por B, es decir, que estarı́amos interesados en
resolver la ecuación:
Bij Aj = Ai , donde es un escalar.

m
Si estos vectores existen se denominan vectores caracterı́sticos o “autovectores” de B y sus direcciones:
direcciones principales o caracterı́sticos. Más aún, los ejes determinados por las direcciones principales
se denominan ejes principales de B. Los valores de las componentes Bij en el sistema de coordenadas
determinado por los ejes principales se denominan valores caracterı́sticos o “autovalores” de B.

eli
Ahora, como lo ilustramos en los ejemplos, consideremos un sistema conformado por n partı́culas de
masas iguales: m1 , m2 , . . . mn = m, distribuidas en el plano xy, y sea Iij el tensor de inercia con
respecto a un sistema rectangular de coordenadas. Por ser un caso en 2D, el tensor de inercia tendrá
solamente cuatro componentes.
Pr
a) Encuentre: I11 = Ixx , I22 = Iyy y I12 = Ixy = I21 = Iyx .
b) Si un vector A coincide con el eje principal de Iij entonces debe satisfacer la ecuación:

j j j (I11 )A1 + I12 A2 = 0
Ii Aj = Ai ) (Ii i )Aj = 0 ) I12 A1 + (I22 )A2 = 0
or

2
Encuentre la solución (no trivial) para , es decir, resuelva: (I11 + I22 ) + I11 I22 (I12 )2 = 0.
c) ¿Cómo se interpreta el hecho de que I12 = 0?
d ) Si I12 6= 0 y 1 6= 2 , entonces, para cada valor de se puede encontrar un vector (autovector)
ad

A( 1 ) y A( 2 ) resolviendo el sistema de dos ecuaciones. Demuestre que las direcciones de estos


vectores tienen pendientes, respecto al sistema de coordenada, dadas por:

1 I11 2 I11
tan(✓1 ) = , tan(✓2 ) = .
I12 I12
rr

e) Demuestre que:
2I12 ⇡
tan(2✓1 ) = tan(2✓2 ) = , donde ✓2 = ✓1 + ,
I11 I22 2
Bo

es decir: A( 1)
? A( 2)
.
f ) ¿Cuáles son las componentes del tensor de inercia en el sistema de coordenadas determinado por
los ejes principales?

209
3.2. TENSORES Y PRODUCTO TENSORIAL

6. En este ejercicio generalizamos la definición del momento de inercia para cuerpos continuos, el cual se
define como:
Z
Iji = dv⇢ (r) ji xk xk xi xj , con xi = {x, y, z} y dv = dx dy dz .
V

a) Muestre que Iji es un tensor.


b) Considere un cubo de lado l y masa total M tal que tres de sus aristas coinciden con un sistema
de coordenadas cartesiano. Encuentre el tensor momento de inercia, Iji .

ar
7. Dados dos sistemas de coordenadas ortogonales O ⌦ (x, y, z) y Õ ⌦ (x̃, ỹ, z̃), donde el sistema de
coordenadas Õ se obtiene rotando a O, ⇡/6 alrededor del eje z y ⇡/2 alrededor del eje x̃, con lo cual
los ejes ỹ y z coinciden.

in
a) Si tenemos los vectores:
A = i + 2j + 3k , B = 2i + j + 3k .
Expréselos en el sistema de coordenadas Õ ⌦ (x̃, ỹ, z̃).

m
b) El tensor de esfuerzos (tensiones normales y tangenciales a una determinada superficie) se expresa
en el sistema O ⌦ (x, y, z) como:
0 1
P1 0 P 4
Pji = @ 0 P2 0 A .

eli
0 0 P3

¿Cuál será su expresión en el sistema de coordenadas Õ ⌦ (x̃, ỹ, z̃)?

8. Suponga un sistema de coordenadas ortogonales generalizadas q 1 , q 2 , q 3 las cuales tienen las siguiente
Pr
relación funcional con las coordenadas cartesianas13 :
q 1 = x + y; q2 = x y; q 3 = 2z .
a) Compruebe que el sistema q 1 , q 2 , q 3 conforma un sistema de coordenadas ortogonales
b) Encuentre los vectores base para este sistema de coordenadas.
c) Encuentre el tensor métrico y el elemento de volumen en estas coordenadas.
or

d) Encuentre las expresiones en el sistema q 1 , q 2 , q 3 para los vectores:


A = 2j , B = i + 2j , C = i + 7j + 3k .

e) Encuentre en el sistema q 1 , q 2 , q 3 las expresiones para las siguientes relaciones vectoriales :


ad

A ⇥ B, A · C, (A ⇥ B) · C .
¿Qué puede decir si compara esas expresiones en ambos sistemas de coordenadas?
f ) Considere los siguientes tensores y vectores en coordenadas cartesianas :
rr

0 1 0 1 0 1
1/2 1 3/2 1/3 1 0 0
Rji = @ 2 5/2 3 A , T i = @ 2/3 A , gji = g ij = gij = @ 0 1 0 A .
7/2 4 9/2 1 0 0 1
Bo

y encuentre sus expresiones para el nuevo sistema de coordenadas q 1 , q 2 , q 3 .


13 Estes tipo de transformaciones a coordenadas generalizadas será analizado, con todo detalle, en la sección 5.1 de la página
347.

210
3.3. VECTORES, TENSORES Y ESPACIOS PSEUDOEUCLIDIANOS

3.3. Vectores, tensores y espacios pseudoeuclidianos



Hasta este punto la descripción de formas representadas por un bra: ha| ⌘ ak ek ha sido casi estética. ⌦
Hemos insistido que las componentes de las formas tienen subı́ndices, mientras que sus vectores bases, ek ,
deben tener superı́ndices, pero no hemos visto clara la necesidad de esa definición. Un ejemplo, un tanto
tı́mido lo desarrollamos en en la sección 3.1.2, 158, donde mencionamos que las bases recı́procas de vectores
podrı́an jugar el papel de bases para el espacio dual. Quizá el ejemplo más emblemático y simple, donde se
observa la diferencia entre formas (bras) y vectores (kets) es el caso de los espacios minkowskianos. Estos
espacios, también llamados pseudoeuclidianos, presentan una variante en la definición de producto interno, de

ar
tal forma que: hx| xi no es necesariamente positivo, y si hx| xi = 0 no necesariamente implica que |xi ⌘ |0i.
La consecuencia inmediata es que la definición de norma N (|vi i) ⌘ k|vi ik, que vimos anteriormente, no
es necesariamente positiva. Vale decir que tendremos vectores con norma positiva, k|vi ik > 0, pero también
vectores con norma negativa o cero: k|vi ik  0. Con lo cual la definición de distancia, entendida como la

in
norma de la resta de vectores, d (|xi , |yi) ⌘ k|xi |yik, tampoco será necesariamente positiva. Esto es, que
las distancias serán negativas, positivas o nulas: d (|xi , |yi) < 0, d (|xi , |yi) = 0 y d (|xi , |yi) > 0.
Si extendemos la noción de distancia para que albergue las posibilidades de distancias nula y negativas,
entonces la definición del tensor métrico para espacios pseudoeuclidianos también debe cambiar.

m
8
< <0
g [|xi i , |xj i] = gij ⌘ gji =0
:
>0

eli
En resumen
8 9 8 9 8
< <0 = < <0 = < <0
hx| xi = =0 ) d (|xi , |yi) = =0 ) g [|xi i , |xj i] = =0
: ; : ; :
>0
Pr >0 >0

Este tipo de espacios luce como un excentricidad más de los matemáticos y una curiosidad de estudio es
ver como organizar los conceptos que aprendimos de los espacios euclidianos y extenderlos a otros espacios.
Quizá se hubiera quedado ası́, como una curiosidad matemática si los fı́sicos no hubieran sacado partido de
estas particularidades para describir el comportamiento de la naturaleza. En la próxima sección analizaremos
el caso de espacios minkowskianos de dimensión 4, que denominaremos M4 .
or

3.3.1. Espacios minkowskianos


Consideremos un espacio tetradimensional expandido por una base ortonormal: {|e0 i , |e1 i , |e2 i , |e3 i}.
⌦ 0de ⌦R 1. ⌦ 2 ⌦ 3
3
Los vectores {|e1 i , |e2 i , |e3 i} corresponden con la base canónica
ad

Este espacio vectorial M tendrá asociado un espacio dual: e , e , e , e


4
a través de una métrica:
⌦ ⌦
⌘↵ he↵ | ⌦ e ⌘ ⌘ ↵ e ⌦ he↵ | y ⌘ ↵ |e↵ i ⌦ |e i ⌘ ⌘ ↵ |e i ⌦ |e↵ i ,

con ↵, = 0, 1, 2, 3, y donde: ⌘00 = ⌘ 00 = 1, ⌘11 = ⌘ 11 = 1, ⌘22 = ⌘ 22 = 1, ⌘33 = ⌘ 33 = 1 (con ⌘↵ = 0


rr

para ↵ 6= ). Se dice que ⌘ tiene signo 2.14


Tal y lo como presentamos en la sección 3.2, podemos asociar componentes covariantes y contravariantes
a través de la métricas. Si |ai = a |e i, entonces:
Bo

⌦ ⌦ ⌦
⌘↵ he↵ | ⌦ e |ai = a ⌘↵ he↵ | ⌦ e |e i = a ⌘↵ e |e i he↵ | = a ⌘↵ he↵ | = a ⌘↵ he↵ | ⌘ a↵ he↵ | .
14 Realmente el signo 2 es una convención, se puede también considerar ⌘µ⌫ de signo +2, con ⌘00 = 1, ⌘11 = +1, ⌘22 = +1,
⌘33 = +1.

211
3.3. VECTORES, TENSORES Y ESPACIOS PSEUDOEUCLIDIANOS

Lo interesante del caso es que:

a↵ = a ⌘ ↵ ) a0 = a0 , a1 = a1 , a2 = a2 , a3 = a3 .

Es decir, en este caso, porque la métrica tiene signo 2, bajar los ı́ndices espaciales (µ = i = 1, 2, 3) es
cambiar el signo a las componentes15 . Dicho con más propiedad, las componentes espaciales contravariantes
(µ = i = 1, 2, 3) tienen signos contrarios a las componentes covariantes.
De la misma manera que se expuso anteriormente en la sección 3.2:

ar
ha| ⌘ ↵ |e↵ i ⌦ |e i = a he | ⌘ ↵ |e↵ i ⌦ |e i = a ⌘ ↵ he |e↵ i |e i = a ⌘ ↵ ↵ |e i = a ⌘ |e i ⌘ a |e i .

y otra vez, a = ⌘ ↵ a↵ , y habrı́a cambio de signo cuando se bajan los ı́ndices 1, 2, 3 para la métrica con
signo 2 que hemos considerado anteriormente.
Del mismo modo se “suben” y se “bajan” ı́ndices para componentes de tensores:

in
⌘ ↵ P↵ ✏
⌘P ✏
.

Por su parte, el producto interno de dos vectores en un espacio de Minkowski involucra, de manera

m
natural, la métrica del espacio. Esto es:

ha |bi = hb |ai = a↵ b↵ = b↵ a↵ = a↵ b ⌘↵ = a↵ b ⌘ ↵ = a0 b0 a 1 b1 a 2 b2 a 3 b3 = a 0 b0 a 1 b1 a 2 b2 a 3 b3 .

eli
Una vez más, la norma de un vector, también incluirá al tensor métrico:
2
k|aik = ha |ai = a↵ a he↵ |e i = a↵ a↵ = a↵ a ⌘ ↵ = a↵ a ⌘↵ = a0 a0 a1 a1 a2 a2 a3 a3 .

El caso más conocido lo constituye la norma de un desplazamiento infinitesimal, en un espacio tetradi-


mensional, el cual puede expresarse como:
Pr
ds2 ⌘ hdr |dri = (dx↵ hw↵ |) dx |w i = dx dx = ⌘↵ dx↵ dx = dt2 dx2 ,
2 2 2
con: dx2 = dx1 + dx2 + dx3 .

3.3.2. Un toque de Relatividad Especial


or

La genialidad de Albert Einstein fue haber entendido que tenı́a que incorporar el tiempo como otra
coordenada más, vale decir, que los eventos que ocurren en la naturaleza están etiquetados por cuatro
números: (t, x, y, z) ⌘ (x0 , x1 , x2 , x3 )16 . El rápido desarrollo de la comprensión de las ideas relativistas
muestra que estaban en el ambiente de la época de comienzos de 1900, y una vez más la simplicidad como
ad

prejuicio se impuso.
Sólo dos suposiciones están en el corazón de la Relatividad Especial:
1. El principio de la Relatividad: Las leyes de la Fı́sica son idénticas en todos los sistemas de referencia
inerciales.
rr

2. La universalidad de la velocidad de la luz en el vacı́o: La velocidad de la luz en el vacı́o es siempre la


misma, y es independiente de la velocidad de la fuente de luz respecto a un observador en particular.
Bo

15 Otra vez, para la métrica con signo 2, el cambio de signo entre componentes covariantes y contravariantes se da para la
componente, µ = 0
16 Una discusión sobre la necesidad de incorporar los conceptos de relatividad especial en los programas de estudio de Fı́sica

mediante la utilización del álgebra geométrica la pueden encontrar en Baylis, W. E. (2004). Relativity in introductory physics.
Canadian journal of physics, 82(11), 853-873.

212
3.3. VECTORES, TENSORES Y ESPACIOS PSEUDOEUCLIDIANOS

En términos matemáticos estas dos audaces suposiciones se concretan en una simple suposición ma-
temática: el producto interno entre dos elementos de este espacio tetradimensional, debe conservarse para
una familia de vectores base. Luego vendrá la asociación de observadores fı́sicos -o sistemas de coordenadas-
con los miembros de la familia de vectores base, pero la idea es la misma que planteamos para los espacios
euclidianos en 2.2.3: el producto interno -y consecuentemente, la norma de los elementos del espacio vectorial
y la distancia entre éstos- es el mismo independientemente de la base en la cual expanda el espacio vectorial.
La primera de las interpretaciones es el cómo representamos los eventos en el espacio-tiempo. Supongamos
el caso unidimensional en el espacio, vale decir los eventos ocurren en un punto de la recta real x = x1 , y en
un tiempo determinado, por lo tanto podremos asociar al evento un vector evento: ! (x0 , x1 ).

ar
A continuación nos preguntamos que representan las distancias (espacio-temporales) entre estos dos
eventos. Tal y como vimos, las distancias entre dos elementos de un espacio vectorial puede ser construida a
partir de la norma (de la resta de coordenadas) y la norma a partir del producto interno:
8

in
>
> < 0 conexión tipo espacio: eventos desconectados causalmente.
>
>
<
|| |y xi ||2 ⌘ hy x |y xi = 0 conexión tipo luz: posible conexión causal a través de rayos de luz.
>
>
>
>
:

m
> 0 conexión tipo tiempo: posible conexión causal.
Con esta primera interpretación de los valores de la norma y la visión tetradimensional, el espacio-tiempo,
dividido en pasado, presente y futuro, se puebla de eventos que pueden estar o no relacionados causalmente

eli
tal y como muestra la figura 3.4.

La preservación del producto interno para todos


los observadores era intuitiva en los espacios eu-
clidianos y, al mantenerla para los pseudoeucli-
dianos nos traerá consecuencias nada intuitivas
Pr
en nuestra idea intuitiva de “realidad”.
Para el caso de la formulación de la Relatividad
Especial, añadimos un supuesto más: las com-
ponentes del tensor métrico son invariantes bajo
transformaciones de coordenadas, esto es:
or

g [|eµ i , |e⌫ i] ⌘ g̃ [|ẽµ i , |ẽ⌫ i] , ⌘↵ = ⌘˜↵ ,

con: {|eµ i} y {|ẽµ i} dos bases que se conectan a


través de una transformación de coordenadas:
ad

xµ = xµ (x̃↵ ) , x̃µ = x̃µ (x↵ ) .


Figura 3.4: Cono de luz, espacio-tiempo y eventos.

Construyamos ahora el tipo de transformación de coordenadas que mantiene estos dos supuestos17 :
rr

1. El producto interno de dos vectores es independiente de la base que expande el espacio vectorial.
2. Las componentes del tensor métricos son invariantes bajo transformaciones de coordenadas.
Si el producto interno de dos vectores es independiente de la base que expanda el espacio vectorial,
Bo

tendremos:
hx |yi = hx̃ |ỹi , x↵ y↵ = x̃↵ ỹ↵ , x↵ y ⌘↵ = x̃↵ ỹ ⌘˜↵ ,
17 Estamos suponiendo que observadores, sistemas de coordenadas y sistemas de referencia son conceptos equivalentes.

213
3.3. VECTORES, TENSORES Y ESPACIOS PSEUDOEUCLIDIANOS

y como lo vimos en 3.2.9 las componentes de vectores, bajo cambio de coordenadas, transforman como:
@ x̃i k @ x̃⌫ ↵ @ x̃µ @ x̃⌫ @ x̃µ
ãi = k
a ) x↵ y↵ = x̃↵ ỹ↵ , x↵ y ⌘↵ = ↵
x y ⌘˜⌫µ = x↵ y ⌘˜⌫µ ,
@x @x @x @x↵ @x
con lo cual concluimos que:
@ x̃⌫ @ x̃µ @ x̃⌫ @ x̃µ
⌘↵ = ⌘
˜ ⌫µ ⌘ ⌘⌫µ . (3.9)
@x↵ @x @x↵ @x
Ahora bien, si derivamos (3.9) respecto a x tendremos que:

ar
✓ 2 ⌫ ◆
@ x̃ @ x̃µ @ x̃⌫ @ 2 x̃µ
0 = ⌘⌫µ + .
@x↵ @x @x @x↵ @x @x
Como la cantidad dentro del paréntesis se anula podemos jugar con ésta para descubrir algunas consecuen-

in
cias ocultas. Es de hacer notar que esa cantidad tiene tres ı́ndices libres y por lo tanto son 64 ecuaciones que
se anulan. Eso significa que le podemos añadir y sustraer cualesquiera otras con los ı́ndices intercambiados.
Supongamos que al paréntesis anulado le añadimos una con los ı́ndices ↵ y intercambiados y, adicional-
mente, le sustraemos una con los ı́ndices y intercambiados. Claramente, estamos añadiendo y sustrayendo

m
ceros.
✓ 2 ⌫ ◆
@ x̃ @ x̃µ @ x̃⌫ @ 2 x̃µ @ 2 x̃⌫ @ x̃µ @ x̃⌫ @ 2 x̃µ @ 2 x̃⌫ @ x̃µ @ x̃⌫ @ 2 x̃µ
0 = ⌘⌫µ + + + .
@x↵ @x @x @x↵ @x @x @x @x↵ @x @x @x @x↵ @x↵ @x @x @x↵ @x @x

eli
Con este truco, vemos que el último término anula el segundo y el penúltimo el cuarto, de forma y manera
que nos queda:
@ 2 x̃⌫ @ x̃µ
0 = 2⌘⌫µ ↵ ,
@x @x @x
Pr
Con lo cual la única posibilidad que resulta es la siguiente:
@ 2 x̃⌫
0= ) x̃⌫ = ⇤⌫µ xµ + a⌫ , (3.10)
@x↵ @x
con: ⇤⌫µ y a⌫ constantes.
Las transformaciones lineales (3.10) se conocen como las transformaciones, inhomogéneas, de Lorentz o
también las transformaciones de Poincaré. Estas transformaciones forman un grupo y, uno de los posibles
or

subgrupos lo constituye el conjunto de transformaciones propias de Lorentz de la forma:

⇤00 = 1, ⇤i0 = ⇤0j = 0, y ⇤ij = Rji ,

con: i, j = 1, 2, 3, y donde Rji es una matriz de rotación.


ad

Supongamos el caso más sencillo de este grupo de transformaciones: a⌫ = 0, en la ecuación (3.10).


Explı́citamente hemos identificado una transformación de la forma:

x̃↵ = ⇤↵ 0 ↵ 1 ↵ 2 ↵ 3
0 x + ⇤1 x + ⇤2 x + ⇤3 x ,
rr

la cual, por construcción, deja invariante el intervalo tetradimensional:

ds2 = c2 dt2 dx1 dx2 dx3 = ⌘µ⌫ dxµ dx⌫ ,


Bo

con ⌘µ⌫ el tensor métrico. Aquı́ c es la constante que representa la velocidad de la luz en el vacı́o. Por razones
de conveniencia se escoge un sistema de unidades donde c = 118 .
18 Un sistema de unidades denominado sistema de unidades geometrizado en el cual la velocidad de la luz y la constante de

gravitación universal se toman como la unidad: c = G = 1.

214
3.3. VECTORES, TENSORES Y ESPACIOS PSEUDOEUCLIDIANOS

Es inmediato demostrar que este tipo de transformaciones deja invariante el intervalo. Primero, notemos
que:
⌘˜µ⌫ = ⇤µ↵ ⇤⌫ ⌘ ↵ ) ⌘ µ⌫ ⌘⌫ = µ = ⇤µ↵ ⇤⌫ ⌘ ↵ ⌘⌫ ) ⇤µ↵ ⇤↵ = µ
y como dx̃µ = ⇤µ↵ dx↵ , entonces:
ds̃2 = ⌘˜µ⌫ dx̃µ dx̃⌫ ⌘ ⌘µ⌫ ⇤µ↵ dx↵ ⇤⌫ dx = ⌘↵ dx↵ dx = ds2 .
Para construir una de las expresiones más utilizadas del grupo de Lorentz consideramos la siguiente
situación: un observador, x̃µ , ve moverse una partı́cula con una velocidad v, mientras que un segundo

ar
observador, xµ , la percibe en reposo. Entonces, para el observador que registra la partı́cula en reposo resulta
que dxi = 0, y: 8
< dt̃ = ⇤00 dt
µ µ ↵
dx̃ = ⇤↵ dx )
:

in
dx̃i = ⇤i↵ dx↵ = ⇤i0 dt con i = 1, 2, 3.
Ahora bien, las ecuaciones anteriores nos imponen:
dx̃ dx̃i
v= ) vi = ) ⇤i0 = v i ⇤00 .

m
dt̃ dt̃
Además, tenemos que:
2 2 2 2
⌘˜↵ = ⇤µ↵ ⇤⌫ ⌘µ⌫ ) 1 = ⇤µ0 ⇤⌫0 ⌘µ⌫ = ⇤00 ⇤10 ⇤20 ⇤30 ,

eli
con una solución de la forma:
⇤00 = , ⇤i0 = vi ,
donde:
1 1 1
=p ⌘p ⌘r
1 (v)2
Pr
1 vi v i
h
2 2 2
i,
1 (v 1 ) + (v 2 ) + (v 3 )

los otros términos ⇤ij no quedan unı́vocamente determinados porque está de por medio la arbitrariedad de
una rotación Rji . Por ello, una selección arbitraria pero razonable de todos los términos ⇤ij es:
1 1
⇤ij = i
+ v i vj ⌘ i
+ v i vj .
or

j j
(v)2 v k vk
De esta forma quedan determinados todos los elementos de las transformaciones de Lorentz.
Los observadores lorentzianos son los equivalentes a los observadores galileanos en las teorı́as newtonianas:
son observadores que se mueven uno respecto al otro con una velocidad constante y, desempeñan el mismo
ad

papel que los observadores inerciales. Quizá la consecuencia más impactante de la necesidad de vincular
mediciones de distintos observadores lorentzianos a través de transformaciones de Lorentz, lo ilustra la
evolución distinta del tiempo medido por los diferentes observadores. Un observador en reposo respecto a
un reloj, ve avanzar el tiempo con tic separados por dt = t, ya que su reposo respecto al reloj implica:
dxi = 0, por lo tanto la separación espacio temporal será:
rr

2
ds2 = dt2 (dxi )2 = ( t) ) dt = t,
mientras que un segundo observador, en movimiento, tendrá el mismo elemento de lı́nea pero expresado
Bo

como:
t
ds̃2 = dt̃2 (dx̃i )2 = 1 v2 dt̃ ) dt̃ = p ,
1 v2
y ésta última ecuación claramente indica que el tiempo evoluciona más lento para relojes en movimiento.

215
3.3. VECTORES, TENSORES Y ESPACIOS PSEUDOEUCLIDIANOS

3.3.3. Ejemplos
1. En este ejemplo vamos a repetir, para el caso bidimensional, lo expuesto de manera general en la sección
anterior. Como vimos, las transformaciones de Lorentz relacionan las coordenadas del espacio-tiempo
medidas por un observador O de un evento, con las coordenadas medidas por otro observador Õ del
mismo evento. El observador O lo representaremos por las coordenadas {t, x, y, z} = {x0 , x1 , x2 , x3 },
mientras que el observador Õ por {t̃, x̃, ỹ, z̃} = {x̃0 , x̃1 , x̃2 , x̃3 }. Para lo que sigue, supondremos que
cuando los observadores coincidan los relojes de ambos marcarán t = t0 = 0.
La ecuación (3.10),

ar
x̃⌫ = ⇤⌫µ xµ ,
la podemos expandir en lo que realmente es:

t̃ = x̃0 = ⇤00 x0 + ⇤01 x1 + ⇤02 x2 + ⇤03 x3

in
x̃ = x̃1 = ⇤10 x0 + ⇤11 x1 + ⇤12 x2 + ⇤13 x3
ỹ = x̃2 = ⇤20 x0 + ⇤21 x1 + ⇤22 x2 + ⇤23 x3
3
z̃ = x̃ = ⇤30 x0 + ⇤31 x1 + ⇤32 x2 + ⇤33 x3

m
Vamos a suponer que Õ se mueve respecto a O, con velocidad v, únicamente en la dirección x, es decir,
ỹ = y y z̃ = z. Se supone entonces que t̃ no dependerá ni de y ni de z y que cuando x̃ = 0 entonces
x = vt. Todo esto hace que el sistema de ecuaciones anterior se simplifique de manera significativa:

eli
t̃ = x̃0 = ⇤00 x0 + ⇤01 x1 = ⇤00 t + ⇤01 x
x̃ = x̃1 = ⇤11 (x1 vt) = ⇤11 (x vt)
2 2
ỹ = x̃ = x =y
z̃ = x̃
Pr 3
= x3 = z

Debemos determinar los coeficiente ⇤00 , ⇤01 y ⇤11 . Para tal fin vamos a suponer que cuando t̃ = t = 0
un pulso de luz es emitido desde el origen de coordenadas. Recordemos que en ese instante ambos
observadores coinciden. Como suponemos además que la velocidad de la luz es constante, la onda de
luz se propagará en todas las direcciones de manera que cada observador podrá describirla mediante
la ecuación de una esfera cuyo radio aumenta con el tiempo a velocidad c. Esto es:
or

x̃2 + ỹ 2 + z̃ 2 = c2 t̃2 y x 2 + y 2 + z 2 = c 2 t2 .

Por lo tanto:
(⇤11 (x vt))2 + y 2 + z 2 = c2 (⇤00 t + ⇤01 x)2 .
ad

Al desarrollar esta última ecuación obtenemos:


2
⇣ 2 2 2

⇤11 x2 2xvt + v 2 t2 + y 2 + z 2 = c2 ⇤00 t + 2⇤00 ⇤01 xt + ⇤01 x2
⇣ 2 2
⌘ ⇣ 2
⌘ ⇣ 2 2

⇤11 c2 ⇤01 x2 + y 2 + z 2 2xt ⇤11 v + c2 ⇤00 ⇤01 c2 ⇤00 v 2 ⇤11 t2 .
rr

Como ambos observadores registran la misma onda de luz, entonces:


2 2
Bo

⇤11 c2 ⇤01 = 1
2
⇤11 v + c2 ⇤00 ⇤01 = 0
2 2
c2 ⇤00 v 2
⇤11 = c2 .

216
3.3. VECTORES, TENSORES Y ESPACIOS PSEUDOEUCLIDIANOS

Al resolver este sistema de tres ecuaciones con tres incógnitas resulta:


1 v
⇤11 = ⇤00 = q , ⇤01 = q .
v2 v2
1 c2 c2 1 c2

Si definimos = q 1 , las transformaciones de Lorentz quedan entonces de la forma:


v2
1 c2

⇣ v ⌘

ar
t̃ = t x , x̃ = (x vt) , ỹ = y , z̃ = z .
c2

Existen las transformaciones inversas que se pueden obtener de la misma manera que las anteriores.
⇣ v ⌘

in
t = t̃ + 2 x̃ , x = x̃ + v t̃ , y = ỹ , z = z̃ .
c

Notemos que cuando el observador Õ se mueve a velocidades muy pequeñas en comparación a c,

m
entonces el factor tiende a la unidad:

v⌧c ) ! 1,

por lo tanto:

eli
t̃ = t , x̃ = x vt , ỹ = y , z̃ = z .
que no son más que la transformación de Galileo.
2. Si un observador Õ determina que dos eventos ocurren en el mismo lugar, pero separados en el tiempo;
Pr
entonces, un observador O ¿cómo los apreciarı́a? Veamos dos situaciones diferentes.
Consideremos a una persona sentada en un tren en movimiento, observador Õ, esta persona
enciende y apaga rápidamente una linterna dos veces, con una diferencia de 15 minutos entre un
evento y el otro. Entonces para Õ será dos eventos que ocurren en el mismo lugar. Pero para el
observador O que se encuentra en tierra los eventos habrán ocurrido en lugares diferentes, y esto
no parece tener ningún conflicto con nuestra experiencia e intuición.
or

Si Õ sigue en su asiento del tren y observa que dos personas, uno a cada extremo del vagón (a unos
30 mts), encienden las linternas al mismo tiempo, entonces para Õ será un evento simultáneo,
pero para el observador en tierra O que ve al tren alejarse determinará que la persona de la parte
trasera encendió la linterna un poco antes que la persona apostada en la parte delantera. Esto tal
ad

vez si nos resulte algo extraño.

Consideremos que el tren viaja a 36 m/s (⇡ 130 Km/h) entonces, esta pequeña velocidad se refleja en
el factor de la manera siguiente:
rr

v 7 v2 14 1
= 1,2 ⇥ 10 ! = 1,44 ⇥ 10 ! =p ⇡ 1,000000000000007 .
c c2 1 1,44 ⇥ 10 14

Cuando consideramos la primera situación, la diferencia entre un evento y el otro era de 15 minutos
Bo

(900 seg), y para el observador en tierra ambos eventos ocurren en dos lugares diferentes: x1 y x2 ,

x1 = x̃1 + v t̃1 , x2 = x̃2 + v t̃2 ,

217
3.3. VECTORES, TENSORES Y ESPACIOS PSEUDOEUCLIDIANOS

de manera que:

x2 x1 = x̃2 + v t̃2 x̃1 + v t̃1 = (x̃2 x̃1 ) + t̃2 t̃1 v .

Pero: x̃2 = x̃1 y t̃2 t̃1 = 15 min. Por lo tanto:


1
x2 x1 = (900 s)(36 m.s ) = 32400m = 32,4Km .

ar
Para la segunda situación, el observador en tierra puede dar fe que los dos eventos ocurren en tiempos
diferentes: t1 y t2 , ⇣ v ⌘ ⇣ v ⌘
t1 = t̃1 + 2 x̃1 , t2 = t̃2 + 2 x̃2 ,
c c
de manera que:

in
⇣ v ⌘ ⇣ v ⌘ v
t2 t1 = t̃2 + 2 x̃2 t̃1 + 2 x̃1 = t̃2 t̃1 + (x̃2 x̃1 ) 2 ,
c c c

m
con: t̃2 = t̃1 y x̃2 x̃1 = 30 metros, resulta:

36 m.s 1 14
t2 t1 = (30 m) = 1,2 ⇥ 10 s.
(3 ⇥ 108 m.s 1 )2

eli
Intervalo de tiempo muy pequeño pero diferente de cero: el observador en tierra no aprecia que los eventos
fueron simultáneos.
Este valor tan pequeño, obviamente, es debido a que el factor es casi la unidad. Notemos que si el tren
viajara a una velocidad cercana a c, digamos v = 0,99999999 c, entonces:
Pr
v v2 1
= 0,99999999 ! 2 = 0,99999998 ! =p ⇡ 7071,06780 .
c c 1 0,99999998

por lo que: 
36 m.s 1 11
t2 t1 = (30 m) = 8,49 ⇥ 10 s.
(3 ⇥ 108 m.s 1 )2
or

En vista de lo anterior, se podrı́a esperar que ocurran cosas curiosas con las longitud de los objetos.
Supongamos que el observador que viaja en el tren coloca su laptop en el piso y mide su longitud. Esto
significa que la computadora está en reposo para Õ y, en la dirección del eje x, la laptop mide x̃2 x̃1 según
Õ. Para el observador que está en tierra la laptop viaja a una velocidad vt, de manera que:
ad

x̃2 x̃1 = [(x2 x1 ) v(t2 t1 )] ,

Para el observador que se encuentra en reposo la laptop mide x2 x1 , medida en el instante t2 = t1 . Por
lo tanto:
rr

x̃2 x̃1
x2 x1 = .

¡La laptop se contrae por el factor !


Bo

218
3.3. VECTORES, TENSORES Y ESPACIOS PSEUDOEUCLIDIANOS

3.3.4. Practicando con Maxima


1. En los grandes aceleradores de partı́culas se puede producir piones cargados cuando se hace colisionar
protones de gran energı́a con algún blanco preparado para este fin. Se conoce que los piones tienen
una vida media muy corta: 1,77 ⇥ 10 8 seg. Lo que esto significa es, que una vez que se producen los
piones, la mitad de ellos se habrá desintegrado en un tiempo de 1,77 ⇥ 10 8 seg.
Los experimentos en el acelerador reflejan el hecho de que la intensidad del haz de piones que emerge
del blanco, y que viaja a 0,99 c, se reduce a la mitad una vez que recorren 37,2 mts. Pero sucede que
si los piones viajan a 0,99 c = 2,968 ⇥ 108 m/s cuando estos hayan decaı́do a la mitad la distancia que

ar
habrán recorrido es d = vt:

(%i1) d:(2.968*10^8*(m/s))*(1.77*10^(-8)*s);

in
( %o1) 5,25336 m

¿Y entonces por qué el experimento mide que viajaron 37,2 mts? Bueno, no estamos considerando los
efectos relativistas que están contenidas en las transformaciones de Lorentz:

m
t2 t1 = (t̃2 t̃1 ) ) t= t̃ ,

donde t̃ es el tiempo propio, el tiempo medido por un reloj respecto a la partı́cula en movimiento, es

eli
decir, el sistema de referencia donde el pion se encuentra en reposo.
Calculemos, primeramente el factor :

(%i2) gamma:1/sqrt(1-(0.99)^2);
Pr
( %o2) 7,088812050083354

Por lo tanto, la vida media de los piones medida desde el laboratorio es:

(%i3) Delta_t:(1.77*10^(-8)*s)*gamma;
or

7
( %o3) 1,254719732864754 ⇥ 10 s

Según las personas que miden el experimento, y que están en el sistema en reposo, los piones viven
ad

⇡ 1,255 ⇥ 10 7 s, y por lo tanto viajan una distancia: x = (0,99c) t

(%i4) (2.968*10^8*(m/s))*Delta_t;

( %o4) 37,24008167142589 m
rr

2. Procederemos ahora a resolver con Maxima el sistema que nos condujo a las transformaciones impro-
pias de Lorentz.
Bo

Primero, escribamos una lista que contiene el sistema de ecuaciones:

(%i5) sis:[L11^2-c^2*L01^2=1,L11^2*v+c^2*L01*L00=0,c^2*L00^2-v^2*L11^2=c^2];

219
3.3. VECTORES, TENSORES Y ESPACIOS PSEUDOEUCLIDIANOS

⇥ ⇤
( %o5) L11 2 c2 L01 2 = 1, v L11 2 + c2 L00 L01 = 0, c2 L00 2 v 2 L11 2 = c2

Es importante agregar la información de que v > 0, y que además v < c, para evitar soluciones
complejas. El comando assume nos permite restringir el valor de los parámetros.

(%i6) assume(v>0,c>v);

( %o6) [v > 0, c > v]

ar
Procedemos a resolver el sistema de ecuaciones, lo podemos hacer con ayuda del comando solve:

(%i7) S:solve(sis,[L11,L00,L01]);

in
 p p
c c vv v+c c
( %o7) L11 = p , L00 = p , L01 = ,
 c2 v 2 c2 v 2 p cpv 2 c3
c c c vv v+c
L11 = p , L00 = p , L01 = ,

m
 c 2 v 2 c 2 v 2
p c v 2p c3
c c c vv v+c
L11 = p , L00 = p , L01 = ,
 c 2 v 2 c 2 v 2 cpv 2 c3 p
c c c vv v+c

eli
L11 = p , L00 = p , L01 =
c 2 v 2 c 2 v 2 c v 2 c3

Seleccionamos la primera de las listas anteriores y factorizamos con la rutina factor:

(%i8) map(factor,S[1]);

Pr p
c c c vv
( %o8) L11 = p , L00 = p , L01 = p
c2 v2 c2 v2 c (v c) v + c

3.3.5. Ejercicios
or

1. En el espacio euclidiano 3D, y en coordenadas cartesianas, no distinguimos entre vectores y 1 formas


debido a que sus componentes transforman de la misma manera. Demuestre que:
a) ãi = ⇤ij aj ^ b̃j = ⇤ij bi , son la misma transformación si la matriz ⇤ij es igual a la transpuesta de
ad

su inversa, es decir, si es ortogonal.


b) Considere dos observadores O : x, y $ x1 , x2 y Õ : x̃, ỹ $ x̃1 , x̃2 y sus sistemas de coordenadas
asociados.
1) Considere la siguiente transformación de coordenadas de Galileo:
p p p p
rr

2 1 2 2 2 1 2 2
x̃1 = V 1 t + x x y x̃2 = x + x ,
2 2 2 2
con V 1 una constante que representa la velocidad relativa entre O Õ, y t al tiempo (parámetro
Bo

de esta transformación).
A continuación suponga una partı́cula que describe un movimiento respecto a O siguiendo una
trayectoria recta, esto es x2 = ↵x1 , donde ↵ es una constante. Encuentre cómo lo describirı́a
el observador Õ respecto a sus coordenadas (x̃1 , x̃2 ).

220
3.3. VECTORES, TENSORES Y ESPACIOS PSEUDOEUCLIDIANOS

2) Considere ahora la generalización de la transformación de coordenadas anterior:


p p p p
1 1 2 1 2 2 2 2 2 1 2 2
x̃ = V t + x x y x̃ = V t + x + x ,
2 2 2 2

con V 1 y V 2 las componentes de una velocidad relativa entre O Õ, y t al tiempo. Muestre que
la norma de cualquier vector queda invariante respecto a una transformación de coordenadas
como la anterior y encuentre la matriz de transformación.

ar
2. Un acelerador produce partı́culas que tienen una vida promedio de 5µs. Estas logran alcanzar una
velocidad de 0,6c.
a) Un observador que se encuentra en reposo en el laboratorio ¿qué tiempo de vida media le atribuirá
a las partı́culas?

in
b) ¿Qué distancia promedio viajan las partı́culas en el acelerador?
c) Si suponemos que existe un observador en reposo con respecto a la partı́cula ¿Qué distancia se
desplazará éste observador antes de que la partı́cula se desintegre?

m
3. Un elemento de área cuadrada se encuentra en reposo para un observador O. Encuentre el área medida
por un observador en movimiento Õ si éste lleva una velocidad de 0,85c a lo largo de la diagonal del
cuadrado.

eli
4. Consideremos un vehı́culo se mueve con una velocidad V con respecto a un observador fijo en tierra O,
y un pasajero dentro del vehı́culo que se mueve con una velocidad ṽ con respecto al vehı́culo. Sabemos
de los cursos básicos que la velocidad del pasajero respecto al observador fijo en tierra es simplemente
la suma: v = ṽ + V . Nos podemos preguntar sobre la forma en que se suman las velocidades en la teorı́a
Pr
especial de la relatividad, es decir, ¿Cómo se suman las velocidades si consideramos las transformaciones
de Lorentz? Demuestre que se suman como:
ṽ + V
v= .
1 + ṽ cV2

5. Dado un espacio minkowskiano y un observador O que describe los eventos en el espacio-tiempo respecto
or

a un sistema de coordenadas {x↵ }, donde ↵ = 0, 1, 2, y ⌘ = diag[ 1, 1, 1] el tensor métrico. Considere


entonces la siguiente transformación de coordenadas:
1
x̃0 = (x0 x1 ) , x̃1 = (x1 x0 ) y x̃2 = x2 , con =p .
ad

1 2

Donde = v/c es la velocidad relativa entre O y Õ.


a) Otra vez, suponga que una partı́cula describe una linea recta respecto a O: x2 = ↵x1 , con ↵ igual
a una constante. Encuentre cómo lo describirı́a el otro observador Õ respecto a sus coordenadas
rr

(x̃0 , x̃1 , x̃2 ).



b) Encuentre la expresión para la transformación de coordenadas, @@xx̃ = ⇤↵˜ (transformación de
Lorentz) entre estos sistemas relativistas y muestre como la norma: x↵ x↵ = x↵ x ⌘↵ , de cualquier
Bo

vector se conserva.

221
3.3. VECTORES, TENSORES Y ESPACIOS PSEUDOEUCLIDIANOS

6. Considere el tensor de Maxwell definido como:


0 1 0 1
0 Ex Ey Ez 1 0 0 0
B Ex 0 cB z cB y C B 0 1 0 0 C
Fµ↵ = B @ E y cB z
C, otra vez con: ⌘µ⌫ =B C.
0 cB x A @ 0 0 1 0 A
E z cB y cB x 0 0 0 0 1

donde E = (E x , E y , E z ) y B = (B x , B y , B z ) son los campos eléctricos y magnéticos (respectivamente),


medidos por un observador O.

ar
a) Si un observador mide un campo eléctrico E = E x i y ningún campo magnético ¿Cuáles campos,
Fµ↵ , medirá otro observador que viaja con una velocidad respecto al primero de = vi?
@
b) Muestre que las ecuaciones de Maxwell: r ⇥ B @t E = 4⇡J , y r · E = 4⇡⇢ se pueden expresar

in
como:
@ µ⌫
F ⌘ F µ⌫ ,⌫ = 4⇡J µ , donde J µ = (c⇢, J 1 , J 2 , J 3 ) y J = (J 1 , J 2 , J 3 ) ,
@x⌫

m
c) Considere la identidad de Bianchi de la forma:

@Fµ⌫ @F⌫ @F µ
+ + ⌘ @ Fµ⌫ + @µ F⌫ + @⌫ F µ ⌘ Fµ⌫ , + F⌫ ,µ +F µ ,⌫ = 0,
@x @xµ @x⌫

eli
@
y demuestre que las otras dos ecuaciones r · B = 0 y r ⇥ E @t B = 0, también están contenidas
en las expresiones F µ⌫ ,⌫ = 4⇡J µ

7. El dual de un tensor B de rango 2, cuadridimensional, puede ser definido de manera que sus compo-
nentes vienen dadas por:
Pr 1
B ij = ✏ijkl Bkl .
2!
Muestre que B transforma como:
a) Un tensor de rango 2 bajo rotaciones.
b) Un pseudotensor bajo inversiones.
or

8. Construya F µ↵ , el dual del tensor de Maxwell F µ↵ .


9. Demuestre que c2 B2 E2 es un escalar de Lorentz.
ad

10. Resuelva los ejercicios anteriores utilizando Maxima.


rr
Bo

222
3.4. ESPACIOS DE FUNCIONES

3.4. Espacios de funciones


Los conceptos de espacios vectoriales discretos que hemos estudiado hasta ahora, finitos o infinitos, se
pueden extender a espacios de funciones, en donde los vectores del espacio vectorial y las bases son funciones
{|Fn (x)i}. La generalización de bases discretas a continuas se hace transformando el ı́ndice de las sumatorias
en la variable de una integral, de manera que los ı́ndices se convierten en variables continuas definidas en
intervalos finitos o infinitos.
Como primer paso para el estudio de estos espacios introduciremos un nuevo objeto matemático, que
como veremos más adelante, es de gran importancia y utilidad.

ar
3.4.1. La función delta de Dirac
Recordemos que la delta de Kronecker ij que definimos con anterioridad es una cantidad que toma

in
valores discretos: ij = 1 si i = j y ij = 0 si i 6= j. Es posible construir una extensión de este objeto
matemático para que los ı́ndices puedan tomar cualquier valor real.

Veamos la siguiente sucesión de funciones gaus-

m
sianas:
r
n nx2
n (x) = e ,

eli
tal que:
Z 1
n (x)dx = 1, n > 0.
1

A medida que el parámetro n aumenta su valor,


Pr
la curva gaussiana n (x) será cada vez más alta
y más angosta, y si n ! 1 la curva será enton-
ces infinitamente más alta e infinitamente más
angosta, pero siempre conservando que el área
bajo la curva será igual a la unidad. Figura 3.5: n (x) para tres valores diferentes de n.
or

Esto nos permite definir la “función”:


8
r < (x) ! 1 si x!0
n nx 2
ad

(x) = lı́m e )
n!1 ⇡ :
(x) = 0 si x 6= 0

Por tener este comportamiento tan particular no se le suele llamar función, sino una distribución, y si el
punto del máximo es un punto diferente de x = 0, podemos escribir:
r
rr

n n(x x0 )2
(x x0 ) = lı́m e ,
n!1 ⇡
donde x0 es el punto donde la gaussiana alcanza su valor máximo.
Bo

En general, este proceso de limite puede aplicarse a funciones cuya área bajo la curva sea la unidad:
Z 1
G(x)dx = 1 ,
1

223
3.4. ESPACIOS DE FUNCIONES

de manera que:
Z 1 Z 1
lı́m nG(n(x x0 ))f (x0 )dx0 = lı́m G(n(x x0 ))f (x0 ) d(nx0 )
n!1 1 n!1 1
Z ⇣
1
⌧⌘
= lı́m G(⌧ )f x d⌧ = f (x) .
n!1 1 n
Si se intercambian los procesos de lı́mite e integración:
Z 1h i

ar
f (x) = lı́m nG(n(x x0 )) f (x0 )dx0 ) (x x0 ) = lı́m nG(n(x x0 )) ⌘ (x, x0 ) ,
1 n!1 n!1

por lo tanto: 8
Z < (x, x0 ) ! 1 si x ! x0

in
1
0 0 0
f (x) = (x x )f (x )dx )
:
1 (x, x0 ) = 0 si x 6= x0
La principal propiedad de la delta de Dirac, (x x0 ), es que:

m
Z 1
f (x) (x x0 )dx = f (x0 ) ,
1

es decir, actúa parecido a como lo hace la delta de Kronecker cuando se contrae uno de sus ı́ndices con las

eli
componentes de un vector: aj = ji ai , en el sentido que de todos lo valores selecciona sólo uno. Además, si
f (x) = 1 entonces: Z 1
(x x0 )dx = 1 .
1
Pr
Existen algunas representaciones integrales basadas en el hecho de que (x x0 ) únicamente existe en
x = x0 , por ejemplo:
Z 1 Z x=x0 +"
f (x) (x x0 )dx = f (x) (x x0 )dx ,
1 x=x0 "
8
Z b < f (x0 ) si a  x0  b
or

f (x) (x x0 )dx =
a :
0 si x0 < a ó x0 > b

Y la función escalón de Heaviside:


8
ad

Z x < 1 si x x0
dH(x x0 )
H(x x0 ) = (x x0 )dx = ) (x x0 ) = .
1 : dx
0 si x  x0

Algunas de las tantas propiedades de la delta de Dirac son las siguientes:


rr

(x)
• (x x0 ) = (x0 x) • (ax) = |a|

• x (x) = 0 • f (x) (x x0 ) = f (x0 ) (x x0 )


Bo

n
• (x2 a2 ) = 1
2|a| [ (x a) + (x + a)] • xn+1 d dx(x)
n =0
R
• (r r0 ) = (x x0 ) (y y0 ) (z z0 ) • f (r) (r r0 )dV = f (r0 )

224
3.4. ESPACIOS DE FUNCIONES

3.4.2. Bases continuas


Tal y como vimos anteriormente, la representación de un vector |ai en un espacio vectorial abstracto V
puede darse en término de una base ortonormal de vectores (discreta y finita BDF = {|e1 i , |e2 i , |e3 i , · · · |en i}
o discreta e infinita BDI = {|e1 i , |e2 i , |e3 i · · · |en i · · · }) de la forma:
8 i ⌦
< c |ei i = ei ai |ei i ( BDF = {|e1 i , |e2 i , |e3 i · · · |en i}
|ai = ⌦
: i
c |ei i = ei ai |ei i ( BDI = {|e1 i , |e2 i , |e3 i · · · |en i · · · }

ar
donde en ambos casos: ⌦ ⌦
ci = ei ai = cj ei |ej i = cj i
j .
Recapitulemos ahora algunos puntos que hemos tratado con anterioridad, y con el fin de aclarar conceptos,

in
para el caso de bases discretas de funciones {|ei (x)i}.
La relación de ortogonalidad viene dada, como hemos mencionado, por:
Z b
n
he (x)|em (x)i = e⇤n (x)em (x)dx = ⇥n n
,

m
m
a

y con una norma definida como:


Z b

eli
2 2
k|ei (x)ik = hen (x)|en (x)i = |en (x)| dx = ⇥n .
a

La base será ortonormal si ⇥n = 1.


Con una base {|ei (x)i} definida, es posible representar cualquier función |f (x)i cuadrado integrable, es
decir que cumpla con:
Z b
Pr
2
|f (x)| dx 6= 1 ,
a
en una combinación lineal de la base dada:

|f (x)i = C i |ei (x)i


or

Las cantidades C i , las componentes de |f (x)i, se obtienen de la siguiente manera:


Z b
⌦ ⌦
ei (x) f (x)i = C j ei (x) ej (x)i = C j i
j = Ci = f (x)e⇤i (x)dx ,
ad

Resulta conveniente para los cálculos que vienen a continuación cambiar i ! n y x ! x0 , de manera que:
Z b
Cn = f (x0 )e⇤n (x0 )dx0 .
a
rr

Por lo tanto:
" #
X Z b XZ b
0
n
|f (x)i = C |en (x)i ) |f (x)i = f (x )e⇤n (x0 )dx0 |en (x)i = f (x0 )e⇤n (x0 )en (x)dx0
Bo

n a n a
Z b X
= f (x0 ) e⇤n (x0 )en (x)dx0 .
a n

225
3.4. ESPACIOS DE FUNCIONES

Utilizando la delta de Dirac:


Z b Z " #
b X X
|f (x)i = f (x0 ) (x x0 )dx0 = 0
f (x ) e⇤n (x0 )en (x) dx0 ) (x x0 ) = e⇤n (x0 )en (x) .
a a n n

Esta última relación viene a ser una generalización de la relación de cierre mencionada en la sección
2.3.4, y se conoce como condición de completitud para la base {|ei (x)i}, además, también resulta ser una
representación en serie para la delta de Dirac.
De todo esto surgen algunas propiedades fundamentales:

ar
Se dice que el conjunto {|ei (x)i} es completo si para |f (x)i = C i |ei (x)i, entonces se tiene que:
Z b X
2 2
|f (x)| = |C n | .

in
a n

Si |f (x)i = C i |ei (x)i y |g(x)i = E i |ei (x)i, entonces hf (x)|g(x)i = Cn⇤ E n .

m
Es posible pasar de estos espacios vectoriales discretos, donde las bases son un conjunto numerable de
elementos {en (x)}, a espacios vectoriales de funciones con las bases dadas por funciones y donde el ı́ndice n
pasa a ser una variable continua.
Recordemos que en la sección 2.3.4 hablábamos de un conjunto de funciones {|e1 i , |e2 i , |e3 i , · · · , |en i · · · }

eli
definidas por:

|e0 i = 1, |e2n 1i = cos(nx) y |e2n i = sen(nx), con n = 1, 2, 3, · · · ,

la base discreta de Fourier. Base que también podemos escribir de la forma compleja, como se muestra a
continuación:
1 n⇡ 1
Pr
|en (x)i = p ei L x = p eikx , con n = 1 . . . 1 y L  x  L.
2L 2L
Cuando n aumenta indefinidamente, también lo hará la cantidad k = n⇡
L , convirtiéndose entonces en una
n⇡
variable continua, es decir, k = L ! 0. Notemos que los ı́ndices de la delta de Kronecker nm = nn0
Lk0
pueden tomar los valores: n = Lk 0
⇡ , n = ⇡ , y en el proceso de L ! 1 se convertirán en:
or

✓ ◆ ✓ ◆
Lk Lk 0 L 0 ⇡
nn0 ! = (k k ) = (k k 0 ) .
⇡ ⇡ ⇡ L
De esta manera, la base ortonormal quedará escrita en función de las variables continuas k y x, como se
ad

muestra a continuación:
1
|e(k, x)i = p eikx .
2⇡
El hecho de que sean ortonormales se refleja en la siguiente condición (que es una extensión de la expresión
para el producto interno de bases discretas)
rr

Z b
he(k, x)|e(k, x)i = e(k, x)⇤ e(k 0 , x) dx = (k k 0 ) , con ↵  k  , a  x  b
a
Bo

Al ser el conjunto de funciones {|e(k, x)i} una base, toda función del mismo espacio vectorial se puede
expandir en esa base como:
Z
|f (x)i = C(k)e(k, x)dk .

226
3.4. ESPACIOS DE FUNCIONES

En correspondencia con el caso de las bases discretas, el coeficiente C(k) viene a ser algo parecido a las
componentes de |f (x)i. Y para calcularlas se procede como se muestra a continuación:
Z Z "Z # Z
b b
he(k 0 , x) |f (x)i = e(k 0 , x)⇤ f (x) dx = C(k) e(k 0 , x)⇤ e(k, x) dx dk = C(k) (k k 0 )dk = C(k 0 ) .
a ↵ a ↵

Volvamos a cambiar la notación para los ı́ndices: k 0 ! k, x ! x0 en la última ecuación:


Z b

ar
C(k) = e(k, x0 )⇤ f (x0 )dx0 ,
a

por lo tanto:
Z Z "Z # Z

in
b b
0 0 ⇤ 0
|f (x)i = C(k) |e(k, x)i dk = f (x ) e(k, x ) e(k, x)dk dx = f (x0 ) (x x0 )dx0 ,
↵ a ↵ a

y la relación:

m
Z
e(k, x0 )⇤ e(k, x)dk = (x x0 ) ,

será la relación de cierre para el conjunto no numerable de funciones ortonormales.

eli
Una integral como la que nos permitió definir C(k), digamos, del tipo:
Z b Z
F (k) = f (x0 )e(k, x0 )⇤ dx0 ) |f (x)i = F (k)e(k, x)dk ,
a ↵
Pr
es lo pque se denomina una transformada de f (x). Más adelante veremos que si la base, es por ejemplo
eikx / 2⇡, la transformada será la de Fourier.
En el espacio vectorial de funciones de cuadrado integrable L2 , definidas en R3 , tendremos que:
1
X ✓Z 1 ◆

|F i = ci |ei i ⌘ ei F i |ei i = d3 r0 ⇠i⇤ (r0 ) f (r0 ) |ei i ,
i=0 1
or

que se reescribe en términos de funciones como:


1 ✓Z
X 1 ◆
f (r) = d3 r0 ⇠i⇤ (r0 ) f (r0 ) ⇠i (r) .
ad

i=0 1

R P
Es claro que se pueden intercambiar los sı́mbolos de y , por lo cual:
Z " 1
#
1 X
3 0 0
f (r) = d r f (r ) ⇠i⇤ (r0 ) ⇠i (r) ,
rr

1 i=0
| {z }
G(r0 ,r)

la función G(r0 , r), que depende de los argumentos r0 y r, vive dentro de las integrales y convierte:
Bo

Z 1
f (r) = d3 r0 f (r0 ) G(r0 , r) .
1

227
3.4. ESPACIOS DE FUNCIONES

Podemos ver entonces que: Z 1


f (r) = d3 r0 f (r0 ) (r0 r) .
1
En resumen, la generalización de bases discretas a continuas se hace transformando el ı́ndice de la suma-
toria en la variable de una integral:
Z Z Z
| i = d↵ c (↵) |w↵ i ) c ( ) = hw | i = d↵ c (↵) hw |w↵ i = d↵ c (↵) (↵ ).

ar
Ası́, para los conceptos expresados hasta ahora se tiene el siguiente tabla resumen:
Propiedad\Base ⌦ Discreta Continua
Ortogonalidad ui |u i = j⌦i hw |w R ↵ i = (↵ )
P1 j
Cierre 1 = j=0 |uj i uj 1 = d↵ |w↵ i hw↵ |

in
P1 R
Expansión |F i = ⌦i=0 ci |ui i | i = d↵ c (↵) |w↵ i
Componentes ci = Pui F i c ( )R = hw | i
1
Producto Interno hG| F i = i=0 g i⇤ fi hG| F i = d↵ g ⇤ (↵) f (↵)
P1 R

m
2 2
Norma hF | F i = i=0 |fi | hF | F i = d↵ |f (↵)|

3.4.3. Bases de ondas planas y la transformada de Fourier

eli
En las teorı́as de oscilaciones es de gran importancia considerar el problema de la transformada de Fourier.
Recientemente vimos que una función f (x) puede representarse de la forma:
Z
|f (x)i = C(k)e(k, x)dk ,

Pr
si la función f (x) está definida en ( 1, 1) y si tomamos al conjunto de vectores base al conjunto de funciones
p
continuas y ortonormales {e(k, x)} como {eikx / 2⇡}, entonces la integral anterior la podemos escribir de la
forma: Z 1
1
|f (x)i = p F(k)eikx dk , (3.11)
2⇡ 1
R
Si utilizamos la relación de ortogonalidad: he(k, x)|e(k, x)i = e(k, x)e(k 0 , x)⇤ dx = (k k 0 ), resulta:
or

Z 1
0
ei(k k )x dx = 2⇡ (k k 0 ) .
1

Donde: Z
ad

1
1 ikx
|F(k)i = p f (x)e dx .
2⇡ 1

A las variables x y k se les denominan variables conjugadas de Fourier (no conjugadas como en variable
compleja) y a F(k) la transformada de Fourier de f (x) (y viceversa).
Notemos que si sustituimos F(k) en la otra integral, ecuación (3.11), entonces:
rr

Z 1Z 1 Z 1
1 ik(x x0 ) 0 0
f (x)e dk dx ) |f (x )i = f (x) (x x0 ) dx0 .
2⇡ 1 1 1
Bo

Por otra parte, podemos ver que la integral para F(k) se puede hacer en dos partes:
Z 1 Z 0 Z 1
1 1 1
|F(k)i = p f (x)e ikx dx ) p f (x)e ikx dx + p f (x)e ikx
dx .
2⇡ 1 2⇡ 1 2⇡ 0

228
3.4. ESPACIOS DE FUNCIONES

Si sustituimos x ! x, en la primera integral de la ecuación anterior resulta:


Z 1 Z 1
1 1
|F(k)i = p f ( x)eikx dx + p f (x)e ikx dx .
2⇡ 0 2⇡ 0
Dos casos podemos considerar:

Si la función es par, f (x) = f ( x):


Z 1 Z 1
r Z 1

ar
1 ikx ikx 2
|F(k)i = p f (x)e dx + f (x)e dx = f (x) cos(kx) dx ,
2⇡ 0 0 ⇡ 0

entonces, de la transformada al hacer F(k) = F( k) se tiene:


r Z 1

in
2
|f (x)i = F(k) cos(kx) dk .
⇡ 0

Estas dos funciones se conocen como las transformadas coseno de Fourier.

m
Si la función es impar, f (x) = f ( x):
Z 1 Z 1
r Z 1
1 ikx ikx 2
|F(k)i = p f ( x)e dx f ( x)e dx = i f (x)sen(kx) dx .

eli
2⇡ 0 0 ⇡ 0

Ahora al hacer F(k) = F( k) se tiene:


r Z 1
2
Pr
|f (x)i =

F̃(k)sen(kx) dk ,
0

donde F̃ (k) = iF (k). Tenemos ahora las transformadas seno de Fourier.


La generalización a Rn es obvia. Si f = f (r), entonces:
 1 Z 1 Z 1
1
or

n
|f (r)i = p ··· F(k)ei(k·r) dk ,
2⇡ 1 1

donde dk = dk1 dk2 dk3 . . . dkn . Para la transformada:


ad

 1 Z 1 Z 1
1 n
i(k·r)
|F(k)i = p ··· f (r)e dr ,
2⇡ 1 1

donde dr = dx1 dx2 dx3 . . . dxn , representa el elemento de volumen en Rn .


rr

Ondas planas
Como un ejemplo de lo anterior, consideraremos la base de las ondas planas. Si a k la llamaremos s y a
la variable x el tiempo t, vale decir:
Bo

Z 1 Z 1
1 1
F (s) = p dt eist f (t) f (t) = p ds e ist F (s) .
2⇡ 1 2⇡ 1

229
3.4. ESPACIOS DE FUNCIONES

De esta manera, a la función F (s) se le denomina la distribución espectral de f (t) y a |F (s)|2 la densidad
espectral, es decir, la intensidad de la onda en el intervalo [s, s + s]. Esto significa que la energı́a total es:
Z 1
E= |F (s)|2 ds .
1

También podemos reescribir las transformadas en términos de la posición y el momento:


Z 1 Z 1
1 i(px/~) ¯ ¯ 1
(x) = p dp e (p) (p) = p dx e i(px/~) (x) .

ar
2⇡~ 1 2⇡~ 1
Hemos tenido cuidado de incluir los factores de normalización adecuados para el caso de las descripciones
en Mecánica Cuántica. Estas fórmulas pueden ser reinterpretadas en función de los conceptos anteriormente
expuestos y podemos definir una base continua de la forma:

in
Z 1 ✓ ◆ Z 1 ✓ ◆
1 1 ¯ (p) = p 1 1
(x) = p dp p ei(px/~) ¯ (p) dx p e i(px/~) (x) ,
2⇡~ 1 2⇡~ 2⇡~ 1 2⇡~
| {z } | {z }

m
vp (x) vp⇤ (x)

por lo cual: Z Z
1 1
(x) = dp vp (x) ¯ (p) ¯ (p) = dx vp⇤ (x) (x) .

eli
1 1

Diremos que la función (x) está expresada en la base de ondas planas vp (x) = p 1 ei(px/~) .
2⇡~
Nótese lo siguiente:
El ı́ndice p de vp (x) varı́a de forma continua entre 1 a 1.
1
Pr
Que vp (x) = p2⇡~ ei(px/~) 2
/ L2 , es decir, no pertenece al espacio vectorial de funciones de cuadrado
integrable ya que su norma diverge:
Z 1 Z 1
2 1
hvp | vp i = dx |vp (x)| = dx ! 1.
1 1 2⇡~
or

Que las proyecciones de (x) sobre la base de ondas planas es: ¯ (p) = hvp | i.
La relación de cierre para esta base se expresa como:
Z Z 1 Z 1
1 i[ p ( x 0 x)/~]
ad

⇤ 0
1= d↵ |v↵ i hv↵ | dp vp (x ) vp (x) = dp e = (x0 x) ,
1 1 2⇡~

mientras que de la definición de producto interno se obtiene:


Z 1 Z 1
1 i[ x ( p 0 p)/~]
hvp0 | vp i = dx vp⇤0 (x) vp (x) = dx e = (p0 p) .
rr

1 1 2⇡~

En este mismo orden de ideas, podemos construir otra base continua⇠r0 (r) a partir de la utilización de
las propiedades de la delta de Dirac. Esto es:
Bo

Z 1 Z 1
3
(r) = d r0 (r0 ) (r0 r) (r0 ) = d3 r (r) (r r0 ) ,
1 | {z } 1
⇠r0 (r)

230
3.4. ESPACIOS DE FUNCIONES

por lo cual la reinterpretación es inmediata:


Z 1 Z 1
(r) = d3 r0 (r0 ) ⇠r0 (r) , con: (r0 ) = h⇠r0 | i = d3 r ⇠r⇤0 (r) (r) ,
1 1

más aún, la ortogonalidad queda garantizada por la relación de cierre:


Z 1 Z 1
h⇠r0 | ⇠r0 i = d3 r0 ⇠r⇤0 (r) ⇠r0 (r0 ) = d3 r0 (r r0 ) (r0 r0 ) = (r0 r) ,
1 1

ar
al igual que:
Z 1 Z 1

h⇠r0 | ⇠r00 = 3
d r ⇠r⇤0 (r) ⇠r00 (r) = d3 r (r r0 ) (r r00 ) = (r00 r0 ) .

in
1 1

3.4.4. Las representaciones |ri y |pi


A partir de las bases de ondas planas vp0 (x), y de distribuciones, ⇠r0 (r), construimos las llamadas

m
representaciones |ri y |pi de la forma siguiente.
Primero asociamos:
⇠r0 (r) |r0 i ^ vp0 (x) |p0 i .

eli
De esta forma, dada las bases {⇠r0 (r)} y {vp0 (x)} para el espacio vectorial V definiremos dos “representa-
ciones”: la representación de coordenadas, |r0 i , y la representación de momentos |p0 i de V, respectivamente.
De tal modo que:
Z 1 Z
hr0 | r00 i = d3 r ⇠r⇤0 (r) ⇠r00 (r) = (r00 r0 ) ) 1 = d3 r0 |r0 i hr0 | ,
1
Z 1 Z 1
Pr Z
1
hp0 | p00 i = d3 r vp⇤00 (r) vp0 (r) = d3 r e i(r0 ·p0 /~) = (p00 p0 ) ) 1 = d3 p0 |p0 i hp0 | .
1 1 2⇡~

Podemos entonces expresar el producto interno para la representación de coordenadas como:


✓Z ◆ Z
d r0 |r0 i hr0 | | i = d3 r0 ⇤ (r0 ) (r0 ) ,
or

3
h | i=h |
| {z }
1

y equivalentemente para la representación de momentos:


ad

✓Z ◆ Z

h | i=h | d p0 |p0 i hp0 | | i = d3 p0
3
(p0 ) (p0 ) ,
| {z }
1
rr

por lo cual hemos encontrado que:


Z Z
3
| i= d r0 |r0 i hr0 | i= d3 p0 |p0 i hp0 | i,
Bo

(r0 ) = hr0 | i y (p0 ) = hp0 | i ,

que es la representación de | i en coordenadas, (r0 ), y en momentos, (p0 ).

231
3.4. ESPACIOS DE FUNCIONES

Adicionalmente cuando | i = |pi tendremos que:


✓Z ◆ Z
3 0 0 0 1 i 1 i
hr0 |p0 i = hr0 | d r0 |r0 i hr0 | |p0 i = 3/2
d3 r00 (r00 r0 ) e ~ (p0 ·r0 ) = 3/2
e ~ (p0 ·r0 ) ,
| {z } (2⇡~) (2⇡~)
1

con lo cual (p0 ) puede considerarse la transformada de Fourier de (r0 ), y denotaremos de ahora en adelante
las bases |r0 i ⌘ |ri y |p0 i ⌘ |pi.
Estos ı́ndices continuos, r0 y p0 , representan tres ı́ndices continuos r ⌦ (x, y, z) y p ⌦ (px , py , pz ). La

ar
proyección de un vector abstracto | i en la representación |ri será considerada como su expresión en el
espacio de coordenadas, igualmente su proyección hp | i será su expresión en el espacio de los momentos.
Eso nos permitirá hacer corresponder los elementos de espacios vectoriales abstractos con elementos de un
espacio vectorial de funciones. Por lo tanto todas las fórmulas de proyección quedan como:

in
hr | i = (r) y hp | i = (p) .

mientras que las relaciones de cierre y ortonormalización son:

m
Z
hr| r0 i = (r0 r) y 1 = d3 r |ri hr| ,
Z
hp| pi = (p0 p) y 1 = d3 p |pi hp| .

eli
Por su parte, la relación de cierre hará corresponder a la expresión del producto interno de dos vectores,
tanto en la representación de las coordenadas como en la representación de momentos, en una de la forma:
✓Z ◆ Z ✓Z ◆ Z
h |
Pr
d3 r |ri hr| | i = d3 r ⇤ (r) (r) ^ h | d3 p |pi hp| | i = d3 p ¯⇤ (p) ¯(p) ,

donde ¯⇤ (p) y ¯(p) son las transformadas de Fourier de ⇤ (r) y (r), respectivamente. La afirmación anterior
queda evidentemente demostrada del cambio entre las bases |ri y |pi. Esto es:

⇤ 1 i
hr |pi = hp |ri = e ~ (p·r) ,
or

3/2
(2⇡~)

por lo cual:
✓Z ◆ Z Z
1 i
ad

(r) = hr | i = hr| d3 p |pi hp| | i = d3 p hr |pi hp| i= 3/2


d3 p e ~ (p·r) ¯(p) ,
(2⇡~)

e inversamente:
✓Z ◆ Z Z
1 i
(p) = hp | i = hp| d3 r |ri hr| | i = d3 r hp |ri hr| i= d3 r e ~ (p·r) (r) .
rr

3/2
(2⇡~)
Bo

232
3.4. ESPACIOS DE FUNCIONES

3.4.5. Ejemplos
1. Una distribución de carga eléctrica puede escribirse de manera sencilla utilizando la delta de Dirac a
través de la siguiente integral: Z
q= ⇢(r)dV ,
V
de manera que para una carga puntual localizada en r = r0 se tiene que:
Z Z
q=q (r r0 )dV = ⇢(r)dV ) ⇢(r) = q (r r0 ) .

ar
V
| {z }
=1

2. Demostremos que:
(x)

in
(↵x) = , ↵ > 0.

Entonces, haremos el siguiente cambio de variable: y = ↵x.

m
Z 1 Z 1 ⇣y⌘ Z 1 ⇣y⌘ Z 1
1 1 f (0)
f (x) (↵x)dx = f (y) dy = f (y)dy = = f (x) (x)dx ,
1 1 ↵ ↵ ↵ 1 ↵ ↵ 1

(x)

eli
por lo tanto: (↵x) = ↵ .
La condición ↵ > 0 es porque se debe tener en cuenta que la función delta de Dirac es par, es decir,
(↵x) = ( ↵x). De manera que resulta más apropiado escribir:
(x)
(↵x) = .
Pr |↵|

3. Demostremos ahora que:


X (x ↵)
(g(x)) = , g(↵) = 0 ^ g 0 (↵) 6= 0 .

|g 0 (↵)|
or

Podemos ver que para la función g(x), en los intervalos donde se hace cero, se tiene:
g(x) ⇡ g(↵) + (x ↵)g 0 (↵) , " < ↵ < ".
De manera que si sumamos para todos esos intervalos:
ad

Z 1 X Z ↵+" Z 1 X (x ↵)
f (x) (g(x))dx = f (x) ((x ↵)g 0 (↵)) dx = f (x) dx ,
1 ↵ ↵ " 1 ↵
|g 0 (↵)|

donde hemos utilizado el resultado del ejemplo anterior. Por lo tanto:


rr

X (x ↵)
(g(x)) = .

|g 0 (↵)|
Bo

4. Podemos ver la transformada de Fourier de la derivada de una función. Si


Z 1 Z
1 d (ik)n 1
|f (x)i = p F(k)eikx dk ) |f (x)i = p F(k)eikx dk .
2⇡ 1 dxn 2⇡ 1

233
3.4. ESPACIOS DE FUNCIONES

5. Encontremos la transformada de Fourier de la siguiente función:

8 n⇡ n⇡
< sen(!0 t) !0 <t< !0
f (t) =
: n⇡ n⇡
0 t< !0 ^ t> !0

La función f (t) representa un tren de ondas finito

ar
con n ciclos en el intervalo dado, como se aprecia
en la figura 3.6.
Por el hecho de ser f (t) una función impar, po-
demos utilizar la transformada seno de Fourier:

in
Z n⇡
2 !0
|F(!)i = p f (t)sen(!t) dt
2⇡ 0
Z n⇡
2 !0
= p sen(!0 t)sen(!t) dt .

m
2⇡ 0 Figura 3.6: f (t) con: n = 6 y !0 = ⇡.

Resolviendo la integral obtenemos la distribución espectral:

eli

2 [!0 sen (⌧ !) cos (n⇡) ! cos (⌧ !) sen (n⇡)] 1 sin [⌧ (!0 !)] sin [⌧ (!0 + !)]
|F(!)i = p =p ,
2⇡ (! 2 !0 2 ) 2⇡ 2(!0 !) 2(!0 + !)
n⇡
donde ⌧ = !0 .
Pr
Se puede demostrar que los lı́mites:

lı́m |F(!)i = lı́m |F(!)i = 0 .


!0 !1 !!1

Se puede apreciar también que el primer término, de la


or

expresión entre corchetes, es el de mayor relevancia debido


a que en el denominador aparece la diferencia: !0 !.
En la Figura 3.7 se muestra la función de distribución y
en ella podemos notar que a medida que n crece la función
ad

|F(!)i es una delta de Dirac en ! = !0 = ⇡.


Por otro lado, es fácil ver que los ceros ocurren cuando:
!0 ! 1 2 3
= ± ,± ,± ...
!0 n n n
Figura 3.7: F(!) con: n = 6 y !0 = ⇡.
rr
Bo

234
3.4. ESPACIOS DE FUNCIONES

3.4.6. Practicando con Maxima


Estudiaremos en este módulo como calcular transformadas integrales de Fourier con Maxima. Dispone-
mos de las siguientes funciones: fourint(f,x) que calcula y devuelve la lista de los coeficientes integrales de
Fourier de f (x) definida en el intervalo ( 1, 1). La función fourintcos (f,x) que devuelve los coeficientes
integrales de los cosenos f (x) en (0, 1) y la función fourintsin(f,x) que retorna los coeficientes integrales
de los senos f (x) en (0, 1)
Vamos a aclarar a que se refieren cuando se habla de los coeficientes integrales.
Para Maxima si f (x) es una función definida en ( 1, 1) la transformada de Fourier exponencial es:

ar
Z 1 Z 1
1 izx
F (f, z) = f (x) e dx , f (x) = f (x) e izx dz .
2⇡ 1 1

Como vimos anteriormente podemos tener los siguientes casos:

in
La función es par: f ( x) = f (x), entonces: F (f, z) = F (f, z) y podemos utilizar la representación en
transformadas coseno de Fourier:
1
F (f, z) = Fcos (f, z) .

m
2
La función es impar: f ( x) = f (x), entonces: F (f, z) = F (f, z) y podemos utilizar la representa-
ción en transformadas seno de Fourier:

eli
i
F (f, z) = Fsen (f, z) .
2

La función no es par ni impar. Pero f (x) siempre se puede escribir como la suma de una función par
f+ (x) y una impar f (x):
Pr 1 1
f (x) = f+ (x) + f (x) = [f (x) + f ( x)] + [f (x) f ( x)] ,
2 2
de manera equivalente:
1 i
F (f, z) = F (f+ + f , z) = Fcos (f+ , z) + Fsen (f , z) .
2 2
or

Entonces, la librerı́a fourie lo que genera es la transformada de Fourier de la forma:


1 i
F (f, z) = a z + bz .
2 2
ad

Veamos algunos ejemplos:

1. Consideremos la siguiente función par:


|x|
f = x2 e , con x 2 ( 1, 1) .
rr

Podemos intentar resolver la integral que define la transformada de Fourier de manera “manual” o
directa: Z 1
Bo

x2 e |x| e ikx dx .
1

(%i1) f:x^2*exp(-abs(x));

235
3.4. ESPACIOS DE FUNCIONES

|x|
( %o1) x2 e

(%i2) integrate(exp(-%i*k*x)*f,x,minf,inf);
Z 1
|x| i k x
( %o2) x2 e dx
1

Lo que significa que el programa no supo resolverla. Intentemos ahora utilizar las funciones propias del
programa.

ar
(%i3) load(fourie)$

(%i4) fourint(f,x);

in
⇣ ⌘
2 6 z2
2 z 6 +3 z 4 +3 z 2 +1 z 6 +3 z 4 +3 z 2 +1
( %t4) az =

m
( %t5) bz = 0
( %o5) [ %t4, %t5]

(%i6) ratsimp(%t4),factor;

eli
4 3 z2 1
( %o6) az = 3
⇡ (z 2 + 1)
Pr
Esta es la notación que el programa utiliza para decirnos que la transformada es
" #
1 4 3 k2 1 2 3 k2 1
F (k) = 3 = 3 .
2 ⇡ (k 2 + 1) ⇡ (k 2 + 1)

Notemos que el cálculo anterior se corresponde a la transformada coseno de Fourier:


or

(%i17)fourintcos(f,x);
⇣ ⌘
2 6 z2
2 z 6 +3 z 4 +3 z 2 +1 z 6 +3 z 4 +3 z 2 +1
( %t7) az =
ad


( %o7) [ %t7]

(%i8) ratsimp(%t7),factor;
rr

4 3 z2 1
( %o8) az = 3
⇡ (z 2 + 1)
Podemos intentar resolver directamente la integral para la transformada coseno de Fourier. Para tal
Bo

fin escribimos toda la expresión a resolver.

(%i9) Fz:ratsimp(1/%pi*integrate(cos(x*z)*f,x,0,inf)),factor;

236
3.4. ESPACIOS DE FUNCIONES

2 3 z2 1
( %o9) 3
⇡ (z 2 + 1)
Incluso podemos probar calculando la transformada inversa y verificar que los cálculos son correctos.

(%i10)integrate(exp(-%i*z*x)*Fz,z,minf,inf);

Is x positive, negative or zero? p;


( %o10) x2 e x

ar
(%i11)integrate(exp(-%i*z*x)*Fz,z,minf,inf);

Is x positive, negative or zero? n;

in
( %o11) x2 ex
2. Consideremos la siguiente función impar:
|x|
f = xe .

m
(%i12)f:x*exp(-abs(x));

|x|

eli
( %o12) x e

(%i13)fourint(f,x);

( %t13) az = 0

( %t14) bz =
4z
Pr
⇡ (z 4 + 2 z 2 + 1)
( %o14) [ %t13, %t14]

(%i15)ratsimp(%t14),factor;

4z
or

( %o15) bz = 2
⇡ (z 2 + 1)
(%i16)fourintsin(f,x);

4z
ad

( %t16) bz =
⇡ (z 4 + 2 z 2 + 1)
( %o16) [ %t16]

(%i17)ratsimp(%t16),factor;
rr

4z
( %o17) bz = 2
⇡ (z 2 + 1)
Bo

Esto significa que la transformada seno de Fourier es:


" #
i 4k 2i k
F (k) = = 2 .
2 ⇡ (k 2 + 1)2 ⇡ (k 2 + 1)

237
3.4. ESPACIOS DE FUNCIONES

Realicemos nuevamente el cálculo pero integrando para comparar.

(%i18)Fz:%i*ratsimp(1/%pi*integrate(sin(x*z)*f,x,0,inf)),factor;

2iz
( %o18) 2
⇡ (z 2 + 1)
Vamos a calcular la transformada inversa:

ar
(%i19)integrate(exp(-%i*z*x)*Fz,z,minf,inf);

Is x positive, negative or zero? p;


x
( %o19) x e

in
(%i20)integrate(exp(-%i*z*x)*Fz,z,minf,inf);

Is x positive, negative or zero? n;

m
( %o20) x ex

3. Dada la siguiente función que no es par ni impar:

eli
|x|)
f (x) = (x 1)e( .

(%i21)f:(x-1)*exp(-abs(x));

|x|
Pr
( %o21) (x 1) e

(%i22)fourint(f,x);

2
( %t22) az =
⇡ (z 2 + 1)
or

4z
( %t23) bz =
⇡ (z 4 + 2 z 2 + 1)
( %o23) [ %t22, %t23]
ad

(%i24)az:ratsimp(%t22),factor; bz:ratsimp(%t23),factor;

2
( %o24) az =
⇡ (z 2 + 1)
rr

4z
( %o25) bz = 2
⇡ (z 2 + 1)
(%i26)Fz:1/2*rhs(az)+%i/2*rhs(bz),factor;
Bo

z2 2iz + 1
( %o26) 2
⇡ (z 2 + 1)

238
3.4. ESPACIOS DE FUNCIONES

De nuevo, la transformada inversa para verificar:

(%i27)integrate(exp(-%i*z*x)*Fz,z,minf,inf);

Is x positive, negative or zero? p;


x
( %o27) (x 1) e

(%i28)integrate(exp(-%i*z*x)*Fz,z,minf,inf);

ar
Is x positive, negative or zero? n;
( %o28) (x 1) ex

(%i29)kill(all)$

in
4. Resolvamos ahora el ejemplo 5 donde la función era:

f (t) = sen(!0 t) .

m
(%i1) load(fourie)$

eli
(%i2) f:sin(w0*t);

( %o2) sin (w0 t)

Como la función es impar, podemos intentar:


Pr
(%i3) fourintsin(f,t);
⇣ ⌘
sin(t z+w0 t) sin(t z w0 t)
2 lı́mt!1 2 z+2 w0 2 w0 2 z
( %t3) bz =

( %o3) [ %t3]
or

¡Intento fallido! Podemos probar resolviendo la integral.

(%i4) tau:n*%pi/w0;
ad

(%i5) Fw:sqrt(2/%pi)*ratsimp(integrate(sin(t*omega)*f,t,0,tau));

Is nw0 positive, negative or zero? p;


p
2 (w0 !) sin ⇡ n w0+⇡ n!
+ ( w0 !) sin ⇡ n w0 ⇡ n !
rr

( %o5) pw0 2
w0
⇡ 2 w0 2 !2
Asignemos los valores numéricos a los parámetros:
Bo

(%i6) n:6$ w0:%pi$

(%i7) Fw:ev(Fw);

239
3.4. ESPACIOS DE FUNCIONES

p ⇣ ⇣
6 ⇡ !+6 ⇡ 2
⌘ ⇣
6 ⇡2 6 ⇡ !
⌘⌘
2 (⇡ !) sin ⇡ +( ! ⇡) sin ⇡
( %o7) p
⇡ (2 ⇡ 2 2 !2 )

Grafiquemos ahora la transformada F (w):

(%i8) wxplot2d([Fw], [omega,0,3*%pi])$

( %o8)

ar
in
m
eli
Pr
3.4.7. Ejercicios
1. Si: 8
or

1
< 0 x< 2n
1 1
n (x) = n 2n <x< 2n
: 1
0 x< 2n

demuestre que:
ad

Z 1
f (0) = lı́m f (x) n (x)dx ,
n!1 1

para f (x) continua en x = 0.


rr

2. Para:
n 1
n (x) = .
⇡ 1 + n2 x 2
Demuestre lo siguiente: Z
Bo

1
n (x)dx = 1.
1

240
3.4. ESPACIOS DE FUNCIONES

3. Si:
n n2 x 2
n (x) =p e .

Demuestre que:
d (x)
x = (x) .
dx
4. Demuestre la siguiente relación: Z 1
0
(x)f (x)dx = f (0) .

ar
1

5. Dadas las siguientes funciones ortonormales:



1 1
a) |e(k, x)i = p sen(kx) , p cos(kx) , con: 0  k < 1 , 1  x < 1 .
⇡ ⇡

in

1
b) |e(k, x)i = p eikx , con: 1  k < 1, 1  x < 1.
2⇡
a) Escriba las condiciones de ortogonalidad y cierre.

m
b) Demuestre:
R1
1) sen(kx)sen(k 0 x)dx = ⇡ (k k 0 ).
R 11
2) cos(kx) cos(k 0 x)dx = ⇡ (k k 0 ).
R 11

eli
3) 1
sen(kx) cos(k 0 x)dx = 0.
6. Demuestre que si:
n
n (x) = ,
⇡(1 + n2 x2 )
entonces:
Pr Z 1
n dx = 1.
1

7. Dada la siguiente sucesión de funciones:


✓ ◆2
1 sen(nx/2)
n (x) = .
2n⇡ sen(x/2)
or

Demuestre que n (x) es una distribución delta de Dirac al calcular


" Z 1 ✓ ◆2 #
1 sen(nx/2)
lı́m f (x) dx = f (0) .
n!1 2n⇡ 1 sen(x/2)
ad

8. Encuentre las transformadas de Fourier de las siguientes funciones:


8 x
8 1
< e , x>0 < h(1 a|x|) , |x| < a
a) f (x) = b) f (x) =
rr

: : 1
0, x<0 0, |x| > a

9. Dad F (k) como la transformada de Fourier, en tres dimensiones, de f (r) y Fd (k) la transformada de
Fourier, tridimensional, de rf (r). Demuestre que:
Bo

Fd (k) = ik(k) .

10. Resuelva los ejercicios anteriores con Maxima.

241
Bibliografı́a

ar
in
[1] Arfken, G. B.,Weber, H., Weber, H.J. (2000) Mathematical Methods for Physicists 5ta Edición
(Academic Press, Nueva York)

m
[2] Borisenko, A.I, y Tarapov I.E. (1968) Vector and Tensor Analisys (Dover Publications Inc, Nueva
York)
[3] Dennery, P. y Krzywicki, A. (1995) Mathematics for Physicists (Dover Publications Inc, Nueva York)

eli
[4] Harper, C. (1971) Introduction to Mathematical Physics (Prentice Hall, Englewood Cli↵, N.J:)
[5] Hassani, S. (1991) Foundations of Mathematical Physics (Prentice Hall, International Edition,
London:
Pr
[6] Hauser, W (1971) Introduction to Principles of Electromagnetism (Addison-Wesley Pub Co
Reading)
[7] Riley, K.F., Hobson, M.P. y Bence, S.J. (2002) Mathematical Methods for Physics and Enginee-
ring (Cambridge University Press)
[8] Santaló, L.A (1969) Vectores y Tensores (Editorial Universitaria, Buenos Aires)
or

[9] Schutz, B. (1980) Geometrical Methods in Mathematical Physics (Cambridge University Press,
Londres)
[10] Spiegel, M. (1959) Vector Analysis (Schaums Outline Series, McGraw Hill New York )
ad
rr
Bo

242

También podría gustarte