Está en la página 1de 34

CÁLCULO EN VARIEDADES

PARTE 1: Tensores
Versión 2003-05-01

Copyright (c) 2003 by F. A. González de la Hoz.


This material may be distributed only subject to the terms and conditions set forth in the Open Publication
License, v1.1 or later (the latest version is presently available at http://www.opencontent.org/openpub/).

CONTENIDO

1 - PRESENTACIÓN

2 - PRELIMINARES
k
Funciones C
Teorema de la función inversa
Notación para cálculo varacional
Ecuaciones de Euler-Lagrange
Convenio de sumación de índices repetidos
Delta de Kronecker
Símbolos alternados

3 - RESULTADOS DE ÁLGEBRA VECTORIAL


Bases y espacios duales
Tensores
Base del espacio tensorial y componentes de un tensor
Tensores alternados
Producto exterior
Base del espacio de tensores alternados
Elemento de volumen
Elemento de volumen asociado a un producto escalar
Producto vectorial

4 - CAMPOS DIFERENCIABLES EN EL ESPACIO EUCLÍDEO


Campos y formas
Objetos inducidos por una aplicación
Diferencial de una forma
Lema de Poincaré
Resultados clásicos de análisis vectorial
Cubos y cadenas
Frontera de una cadena
Integrales de formas sobre cadenas
Teorema de Stokes
Teoremas integrales clásicos
1. PRESENTACIÓN
Estas notas contienen una introducción al cálculo tensorial que se requiere en los
ciclos de la carrera de físicas, en concreto para el estudio de la teoría general de la relatividad.
El tratamiento en los libros de física suele ser poco riguroso desde el punto de vista matemático
y a consecuencia de ello el estudiante que usa estas herramientas no lo hace con suficiente
seguridad. Aquí se presentan los resultados clásicos, pero enlazándolos con temas
matemáticos más avanzados presentados en un formato actual. La intención es obtener los
teoremas importantes, al objeto de entender las claves de las herramientas que se utilizan en
física y mostrar la manera de tratarlas con rigor matemático.

Los conocimientos previos requeridos son los de cálculo vectorial, algebra lineal y
cálculo diferencial que suelen impartirse en los primeros años de carrera.
2. PRELIMINARES
En estos apartados se recuerdan resultados y definiciones importantes que se suponen
ya conocidos y se comentan algunos criterios de notación que se utilizarán en la exposición
posterior.

2.1. FUNCIONES C k

Se dice que una función real f : A → R donde A es un subconjunto abierto de R


n

k
es C si y solo si f posee en A derivadas parciales continuas de todos los ordenes menores
o iguales que k .

2.2. TEOREMA DE LA FUNCIÓN INVERSA

Sea la función f : A → R , donde A ⊂ R es un abierto, de clase C , p > 1 y sea


n n p

a ∈ A un punto tal que


D1 f1 (a ) ... Dn f1 (a )
det ... ... ... ≠0
D1 f n (a ) ... Dn f n (a )

entonces existe un intervalo I ∈ A que contiene a a en el cual la función f es inversible y la


−1
función f : I → R m es de clase C p siendo su diferencial
d ( f −1 )( f ( x) ) = (df ( x) )
−1

2.3. NOTACIÓN PARA CALCULO VARIACIONAL

Sea F el conjunto de funciones C del tipo x : R → R


2 n
definidas en un intervalo
abierto (t 0 , t1 ) . Un funcional es una aplicación S : F → R .

Se suele representar mediante δx a un elemento arbitrario de F , y por dδx a su


diferencial. Debemos tener en mente que δx no debe ser interpretada necesariamente como la
diferencial de una función, ya que más bien se trata de una función arbitraria, sometida
únicamente a condiciones semejantes a las que debe cumplir x .

Se define
d
δS ( x ) = S( x + εδx) ε = 0

siendo ε ∈R .
Los funcionales suelen definirse mediante expresiones que dependen de las funciones
x , sus derivadas e integrales. Por ejemplo sea
t1

S( x) = ∫ F ( x, x& , t )dt
t0
dx
donde representamos x& ≡ ,entonces
dt
t t
d 1 1

F ( x(t ) + εδx, x& (t ) + εδx& , t )dt = ∫ (D1F ( x, x&, t )δx + D2 F ( x, x& , t )δx& )dt
dε t∫0
δS ( x ) =
t0
lo cual suele expresarse como
t1
 ∂F ∂F 
δS = ∫  δx + δx& dt
t0 
∂x ∂x& 

2.4. ECUACIONES DE EULER-LAGRANGE

La condición necesaria para que el funcional


t1

S( x) = ∫ F ( x, x& , t )dt
t0
sea una extremal (máxima o mínima) es que:
∂F d ∂F
− =0
∂x i dt ∂x& i

2.5. CONVENIO DE SUMACIÓN DE ÍNDICES REPETIDOS

Este convenio permite escribir con brevedad las expresiones de las sumas, no
indicando explícitamente el sumatorio. Este convenio, propuesto por Einstein, se utiliza
frecuentemente en la notación tradicional de física para el cálculo tensorial. Consiste en
interpretar que en un producto se suma respecto a cada índice que aparezca repetido dándole
todos los valores que pueda tener (se supone que el rango de variación es conocido). Algunos
autores aplican este convenio sin hacer distinción entre indices y subindices, pero aquí si la
haremos y solo sumaremos cuando el indice aparezca una vez como subíndice y otra como
superíndice. Ejemplos:
n
i
Con a bi se representa ∑ a b = a b + ... + a b
i =i
i
i
1
1
n
n

n n
La expresión gij x y zt + 2l j mt representa el desarrollo
i j j
∑ (2l j mtj + ∑ gij xi y j zt ) en
j =1 i =1
el cual se observa que no se realiza sumación para el índice t. Los índices de este tipo, para
los cuales no se suma, se denominan indices libres. Cuando en una expresión n índice que
aparece repetido sea libre, lo deberemos indicar expresamente.

Cuando en la expresión del operador derivada parcial aparecen superíndices en el


"denominador" se tratan como subíndices, y a la inversa, cuando aparecen subíndices se tratan
como superíndices, así por ejemplo
∂ i n ∂ i
A ≡∑ i A
∂x i i =1 ∂x

2.6. DELTA DE KRONECKER

Se define por el símbolo δ i que toma los siguientes valores:


j
1 ⇐ i= j
δ ij ≡ 
0 ⇐ i≠ j
La δ puede interpretarse como las componentes de la matriz unidad y aparece con
j
i
frecuencia en las operaciones de simplificación de productos de tensores.

Se observa fácilmente que cuando se realiza una sumación en uno de sus índices la
expresión se puede simplificar eliminado la δij y sustituyendo el otro índice en lugar del
primero. Por ejemplo: a δ = a .
i l l
i

A veces también pondremos δ i jLLi j ≡ δ i j Lδ i j


1
1
k
k
1
1
k
k
. Este símbolo se anula para todas las
variaciones de índices excepto para aquellas en que los valores inferiores son iguales a los
superiores y aparecen en el mismo orden.

2.7. SÍMBOLOS ALTERNADOS

Una generalización de δ i son los símbolos


j

 0 si i1 L i k no es permutació n de j1 L j k
 o si hay al gun índice j1 L j k repetido

ei1j1LLikj k =
 1 si i1 L i k es una permutació n par de j1 L j k
 − 1 si i1 L i k es una permutació n impar de j1 L j k

También pondremos ei1 Lik = ei1 Li k y e 1


1Lk i Lik
= e1iL
1Lik
k .

Si los índices solo toman valores de 1 a k se tiene que e j11L kjk = e 1


i Li i Lik
e j1L jk .
Una simplificación que suele ser útil es:

eii11Lik =
Lik
( ) • k!
n
k

donde la sumación se realiza para todos los valores de los índices entre 1 y n. Para ver que
esta expresión es correcta, observemos que la suma se puede limitar a las combinaciones de
índices en los cuales estos no están repetidos, y que hay ( ) de tales combinaciones; y por
n
k
otra parte, para cada combinación dada, la suma se extiende a todas las k! permutaciones
posibles de los índices, tomando el símbolo para todas ellas el valor 1.

Otra identidad que utilizaremos es:

esi11Li k p1 L p m s1 Ls k
Ls k e j1 L j m + k = k!•e jp11LLjpmm+ki1 Lik

Para demostrarla, observamos que ambos miembros se anularán a no ser que sean
todos los i1 ,L, ik , p1 ,L pm distintos y que los j1 , L, jm+ k sean una permutación de ellos,
cuyo signo representaremos por sg , esto es, pondremos sg = e j11L jmm+ k1
p L p i Lik
. En este caso

e jp11LLjpmm+sk1Lsk = sg • e pp11L pmi1Lik = sg • ei1Lik ,


L pm s1Lsk s1Lsk
de modo que se tiene la igualdad
eis11Li k p1Lp ms1Lsk
Lsk e j1L jm+ k = sg • eis11Li k s1 Lsk
Lsk e i1Li k . Como en la suma del termino derecho de esta igualdad se
anulan todos los sumandos excepto aquellos en que los s1 ,L sk son permutación de los
i1 ,L , i k , y esto ocurre k! veces, teniendo además que esi11L Lsk = ei1Lik = ±1 , se sigue que
ik s1Lsk

Lsk ei1Lik = sg • k!•(±1) = sg • k! , con lo cual se concluye la demostración.


sg • esi11Lik s1Lsk 2
Por ultimo, destaquemos que estos símbolos permiten expresar el cálculo del
determinante de una matriz ( ai ) del tipo n × n mediante:
j

a ij11 L a ijnn ei1Lin = det(a ij ) • e j1L jn


y en particular

a ij11 L a ijnn ei1jL in = a j1 L a jn ei1Lin e = det(a ij ) • e j1L jn e j1L jn = n!• det(a ij )


1L jn i1 in j1L jn

1 i1
det(a ij ) = a j L a ijnn ei1jL
1L jn
in
n! 1
La demostración de estos resultados a partir de las propiedades del cálculo del
determinante es inmediata, de hecho puede tomarse la igualdad anterior como la definición de
determinante. Los símbolos alternados serán útiles para representar magnitudes relacionadas
con el determinante y en particular con las operaciones de integración.
3. RESULTADOS DE ÁLGEBRA VECTORIAL

Se dan por conocidos los conceptos básicos referentes a espacios vectoriales y a


matrices. Estos primeros apartados tienen por objeto los elementos fundamentales para los
desarrollos siguientes. En concreto se hace hincapié en los conceptos de base y de espacio
dual, mediante los cuales se construirán luego las bases del espacio de tensores. La
construcción de la teoría algebraica del espacio tensorial constituye en casi su totalidad el
objetivo de este capitulo, y queda prácticamente realizado en los primeros apartados. El otro
objetivo es la construcción del espacio de tensores alternados, que requiere un esfuerzo
mayor.

3.1. BASES Y ESPACIOS DUALES

Se asocia a cada base de un espacio vectorial de dimensión n un conjunto de n


funciones reales de variable vectorial. Estas funciones son las que aplicadas a un vector
proporcionan las componentes de ese vector en la base dada.

Se establece entonces una correspondencia entre cada vector de la base y una


función. Esta correspondencia se generaliza a todo el espacio, asociando a cada vector la
única función que se expresa como combinación lineal de las funciones asociadas a los
vectores de la base precisamente en la misma forma como el vector se representa como
combinación lineal de los de la base, es decir, procurando que cuando se sustituyan en una
combinación lineal los vectores por sus funciones asociadas se obtenga la función asociada al
vector resultante. Esta aplicación entre vectores y funciones muestra que existe un conjunto de
funciones que, con las operaciones de suma y producto por un número, forman un subespacio
dentro del espacio vectorial de funciones el cual es equivalente al espacio vectorial de partida.
Este espacio vectorial de funciones, es el que se denomina espacio dual.

La correspondencia anterior puede establecerse en sentido inverso, a cualquier función


real lineal sobre el espacio vectorial se le puede asociar un vector. Este punto de vista adquiere
importancia si consideramos que el producto escalar de dos vectores es una función multilineal.
Se ve entonces que el espacio dual está íntimamente ligado al producto escalar de vectores.
De hecho, se puede definir un producto escalar entre dos vectores como el valor que toma la
función dual asociada a uno de ellos cuando se sustituye el otro en la variable. El producto así
definido no coincidirá con el producto escalar usual a no ser que la base de partida sea
ortonormal. No obstante, en el caso general, existirá, para cada vector dado, otro vector tal que
su función dual sea equivalente al producto escalar por el primero. Estos vectores se dice que
son recíprocos, y se demuestra que la condición de reciprocidad así definida es una relación
simétrica.

Con los vectores recíprocos de los de una base se obtiene otra base que se definirá
como la reciproca de la primera. A continuación concretaremos estas ideas.

Sea E un espacio vectorial n-dimensional, y sea {u1 ,..., u n } una base cualquiera de
r r
r
ese espacio (no necesariamente formada por vectores ortogonales ni unitarios). Todo vector v
del espacio se puede expresar de forma única como combinación lineal de vectores de esta
r r r r
base v = v u1 + ... + v un = v ui . Los valores de las componentes las podemos considerar
1 n i

r
como funciones lineales del vector: v ≡ϕ (v ) . Estas funciones son a su vez los elementos de
i i

n
una base para el espacio vectorial de las funciones lineales sobre los vectores de E . En
efecto, sea η() una función vectorial lineal, entonces:
η (vr ) = η (v i uri ) = v iη (uri ) =η (uri ) • ϕ i (vr )
r
y se puede poner η () =ai • ϕ i () siendo a i = η (u i ) .

El espacio generado por las funciones ϕ i se denomina espacio dual de E y se suele


funciones {ϕ ,..., ϕ } se dice que es la base dual de
* 1 n
representar por E , y la base de
{ur1 ,..., urn }.
Existe otro concepto relacionado que se aplica cuando está definido el producto escalar
, en E : toda función lineal η() de las coordenadas puede considerarse como el producto
escalar por un vector determinado, de modo que deben existir un conjunto de n vectores
{us ,..., us } tales que ϕ (vr) = us , vr . Estos vectores forman también una base de E , y se
1 n i i

dice las bases {u ,..., u } y {u ,..., u } son reciprocas (el concepto de base reciproca es
s s 1 r n r
1 n
simétrico: si una base es la reciproca de otra, esta ultima lo es también de la primera). Para
demostrar estas ultimas afirmaciones, realizaremos los cálculos explícitos de la base dual en
un espacio R . Consideremos la base ortonormal usual de R , {e1 ,..., en }. En esta base
n n r r

representemos las componentes de cada uno de los vectores u i de la base inicial {u1 ,..., u n }
r r r
r r
por ui , es decir, u i = u i e j . Entonces las componentes de los vectores de la base reciproca
j j

{us ,..., us }, que representaremos por


1 n s r
u ij (es decir ui = uije j ) se obtienen del sistema de
ecuaciones
n
δ i j = uri , us j ⇔δ i j = ∑ u ik u jk
k =1

En este sistema por cada valor de j dado hay n ecuaciones lineales (una para cada
ij
valor de i) con n incógnitas (los valores de las u ), siendo el determinante de los coeficientes
r
precisamente el determinante det(u1 ,..., un ) de la matriz ui
r
[ ] formada por las componentes de
k

r
los ui . Esta matriz tiene determinante distinto de cero, puesto que por hipótesis inicial los
{ur1 ,..., urn } son linealmente independientes. De las observaciones anteriores se deduce que los
sistemas de ecuaciones son compatibles determinados, de modo que la base recíproca existe
y es única. La forma de las ecuaciones de partida demuestra que la reciprocidad es una
relación simétrica:

r s s r
δ i j = ui , u j ⇔ δ i j = u i , u j .

r r r r r r r si
La base reciproca permite expresar un vector v como v = v , ui • ui = v , ui • u .
r r r r r si
Una función lineal η () se expresa como η (v ) = n , v donde n = η (ui ) • u . En efecto,

r r r s r r s r r r r
η (v ) = η (v i ui ) = v iη (ui ) = u i , v η (ui ) = u i • η (ui ), v = n , v
r
(Obsérvese que η () determina n y que su valor no depende de la base que se tome. En
r si r
concreto se tiene también que n = η (u ) • ui )
r r
y la base {u1 ,..., un } es la base ortonormal
n
Cuando el espacio E coincide con R
usual {e1 ,..., e n }, las funciones
r r ϕ i () se suelen representar por π i () i
o también por dx () .

Adelantemos que, resolviendo el sistema de ecuaciones, los vectores de la base dual


pueden representarse como:
r r r r
r* i +1 u1 × L × ui −1 × ui +1 × L × u n
ui = (−1) r r
det(u1 ,..., un )
donde el símbolo × se utiliza para indicar el producto vectorial generalizado, que se definirá en
una sección posterior.

3.2. TENSORES

Sea E un espacio vectorial n-dimensional, un tensor de orden k en E , o brevemente,


un k-tensor, es una función real multilineal de k variables vectoriales: T : E → R , es decir,
k

una función que cumple


r r r r r r r r r r
T (v1 ,..., avi + bv 'i ,..., vk ) = aT (v1 ,..., vi ,..., vk ) + bT (v1 ,..., v 'i ,..., vk )
r r r r
para todo v1 ,..., vk , v '1 ,..., v 'k ∈ E y para todo a, b ∈ R .

Son ejemplos de tensores que se utilizan usualmente: los escalares, que pueden
considerarse como un tensores de orden 0, las funciones ϕ i () del espacio dual son tensores
3
de orden 1; el producto escalar es un tensor de orden 2; el producto vectorial definido en R es
n
un tensor de orden 2, y, por ultimo, el determinante de las componentes de n vectores en R
es un tensor de orden n .

k
El conjunto de todos los k-tensores en E se representa por J ( E) y es a su vez un
espacio vectorial con las operaciones
r r r r r r
(T + S )(v1 ,..., vk ) = T (v1 ,..., vk ) + S (v1 ,..., vk )
r r r r
(aT )(v1 ,..., vk ) = aT (v1 ,..., vk )

Se define también una operación, el producto tensorial, que relaciona los distintos
J (E) : Sean T ∈ J k (E) y S ∈ J l (E) , se define T ⊗ S ∈ J k +l (E) como
k

r r r r r r
(T ⊗ S )(v1 ,..., vk + l ) = T (v1 ,..., vk ) • S (vk +1 ,..., vk + l )

A partir de esta definición es inmediato comprobar que el producto tensorial es lineal en


sus dos términos:
T ⊗ ( S + R) = T ⊗ S + T ⊗ R
(T + R) ⊗ S = T ⊗ S + R ⊗ S
(aT ) ⊗ S = T ⊗ (aS ) = a(T ⊗ S ) ≡ aT ⊗ S

y que generalmente no es conmutativo (puede ser T ⊗ S ≠ S ⊗ T ), mientras que si es


asociativo

T ⊗ ( S ⊗ R) = (T ⊗ S ) ⊗ R ≡ T ⊗ S ⊗ R
3.3. BASE DEL ESPACIO TENSORIAL Y COMPONENTES DE UN
TENSOR
r r
Sea E un espacio vectorial n-dimensional, sea v1 ,L, vn una base de E , y sea
r
ϕ 1 (),L, ϕ n () la base del espacio dual (anteriormente definida como . ϕ (v j ) = δ j ).
i i

Demostraremos que el conjunto de todos los productos tensoriales de k factores ϕ 1 ⊗L⊗ϕ k


i i

con 1 ≤ i1 , L , ik ≤ n es una base del espacio vectorial J ( E) , el cual, por tanto, tiene
k

k
dimensión n .
r r
Sea T ∈ J ( E ) y sean w1 ,L, wk vectores de E , que podremos presentar en la base
k

r r r r r
v1 ,L , v n como w j = wij vi , es decir ϕ i ( w j ) = wij , entonces:
r r r
( r
)
r r
T (w1 ,L, wk ) = T w1i1 vi1 ,L, wkik vik = w1i1 L wkik T vi1 ,L, vik = ( )
r r r
( r r r
) ( )
r r
ϕ i1 ( w1 ) Lϕ ik ( wk )T vi1 ,L, vik = T vi1 ,L, vik ϕ i1 ⊗ L ⊗ ϕ ik ( w1 ,L, wk )

(r
es decir, T = T vi1 , L , vik
r
)ϕ i1
⊗ L ⊗ ϕ ik , de modo que las ϕ i1 ⊗ L ⊗ ϕ ik generan J k (E) .
Para ver que son linealmente independientes, supongamos que existan números ai1Lik tales
que 0 = ai1Lik ϕ i1 ⊗ L ⊗ ϕ ik , entonces aplicando ambos miembros de la ecuación a
(r r
)
v j1 ,L, v jk se obtiene:
r
( r
)r r
0 = ai1Lik ϕ i1 ⊗ L ⊗ ϕ ik v j1 , L , v jk = ai1Lik ϕ i1 (v j1 ) Lϕ ik (v jk ) = ai1Lik δ ij11 Lδ ijkk = a j1L jk
de modo que todos los ai1Lik son 0.

(r
Las componentes T vi1 ,L, vi k
r
) de un tensor en la base anterior se suelen representar
por Ti1 Li . Las operaciones definidas para los tensores pueden expresarse en función de sus
k
componentes. Por ejemplo, para dos k-tensores T y R , un m-tensor S y un escalar a se
tienen las igualdades:
(a • T )i1Lik = a • Ti1Lik
(T + R)i1Lik = Ti1Lik + Ri1Lik
(T ⊗ S )i1Lik + m = Ti1Lik • Sik +1Lik + m

3.4. TENSORES ALTERNADOS

Un tensor T ∈ J k ( E ) se denomina tensor k-alternado si cambia de signo al


intercambiar dos cualesquiera de los vectores a los que se aplica, es decir, sí

T (w1 ,L, wp ,L, wq ,L, wk ) = −T (w1 ,L, wq ,L, wp ,L, wk )


r r r r r r r r

r r
para cualesquiera vectores w1 ,L, wk .
Los tensores alternados usualmente se representan mediante letras griegas
minúsculas. El conjunto de los tensores k-alternados se representa por Λ ( E ) y es un
k

k
subespacio de J ( E) . A veces los tensores alternados también se denominan tensores
antisimétricos.

Existe una manera de obtener un tensor alternado a partir de otro cualquiera mediante
el operador

Alt (T )(w1 ,L, wk ) ≡ ∑ sgn(σ )T (wσ (1) ,L, wσ ( k ) )


r r 1 r r
k! σ ∈Sk
siendo S k el conjunto de todas las permutaciones de los números 1 a k.

A partir de su definición, se comprueba fácilmente que Alt es un operador lineal:

Alt (T + S ) = Alt (T ) + Alt ( S )


Alt (a • T ) = a • Alt (T )

Demostremos que para todo T ∈ J ( E ) es Alt (T ) ∈ Λ ( E) :


k k

En efecto, sea ( p, q ) la permutación que cambia entre sí p y q dejando los otros


índices fijos, y pongamos σ = σ o ( p, q) , entonces sgn(σ ) = − sgn(σ ) y se tiene

Alt (T )(w1 ,L, w p ,L, wq ,L, wk ) = ∑ sgn(σ ) • T (wσ (1) ,L, wσ ( p ) ,L, wσ ( q ) ,L, wσ ( k ) ) =
r r r r 1 r r r r
k! σ ∈Sk

sgn(σ ) • T (wσ (1) ,L, wσ ( q ) ,L, wσ ( p ) ,L, wσ ( k ) ) =


1 r r r r
= ∑
k! σ ∈Sk

sgn(σ ) • T (wσ (1) ,L, wσ ( q ) ,L, wσ ( p ) ,L, wσ ( k ) ) =


1 r r r r
=− ∑
k! σ ∈S k
− Alt (T )(w1 ,L, wq ,L, wp ,L, wk )
r r r r

Veamos también que si T ∈ Λ ( E ) entonces es Alt (T ) = T . Obsérvese que por ser


k

T alternado se tiene T (wσ (1) ,L wσ ( k ) ) = sgn(σ ) • T (w1 ,L wk ) de modo que


r r r r

Alt (T )(w1 ,L, wk ) = ∑ sgn(σ ) • T (wσ (1) ,L wσ ( k ) ) =


r r 1 r r
k! σ ∈Sk
1 r r r r 1 r r
= ∑ sgn(σ ) • sgn(σ ) •T (w1 ,L wk ) = T (w1 ,L wk ) ∑1 = T (w1 ,L wk )
k! σ ∈S k k! σ ∈S k

Como consecuencia del resultado anterior se obtiene:

Alt ( Alt (T )) = Alt (T )

Si T ∈ J ( E ) y S ∈ J ( E) es tal que Alt (T ) = 0 , entonces


k l

Alt (T ⊗ S ) = Alt ( S ⊗ T ) = 0 .

Demostración:
sgn(σ ) • T (wσ (1) ,L, wσ ( k ) )• S (wσ ( k +1) ,L, wσ ( k +l ) )
r r 1 r r r r
Alt (T ⊗ S )(w1 ,L, wk +l ) = ∑
(k + l )! σ ∈Sk +l

Si en la expresión anterior agrupamos todos los términos correspondientes a las


permutaciones σ ∈ S k +l que coinciden en los últimos l valores σ (k + 1),L , σ (k + l ), se
obtienen agrupaciones de términos cada una de las cuales vale
±1
S (wσ ( k +l ) ,L, wσ ( k +l ) ) ∑ sgn(σ ' ) • T (wσ '(σ (1)) ,L, wσ '(σ ( k )) ) =
r r r r
(k + l )! σ '∈Sk

± k!
S (wσ ( k +l ) ,L, wσ ( k +l ) )• Alt (T )(wσ ( l ) ,L, wσ ( k ) ) = 0
r r r r
=
(k + l )!
y puesto que todos estos grupos se anulan se deduce que Alt (T ⊗ S ) = 0 . La otra igualdad
se demuestra de forma parecida.

Alt ( Alt (T ⊗ S ) ⊗ R) = Alt (T ⊗ Alt ( S ⊗ R)) = Alt (T ⊗ S ⊗ R)

Para demostrarlo, veamos que

Alt ( Alt (T ⊗ S ) − T ⊗ S ) = Alt ( Alt (T ⊗ S )) − Alt (T ⊗ S ) = Alt (T ⊗ S ) − Alt (T ⊗ S ) = 0

luego, aplicando el resultado demostrado anteriormente se obtiene:

0 = Alt (( Alt (T ⊗ S ) − T ⊗ S ) ⊗ R) = Alt ( Alt (T ⊗ S ) ⊗ R − T ⊗ S ⊗ R) =


= Alt ( Alt (T ⊗ S ) ⊗ R ) − Alt (T ⊗ S ⊗ R)
y entonces
Alt ( Alt (T ⊗ S ) ⊗ R) = Alt (T ⊗ S ⊗ R)

Idénticamente se demuestra la otra igualdad.

Estudiaremos ahora la forma de representar las componentes del tensor Alt (T ) en


función de las componentes Ti1 Lik de T en la base ϕi ⊗L⊗ϕi
1 k
. Consideramos un
r i v
conjunto de vectores vs con s = 1, L , k y representamos sus componentes por ϕ ( v s ) = v s .
i

La acción de Alt (T ) se puede representar, sin utilizar el convenio de índices repetidos, como:

r r 1
Alt (T )(v1 ,L, vk ) = ∑ Ti1Lik ∑ sgn(σ ) • vσi1 (1) L vσik ( k )
k! i1 ,L,ik σ ∈Sk

A la suma del lado derecho no aportan nada los términos donde Ti1 Lik tiene algún
índice repetido, ya que se pueden agrupar en pares de sumandos con los mismos factores,
pero con los vectores permutados, de modo que en cada sumando sgn(σ ) es distinto y se
anulan dos a dos. Como consecuencia, se puede poner

r r 1
Alt (T )(v1 ,L, vk ) = ∑ Ti Li ∑ sgn(σ ) • vσi1 (1) Lvσik ( k )
k! i1 ,L,ik 1 k σ ∈Sk
dist int os
Observamos por otra parte, que en la suma ∑e
j1 ,L, jk
i1Lik
j1L jk 1
j1
v L vkjk se anulan todos los

términos en los cuales ( j1 , L , jk ) no son permutación de los (i1 ,L, ik ) así como todos los
términos en los cuales algún índice i esté repetido, de modo que la suma anterior se puede
limitar considerando que todos los índices i son distintos. Sin utilizar el convenio de sumación
de índices repetidos, se puede poner como

∑e ∑e
iσ (1) i
i1Lik
v L vkjk =
j1L jk 1
j1 i1Lik
v
iσ (1)Liσ ( k ) 1 L vkσ ( k ) =
j1 ,L, jk σ ∈S k

∑ sgn(σ )v ∑ sgn(σ )vσ


iσ (1) i
= 1 L vkσ ( k ) = i1
−1
(1)
L vσik −1 ( k )
σ
∈S k σ∈S k

y puesto que sgn(σ ) = sgn(σ


−1
) se obtiene
r r 1
Alt (T )(v1 ,L, vk ) = ∑ Ti Li ∑e i1Lik
j1L jk 1
j1
v L vkjk =
k! i1 ,L,ik 1 k j1 ,L, jk
dist int os

1
= ∑
k! i1 ,L,ik
Ti1Lik eij11Lik j1
L jk v1 L vk
jk

j1 ,L, jk

es decir, volviendo a utilizar el convenio de sumación de índices repetidos, las componentes de


Alt (T ) son:

1 i1Lik
Alt (T ) j1L jk = e j L j Ti Li
k! 1 k 1 k

La operación Alt (T ) se denomina antisimetrización. A veces se realiza solo


parcialmente para algunos índices. Así por ejemplo, por antisimetrización en las primeras k
componentes del tensor Ti1 Li m , se obtiene el tensor Si1Lim de componentes

1 i1Lik
S j1L jk ik +1Lim = e j L j Ti Li i Li
k! 1 k 1 k k +1 m

3.5. PRODUCTO EXTERIOR

Si ω ∈ Λk (E) y η ∈ Λl (E) . En general ω ⊗ η ∉ Λk +l (E) , de modo que se define una


k +l
nueva operación, el producto exterior, del tipo ∧ : Λ ( E ) × Λ ( E ) → Λ
k l
(E) mediante

(k + l )!
ω ∧η = Alt (ω ⊗ η )
k!l!

Las siguientes propiedades son inmediatas de comprobar:

(ω + η ) ∧ ς = ω ∧ ς + η ∧ ς
ς ∧ (ω + η ) = ς ∧ ω + ς ∧ η
(a • ω ) ∧ η = ω ∧ (a • η ) = a • (ω ∧ η )
ω ∧ η = (−1) kl η ∧ ω

Veamos que también se cumple (ω ∧ η ) ∧ ς = ω ∧ (η ∧ ς ) ≡ ω ∧ η ∧ ς , donde


suponemos ω ∈ Λk (E) , η ∈ Λl ( ) y ς ∈ Λm (E) :
(k + l + m)!
(ω ∧ η ) ∧ ς = Alt ((ω ∧ η ) ⊗ ς ) =
m!(k +l )!
(k + l + m)!  (k + l )! 
= Alt  Alt (ω ⊗ η ) ⊗ ς  =
m!(k +l )!  k!l! 
(k + l + m)! (k + l + m)!
= Alt ( Alt (ω ⊗ η ) ⊗ ς ) = Alt (ω ⊗ η ⊗ ς )
m!k!l! m!k!l!

La otra igualdad se desarrolla de forma semejante.

Por inducción, este resultado puede generalizarse a productos de más de un factor.


Sean ω (1) ,L, ω ( r )
tensores alternados de ordenes k1 ,L , k r respectivamente, entonces

(k1 + L + k r )!
ω (1) ∧ L ∧ ω ( r ) = Alt (ω (1) ⊗ L ⊗ ω ( r ) )
k1!Lk r !

como caso particular es importante señalar el producto

ϕ i ∧ L ∧ ϕ i = k!• Alt (ϕ i ⊗ L ⊗ ϕ i )
1 k 1 k

Utilizando el desarrollo en función de las componentes obtenidas anteriormente de


1 i1Lik
Alt (T ) j1L jk = e j L j Ti Li , se encuentra, para la expresión de las componentes del producto
k! 1 k 1 k
exterior de dos tensores:

1 i1Lik + m
(ω ∧ η ) j1L jk + m = e j L j ω i Li ηi Li
k!m! 1 k + m 1 k k +1 k + m
y también
ϕ i ∧ L ∧ ϕ i = k!• Alt (δ si Lδ si ϕ s ⊗ L ⊗ ϕ s ) =
1 k 1
k
k
k
1 k

1 
= k!• ers11LLrskk δ si1k Lδ sikk ϕ r1 ⊗ L ⊗ ϕ rk =
 k! 
= er1Lrk ϕ ⊗ L ⊗ ϕ rk
i1Lik r1

Conviene hacer notar que (sin utilizar el convenio de sumación de índices repetidos):
r r r r
dx i1 ∧ L ∧ dx ik (ei1 ,K, eik ) = k!• Alt (dx i1 ⊗ L ⊗ dx ik )(ei1 ,K, eik ) =
1 r r
= k! ∑
k! σ ∈Sk
sgn(σ )dx i1 ⊗ L ⊗ dx ik (eiσ (1) , K, eiσ (1) ) = ∑ sgn(σ )δ iiσ1 (1) Lδ iiσk ( k ) = 1
σ ∈S k

(k + l )!
La razón del factor que aparece en la definición del producto exterior es
k!l!
precisamente para procurar que ocurra el resultado anterior.
3.6. BASE DEL ESPACIO DE TENSORES ALTERNADOS

El conjunto de todas las combinaciones de productos ϕi ∧L∧ϕi


1 k
con
1 ≤ i1 < L < ik ≤ n es una base del subespacio vectorial Λ (E) , que, por tanto, tiene k

dimensión (k ) =
n n!
.
k!(n − k )!

Para demostrarlo, primero observemos que (sin utilizar el convenio de índices


repetidos) se cumple la igualdad

ϕ j ∧L∧ϕ j =
1 k
∑e j1L jk
i1Lik
1≤i1 <L<ik ≤ n
ϕi ∧L∧ϕi
1 k

j Lj
En efecto, dada la definición de ei11Lik k , en la suma del segundo termino el único
sumando que no se anula es aquel en el cual los i1 ,L , i n coinciden con los j1 , L , jn
j Lj
permutados, y el valor de ei11Lik k es precisamente el signo de esa permutación. Como en la
suma los i1 , L , i n están ordenados, esta se reduce a un solo termino.

Sea ω ∈ Λk (E) entonces ω = ω j Lj ϕ j ⊗L ⊗ ϕ j


1 k
1 k
y se tiene (no se utiliza el
convenio de índices repetidos para los i1 ,L, ik , pero sí para los j1 , L , jk ):
ω = Alt (ω ) = ω j L j Alt (ϕ j ⊗ L ⊗ ϕ j ) =
1 k
1 k

1 j1 1
= ω j1L jk
k!
ϕ ∧ L ∧ ϕ jk = ω j1L jk ∑ ei1j1LLikjk ϕ i1 ∧ L ∧ ϕ ik =
k! 1≤i1<L<ik ≤n
1
= ∑ ( ω j1L jk ei1jL
1≤i1 <L<ik ≤ n k!
ik ) •ϕ ∧ L ∧ ϕ
1L jk i1 ik
= ∑ Alt (ω )
1≤i1 <L<ik ≤ n
i1Lik •ϕ i1 ∧ L ∧ ϕ ik =

= ∑ω i1Lik
1≤i1 <L<ik ≤ n
• ϕ ∧ L ∧ ϕ ik
i1

Por ultimo, la demostración de que las combinaciones ϕ 1 ∧ L ∧ ϕ k con índices


i i

distintos son independientes es totalmente idéntica a la que se utilizó para demostrar la


independencia de los ϕi ⊗L⊗ϕi
1 k
.

Puesto que puede resultar engorroso tener mantener los índices de ϕ 1 ∧ L ∧ ϕ k


i i

ordenados, usualmente desarrollaremos los tensores alternados suma de términos


ϕi ∧L∧ϕi
1 k
sin ordenar, es decir en la forma

1
ω= ω ϕ j1 ∧L∧ϕ jk
k ! j1L jk
Un resultado que será útil es la expresión según este tratamiento del producto de dos
tensores alternados:

1 j  1 i 
 ω j1L jk ϕ 1 ∧ L ∧ ϕ k  ∧  ηi1Lim ϕ 1 ∧ L ∧ ϕ m  =
j i

 k!   m! 
1
(ω ∧ η ) j1L jk + m ϕ j1 ∧ L ∧ ϕ jk + m =
(k + m)!
1
= L j ω i Li ηi Li ϕ ∧ L ∧ ϕ
eij1L =
ik + m j1 jk + m

(k + m)!k!m! 1 k +m 1 k k +1 k + m
1
= ω i1Likηik +1Lik +m ϕ i1 ∧ L ∧ ϕ ik +m
k!m!

3.7. ELEMENTO DE VOLUMEN

( )
Si dim(E ) = n entonces dim Λ ( E ) = 1 , de modo que todos los n-tensores
n

alternados son múltiplos de uno no nulo. Un elemento de Λ ( E ) no nulo es det , que nos
n

proporciona el valor del determinante de las componentes de los vectores, el cual puede
tomarse como base de Λ ( E ) . Concretaremos esta idea:
n

r r r r
Sea T ∈ Λ ( E ) , v1 ,L, vn una base de E , y sean w1 ,L , w n vectores tales que
n

r r
w j = wij vi , entonces
r r r r
ω ( w1 ,L, wn ) = ω1Ln • det( w1 ,L, wn ) = ω1Ln • det( wij )
donde hemos representado por ω1Ln la componente de proporcionalidad entre ω y det . Si
ahora tomamos w = δ , o lo que es lo mismo: wi = vi , se obtiene
i i
j j
r r
ω (v1 ,L, vn ) = ω1Ln • det(δ ij ) = ω1Ln
y así pues se llega a
r r r r
ω ( w1 ,L, wn ) = det( wij ) • ω (v1 ,L, vn )

(Observación: Considerando dos cambios de base vectorial consecutivos, la relación anterior


permite obtener una demostración sencilla de que el determinante del producto de dos matrices
cuadradas es igual al producto de los determinantes de cada una de ellas.)

Para una base {vr1 ,L, vrn } dada se define el elemento de volumen como aquel
r r r r
ω ∈ Λ (E) tal que ω (v1 ,L, vn ) = 1 . Esta definición tiene sentido dado que si {v1 ,L, vn } es la
n

base ortonormal usual de E = R , entonces el elemento de volumen definido anteriormente


n

coincide con el determinante de las coordenadas de los vectores, que, como se sabe, es igual,
salvo un factor de signo, al volumen n-dimensional del paralelepípedo que forman los vectores.

3.8. ELEMENTO DE VOLUMEN ASOCIADO A UN PRODUCTO


ESCALAR

( )
El hecho de que dim Λ ( E ) = 1 indica que todos los elementos no nulos de Λ ( E )
n n

son proporcionales dos a dos, y permite establecer una relación de equivalencia que da lugar a
dos clases disjuntas que llamaremos orientaciones: dos elementos de Λ ( E ) pertenecen a la
n

misma clase, es decir, tienen la misma orientación, si y solo sí el factor de proporcionalidad


entre ellos es positivo. La orientación se suele definir y representar mediante un conjunto
r r
[ ]
ordenado de n vectores independientes v1 ,L, vn , considerando que son de esa orientación
r r
todos los tensores alternados ω tales que ω (v1 ,L, vn ) > 0 . La orientación contraria se
[r r
]
representa como − v1 ,L, vn . La orientación e1 ,L, en [r r
] que se obtiene a partir de la base
n
ortonormal usual de R se denomina orientación usual.
r r
Si se tiene una base ortonormal de R formada por los vectores vi = vi e j a partir de
n j

[r r ]
la cual se define la orientación v1 ,L, vn entonces
r r r r
ω (v1 ,L, vn ) = det(vij ) • ω (e1 ,L, en )
n
r r
pero puesto que δ i j = (vi , v j ) = ∑ vik v kj ocurre que la matriz V ≡ (vi ) , cuya transpuesta
j

k =1

cumple la relación I = V • V
T T
representaremos por V de modo que
1 = det( I ) = det(V • V ) = det(V ) • det(V T ) = det(V ) 2
T

r r r r
y debe ser det(V ) = ±1 , y así ω (v1 ,L, vn ) = ±ω (e1 ,L, en ) . Luego el valor que un n-tensor
alternado toma para los elementos de una base ortonormal no depende, en valor absoluto, de
la base que se trate, y su signo está dado por la orientación asociada a esa base.

Supongamos que se nos proporciona un producto escalar, y se define una orientación,


por ejemplo mediante un conjunto ordenado de vectores, entonces existirá un único n-tensor
r r r r
[
alternado ω tal que ω (v1 ,L, vn ) = 1 para toda base de vectores v1 ,L, vn ortonormal y con ]
la orientación dada; se dice entonces que ω es el elemento de volumen inducido por ese
producto escalar y esa orientación.

3.9. PRODUCTO VECTORIAL

Se considera un espacio vectorial n-dimensional, n ≥ 2 , provisto de un producto


escalar y de una orientación que definen un elemento de volumen ω . Para n-1 vectores
r r r r r r
v1 ,L, vn −1 dados, la función escalar f definida por f (v ) = ω (v1 ,L, vn−1 , v ) es una aplicación
r
lineal, y por tanto existe un único vector w del espacio vectorial tal que f es idéntica al
r r r r r r r
producto escalar por w , es decir ( w, v ) = ω (v1 ,L, vn−1 , v ) . Se dice que el vector w es el
r r
producto vectorial de los vectores v1 ,L, vn −1 y se representa como

r r r
w = v1 × L × vn−1

Se demuestra fácilmente que este producto es lineal respecto a todos sus factores y
que cambia de signo si se intercambian dos cualesquiera de ellos.

Como casos especiales se tiene que el producto vectorial en un espacio de dimensión


r r
2 depende de un solo factor v , y proporciona un vector v× perpendicular al original y del
r r
mismo módulo, tal que la base (v , v× ) tiene la orientación usual.

En el caso de dimensión 3 el producto vectorial depende solo de dos factores y es el


que se define tradicionalmente.

4. CAMPOS DIFERENCIABLES EN EL ESPACIO EUCLÍDEO


En este capítulo se definen los campos escalares, vectoriales y tensoriales en el
n
espacio euclídeo R . Básicamente lo que se hace aquí es crear funciones continuas en el
espacio que proporcionan en cada punto los elementos algebraicos que se definieron en el
capitulo anterior. En particular tiene interés la construcción de los sistemas de referencia que
permiten en cada punto representar estos elementos. Las componentes en los sistemas de
referencia serán funciones reales sobre el espacio que se podrán derivar, permitiendo la
definición de los elementos diferenciales de los objetos. También se consideran aplicaciones
diferenciables entre espacios y se definirá una transformación de los campos, construida
basándose en la diferencial local de la función que aplica un espacio en otro. Con ello se
consigue que los elementos transformados sean objetos que al integrarse den lugar a valores
invariantes, es decir, que sus integrales se conservan en las transformaciones. En este sentido,
objetos especialmente interesantes lo constituyen las formas diferenciales, las cuales hacen la
labor de elementos de línea, superficie o en general volumen n-dimensional que multiplican a
las funciones invariantes que se desean integrar. Las formas diferenciales están relacionadas
con el concepto de determinante y su transformación genera el factor jacobiano (determante de
la transformación) que garantiza la invarianza de la integración, con independencia de que se
realice sobre el espacio inicial o sobre el transformado. Los lugares de integración de las
formas diferenciales son las cadenas. Para las cadenas se define el concepto de frontera y
para las formas el concepto de diferencial. Estas construcciones se relacionan en el teorema
de Stokes que es considerado el teorema fundamental del cálculo de varias variables, y que es
una generalización del teorema de la divergencia de Gauss, el teorema del rotacional de
Stokes, y, en general, de los teoremas integrales clásicos de esta naturaleza.

Realmente los conceptos básicos del análisis tensorial con respecto a la teoría de
diferenciación quedan construidos en los primeros apartados y la parte más compleja de este
capítulo la constituye el estudio de las formas y la teoría de integración. Si por ahora no se
desea hacer demasiado hincapié en estos temas, se pude pasar directamente al estudio de las
variedades, puesto que una parte importante de su desarrollo inicial solo utiliza los resultados
de la teoría de diferenciación.

4.1. CAMPOS Y FORMAS

n r
Los elementos de R pueden ser considerados como puntos o como vectores. Sea v
n
un vector de R . Este vector es un vector libre, no está localizado. Un vector fijo se obtiene
r
asociando al vector v otro elemento p ∈ R que se trata en este caso como un punto y se
n

r n
considera su origen: un vector fijo es un par ( p, v ) de elementos de R que se suele
r
representar como v p . A cada punto p ∈ R se pueden trasladar todos los vectores de R ,
n n

los cuales heredan las propiedades del espacio vectorial, de modo que se pude hablar del
n
espacio vectorial entero trasladado al punto p . Este espacio se representa por R p. Todas
n n
las operaciones vectoriales para R p se definen de la forma natural a partir de las de R , por
ejemplo las combinaciones lineales de vectores
r r r r
a • v p + b • w p = (a • v + b • w) p
o el producto escalar
(vv , wr ) = (vv, wr )
p p

r
Un campo vectorial es una función v ( x) que asocia a cada punto p ∈ R
n
un vector
r r r
v ( p) ∈ R n p . La base ortonormal usual (e1 ,L, en ) de R n proporciona una base para R n p
r r
formada por los vectores ((e1 ) p ,L, (en ) p ) en la cual se puede representar el valor del campo
vectorial como
r r
v ( p ) = v i ( p ) • (ei ) p
i
Las n funciones v ( x ) son las funciones componentes del campo vectorial en cuestión.
Además de los campos vectoriales se definen campos escalares, los cuales son
n
simplemente una función real con origen en R . Las operaciones usuales entre los campos
vectoriales o entre campos vectoriales y campos escalares se definen de forma obvia como
generalización de las operaciones entre vectores y números, por ejemplo
r r r r
( f • v + g • w)( p) = f ( p ) • v ( p) + g ( p) • w( p)

De forma análoga se definen los campos tensoriales, que asignan a cada punto p un
k n r r
tensor T ( p ) perteneciente a J (R p ) . La base dual de la base ((e1 ) p ,L, (en ) p ) de R n p se
1 n
suele representar por ( dx ( p ), L , dx ( p )) y un campo vectorial T ( p ) se puede determinar
mediante sus funciones componentes Ti1Lik ( x ) que cumplen
T ( p ) = Ti1Lik ( p ) • dx i1 ( p ) ⊗ L ⊗ dx ik ( p )

k
Un campo vectorial o tensorial se dice que es continuo, diferenciable, C , constante,
etc. cuando lo son sus funciones componentes.

Dentro de J (R p ) tenemos el subespacio Λ ( R p ) de tensores alternados. Un


k n k n

campo tensorial tal que es alternado en todos los puntos donde está definido se denomina
forma de orden k, o k-forma. Las k-formas se expresarán como
1
ω ( p) = ∑ω i1Lik
1≤i1 <L<ik ≤n
( p ) • dx i1 ( p ) ∧ L ∧ dx ik ( p ) =
k!
ω i1Lik ( p) • dx i1 ( p) ∧ L ∧ dx ik ( p)

Con objeto de simplificar la notación, es fercuente, cuando no de lugar a confusión,


omitir la mención explícita del punto ( p ) en el cual se calcula el campo.

4.2. OBJETOS INDUCIDOS POR UNA APLICACIÓN


r r r r
En este apartado representaremos por e1 , L , em y e '1 , L , e 'n a los vectores de las
m n
bases ortonormales usuales de R y de R .

A partir de una aplicación diferenciable entre espacios f : R → R n se puede definir m

r
una aplicación lineal, que representaremos por f * , la cual transforma vectores del tipo v p , con
r
p ∈ R m , en vectores f * (v p ) con origen en f ( p) ∈ R n (ver gráfica). Se define
f * : R m p → R n f ( p ) por
r r
f* (v p ) = (Df (p)(v) ) f ( p )
n m
r
Aquí Df (p) • v = ∑ ∑D f
j =1 i =1
i
j
• v i • e j es la derivada direccional de la función f en el
r
punto p según la dirección y magnitud de v .

Una propiedad importante que se obtiene a partir de esta definición es:

( f o g )* = f * o g *
ya que
r r
( f o g )* (v p ) = (D( f o g )(p)(v) )( f o g )( p )) =
= (Df(g(p))Dg(p)(v) ) f ( g ( p )) = f* ((Dg(p)(v))g(p) ) = f* ( g* (v p ))
r r r

La aplicación f * transforma campos vectoriales del espacio origen en campos


vectoriales en el espacio destino. Construiremos ahora otra aplicación lineal para tensores que
funciona en sentido inverso, proporcionando tensores en el espacio origen a partir de los del
espacio destino.
m f n
R R
r f*
v
r
f *v
p p

f* T
*
f T
*
Se define f : J ( R
k n
p ) → J k (R m p ) como
( f *T )( p)() = T ( f ( p ))( f * )
r r
es decir, si v1 ,L, vk ∈ R
m
p, entonces
r r r r
( f T )( p)(v1 ,L, vk ) = T ( f ( p))( f* (v1 ),L, f* (vk ) )
*

Observemos que en este caso es


( f o g )* = g * o f *
ya que
r r
( f o g )* T ( p)(v ,L) = T ( f o g )( p)(( f o g )* v ,L) =
r r r
= (T o f )( g ( p))(( f* ( g*v ),L) = ( f *T )( g ( p ))(g*v ,L) = g * ( f *T )( p )(v ,L)

*
Otras propiedades que demostran fácilmente a partir de la definición de f son:

f * (T + S ) = f *T + f * S
f * ( g • T ) = ( g o f ) • f *T
f * (T ⊗ S ) = f *T ⊗ f * S
f * ( Alt (T )) = Alt ( f *T )
f * (ω ∧ η ) = f *ω ∧ f *η

Al objeto de aclarar estas definiciones, obtendremos una expresión de las


componentes de las transformaciones.
m
r i r
Si v p = ∑ v (ei ) p , entonces
i =1
m n
r r
f* (v p ) = ∑ v i ∑ Di f j ( p ) •(e ' j ) f ( p )
i =1 j =1
(Puesto que interesa indicar explícitamente la dimensión de los dos espacios, no se ha
utilizado el convenio de sumación de índices repetidos).

*
Si T es un campo tensorial de componentes Ti1Lik ( x ) , entonces las componentes de f T son
( f *T ) j1L jk ( p ) = Ti1Lik ( f ( p )) • D j1 f i1 ( p ) L D jk f ik ( p )
Este mismo resultado se suele expresar, utilizando la notación tradicional, poniendo T ≡ f T ,
*

x ≡ f ( x) y T ≡ f *T , de modo que suele aparecer como


∂x i1 ∂x ik
T j1 L j k = L Ti Li
∂x j1 ∂x j k 1 k
(Una descripción más detallada de esta notación y de su interpretación se comentará cuando
se estudien los invariantes definidos sobre una variedad)

Propongamos un simil físico para dar cuerpo a estas ideas. Consideramos un sólido
constituido de material elástico que sufre una deformación de modo que cada uno de sus
puntos pasa a ocupar una nueva posición del espacio. Expresemos esta transformación
mediante una aplicación f : R → R que proporciona la posición final de cada punto en
3 3

función de su posición inicial. Dados dos puntos p y q se desplazarán a los puntos


( ( r
p = f ( p) y q = f (q) . El vector que va de p a q , que representaremos como v p , se
r( ( (
transforma entonces en un vector v p( con origen en p y extremo en q . Si los puntos p y q
están muy próximos se cumplirá
( r r ( r
q = f (q) = f ( p + v ) ≅ f ( p ) + (Df ( p )(v ) ) f ( p ) = p + f* (v p ) ,
r(
de modo que v p( ≅ f* (v p ) . Esto nos indica que la transformación f * proporciona una
aproximación local lineal a la deformación que en la proximidad de cada punto sufre el cuerpo.
Como ejemplo de campo tensorial podemos considerar el tensor elemento de volumen ω . Este
tensor proporciona el volumen de un paralelepípedo a partir de los vectores que lo definen. El
tensor f ω se aplicará entonces a pequeños vectores del cuerpo sin deformar y proporciona
*

el volumen a que darán lugar estos vectores una vez deformado el sólido. Otro ejemplo lo
r( r( r( r(
tenemos en el tensor producto escalar: T (v p( , v ' p( ) = v p( , v ' p( , el cual proporciona un nuevo
r r r( r(
tensor f T tal que ( f T )(v p , v ' p ) = v p( , v ' p( , y que se puede aplicar, por ejemplo, para
* *

( (
estimar la distancia entre los puntos transformados p y q , es decir, la longitud que tendrá el
r ( ( r r
vector v p una vez deformado, obteniéndose: d ( p, q ) ≅ ( f T )(v p , v p ) . Aunque vemos que
*

estas consideraciones sólo son correctas como aproximación local, en el rango donde tiene
validez la aproximación lineal, se mostrarán más efectivas y exactas cuando podamos
integrarlas.

4.3. DIFERENCIAL DE UNA FORMA

Para las formas diferenciables se define una operación que permite obtener una forma
de orden k+1 a partir de una k-forma. Se define la diferencial de la k-forma ω como

dω = ∑D ω
1≤i1 <L<ik ≤ n
j i1Lik • dx j ∧ dx i1 ∧ L ∧ dx ik
1≤ j ≤n

Un campo escalar f puede ser considerado como una forma de orden 0, en cuyo
caso el producto ∧ se identifica con el producto usual: f ∧ ω = f • ω .

Para una forma f de orden 0, se obtiene df = Di f • dx


j
, que corresponde a la
∂f
expresión usual de la diferencial de una función tradicional: • dx j .
∂x j
Esto muestra que también se podría haber definido

dω = ∑ dω
1≤i1 <L<ik ≤ n
i1Lik ∧ dx i1 ∧ L ∧ dx ik

Expresada en las componentes tensoriales de la base usual, aunque sin aplicar el


convenio de sumación a los índices i , la diferencial de una forma es:
dω = ∑D ω
1≤i1 <L<ik ≤ n
j i1Lik • dx j ∧ dx i1 ∧ L ∧ dx ik =

1
= ∑
1≤i1 <L<ik ≤ n
D j ( ω s1Lsk eis11LLiksk ) • dx j ∧ dx i1 ∧ L ∧ dx ik =
k!
1
= D jω s1Lsk • dx j ∧ ∑ eis11LLiksk dx i1 ∧ L ∧ dx ik =
k! 1≤i1 <L<ik ≤ n

1
= D jω s1 Ls k • dx j ∧ dx s1 ∧ L ∧ dx s k
k!
Con el convenio de sumación esto también se puede poner como

1
dω =
D jω r1 Lrk esjr1 L s k +1 dx ⊗ L ⊗ dx
1 Lrk s1 s k +1

k!
y este resultado proporciona las componentes tensoriales de dω en notación tensorial:
1
(dω ) s1Lsk +1 = D jω i1Lik esji1L 1Lik
sk +1
k!
La expresión anterior puede simplificarse observando que en la suma del segundo
miembro podemos limitarnos a considerar valores de j siempre iguales a alguno de los índices
s , pongamos j = st , para t = 1,L , k + 1 y que también se cumple que
t −1 i1 Lit −1 s t it Li k
ess1t L s k +1 = ( −1)
i1 Li k
es1 Lst −1 st st +1 Ls k +1 = (−1)t −1 esi11Lit −1it Li k
Ls t −1 s t +1 Ls k +1
y así:
k +1
1 
(dω ) s1Lsk +1 = ∑ (−1)t −1 Dst  ω i1Lik esi11L
Lst −1st +1Lsk +1  =
ik

t =1  k! 
k +1
= ∑ (−1)t −1 Dst Alt (ω ) s1Lst −1st +1Lsk +1 ⇔
t =1
k +1
(dω ) s1 Ls k +1 = ∑ (−1)t −1 Dst ω s1 Lst −1st +1 Ls k +1
t =1

Si ω y η son dos k-formas se ve inmediatamente que d (ω + η ) = dω + dη . Sea


ahora µ una forma de orden r, entonces
 1 1 
d (ω ∧ µ ) = d  ( ω i1Lik dx i1 ∧ L ∧ dx ik ) ∧ ( µ ik +1Lik + r dx ik +1 ∧ L ∧ dx ik + r )  =
 k! r! 
(k + r )! 1
= d( ω i1Lik µ ik +1Lik +r dx i1 ∧ L ∧ dx ik +r ) =
k!r! (k + r )!
(k + r )! 1
D j (ω i1Lik µ ik +1Lik +r )dx j ∧ dx i1 ∧ L ∧ dx ik + r =
k!r! (k + r )!
1
= ( D jω i1Lik µ ik +1Lik + r + ω i1Lik D j µ ik +1Lik + r )dx j ∧ dx i1 ∧ L ∧ dx ik + r =
k!r!
1 1
=( D jω i1Lik dx j ∧ dx i1 ∧ L ∧ dx ik ) ∧ ( µ ik +1Lik + r dx ik +1 ∧ L ∧ dx ik + r ) +
k! r!
1 1
+ (−1) k ( ω i1Lik dx i1 ∧ L ∧ dx ik ) ∧ ( D j µ ik +1Lik + r dx j ∧ dx ik +1 ∧ L ∧ dx ik +1 ) =
k! r!
= dω ∧ µ + (−1) ω ∧ dµ
k

Este resultado también se puede expresar como

d (ω ∧ µ ) = dω ∧ µ + (−1) kr dµ ∧ ω

Supongamos ahora que ω 2


es C , entonces
1
d 2ω = d 2 ( ω i1Lik dx i1 ∧ L ∧ dx ik ) =
k!
=
1
k!
(
d dω i1Lik ∧ dx i1 ∧ L ∧ dx ik + ω i1Lik d (dx i1 ∧ L ∧ dx ik ) = )
1
= d (dω i1Lik ∧ dx i1 ∧ L ∧ dx ik ) =
k!
1 2
=
k!
(
d ω i1Lik ∧ dx i1 ∧ L ∧ dx ik + (−1)1 dω i1Lik ∧ d (dx i1 ∧ L ∧ dx ik ) = )
1
= d 2ω i1Lik ∧ dx i1 ∧ L ∧ dx ik
k!
y a consecuencia de que Drjω i1Lik = D jrω i1Lik se obtiene

d 2ω i1Lik = d ( D jω i1Lik dx j ) = d ( D jω i1Lik ) ∧ dx j + D jω i1Lik d (dx j ) = Drjω i1Lik dx r ∧ dx j = 0

, es decir:
d 2ω = 0 .

Una forma ω tal que dω = 0 se denomina cerrada. Una forma tal que se puede poner como
ω = dη para alguna otra forma η se denomina exacta. El resultado anterior muestra que toda
1
forma C exacta es cerrada. En el siguiente apartado demostraremos que la afirmación
reciproca es también cierta para casos muy amplios.

Otro resultado importante lo constituye la igualdad:

f * (dω ) = d ( f *ω )

La demostración se realiza por inducción. Para una función g se tiene


f *g = g o f
de modo que
d ( f * g ) = d ( g o f ) = ( Di g ) o f • df i = f * ( Di g • dx i ) = f * (dg )
Supongamos ahora que ω = η ∧ dx i donde η es una k-forma que cumple el teorema.
Entonces:
f * (dω ) = f * (d (η ∧ dx i )) = f * (dη ∧ dx i + (−1) k η ∧ d 2 x i ) =
= f * (dη ∧ dx i ) = f *dη ∧ f *dx i = d ( f *η ) ∧ df i = d ( f *η ) ∧ df i + f *η ∧ d 2 f i =
= d (( f *η ) ∧ df i ) = d ( f * (η ∧ dx i )) = d ( f *ω )
Ahora bien, toda k+1 forma se puede expresar como suma de términos del tipo
ω = η ∧ dx i , de modo que si la relación se cumple para formas de orden k, también se
cumplirá para formas de orden k+1. Puesto que se cumple para las formas de orden 0
(funciones), el resultado queda demostrado por inducción.

4.4. LEMA DE POINCARÉ

n
De un conjunto abierto A de R se dice que tiene forma de estrella respecto al origen
si el segmento que une cada uno de sus puntos con el origen también pertenece a A . El
interés de los conjuntos en forma de estrella reside en que sobre ellos se pueden realizar
integrales lineales de las funciones que partiendo desde un origen pueden llegar a cualquier
otro punto. Ello nos permitirá definir operadores globales sobre el conjunto que hacen la
función inversa de los de derivación:
1
Sea ω= ω i Li dx i1 ∧ L ∧ dx ik una k-forma definida en un conjunto abierto en forma
k! 1 k
de estrella respecto al origen. Se define entonces una forma de orden k-1 como

1
Iω i1 Lik −1 ( x) = ∫t ω si Li (t • x) • x s • dt
k −1
1 k −1
t =0

Se tiene que
1
( Idω ) s1Lsk ( x) = ∫ t k (dω ) s0 s1Lsk (t • x) • x s0 • dt =
t =0
1
 k 
= ∫ t k  ∑ (−1) p Ds p ω s0Ls p −1s p +1Lsk (t • x)  • x s0 • dt =
t = 0  p =0 
1 k
= ∫ t k ∑ (−1) p Ds p ω s0Ls p −1s p +1Lsk (t • x) • x s0 • dt +
t =0 p =1
1
+ ∫ t k Ds0ω s1Lsk (t • x) • x s0 • dt =
t =0
1 1
k
d 
= ∫t k
∑ (−1) p
Ds p ω s0Ls p −1s p +1Lsk (t • x) • x • dt + ∫ t k  ω s1Lsk (t • x)  • dt =
s0

dt
t =0 p =1 t =0  
1 k 1
= ∫ t k ∑ (−1) p (−1) p−1 Ds p ω s1Ls p −1s0s p +1Lsk (t • x) • x s0 • dt +t kω s1Lsk (t • x) tt ==10 − ∫ k • t k −1ω s1Lsk (t • x)dt =
t =0 p =1 t =0

 k 1 1

= ω s1Lsk ( x) −  ∑ ∫ t k Ds p ω s1Ls p −1ss p +1Lsk (t • x) • x s • dt + k ∫ t k −1ω s1Lsk (t • x)dt  =
 p=1 t =0 t =0 
 k 1 k 1

= ω s1Lsk ( x) −  ∑ ∫ t k Ds p ω s1Ls p −1s s p +1Lsk (t • x) • x s • dt + ∑ δ ssp ∫ t k −1ω s1Ls p −1•s•s p +1Lsk (t • x) • dt  =
 p=1 t =0 p =1 t =0 

 k 1 k 1

= ω s1Lsk ( x) −  ∑ ∫t
k
Ds p ω s1Ls p −1s s p +1Lsk (t • x) • x • dt + ∑
s
∫t ω s Ls
k −1
1 p −1ss p +1Lsk
(t • x) • Ds p x s • dt  =
 p=1 t =0 p =1 t =0 
 k 1 
= ω s1Lsk ( x) −  ∑ (−1) p−1 Ds p  ∫ t kω ss1Ls p −1 s p +1Lsk (t • x) • x s • dt   =
 p=1 
  t =0 
k
= ω s1Lsk ( x) − ∑ (−1) p−1 Ds p ( Iω ) s1Ls p −1s p +1Lsk ( x) =
p =1

= ω s1Lsk ( x) − (dIω ) s1Lsk ( x)


de modo que se cumple la igualdad:

ω = I (dω ) + d ( Iω )

y si ω es cerrada Idω = I 0 = 0 y por tanto ω = d ( Iω ) es exacta. Este resultado constituye


el lema de Poincaré: toda forma que es cerrada en un abierto con forma de estrella respecto
del origen es exacta.

Esto se puede generalizar a conjuntos más amplios que los de forma de estrella
respecto al origen: Si toda forma que es cerrada es también exacta en un conjunto A , también
ocurre lo mismo en cualquier otro conjunto B que se pueda expresar como B = f ( A) siendo
f una función diferenciable con inversa diferenciable. En efecto, para toda forma ω definida
en B se tiene una forma ω = ( f ) ω definida en A . Si se tiene dω = 0 entonces
−1 *

dω = d ( f −1 )*ω = ( f −1 )* dω = ( f −1 )* 0 = 0 , de modo que existe una forma η en A tal que


dη = ω , y entonces la forma η = f *η en B cumple que

dη = d ( f *η ) = f *dη = f *ω = f * ( f −1 )*ω = ω

4.5. RESULTADOS CLÁSICOS DE ANÁLISIS VECTORIAL

Como ejercicio de aplicación de las ideas expuestas en los apartados anteriores, y para
3
mostrar su potencial, deduciremos aquí algunos resultados sobre R que se utilizan con
frecuencia en física clásica de campos.

 ∂ ∂ ∂ 
Se define formalmente el operador ∇ ≡  , 2 , 3  ≡ (D1 , D2 , D3 ) y se opera
 ∂x ∂x ∂x 
1

con él formalmente como si fuese un vector:

Se define el gradiente de un campo escalar φ como el campo vectorial


grad (φ ) ≡ ∇φ = (D1φ , D2φ , D3φ )
r
La divergencia de un campo vectorial v = (v , v , v ) se define como el campo escalar
1 2 3

r v
div(v ) ≡ ∇, v = D1v1 + D2v 2 + D3v 3
r
Por ultimo, el rotacional de v es el campo vectorial
r v
(
rot (v ) ≡ ∇ × v = D2v 3 − D3v 2 , D3v1 − D1v 3 , D1v 2 − D2 v1 )
La nomenclatura anterior es estándar, pero los operadores que definiremos en el resto
de este apartado se utilizarán solo aquí, con objeto de obtener los resultados que buscamos.
Definiremos a partir de un campo escalar φ la forma de orden 0:
ω 0 [φ ] = φ
, que coincide con la propia función, y una forma de orden 3 dada por
ω 3 [φ ] = φ • dx1 ∧ dx 2 ∧ dx 3
r
y, del mismo modo, para un campo vectorial v definimos una forma de orden 1
r
ω 1 [v ] = v1 • dx1 + v 2 • dx 2 + v 3 • dx 3
y una forma de orden 2
r
ω 2 [v ] = v1 • dx 2 ∧ dx 3 + v 2 • dx 3 ∧ dx1 + v 3 • dx1 ∧ dx 2

Observemos que estas son las formas diferenciales más sencillas que podemos
construir a partir de estos campos. De su definición se desprende que si alguna de estas
formas es nula, también lo es el campo inicial. También se observa que son lineales respecto al
campo de que se obtienen y que lo determinan unívocamente.

Si ahora calculamos sus diferenciales se llega a los resultados siguientes:

dω 0 [φ ] = dφ = D1φ • dx1 + D2φ • dx 2 + D3φ • dx 3 =


= ω 1 [grad (φ )]
r
dω 1 [v ] = D2v1 • dx 2 ∧ dx1 + D3v1 • dx 3 ∧ dx1 +
+ D3v 2 • dx 3 ∧ dx 2 + D1v 2 • dx1 ∧ dx 2 + D1v 3 • dx1 ∧ dx 3 + D2v 3 • dx 2 ∧ dx 3 =
= ( D2v 3 − D3v 2 ) • dx 2 ∧ dx 3 + ( D3v1 − D1v 3 ) • dx 3 ∧ dx1 + ( D1v 2 − D2v1 ) • dx1 ∧ dx 2 =
r
= ω 2 [rot (v )]
r
dω 2 [v ] = D1v1 • dx1 ∧ dx 2 ∧ dx 3 + D2v 2 • dx 2 ∧ dx 3 ∧ dx1 + D3v 3 • dx 3 ∧ dx1 ∧ dx 2 =
= ( D1v1 + D2v 2 + D3v 3 ) • dx1 ∧ dx 2 ∧ dx 3 =
r
= ω 3 [div(v )]
dω 3 [θ ] = 0

Puesto que para cada una de estas formas se debe cumplir d ω = 0 se demuestra
2

que:
0 = d 2ω 0 [φ ] = dω 1 [grad (φ )] = ω 2 [rot ( grad (φ ))] ⇒ rot ( grad (φ )) = 0
r r r r
0 = d 2ω 1 [v ] = dω 2 [rot (v )] = ω 3 [div(rot (v ))] ⇒ div(rot (v )) = 0

Aplicaremos ahora el resultado obtenido al demostrar el lema de Poincaré. Para


hacerlo, supondremos que los campos están definidos en un conjunto en forma de estrella
respecto al origen de coordenadas. Sea f ( x ) un campo, escalar o vectorial, definimos el
operador
1
r
I f = ∫ t k • f (t •r )dt
k

t =0
r
donde el campo r = ( x , x , x ) coincide con el vector de posición.
1 2 3

Definiremos unos nuevos símbolos, que, en cierto modo realizan la operación inversa
al operador ∇ :

∆0 [φ ] = 0
r r r
∆1 [v ] = r , I 0v
r r r
∆2 [v ] = (I 1v ) × r
r
∆3 [φ ] = (I 2φ ) • r

Se reduce a un simple cálculo comprobar entonces que


Iω 0 [φ ] = 0
r r
Iω 1 [v ] = ω 0 ∆1 [v ] [ ]
r r
Iω 2 [v ] = ω 1 ∆2 [v ] [ ]
Iω 3 [φ ] = ω 2 ∆3 [φ ] [ ]
de modo que aplicando la igualdad ω = I ( dω ) + d ( Iω ) se llega a los siguientes resultados:

a)
ω 0 [φ ] = I (ω 1 [grad (φ )]) + d (0) = ω 0 [∆1 [grad (φ )]]
luego φ = ∆1 [grad (φ )] , con lo que el operador ∆ se puede considerar inverso al operador
1

grad .

b)
ω 1 [v ] = I (ω 2 [rot (v )]) + d (ω 0 [∆1 [v ]]) =
v r r

r
[ r
] [ (
r
)] r
= ω 1 ∆2 [rot (v )] + ω 1 grad ∆1 [v ] = ω 1 ∆2 [rot (v )] + grad ∆1 [v ][ ( )]
y así se tiene v = ∆ [rot (v )] + grad (∆ [v ]) . Si rot (v ) = 0 se dice que el campo es
r 2 r 1 r r
irrotacional. En el caso en que el campo sea irrotacional, se puede expresar como gradiente del
[r ]
campo escalar ∆ v , en consonancia con el resultado a).
1

c)
ω 2 [v ] = I (ω 3 [div(v )]) + d (ω 1 [∆2 [v ]]) =
v r r

= ω 2 [∆3 [div(v )]] + ω 2 [rot (∆2 [v ])] = ω 2 [∆3 [div(v )] + rot (∆2 [v ])]
r r r r

r
[ ( [r ]) con lo cual se demuestra que si la divergencia de un vector
luego v = ∆ div (v ) + rot ∆ v
3 r
] 2

es nula, este vector se puede expresar como un rotacional v = rot (∆ [v ]) , y vemos que ∆ es
r r 2 2

el operador inverso de rot .

d)
ω 3 [φ ] = I (0) + d (ω 2 [∆3 [φ ]]) = ω 3 [div (∆3 [φ ])]
y por tanto φ = div (∆3 [φ ]) y vemos que el operador ∆ es el operador inverso por la derecha
3

del operador div .

4.6. CUBOS Y CADENAS

Con frecuencia es necesario integrar funciones en regiones complicadas del espacio.


Para simplificar esta operación se suele dividir la región de integración en trozos simples y
posteriormente sumar la integral de cada trozo. Otro caso semejante ocurre cuando la región
donde se quiere integrar se puede considerar igual a una región simple con un hueco, entonces
el valor de la integral se calcula restándole a la integral sobre la región el valor de la integral
sobre el hueco. Este tipo de operaciones se formaliza mediante el concepto de cadena.
Podemos considerar una cadena como una suma de regiones del espacio, cada región
multiplicada por un coeficiente. La integral sobre una cadena será la suma de las integrales de
las regiones que la constituyen multiplicada cada una de ellas por el coeficiente
correspondiente. Este apartado trata de concretar estas ideas.
Recordemos que 0,1 [ ]n representa un cubo cerrado en el espacio R , el formado por
n

n
todos los puntos de R cuyas coordenadas toman valores entre los 0 y 1, ambos incluidos. Un
n-cubo singular en una región A del espacio se identifica con una función c : 0,1 [ ] n → A.
Así pues, podemos representarnos un n-cubo como el cubo 0,1 [ ]n deformado y introducido
dentro de A conforme indica la función c . Como caso particular, se define un 0-cubo singular
como una función c : {0} → A que solo afecta a un punto, el origen 0, transformándolo en el
punto c(0) ∈ A , es decir, un 0-cubo es un punto en A . En el caso de n = 1 , un 1-cubo
representará una curva (dimensión 1) en A . En el caso n = 2 , representará un superficie
rectangular deformada, etc.

El n-cubo que se obtiene cuando la función c es la identidad, es decir, cuando c


transforma el cubo 0,1 [ ]n en sí mismo, sin deformar, se representa como c ≡ I . Se tiene por
n

tanto que I ( x ) = x para x ∈ 0,1


n
[ ]n .
Los n-cubos serán las regiones del espacio más simples con las cuales construiremos
las demás. Una n-cadena, o cadena de dimensión n, se obtiene como una suma de n-cubos
afectados por coeficientes. Para formalizar esta idea se identifica una n-cadena con una
función que asigna a cada cubo el coeficiente por el que se ve afectado. Mas concretamente,
sea S la colección de todos los n-cubos, entonces una n-cadena es una función k : S → Z
que vale 0 para todos los n-cubos excepto un número finito.
La cadena que vale 0 para todos los n-cubos excepto para un único n-cubo c para el
cual toma el valor k (c ) = 1 , se representará también por c. Es decir, se representan con el
mismo símbolo tanto a la función que describe la transformación c : 0,1 → A como a la [ ]n
cadena c : S → Z que cumple c(c) = 1 y c(c' ) = 0 si c ' ≠ c . Las combinaciones lineales de
cadenas se definen a partir de las igualdades (k + k ' )(c) = k (c) + k ' (c) y
(λ • k )(c) = λ • k (c) para cualesquiera cadenas k y k ' y cualquier entero λ . Así, cualquier
cadena k se puede expresar como una suma
k = a1c1 + L + as c s
1 s
donde c ,L, c son los s n-cubos singulares de los que esta compuesta y donde los
coeficientes valen ai = k (c ) . Las definiciones anteriores pretenden únicamente dar sentido
i

riguroso a la forma de operar con cadenas, que es la manera usual entre funciones.
Consideremos, por ejemplo las cadenas k = 2c − 5c + c y k ' = c + 2c − c , entonces la
1 2 3 1 3 4

cadena k − 2k ' es igual a k ' ' = −5c − 3c + 2c .


2 3 4

4.7. FRONTERA DE UNA CADENA

La frontera de un segmento son sus dos puntos extremos, la frontera de un circulo es


su circunferencia, la de un cubo sus caras. En este apartado buscaremos la expresión general
de la frontera de una n-cadena cualquiera. Además de definir el lugar geométrico de los puntos
de la frontera tendremos en cuenta otro aspecto: su orientación. Donde más claramente se
visualiza el concepto de orientación es en el caso de un cuadrado, un cubo de dimensión 2; su
frontera es entonces una línea que se puede recorrer bien en el sentido de las agujas del reloj
o bien en el sentido contrario. Según la definición que daremos, la frontera de un cubo será una
cadena formada por la suma de los cuatro lados, afectados por un coeficiente igual a ±1 con el
que se determina la orientación. La frontera de una cadena k suele representarse por ∂k .
1 1
x2
-I (1,0) +I (1,1) x 1
-I 3(3,0)

3
3
-I (1,0) -I (2,1)
x2 2
-I (2,1)
+I 3(1,1)
3
+I (3,1) x1
2
-I (1,0) +I 2(1,1)
+I 3(2,0)
x1
x3
2
+I (2,0)

n
En primer lugar encontremos la expresión que nos determina las caras del cubo I .
Para cada i donde 1 ≤ i ≤ n se definen dos caras iguales a los cubos de dimensión n-1 dados
por:
I (ni ,0 ) ( x) = ( x1 ,..., x i −1 ,0, x i ,..., x n −1 )
I (ni ,1) ( x) = ( x1 ,..., x i −1 ,1, x i ,..., x n −1 )
para x ∈ 0,1 [ ] n−1 . La frontera de I n se define como la cadena
n
∂ I n = ∑ ∑ (−1)i+ j I (ni , j )
i =1 j =0 ,1

Puesto que un cubo cualquiera c , de dimensión n, no deja de ser una transformación


n
del cubo I , nos apoyaremos en las definiciones anteriores para generalizaras. Se define la
(i, j ) cara de c como el cubo dado por la función c( i , j ) = c o I (ni , j ) para 1 ≤ i ≤ n y para
j = 0,1 . De forma semejante, la frontera de c será la cadena
n
∂c = ∑ ∑ (−1) i + j c(i , j )
i =1 j =0 ,1

Sea ahora k una cadena n dimensional que se puede expresar como una combinación
de cubos k = ∑a c
s
s
s
, entonces se define su frontera por

∂ k = ∑ as ∂ (c s )
s
Si observamos la frontera de un cuadrado, vemos que es una línea cerrada, que no
tiene extremos, y por tanto su propia frontera es nula. De la misma forma, la frontera de un
cubo es una superficie sin borde. Esto sugiere el siguiente resultado general:

Si k es una n-cadena, entonces

∂ 2 k ≡ ∂ (∂ k ) = 0

Demostraremos esto. En primer lugar, observemos que si i ≤ j entonces


( I (ni ,a ) ) ( j ,b ) = ( I (ni ,a ) ) ( j +1,b ) .
En efecto, sea x ∈ 0,1 [ ] n−2 , entonces:
( I (ni ,a ) ) ( j ,b ) ( x) = I (ni ,a ) o I (nj−,1b ) ( x) = I (ni ,a ) ( x1 , L , x j −1 , b, x j , L , x n−2 ) =
= ( x 1 , L , x i −1 , a, x i , L , x j −1 , b, x j , L , x n − 2 ) =
= I (nj +1,b ) ( x 1 , L , x i −1 , a, x i , L , x n − 2 ) = I (nj +1,b ) o I (ni −,a1) ( x) = ( I (nj +1,b ) ) ( i ,a )

Sea c un n-cubo, entonces para i ≤ j

(c ( i ,a ) ) ( j ,b ) = c o I (ni ,a ) o I (nj−,1b ) = c o ( I (ni ,a ) ) ( j ,b ) = c o ( I (nj +1,b ) ) (i ,a ) = c o I (nj +1,b ) o I (ni −,a1) = (c ( j +1,b ) ) (i ,a )

de modo que
n n
∂ 2 c = ∂ (∂c) = ∂ ∑ ∑ (−1) i + a c(i ,a ) = ∑ ∑ (−1) i + a ∂c(i ,a ) =
i =1 a = 0 ,1 i =1 a = 0 ,1
n n −1
= ∑ ∑∑ ∑ (−1) i + j + a +b (c (i ,a ) ) ( j ,b )
i =1 a = 0 ,1 j =1 b = 0 ,1

En esta suma los factores (c ( i , a ) ) ( j ,b ) y (c ( j +1,b ) ) ( i , a ) aparecen con signos cambiados,


de modo que todos los sumandos se anulan dos a dos y se tiene ∂ (∂c) = 0 .

Por ultimo, para una n-cadena k = ∑a c


s
s
s
se tendrá:

∂ 2 k = ∂ ∑ a s∂c s = ∑ a s∂ 2 c s = ∑ a s 0 = 0
s s s

4.8. INTEGRALES DE FORMAS SOBRE CADENAS

Consideremos una forma ω cuyo orden sea igual a la dimensión n del espacio, es
n
decir, que se sea de un elemento de volumen, y que esté definida en el conjunto 0, 1 .
Entonces se podrá expresar como ω i Li = f • ei Li
1 n 1 n
para una única función f. Sea ahora
h : R n → R n una transformación de coordenadas diferenciable del espacio. Se tiene:
(h *ω ) j1L jn = f o h • D j1 h i1 L D jn h in • ei1Lin = f o h • det(h' ) • e j1L jn
donde det(h' ) es el jacobiano de la transformación. Esto también se puede expresar como

( )
h * f • dx 1 ∧ L ∧ dx n = f o h • det(h' ) • dx 1 ∧ L ∧ dx n

La similitud entre esta ley de transformación y la ley de transformación y el teorema de


cambio de variables en integrales de volumen inspira la siguiente definición:

Se define la integral sobre 0,1 [ ]n de una n-forma ω definida en 0,1 [ ]n mediante la


relación ω = f • dx ∧ L ∧ dx 1 n
como

∫ ω = ∫ f • dx ∧ L ∧ dx n ≡ ∫ f ( x ,L, x
1 1 n
) • dx 1 L dx n
[0,1]n [0,1]n [0,1]n
Sea ahora c un n-cubo singular en un espacio A cualquiera, entonces se define

∫ω ≡ ∫ f ω
*

c [0,1]
n

En el caso que sea n = 0 , la definición anterior no es válida y se toma por definición

∫ ω ≡ ω (c(0)) .
c

En el caso de que c = I
n
se encuentra que

∫ ω = ∫ (I ) ω= ∫ω
n *

In [0,1]n [0,1]n

Y, finalmente, la integral sobre una n-cadena k = ∑a cs


s
s
se define por

∫ω = ∫ω ≡ ∑ a ∫ω s s
s
k ∑ as c cs
s

Para comprobar que la definición anterior es correcta, veremos que el valor de la


integral sobre un n-cubo no depende de la elección de parámetros.

Sean c y c dos n-cubos sobre la misma región de A tales que se puede poner
c = c o h para una función h : [1,0] → [1,0] del tipo 1 − 1 diferenciable. Definamos la función
n n

g tal que

c *ω = g • dx 1 ∧ L ∧ dx n

, entonces será

∫ ω = ∫ ω = ∫ (c o h) ω = ∫ h (c *ω ) = ∫h ( g • dx 1 ∧ L ∧ dx n ) =
* * *

c coh [0,1]n [0,1]n [0,1]n


= ∫ g o h • det(h' ) • dx ∧ L ∧ dx n = ∫ g o h • det(h' ) • dx L dx n =
1 1

[0,1]n [0,1]n
= ∫ g • dx L dx n = ∫ g • dx L dx n = ∫ c ω =∫ ω
1 1 *

h ( [0 ,1]n ) [0,1]n [0,1]n c

4.9. TEOREMA DE STOKES

El teorema de Stokes permite reducir determinadas integrales sobre una cadena a


otras integrales sobre su frontera:

Si ω es una forma de orden n − 1 en A y si k es una cadena de orden n , entonces

∫ dω = ∂∫ ω
k k
Para demostrarlo, consideremos como primer caso la situación en la que la cadena k
coincide con el cubo I
n
y en el que la forma ω sea del tipo

ω = f ( x 1 , L , x n ) • dx 1 ∧ L ∧ dx i −1 ∧ dx i +1 ∧ L ∧ dx n
Se tiene entonces que (sin utilizar sumación de índices repetidos):
n
dω = ∑ D j f • dx j ∧ dx 1 ∧ L ∧ dx i −1 ∧ dx i +1 ∧ L ∧ dx n =
j =1

= Di f • dx ∧ dx 1 ∧ L ∧ dx i −1 ∧ dx i +1 ∧ L ∧ dx n = (−1) i −1 Di f • dx 1 ∧ L ∧ dx n
i

Por otra parte


dx q si q< p
I n
( p ,a )
*
(dx ) = d π o I
q
( q n
( p ,a ) ) 
= da = 0 si q= p
dx q −1 si q> p

de modo que
*
I (np ,a ) ω =
* * * *
= f ( x1 , L , x p −1 , a, x p , L , x n −1 ) • ( I (np ,a ) dx 1 ) ∧ L ∧ ( I (np ,a ) dx i −1 ) ∧ ( I (np ,a ) dx i +1 ) ∧ L ∧ ( I (np ,a ) dx n )

y la única forma de que el producto anterior no contenga el factor 0 es que p = i , con lo cual
*
I (np ,a ) ω = f ( x 1 , L , x p −1 , a, x p , L , x n −1 ) • δ pi dx 1 ∧ L ∧ dx n −1

y entonces se tiene
n n

∑∑ (−1) p + a ∫ I ( p ,a ) ω = ∑ ∑ (−1)
*
∫ω = ∫ f ( x ,L, x , a, x p , L , x n −1 )δ pi dx 1 L dx n −1 =
n p+a 1 p −1

∂I n a = 0 ,1 p =1 [0,1]n −1 p =1 a = 0 ,1 [0,1]n −1

∫ f ( x ,L, x
i −1
= (−1) i 1
,0, x i , L , x n −1 ) − f ( x 1 , L , x p −1 ,1, x p , L , x n −1 )dx 1 L dx n −1 =
[0,1]n −1
1
= ( −1) ∫ − ∫ Di f ( x 1 , L , x i −1 , t , x i , L , x i −1 )dt • dx 1 L dx n −1 =
i

[0,1]n −1 0

(−1) i −1 ∫D i f ( x 1 , L x i −1 )dx 1 L dx n =
[0,1]n
= ∫ dω = ∫ dω
[0,1]n In

Como toda forma de orden n-1 se puede expresar como suma de términos del tipo
f ( x 1 , L , x n ) • dx 1 ∧ L ∧ dx i −1 ∧ dx i +1 ∧ L ∧ dx n
considerado, el resultado anterior es general y para toda n-1 forma se cumple

∫ dω = ∫ dω .
[0,1]n In

Consideremos ahora un n-cubo arbitrario, se tiene:

n*
∫ dω = ∫ c (dω ) = ∫ d (c *ω ) = ∫ c ω = ∫ ∂I (c *ω ) = ∫ (c o ∂I ) ω= ∫ (∂c) ω = ∂∫ ω
* * n * *

c [0 ,1]n In ∂I n [0,1]n −1 [0,1]n −1 [0,1]n −1 c

Por ultimo, para una n-cadena k = ∑a c


s
s
s
se llega al resultado general
∫ dω = ∑ a ∫ dω = ∑ a ∫ ω = ∫ ω = ∂∫ ω
s
s
s
s
k cs ∂c s ∑ a s ∂c
s k
s

4.10. TEOREMAS INTEGRALES CLÁSICOS

Al objeto de ilustrar las consecuencias del teorema anterior, en este apartado


mostraremos que algunos resultados frecuentemente utilizados que son casos particulares.

La aplicación más simple del teorema se obtiene al considerar n=1. Entonces ω es


una función y se llega al teorema fundamental del cálculo de integrales:
1
∫ ω ( x)dx =[ ∫ d] ω = − ∫ ω + ∫ ω =ω (1) − ω (0)
0
0 ,1 0 1

Tomemos A = R
3
y utilicemos la misma nomenclatura que en los ejemplos clásicos
de análisis vectorial.

Para el caso n=3, sea c una cadena correspondiente a un volumen V de R , limitado


3
r
por una superficie S . y tomemos ω = ω [v ] , de modo que, tal como vimos,
2

r
dω = ω 3 [div(v )]
Se tiene entonces:
r r
∫ ω [div(v )] = ∂∫ ω [v ]
3 2

c c

Esto no es sino la expresión del teorema de la divergencia de Gauss que suele


aparecer en la notación clásica como:
r r r
∫ div(v ) • dV = ∫
V S
v , dS

Para n = 2 , sea ahora c una superficie S en el espacio limitada por una curva cerrada
r r
L . Tomando ω = ω 1 [v ], será dω = ω 2 [rot (v )] , de modo que la igualdad

∫ ω [ rot ( vr )] = ∫ ω [ vr ]
2 1

c ∂c

nos lleva al teorema clásico del rotacional de Stokes, que suele expresarse como
r r r r
∫ rot (v ) ⋅ dS = ∫ v ⋅dr
S L

También podría gustarte