Documentos de Académico
Documentos de Profesional
Documentos de Cultura
ApA PDF
ApA PDF
w = u + v, (A.1)
α1 u1 + ... + αn un = 0, (A.3)
u = α1 u1 + ... + αn un ≡ αi ui . (A.4)
El lector recordará, entre tantos ejemplos posibles, que el conjunto {A, B, ...} de
las matrices n × n forma un espacio vectorial de dimensión n2 . Que las matrices n × 1, o
bien 1 × n (columnas o filas) es decir, los conjuntos ordenados de n números (a1 , a2 , ..., an )
también llamados n-plas, forman un espacio vectorial de dimensión n. Las flechas (los
segmentos de recta orientados) que representan geométricamente las fuerzas en mecánica,
forman un espacio vectorial de tres dimensiones, el cual fue el paradigma de la noción
de vector en el desarrollo histórico del concepto y es todavía el más importante en las
aplicaciones físicas. El espacio de los polinomios de variable t de grado ≤ n − 1 (en
este caso una base es 1, t, ...tn−1 ) es también un espacio vectorial de dimensión n, y así
siguiendo.
fórmula con la que se obtiene una representación algebráica de la función lineal, mediante
la n-pla (a1 , ..., an ) ligada a la base particular elegida. La A.5 se parece a un producto
escalar entre vectores, operación que no todavía no está definida en E. En los espacios
euclidianos, mencionados más adelante, en los cuales existe el producto escalar, las formas
lineales f (u) son equivalentes a productos escalares.
Una función bilineal, o forma bilineal, es una correspondencia E × E → R . Aquí
E ×E indica el producto cartesiano, o sea el conjunto de los pares ordenados de elementos
de E. La función bilineal es tal que a todo par ordenado de vectores (w, v) le asigna un
número F (w, v) con las condiciones:
a) F (w1 + w2 , v) = F (w1 , v) + F (w2 , v);
b)F (w, v1 + v2 ) = F (w, v1 ) + F (w, v2 ).
c) F (αw, v) = αF (w, v) y F (w, αv) = αF (w, v).
En otras palabras, F (w, v), es lineal en cada uno de los argumentos, separada-
mente. Si tenemos las coordenadas de w, v respecto de la base ui de E, w = β i ui , v = γ i ui
y si conocemos el cuadro de números que corresponde a la aplicación de F sobre los pares
de elementos de la base, aij = F (ui , uj ), resulta
definen la suma de dos funciones lineales y el producto de una función lineal por un número.
Es fácil comprobar que se cumplen las demás propiedades de un espacio vectorial dadas
en A.1. La función cero es tal que f + 0 = f , las propiedades asociativa y distributivas de
la suma se heredan de las correpondientes al cuerpo de ńumeros reales R, etc.. El espacio
vectorial de las funciones lineales E ∗ se denomina espacio dual de E. Se demuestra
facilmente que debe tener la misma dimensión de E. Los elementos del espacio dual se
denominan covectores.
Puesto que todo vector u ∈ E induce una correspondencia lineal con un número
f (u) cuando actúa en asociación con cualquier f ∈ E ∗ , podemos ahora pensar que los
elementos de E son funciones lineales sobre E ∗ . Por lo tanto, ahora el dual de E ∗ es E,
o sea, el dual del dual es el espacio original, (E ∗ )∗ = E.
Debido al distinto comportamiento de vectores y formas frente a los cambios de
base, mientras se trabaje con bases generales resulta útil introducir una nueva convención
para los índices. Esta convención será omitida cuando trabajemos con bases ortogonales,
es decir con tensores cartesianos en espacios euclidianos. En general, hay que hacer
atención a la siguiente notación para la posición de los índices, que modifica la empleada
más arriba en A.1, y A.2,
H = [ηki ] (k=filas, i=columnas), son inversas una respecto de la otra, G = H−1 , puesto
que
u0k = ul γ lk = u0i η il γ lk , =⇒ u0i (δ ik − ηil γ lk ) = 0. (A.16)
Pero los u0i forman una base y por lo tanto son linealmente independientes, de modo que
(δ ik − η il γ lk ) = 0, HG = I. (A.17)
En forma similar se muestra que GH = I. Es fácil argumentar que para formar una base
{u0i } debe estar ligada a {ui } por una matriz que posea inversa, es decir que G debe ser
no singular, i.e., det(G) 6= 0. Lo mismo dígase de H.
Utilizando δ ij la delta de Kroenecker, podemos escribir
γ lk ηki = δ li , η lk γ ki = δ li . (A.18)
Por lo tanto, partiendo de A.13 y siguientes,
u = (αk0 γ lk )ul = αl ul , (A.19)
= (αi ηki )u0k = αk0 u0k ,
de las cuales se desprende que
αk0 = ηki αi , αl = γ lk αk0 , (A.20)
es decir que las coordenadas de los vectores se transforman mediante los elementos de
la matriz inversa y transpuesta de la que transforma las bases. Con notación matricial,
donde las componentes α = (α1 , ..., αn )T son vectores columna y las bases vectores filas
u = (u1 , ..., un ), podemos escribir
u0 = uGT , u = u0 H T , (A.21)
α0 = Hα, α = Gα0 .
Para la transformación de las formas lineales tenemos
f (u) = ai αi = a0i αi0 , ai = f (ui ), a0i = f (u0i ), (A.22)
donde las n-plas a = (a1 , ...an ) y a0 = (a01 , ...a0n ) son covectores filas y de aquí, de manera
similar, se obtiene
a0k αk0 = ai αi = (ai γ ik )αk0 , (A.23)
ai αi = (a0k ηki )αi , (A.24)
o sea,
a0k = ai γ ik , ai = a0k ηki , (A.25)
a0 = aGT , a = a0 H T , (A.26)
la cual muestra que los covectores se transforman como los elementos de la base de E.
Se dice que las componentes de los vectores αi son contravariantes y las componentes de
los covectors ai son covariantes. En estas notas, sólo necesitaremos la distinción entre
índices de covariancia y contravariancia cuando sea necesario trabajar con coordenadas
curvilíneas.
Dado que las bases duales son tales que
f i (uj ) = δ ij = f 0 i (u0j ), (A.27)
resulta
f i (u0k η kj ) = f i (u0k )ηkj = δ ij , (A.28)
i
y por lo tanto f (u0k )
son los elementos de la matriz inversa de es decir, los elementosη kj ,
γ ik de G, la inversa de H. Analogamente, f 0 i (uk ), son las componentes de la inversa de
γ kj , es decir, de H, la inversa de G.
Espacios Euclidianos 77
(−
→
x ,− x | |−
y ) ≡ |−
→ → →
y | cos(∠−
→
x ,−
→
y ), (A.29)
es un espacio euclidiano. En este caso, la notación más difundida para el producto interno
es −
→x •−→
y y el nombre habitual de la operación producto escalar. En el espacio vectorial
cuyos elementos son n-plas a = (a1 , a2 , ..., an ), b = (b1 , b2 , ..., bn ),..., etc., podemos definir
un producto interno con la expresión
El lector puede comprobar que con este producto interno el espacio de n-plas es euclidiano.
En el espacio de los polinomio P (t), Q(t),..., etc., de grado ≤ n − 1 un producto interno
se puede definir mediante
Zb
(P, Q) = P (t)Q(t)dt, (A.31)
a
es la longitud (o norma) del vector v. Con esta definición se puede generalizar la noción
de ángulo entre dos vectores w, v:
(w, v)
φ = arccos . (A.33)
|w| |v|
Dos vectores w, v son ortogonales cuando
(w, v) = 0, (A.34)
El lector puede facilmente demostrar la extensión del teorema de Pitágora a los espacios
euclidianos
2 2 2
|w + v| = |w| + |v| , (A.37)
válida cuando los vectores son ortogonales, (w, v) = 0. En general, también como conse-
cuencia de la desigualdad de Schwarz, tenemos la desigualdad triangular
d ≡ |w − v| . (A.39)
Ei • Ej = δ ij , (A.40)
en otras palabras sean Qki las componentes de la nueva base Ek0 respecto de la vieja base
Ei ,
Ek0 • Ei = Qkl El • Ei = Qki . (A.42)
Entonces debido a la condición de ortonormalidad
o sea
Q QT = I. (A.44)
Por otra parte, todo vector x de E se puede representar en las dos bases como
que completa las condiciones que deben cumplir las matrices que transforman una base
ortonormal en otra también ortonormal. Resumiendo, con notación matricial, hemos
obtenido
x0 = Q x, x = QT x0 , (A.49)
Q QT = I, QT Q = I, (A.50)
lineales coinciden con las leyes de transformación de los vectores. Por lo tanto cae la
necesidad de distinguir la posición de los índice de covariancia y contravariancia, como
anticipamos. Evidentemente, en un espacio euclidiano, las formas lineales se pueden
representar con el producto escalar entre vectores de E, es decir el papel del covector f
de E ∗ lo puede realizar un vector f de E
f (u) = f • u (A.51)
Hay que observar que no cualquier tensor de rango dos es igual al producto externo de
dos vectores de E. Cuando esto ocurre, como en A.52, el tensor se denomina díada. La
colección de n2 elementos Ei ⊗Ej forma una base en el espacio vectorial ⊗2 E de funciones
bilineales, donde todo vector {T, U, V, ...}, se representa con
T = Tij Ei ⊗ Ej . (A.53)
En este espacio vectorial los elementos se llaman tensores de segundo rango; Tij son las
componentes del tensor. Como se ve en el ejemplo de A.52, al producto exterior de dos
vectores le corresponde el producto de las componentes wi vj , de modo de generar una
matriz n × n.
Para captar intuitivamente el sentido de la precedente construcción, consideremos
por un momento el ordinario espacio de tres dimensiones de la geometría elemental o de
−
→
la mecánica. Así como los vectores unitarios de la base, E i , son los elementos que
permiten representar magnitudes físicas que dependen de una dirección en el espacio,
−→ −
→
fuerza, velocidad, etc., como − →
v = vi E i , de manera similar los elementos de la base E i ⊗
−
→
E j permiten describir otro tipo de cantidades, las cuales dependen de dos direcciones del
espacio, como en A.53. Por ejemplo, dada una superficie plana de área unidad, pongamos
atención a la cantidad de movimiento que pasa a través de esta superficie por unidad de
tiempo. Esta es una magnitud que depende de dos direcciones: una es la normal a la
superficie, la cual define su orientación en el espacio, la otra depende de la componente de
la cantidad de movimiento que estamos examinando. La superficie puede ser perpendicular
al eje x, la cantidad de movimiento considerada puede ser la componente z, etc.. He
aquí el flujo de una magnitud física que depende de la especificación simultánea de dos
direcciones. Otro ejemplo, supongamos que estamos midiendo las fluctuaciones de señales
de campo eléctrico en dos puntos próximos del espacio. Interesa la correlación de la señal
correspondiente, digamos, a la componente x en un lugar con la componente y en la otra
posición, etc.. Evidentemente la correlación de estas fluctuaciones es una magnitud que
depende de dos direcciones. El lector probablemente recuerda la definición del momento
de inercia de un cuerpo, en la cual intervienen dos direcciones del espacio para cada una
de las componentes. Los tensores de rango dos aparecen en forma natural durante el
desarrollo de la física. Por extensión, podemos concebir cantidades más complicadas que
dependen de tres direcciones en el espacio, y así siguiendo.
El significado operativo del producto externo o producto tensorial, ⊗, se obtiene a
través de las función bilineal que este tensor representa cuando actúa sobre los elementos
del espacio euclidiano E mediante operaciones de producto escalar. Veamos como esto se
realiza, sea (u, v) un elemento de E × E, definimos la forma bilineal mediante
T (u, v) = α, T : E × E → R,
T (u, v) = (Tij Ei ⊗ Ej ) • •(u, v) = Tij (Ei • u)(Ej • v) = Tij ui vj = α. (A.54)
La función es bilineal y la prueba es muy simple. Por ejemplo
T (λ1 w1 + λ2 w2 , v) = Tij (λ1 w1i + λ2 w2i )vj = λ1 Tij w1i vj + λ2 Tij w2i vj
= λ1 T (w1 , v) + λ2 T (w2 , v), (A.55)
La suma de tensores y el producto de un tensor por un número se definen de la manera
natural
T +U = (Tij + Uij )Ei ⊗ Ej = V, Vij = Tij + Uij ; (A.56)
λT = (λTij )Ei ⊗ Ej = W, Wij = λTij . (A.57)
El tensor genera también aplicaciones lineales en E, puesto que mediante produc-
tos escalares puede actuar como operador lineal. Operando a izquierda
(u)T = v T : E → E,
(u)T = u • (Tij Ei ⊗ Ej ) = Tij (Ei • u)Ej = (Tij ui )Ej = v, (A.58)
Tensores Cartesianos 81
T (u) = w T : E → E,
T (u) = (Tij Ei ⊗ Ej ) • u = Tij (Ej • u)Ei = (Tij uj )Ei = w. (A.59)
que incluye a los tensores de rango dos como caso particular. Se dice que los vectores de
E son tensores de rango uno. El lector puede demostrar sin dificultad, continuando el
argumento precedente, que la ley de transformación de las componentes del tensor es
es decir cada índice tiene una ley de transformación similar a la de un vector. El punto
clave de esta ley de transformación es que es lineal y homogénea en las componentes del
tensor, de manera que si se demuestra que un cierto tensor tiene todas sus componentes
nulas en una base, entonces sus componentes serán nulas en cualquier otra base (es el
elemento cero). Esta ley de transformación se puede tomar como punto de arranque para
la definición de los tensores cartesianos, como lo hacen muchos textos y en particular uno
muy conocido en nuestro medio, Vectores y tensores, de Luis Santaló.
El producto exterior Ek1 ⊗ Ek2 ⊗ ... ⊗ Ekm adquiere significado cuando lo vemos
aplicado como una forma multilineal sobre un elemento (w1 , w2 , ..., wm ) del producto
cartesiano E m = E × ... × E
T (w1 , w2 , ..., wm ) = Tk1 k2 ...km (Ek1 ⊗ Ek2 ⊗ ... ⊗ Ekm ) • •... • (w1 , w2 , ..., wm(A.68)
)
= Tk1 k2 ...km (Ek1 • w1 )(Ek2 • w2 )...(Ekm • wm )
= Tk1 k2 ...km w1,k1 w2,k2 ...wm,km .
Tensores Cartesianos 82
∂...
grad(...) ≡ Ej , (A.69)
∂xj
las componentes de este tensor son las n2 derivadas ∂wk /∂xj . La divergencia del vector w
resulta de proyectar grad(w) sobre un vector de base El mediante dos productos escalares
∂wk ∂wl
div(v) = grad(w) • •(El , El ) = (Ej • El )(Ek • El ) = . (A.71)
∂xj ∂xl
y llamar tensores, por brevedad, estas cantidades (recordando que en verdad son compo-
nentes y que cambian según reglas precisas junto con las bases). Ejemplos de operaciones
con productos externos e internos en la forma abreviada del cálculo tensorial son las
siguientes
∂wk ∂wk ∂wi
Tij wk , Tij , Tk1 k2 ...km Tij , (A.76)
∂xl ∂xj ∂xl
∂wi ∂wk ∂wi
Tik wk , Tij , Tllk3 ...km Tij . (A.77)
∂xj ∂xj ∂xk
Se pueden definir nuevos tensores operando sobre otros tensores mediante el sím-
bolo de Levi-Civita. Cuando E tiene n dimensiones, un símbolo de Levi-Civita de rango
n se define como
+1 si k1 , k2 , ..., kn es una permutación de clase par
εk1 k2 ...kn ≡ 0 si algún ı́ndice se repite , (A.78)
−1 si k1 , k2 , ..., kn es una permutación de clase impar
donde una permutación de clase par es tal que se necesita un número par de intercam-
bios de índices para llevar k1 , k2 , ..., kn al orden natural 1, 2, ..., n, mientras que para una
permutación de clase impar se necesita un número impar de intercambios de índices. Es
evidente que si los índices corren de 1 a n, es decir, cuando E tiene n dimensiones, no se
puede definir ε con rangos mayores de n, pero se pueden definir símbolos de Levi-Civita de
rangos menores. Se puede demostrar que el símbolo de Levi-Civita es un tensor isótropo,
es decir, un tensor cuyas componentes toman el mismo valor en todos los sistemas de
coordenadas cartesianas ortogonales, cuando las transformaciones de la base se restingen
al subgrupo de las ortogonales con det(Qij) = +1. En tres dimensiones estas son las
rotaciones propias de los ejes.
Se pueden definir rotores generalizados mediante el símbolo de Levi-Civita. En
el cálculo con las componentes de los tensores, la operación de rotor mediante εk1 k2 ...kn
de rango n sobre un tensor de rango m, Tk1 k2 ...km , se indica como
∂Tk1 k2 ...km−1 l
εi1 i2 ...in−2 jl Tk1 k2 ...km−1 l/j = εi1 i2 ...in−2 jl , (A.79)
∂xj
y genera otro tensor de rango m + n − 3. Por supuesto, podemos generar otros rotores
empleando símbolos de Levi-Civita con rangos más bajos de n,
∂Tk1 k2 ...km−1 l
εijkl Tk1 k2 ...km−1 l/k = εijkl . (A.80)
∂xk
En todos estos casos el rotor resultante se anula cuando los índices del tensor in-
volucrado en la operación son simétricos, es decir cuando Tk1 k2 ...km−1 l/k = Tk1 k2 ...km−1 k/l .
Esto ocurre, por ejemplo, cuando el índice l en Tk1 k2 ...km−1 l corresponde a una derivada
respecto de xl , es decir cuando es índice de un gradiente
∂Uk1 k2 ...km−1
Tk1 k2 ...km−1 l = . (A.81)
∂xl
En estos casos es evidente que
∂ 2 Uk1 k2 ...km−1
εijkl Tk1 k2 ...km−1 l/k = εijkl = 0, (A.82)
∂xk ∂xl
y otras expresiones construidas del mismo modo se anulan. En el espacio ordinario de
tres dimensiones el rotor de un vector genera otro vector,
∂wk
εijk (A.83)
∂xj
pero esto es una peculiaridad propia de la tridimensionalidad. Naturalmente si wk =
∂φ/∂xk
∂2φ
εijk = 0, (A.84)
∂xj ∂xk
es decir el rotor de un gradiente se anula.
Se puede también emplear el símbolo de Levi-Civita como operador para combinar
dos tensores T y U de rango m y r, respectivamente, en la forma
b) Probar que una reflexión en el plano x2 cos(θ) − x1 sin(θ) = 0 tiene por matriz
cos(2θ) sin(2θ) 0
Q = sin(2θ) − cos(2θ) 0 , (A.89)
0 0 1
S•−
→
u, E • •E, u)•−
div (grad(−
→ →
u ). (A.94)
Bibliografía del apéndice A 85