Está en la página 1de 26

OPERACIONES CON VECTORES Y TENSORES

por

Alberto Soria López


A.01 Operaciones vectoriales desde un punto de vista geométrico

A.01.01. ¿Qué son los vectores?

Un vector es un segmento de línea dirigido

Los vectores pueden ser libres, acotados o deslizantes.

Dos vectores libres son iguales si y solo si tienen la misma longitud y la misma dirección.

Dos vectores son acotados cuando parten del mismo punto. Dos vectores acotados son
iguales si y solo si tienen la misma dirección y la misma longitud.

Dos vectores son deslizantes si y solo si los dos extremos de cada uno de ellos están sobre la
misma línea recta.

Ejercicios

A1.1 De los siguientes conceptos, ¿cuáles tienen representación vectorial? (a) peso, (b) calor
específico, (c) energía interna, (d) momentum lineal, (e) rapidez, (f) velocidad, (g) intensidad
del campo magnético, (h) aceleración de la gravedad, (i) energía cinética, (j) temperatura, (k)
edad, (l) flujo de calor, (m) masa, (n) volumen específico, (ñ) gravedad específica.

A1.2 Representa los siguientes términos como segmentos de línea dirigidos: (a) el
desplazamiento de la luna relativo al centro de la tierra y el desplazamiento de la tierra
relativo al centro del sol, (b) el desplazamiento de la luna relativo al centro del sol (c) la
fuerza gravitacional sobre un aerolito de 2,000 kg. entrando a la atmósfera terrestre, (d) la
fuerza sobre un motociclista que acelera de 0 a 100 km/h en 5 segundos.

A.01.02. Suma y diferencia de vectores

La suma de dos o más vectores se obtiene colocando los vectores, uno a continuación del
otro, de modo que la punta del que antecede coincide con el inicio del siguiente, mientras
cada uno conserva su dirección y sentido. El vector suma o resultante es el vector que une el
inicio del primer vector con la punta del último. La suma tiene propiedades

i) asociativa: u  v  w   u  v   w  u   v  w  ,

1
ii) conmutativa: u  v  w  v  w  u  w  u  v  u  w  v .

Figura A1.1 Suma de dos vectores

La resultante de una suma es nula o cero cuando la punta del último vector coincide con el
inicio del primero. Por ejemplo u  v  w  x  0 .

Si la suma de dos vectores da cero: u  v  0 , decimos que el segundo vector es el negativo


del primero: v  u , es decir que v tiene la misma longitud que u , pero su punta coincide
con el inicio de u y viceversa. En otras palabras, el negativo del vector u es un vector u
de su misma magnitud pero con dirección opuesta.

La diferencia de dos vectores corresponde a la suma del primero y el negativo del segundo:
u  v  u   v  .

Figura A1.2 Diferencia de dos vectores

Ejercicios

A1.3 Haciendo bosquejos, convéncete de las propiedades asociativa y conmutativa de la


suma de vectores.

A1.4 Un avión viaja 300 km al norte y luego 200 km a 600 al norte del oeste. Determina el
movimiento resultante en forma gráfica y encuentra la distancia entre el punto inicial y el
final, en línea recta.

2
A1.5 Un satélite está sujeto a las fuerzas que se muestran en la Figura A1.3. ¿Cuál es la fuerza
requerida para que el satélite no se mueva?

Figura A1.3 Fuerzas sobre un satélite (Ejercicio A1.5)

A.01.03. Producto vectorial (producto cruz)

El producto vectorial tiene los siguientes tres elementos:

1. Dos vectores no-colineales u y v determinan un plano en el espacio euclidiano E 3


.
2. La dirección normal al plano es única y se le puede asociar un vector n de longitud
unitaria n  1 , cuya dirección, positiva o negativa, se debe establecer mediante una
convención.
3. El área del paralelepípedo generado por los dos vectores no-colineales u y v es
u v sen , donde u y v son las longitudes de los vectores u y v , en tanto que 
es el ángulo entre u y v (ver Figura A1.4).

Figura A1.4 Interpretación geométrica del producto vectorial

3
Definimos el producto vectorial de u y v como

u  v  u v sen n , (A1.1)

donde la convención elegida para determinar n es conocida como la regla de la mano


derecha, es decir que n apunta en la dirección del pulgar de la mano derecha cuando el
vector u (el primer vector del producto vectorial) está cercano a la palma de la mano, en
tanto que v (el segundo vector del producto vectorial) queda cercano a los dedos de la mano
derecha.

Por lo contrario, el vector v  u  u v sen  n  es un vector de magnitud también igual al


área generada entre los vectores u y v , pero la dirección asociada a este producto vectorial
es ahora la del vector unitario  n  , es decir que aquí el giro de la mano derecha, conforme
va del primer vector (ahora v ) hacia el segundo (ahora u ), apunta en la dirección opuesta a
la del pulgar, es decir, apunta ahora en la dirección  n  . Como resultado tenemos la
propiedad de anti-simetría del producto vectorial:

v  u  u  v (A1.2)

Ejercicios

A1.6 Interpreta el producto u  v como el momento angular de una fuerza v por un brazo de
palanca situado en u con respecto al origen, cuya distancia perpendicular a la línea de acción
de la fuerza es u sen (ver Figura A1.4).

A1.7 Si u, v, w es un conjunto de vectores, ordenado por la regla de la mano derecha,


¿cuáles de los siguientes conjuntos están ordenados también según la regla de la mano
derecha?  v, u, w ; w, u, v ; w , v, u ; u, w , v ; v, w , u .

A.01.04. Vectores axiales y vectores polares

Las cantidades que inicialmente hemos identificado como vectores tienen una magnitud
asociada directamente a su intensidad. Además su dirección está también, unívocamente
determinada por la línea de acción de dicha intensidad. Tales son los vectores de posición, la
velocidad, una fuerza o un flux de calor. Todos ellos son vectores polares. Además,

El producto vectorial de dos vectores polares es un vector axial.

Es decir, un vector axial tiene su dirección ortogonal al plano donde residen los dos vectores
polares. Ésta es la dirección del eje axial, en tanto que su magnitud depende de ambos

4
vectores polares y del ángulo entre ellos, más que ser una cantidad primaria, dada por la física
del problema. Existe una extensa clasificación de vectores y bivectores, axiales y polares,
covariantes y contravariantes (Schouten, 1954), que será expuesta únicamente en la medida
necesaria.

A.01.05. Multiplicación por un escalar

Si u es un vector y  un escalar, el vector v   u es paralelo a u .

La multiplicación por un escalar tiene las propiedades

distributiva:   u  v    u   v
asociativa:    u     u (A1.3)
conmutativa:    u     u 

A.01.06. Dependencia lineal, vectores colineales y coplanares

Vectores colineales: u y v son colineales si existen escalares  ,    0 , tales que

u   v  0 . (A1.4)

Vectores coplanares: u , v y w son coplanares si existen escalares  ,  ,    0 , tales que


u   v   w  0 (A1.5)

Vectores linealmente dependientes: el conjunto u1 , u 2 ,...u n  es linealmente dependiente si


existen escalares 1 ,  2 ,... n  , no todos cero, tales que

 u
k 1
k k 0 (A1.6)

Ejercicios.

A1.8 Demuestre que los siguientes conjuntos de vectores son linealmente dependientes:

u, u ;u, v, 0 ;u, v, u  v ; u, v, 2u  3v

A1.9 Determina si los siguientes conjuntos son linealmente dependientes: (a) dos vectores
cuya suma es cero, (b) dos vectores ortogonales, (c) dos vectores colineales, (d) los tres
vectores de desplazamiento de las bolas de billar al hacer una carambola.

A.01.07. Producto escalar (producto punto)

5
Sean u y v dos vectores cuyas direcciones unitarias se definen como los vectores de
magnitud uno en la dirección del vector original, es decir

u v
λu  y λv  . (A1.7)
u v

Definimos la proyección de λ u en la dirección de λ v , que es igual a la proyección de λ v en


la dirección de λ u , ver Figura A1.5, como

λ u  λ v  λ v  λ u  cos , (A1.8)

Figura A1.5 Proyección de uno de los dos vectores unitarios λ u o λ v , en el otro.

Sustituyendo la Ecuación (A1.7) en (A1.8) y despejando tenemos

uv v u
  cos  , (A1.9)
u v v u

de donde definimos el producto escalar o producto punto de u y v como

u  v  v  u  u v cos  . (A1.10)

Este producto representa la magnitud de uno de los dos vectores multiplicada por la magnitud
de la proyección del otro en la dirección del primero. Una consecuencia directa de la
definición del producto escalar es la posibilidad de calcular la magnitud de un vector,
efectuando el producto escalar del vector consigo mismo, ya que entonces:

u  u  u u cos  0   u .
2
(A1.11)

6
A.01.08. Producto escalar de tres vectores (producto caja)

Consiste de dos productos que operan sobre tres vectores u, v y w . El primero es un producto
cruz entre dos de los vectores  u  v  , que da por resultado el área generada por los dos
vectores, en la dirección ortogonal al plano de los dos vectores. El siguiente producto es
escalar y representa la proyección del tercer vector, w , en la dirección ortogonal al plano de
los dos primeros vectores, dando por resultado final un escalar equivalente al volumen del
paralelepípedo generado por los tres vectores originales (volumen = área de la base × altura),
ver Figura A1.6.

Figura A1.6 Producto escalar de tres vectores  u  v   w .

Cualquiera de las caras del paralelepípedo puede tomarse como su base, cuidando la
orientación de la dirección ortogonal al plano de la base elegida, de acuerdo con la regla de
la mano derecha, ya que por la anti-simetría del producto vectorial, Ecuación (A1.2), tenemos
que  u  v   w    v  u   w . El producto escalar de tres vectores tiene la propiedad

Volumen  u, v, w    u  v   w   w  u   v   v  w   u (A1.12)

A.01.09. Productos vectoriales múltiples entre vectores

El producto vectorial u  v es un vector ortogonal al plano generado por los vectores u y v.


Entonces, el doble producto vectorial w   u  v  es un vector ortogonal al plano generado
por los vectores w y  u  v  y debe, por lo tanto, ser un vector que reside en el plano de u y
v. Dicho vector se puede expresar como una combinación lineal de los dos vectores que

7
definen dicho plano, es decir que w   u  v    u   v , ver Figura A1.7. Como este vector
es ortogonal a w, su proyección en w debe ser nula, es decir que
 w   u  v    w   u  w   v  w  0 . Si escogemos   v  w y   u  w , la igualdad
anterior se satisface idénticamente, con lo que llegamos al resultado

w  u  v    v  w  u  u  w  v (A1.13)

Por la anti-simetría del producto vectorial, se satisface que

w   v  u   u  w  v   v  w  u . (A1.14)

Figura A1.7 Doble producto vectorial w   u  v  de tres vectores

También por la anti-simetría del producto vectorial podemos encontrar que


w   u  v    v  u   w . Comparando esta igualdad con la Ecuación (A1.13) y con la
(A1.13), podemos establecer como una regla mnemotécnica que, de los dos vectores que
determinan el plano del vector resultante (los vectores u y v), el más próximo al vector fuera
de este plano (el vector w) tiene por coeficiente el producto escalar de los otros dos vectores,
con signo positivo, en tanto que el coeficiente del otro vector que define el mismo plano (el
vector más alejado de w), es el negativo del producto escalar de los otros dos vectores.

8
Ejercicios

A1.10 Demuestra el teorema de Pitágoras usando vectores.

A.02 Representación matricial de operaciones con vectores y tensores


cartesianos

A.02.01. Independencia lineal y bases del espacio euclidiano E 3

Hemos dicho que el conjunto u1 , u 2 ,...u n  de vectores es linealmente dependiente si se


cumple la Ecuación (A1.6) para escalares 1 ,  2 ,... n  , no todos cero. Si la combinación
n
lineal  u
k 1
k k  0 solo se cumple cuando los coeficientes 1 ,  2 ,... n  son todos cero,

entonces decimos que el conjunto u1 , u 2 ,...u n  es un conjunto de vectores linealmente


independiente.

Bases: Una base del espacio en E n es un conjunto dado de n vectores linealmente


independientes.

Una base se elige para representar cualquier otro vector en R n como una combinación lineal
de los vectores elegidos como base.

Ejemplo en E 2

Consideremos el resultado de la Sección anterior, donde el vector resultante se puede


expresar como una combinación lineal de los vectores u y v, es decir

w   u  v   z  1u   2 v   v  w  u   u  w  v . (A2.1)

Es fácil ver que el conjunto u,v, z es linealmente dependiente, ya que 1u+ 2 v  3z  0
se puede obtener sustituyendo la Ecuación (A2.1) y factorizando, de donde tenemos que la
igualdad a cero: 1   3 1  u +  2   3  2  v  0 se cumple si 1  3   1 y  2 3  2 ,
para  3  0 . Esto implica valores de  1 y  2 distintos de cero, ya que 1 y  2 son distintos
de cero.

También es fácil ver que el conjunto u,v es linealmente independiente y puede ser definido
como una base en E 2 . En efecto, la combinación lineal 1u + 2 v  0 solo puede ser
satisfecha si 1 = 2  0 .

9
A.02.02. Bases cartesianas en E n

Sean bk ; k  1, 2,..., n los vectores de una base en E n . La base Bn  b k  ; k  1, 2,..., n es


ortogonal si

b j  b k  0; k  j (A2.2)

Además, la base Bn  b k  ; k  1, 2,..., n está normalizado si cada uno de sus elementos


tiene magnitud unitaria, es decir si

b k  b k  b k  1; k  1, 2,..., n .
2
(A2.3)

En un sistema de coordenadas rectangulares  x, y , z  , o equivalentemente  x1 , x2 , x3  ,


definimos su base cartesiana como el conjunto de tres vectores mutuamente ortogonales, de
magnitud unitaria δ1 , δ 2 , δ3  , dirigidos en la dirección de los ejes coordenados. Una base de
coordenadas rectangulares ρ es un arreglo matricial de una fila por tres columnas (vector
fila: 1  3):

ρ   δ1 δ 2 δ3  , (A2.4)

que satisface condiciones de ortonormalidad. En la Figura A2.1 se muestra la base cartesiana


en las coordenadas rectangulares 1, 2, 3 .

Figura A2.1 Base cartesiana de las coordenadas rectangulares 1, 2, 3 .

Si aplicamos el producto escalar a ρ por su transpuesta ρT tenemos la siguiente operación


matricial:

10
 δ1   δ1  δ1 δ1  δ2 δ1  δ3   1 0 0 
     
ρ  ρ   δ2  .  δ1 δ2 δ3    δ 2  δ1 δ 2  δ 2 δ 2  δ3    0 1 0 
T
(A2.5)
δ   δ δ δ δ δ δ   0 0 1
 3  3 1 3 2 3 3  

que consiste en multiplicar los elementos de las filas de la primera matriz por los elementos
de las columnas de la segunda matriz. El tipo de multiplicación entre ambos elementos es el
producto vectorial. Definimos el resultado como la matriz unitaria 1 :

1 0 0
 
1  ρ ρ  0 1 0
T
(A2.6)
0 0 1
 

Por otra parte, si aplicamos el producto punto en la forma:

 δ1 
 
ρ  ρ   δ1 δ2
T
δ3  .  δ2   δ1  δ1  δ 2  δ 2  δ3  δ3  1  1  1  3 . (A2.7)
δ 
 3

También podemos aplicar el producto vectorial a la base ρ , de modo que obtenemos dos
resultados, por una parte

 δ1   δ1  δ1 δ1  δ2 δ1  δ3   0 δ3 δ 2 
     
e  ρ  ρ   δ2    δ1 δ2 δ3    δ 2  δ1 δ 2  δ 2 δ 2  δ3    δ3
T
0 δ1  (A2.8)
δ  δ δ δ δ δ δ   δ δ1 0 
 3  3 1 3 2 3 3  2

es el tensor de Levi-Civita también conocido como el símbolo de permutación. Debemos


asociar tres índices a este vector, los dos primeros corresponden a su posición en el arreglo
3  3 de la Ecuación (A2.8) y el tercero aparece explícitamente como el del vector unitario
que ocupa dicha posición. Por otra parte, podemos construir también un producto vectorial
de la base ρ con su transpuesto, es decir:

 δ1 
 
ρ  ρ   δ1 δ2
T
δ3    δ2   δ1  δ1  δ2  δ2  δ3  δ3  0 (A2.9)
δ 
 3

A.02.03. Representación de vectores en bases cartesianas

Cualquier vector en E 3 se puede representar en forma matricial como un arreglo de tres


números, que corresponden a los coeficientes de la base ρ por los que cada vector unitario

11
debe multiplicarse, para dar el vector deseado. Estos coeficientes son las componentes del
vector en las direcciones correspondientes y pueden ser colocados en un arreglo matricial
3 1 , de modo que el vector u corresponde al producto matricial del vector fila ρ por el
vector columna de las componentes de u :

 u1 
 
u  ρ  u2   u1δ1  u2δ 2  u3δ3 (A2.10)
u 
 3

Podemos notar aquí que las componentes de u son sus proyecciones en las direcciones de
los ejes coordenados. En efecto, aplicando el producto interno al vector u con el vector
unitario δk ; k  1, 2,3 tenemos:

 u1   u1 
   
δk  u  δk  ρ  u2    δk  δ1 δ k  δ 2 δ k  δ3   u2  ; k  1, 2,3 . (A2.11)
u  u 
 3  3

Por la orto-normalidad de la base ρ , el vector fila de los productos internos de los vectores
de la base se determina como un vector de ceros con un único elemento unitario, aquel que
corresponde a la elección del valor de k, por ejemplo para k  1 tenemos δ1  ρ  1 0 0 
y de (A2.11) resulta que δ1  u  u1 . En general tenemos δk  u  uk ; k  1, 2,3 . Así, las
componentes del vector son sus proyecciones en las direcciones de los tres ejes coordenados.
En lo que sigue tendremos presente que en la representación matricial de los vectores se
cumplen tanto las reglas de operación de las matrices como las que corresponden a los
vectores, que se aplican específicamente a los vectores de la base.

A.02.04. Operaciones vectoriales en forma matricial

La representación expandida de un vector en la forma (A2.10) implica el uso de las reglas de


multiplicación de matrices. Empleando la misma representación, vamos a desarrollar
expresiones para efectuar la diversidad de operaciones que hemos definido anteriormente,
desde un punto de vista geométrico. Iniciaremos por la

Suma de vectores. Sean

 u1   v1 
   
u  ρ  u2    u1δ1  u2δ2  u3δ3  y v  ρ  v2    v1δ1  v2δ2  v3δ3  (A2.12)
u  v 
 3  3

12
dos vectores. Definimos su vector suma como una operación matricial:

 u1   v1   u1  v1 
     
u  v  ρ  u2   ρ  v2   ρ  u2  v2    u1  v1  δ1   u2  v2  δ2   u3  v3  δ3 (A2.13)
u  v  u v 
 3  3  3 3

Producto escalar. Entendemos el producto escalar de dos vectores u  v , en la notación


matricial-vectorial, como la aplicación del producto punto al primer vector transpuesto por
el segundo. En la expresión (A2.14) el lado izquierdo representa la notación vectorial,
llamada notación de Gibbs, seguida por la notación matricial-vectorial, donde al aplicar la
identidad (A2.6) se introduce el tensor unitario, el cual es luego aplicado al vector u o al
vector v, dando por resultado el producto matricial de un arreglo fila para u por un arreglo
columna para v:

 v1   v1   v1 
     
u  v   u1 u2 u3  ρ  ρ  v2    u1 u2
T
u3  1  v2    u1 u2 u3   v2  . (A2.14)
v  v  v 
 3  3  3

Aplicando finalmente las reglas de multiplicación de matrices, vemos en la Ecuación (A2.15)


que la operación matricial corresponde en resumen a trabajar directamente sobre los arreglos
de componentes de los vectores, obviando la existencia de la base de vectores unitarios, de
modo que:

 v1 
 
u  v   u1 u2 u3   v2   u1v1  u2v2  u3v3 . (A2.15)
v 
 3

Producto vectorial. Entendemos el producto vectorial de dos vectores u  v , en la notación


matricial-vectorial, como la aplicación del producto cruz al primer vector transpuesto por el
segundo. Encontramos que el tensor de Levi-Civita, definido en la Ecuación (A2.8), puede
ser sustituido, lo cual conduce a

 v1   v1 
   
u  v   u1 u2 u3  ρ  ρ  v2    u1 u2 u3  E  v2 
T

v  v 
 3  3
. (A2.16)
 0 δ3 δ 2  v1 
  
  u1 u2 u3   δ3 0 δ1  v2 
δ 0  
 2 δ1  v3 

13
Al efectuar las multiplicaciones tenemos:

 v2δ3  v3δ 2 
 
u  v   u1 u2 u3   v1δ3  v3δ1 
 vδ v δ  , (A2.17)
 1 2 2 1 
  u2v3  u3v2  δ1   u3v1  u1v3  δ 2   u1v2  u2v1  δ3

que es usual abreviar como el determinante

δ1 δ2 δ3  u2 v3  u3v2 
 
u  v  u1 u2 u3  ρ  u3v1  u1v3  . (A2.18)
 u v u v 
v1 v2 v3  1 2 2 1

La Ecuación (A2.18), a semejanza de la (A2.15), equivale a proponer que la operación


matricial corresponde en resumen a trabajar directamente sobre el determinante de las
componentes de los vectores.

Producto escalar de tres vectores. Resulta de proyectar el tercer vector w, en la dirección del
producto u  v obtenido arriba:

 u2 v3  u3v2 
 
w   u  v    w1 w2 w3  ρ  ρ  u3v1  u1v3 
T

u v u v 
 1 2 2 1
(A2.19)
 u2 v3  u3v2  w1 w2 w3
 
  w1 w2 w3   u3v1  u1v3   u1 u2 u3
 u v u v  v v
 1 2 2 1 1 2 v3

Doble producto vectorial w   u  v  . Resulta de aplicar el producto cruz al vector w


transpuesto por el vector producto u  v , desarrollado en (A2.18):

 u2v3  u3v2 
 
w   u  v    w1 w2 w3  ρT  ρ  u3v1  u1v3  (A2.20)
 u v u v 
 1 2 2 1

Donde también se sustituye el tensor de Levi-Civita, Ecuación (A2.8), para luego desarrollar
y agrupar los productos matriciales hasta obtener

14
w   u  v    w1v1  w2v2  w3v3  u1δ1  u2δ2  u3δ3 
, (A2.21)
  w1u1  w2u2  w3u3  v1δ1  v2δ2  v3δ3 

que es el resultado de la Ecuación (A1.13), expresado en términos de sus componentes de


coordenadas rectangulares.

A.02.05. El producto diádico y los tensores

Un tercer producto entre dos vectores es el producto diádico. Consiste en reunir las
direcciones de ambos vectores en un solo objeto, que tiene así dos direcciones asociadas, una
por cada uno de los dos vectores. Así surgen las diadas, que son la yuxtaposición de dos
direcciones unitarias, como por ejemplo en δ1δ 2 , donde consideramos simultáneamente las
dos direcciones coordenadas δ1 y δ 2 en un solo término u objeto.

Definimos el producto diádico de dos vectores, u y v, también llamado producto tensorial,


a la aplicación de la yuxtaposición del primer vector al segundo transpuesto. Aquí el producto
matricial del arreglo 3 1 de las componentes del vector u por el arreglo 1 3 de las
componentes del vector v da lugar al arreglo 3  3 que se muestra en la Ecuación (A2.22):

 u1   u1v1 u1v2 u1v3 


   
uv  ρ  u2   v1 v2 v3  ρ  ρ  u2v1 u2v2
T
u2v3  ρT , (A2.22)
u  u v u v u3v3 
 3  31 3 2

que resulta finalmente en:

uv  u1v1δ1δ1  u1v2δ1δ2  u1v3δ1δ3  u2v1δ2δ1  u2v2δ2δ2


3 3 . (A2.23)
 u2v3δ2δ3  u3v1δ3δ1  u3v2δ3δ2  u3v3δ3δ3   uk v j δ k δ j
k 1 j 1

En el resultado (A2.23) vemos que cada sumando es un número, resultado de la


multiplicación de una componente de u y otra de v, asociadas con la diada que corresponde
a ambas. La Ecuación (A2.22) muestra la capacidad para representar arreglos de doble
carácter vectorial, aun cuando estos ya no representan dos vectores distintos y separados,
sino cuando manejamos una sola entidad física con dos direcciones asociadas. Llamaremos
tensores de segundo orden a estas entidades físicas con dos direcciones asociadas. A
semejanza de los vectores, expresados en sus componentes de coordenadas rectangulares en
la Ecuación (A2.10), los tensores de segundo orden se pueden expresar también en sus nueve
componentes de coordenadas rectangulares, en un arreglo de 3 filas por 3 columnas (3  3).
A diferencia de los vectores, la Ecuación (A2.22) es la representación apropiada para los
tensores de segundo orden en su forma matricial. Existen tres tensores que requieren una

15
representación matricial en particular. El primero está asociado a la matriz unitaria definida
en la Ecuación (A2.6) y es el tensor unitario o tensor delta de Kronecker, que se construye
a partir de la matriz unitaria, escribiendo explícitamente los vectores unitarios que
corresponden a las posiciones (fila y columna) con coeficientes distintos de cero, es decir:

 δ1δ1 0 0 
 
δ   0 δ 2δ 2 0  (A2.24)
 0 δ3δ3 
 0

El segundo es el tensor diádico Δ , que corresponde al producto tensorial:

 δ1δ1 δ1δ2 δ1δ3 


 
Δ  ρ ρ   δ 2δ1 δ 2δ 2 δ 2δ3 
T
(A2.25)
δ δ δ δ δ δ 
 3 1 3 2 3 3

El tercero es el tensor de Levi-Civita o tensor de permutación, que se obtiene a partir del


vector del mismo nombre, Ecuación (A2.8), escribiendo explícitamente los dos vectores
unitarios que corresponden a las posiciones de la fila y la columna del arreglo, seguidos por
el tercer vector, que corresponde a la dirección del producto cruz, representada en el vector
(A2.8), es decir:

 0 δ1δ2δ3 δ1δ3δ 2 
 
E   δ2δ1δ3 0 δ2δ3δ1  (A2.26)
 δ δδ δ3δ 2δ1 0 
 3 1 2

En general, si T es un tensor de segundo orden, podemos representarlo en términos de sus


componentes en el sistema de coordenadas rectangulares como:

 T11 T12 T13 


 
3 3
T  ρ  T21 T22 T23  ρT   δk δ jTkj (A2.27)
T T  k 1 j 1
 31 32 T33 

Extenderemos a los tensores las operaciones del álgebra vectorial que hemos desarrollado
arriba para los vectores. Hemos visto que en dichas operaciones se cumplen las reglas del
álgebra de matrices, así como las del análisis vectorial. Esperamos que lo mismo aplique al
análisis tensorial. Sean T y U dos tensores de segundo orden, donde el primero está dado por
(A2.27) y el segundo por la siguiente expresión en sus componentes de coordenadas
rectangulares:

16
 U11 U12 U13 
 
3 3
U  ρ  U 21 U 22 U 23  ρT   δk δ jU kj . (A2.28)
U  k 1 j 1
 31 U 32 U 33 

En la siguiente sub-Sección elaboramos las operaciones vectoriales correspondientes a estos


tensores.

A.02.06. Operaciones vectoriales para vectores y tensores

Suma de tensores de segundo orden

 T11  U11 T12  U12 T13  U13 


 
T  U  ρ  T21  U 21 T22  U 22 T23  U 23  ρT   δk δ j Tkj  U kj 
3 3
(A2.29)
T U T32  U 32 T33  U 33 
k 1 j 1
 31 31

Producto escalar de dos tensores de segundo orden

 T11 T12 T13   U11 U12 U13 


  T  
T  U  ρ  T21 T22 T23  ρ  ρ  U 21 U 22 U 23  ρT
T T32 T33  U 
 31  31 U 32 U 33 
(A2.30)
 T11 T12 T13   U11 U12 U13 
   
 ρ  T21 T22 T23  1  U 21 U 22 U 23  ρT
T T32 T33   U 31 U 32 U 33 
 31

de donde obtenemos el tensor correspondiente, que en cada elemento contiene la suma de


tres términos, como se ve abajo y se expresa también, a semejanza de (A2.28), en
términos de sus sumatorias y de las diadas explícitas:

 3 3 3 
  T1 pU p1  T1 pU p 2 T 1p U p3 
 p 1 p 1 p 1 
 3 3 3  T 3 3 3
T  U  ρ   T2 pU p1 T U p2
2p  T U
2 p p3  ρ   δ k j  TkpU pj .
δ (A2.31)
 p 1 p 1 p 1  k 1 j 1 p 1
 3 3 3 
  T3 pU p1 T U p2  T U 
 3p 3 p p3 
 p 1 p 1 p 1 

En (A2.31) se puede intercambiar la sumatoria en p para dejar finalmente la expresión:

17
 T1 pU p1 T1 pU p 2 T1 pU p 3 
3
  3 3 3
T  U   ρ  T2 pU p1 T2 pU p 2 T2 pU p 3  ρT   δ k δ jTkpU pj (A2.32)
p 1
T U  k 1 j 1 p 1
 3 p p1 T3 pU p 2 T3 pU p 3 

Producto vectorial de dos tensores de segundo orden

El producto cruz de dos tensores de segundo orden se efectúa sustituyendo directamente las
Ecuaciones (A2.27) y (A2.28), con el operador producto entre ellos:

 T11 T12 T13   U11 U12 U13 


  T  
T  U  ρ  T21 T22 T23  ρ  ρ  U 21 U 22 U 23  ρT , (A2.33)
T T T  U 
 31 32 33   31 U 32 U 33 

donde aparece el vector de Levi-Civita, definido por la Ecuación (A2.8). Sustituyéndolo en


su forma matricial tenemos:

 T11 T12 T13  0 δ3 δ2  U11 U12 U13 


   
T  U  ρ  T21 T22 T23  δ3 0 δ1  U 21 U 22 U 23  ρT , (A2.34)
 T T T  δ δ1 0  
 31 32 33  2  U 31 U 32 U 33 

que conduce, después de varias operaciones matriciales a

T  U  ρ  δ1M1  δ 2 M 2  δ3 M 3  ρT , (A2.35)

donde

 T12U 31  T13U 21 T12U 32  T13U 22 T12U 33  T13U 23 


 
M1   T22U 31  T23U 21 T22U 32  T23U 22 T22U 33  T23U 23 
T U T U T32U 32  T33U 22 T32U 33  T33U 23 
 32 31 33 21
 T13U11  T11U 31 T13U12  T11U 32 T13U13  T11U 33 
 
M 2   T23U11  T21U 31 T23U12  T21U 32 T23U13  T21U 33  (A2.36)
T U T U T33U12  T31U 32 T33U13  T31U 33 
 33 11 31 31
 T11U 21  T12U11 T11U 22  T12U12 T11U 23  T12U13 
 
M 3   T21U 21  T22U11 T21U 22  T22U12 T21U 23  T22U13 
T U T U 
 31 21 32 11 T31U 22  T32U12 T31U 23  T32U13 

son matrices de productos de coeficientes de ambos tensores, que pueden expresarse para el
elemento general kj-ésimo, M kjp , de cada matriz p, como:

18
Tk 2 Tk 3
M1kj  Tk 2U 3 j  Tk 3U 2 j 
U 2 j U3 j
Tk1 Tk 3
M kj2  Tk 3U1 j  Tk1U 3 j   . (A2.37)
U1 j U 3 j
Tk1 Tk 2
M 3kj  Tk1U 2 j  Tk 2U1 j 
U1 j U 2 j

Los elementos M kjp tienen la estructura de menores de determinantes 3  3 , como se muestra


en la Ecuación (A2.37), es decir que k indica las filas y j las columnas de los elementos de
las matrices M p ; p  1, 2,3 . Entonces, sustituyendo la base de coordenadas rectangulares y
sumando para todos los índices, tenemos finalmente:

3 3
δ1 δ2 δ3
T  U   δ k Tk 1 Tk 2 Tk 3 δ j , (A2.38)
k 1 j 1
U1 j U 2 j U 3 j

que representa un tensor de tercer orden.

Ejercicios

Encuentra la representación matricial de los productos: u  T, T  v, u  T, T  v

A.02.07. Productos dobles con tensores

Los productos entre dos tensores de segundo orden: el producto escalar (A2.32) y el producto
vectorial (A2.38), tienen doble y triple carácter vectorial, respectivamente, y son susceptibles
de aplicarles nuevamente un operador producto escalar o vectorial, entre dos de sus
direcciones.

Definimos el doble producto escalar de T y U a la aplicación del producto punto al


resultado de (A2.32):

T : U    δk  δ j  TkpU pj   TkpU pk   T1 pU p1  T2 pU p 2  T3 pU p 3 


3 3 3 3 3 3
(A2.39)
k 1 j 1 p 1 p 1 k 1 p 1

Definimos un doble producto mixto de T y U a la aplicación del producto punto al


resultado de (A2.38):

19
δ1 δ2 δ3 δ1 δ2 δ3
T  U    δ j  δ k  Tk1 Tk 2 Tk 3   Tk1
3 3 3
Tk 2 Tk 3 (A2.40)
k 1 j 1 k 1
U1 j U 2 j U 3 j U1k U 2k U 3k

Otro doble producto mixto de T y U resulta de la aplicación del producto cruz al resultado
de (A2.32):

δ1 δ2 δ3
T U    δ k  δ j  TkpU pj   T1 p T2 p T3 p
3 3 3 3

• (A2.41)
p 1 k 1 j 1 p 1
U p1 U p 2 U p 3

De manera análoga, podemos definir dos dobles productos vectoriales de T y U . La


aplicación del producto cruz al resultado de (A2.38) puede hacerse entre los dos primeros
vectores o entre los dos últimos. En el primer caso:

3
δ k  δ1 δ k  δ 2
3
δ k  δ3
T U   Tk1

 Tk 2 Tk 3 δ j
j 1 k 1
U1 j U2 j U3 j
(A2.42)
3
0 δ3 δ 2 3
δ3 0 δ1 3
δ 2 δ1 0
  T11 T12 T13 δ j   T21 T22 T23 δ j   T31 T32 T33 δ j
j 1 j 1 j 1
U1 j U 2 j U3 j U1 j U 2 j U 3 j U1 j U 2 j U 3 j

y en el segundo:

3
δ1  δ j
3
δ2  δ j δ3  δ j
T U   δ k Tk1

 Tk 2 Tk 3
k 1 j 1
U1 j U2 j U3 j
(A2.43)
3
0 δ3 δ 2 3
δ3 0 δ1 3 δ 2 δ1 0
  δ k Tk1 Tk 2 Tk 3   δ k Tk 1 Tk 2 Tk 3   δk Tk 1 Tk 2 Tk 3
k 1 k 1 k 1
U11 U 21 U 31 U12 U 22 U 32 U13 U 23 U 33

A.03 Representaciones indiciales de operaciones con vectores y tensores


cartesianos

A.03.01. Representación de vectores y tensores como la suma de sus componentes

Por economía de espacio, en la Sección anterior hemos empleado el signo de sumatoria,


para representar operaciones repetidas para las tres componentes de un arreglo o para los

20
tres vectores unitarios. En esta Sección vamos a sistematizar el uso de índices en el manejo
de vectores y tensores en coordenadas rectangulares.

Representamos un vector en notación indicial, coincidiendo con su representación matricial


en la Ecuación (A2.10), al compactar sus términos en una sumatoria, como se hace aquí:

3
u  u1δ1  u2δ2  u3δ3   uk δ k . (A3.1)
k 1

También, representamos un tensor en notación indicial, compactando sus términos en una


doble sumatoria, como en (A2.24):

3 3
T   δk δ jTkj . (A3.2)
k 1 j 1

Existen equivalencias en notación indicial, para todas las operaciones de vectores y tensores
efectuados en la Sección anterior, en notación matricial. Antes de indicar dichas
equivalencias es conveniente referirnos a la diversidad de notaciones que se emplean
comúnmente para representar a los vectores y tensores, con diversos grados de compactación,
que es el propósito de la siguiente sub-Sección.

A.03.02. Convenciones de índices repetidos y de índices libres

Ambas convenciones se utilizan para simplificar las notaciones de los vectores y los tensores,
y sus operaciones.

La convención de índices repetidos establece que un término, en el cual un subíndice aparece


repetido, implica una sumatoria sobre dicho índice, sin necesidad de escribirla
explícitamente. Entonces un vector u y un tensor T pueden escribirse, respectivamente,
como:

u  uk δ k y T  Tkj δ k δ j , (A3.3)

donde, al estar repetido el índice k del vector u, se sobre-entiende la sumatoria en k desde 1


hasta 3. De la misma manera, en el tensor T, los índices k y j se encuentran repetidos, por lo
que se sobre-entiende una sumatoria sobra cada uno de estos dos índices, sin necesidad de
expresar, explícitamente, dichas sumatorias.

Cuando utilizamos la convención de índices repetidos, si por alguna razón existe un índice
repetido que no implica su sumatoria de 1 a 3, debemos indicar explícitamente que la
convención no aplica a dicho término. Por ejemplo el término T jj tiene el significado de

21
3

T
j 1
jj si se usa la convención de índices repetidos, pero significa T11 , T22 o T33 si no se usa

dicha convención.

La convención de índices libres implica un grado más en la compactación de la notación


indicial; establece que además de que los índices repetidos implican sumatorias, los índices
no repetidos, llamados índices libres, implican la dirección de un elemento vectorial. Así,
bajo la convención de índices libres, la Ecuación (A3.3) daría:

u  uk y T  Tkj (A3.4)

Un ejemplo donde ambas convenciones encuentran aplicación, simultáneamente, sería la


3 3 3
expresión del producto en la Ecuación (A2.29), donde T  U   δk δ jTkpU pj .
k 1 j 1 p 1

Entonces, bajo la convención de índices repetidos tenemos:

T  U  δ k δ jTkpU pj , (A3.5)

donde hay tres índices repetidos: k, j y p, indicando la existencia implícita de tres sumatorias,
en tanto que utilizando además la convención de índices libres, tenemos:

T  U  TkpU pj . (A3.6)

En esta representación, el índice repetido p implica la sumatoria en p desde 1 hasta 3, en tanto


que los índices libres k y j implican direcciones vectoriales. Regresando a la representación
completa (A2.29) o a la de índices repetidos (sin convención de índices libres, A3.5), vemos
que en ellas las dos direcciones vectoriales aparecen explícitamente, representadas por los
vectores unitarios δ k y δ j , respectivamente. En resumen, las ecuaciones (A2.29), (A3.5) y
(A3.6) son tres representaciones indiciales del mismo objeto tensorial. En (A2.29) además
vemos una representación matricial-vectorial del mismo objeto. En la representación
matricial también podemos establecer dos niveles de compactación; en el más explícito,
representamos un vector como en la Ecuación (A2.10), en tanto que en una representación
más compacta, basta con el arreglo matricial de las componentes, sobre-entendiendo la
existencia de los vectores de la base ρ .

En la Tabla A3.1 se representan algunos objetos vectoriales en la notación de Gibbs, así como
en dos notaciones matriciales y tres indiciales, con diversos niveles de compactación.

22
Tabla A3.1. Notaciones de vectores y tensores
Convención de
Gibbs Matricial-vectorial Matricial Indicial explícita Índices libres
suma
ρ  δ1 δ2 δ3 
 u1   u1 
    3
u ρ  u2   u2  u δ k k uk δ k uk
u  u  k 1
 3  3
 u1v1 u1v2 u1v3   u1v1 u1v2 u1v3 
   
3 3
uv ρ  u2v1 u2v2 u2v3  ρT  u2v1 u2v2 u2v3   u v δ δ k j k j uk v j δ k δ j uk v j
u v u3v3  u v u3v2 u3v3 
k 1 j 1
 31 u3v2  31
 T11T12 T13   T11 T12 T13 
   
3 3

T ρ  T21 T22 T23  ρT  T21 T22 T23   T δ δ kj k j Tkj δ k δ j Tkj


T T32 T33  T T32 T33 
k 1 j 1
 31  31
 δ1δ1 0 0  1 0 0
   
3 3

δ  0 δ 2δ 2 0  0 1 0   δ δ ij i j  ij δi δ j  ij
 0 δ3δ3  0 0 1 
j 1 i 1
 0 
 0 δ1δ2δ3 δ1δ3δ2   0 δ3 δ2 
   
3 3 3

E  δ2δ1δ3 0 δ2δ3δ1   δ3 0 δ1    ijk δi δ j δ k  ijk δi δ j δ k  ijk


 δ δδ 0  δ δ1 0 
i 1 j 1 k 1
 3 1 2 δ3δ2δ1  2

23
A.03.03. El tensor delta de Kronecker y el tensor de Levy-Civita

La representación indicial del tensor delta de Kronecker, Ecuación (A2.24), está relacionada
con el símbolo  ij , donde

1 si i  j
 ij   (A3.7)
0 si i  j

Así, el tensor delta de Kronecker se escribe en notación indicial, en sus tres niveles de
compactación, como:

3 3
a) Con sumatorias explícitas: δ    ij δi δ j
j 1 i 1

b) Convención de índices repetidos: δ   ij δi δ j


c) Convención de índices libres: δ   ij

De manera similar, el tensor de Levi-Civita se relaciona con el símbolo  ijk , donde

 1 si ijk  123, 231 o 312



 ijk   0 si dos índices son iguales (A3.8)
1 si ijk  213, 321 o 132

Representamos entonces el tensor de Levi-Civita o tensor de permutación, en notación


indicial, como:

3 3 3
a) Con sumatorias explícitas: E    ijk δi δ j δk
i 1 j 1 k 1

b) Convención de índices repetidos: E   ijk δi δ j δ k


c) Convención de índices libres: E   ijk

Las principales propiedades que relacionan los tensores de Kronecker y de Levi-Civita son:

A.03.04. Productos punto, cruz y múltiples

Utilizando las convenciones de índices libres y repetidos, los productos de dos vectores u y
v o tensores U y T, se pueden efectuar de modo que el producto escalar da

u  v   uk δ k    v p δ p   uk v p δ k  δ p  uk v p kp  uk vk , (A3.9)

24
donde el lado izquierdo de la última igualdad expresa la doble sumatoria en k y en p de 1 a
3. De acuerdo con la definición (A3.7), los únicos términos con valor distinto de cero son
aquellos donde p  k , de donde sigue el resultado (A3.9). Algunas sustituciones pueden
obviarse, por ejemplo el producto:

U  T  U jk Tpq kp  U jk Tkq , (A3.10)

donde notamos que los dos índices sobre los que actúa el operador (producto punto) son los
más cercanos al signo del producto. Lo mismo ocurre con los otros operadores, como el
producto vectorial:

δ1 δ2 δ3
U  T   ikpU jk Tpq  U j1 U j 2 U j 3 (A3.11)
T1q T2 q T3q

A.04 Funciones y campos escalares, vectoriales y tensoriales

A.04.01. Funciones de una variable

A.04.02. Derivada direccional de un campo escalar

A.04.03. Gradiente de un campo escalar

A.04.04. Operador nabla

A.04.05. Derivadas de campos vectoriales y tensoriales

A.05 Teoremas integrales

A.05.01. Fórmula de Leibniz

25
A.05.02. Teorema fundamental del cálculo para un campo vectorial

A.05.03. Teorema de Stokes

A.05.04. Teorema de Green

A.05.05. Teorema de divergencia

A.05.06. Teorema del gradiente

26

También podría gustarte