Está en la página 1de 9

Apuntes de F sica Moderna: Espacios 3D 1 3-Vectores

Para discutir vectores resulta conveniente partir por la introducci on de una base. Supongamos que x 1 , x 2 and x 3 son los elementos de una base, completa y linealmente independiente. Luego, un vector arbitrario v puede ser expresado de la siguiente forma: v = v1x 1 + v 2 x 2 + v 3 x 3 . (1)

Las cantidades v 1 , v 2 and v 3 son las componentes del vector v en la base {x 1 , x 2 , x 3 }. Una forma conveniente de reescribir (1) es: i , v = vix (2)

en donde estamos usando la llamada convenci on de Einstein sobre la suma de ndices. Esta convenci on dicta que cada vez que hayan ndices repetidos, uno arriba y otro abajo, asumimos la suma completa desde i = 1 hasta i = 3. Esta convenci on nos exime de usar el s mbolo de suma , que de otro modo aparecer a en forma copiosa. Recuerden que los vectores viven en espacios lineales, y por lo tanto pueden ser sumados y multiplicados por cantidades escalares, dando como resultado nuevos vectores. Es decir, si u y v son vectores, y si a y b son escalares, entonces w = au + b v tambi en es un vector. (3)

1.1

Producto escalar

Es conveniente denir el concepto de producto escalar. Un producto escalar g (, ) es una funci on bilineal sim etrica que, dado dos vectores u y v arbitrarios, nos entrega de regreso un escalar (un n umero perteneciente a R). Es decir g (u, v) = g (v, u) R. Que g (, ) sea una funci on bilineal, signica que g (au, bv) = ab g (u, v). (5) (4)

En ocasiones, para que g sea considerado un producto escalar respetable, se requiere la propiedad adicional de que si sus dos argumentos consisten en el mismo vector v = 0, entonces el resultado debe ser estrictamente positivo: g (v, v) > 0. 1 (6)

Una forma de darle sentido al producto escalar es conociendo c omo act ua sobre una base dada {x i }. Es decir, podemos escribir: g ( xi , x j ) = gij . (7)

Los coecientes gij contienen toda la informaci on necesaria para saber como est a denido un producto escalar dada una base. A los s mbolos gij colectivamente se le conocen como las componentes de la m etrica. Si pensamos en la m etrica como una matriz, entonces gij son los elementos de una matriz donde i y j indican las y columnas respectivamente. Noten que si conocemos la forma exacta de la m etrica, entonces podemos calcular cualquier producto escalar. Basta proceder de las siguiente forma: g (u, v) = g (ui x i , v j x j ) = ui v j g ( xi , x j ) = gij ui v j . (8)

Noten que en la segunda igualdad usamos la propiedad expresada por la ecuaci on (5). En t erminos de componentes, la ecuaci on (6) se lee gij v i v j > 0, (9)

lo que signica que la m etrica gij es positiva denida. Esto asegura que gij tenga inversa. A dicha inversa la denominamos g ij y es tal que:
i g ik gkj = j , j gik g kj = i ,

(10)

j Donde i es la afamada delta de Kronecker, que viene denida por: j i =

1 si i = j . 0 si i = 0

(11)

Para simplicar el escribir un producto escalar, dadas las componentes v i de vector v, podemos denir componentes vi con ndices abajo mediante el uso de la m etrica: vi gij v j . (12)

Esta notaci on es conveniente, ya que nos podemos ahorrar la aparici on expl cita de la m etrica, y simplemente escribir el producto escalar entre dos vectores como: g (u, v) = ui v i = ui vi . (13)

Observen que estamos usando la m etrica gij para hacer descender el ndice de v i . Dado que g ij es la inversa de gij , y por lo tanto satisface la expresi on (10), entonces podemos ij usar g para subir ndices. Es decir: v i = g ij vj . Esta notaci on tambi en es u til para subir los ndices a las bases: x i g ij x j . (15) (14)

De este modo un vector puede ser expresado en forma equivalente como v = v i x i = vi x i . 2

1.2

Cambios de base y transformaciones lineales

Supongamos que contamos con una base arbitraria {x i }. Si lo deseamos podemos denir una nueva base {x i } mediante una transformaci on lineal L de la siguiente forma: x i = x j Lj i . (16)

Los coecientes Lj i caracterizan la nueva base {x i } en t erminos de la base original {x i }. Para que la base {x i } sea completa y linealmente independiente, es necesario que los j coecientes L i sean elementos de una matriz invertible (donde j e i corresponden a las y columnas respectivamente). Por lo tanto es posible escribir una ecuaci on an aloga a (16) pero expresando la relaci on inversa: x i = x j Lj i . Noten que si insertamos (17) de vuelta en (16) obtenemos: x i = x j Lj i = x k Lk j Lj i . (18) (17)

Para que dicha relaci on sea consistente, las componentes Lj i contra das con Lj i necesariamente deben cumplir: Lk j Lj i = k i . (19) En forma an aloga, si hubi esemos insertado (16) en (17) habr amos obtenido Lk j Lj i = k i . (20)

Observen que si interpretamos estas relaciones en t erminos de la multiplicaci on de matri1 1 ces, son son an alogas a L L = LL = I . Veamos ahora como luce un vector v = v i x i cuando es expresado con respecto a la nueva base {x i }. Insertando la expresi on (17) en v = v i x i obtenemos: v = vix i = v i ( x j Lj i ) = Lj i v i x j . (21)

Es importante notar que hemos cambiado la base, pero no el vector. El vector sigue siendo el mismo, pero expresado en una nueva base. Esto quiere decir que en la nueva base el vector tiene componentes distintas, pero que pueden ser relacionadas con las componentes que el vector ten a en la base original. Es decir, en la nueva base {x i } podemos escribir: v = v i xi , (22)

donde v i son las componentes del mismo vector original pero en la nueva base. Comparando con (21), vemos que las componentes v i pueden ser expresadas en t erminos de las antiguas en la forma siguiente: v i = Li j v i . 3 (23)

M as aun, podemos contraer la expresi on (23) con los elementos Li j que corresponden a la inversa de Li j . En dicho caso obtenemos: v i = Li j v j . (24)

Noten que la diferencia entre Li j y Li j est a en la posici on de las primas (arriba a la izquierda o abajo a la derecha). Esta notaci on democr atica enfatiza que ambas expresiones (23) y (24) son equivalentes, y no favorece una base sobre la otra.

1.3

Bases ortonormales

Dado que gij es positiva denida, entonces siempre podemos encontrar una base para la cual gij es igual a la unidad. Para ver esto en forma expl cita, consideremos una base {x i } arbitraria sobre la cual act ua una transformaci on lineal L apropiada. El producto escalar entre elementos de la nueva base es: gi j = g (xi , xj ) = g (xi Li i , xj Lj j ) = gij Li i Lj j = gij Li i Lj j . (25)

Luego, si escogemos los coecientes Li j en forma apropiada, podemos imponer que la nueva base cumpla gi j = i j , (26) donde i j es la delta de Kronecker pero con sus dos ndices abajo. Dicha base tiene la propiedad de ser ortonormal, dado que el producto escalar entre sus elementos cumple: g ( xi , x j ) = i j = 1 si i = j . 0 si i = j (27)

Tambi en resulta inmediato que en dicha base la inversa es simplemente g i j = ij , es decir la delta de Kronecker pero con ndices arriba. En este curso trabajaremos con bases ortonormales, por lo que muchas de las expresiones formales son realmente sencillas. Por ejemplo, la relaci on entre componentes con ndices arriba y abajo es simplemente v i = ij vj = vi . (28)

Un ejemplo cotidiano de bases ortonormales 3-dimensionales son las bases empleadas para expresar vectores en coordenadas Cartesianas.

1.4

Rotaciones

Supongamos que la base original es ortonormal (tal como nos gusta), y por lo tanto se cumple que g ( xi , x j ) = ij . Luego, un cambio de base representado por la transformaci on 4

Li j da como resultado: gi j = g (xi , xj ) = g (xi Li i , xj Lj j ) = gij Li i Lj j = ij Li i Lj j . (29)

Esto quiere decir que un cambio de base con Li j arbitrario no necesariamente nos entregar a de vuelta gi j = i j . S olo una clase especial de transformaciones logra que la nueva base sea ortogonal (es decir, que en la nueva base se siga cumpliendo gi j = i j ). A dichas transformaciones se les llama rotaciones, y designaremos a sus elementos de la on de que las bases permanezcan ortonormales bajo este siguiente forma: Ri j . La condici tipo de transformaciones es equivalente a exigir que gi j = i j . En otras palabras: ij Ri i Rj j = i j . (30)

Por supuesto, una relaci on an aloga debe cumplirse para los coecientes Ri j de la rotaci on inversa: i j Ri i Rj j = ij . (31) Notemos que si contraemos (30) con v i y v j obtenemos: ij Ri i Rj j v i v j = i j v i v j . Pero dado que v i = Ri i v i entonces podemos escribir: v i vi = v i vi , (33) (32)

donde ui = ij uj = ui y vi = i j v j = vi . En forma expl cita, la ecuaci on (33) corresponde a: (v 1 )2 + (v 2 )2 + (v 3 )2 = (v 1 )2 + (v 2 )2 + (v 3 )2 . (34) Lo que nos dice que el m odulo de un vector no cambia bajo rotaciones. Las ecuaci on (30) permite encontrar una relaci on lineal entre una rotaci on dada y su inversa: En efecto, contrayendo en forma apropiada (30) una vez con las componentes inversas Ri j podemos derivar el siguiente resultado: Ri j = jk Rk l l i . En forma expl cita, esta relaci on se lee de la siguiente forma: R1 1 = R1 1 R2 1 = R1 2 R
3 1

(35)

R1 2 = R2 1 R2 2 = R2 2 R
3 2

R1 3 = R3 1 R2 3 = R3 2 R
3 3

(36) (37) . (38)

=R

=R

=R

Una forma de interpretar esta relaci on es poniendo atenci on a la posici on de los ndices en t erminos de las y columnas. Para ser concretos, supongamos como ejemplo una rotaci on i R cuyos elementos R m vienen dados por: cos sin 0 (39) Ri m = sin cos 0 . 0 0 1 Entonces, la inversa R1 tendr a elementos Rm i dados por R1 1 = R1 1 = cos , R
1 2

(40) (41) (42) (43)

=R

= sin ,

R2 1 = R1 2 = sin , R2 2 = R2 2 = cos , que si ordenamos en las y columnas viene a ser cos sin 0 Rm i = sin cos 0 . 0 0 1 En lenguaje matricial, esto quiere decir que R1 corresponde a la traspuesta de R: R1 = Rt .

(44)

(45)

Veamos adem as c omo act ua sobre las componentes v i de un vector {v}. De acuerdo a la expresi on (23) con L = R, se tiene v i = Ri j v j . De donde tenemos que: v 1 = R1 j v j = R1 1 v 1 + R1 2 v 2 = cos v 1 + sin v 2 , v = R jv = R v = R jv = R
3 3 j 2 2 j 2 3 1v 3v 1 3

(46)

(47)
2

+R

2v

= sin v + cos v ,

(48) (49)

=v .

Revisemos tambi en como transforman las componentes vi con ndices abajo: v1 = Rj 1 vj = R1 1 v1 + R2 1 v2 = cos v1 + sin v2 , v2 = Rj 2 vj = R1 2 v1 + R2 2 v2 = sin v1 + cos v2 , v3 = R 3 vj = R
j 3 3

(50) (51) (52)

v3 = v .

Y por lo tanto vemos que en efecto se cumple que: v i = i j v j . 6 (53)

1.5

Coordenadas Cartesianas

Consideremos un sistema de coordenadas Cartesianas {x, y, z }. Para simplicar la discusi on, usaremos la notaci on x1 = x, x2 = y , x3 = z . Resulta natural denir una base vectorial en la cual los vectores unitarios {x i } apuntan en la direcciones asociadas a las coordenadas {xi }. La Figura 1 muestra esta situaci on. Esto quiere decir que un cambio

Figure 1: Los vectores unitarios {x i } est an orientados en las direcciones asociadas a las i coordenadas {x }. de coordenadas consistente en una rotaci on necesariamente afectar a la orientaci on de los vectores unitarios. Veamos esto en alg un detalle: Supongamos un punto P en el espacio 3D que tiene por coordenadas los valores xi P . Podemos asignar a este punto un vector xP que va desde el origen del sistema hasta el punto P . Dicho vector ser a: xP = x i i . Px (54)

Al haber una rotaci on del sistema de coordenadas, cambiar an la orientaci on de las bases i x i , y los valores de las componentes xP pero no cambiar a la ubicaci on del punto P . Es decir, el punto P seguir a en la misma posici on independiente de las coordenadas que escojamos para describirlo. Ahora, como ya hemos visto, una rotaci on afectar a a las bases de acuerdo a la relaci on: (55) x i = x j Rj i , mientras que la relaci on inversa ser a: x i = x j Rj i . 7 (56)

Reemplazando esta u ltima relaci on en la ecuaci on (54) obtenemos: xj . j Rj i = (Rj i xi xP = xi P ) Px (57)

Podemos identicar la expresi on en par entesis como las componentes de xP en el nuevo sistema de coordenadas, de modo que podemos escribir: i , xP = xi Px donde
j i xi P = R j xP .

(58)

En otras palabras, bajo una rotaci on de las coordenadas, las bases x i transforman con la i i ayuda de los coecientes Rj , mientras que las componentes x transforman con la ayuda i pertenecientes a la rotaci on inversa. Para apreciar esto veamos un de los coecientes Rj ejemplo concreto. Consideremos la rotaci on del ejemplo (39). Entonces, las nuevas bases x i estar an dadas por: x =x cos + y sin , y = x sin + y cos , z =z , (59)

mientras que las nuevas coordenadas xi an dadas por: P del punto P estar xP = cos xP + sin yP , yP = sin xP + cos yP , zP = zP . (60)

La Figura 2 muestra este ejemplo particular. En el ejemplo, el punto P no ha cambiado de ubicaci on. En su lugar, ha cambiado la forma de describir su ubicaci on con respecto al punto de vista representado por la elecci on de coordenadas empleada.

Figure 2: Ejemplo de una rotaci on sobre las coordenadas cartesianas.

1.6

Derivadas parciales

Recordemos que muchas veces deseamos hablar de todos los puntos del espacio a la vez (en lugar de un punto P en particular). En tal caso, no necesitamos especicar la etiqueta 8

P en la coordenada y simplemente escribimos x = xi x i . (61)

De esta forma, una cambio de coordenadas correspondientes a una rotaci on implica las i i siguientes relaciones entre los sistemas de coordenadas x y x : xi = R i j xj , xi = Ri j xj . (62)

Luego, tomando derivadas parciales de estas relaciones, podemos inferir las relaciones: xi = Ri j , j x xi = Ri j . j x (63)

Estas expresiones permiten relacionar derivadas parciales de dos sistemas de coordenadas rotadas. Para ello basta usar la regla de la cadena: i = xj j = Rj i j , xi i = xj j = R j i j . xi (64)

Noten que las derivadas parciales i transforman de la misma forma que las bases x i .

También podría gustarte