Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Geometria PDF
Geometria PDF
y Geometrı́a Multidimensional
Alvaro Cofré
Duvan Henao
ii
Índice general
3. Álgebra de matrices 55
3.1. Producto de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.2. Matrices inversas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.3. Representación matricial de un sistema de ecuaciones . . . . . . . . . . . 60
3.4. Rango de un producto de matrices . . . . . . . . . . . . . . . . . . . . . 61
4. Vectores en Rn 63
4.1. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.2. Subespacios de vectores en Rn . . . . . . . . . . . . . . . . . . . . . . . 65
4.3. Variedades lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.4. Subespacios de soluciones . . . . . . . . . . . . . . . . . . . . . . . . . . 79
5. Distancia y Volumen en Rn 83
5.1. Métrica euclidiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.2. Volúmenes y determinantes . . . . . . . . . . . . . . . . . . . . . . . . . 85
6. Sistemas de coordenadas 91
6.1. Transformación de coordenadas . . . . . . . . . . . . . . . . . . . . . . . 93
6.2. Variedades lineales y sistemas de ecuaciones . . . . . . . . . . . . . . . . 95
6.3. Volúmenes y sistemas de coordenadas cartesianas . . . . . . . . . . . . . 97
iii
iv ÍNDICE GENERAL
Sistemas de ecuaciones
lineales
Definición 1.1 Llamaremos ecuación lineal con n incógnitas a una ecuación del tipo
a1 x1 + a2 x2 + · · · an xn = b (1.1)
Los números a1 , . . . , an se llaman coeficientes de las incógnitas, al número b se le
llama término libre . Diremos que la colección ordenada de números (k1 , k2 , . . . , kn )
es una solución de la ecuación si
a1 k1 + a2 k2 + · · · + an kn = b
Si b = 0 la ecuación se dice homogénea .
Puesto que alguno de los coeficientes ai en (1.1) debe ser distinto de cero, podemos
suponer que a1 6= 0. Asignemos valores arbitrarios k2 , k3 , . . . , kn a las incógnitas x2 ,
x3 , . . . , xn , entonces
b − a2 k2 − a3 k3 − · · · − an kn
x1 = .
a1
³ ´
Claramente, la colección ordenada b−a2 k2 −···−a
a1
n kn
, k 2 , k 3 , . . . , k n es una posible solu-
ción de la ecuación. Puesto que esta es solución independientemente de cuáles son los
valores de k concluimos que (1.1) tiene infinitas soluciones.
1
2 CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES
Se concluye que si una ecuación es combinación lineal de dos o más ecuaciones lineales
entonces toda solución común de las ecuaciones que participan en la combinación lineal
es solución de la ecuación.
Razonando análogamente para cada una de las ecuaciones del sistema (1.6) hemos
demostrado que cada solución del sistema (1.5) es solución del sistema (1.6). El mismo
argumento permite demostrar que toda solución de (1.6) es solución de (1.5).
Supongamos ahora que (1.6) no tiene solución. Entonces (1.5) tampoco puede tenerla
y viceversa. Se concluye que (1.5) y (1.6) tienen exactamente las mismas soluciones.
a11 x1 + · · · + a1n xn = b1
.. (1.7)
.
am1 x1 + · · · + amn xn = bm
Supongamos entonces que a11 6= 0. Reemplacemos el sistema (1.7) por un nuevo sis-
tema equivalente, que por lo tanto tiene exactamente las mismas soluciones que (1.7).
Denotemos por ECi a la i-ésima ecuación del sistema (1.7). Construyamos el nuevo
sistema definiendo sus ecuaciones de la manera siguiente:
Ecuación 1 = EC1
a21
Ecuación 2 = EC2 − EC1
a11
a31
Ecuación 3 = EC3 − EC1
a11
..
.
am1
Ecuación m = ECm − EC1
a11
Nota: Cada una de las ecuaciones de (1.7) se puede reconstruir fácilmente como
combinación lineal de las ecuaciones de (1.8), es por esto que son equivalentes.
Supongamos entonces que a022 6= 0, hacemos lo mismo en (1.8). Denotemos por ECi0 a la
ecuación i-ésima del sistema, y por ECi00 a la ecuación i-ésima del sistema a construir.
4 CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES
EC100 = EC10
EC200 = EC20
a032
EC300 = EC30 − EC20
a022
a0
EC400 = EC40 − 42 EC20
a022
..
.
00 0 a0m2
ECm = ECm − EC20
a022
Nota: Si en alguna parte del proceso alguna ecuación tiene todos los coeficientes y el
término libre iguales a cero, podemos suprimirla puesto que la ecuación
0 · x1 + 0 · x2 + · · · + 0 · xn = 0
Sin en alguna parte del proceso alguna ecuación tiene todos los coeficientes iguales a
cero y el término libre distinto de 0 debemos concluir que el sistema es incompatible .
Supongamos que el sistema es compatible. En tal caso pueden presentarse sólo dos
situaciones:
(k−1) (k−1)
con a11 6= 0, a022 6= 0, · · · , akk 6= 0, donde k < m y k < n. Como akk 6= 0
podemos asignar valores arbitrarios a xk+1 , xk+2 , . . . , xn en la última ecuación y
despejar xk . Luego reemplazamos en la penúltima ecuación y despejamos xk−1
y ası́ sucesivamente hasta llegar hasta x1 . Hemos obtenido ası́ una solución que
depende de n − (k − 1) parámetros arbitrarios (nadie afirma que sea la única), el
1.1. EL MÉTODO DE ELIMINACIÓN DE GAUSS 5
Ejemplo:
x1 − x2 + 2x3 + x4 = 1
x1 + 2x2 − x3 − x4 = 0
3x1 + 0 · x2 + 3x3 + x4 = 2
2x1 − 2x2 + 4x3 + 2x4 = 2
Eliminemos x1 :
x1 − x2 + 2x3 + x4 = 1
3x2 − 3x3 − 2x4 = −1
3x2 − 3x3 − 2x4 = −1
0 · x2 + 0 · x3 + 0 · x4 = 0
Eliminemos x2 :
x1 − x2 + 2x3 − x4 = 1
3x2 − 3x3 − 2x4 = −1
0 · x3 + 0 · x4 = 0
Es claro que en este caso el sistema tiene exactamente una solución puesto que la
última ecuación determina el valor de xn en forma única y la penúltima determina
el valor de xn−1 en forma única, etc.
Ejemplo:
x1 + x2 + x3 = 0
2x1 + 2x2 − x3 = 1
−x1 + x2 − 3x3 = 1
6 CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES
Eliminemos x1 :
x1 + x2 + x3 = 0
−3x3 = 1
2x2 − 2x3 = 1
Ejemplo: El sistema
x1 + 2x2 + 5x3 = −9
x1 − x2 + 3x3 = 2
3x1 − 6x2 − x3 = 25
puede escribirse como
1 2 5 −9
1 −1 3 2
3 −6 −1 25
y pueden hacerse las mismas transformaciones que realizarı́amos con las ecuaciones
del sistema con las filas de la matriz ampliada, ası́ eliminando x1 obtenemos
1 2 5 9
0 −3 −2 11
0 −12 −16 52
1.1. EL MÉTODO DE ELIMINACIÓN DE GAUSS 7
Eliminando x2 :
1 2 5 9
0 −3 −2 11
0 0 −8 8
Eliminamos x1 :
1 −5 −8 1 3
0 16 21 −8 −8
0 5 1 1 −8
0 11 20 −9 2
7x2 + 4λ − 11λ = 0 ⇒ x2 = λ
y
8 3
x1 = 2λ + λ − 3λ = λ
5 5
8 CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES
1.2. Determinantes
El método de Gauss nos permite resolver un sistema de ecuaciones pero no propor-
ciona un criterio de compatibilidad en términos de los coeficientes de las incógnitas y
los términos libres, menos aún una fórmula que permita encontrar los valores de las
incógnitas. Sin embargo, una modificación de dicho método aplicado a sistemas de dos
ecuaciones con dos incógnitas y tres ecuaciones con tres incógnitas permite deducir
la llamada “regla de Cramer”, previa introducción de un nuevo ente matemático: el
determinante . Primero nos abocaremos a la tarea de introducir esta nueva noción
para lo cual necesitamos algunos conceptos auxiliares.
Sea M un conjunto finito formado por n elementos a los cuales ponemos etiquetas
distintas con los números 1, 2, . . . , n. Podemos llamar i1 al objeto que tiene la etiqueta
con el número 1, i2 al objeto que tiene la etiqueta con el número 2, . . . , in al objeto que
tiene la etiqueta con el número n. Decimos que i1 , i2 , . . . , in constituyen un conjunto
de n sı́mbolos y como la naturaleza de los objetos no va a jugar papel alguno en lo
que sigue supondremos simplemente que el conjunto de n sı́mbolos está formado por
los números 1, 2, . . . , n. Dichos sı́mbolos pueden ser ordenados en una fila de diversas
maneras. Por ejemplo, si n = 3 podemos ordenarlos de 6 maneras distintas, a saber:
1 2 3, 1 3 2, 2 1 3, 2 3 1, 3 1 2, 3 2 1 .
En general, si tenemos n sı́mbolos, el primero de una fila puede ser elegido de n
maneras. Por cada una de ellas tenemos n − 1 maneras de elegir el segundo. Por cada
una de las n(n − 1) maneras de elegir los dos primeros tenemos n − 2 maneras de
elegir el tercero, ası́ para elegir los tres primeros tenemos n(n − 1)(n − 2) maneras.
Continuando la argumentación hasta agotar los recursos tenemos que con n sı́mbolos
podemos formar
n(n − 1)(n − 2) · · · (n − (n − 2))(n − (n − 1)) = n!
filas distintas. A cada una de las filas la llamaremos una permutación de ellos y a la
fila 1 2 3 · · · n que sigue el orden natural la llamaremos permutación natural.
y a continuación escribamos todas aquellas que empiezan con i1 las cuales son k!. Como
el sı́mbolo i1 queda fijo, cada una de ellas puede ser considerada como una permutación
de k sı́mbolos y por lo tanto, por la hipótesis de inducción, pueden ser escritas en una
lista en que cada una difiere de la anterior en una trasposición llevada a cabo en los
sı́mbolos i2 , i3 , . . . , ik+1 y empezando precisamente con i1 i2 i3 · · · ik ik+1 .
Corolario 1.9 Dada una permutación de n sı́mbolos, a partir de ella es posible obtener
otra cualquiera mediante una sucesión de transposiciones.
Definición 1.10 Sea i1 i2 · · · in una permutación cualquiera. Diremos que los sı́mbolos
is e it forman una inversión si is > it pero s < t.
Por ejemplo, si n = 5 en
32415
i1 = 3, i2 = 2, i3 = 4, i4 = 1, i5 = 5.
Definición 1.11 Una permutación se dice par si sus sı́mbolos forman un número par
de inversiones, impar si forman un número impar de inversiones.
i1 i2 · · · k l · · · in
k ir ir+1 · · · ir+s−1 l
Demostración: Hagamos una lista en que cada una difiere de la anterior por una
trasposición. Como para n ≥ 2 n! es par hay n!
2 de cada tipo.
Lo que no se puede hacer es intercambiar el orden de las dos filas porque ellas juegan
distintos papeles, ası́
µ ¶ µ ¶
2 1 4 3 4 3 1 2
y
4 3 1 2 2 1 4 3
Definición 1.15 Diremos que una sustitución de grado n es par si en alguna repre-
sentación ambas filas tienen la misma paridad y diremos que es impar si en alguna
representación ambas tienen paridad opuesta.
1.2. DETERMINANTES 11
se considera par.
De (1.10) se concluye que hay n! n!
2 sustituciones pares y 2 sustituciones impares (n ≥ 2).
También es claro que si una sustitución de grado n es par la suma del número de
inversiones de ambas filas es par y si es impar dica suma también es impar. Se concluye
que para juzgar la paridad de una sustitución de grado n es conveniente favorecer la
representación µ ¶
1 2 3 ··· n
.
α1 α2 α3 · · · αn
Puesto que la primera fila tiene 0 inversiones, la paridad de la sustitución está deter-
minada por el número de inversiones de la permutación α1 α2 · · · αn .
µ ¶ µ ¶
3 1 4 5 2 1 2 3 4 5
Ejemplo: es la misma sustitución de grado 5 que .
2 5 4 3 1 5 1 2 4 3
Puesto que la permutación 5 1 2 4 3 presenta cinco inversiones tenemos que la sustitu-
ción dada es impar.
Estamos listos para introducir el concepto de determinante . Sea
a11 a12 · · · a1n
a21 a22 · · · a2n
(aij ) ≡ . .. .. ..
.. . . .
an1 an2 · · · ann
donde α1 α2 · · · αn es una permutación de los ı́ndices 1,2,. . . , n. Puesto que para formar
(1.11) podemos elegir primero un elemento de la primera fila de (aij ), a saber a1α1 ,
luego uno de la segunda fila, a saber a2α2 (donde a2α2 no puede estar en la columna
α1 , esto es, α1 6= α2 ), luego uno de la tercera fila a saber a3 α3 (donde a3α3 no puede
estar en las columnas α1 o α2 , esto es α1 6= α2 6= α3 ) y ası́ continuamos hasta la fila
n, podemos concluir que hay n! de estos productos ya que en (1.11) los ı́ndices fila
siempre pueden escribirse en el orden natural.
A la suma algebráica de estos n! productos de la forma (1.11) con los signos adju-
dicados mediante la regla recién enunciada lo llamaremos determinante de orden n
correspondiente a la matriz (aij ). Si n = 1 diremos que a11 es el determinante de
12 CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES
Ejemplo: Sea
a11 a12 a13
(aij ) = a21 a22 a23
a31 a32 a33
Hay 6 productos de la forma (1.11)
a1α1 a2α2 a3α3
donde debemos rellenar α1 , α2 , α3 con todas las permutaciones posibles de los ı́ndices
1,2,3. Los 6 productos posibles son
a11 a22 a33
correspondientes a las permutaciones pares 1 2 3, 2 3 1, 3 1 2, ellos
a12 a23 a31
mantienen su signo. Los otros 3 son
a13 a21 a32
det(aij ) = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a12 a21 a33 − a11 a23 a32 − a13 a22 a31
Ejemplo:
1 3 5 1 2 1
(aij ) = 2 1 4 ⇒ (aij )t = 3 1 1
1 1 1 5 4 1
En general si
a11 a12 ··· a1n a11 a21 ··· an1
a21 a22 ··· a2n a12 a22 ··· an2
(aij ) = .. .. .. .. ⇒ (aij )t = .. .. .. ..
. . . . . . . .
an1 an2 ··· ann a1n a2n ··· ann
1.3. PROPIEDADES DEL DETERMINANTE 13
Nota: Cada producto a1α1 a2α2 · · · anαn se llama un término del determinante.
Propiedad 1: det(aij ) = det(aij )t
Es evidente que ambos determinantes tienen los mismos términos, hay que demostrar
que el mismo término tiene el mismo signo en det(aij ) y en det(aij )t . Sea
Se concluye que a1α1 a2α2 · · · anαn tiene el mismo signo considerado como término de
det(bij ).
De la propiedad 1 se deduce que cualquier afirmación sobre las filas del determinante
es válidad para sus columnas y viceversa, por esta razón las propiedades que siguen
sólo se demostrarán para las filas del determinante.
Supongamos que permutamos las filas i y j, i < j. Sea (bij ) la matriz que se obtiene
al permutar las filas.
Consideremos un término cualquiera del determinante original,
Se concluye que a1α1 a2α2 · · · anαn aparece en el nuevo determinante con signo opuesto
al que tenı́a en el determinante original.
Supongamos que det(aij ) = d y supongamos que las filas i, j son iguales. Entonces al
intercambiar las filas i, j obtenemos el mismo determinante, pero por la propiedad 3,
obtenemos el determinante con signo opuesto luego d = −d ⇒ d = 0.
Propiedad 5: Si se multiplican todos los elementos de una fila del determinante por
un número k, el determinante queda multiplicado por k.
Supongamos que multiplicamos todos los elementos de la fila i por k. Por la definición
de determinante cada término queda multiplicado por k.
Nota: El factor común de todos los elementos de una fila puede ser extraı́do como
un factor del determinante.
Ejemplo: ¯ ¯ ¯ ¯
¯ 2 4 6 ¯ ¯ 1 2 3 ¯
¯ ¯ ¯ ¯
¯ a b c ¯ = 2¯ a b c ¯
¯ ¯ ¯ ¯
¯ d e f ¯ ¯ d e f ¯
aij = bj + cj j = 1, 2, . . . , n.
Entonces det(aij ) es igual a la suma de dos determinantes cuyas filas son, salvo la fila
i, las mismas que las del original, y la fila i del primer sumando es b1 b2 · · · bn y la fila
i del segundo sumando es c1 c2 · · · cn .
1.3. PROPIEDADES DEL DETERMINANTE 15
En efecto,
Pero el primer sumando es un término del determinante original salvo que su fila i ha
sido reemplazada por b1 b2 · · · bn , análogamente para el segundo sumando.
Ejemplo:
¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯
¯ 3 3 3 ¯ ¯ 1+2 2+1 0+3 ¯ ¯ 1 2 0 ¯ ¯ 2 1 3 ¯
¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯
¯ a b c ¯=¯ a b c ¯=¯ a b c ¯+¯ a b c ¯
¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯
¯ d e f ¯ ¯ d e f ¯ ¯ d e f ¯ ¯ d e f ¯
Definición 1.17 Diremos que la i-ésima fila de det(aij ) es combinación lineal de las
demás filas del determinante si hay constantes k1 , k2 , . . . , ki−1 , ki+1 , . . . , kn tales
que
i−1
X n
X
aij = kr arj + kr arj j = 1, 2, . . . , n
r=1 r=i+1
Nota: Es posible que algunos de los kr sean iguales a cero. En tal caso la fila i es
combinación lineal de algunas de las restantes filas pero con la argucia de tomar los
restantes kr como iguales a cero podemos fingir que es combinación lineal de todas
las filas. En el caso en que todos los kr menos uno sean iguales a cero, por ejemplo
kj 6= 0, obtenemos que la fila i, i 6= j es combinación lineal de la fila j, esto es, la fila
i es proporcional a la fila j. Se concluye que la proporcionalidad se puede considerar
como un caso particular de combinación lineal.
Propiedad 8: Si una de las filas del determinante es combinación lineal de las demás,
el determinante es igual a cero.
Supongamos que la i-ésima fila es combinación lineal de las demás filas. Descomponga-
mos el determinante en una suma de determinantes cuyas filas son todas iguales a las
del determinante original salvo la i-ésima, tal como lo permite la propiedad 7. Cada
uno de estos, o bien tiene una fila de ceros, o bien tiene dos filas proporcionales, en
ambos casos el sumando en cuestión es igual a cero.
16 CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES
Nota: Es claro que el determinante no cambia si a una fila se le agrega una combi-
nación lineal de las demás.
Ejemplo: Calcule ¯ ¯
¯ ¯
¯ am + bp an + bq ¯
∆ = ¯¯ ¯
¯
¯ cm + dp cn + dq ¯
usando la propiedad 7.
¯ ¯ ¯ ¯
¯ am an ¯ ¯ bp bq ¯
¯
∆ = ¯ ¯ ¯
+¯ ¯
am + dp cn + dq ¯ cm + dp cn + dq ¯
¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯
¯ am an ¯ ¯ am an ¯ ¯ bp bq ¯ ¯ bp bq ¯
¯
= ¯ ¯ + ¯ ¯ + ¯ ¯ + ¯ ¯
cm cn ¯ ¯ dp dq ¯ ¯ cm cn ¯ ¯ dp dq ¯
¯ ¯ ¯ ¯
¯ m n ¯ ¯ p q ¯
¯
= 0 + ad ¯ ¯ ¯
+ bc ¯ ¯ + 0 usando la propiedad 3
p q ¯ m n ¯
¯ ¯ ¯ ¯
¯ p q ¯ ¯ p q ¯
= −ad ¯¯ ¯ + bc ¯¯ ¯
m n ¯ m n ¯
¯ ¯
¯ p q ¯
¯
= (bc − ad) ¯ ¯
m n ¯
Ejemplo: Calcule ¯ ¯
¯ 2 0 6 0 4 ¯
¯ ¯
¯ 5 3 2 2 7 ¯
¯ ¯
∆ = ¯¯ 2 5 7 5 5 ¯
¯
¯ 2 0 9 2 7 ¯
¯ ¯
¯ 7 8 4 2 1 ¯
Por la propiedad 5 ¯ ¯
¯ 1 0 3 0 2 ¯
¯ ¯
¯ 5 3 2 2 7 ¯
¯ ¯
∆ = 2 ¯¯ 2 5 7 5 5 ¯,
¯
¯ 2 0 9 2 7 ¯
¯ ¯
¯ 7 8 4 2 1 ¯
aplicando la propiedad 9 las filas 2, 3, 4, 5 tenemos:
¯ ¯
¯ 1 0 3 0 2 ¯
¯ ¯
¯ 0 3 −13 2 −3 ¯
¯ ¯
∆ = 2 ¯¯ 0 5 1 5 1 ¯
¯
¯ 0 0 3 2 3 ¯
¯ ¯
¯ 0 8 −17 2 −13 ¯
1.3. PROPIEDADES DEL DETERMINANTE 17
Para x = 1 y para x = −1 las dos primeras filas quedan iguales luego el polinomio es
divisible por (x − 1)(x + 1). Análogamente para las filas 3 y 4 con x = ±2. Luego el
determinante (que es un polinomio de grado 4) es de la forma c(x2 − 4)(x2 − 1), nos
18 CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES
luego c = −3.
Ejemplo: Calcule el determinante de la matriz de n × n dada por
½
a si i 6= j
aij =
x si i = j
Sumando a la primera columna todas las demás queda el siguiente determinante:
ai1 = x + (n − 1)a , i = 1, 2, . . . , n
a1j = a , j = 2, 3, . . . , n
aij = a , i 6= j, i = 2, 3, . . . , n, j = 2, 3, . . . , n
aii = x , i = 2, 3, . . . , n
Luego el determinante es igual a [x + (n − 1)a]∆, donde ∆ es el determinante dado por
ai1 = 1, i = 1, 2, . . . , n
a1j = a, j = 2, 3, . . . , n
aij = a, i 6= j, i = 2, 3, . . . , n, j = 2, 3, . . . , n
aii = x, i = 2, 3, . . . , n
Restemos la primera fila a todas las demás filas, aplicamos la misma argumentación
que en ejercicios anteriores y tenemos que el determinante pedido es [x + (n − 1)a]d
donde d es un determinante de orden (n − 1) dado por
½
0 i 6= j
aij =
x − a i = j, i = 2, 3, . . . , n
El único término distinto de cero de dicho determinante es (x − a)(x − a) · · · (x − a)
(n − 1 veces) y su signo está dado por
µ ¶
2 3 ··· n
2 3 ··· n
luego el determinante pedido vale [x + (n − 1)a](x − a)n−1 .
Ejemplo: Calcule el determinante de Vandermonde
¯ ¯
¯ 1 1 ··· 1 ¯
¯ ¯
¯ a1 a 2 · · · a n ¯
¯ ¯
¯ 2
a22 a2n ¯
∆ = ¯ a1 ··· ¯
¯ .. .. .. .. ¯
¯ . . . . ¯
¯ n−1 ¯
¯ a an−1
· · · a n−1 ¯
1 2 n
1.4. TEOREMA DE LAPLACE 19
SM = i1 + i2 + · · · + ik + j1 + j2 + · · · + jk ,
Demostración: Supongamos que M 0 está formado por las primeras k filas y primeras
k columnas. Como SM = 2(1 + 2 + · · · + k), (−1)SM = 1. Sea A = a1α1 a2α2 · · · akαk ,
su signo está determinado por la sustitución
µ ¶
1 2 3 ··· k
,
α1 α2 α3 · · · αk
Pero como los α no pueden formar inversión con los β, ella tiene l + l0 inversiones, su
0
signo en d también está determinado por (−1)l+l .
1.4. TEOREMA DE LAPLACE 21
Supongamos ahora que M 0 está formado por las filas i1 < i2 < · · · < ik y las columnas
j1 < j2 < · · · < jk . Llevemos el menor M al ángulo superior izquierdo, esto es, mediante
trasposiciones de filas y trasposiciones de columnas formamos un nuevo determinante
cuyas primeras k filas y primeras k columnas son las k filas y k columnas de M . Para
esto llevamos a cabo
k(k + 1)
(i1 − 1) + (i2 − 2) + · · · + (ik − k) = i1 + i2 + · · · + ik −
2
trasposiciones de filas y
k(k + 1)
(j1 − 1) + (j2 − 2) + · · · + (jk − k) = j1 + j2 + · · · + jk −
2
trasposiciones de columnas, el nuevo determinante d0 es igual a
Puesto que en el proceso indicado no cambian ni las filas ni las columnas que constitu-
yen a M 0 ni tampoco su orden relativo, M 0 sigue siendo el menor complementario de
M en d0 . Sea A un término de M , B un término de M 0 . Como el orden relativo de las
filas y columnas de M no ha cambiado, A sigue teniendo el mismo signo como término
de M en la nueva posición de M , análogamente para B. Entonces, por la primera
parte de la demostración, AB es un término de d0 . Pero todos los términos de d0 son
términos de d si los multiplicamos por (−1)SM puesto que (−1)SM d0 = (−1)2SM d = d
luego (−1)SM AB es un término de d.
El lema nos permite reducir el cálculo de un determinante de orden n a un determi-
nante de orden n − 1.
Demostración: Por el lema, cada término del desarrollo aij Aij es un término de d
con el signo que le corresponde en d. Sea A un término del desarrollo air Air , si j 6= r,
A no puede ser un término del desarrollo aij Aij puesto que A contiene al elemento air
de la i-ésima fila en tanto que aij Aij contiene al elemento aij de la i-ésima fila, j 6= r.
El desarrollo aij Aij contiene (n − 1)! términos de d con el signo que les corresponde en
Xn
d, aij Aij contiene n(n − 1)! términos distintos de d con el signo que les corresponde
j=1
n
X
en d y puesto que d consta de n! términos se tiene que aij Aij es d.
j=1
22 CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES
n
X
Notación: Diremos que aij Aij es el desarrollo del determinante por los adjuntos
j=1
de la i-ésima fila.
Es obvio que también es posible desarrollar el determinante por los adjuntos de una
columna cualquiera.
Ejemplo: Desarrollar
¯ ¯
¯ ¯
¯ 3 1 −1 2 ¯
¯ ¯
¯ ¯
¯ −5 1 3 −4 ¯
d = ¯¯ ¯
¯
¯ 2 0 1 −1 ¯¯
¯
¯ ¯
¯ 1 −5 3 −3 ¯
¯ ¯ ¯ ¯
¯ 1 −1 2 ¯ ¯ 3 −1 2 ¯
¯ ¯ ¯ ¯
d = (−1)3+1 · 2 · ¯¯ 1 3 −4 ¯¯ + (−1)3+2 · 0 · ¯¯ −5 3 −4 ¯
¯
¯ −5 3 −3 ¯ ¯ 1 3 −3 ¯
¯ ¯ ¯ ¯
¯ 3 1 2 ¯¯ ¯ 3 1 −1 ¯
¯ ¯ ¯
+(−1)3+3 · 1 · ¯¯ −5 1 −4 ¯¯ + (−1)3+4 · (−1) · ¯¯ −5 1 3 ¯
¯
¯ 1 −5 −3 ¯ ¯ 1 −5 3 ¯
Del ejemplo se concluye que mientras más ceros tiene la fila, más fácil es el desarrollo.
Ası́, usando sistemáticamente las propiedades del determinante es posible transfor-
marlo de modo que quede una fila que tiene un 1 y (n − 1) ceros, ası́ el cálculo de un
determinante de orden n se reduce al cálculo de un sólo determinante de orden n − 1.
Ejemplo: Sea ¯ ¯
¯ −2 5 0 −1 3 ¯
¯ ¯
¯ 1 0 3 7 −2 ¯
¯ ¯
d = ¯¯ 3 −1 0 5 −5 ¯
¯
¯ 2 6 −4 1 2 ¯
¯ ¯
¯ 0 −3 −1 2 3 ¯
n
X
Corolario 1.23 Sea i 6= j, entonces aik Ajk = 0.
k=1
n
X
Demostración: aij Ajk puede interpretarse como el desarrollo por los adjuntos
k=1
de la j-ésima fila de un determinante igual al original salvo que la j-ésima fila es
bjk = aik k = 1, 2, . . . , n. Pero éste es un determinante cuya i-ésima fila y j-ésima fila
son iguales luego vale cero.
¯ ¯ ¯ ¯
¯ ¯ ¯ −3 −3 1 ¯ ¯ ¯¯ 3 1 −5 ¯¯
¯
1+2+1+3 ¯ −4 2 ¯¯ ¯ ¯ −4 2 ¯ ¯
¯ ¯ −1 −1 0 ¯ + (−1)1+3+1+3 ¯ ¯¯ ¯
d = (−1) ¯ 0 0 ¯¯ ¯ ¯ 2 1 ¯ ¯ −1 −1 0 ¯
¯ 4 2 5 ¯ ¯ 4 2 5 ¯
¯ ¯ ¯ ¯
¯ ¯¯ 3 1 −5 ¯¯ ¯ ¯¯ 3 1 −5 ¯
¯
1+4+1+3 ¯ −4 2 ¯¯ ¯¯ ¯
1+5+1+3 ¯ −4 2 ¯ ¯
¯¯ ¯
+(−1) −3 −3 1 ¯ + (−1) −3 −3 1 ¯
¯ −1 3 ¯ ¯¯ ¯ ¯ 0 0 ¯¯ ¯
4 2 5 ¯ ¯ −1 −1 0 ¯
¯ ¯ ¯ ¯
¯ ¯ ¯ 1 −2 1 ¯ ¯ ¯ ¯ 1 −2 1 ¯
¯ 0 0 ¯¯ ¯¯ ¯ ¯ 0 0 ¯ ¯ ¯
+(−1) 2+3+1+3 ¯ −1 −1 0 ¯¯ + (−1)2+4+1+3 ¯¯ ¯ ¯ −3 −3 1 ¯
¯ 2 1 ¯ ¯¯ −1 3 ¯¯ ¯
4 2 5 ¯ ¯ 4 2 5 ¯
¯ ¯ ¯ ¯
¯ ¯ ¯ 1 −2 1 ¯ ¯ ¯ ¯ 1 −2 1 ¯
¯ 0 0 ¯¯ ¯¯ ¯ ¯ 2 1 ¯ ¯ ¯
+(−1) 2+5+1+3 ¯ −3 −3 1 ¯¯ + (−1)3+4+1+3 ¯¯ ¯ ¯ 3 1 −5 ¯
¯ 0 0 ¯ ¯¯ −1 3 ¯¯ ¯
−1 −1 0 ¯ ¯ 4 2 5 ¯
¯ ¯ ¯ ¯
¯ ¯ ¯ 1 −2 1 ¯ ¯ ¯ ¯ 1 −2 1 ¯
¯ 2 1 ¯¯ ¯¯ ¯ ¯ −1 3 ¯ ¯ ¯
+(−1) 3+5+1+3 ¯ 3 1 −5 ¯¯ + (−1)4+5+1+3 ¯¯ ¯¯ 3 1 −5 ¯¯
¯ 0 0 ¯ ¯¯ 0 0 ¯¯
−1 −1 0 ¯ ¯ −3 −3 1 ¯
n
X n
X
aij Aij = d y si r 6= j, air Aij = 0, luego
i=1 i=1
n
X
dαj = bi Aij
i=1
n
X
Pero bi Aij es el desarrollo de un determinante idéntico a d salvo por su j-ésima
i=1
columna que es reemplazada por la solumna de los términos libres b1 , b2 , . . . , bn . Si
n
X
dj ≡ bi Aij entonces
i=1
dj
αj = 1≤j≤n (1.14)
d
Se concluye que si d 6= 0 y el sistema es compatible entonces la solución es única y
está dada por (1.14).
Pero ½
n
1X 0 si i 6= s
air Asr = d
d r=1 d si i = s
26 CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES
d
luego la ecuación se satisface para 1 ≤ i ≤ n. Se concluye que αj = dj 1 ≤ j ≤ n es
una solución del sistema de ecuaciones y por lo tanto si d 6= 0 el sistema es compatible,
tenemos ası́ la regla de Cramer:
La afirmación también es verdadera para las columnas de d puesto que el sistema cuya
matriz es la traspuesta de (aij ) también tiene determinante igual a cero.
Puesto que un sistema homogéneo que se puede llevar mediante el método de Gauss
a un sistema trapezoidal admite soluciones no triviales, se concluye también que si el
determinante de un sistema homogéneo es igual a cero dicho sistema tiene soluciones
distintas de la trivial.
¯ ¯
¯ 2 1 −5 1 ¯
¯ ¯
¯ 1 −3 0 −6 ¯
d = ¯¯ ¯ = 27
¯
¯ 0 2 −1 2 ¯
¯ 1 4 −7 6 ¯
1.5. LA REGLA DE CRAMER 27
¯ ¯ ¯ ¯
¯ 8 1 −5 1 ¯¯ ¯ 2 8 −5 1 ¯
¯ ¯ ¯
¯ 9 −3 0 −6 ¯¯ ¯ 1 9 0 −6 ¯
d1 = ¯¯ = 81 d2 = ¯¯ ¯ = −108
¯ −5 2 −1 2 ¯¯ ¯ 0 −5 −1 2 ¯
¯
¯ 0 4 −7 6 ¯ ¯ 1 0 −7 6 ¯
¯ ¯ ¯ ¯
¯ 2 1 8 1 ¯¯ ¯ 2 1 −5 8 ¯
¯ ¯ ¯
¯ 1 −3 9 −6 ¯¯ ¯ 1 −3 0 9 ¯
d3 = ¯¯ = −27 d4 = ¯¯ ¯ = 27
¯ 0 2 −5 2 ¯¯ ¯ 0 2 −1 −5 ¯
¯
¯ 1 4 0 6 ¯ ¯ 1 4 −7 0 ¯
α1 = 3 α2 = −4 α3 = −1 α4 = 1
Necesariamente ¯ ¯
¯ λ 1 2 ¯
¯ ¯
¯ 1 0 1 ¯=0
¯ ¯
¯ 0 −1 λ ¯
Entonces ¯ ¯ ¯ ¯
¯ 0 1 ¯¯ ¯¯ 1 2 ¯¯
λ ¯¯ − =0, λ − (λ + 2) = 0
−1 λ ¯ ¯ −1 λ ¯
luego para cualquier valor de λ el sistema admite sólo la solución trivial.
28 CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES
Capı́tulo 2
Relaciones de dependencia
lineal
α + β = β + α, ∀ α, β ∈ Rn
α + (β + γ) = (α + β) + γ, ∀ α, β, γ ∈ Rn
Llamaremos vector nulo a 0 = (0, 0, . . . , 0), es claro que es el único vector de Rn que
tiene la siguiente propiedad:
α+0=α ∀ α ∈ Rn
29
30 CAPÍTULO 2. RELACIONES DE DEPENDENCIA LINEAL
α + (−β) = (a1 − b1 , a2 − b2 , . . . , an − bn )
Sea α ∈ Rn , k un número real, llamaremos producto del vector α por el número real k
al vector
kα ≡ αk = (ka1 , ka2 , . . . , kan )
Es evidente que la operación tiene las siguientes propiedades:
i.- 1 · α = α ∀ α ∈ Rn
ii.- k(α + β) = kα + kβ ∀ α, β ∈ Rn , ∀ k ∈ R
iii.- (k1 + k2 )α = k1 α + k2 α ∀ α ∈ Rn ,∀ k1 , k2 ∈ R
0 · α1 + 0 · α2 + · · · + 0 · αn
Vemos que todo conjunto de vectores que contiene al vector cero es linealmente de-
pendiente, si αi = 0 tomemos kj = 0 si j 6= i, ki 6= 0 y se tiene
0 · α1 + 0 · α2 + · · · + ki αi + · · · + 0 · αn = 0
2.3. DIMENSIÓN DEL ESPACIO VECTORIAL RN 31
s
X
A la inversa, supongamos que hay l2 , l3 , . . . , ls tales que α1 = l2 α2 . Entonces
i=2
s
X
α1 − l2 α2 = 0 ,
i=2
tome k1 = 1, ki = −li , i = 2, 3, . . . , s.
Ejemplo: En R3 sean
Es fácil ver que 4α1 − α2 − 3α3 + 2α4 = 0, el sistema de cuatro vectores es linealmente
dependiente. . También 2α1 + α2 − α3 = 0 luego α1 , α2 , α3 también son linealmente
dependientes como también lo son α2 , α3 , α4 .
Nota: Supongamos que de los s vectores α1 , α2 , . . . , αs hay r de ellos linealmente
dependientes, r < s, entonces el conjunto α1 , α2 , . . . , αs es linealmente dependiente. En
efecto, sin pérdida de generalidad podemos suponer que α1 , α2 , . . . , αr son linealmente
dependientes y por lo tanto hay k1 , k2 , . . . , kr no todos nulos tales que
k1 α1 + · · · + kr αr = 0 .
e1 = (1, 0, 0, . . . , 0)
e2 = (0, 1, 0, . . . , 0)
..
.
en = (0, 0, 0, . . . , 1)
32 CAPÍTULO 2. RELACIONES DE DEPENDENCIA LINEAL
n
X
ki ei = 0 ⇒ (k1 , k2 , . . . , kn ) = 0 = (0, 0, . . . , 0)
i=1
luego ki = 0, i = 1, 2, . . . , n.
Sabemos que (2.1) es compatible, como el número de incógnitas es mayor que el número
de ecuaciones (s > n), al aplicar el método de Gauss el sistema queda reducido a la
forma trapezoidal y por lo tanto tiene soluciones no triviales.
Del teorema se concluye que un sistema l.i. de vectores en Rn consta a lo más de n
vectores (ya vimos que hay sistemas l.i. que constan exactamente de n vectores).
Definición 2.9 Dos sistemas de vectores se dicen equivalentes si cada uno se expresa
linealmente mediante el otro.
Del teorema y la definición se tiene que si dos sistemas son equivalentes y un vector α
se expresa linealmente mediante uno de ellos entonces también se expresa linealmente
mediante el otro.
Pero à r !
r
X r
X s
X s
X X
ki αi = ki aij βj = ki aij βj = 0
i=1 i=1 j=1 j=1 i=1
Todos los sistemas l.i. maximales en Rn constan de n vectores y hay infinitos de ellos.
Diremos que un sistema l.i. maximal en Rn es una base de Rn y el que todas las bases
de Rn constan del mismo número n de vectores se expresa diciendo que Rn tiene di-
mensión n.
2.4. RANGO DE UN SISTEMA DE VECTORES 35
α1 = (b11 , . . . , b1n )
α2 = (b21 , . . . , b2n )
..
.
αn = (bn1 , . . . , bnn )
entonces
n
X n
X
ck αk = ck (bk1 , bk2 , . . . , bkn ) = (a1 , a2 , . . . , an )
k=1 k=1
es equivalente a
n
X
ck bkj = aj j = 1, 2, . . . , n (2.2)
k=1
luego para encontrar las componentes del vector α con respecto a la base α1 , α2 , . . . ,
αn debemos resolver el sistema (2.2). Es claro que un vector tiene un juego distinto
de componentes en cada base pero tal juego es único. En efecto, si
n
X n
X n
X
α= ci αi = c0i αi ⇒ (ci − c0i )αi = 0
i=1 i=1 i=1
Puesto que se espera que (2.3) sólo tenga la solución trivial necesariamente debe tenerse
que det(bij ) 6= 0. A la inversa, si det(bij ) 6= 0 entonces (2.3) sólo tiene la solución trivial
y
X n
ck αk = 0
k=1
esto es, las componentes del vector α con respecto a la base estándar coinciden con
las componentes de la n-tupla (a1 , a2 , . . . , an ). Esta es la única base para la cual esto
sucede. Si hubiese una base para la cual ck = ak , k = 1, 2, . . . , n para todos los vectores
de Rn , esto deberı́a ser cierto en particular para e1 , e2 , . . . , en .
Entonces
n
X n
X
ck αk = ck (bk1 , bk2 , . . . , bkn ) = ei = (δi1 , δi2 , . . . , δin )
k=1 k=1
luego αi = ei , i = 1, 2, . . . , n.
αi = 0 · α1 + 0 · α2 + · · · + 1 · αi + · · · + 0 · αs
ası́ que también se expresa linealmente mediante (2.5) y por lo misma razón (2.5) se
expresa linealmente mediante (2.4). Entonces (2.4) es equivalente a cualquiera de sus
subsistemas linealmente independientes y por transitividad ellos son equivalentes entre
sı́. Por teorema previo ellos tienen el mismo número de vectores.
2.5. RANGO DE MATRICES Y DEPENDENCIA LINEAL 37
Demostración: Sea
αi1 , αi2 , . . . , αik (2.8)
linealmente independiente maximal en (2.6) y sea
Tenemos que (2.8) y (2.6) son equivalentes y también (2.9) y (2.7). Como (2.6) se
expresa linealmente mediante (2.7) entonces (2.8) se expresa linealmente mediante
(2.7) y por consiguiente se expresa linealmente mediante (2.9). Pero el rango de (2.8)
es igual al rango de (2.6) y el rango de (2.7) es igual al rango de (2.9). Por teorema
previo, como (2.8) es l.i. entonces el rango de (2.8) es menor o igual al rango de (2.9),
esto es, k ≤ l. Si (2.6) y (2.7) son equivalentes entonces l ≤ k luego k = l.
Ejemplo: En R4 sean
α1 = (0, 1, −1, 1)
α2 = (2, 1, 1, 0)
α3 = (1, 1, 1, 1)
38 CAPÍTULO 2. RELACIONES DE DEPENDENCIA LINEAL
Entonces
k1 (0, 1, −1, 1) + k2 (2, 1, 1, 0) + k3 (1, 1, 1, 1) = (0, 0, 0, 0)
es equivalente al sistema
2k2 + k3 = 0
k1 + k2 + k3 = 0
−k1 + k2 + k3 = 0
k1 + k3 = 0
Este sistema de vectores son las columnas de A miradas como vectores en Rs . Lla-
maremos rango de la matriz A al rango del sistema α1 , α2 , . . . , αn .
Es natural pensar que podrı́amos haber usado las filas de A para dar la misma defini-
ción, que en justicia deberı́amos hablar del rango fila de A y rango columna de A.
Posteriormente descubriremos que ambos son iguales y por lo tanto es irrelevante si se
eligen columnas o filas de A para dar la definición de rango de A.
Sea k natural, sea k ≤ mı́n(s, n). Nos interesamos por los valores de k par los cuales
hay menores de orden k de la matriz A que son distintos de cero, en particular, por
el mayor de estos k. Diremos que k ≤ mı́n(s, n) es el mayor orden de menor no nulo
de la matriz A si hay un menor de orden k de A que es distinto de cero y todos los
menores de orden r, k < r ≤ mı́n(s, n) son iguales a cero. Por ejemplo, si
1 2 1 0
0 −1 1 2
A= 0 3 2 1 ,
0 −2 2 4
Consideremos el menor
¯ ¯
¯ 1 2 1 ¯ ¯ ¯
¯ ¯ ¯ −1 1 ¯
¯ 0 −1 1 ¯=¯ ¯ = −2 − 3 = −5
¯ ¯ ¯ 3 2 ¯
¯ 0 3 2 ¯
luego k = 3.
Nótese que si todos los menores de orden k de A son cero, todos los menores de orden
superior son cero. Consideremos un menor cualquiera de orden k + j, k < k + j ≤
mı́n(s, n). Lo desarrollamos por los menores de orden k usando el teorema de Laplace.
Demostración: Sabemos que hay menor de orden r que es distinto de cero y que
todos los menores de orden superior valen cero. Supondremos (para simplificar la
notación) que el menor formado por las r primeras filas y las r primeras columnas
de A es distinto de cero. Llamaremos D a este menor. Consideremos las r primeras
columnas de A como vectores de Rs . Sea
αi = (a1i , a2i , . . . , asi ) , i = 1, 2, . . . , r
r
X
y supongamos que ki αi = 0, esto es,
j=1
r
X
ki (a1i , a2i , . . . , asi ) = (0, 0, . . . , 0) .
i=1
En componentes se tiene
r
X
ki aji = 0 j = 1, 2, . . . , n (2.11)
j=1
Si se tiene que 1 ≤ i ≤ r, ∆i tiene dos filas iguales y por lo tanto vale cero y si
r < i ≤ s, ∆i es un menor de orden r + 1 de la matriz A y por hipótesis vale cero.
Luego ∆i = 0 para todo i. Desarrollando ∆i por los adjuntos de la última fila se tiene
r
X
aij Aij + ail Ail = 0
j=1
y como D 6= 0 entonces
r
X Aj
ail = kj aij , kj = − , j = 1, 2, . . . , r (2.12)
j=1
D
ii.- Si algún menor orlado de orden 2 de |aij | es distinto de cero, sea D2 este menor,
calculamos todos los menores orlados de orden 3 de D2 , si todos valen cero, el
rango de la matriz es 2.
iii.- Si algún menor orlado de orden 3 de D2 es distinto de cero, sea D3 dicho menor,
procedemos a los menores orlados de orden 4 de D3 , . . .
Teorema 2.17 Sea A una matriz de s×n. El máximo número de filas l.i. de A miradas
como vectores en Rn es igual al máximo número de columnas l.i. de A miradas como
vectores en Rs .
Queremos
¯ saber¯ si tiene soluciones distintas de la trivial. Sea A la matriz del sistema,
¯ 1 2 ¯
D2 = ¯¯ ¯=6 0. Sea
4 −1 ¯
¯ ¯ ¯ ¯
¯ 1 2 1 ¯¯ ¯¯ 1 2 1 ¯
¯ ¯
O1 = ¯¯ 4 −1 5 ¯¯ = ¯¯ 0 −9 1 ¯ 6= 0
¯
¯ 1 −3 −4 ¯ ¯ 0 −5 −5 ¯
Luego el rango fila de A es 4, las cuatro ecuaciones del sistema son l.i. Luego, al
aplicar el método de Gauss, ninguna puede desaparecer y el sistema queda en la forma
triangular y por lo tanto tiene sólo la solución trivial.
Nota: Podrı́amos haber calculado directamente el determinante del sistema y haber
verificado que era distinto de 0 y por teorema previo, cuya demostración depende de
la regla de Cramer, haber dicho de inmediato que tenı́a sólo la solución trivial. Hemos
demostrado que se puede concluir lo mismo sin conocer la regla de Cramer.
Existe otro método más simple para calcular el rango de una matriz.
Demostración:
2.6. EQUIVALENCIA DE MATRICES 43
r
X
(ki ci )αi = 0
i=1
α1 , α2 , . . . , αi + kαj , αi+1 , . . . , αj , . . . , αs
las filas de la nueva matriz. Es claro que las filas de la matriz anterior y de la nueva
matriz son sistemas equivalentes de vectores y por lo tanto tienen el mismo rango.
Puesto que una matriz diagonal tiene un menor de orden r distinto de cero (en realidad
vale 1) y todos sus menores de orden r + 1 son cero, su rango es r.
Teorema 2.22 Toda matriz puede ser reducida a la forma diagonal mediante una
sucesión de transformaciones elementales.
44 CAPÍTULO 2. RELACIONES DE DEPENDENCIA LINEAL
1 a12 a13 ··· a1n
0 a022 a023 ··· a02n
A0 = .. .. .. .. .. ,
. . . . .
0 a0s2 a0s3 ··· a0sn
luego, aplicando el método a la primera fila, esto es, restando a cada columna una
columna proporcional a la primera de modo que aparezcan ceros en la primera fila,
llevamos A0 a la forma
1 0 0 ··· 0
0 a0022 a0023 ··· a002n
A00 = .. .. .. .. ..
. . . . .
0 a00s2 a00s3 ··· a00sn
Si todos los a00ij son cero, A00 tiene la forma diagonal. Si algún a00ij es distinto de cero
aplicamos el método a la columna 2 y a la fila 2 de A00 . Es claro que el proceso termina
después de un número finito de pasos.
Se concluye que para calcular el rango de una matriz basta contar el número de unos
que hay en su diagonal principal.
0 2 −4
−1 −4 5
A=
3 1 7
0 5 −10
2 3 0
2.6. EQUIVALENCIA DE MATRICES 45
1 4 −5 1 4 −5
3 1 7 3 1 7
A1 =
2 3 0
A2 =
2 3 0
0 1 −2 0 1 −2
0 1 −2 0 0 0
1 4 −5 1 4 −5
0 −11 22 0 −1 2
A3 =
0 −5 10
A4 =
0 −1 2
0 1 −2 0 −1 2
0 0 0 0 0 0
1 4 −5 1 0 0
0 −1 2 0 −1 2
A5 =
0 0 0
A6 =
0 0 0
0 0 0 0 0 0
0 0 0 0 0 0
1 0 0
0 −1 0
A7 =
0 0 0
0 0 0
0 0 0
rango A = 2.
1 1 2 6 −2 1 1 2 6 −2
1 −2 −1 0 −5 0 −3 −3 −6 −3
−1 3 1 −1 8 0 4 3 5 6
A1 =
A2 =
1 −1 0 2 −4 0 −2 −2 −4 −2
−2 −1 −2 −7 3 0 1 2 5 −1
−1 −2 −2 −5 −1 0 −1 0 1 −3
1 1 2 6 −2 1 1 2 6 −2
0 1 1 2 1 0 1 1 2 1
0 4 3 5 6 0 4 3 5 6
A3 =
A4 =
0 1 1 2 1 0 1 2 5 −1
0 1 2 5 −1 0 −1 0 1 −3
0 −1 0 1 −3 0 0 0 0 0
46 CAPÍTULO 2. RELACIONES DE DEPENDENCIA LINEAL
1 0 0 0 0 1 0 0 0 0
0 1 1 2 1 0 1 1 2 1
0 4 3 5 6 0 0 −1 −3 2
A5 =
0
A6 =
1 2 5 −1 0 0 1 3 −2
0 −1 0 1 −3 0 0 1 3 −2
0 0 0 0 0 0 0 0 0 0
1 0 0 0 0 1 0 0 0 0
0 1 1 2 1 0 1 0 0 0
0 0 1 3 −2 0 0 1 3 −2
A7 =
0
A8 =
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0
A9 =
0 0 0 0 0
0 0 0 0 0
0 0 0 0 0
rango A = 3.
n
X
air kr = bi i = 1, 2, . . . , s (2.14)
r=1
Entonces
n
X
ki αi = k1 (a11 , a21 , . . . , as1 ) + k2 (a12 , a22 , a32 , . . . , as2 ) + · · · + kn (a1n , a2n , . . . , asn )
i=1
à n n n
!
X X X
= a1r kr , a2r kr , . . . , asr kr
r=1 r=1 r=1
r
X
lo cual implica que λi (ai1 , ai2 , . . . , ain ) = 0, contradicción. Las r primeras filas de
i=1
Ā son entonces l.i. y forman un sistema linealmente independiente maximal de filas
de Ā. Se deduce que las ecuaciones r + 1, r + 2, . . . , s son combinaciones lineales de
las r primeras ecuaciones. Toda solución de las r primeras es por lo tanto solución de
todo el sistema y viceversa, el sistema (2.13) es equivalente al sistema formado por las
r primeras ecuaciones. Basta entonces resolver el sistema
a11 x1 + a12 x2 + · · · + a1n xn = b1
a21 x1 + a22 x2 + · · · + a2n xn = b2
.. (2.15)
.
ar1 x1 + ar2 x2 + · · · + arn xn = br
(c1 , c2 , . . . , cr , cr+1 , . . . , cn )
es una solución del sistema (2.15), y como ella depende de n − r parámetros arbitrarios
se tiene que el sistema original tiene infinitas soluciones.
¿Son estas todas las soluciones del sistema? Sea (k1 , k2 , . . . , kn ) una solución arbitraria
de (2.15). Reemplazando en (2.15) y escribiendo las r identidades resultantes en la for-
ma (2.16) podemos interpretar ası́:
(k1 , k2 , . . . , kr ) es la única solución de (2.16) que se obtiene asignado los valores kr+1 ,
kr+2 , . . . , kn a las incógnitas independientes. Luego (k1 , k2 , . . . , kn ) se puede obtener
por el método recién descrito, dicho método entrega todas las soluciones del sistema
original.
Ejemplo: Resolver
7 3 2
1 −2 −3
4 9 11
¯ ¯
¯ 7 3 ¯¯
Nótese que ¯¯ 6 0 luego el rango de A es 2.
=
1 −2 ¯
¯ ¯ ¯ ¯
¯ 7 3 2 ¯ ¯ 4 9 11 ¯
¯ ¯ ¯ ¯
¯ 1 −2 −3 ¯=¯ 1 −2 −3 ¯ = 0,
¯ ¯ ¯ ¯
¯ 4 9 11 ¯ ¯ 4 9 11 ¯
7x1 + 3x2 = 2 5 23
⇒ x1 = − , x2 =
x1 − 2x2 = −3 17 17
Ejemplo: Resolver
1 1 −2 −1 1 1
3 −1 1 4 3 4
1 5 −9 −8 1 0
¯ ¯
¯ 1 1 ¯¯
Nótese que ¯¯ 6 0 pero
=
3 −1 ¯
¯ ¯ ¯ ¯
¯ 1 1 ¯ ¯ 1 1 −2
−2 ¯
¯ ¯ ¯ ¯
¯ 3 −1 ¯ = ¯ 0 −4 7
1 ¯ = 0
¯ ¯ ¯ ¯
¯ 1 5 ¯ ¯ 0 4 −7
−9 ¯
¯ ¯ ¯ ¯
¯ 1 1 −1 ¯¯ ¯¯ 1 1 −1 ¯
¯ ¯
¯ 3 −1 4 ¯¯ = ¯¯ 0 −4 7 ¯ = 0
¯ ¯
¯ 1 5 −8 ¯ ¯ 0 4 −7 ¯
¯ ¯ ¯ ¯
¯ 1 1 1 ¯¯ ¯¯ 1 1 1 ¯
¯ ¯
¯ 3 −1 3 ¯¯ = ¯¯ 0 −4 0 ¯ = 0
¯ ¯
¯ 1 5 1 ¯ ¯ 0 4 0 ¯
luego el rango de A es 2.
¯ ¯ ¯ ¯
¯ 1 1 1 ¯ ¯ 1 1 1 ¯
¯ ¯ ¯ ¯
¯ 3 −1 4 ¯=¯ 0 −4 1 ¯ = 0,
¯ ¯ ¯ ¯
¯ 1 5 0 ¯ ¯ 0 4 −1 ¯
Como las dos primeras filas de Ā son l.i. el sistema se reduce a las dos primeras
ecuaciones, elijamos x3 , x4 , x5 como incógnitas independientes
x1 + x2 = 1 + 2x3 + x4 − x5
3x1 − x2 = 4 − x3 − 4x4 − 3x5
50 CAPÍTULO 2. RELACIONES DE DEPENDENCIA LINEAL
Luego
1
x1 = (5 + x3 − 3x4 − 4x5 )
4
1
x2 = − (1 − 7x3 − 7x4 )
4
Ejemplo: Resolver
4 1 −2 1 3
1 −2 −1 2 2
2 5 0 1 −1
3 3 −1 −3 1
Nótese que ¯ ¯ ¯ ¯
¯ 4 1 −2 ¯ ¯ 2 5 0 ¯
¯ ¯ ¯ ¯
¯ 1 −2 −1 ¯=¯ 1 −2 −1 ¯=0
¯ ¯ ¯ ¯
¯ 2 5 0 ¯ ¯ 2 5 0 ¯
pero ¯ ¯ ¯ ¯
¯ 1 −2 1 ¯¯ ¯¯ 1 −2 −1 ¯
¯ ¯
¯ −2 −1 2 ¯¯ = ¯¯ −4 3 0 ¯ 6= 0
¯ ¯
¯ 5 0 1 ¯ ¯ 4 2 0 ¯
¯ ¯ ¯ ¯
¯ 4 1 −2 1 ¯ ¯ 4 1 −2 1 ¯¯ ¯ ¯
¯ ¯ ¯ ¯ −7 −4 3 ¯
¯ 1 −2 −1 2 ¯ ¯ −7 −4 3 0 ¯ ¯ ¯ ¯
¯ ¯ = ¯¯ = − ¯¯ −2 4 2 ¯¯
¯ 2 5 0 1 ¯ −2 4 2 0 ¯ ¯
¯ ¯ ¯ ¯ 15 6 −7 ¯
¯ 3 3 −1 −3 ¯ ¯ 15 6 −7 0 ¯
¯ ¯ ¯ ¯
¯ −15 12 11 ¯ ¯ −15 12 11 ¯
¯ ¯ ¯ ¯
= − ¯¯ −2 4 2 ¯¯ = − ¯¯ −2 4 2 ¯¯
¯ 15 6 −7 ¯ ¯ 0 18 4 ¯
¯ ¯ ¯ ¯
¯ −15 12 11 ¯ ¯ 0 −18 −4 ¯
¯ ¯ ¯ ¯
= 4 ¯¯ 1 −2 −1 ¯¯ = 4 ¯¯ 1 −2 −1 ¯¯ = 0 ,
¯ 0 9 2 ¯ ¯ 0 9 2 ¯
Sumando las dos últimas tenemos 5x3 = −8+9x1 , reemplazando en la segunda tenemos
x4 = 0. Al reemplazar en la primera ecuación se obtiene
1
5x2 − 2(−8 + 9x1 ) = 15 − 20x1 ⇒ x2 = (−1 − 2x1 )
5
Sean
α = (a1 , a2 , . . . , an )
β = (b1 , b2 , . . . , bn )
Puesto que las soluciones pueden ser interpretadas como vectores en Rn , un conjunto
de soluciones linealmente independiente maximal con respecto al conjunto de todas las
soluciones del sistema puede constar a lo más de n soluciones, entonces existe un con-
junto finito de soluciones del cual todas las demás son combinaciones lineales. Dicho
conjunto se llamará un sistema fundamental de soluciones. Por un teorema previo, to-
dos los conjuntos fundamentales de soluciones constan del mismo número de soluciones.
Demostración: Sin pérdida de generalidad podemos suponer que las incógnitas inde-
pendientes son xr+1 , xr+2 , . . . , xn . Sea d un determinante arbitrario de (n − r) × (n − r)
distinto de cero. Sea
¯ ¯
¯ c1(r+1) c1(r+2 ) ··· c1n ¯¯
¯
¯ c2(r+1) c2(r+2) ··· c2n ¯¯
¯
d=¯ .. .. . .. ¯
¯ . . .. . ¯
¯ ¯
¯ c(n−r)(r+1) c(n−r)(r+2) · · · c(n−r)n ¯
Adoptemos como valores para las incógnitas independientes los elementos de la i-ésima
fila de d, esto es,
sea αi = (ci1 , ci2 , · · · , cir , ci(r+1) , · · · , cin ) la solución del sistema obtenida para dichos
valores de las incógnitas independientes, 1 ≤ i ≤ n − r.
52 CAPÍTULO 2. RELACIONES DE DEPENDENCIA LINEAL
Sea β = (b1 , b2 , . . . , bn ) una solución arbitraria del sistema. Designemos por αi0 , β 0 a
que
β 0 = k1 α10 + k2 α20 + · · · + kn−r αn−r
0
En Rn , sea
n−r
X
δ= ki αi − β .
i=1
A la tercera fila restamos dos veces la primera, sumamos dos veces la segunda y una
vez la cuarta, obtenemos
3 1 −8 2 1
2 −2 −3 −7 −2
A1 =
0 0
0 0 0
1 −5 2 −16 3
luego
−1 5 −2 16 −3 −1 5 −2 16 −3
2 −2 −3 −7 2 2 −2 −3 −7 2
A3 =
1
A4 =
−5 2 −16 3 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0
Es claro que rango A = 2 y que podemos elegir x3 , x4 , x5 como incógnitas indepen-
dientes.
−x1 + 5x2 = 2x3 − 16x4 + 3x5
2x1 − 2x2 = 3x3 + 7x4 − 2x5
Se concluye que , conocida una solución del sistema, basta resolver el correspondiente
sistema homogéneo, ya que todas las soluciones del sistema original son de la forma
β = solución particular + una solución del sistema homogéneo .
54 CAPÍTULO 2. RELACIONES DE DEPENDENCIA LINEAL
Capı́tulo 3
Álgebra de matrices
Dos matrices son iguales si y sólo si sus elementos correspondientes son iguales.
A + B = (aij + bij )
kA = (kaij )
Es trivial que la operación multiplicación de una matriz por un número k tiene las
siguientes propiedades:
i.- 1 · A = A
ii.- k1 (k2 A) = (k1 k2 )A
iii.- k(A1 + A2 ) = kA1 + kA2
iv.- (k1 + k2 )A = k1 A + k2 A
55
56 CAPÍTULO 3. ÁLGEBRA DE MATRICES
AB = (cij )
n
X
donde cij = aik bkj 1 ≤ i ≤ m, 1 ≤ j ≤ q.
k=1
a11 a12 µ ¶
b11
Ejemplo: Sea A = a21 a22 , B = . Entonces
b21
a31 a32
a11 b11 + a12 b21
AB = a21 b11 + a22 b21 .
a31 b11 + a32 b21
A(B + C) = AB + AC
(B + C)A = BA + CA .
¯ ¯
¯ a11 a12 ··· a1n 0 0 ··· 0 ¯
¯ ¯
¯ a21 a22 ··· a2n 0 0 ··· 0 ¯
¯ ¯
¯ .. .. .. .. .. .. .. .. ¯
¯ . . . . . . . . ¯
¯ ¯
¯ an1 an2 ··· ann 0 0 ··· 0 ¯¯
∆ = ¯¯
¯ −1 0 ··· 0 b11 b12 ··· b1n ¯¯
¯ 0 −1 ··· 0 b21 b22 ··· b2n ¯¯
¯
¯ .. .. .. .. .. .. .. .. ¯¯
¯ . . . . . . . . ¯
¯
¯ 0 0 ··· −1 bn1 bn2 ··· bnn ¯
n
X
a1k bk1
k=1
Xn
a2k bk1
k=1
..
.
n
X
ank bk1
k=1
0
0
..
.
0
donde los elementos cij que están en las filas 1,2,. . . , n y las columnas n + 1, n + 2,
. . . , 2n son de la forma
n
X
cij = aik bkj 1 ≤ i ≤ n, 1≤j≤n
k=1
esto es, ellos son los elementos de la matriz AB. Desarrollando ∆ por Laplace pero
ahora por los menores de n × n de las últimas filas se tiene
Pero
n(n + 1)
(n + 1 + n + 2 + · · · + n + n + 1 + 2 + · · · + n) + n = n2 + 2 + n = 2n2 + 2n
2
es par luego ∆ = det AB y también ∆ = det A det B.
análogamente IA = A.
Puesto que det AB = det A det B = 1, para que B pueda existir A debe ser no singular.
Entonces
2 1 −1
A∗ = −4 2 2
2 −1 1
Nótese que
1 0 1 2 1 −1 4 0 0
AA∗ = 2 1 0 −4 2 2 = 0 4 0
0 1 2 2 −1 1 0 0 4
2 1 −1 1 0 1 4 0 0
A∗ A = −4 2 2 2 1 0 = 0 4 0
2 −1 1 0 1 2 0 0 4
Si rango B = p (todas las columnas son l.i.), como el rango de C no puede exceder el
número de columnas de C se tiene rango C ≤ rango B.
esto es,
r
X
bjk = αs bjs j = 1, 2, . . . , n .
s=1
n
X
Puesto que cik = aij bjk se tiene que
j=1
n
X r
X r
X n
X n
X
cik = aij αs bjs = αs aij bjs = αs cis 1 ≤ i ≤ m,
j=1 s=1 s=1 j=1 s=1
esto es
c1k c11 c12 c1r
c2k c21 c22 c2r
.. = α1 .. + α2 .. + · · · + αr ..
. . . .
cmk cm1 cm2 cmr
62 CAPÍTULO 3. ÁLGEBRA DE MATRICES
luego (AB)t = B t At .
Entonces C t = B t At luego rango C t ≤ rango At pero rango C t = rango C, rango At =
rango A luego rango C ≤ rango A.
Luego, en general, al post - multiplicar una matriz A por una matriz B las columnas de
AB son combinaciones lineales de las columnas de A. Se tiene entonces que el sistema
de columns de C se expresa linealmente mediante el sistema de columnas de A, por
teorema previo, rango C ≤ rango A.
n
X
Por otra parte, sea i fijo, entonces cij = aik bkj , 1 ≤ i ≤ n. Consideremos
k=1
n
à n n n
!
X X X X
aik (bk1 , bk2 , . . . , bkp ) = aik bk1 , aik bk2 , · · · , aik bkp = (ci1 , ci2 , . . . , cip )
k=1 k=1 k=1 k=1
Luego, en general, al pre - multiplicar una matriz B por una matriz A las filas de
AB son combinaciones lineales de las filas de B, el sistema de filas de C se expresa
linealmente mediante el sistema de filas de B luego rango AB ≤ rango B.
Capı́tulo 4
Vectores en Rn
4.1. Propiedades
Con el fin de estudiar los sistemas lineales de ecuaciones introdujimos una estructura
algebraica auxiliar a la cual designamos por Rn . Por el momento nos olvidaremos de
las operaciones de suma y multiplicación por un número y focalizaremos nuestro in-
terés en el “conjunto” Rn a cuyos elementos llamaremos “puntos”.
Los puntos P y Q del segmento P Q se llaman los puntos extremos del segmento. El
segmento P Q se dice dirigido si a uno de los puntos extremos P , Q lo llamamos punto
inicial y al otro, punto final. Si el punto inicial es P el segmento dirigido se designa
−−→ −−→
por P Q, si el punto inicial es Q se designa por QP . A los segmentos dirigidos los
llamaremos vectores en Rn , a las n diferencias yi − xi , i = 1, 2, . . . , n, las llamaremos
−−→
las componentes del vector P Q. Según esta definición xi − yi , i = 1, 2, . . . , n, son las
−−→
componentes del vector QP . Dos vectores se dicen iguales si y sólo si sus componentes
correspondientes son iguales. De acuerdo a esta definición de igualdad de vectores,
dos vectores que difieren tanto en su punto inicial como en su punto final pueden ser
iguales, pero una vez elegido arbitrariamente el punto inicial P = (x1 , x2 , . . . , xn ), si
a1 , a2 , . . . , an son las componentes del vector, su punto final Q = (y1 , y2 , . . . , yn )
queda únicamente determinado por las ecuaciones
yi = xi + ai i = 1, 2, . . . , n
63
64 CAPÍTULO 4. VECTORES EN RN
Elijamos arbitrariamente el punto inicial P de ~a, sea Q su punto final. Elegimos co-
mo punto inicial de ~b a Q, sea R su punto final. Llamaremos vector suma de ~a y ~b
−→ −−→ −−→ −→
al vector P R cuyo punto inicial es P y cuyo punto final es R. Entonces P Q+ QR = P R.
yi = xi + ai i = 1, 2, . . . , n
zi = yi + bi i = 1, 2, . . . , n .
−→
Entonces zi = xi + ai + bi luego P R es el vector cuyas componentes son a1 + b1 , a2 +
b2 , . . . , an + bn . Ası́ se tiene que
Es claro que la suma es conmutativa, asociativa, tiene una identidad única que es el
vector nulo y cada vector tiene un único inverso aditivo.
i.- 1 · ~a = ~a
Es claro que
~a · ~b = ~b · ~a
~a · (~b + ~c) = ~a · ~b + ~a · ~c
4.2. SUBESPACIOS DE VECTORES EN RN 65
Diremos que los p vectores ~a1 , ~a2 , . . . , ~ap son l.d. si hay reales no todos nulos λ1 , λ2 ,
. . . , λp tales que
X p
λi~ai = ~0 ,
i=1
esto es, si existe una combinación lineal no trivial de ellos que es igual al vector nulo.
En caso contrario diremos que son l.i. Las propiedades de la relación de dependencia
o independencia lineal entre vectores son análogas a las definidas en Rn por lo tanto
no insistiremos en enunciarlas o demostralas, simplemente las usaremos.
A los vectores ~e1 = {1, 0, . . . , 0}, ~e2 = {0, 1, . . . , 0}, . . . , ~en = {0, 0, . . . , 1} los llamare-
mos la base estándar de V . Ellos son claramente l.i.
Nota: Si L es un subespacio, ~0 ∈ L.
Sean ~a1 , ~a2 , . . . , ~ap vectores en V . Sea
p
X
L = {~a : ~a = λi~ai , λi ∈ R i = 1, 2, . . . , p} ,
i=1
esto es, el conjunto de todas las combinaciones lineales de los vectores ~a1 , ~a2 , . . . , ~ap .
Es claro que L es un subespacio de V . Si H es otro subespacio de V tal que ~a1 , ~a2 , . . . , ~ap ∈
Xn
H entonces λi~ai ∈ H luego L ⊂ H. Se concluye que L es el subespacio más pequeño
i=1
que contiene a los vectores ~a1 , ~a2 , ~a3 , . . . , ~ap . Diremos que L es el subespacio generado
por los vectores ~a1 , ~a2 , . . . , ~ap .
Teorema 4.2 (Teorema de reemplazo de Steinitz) Sean ~a1 , ~a2 , . . . , ~ap vectores
arbitrarios en V , sea L el subespacio generado por ellos. Sean ~b1 , ~b2 , . . . , ~bq q vectores
l.i. en L. Entonces hay un cierto subconjunto de q vectores del conjunto ~a1 , ~a2 , . . . , ~ap
tal que el conjunto de los vectores restantes unido al conjunto ~b1 , ~b2 , . . . , ~bq también
genera a L.
66 CAPÍTULO 4. VECTORES EN RN
Sea ~a1 , ~a2 , . . . , ~ap una base de L, sea ~b ∈ L arbitrario, supongamos que ~b puede
representarse de dos maneras distintas como combinación lineal de los vectores ~a1 , ~a2 ,
. . . , ~ap , esto es,
n
X n
X
~b = λi~ai = µi~ai ,
i=1 i=1
entonces λi = µi , i = 1, 2, . . . , n (los vectores ~a1 , ~a2 , . . . , ~ap son l.i.). Cada ~b ∈ L tiene
una única representación en términos de una base.
Teorema 4.4 Sea L el subespacio generado por los vectores ~a1 , ~a2 , . . . , ~aq . La di-
mensión de L es igual al número máximo de vectores l.i. que hay entre los vectores ~a1 ,
~a2 , . . . , ~aq .
Demostración: Sea p dicho número máximo, supongamos que los vectores dados han
sido ordenados de modo que los p primeros son l.i. Entonces el conjunto de vectores
~a1 , ~a2 , . . . , ~ap , ~ap+k , con 1 ≤ k ≤ q − p, es l.d. luego ap+k es una combinación lineal
de ~a1 , ~a2 , . . . , ~ap
Xp
(k)
~ap+k = λi ~ai ; k = 1, 2, . . . , q − p (4.1)
i=1
q
X
Sea ~b ∈ L, entonces ~b = µi~ai , reemplazando ~ap+1 , ~ap+2 , . . . , ~aq por sus expresiones
i=1
(4.1) vemos que ~b es una combinación lineal de ~a1 , ~a2 , . . . , ~ap .
Entonces L es subconjunto del subespacio generado por ~a1 , ~a2 , . . . , ~ap y es trivial que
el subespacio generado por ~a1 , ~a2 , . . . , ~ap es subconjunto de L luego ambos son iguales
y la dimensión de L es p.
Nota: Sea L un subespacio en V . Sea L∗ otro subespacio de V contenido en L, su-
pongamos que la dimensión de L es p y que la dimensión de L∗ es igual a la de L.
Entonces si ~a1 , ~a2 , . . . , ~ap es una base de L∗ , también lo es de L luego el conjunto de
las combinaciones lineales de ~a1 , ~a2 , . . . , ~ap es igual a L∗ y a L, entonces L∗ = L.
Teorema 4.5 Sea L un subespacio de dimensión p, sean ~b1 , ~b2 , . . . , ~bk un conjunto
arbitrario de vectores l.i. en L, k ≤ p. Entonces ~b1 , ~b2 , . . . , ~bk puede ser extendido a
una base de L agregando de manera ordenada p − k vectores ~ak+1 , ~ak+2 , . . . , ~ap (de
modo que ~b1 , ~b2 , . . . , ~bk , ~ak+1 , . . . , ~ap sea un conjunto l.i.).
Demostración: Sea ~a1 , ~a2 , . . . , ~ap una base de L. Por el teorema de Steinitz (podemos
suponer los ~a1 , ~a2 , . . . , ~ap adecuadamente ordenados) podemos reemplazar ~a1 , ~a2 , . . . ,
68 CAPÍTULO 4. VECTORES EN RN
~ak por ~b1 , ~b2 , . . . , ~bk de modo que el conjunto ~b1 , ~b2 , . . . , ~bk , ~ak+1 , . . . , ~ap también
genera a L. Pero dim L = p luego, por el teorema anterior, ~b1 , ~b2 , . . . , ~bk , ~ak+1 , . . . ,
~ap es l.i.
Nota: Dados dos subespacios L1 , L2 , L1 ∩ L2 es siempre no vacı́o puesto que ~0 ∈
L1 ∩ L2 . Es claro que si ~a ∈ L1 ∩ L2 , λ~a ∈ L1 y λ~a ∈ L2 luego λ~a ∈ L1 ∩ L2 y si
~a, ~b ∈ L1 ∩ L2 , ~a + ~b ∈ L1 y ~a + ~b ∈ L2 luego ~a + ~b ∈ L1 ∩ L2 . Concluı́mos que la
intersección de dos subespacios es un subespacio.
L = {~c : ~c = ~a + ~b, ~a ∈ L1 , ~b ∈ L2 }
Claramente ~0 = ~0 + ~0 luego L 6= ∅.
Análogamente, si ~c1 y ~c2 ∈ L, hay ~a1 , ~a2 ∈ L1 , y ~b1 , ~b2 ∈ L2 tales que ~c1 = ~a1 + ~b1 ,
~c2 = ~a2 + ~b2 , entonces
~c1 + ~c2 = (~a1 + ~a2 ) + (~b1 + ~b2 ) ,
Demostración: Sea ~a1 , ~a2 , . . . , ~ad una base de D. Extendemos esta base a una base
de L1 agregando vectores ~b1 , ~b2 , . . . , ~bq donde q = p1 − d, y también la extendemos a
una base de L2 agregando ~c1 , ~c2 , . . . , ~cr donde r = p2 − d.
Si ~a1 ∈ L1 entonces
d
X q
X
~a1 = λi~ai + µi~bi
i=1 i=1
y si ~a2 ∈ L2 entonces
d
X r
X
~a2 = ρi~ai + σi~ci
i=1 i=1
Puesto que todo vector de S es de la forma ~a1 + ~a2 , todo vector de S es una combi-
nación lineal del conjunto de vectores ~a1 , ~a2 , . . . , ~ad , ~b1 , ~b2 , . . . , ~bq , ~c1 , ~c2 , . . . , ~cr .
r
X r
X r
X
Entonces γi~ci ∈ L1 y como γi~ci ∈ L2 se tiene que γi~ci ∈ D y por lo tanto
i=1 i=1 i=1
r
X Xd
γi~ci = δi~ai . Por construcción la colección ~a1 , ~a2 , . . . , ~ad , ~c1 , ~c2 , . . . , ~cr es l.i.
i=1 i=1
luego γi = 0, i = 1, 2, . . . , r y δi = 0, i = 1, 2, . . . , d y por lo tanto
d
X q
X
αi~ai + βi~bi = ~0
i=1 i=1
dim S = s = d + q + r = d + p1 − d + p2 − d .
Nota: Es claro que para cada natural n hay un Rn y por lo tanto un V . Para n = 2,
V es lo que llamamos “los vectores geométricos en el plano” y para n = 3, V es lo
que llamamos “los vectores geométricos en el espacio”. De ahora en adelante a V lo
designaremos por V n .
Ejemplo: En V 4 sean
Sea L2 el subespacio generado por ~b1 , ~b2 . Encontrar las dimensiones de L1 , L2 , L1 ∩L2 ,
L1 + L2 .
Consideremos el sistema de vectores ~a1 , ~a2 , ~a3 , ~a4 y supongamos que α~a1 + β~a2 +
γ~a3 + δ~a4 = ~0, entonces
3α + 4β + 10γ − δ = 0
−α − β − 3γ + δ = 0
α − 2β − 7δ = 0
2α + 3β + 7γ = 0
Sea
3 4 10 −1
−1 −1 −3 1
A=
1
−2 0 −7
2 3 7 0
70 CAPÍTULO 4. VECTORES EN RN
la matriz del sistema. Puesto que la cuarta fila es suma de las dos primeras ella tiene
el mismo rango que
3 4 10 −1
−1 −1 −3 1
A1 = 1 −2 0 −7
0 0 0 0
la cual tiene el mismo rango que
0 1 1 2
−1 −1 −3 1
A2 =
0
−3 −3 −6
0 0 0 0
¯ ¯
¯ 3 4 ¯¯
la cual tiene rango 2, luego rango A = 2 y como ¯¯ 6 0 las dos primeras
=
−1 −1 ¯
columnas de A son l.i.
Todo vector de L1 es de la forma α~a1 + β~a2 , todo vector de L2 es de la forma γ~b1 + δ~b2 .
Se concluye que S = L1 + L2 es el subespacio generado por ~a1 , ~a2 , ~b1 , ~b2 . Supongamos
que
α~a1 + β~a2 + γ~b1 + δ~b2 = ~0
La matriz del sistema es
3 4 2 5
−1 −1 −4 2
A=
1
−2 −3 2
2 3 7 −1
la cual tiene el mismo rango que
0 1 −10 11
−1 −1 −4 2
A1 =
0
−3 −7 4
0 1 −1 3
la cual tiene el mismo rango que
1 1 4 −2
0 1 −10 11
A2 =
0 −3
−7 4
0 1 −1 3
4.3. VARIEDADES LINEALES 71
El determinante de A7 es
¯ ¯
¯ 1 1 11 ¯ ¯ ¯
¯ ¯ ¯ 1 1 ¯
det A7 = ¯¯ 0 1 1 ¯=¯
¯ ¯ 0 1
¯=1
¯
¯ 0 0 1 ¯
−−→
Es claro que como P0 P tiene una única expresión en la base ~a1 , ~a2 , . . . , ~ap , el juego
de números reales y1 , y2 , . . . , yp es único.
4.3. VARIEDADES LINEALES 73
Definición 4.8 Diremos que el punto P0 y la base ~a1 , ~a2 , . . . , ~ap de L constituyen un
sistema afı́n de coordenadas en M cuyo origen es P0 y tal que las direcciones de los
ejes coordenados están dadas por ~a1 , ~a2 , . . . , ~ap . Lo anotaremos por (P0 , ~a1 , ~a2 , . . . , ~ap ).
Es ası́ como cada punto P ∈ M puede ser representado por una p-tupla (y1 , y2 , . . . , yp )
de números reales y es claro que dado el sistema de coordenadas la correspondencia
entre puntos de M y p-tuplas es 1-1. Sin embargo, si cambiamos P0 , o la base de L
o ambos, el mismo punto P ∈ M está representado por otra p-tupla de números reales.
luego
p
X
(0) (0) (k) (0) (k) (0)
{x1 − x1 , x2 − x2 , . . . , xn − x(0)
n } = λk {x1 − x1 , x2 − x2 , . . . , x(k) (0)
n − xn }
k=1
( p p
)
X (k) (0)
X
= λk (x1 − x1 ), . . . , λk (x(k)
n − x(0)
n )
k=1 k=1
n
X p
X
Llamamos λ0 = 1 − λk entonces λk = 1 y
k=1 k=0
p
X (k)
xi = λk xi i = 1, 2, . . . , n (4.2)
k=0
p
X
Si P ∈ M , existen números reales λ0 , λ1 , . . . , λp tales que λk = 1 y las coordenadas
k=0
−−→
de P pueden ser representadas en la forma (4.2). Como la expresión del vector P0 P
en la base α
~ 1, α
~ 2, . . . , α
~ p es única, el juego λ0 , λ1 , . . . , λp es único.
p
X
A la inversa, dados λ0 , λ1 , . . . , λp tales que λk = 1, entonces el punto P cuyas
k=0
coordenadas están dadas por (4.2) está en la variedad M porque el punto determinado
por
p
−−→ X
P0 P = λk α
~k
k=0
está en M .
Se concluye que los puntos de M están determinados por (4.2) de modo que a cada
p
X
juego de números λ0 , λ1 , . . . , λp tales que λk = 1 le corresponde exactamente un
k=0
punto de M .
Sean α ~ ~γ vectores en V 3 , sean ellos l.d. Entonces hay λ, µ, ν no todos nulos tales
~ , β,
que
α + µβ~ + ν~γ = ~0 .
λ~
Supongamos que λ 6= 0 entonces α ~ = − µ β~ − ν ~γ .
λ λ
Caso 2: Si β~ y ~γ son l.i., sea P0 ∈ R3 arbitrario, sea L el subespacio generado por β~y
~γ . Sea M el plano obtenido de aplicar L en P0 . Como α ~y
~ es combinación lineal de β
~γ , α
~ ∈ L, luego α ~ ~γ son paralelos a M .
~ , β,
Ejemplo: Sea M una variedad lineal en Rn , sean P , Q puntos de M . Demuestre que
la recta por P y Q está contenida en M . A la inversa, sea M tal que si R y S pertenecen
a M , la recta por R y S está contenida en M . Demuestre que M es una variedad lineal.
luego ~γ ∈ L.
No obstante N deja de ser una variedad lineal si p > 0. Supongamos que N es una
variedad lineal, sea L el subespacio que genera a M , L0 el subespacio que genera a
N . Sea R0 un punto arbitrario de M , podemos pensar en M como la variedad que
resulta de aplicar L en R0 . Como p > 0 es posible encontrar un punto R ∈ M , tal que
R 6= R0 . Hay entonces un vector β~ ∈ L tal que β ~=− −→
R0 R. Claramente M ⊂ N luego
−−−→ −−→ ~ están en L0 . Sea S un punto en M dado por −−→ ~ y
α
~ = P0 R0 y P0 R = α ~ +β R0 S = −β,
sea T dado por
−−→ −−→ −−−→ −−→ ~
P0 T = −P0 S = −(P0 R0 + R0 S) = −~ α+β
T está en la recta que pasa por P0 y S luego T ∈ N , entonces −~ α+β ~ ∈ L0 . Como
α
~ +β ~ está también en L0 se tiene que 2β~ ∈ L0 , esto es, el punto Q dado por −−→ ~
P 0 Q = 2β
está en N . Luego Q está en la recta que une a P con un punto Z ∈ M y como R0 6= R
−−→ −−→
necesariamente β 6= 0, por lo tanto, para algún real λ se tiene que P0 Z = λP0 Q. Pero
en tal caso se tiene que
−−−→ −−→ −−→ −−→
R0 P0 = R0 Z + ZP0 = R0 Z − 2λβ ∈ L
luego P0 ∈ M y esto no puede ser.
Sea N 0 el conjunto que resulta de unir N con la variedad lineal que resulta de aplicar
L en P0 . N 0 , a diferencia de N , sı́ es una variedad lineal. En efecto, sea α ~ 1, α ~ 2, . . . , α
~p
−−−→
una base de L, sea α ~ 0 = P0 R0 . Por hipótesis α
~0 ∈
/ L luego α ~ 0, α
~ 1, α
~ 2, . . . , α
~ p son l.i.
Si Q ∈ N hay R ∈ M tal que Q está sobre la recta que une P0 con R y por lo tanto,
−−→ −−→ −−−→ −−→ −−→
para algún real λ se tiene que P0 Q = λP0 R. Pero P0 R0 + R0 R = P0 R. Como
p
à p
!
−−→ X −−→ X
R0 R = ai α
~i , P0 Q = λ α ~0 + ai α
~i
i=1 i=1
4.3. VARIEDADES LINEALES 77
p
−−→ X
luego P0 Q = ~ i . Sea L0 el subespacio de dimensión p + 1 generado por α
bi α ~ 0, α
~ 1,
i=0
α ~ p . Entonces Q se obtiene aplicando un vector de L0 en P0 .
~ 2, . . . , α
p
X
~ =
A la inversa, sea β ~ en P0 y sea
~ i un vector cualquiera de L0 , apliquemos β
bi α
i=0
Q ∈ Rn tal que β~=− −→
P0 Q. Consideremos la recta por P0 y Q. Sea R un punto arbitrario
−−→ ~=− −−→ −−→
de dicha recta, entonces P0 R = λβ P0 R0 + R0 R luego
p p
−−→ X X
R0 R = λbi α
~i − α
~ 0 = (λb0 − 1)~
α0 + λbi α
~i .
i=0 i=1
A la inversa, sea α
~ ∈ L, queremos demostrar que al aplicar α ~ en S0 obtenemos un
punto S ∈ N . En efecto, si Q es el punto que resulta de copiar λ1 α
~ en Q0 (punto que
está en M ) tenemos que
−−→ −−−→ −−→ −−−→
λP0 Q = λ(P0 Q0 + Q0 Q) = P0 S0 + α
~
−−→ −−→
luego P0 S = λP0 Q y S ∈ N .
Pero α ~ son l.i. entonces λ1 = λ2 , µ1 = µ2 , luego no puede haber más que un punto
~, β
en L1 ∩ L2 .
p
X
La matriz de (4.3) tiene rango p. Sea λj α
~ j ∈ L, sea ~x una solución de (4.3).
j=1
Entonces
p
X p
X
~x · λj α
~j = λj (~x · α
~ j) = 0 ,
j=1 j=1
Nótese que si ~x1 , ~x2 son ortogonales a L, α~x1 + β~x2 es ortogonal a L luego L0 , el
conjunto de los vectores de V n que son ortogonales a L es un subespacio de V n , que
coincide con el espacio de soluciones de (4.3) luego dim L0 = n − p.
Pero β~1 , β
~2 , . . . , β
~n−p son en particular ortogonales a α
~ 1, α
~ 2, . . . , α
~ p luego
~1 · α
β ~i = 0 , β~2 · α
~i = 0 , ... , ~n−p · α
β ~i = 0 i = 1, 2, . . . , p
(4.4) es un sistema homogéneo cuyas soluciones son todos los vectores ortogonales a
L0 luego su espacio de soluciones tiene dimensión p. Como α ~ 1, α
~ 2, . . . , α
~ p son l.i. y
están en dicho espacio de soluciones, tal espacio de soluciones es precisamente L.
~i · ~y = 0
β i = 1, 2, . . . , n − p , ~y = {y1 , y2 , . . . , yn }
Teorema 4.13 Sea M una variedad lineal en Rn . Entonces existe un sistema lineal
con n incógnitas tal que el conjunto de sus soluciones es M .
Consideraciones sobre
distancia y volumen en Rn
zi = xi + λ(yi − xi ) i = 1, 2, . . . , n −∞<λ<∞
k~
αk se llama la norma de α
~.
Nótese que k~
αk = 0 sii sus puntos extremos coinciden, esto es, k~ ~ = ~0.
αk = 0 sii α
83
84 CAPÍTULO 5. DISTANCIA Y VOLUMEN EN RN
luego
~ · β~ ≤ 1
α (5.1)
Hay igualdad en (5.1) sii α ~
~ = β.
α
~ ~
β
~ , β~ vectores arbitrarios distintos de ~0, por (5.1)
Sean α · ≤ 1 luego
k~
αk ~
kβk
α ~ ≤ k~
~ ·β ~
αkkβk (5.2)
α) · β~ ≤ k − α
(−~ ~
~ kkβk ⇒
−(~ ~ ≤ k~
α · β) ~
αkkβk
¯ ¯
¯ α β~ ¯¯ ~
~ ~ ~ ¯ ~ α
~ β
Si α
~ yβ son tales que |~α · β| = k~
αkkβk entonces ¯ · ¯ = 1. Si · =1
¯ k~αk kβk ~ ¯ k~
αk kβk ~
α
~ β~ α
~ β~ (−~α) β~ α
~ β~
entonces = , si · = −1, · = 1 y − = . Hay
k~
αk ~
kβk k~
αk kβk ~ k~
αk kβk ~ k~
αk kβk~
k~αk ~
igualdad sii α
~ =± β.
~
kβk
P R ≤ P Q + QR
−−→ −−→ ~ −→ −−→ −−→
Demostración: Sean P Q = α
~ , QR = β, entonces P R = P Q + QR luego
2
PR = k~ ~ 2 = (~
α + βk ~ · (~
α + β) ~ = k~
α + β) αk2 + 2~ ~ + kβk
α·β ~ 2
αk2 + 2k~
≤ k~ ~ + kβk
αkkβk ~ 2 = (k~ ~ 2
αk + kβk)
⇒ PR ≤ k~ ~ = P Q + QR
αk + kβk
k~ ~ ≤ k~
α + βk ~
αk + kβk
yi = xi + λ(zi − xi ) i = 1, 2, . . . , n 0≤λ≤1
5.2. VOLÚMENES Y DETERMINANTES 85
Pero
zi − yi = zi − xi − (yi − xi ) = (1 − λ)(zi − xi ) i = 1, 2, . . . , n
à n ! 12 à n ! 12
X X
2 2
P Q + QR = |λ| (zi − xi ) + |1 − λ| (zi − xi ) = PR
i=1 i=1
α ~
~ ·β
cos γ = .
k~ ~
αkkβk
Nota: La desigualdad de Cauhy-Schwarz garantiza que la definición es correcta.
Nota: Sean α ~ distintos de cero. Entonces cos γ = 0 sii α
~, β ~ ·β~ = 0. Decimos que α
~ y
~ son ortogonales. En Rn euclideo, los vectores ~ei de la base estándar son mutuamente
β
ortogonales.
−→ −−→ −−→
Luego AP = λ1 AB + λ2 AD, 0 ≤ λ1 , λ2 ≤ 1.
−−→ −−→
A la inversa, si al aplicar el vector λ1 AB + λ2 AD en A para llevarlo al punto O, tal
punto P pertenece al paralelógramo si 0 ≤ λ1 , λ2 ≤ 1.
El volumen del paralelotopo n-dimensional debe ser solo una función de las aristas, lo
anotaremos como V (~α1 , α
~ 2, . . . , α
~ n ).
Para establecer una unidad de medida, al paralelotopo cuyas aristas son los vectores
de la base estándar le asignaremos el volumen 1, esto es
En Rn euclı́deo, los vectores ~e1 , ~e2 , . . . , ~en tienen longitud uno y aristas mutuamente
ortogonales. A un paralelotopo n-dimensional cuyas aristas tienen todas la misma lon-
gitud y son todas mutuamente ortogonales le llamaremos cubo n-dimensional.
D C E
2
ABCD y ABEC son equivalentes. Los par-
a
a2 a+ 1 alelógramos cuyas aristas son α ~ 1, α
~2 y α
~ 1,
α
~1 + α ~ 2 tienen la misma área.
A a1 B
H G L Los paralelepı́pedos ABCDEF GH y
ABCDF KLG son equivalentes. Los par-
E F alepı́pedos cuyas aristas son α
~ 1, α
~ 2, α
~3 y α
~ 1,
K α
~ 2, α
~1 + α
~ 3 tienen el mismo volumen.
3
+a
V (~
α1 , α
~ 2, . . . , α
~ i, . . . , α
~ n ) = V (~
α1 , α
~ 2, . . . , α
~i + α
~ k, . . . , α
~ n)
donde k 6= i, 1 ≤ k ≤ n.
Si en un paralelotopo de aristas α ~ 1, α
~ 2, . . . , α
~ n reemplazamos la arista α~ i, 1 ≤ i ≤ n
por α~i + α ~ k , 1 ≤ k ≤ n, k 6= i, el nuevo paralelotopo de aristas α ~ 1, α
~ 2, . . . , α
~ i +~
αk ,
..., α
~ n tiene el mismo volumen que el original.
A a1 B V (~
α1 , α
~ 2 , . . . , λ~
αi , . . . , α
~ n ) = |λ|V (~
α1 , α
~ 2, . . . , α
~ i, . . . , α
~ n)
Si en un paralelotopo de aristas α
~ 1, α
~ 2, . . . , α
~ n reemplazamos la arista α
~ i por λ~
αi el
volumen queda multiplicado por |λ|.
i.- V (~
α1 , α
~ 2, . . . , α
~ n) ≥ 0
ii.- V (~
α1 , α
~ 2, . . . , α
~ i, . . . , α
~ n ) = V (~
α1 , α
~ 2, . . . , α
~i + α
~ k, . . . , α
~ n) i 6= k
iii.- V (~
α1 , α
~ 2 , . . . , λ~
αi , . . . , α
~ n ) = |λ|V (~
α1 , α
~ 2, . . . , α
~ n)
Queremos demostrar que tal función existe y es única. Quitemos la restricción de que
los vectores α
~ 1, α
~ 2, . . . , α
~ n deben ser l.i. y permitamos que cualquier n-tupla de vec-
tores de V n pueda ser argumento de la función V (~ α1 , α
~ 2, . . . , α
~ n ). Con este propósito
88 CAPÍTULO 5. DISTANCIA Y VOLUMEN EN RN
i.- D(~
α1 , α
~ 2, . . . , α
~ i, . . . , α
~ n ) = D(~
α1 , α
~ 2, . . . , α
~i + α
~ k, . . . , α
~ n) i 6= k
ii.- D(~
α1 , α
~ 2 , . . . , λ~
αi , . . . , α
~ n ) = λD(~
α1 , α
~ 2, . . . , α
~ i, . . . , α
~ n)
Sean α
~ i = {ai1 , ai2 , . . . , ain }, i = 1, 2, . . . , n, sea A a matriz de n × n cuyas filas son los
vectores α
~ i . No es difı́cil demostrar, usando i), ii) y iii) que D(~ α1 , α
~ 2, . . . , α
~ n ) goza de
las mismas propiedades que las de las filas (columnas) de det A, a saber:
i.- D(~
α1 , α
~ 2, . . . , α
~ i, . . . , α
~ n ) = D(~
α1 , α
~ 2, . . . , α
~ i + λ~
αk , . . . , α
~ n) i 6= k, λ real.
n
X
ii.- D(~
α1 , α
~ 2, . . . , α
~ i, . . . , α
~ n ) = D(~
α1 , α
~ 2, . . . , α
~i + λk α
~ k, . . . , α
~ n ).
k=1,k6=i
iii.- Si α
~ i = 0, 1 ≤ i ≤ n, D(~
α1 , α
~ 2, . . . , α
~ n ) = 0.
iv.- Si α
~ 1, α
~ 2, . . . , α
~ n son l.d., D(~
α1 , α
~ 2, . . . , α
~ n ) = 0.
v.- D(~
α1 , α
~ 2, . . . , α
~ i, . . . , α
~ k, . . . , α
~ n ) = −D(~
α1 , α
~ 2, . . . , α
~ k, . . . , α
~ i, . . . , α
~ n ).
~ + ~γ , α
vi.- D(β ~ 2, . . . , α ~ α
~ n ) = D(β, ~ 2, . . . , α
~ n ) + D(~γ , α
~ 2, . . . , α
~ n ).
r
X
vii.- Sea α
~i = βik , i = 1, 2, . . . , n
k=1
r
X
⇒ D(~
α1 , α
~ 2, . . . , α
~ n) = D(β1ν1 , β2ν2 , β3ν3 , . . . , βnνn ) .
ν1 ,...,νn =1
viii.- Si α
~ 1, α
~ 2, . . . , α
~ n son l.i., D(~
α1 , α
~ 2, . . . , α
~ n ) 6= 0.
Tenemos que demostrar que existe una función que satisface las propiedades i), ii) y
iii) y que es única. La demostración se hace por inducción y no la entregaremos porque
excede el ámbito de estas notas. Pero lo que se obtiene esencialmente es lo siguiente:
Definamos V (~
α1 , α
~ 2, . . . , α
~ n ) = |D(~
α1 , α
~ 2, . . . , α
~ n )|.
5.2. VOLÚMENES Y DETERMINANTES 89
Consideremos V (~ α1 , α
~ 2, . . . , α
~ n )sgn D(~
α1 , α
~ 2, . . . , α
~ n ). Queremos demostrar que ella
satisface las propiedades i), ii), iii) de la función determinante.
Ni V (~
α1 , α
~ 2, . . . , α
~ n ) ni sgn D(~
α1 , α
~ 2, . . . , α
~ n ) cambian cuando se reemplaza α
~ i por
α
~i + α
~ k luego satisface i).
V (~
α1 , α
~ 2, . . . , α
~ n )sgn D(~
α1 , α
~ 2, . . . , α
~ n ) = D(~
α1 , α
~ 2, . . . , α
~ n)
Si D(~
α1 , α
~ 2, . . . , α
~ n ) 6= 0,
V (~
α1 , α
~ 2, . . . , α
~ n )(sgn D(~
α1 , α ~ n ))2
~ 2, . . . , α = sgn D(~
α1 , α
~ 2, . . . , α
~ n )D(~
α1 , α
~ 2, . . . , α
~ n)
= |D(~
α1 , α
~ 2, . . . , α
~ n )| ,
Sistemas de coordenadas
Decimos que y1 , y2 , . . . , yp son las coordenadas del punto P con respecto al sistema de
coordenadas [P0 ; α ~ 1, α ~ p ]. Puesto que Rn es una variedad lineal n-dimensional,
~ 2, . . . , α
si β~1 , β~2 , . . . , β
~n es una base de V n y Q ∈ Rn , para cada P ∈ Rn podemos escribir
(de manera única)
n
−−→ X ∗ ~
QP = i x βi
i=1
Decimos que x∗1 , x∗2 , . . . , x∗n son las coordenadas del punto P en el sistema de coorde-
nadas [Q; β~1 , β
~2 , . . . , β
~n ], el punto Q tiene coordenadas 0,0,. . . , 0.
Con respecto al sistema de coordenadas [O; ~e1 , ~e2 , . . . , ~en ], las coordenadas de P coin-
ciden con los elementos de la n-tupla (x1 , x2 , . . . , xn ).
91
92 CAPÍTULO 6. SISTEMAS DE COORDENADAS
X X n X n n
−→ −−→ −−→ ~i + ~i =
P R = P Q + QR = − x∗i β yi∗ β (yi∗ − x∗i )β~i
i=1 i=1 i=1
−→
luego P R tiene componentes (yi∗ − x∗i ), i = 1, 2, . . . , n en el sistema dado. Si α~ =
Xn n
X
a∗i β~i , λ~
α = ~i luego λ~
(λa∗i )β α tiene componentes λa∗i , i = 1, 2, . . . , n en el
i=1 i=1
n
X
~=
sistema dado. Si β ~i entonces
b∗i β
i=1
n
X
~ + β~ =
α (a∗i + b∗i )β~i ,
i=1
m m
à n
! n
Ãm !
X X X X X
λi α
~i = λi ~k
a∗ik β = λi a∗ik ~k = ~0 .
β
i=1 i=1 k=1 k=1 i=1
n
Ãm ! m
X X X
λi a∗ik ~k = 0
β ⇒ λi a∗ik = 0 k = 1, 2, . . . , n
k=1 i=1 i=1
6.1. TRANSFORMACIÓN DE COORDENADAS 93
Se concluye que el número de vcetores l.i. que contiene un sistema linealmente inde-
pendiente maximal del conjunto α ~ 1, α
~ 2, . . . , α
~ m es igual al número de vectores que
contiene un sistema linealmente independiente maximal del conjunto de filas de la
matriz (a∗ik ) y es por lo tanto igual al rango de dicha matriz.
Sean
n
X n
−−0−→ −−00−→0 X
Q Q00 = ~i
si β Q Q = ti~γi
i=1 i=1
n
X n
X
~k =
β vik~γi ~γk = uik β~i k = 1, 2, . . . , n
i=1 i=1
n
X −−→ −−−→ −−→
yi = ti + vik xk i = 1, 2, . . . , n . Análogamente, Q0 P = Q0 Q00 + Q00 P luego
k=1
Xn
xi = si + uik yk i = 1, 2, . . . , n
k=1
(6.1)
Decimos que (6.1) es una transformación de coordenadas del primer sistema al segundo
o viceversa.
n
X n
X
α
~ = ~k =
ak β bk~γk
k=1 k=1
n n
à n !
X X X
bi~γi = vik ak ~γi
i=1 i=1 k=1
Xn
bi = vik ak i = 1, 2, . . . , n
i=1
Análogamente
n n
à n !
X X X
ai β~i = uik bk ~i
β
i=1 i=1 k=1
Xn
ai = uik bk i = 1, 2, . . . , n
k=1
Como β~1 , β ~2 , . . . , β~n son l.i., el rango de (vik ) es igual a n. Como ~γ1 , ~γ2 , . . . , ~γn son
l.i., el rango de (uik ) es igual a n. Se concluye que det(vik ) y det(uik ) son distintos de
cero.
~1 , β~2 , . . . , β
Problema: Supongamos que sólo [Q0 ; β ~n ] es dado y que también el sistema
de ecuaciones
Xn
yi = ti + vik xk i = 1, 2, . . . , n
k=1
n
−−−→ X
Sea Q00 el punto tal que Q0 Q00 = si β~i y definamos ~γ1 , ~γ2 , . . . , ~γn por
i=1
n
X
~γk = ~i .
uik β
i=1
El análisis previo nos dice que ~γ1 , ~γ2 , . . . , ~γn son l.i. entonces [Q00 ; ~γ1 , ~γ2 , . . . , ~γn ] es el
sistema de coordenadas pedido.
~1 , β
Análogamente, dada una base β ~2 , . . . , β~n y el sistema de ecuaciones
n
X
bi = vik ak i = 1, 2, . . . , n det(vik ) 6= 0
i=1
podemos encontrar una segunda base ~γ1 , ~γ2 , . . . , ~γn tal que estas ecuaciones represen-
tan las ecuaciones de transición para las componentes de un vector al pasar de la base
~1 , β
β ~2 , . . . , β~n a la base ~γ1 , ~γ2 , . . . , ~γn .
~1 , β~2 , . . . , β
Sea [Q0 ; β ~n ] un sistema de coordenadas en el cual toda variedad lineal de
dimensión p es representable por un sistema lineal de ecuaciones cuya matriz tiene
rango n − p y tal que, a la inversa, todo sistema de esa naturaleza representa una
variedad lineal de dimensión p. Existen sistemas de coordenadas ası́, [O; ~e1 , ~e2 , . . . , ~en ]
es uno.
Sea [Q00 ; ~γ1 , ~γ2 , . . . , ~γn ] otro sistema de coordenadas y supongamos que las ecuaciones
~1 , β
de transición para pasar del sistema [Q00 ; ~γ1 , ~γ2 , . . . , ~γn ] al sistema [Q0 ; β ~2 , . . . , β~n ]
son
Xn
xi = si + uik yk i = 1, 2, . . . , n
k=1
96 CAPÍTULO 6. SISTEMAS DE COORDENADAS
Llamemos
~δi = {ui1 , ui2 , . . . , uin } i = 1, 2, . . . , n
~y = {y1 , y2 , . . . , yn }
n
X
aik xk = bi i = 1, 2, . . . , n
k=1
Los vectores ~δ1 , ~δ2 , . . . , ~δn son l.i., luego, por un teorema previo, el número de vec-
tores de cualquier subconjunto linealmente independiente maximal de α ~ 1, α
~ 2, . . . , α
~n
es igual al rango de (aik ) el cual es n − p, de modo que la matriz del sistema (6.3) tiene
rango n − p.
Sean α~ i = {ai1 , ai2 , . . . , ain }, i = 1, 2, . . . , n, sean a∗i1 , a∗i2 , . . . , a∗in las componentes de
~ i con respecto a la base β~1 , β~2 , . . . , β
α ~n , se tiene
n
X
α
~i = ~ν
a∗iν β
ν=1
Sean vi1 , vi2 , . . . , vin las componentes del vector β ~i con respecto a la base estándar,
se tiene
X n
~i = {vi1 , vi2 , . . . , vin } =
β vik~ek
k=1
n
X
Puesto que α
~i = aik~ek tenemos que
k=1
n n
à n
! n
à n !
X X X X X
aik~ek = a∗iν vνk~ek = a∗iν vνk ~ek
k=1 ν=1 k=1 k=1 ν=1
luego
n
X
aik = a∗iν vνk i, k = 1, 2, . . . , n
ν=1
esto es, la matriz (aik ) resulta de multiplicar las matrices (a∗ik ) y (vik ), luego
donde el volumen pedido es | det(aik )|. La ecuación (6.4) dice que tal volumen puede
~1 , β
ser calculado conociendo las componentes de las aristas en el sistema [Q; β ~2 , . . . , β~n ]
~
y las expresiones de los vectores βi en la base estándar.
Sean
n
X
~a = {a1 , a2 , . . . , an } ~a = a∗i β~i
i=1
n
X
~b = {b1 , b2 , . . . , bn } ~b = b∗i β~i
i=1
n
à n ! à n !
X X X
~a · ~b = ai bi = ~i
a∗i β · ∗~
bk βk
i=1 i=1 i=1
Xn X n
= a∗i b∗k (β~i · β
~k )
i=1 k=1
Vemos que la fórmula no es análoga a la original en que las componentes están dadas
con respecto a la base estándar. Si β~i · β
~k = 0 i 6= k, β
~i · β
~k = 1 si i = k entonces
n
X
~a · ~b = a∗i b∗i (6.5)
i=1
Vemos que [Q; ~e1 , ~e2 , . . . , ~en ] es un sistema de coordenadas cartesianas luego no hay
problema con su existencia.
~1 , β
Sean [Q0 ; β ~2 , . . . , β
~n ], [Q00 ; ~γ1 , ~γ2 , . . . , ~γn ] cartesianos, sean
n
X
β~k = vik~γi
i=1 k = 1, 2, . . . , n
Xn
~γk = uik β~i
i=1
vjk = ukj 1 ≤ j, k ≤ n
6.3. VOLÚMENES Y SISTEMAS DE COORDENADAS CARTESIANAS 99
de donde
n
X
~γk = ~i
vki β (6.6)
i=1
Análogamente se tiene
n
X
~γk · ~γj = vki vji = δkj k, j = 1, 2, . . . , n
i=1
Tenemos entonces que las filas y las columnas de (vik ) forman sistemas ortonormales
de vectores. Tales matrices se dicen ortogonales.
n
X
En vik vij = δkj multipliquemos por Vhj donde Vhj es el adjunto de vhj en det(vkj ),
i=1
donde h es un entero fijo entre 1 y n, luego sumamos las n ecuaciones resultantes:
n
à n ! n
X X X
vik vij Vhj = δkj Vhj
j=1 i=1 j=1
n
X Xn
vij Vhj vik = Vhk
i=1 j=1
n
X
(δih det(vik ))vik = Vhk
i=1
vhk det(vik ) = Vhk
Si las columnas de una matriz forman un sistema ortonormal, sus filas también forman
un sistema ortonormal.
Por otra parte, si las filas de una matriz forman un sistema ortonormal, las columnas
de la traspuesta forman un sistema ortonormal y por lo tanto las filas de la traspuesta
también, luego si las filas de una matriz forman un sistema ortonormal, sus columnas
también forman un sistema ortonormal.
∴ | det(vik )| = 1
Problema: Queremos calcular el volumen de un paralelotopo cuyas aristas α
~ 1, α
~ 2,
..., α ~1 , β
~ n están en un sistema cartesiano [Q; β ~2 , . . . , β~n ].
n
X n
X
Si α
~i = ~k y β~i =
a∗ik β vik~ek como det(ak ) = det(a∗ik ) det(vik ) el volumen pedido
k=1 k=1
es
| det(aik )| = | det(a∗ik )|| det(vik )| ,
como β~1 , β~2 , . . . , β~n es ortonormal entonces | det(vik )| = 1 luego el volumen pedido
es | det(a∗ik )|. Se concluye que la fórmula para el volumen es la misma para todos los
sistemas cartesianos.
~1 , β~2 , . . . , β
Lema 6.5 β ~n puede ser deformado continuamente en β~1 , β
~2 , . . . , β
~i , ~δ,
f~i (t) = β
~i + tβ
~k , 0 ≤ t ≤ λ; ~j , j 6= i, 0 ≤ t ≤ λ
fj (t) = β
esto es,
~1 , β
Lema 6.6 El sistema de vectores β ~2 , . . . , β~n puede ser continuamente deformado
sin cambio alguno en el valor del determinante, en cualquier sistema que provenga de
él por un cambio simultáneo del signo de dos vectores, digamos, sustituyendo β~i , β~k
~i , −β
por −β ~k .
Demostración: Consideremos la operación del primer lema como una del siguiente
tipo:
~j permanece igual.
Si j 6= i, j 6= k, β
~i
β 7→ β ~i + 2β
~k β~ + 2β
~k 7→ β ~i + 2β~k ~i + 2β
β ~k 7 → −β~i
~ ~ , luego i ~ ~ ~ , luego ~ ~
βk 7 → βk βk 7 → −βi − βk −βi − βk 7→ −β~i − β~k
6.4. DEFORMACIÓN CONTINUA DE SISTEMAS DE COORDENADAS 103
−β~i 7→ ~i
−β
y por último ~k .
−β~i − β
~k 7 → −β
(esto implica una deformación continua del sistema de filas de la nueva matriz las
cuales son en realidad los nuevos vectores β~i , esto es porque al deformar continua-
mente el sistema de columnas de la nueva matriz de todos modos hubo que encontrar
n2 funciones gik (t) que produjesen la deformación. Para interpretarlas como deforma-
ciones continuas de los nuevos β~i basta considerarlas en el orden adecuado).
Sea α
~ 1, α
~ 2, . . . , α
~ p una base de L. Si p = 1, β ~1 = α~ 1 constituye un tal sistema.
k~
α1 k
Supongamos que todos los subespacios de dimensión p − 1 tienen una base ortonormal,
sea L0 el subespacio generado por α ~ 1, α ~ p−1 . Por hipótesis, L0 tiene una base
~ 2, . . . , α
ortonormal β~1 , β~2 , . . . , β
~p−1 . El sistema β ~1 , β~2 , . . . , β
~p−1 , α ~p
~ p es l.i. luego un vector β
~ ~ ~ ~
con kβp k = 1 y ortogonal a β1 , β2 , . . . , βp−1 debe ser de la forma
n−1
X
~p =
β λi β~i + λp α
~p .
i=1
0 = λi + λp (~ ~i )
αp · β ⇒ λi = −λp (~ ~i )
αp · β 1≤i≤p−1
à p−1
!
X
~p = λp
luego β α
~p − αp · βi )βi . Como kβ~p k = 1 y β
(~ ~ ~ ~1 , β
~2 , . . . , β~p−1 , α
~ p es l.i.
i=1
° °
° p−1
X °
° ~i )β~i °
podemos concluir que °α~p − (~αp · β ° 6= 0 y
° °
i=1
1
λp = ± ° °
° p−1
X °
° ~i °
°α~p − αp · β~i )β
(~ °
° °
i=1
~1 , β
luego β ~2 , . . . , β~p con
p−1
X
α
~p − αp · β~i )β
(~ ~i
~p = ± °
β i=1
°
° p−1
X °
° ~i °
°α~p − αp · β~i )β
(~ °
° °
i=1
6.6. DISTANCIA Y VARIEDADES LINEALES 105
~i , basta tomar
Esta fórmula proporciona un método recursivo para determinar los β
~ α
~1
β1 = k~α1 k entonces
~1 )β
~1
~2 = α
β
~ 2 − (~
α2 · β
,
k~
α2 − (~ ~1 )β
α2 · β ~1 k
~1 , β
Sea β ~2 , . . . , β
~p una base ortonormal de L, la extendemos a una base ortonormal de
V , llamaremos L0 al subespacio generado por β
n ~p+1 , β
~p+1 , . . . , β~n . Es claro que todo
vector de L0 es ortogonal a todo vector de L y si α ~ ∈ L ∩ L0 entonces
p
X n
X
α
~= λi β~i = λi β~i
i=1 i=p+1
luego λi = 0, i = 1, 2, . . . , n, y α
~ = 0.
Sea α
~ un vector cualquiera que es ortogonal a todos los vectores de L. Entonces
Xn
α
~ = ~i y a1 = a2 = · · · = ap = 0 luego α
ai β ~ ∈ L0 . Se concluye que el conjun-
i=1
to de todos los vectores ortogonales a L es el subespacio L0 .
−−→
Sea Q = (y1 , y2 , . . . , yn ) tal que Q ∈
/ M . ¿Existe un punto P ∈ M tal que P Q es
ortogonal a todos los vectores de L?
Sea P0 ∈ M arbitrario,
n
−−→ X ~
P0 Q = λi βi
i=1
p
X
~=
y llamemos β ~ en P0 , P0 se transforma en P , esto es, −
~i , al aplicar β
λi β
−→
P0 P = β~ y
i=1
n
X
−−→ −−→ −−→ −−→ ~i , −
−→
como β~ ∈ L entonces P ∈ M . Pero P0 Q = P0 P + P Q luego P Q = λi β P Q ∈ L0 ,
i=p+1
106 CAPÍTULO 6. SISTEMAS DE COORDENADAS
luego P es uno de los puntos buscados. Queremos demostrar que P es único. Sea P 0
n
−−→ X −−→ ~
otro. P 0 Q = µi β~i y P 0 Q · βi = 0, i = 1, 2, . . . , p luego µi = 0, i = 1, 2, . . . , p
i=1
n
X
−−0→ −−0→ −−→ −−0→ −−0→ −−→
P Q = P P + PQ P P = P Q − PQ = ~i
(µi − λi )β
i=p+1
−−→ −−→
luego P 0 P ∈ L0 y como P 0 , P ∈ M entonces P 0 P ∈ L. Como L ∩ L0 = {0} se sigue que
P = P 0.
−−→
Llamaremos al segmento P Q (o al vector P Q) la perpendicular de Q a M , P se llama
el pie de la perpendicular.
v v
u X u X
u n u n −−→ ~ 2
PQ = t λ2i = t [(P0 Q · βi )]
i=p+1 i=p+1
luego P0 Q ≥ P Q.
p
X −−→ −−→ ~
Hay igualdad sólo si [(P0 Q · β~i )]2 = 0, esto es sólo si P0 Q · βi = 0, i = 1, 2, . . . , p, y
i=1
esto se da sólo si P0 = P .
y está compuesto por todas las soluciones vectoriales de tal sistema. Si ~x = {x1 , x2 , . . . , xn }
es una solución vectorial y α
~ i = {ai1 , ai2 , . . . , ain }, i = 1, 2, . . . , r es un vector fila de
la matriz del sistema se tiene que α~ i · ~x = 0, i = 1, 2, . . . , r luego ellos son todos ortog-
onales a L. Sea L0 el subespacio de todos los vectores ortogonales a L, sabemos que L0
6.6. DISTANCIA Y VARIEDADES LINEALES 107
−−→
Si P = (x1 , x2 , . . . , xn ) es una solución de este sistema, entonces P0 P · β~p+i = 0,
−−→ −−→
i = 1, 2, . . . , r luego P0 P ∈ L y por lo tanto P ∈ M . A la inversa, si P ∈ M , P0 P ∈ L
y es solución vectorial del sistema homogéneo, luego es ortogonal a todos los vectores
de L0 y por lo tanto es solución de (6.8). Se concluye que (6.8) representa a M .
r
" n #2
2 X X
PQ = vik (yk − zk )
i=1 k=1
El caso más común es aquel en que M es un hiperplano, esto es, M tiene dimensión
n − 1. En tal caso M está dado por una sóla ecuación
n
X
ai xi = b
i=1
La nueva ecuación de M es
n
X ax b
v i i =v
uX u
i=1 u n 2 uXn
t ai t a2i
i=1 i=1
luego P = Q.
luego
n
X
−−→
PQ = λi β~i
i=p+1
−−→
luego P Q ∈ L0 y es ortogonal a todos los vectores de S y por lo tanto a todos los
vectores de L1 y L2 .
−−−→ −−−→
Sean P 0 ∈ M1 , Q0 ∈ M2 tales que P 0 Q0 es una perpendicular común. Entonces P 0 Q0 ∈
Xn
−−→ ~i y
L0 luego P Q = µi β
i=p+1
n
X
−−→ −−0−→0 ~i
PQ − P Q = (λi − µi )β
i=p+1
−−→ −−→ −−−→ −−→ −−→ −−−→
también está en L0 . Pero P Q = P P 0 + P 0 Q0 + Q0 Q luego P Q − P 0 Q0 ∈ S luego debe ser
−−→ −−−→
el vector ~0 puesto que L0 ∩ S = {~0} de donde P Q = P 0 Q0 . Todas las perpendiculares
comunes son paralelas y de igual longitud.
−−→ −−→ −−→ −−→ −−→ −−→
También se deduce que P P 0 + Q0 Q = ~0 luego P P 0 = QQ0 . Pero P P 0 ∈ L1 , QQ0 ∈ L2
−−→0 −−→0
luego P P = QQ ∈ L1 ∩ L2 .
−−→ −−→
A la inversa, sea ~γ ∈ L1 ∩ L2 , sean P 0 ∈ M1 , Q0 ∈ M2 tales que P P 0 = ~γ , QQ0 = ~γ .
−−→ −−→ −−→ −−→ −−→ −−−→ −−−→
Como P P 0 ∈ L1 , QQ0 ∈ L2 y P P 0 = QQ0 = ~γ se tiene que P Q = P 0 Q0 luego P 0 Q0 es
una perpendicular común.
−−→
Sean P y Q, P ∈ M1 , Q ∈ M2 tales que P Q es una perpendicular común. Sea
−−→ −−→
D = L1 ∩ L2 , sea ~γ ∈ D. Si P 0 ∈ M1 es tal que P P 0 = ~γ , Q0 ∈ M2 es tal que QQ0 ∈ L2
−−−→
entonces P 0 Q0 también es una perpendicular común y todas se obtienen de esta manera.
n
−−−→ X ~
Volvamos atrás, si P0 ∈ M1 , Q0 ∈ M2 , P0 Q0 = λi βi y P y Q fueron obtenidos de
i=1
n
X
−−→ −−→ ~i luego P0 Q0 ≥
modo que P Q fuese una perpendicular común entonces P Q = λi β
i=p+1
P Q y como todas las perpendiculares comunes tienen igual longitud, la longitud de
cualquiera de ellas es la distancia más corta entre M1 y M2 . Para que exista igualdad
−−−→
necesariamente λi = 0, i = 1, 2, . . . , s, luego P0 Q0 ∈ L0 y es una perpendicular común.
Se concluye que un segmento que conecta un punto P0 ∈ M1 , con un punto Q0 ∈ M2
−−−→
es la distancia más corta entre M1 y M2 si y sólo si P0 Q0 es una perpendicular común
entre M1 y M2 .
110 CAPÍTULO 6. SISTEMAS DE COORDENADAS
Capı́tulo 7
Movimientos Rı́gidos
luego
−−→ −→ 1 −−→ 2 −→ −−→
PQ · PR = (kP Qk + kP Rk2 − kQRk2 ), de manera análoga
2
−−∗−→∗ −−∗−→∗ 1 −−∗−→∗ 2 −−−→ −−−→
P Q ·P R = (kP Q k + kP ∗ R∗ k2 − kQ∗ R∗ k2 )
2
y como f es un movimiento rı́gido se tiene que
−−→ −→ −−∗−→∗ −−∗−→∗
PQ · PR = P Q · P R
~∗ = −
β~i∗ · β
−−→ −−−→ −−→ −−→ ~ ~
O∗ Pi∗ · O∗ Pk∗ = OPi · OPk = βi · βk = δik
k
~∗, β
Se concluye que [O∗ ; β ~∗, . . . , β
~ ∗ ] es un sistema de coordenadas cartesianas en Rn .
1 2 n
111
112 CAPÍTULO 7. MOVIMIENTOS RÍGIDOS
luego xi = x∗i .
~1 , β
Sean [O; β ~2 , . . . , β~n ], [O∗ ; β~ ∗ , β
~∗, . . . , β
~ ∗ ] dos sistemas arbitrarios de coordenadas
1 2 n
cartesianas.
Sea Q otro punto cuyas coordenadas cartesianas con respecto al primer sistema son
y1 , y2 , . . . , yn . Entonces v
u n
uX
P Q = t (yi − xi )2
i=1
∗
Pero Q = f (Q) tiene coordenadas y1 , y2 , . . . , yn en el segundo sistema y
v
u n
uX
P ∗ Q∗ = t (yi − xi )2
i=1
Si F (~
α1 ) = F (~α2 ), α ~ 2 tienen las mismas componentes en [O; β~1 , β
~1 y α ~2 , . . . , β~n ] luego
α
~1 = α~ 2 . Es claro que F es sobre. Diremos que f induce la transformación F en V n .
Problema: Sea [O; β~1 , β ~2 , . . . , β~n ] un sistema de coordenadas fijo, sea P un punto de
coordenadas x1 , x2 , . . . , xn con respecto a este sistema. Sea f un movimiento rı́gido.
Se piden las coordenadas de P ∗ .
~ ∗ , β~ ∗ , . . . , β~ ∗ ]. Sean
Sabemos que P ∗ tiene coordenadas x1 , x2 , . . . , xn en [O∗ ; β1 2 n
n n
−−→∗ X ~ ~∗ =
X
OO = ti βi βk aik β~i
i=1 i=1
~1 , β~2 , . . . , β
Si P ∗ tiene coordenadas y1 , y2 , . . . , yn en [O; β ~n ] entonces
n
X
yi = ti + aik xk i = 1, 2, . . . , n
k=1
n
X
yi = ti + aik xk i = 1, 2, . . . , n (7.1)
i=1
En efecto, sea Q otro punto de coordenadas x01 , x02 , . . . , x0n , sea Q∗ de coordenadas y10 ,
114 CAPÍTULO 7. MOVIMIENTOS RÍGIDOS
2 2
luego P Q = P ∗ Q∗ .
Sea Aik el adjunto de aik en det(aik ), volviendo a (7.1) se tiene, por la regla de Cramer
que
n
X
1
xi = Aki (yk − tk ) i = 1, 2, . . . , n (7.2)
det(aik )
k=1
Nota: Vimos que un movimiento rı́gido deja invariante al producto escalar, pero
para demostrarlo representamos ambos vectores con el mismo punto inicial. Queremos
hacer ver que esta restricción es superflua. Sean α ~ arbitrarios, α
~, β ~ ∗ fueron
~∗ y β
−−→ −→
definidos independientemente de su punto inicial. Tomemos α~ = P Q, β = P R entonces
∗ −−∗−→∗ ~ ∗ −−∗−→∗ ~ ∗ ~∗
α
~ =P Q ,β =P R yα ~ ·β =α ~ ·β .
Nota: Consideremos el paralelotopo n-dimensional generado por los vectores l.i. β ~1 ,
~ ~ ~ ∗ ~∗ ~ ∗
β2 , . . . , βn , sean β1 , β2 , . . . , βn sus imágenes según un movimiento rı́gido. Sea P
el punto a partir del cual se genera el paralelotopo, sea P ∗ su imagen, aplicando
Xn
los vectores ~ ∗ , 0 ≤ λi ≤ 1 a partir de P ∗ se obtiene un nuevo paralelotopo,
λi β i
i=1
llamémoslo la imagen del paralelotopo original según el movimiento rı́gido. Si β ~i tiene
~ ∗
componentes ui1 , ui2 , . . . , uin en el sistema cartesiano [O; ~γ1 , ~γ2 , . . . , ~γn ], βi tiene las
mismas componentes en [O∗ ; ~γ1∗ , ~γ2∗ , . . . , ~γn∗ ]. El volumen del paralelotopo original es
| det(uik )|. El volumen del paralelotopo cuyas aristas son β ~ ∗ , β~ ∗ , . . . , β~ ∗ puede ser
1 2 n
evaluado de la misma manera en términos de los componentes de los vectores β ~ ∗ en el
i
∗ ∗ ∗ ∗
sistema [O ; ~γ1 , ~γ2 , . . . , ~γn ]. Pero dichas componentes son iguales a las de los vectores
~i en el sistema [O; ~γ1 , ~γ2 , . . . , ~γn ], luego este segundo volumen es igual al original. El
β
volumen de un paralelotopo es invariante frente a movimientos rı́gidos.
~∗
¿Qué sucede con det(uik ) si las uik son reemplazadas por las componentes de los βi
en el mismo sistema de coordenadas [O; ~γ1 , ~γ2 , . . . , ~γn ]?
Supongamos que tales componentes son u∗i1 , u∗i2 , . . . , u∗in . Sabemos que
n
X
u∗ik = akν uiν i, k = 1, 2, . . . , n
ν=1
à n
!
X
det(u∗ik ) = det uiν akν = det(uik ) det(aik )
ν=1
y1 = t1 + a11 x1 + a12 x2
y2 = t2 + a21 x1 + a22 x2
luego para que algún vector distinto de cero sea invariante, la matriz
µ ¶
(a11 − 1) a12
a21 (a22 − 1)
debe tener rango R menor que 2.
Caso 2: R = 1.
¯ ¯
¯ a11 − 1 a12 ¯¯
0=¯ ¯ = det(aik ) + 1 − a11 − a22
a21 a22 − 1 ¯
µ ¶
a11 − 1 a12
y algún elemento de es distinto de cero.
a21 a22 − 1
Si det(aik ) = 1 entonces a11 + a22 = 2, pero como
a211 + a212 = 1
a221 + a222 = 1
ningún aik puede ser tal que |aik | > 1 y a11 +a22 = 2 se cumple sólo si a11 = a22 = 1. En
tal caso a12 = a21 = 0 y estamos en el caso 1. Entonces es necesario que det(aik ) = −1.
A11
Pero si det(aik ) = −1, como a11 = det(a ik )
y A11 = a22 se tiene a11 = −a22 y entonces
det(aik ) + 1 − a11 − a22 = 0 y (aik ) tiene rango 1. Luego el caso 2 puede suceder si y
sólo si det(aik ) = −1.
En tal caso tenemos un subespacio invariante de dimensión 1. Sea β~1 un vector unitario
que es base de este subespacio y extendemos a una base ortonormal β ~1 , β~2 de R2 . Sea
Q arbitrario, escribamos las ecuaciones de f en [Q; β~1 , β~2 ]. Las nuevas ecuaciones son
de la forma
y1 = t1 + c11 x1 + c12 x2 u∗1 = c11 u1 + c12 u2
y2 = t2 + c21 x1 + c22 x2 u∗2 = c21 u1 + c22 u2
~1 , β
De lo dicho se desprende que las ecuaciones de f en el sistema [Q; β ~2 ] deben ser de
la forma
y1 = t1 + x1
(7.4)
y2 = t2 − x2
Sea Q1 tal que su coordenada x1 en [Q; β ~1 , β
~2 ] es arbitraria pero x2 = 1 t2 . Por (7.4),
2
−−−→
Q∗1 tiene y2 = 21 t2 luego la segunda componente de Q1 Q∗1 en tal sistema es 0. Como las
componentes de un vector son independientes del origen y dependen sólo de la base,
−−−→ ~1 , β
~2 ]. Pero
el vector Q1 Q∗1 tiene segunda componente igual a cero en el sistema [Q1 ; β
en este sistema Q1 tiene coordenadas 0, 0 y por lo tanto la segunda coordenada de Q∗1
en este sistema debe ser 0. Si consideramos (7.4) con respecto al sistema [Q1 ; β~1 , β ~2 ],
si x1 = x2 = 0 necesariamente y2 = 0 luego t2 = 0. Se concluye que en el sistema
~1 , β~2 ] las ecuaciones de f deben ser de la forma
[Q1 ; β
y1 = t1 + x1
y2 = −x2
La ecuación y1 = t1 +x1 nos dice que cada punto del plano es trasladado en la dirección
del eje x1 en |t1 | hacia la derecha o izquierda según t1 > 0 ó t1 < 0 y después se realiza
una reflexión en el eje x1 .
Nota: det(aik ) debe tener el mismo valor en todos los sistemas de coordenadas ante-
riores, porque su valor está determinado por la dimensión del subespacio de vectores
invariantes, dimensión que es independiente de la elección del sistema de coordenadas.
Como det(aik ) = 1, aik = Aik luego el determinante vale cero. El rango de la matriz
de (7.5) es a lo más dos luego la dimensión del subespacio de vectores invariantes es
al menos uno.
Sumando las dos primeras ecuaciones y recordando que aik = Aik se obtiene −2a11 +
2 = 0, a11 = 1. De manera análoga a22 = a33 = 1. De la ortogonalidad de (aik ) se
obtiene aik = 0, i 6= k, luego todos los coeficientes en (7.5) son cero, la dimensión del
espacio invariante es 3, todos los vectores en V 3 son invariantes.
Consideremos ahora el caso det(aik ) = −1, ¿existe algún vector ~γ que va a −~γ ?
Entonces, si las componentes de ~γ son u1 , u2 , u3 debe tenerse que u∗i = −ui , i = 1, 2, 3
y deben ser soluciones de
Los resultados coleccionados hasta ahora nos dicen que para cualquier f al menos una
de las siguientes ecuaciones se cumple:
i.- p = 1
ii.- p = 3
iii.- q = 1
iv.- q = 3
Demostraremos que para cualquier movimiento rı́gido en R3 se cumple exactamente
una de las cuatro ecuaciones.
En efecto, ii) se cumple si y sólo si todo V 3 es invariante, eso excluye a las otras.
Análogamente si iv) se cumple. Luego dos de ellas pueden cumplirse simultáneamente
sólo si ii) y iv) no se cumplen, esto es, i) y iii) son las únicas alternativas que podrı́an
darse juntas. Supongamos que es ası́, hay ~γ 6= ~0 que es invariante y ~δ 6= ~0 que va a −~δ.
Es claro que ~γ y ~δ son l.i. Consideremos el subespacio L de los vectores ortogonales a
~γ y ~δ. La dimensión de L es 1. Sea ~e ∈ L, ~e 6= ~0, sea ~e∗ su imagen. Entonces
~e · ~γ = ~e · ~δ = 0 ⇒ ~e∗ · ~γ ∗ = ~e∗ · ~δ∗ = 0 ⇒ ~e∗ · ~γ = ~e∗ · (−~δ) = 0
120 CAPÍTULO 7. MOVIMIENTOS RÍGIDOS
luego ~e∗ ∈ L, ~e∗ = λ~e. Pero k~e∗ k = k~ek, entonces λ = ±1. Como ~e, ~γ , ~δ son l.i., si
~e = ~e∗ no es posible que p = 1 y si ~e = −~e∗ no es posible que q = 1.
Tenemos ası́ los movimientos rı́gidos en R3 divididos en cuatro clases mutuamente ex-
cluyentes, i) y ii) corresponden a det(aik ) = 1, iii) y iv) corresponden a det(aik ) = −1.
y1 = t1 + a11 x1 + a12 x2
y2 = t2 + a21 x1 + a22 x2 (7.6)
y3 = t3 + x3
De la ortonormalidad se tiene
a211 + a212 = 1
a221 + a222 = 1
También a11 a21 + a12 a22 + a13 a23 = 0 luego a11 a21 + a12 a22 = 0.
¯ ¯ µ ¶
¯ a a12 ¯¯ a11 a12
Como det(aik ) = 1, ¯¯ 11 = 1 luego es ortogonal.
a21 a22 ¯ a21 a22
Ella es la matriz de las dos primeras ecuaciones de (7.6), luego estas dos ecua-
ciones definen un movimiento rı́gido en R2 . Además no es posible tener a11 =
a22 = 1 porque en tal caso p = 3. Entonces este movimiento rı́gido en R2 tiene un
punto fijo, esto es, hay x1 , x2 que satisfacen y1 = x1 , y2 = x2 . Sea S ∈ R3 cuyas
dos primeras coordenadas en [Q; β~1 , β~2 , β ~3 ] son x1 , x2 . S ∗ tiene entonces como
sus dos primeras coordenadas y1 = x1 , y2 = x2 y por lo tanto las dos primeras
−−→
componentes de SS ∗ son cero. Este resultado, aunque lo hemos obtenido usando
el sistema de coordenadas [Q; β ~1 , β
~2 , β
~3 ], es independiente del origen y es váli-
~ ~ ~
do también en [S; β1 , β2 , β3 ], luego S ∗ tiene las mismas coordenadas que S en
7.2. MOVIMIENTOS RÍGIDOS EN R3 121
este nuevo sistema, y, habiendo elegido a S como nuevo origen, esto significa
que las dos primeras coordenadas tanto de S como de S ∗ son cero. Dado que
las ecuaciones de f mantienen su forma aunque hayamos cambiado el sistema de
coordenadas, lo dicho sobre las coordenadas de S y S ∗ visto en (7.6) nos dice que
~1 , β
las ecuaciones de f en [S, β ~2 , β
~3 ] tienen la forma
y1 = a11 x1 − a12 x2
y2 = a21 x1 + a22 x2
y3 = t3 + x3 .
µ ¶
a11 a12
Como es ortogonal, podemos determinar de manera única un ángu-
a21 a22
lo ϕ, 0 ≤ ϕ ≤ 2π, tal que a11 = cos ϕ, a21 = sen ϕ, a12 = − sen ϕ, a22 = cos ϕ,
~1 , β
luego en [S; β ~2 , β~3 ] las ecuaciones de f son
y1 = x1 cos ϕ − x2 sen ϕ
y2 = x1 sen ϕ + x2 cos ϕ
y3 = t3 + x3
Consideremos una recta ` paralela a β ~3 . Todos sus puntos tienen sus dos primeras
coordenadas x1 , x2 iguales, su intersección con el plano x1 , x2 tiene coordenadas
x1 , x2 , 0. Buscamos `∗ . Sea P ∈ ` de coordenadas x1 , x2 , x3 . Las dos primeras
ecuaciones no dependen de x3 luego todos los P ∗ tienen la misma intersección y1 ,
y2 , 0 con el plano y1 , y2 , y las dos coordenadas y1 , y2 están determinadas por las
dos primeras ecuaciones de (7.5) donde x1 , x2 son las dos primeras coordenadas
de la intersección de ` con el plano x1 , x2 . Dicho en otras palabras, `∗ queda com-
pletamente determinada una vez conocida la imagen de este punto intersección.
Por otra parte, estas dos ecuaciones definen una rotación de ángulo ϕ en torno al
origen. Consideremos la rotación en R3 en torno al eje x3 y de ángulo ϕ, el punto
(x1 , x2 , 0) ∈ ` va al punto (y1 , y2 , 0) ∈ `∗ luego ` va a `∗ . Como ` es arbitraria,
esto es cierto para cualquier recta paralela a β ~3 . Nuestro movimiento rı́gido se
compone de una rotación de R3 en torno al eje x3 de [S; β ~1 , β~2 , β~3 ] seguida de
una traslación en la dirección de dicho eje.
ii.- p = 3. Vimos que en cualquier sistema cartesiano det(aik ) vale 1 y que aik = δik ,
las ecuaciones adoptan la forma
y1 = t1 + x1
y2 = t2 + x2
y3 = t3 + x3
y1 = t1 + a11 x1 + a12 x2
y2 = t2 + a21 x1 + a22 x2 (7.7)
y3 = t3 − x3
Sea R ∈ R3 tal que su tercera coordenada es x3 = 12 t3 en [Q; ~γ1 , ~γ2 , ~γ3 ]. Entonces
−−→
R∗ tiene y3 = 21 t3 y la tercera componente de RR∗ es 0. Tal como antes, su
tercera componente es 0 en [R; ~γ1 , ~γ2 , ~γ3 ], donde R tiene coordenadas (0, 0, 0)
luego y3 = 0 cuando x1 = x2 = x3 = 0, y por lo tanto t3 = 0. El determinante
del sistema (7.7) es ¯ ¯
¯ a11 a12 ¯
−¯¯ ¯ = −1
a21 a22 ¯
µ ¶
a11 a12
luego es ortogonal.
a21 a22
Si a11 = 1 entonces a22 = a11 = 1 luego a12 = a21 = 0 y las ecuaciones (7.7)
adoptan la forma
y1 = t1 + x1
y2 = t2 + x2
y3 = −x3 ;
Si a11 6= 1, hay dos números x1 , x2 que sustituı́dos en las dos primeras ecuaciones
de (7.7) dan y1 = x1 , y2 = x2 . Sea S ∈ R3 tal que sus dos primeras coordenadas
en [R; ~γ1 , ~γ2 , ~γ3 ] son x1 , x2 y tal que x3 = 0. Entonces S ∗ tiene coordenadas
y1 = x1 , y2 = x2 , y3 = −x3 = 0 ya que t3 = 0. Como S es punto fijo de f ,
x1 = x2 = x3 = 0 entonces y1 = y2 = y3 = 0 y finalmente t1 = t2 = t3 = 0. Sean
y1 = x1 cos ϕ − x2 sen ϕ
y2 = x2 sen ϕ + x2 cos ϕ
y3 = −x3
iv.- q = 3. det(aik ) = −1 en todo sistema cartesiano, a11 = a22 = a33 = −1, aik = 0
para i 6= k. Se tiene
y1 = t1 − x1
y2 = t2 − x2
y3 = t3 − x3
7.2. MOVIMIENTOS RÍGIDOS EN R3 123
y1 = −x1
y2 = −x2
y3 = −x3
Problemas propuestos
Sean
1 2 0 −1 5 1 0 1 0 2
1 1 −1 2 1 0 1 1 1 −1
A=
3
, B=
0 1 1 2 4 2 3 1 0
4 4 −2 1 0 1 0 1 0 1
125
126 CAPÍTULO 8. PROBLEMAS PROPUESTOS
vi. Sea λ real arbitrario. Demuestre que hay un único punto P (λ) ∈ Rn tal
−→
que AP = λ(b − a) y que si p(λ) es la misma n-tupla que corresponde a P
mirada como elemento de E n entonces p(λ) = a + λ(b − a).
−−→
Llamaremos recta por A de dirección AB al conjunto de puntos de Rn
a1 = (1, 0, 2, −1, 3)
a2 = (0, 0, 1, 1, −1)
a3 = (1, 1, 2, 0, 0)
a1 = (3, −1, 1, 2)
a2 = (4, −1, −2, 3)
a3 = (10, −3, 0, 7)
a4 = (−1, 1, −7, 0)
Sea L2 = L(b1 , b2 ).
15. Sea ¯ ¯
¯ −2 5 0 −1 3 ¯
¯ ¯
¯ 1 0 3 7 −2 ¯
¯ ¯
D = ¯¯ 3 −1 0 5 −5 ¯
¯
¯ 2 6 −4 1 2 ¯
¯ ¯
¯ 0 −3 −1 2 3 ¯
Calcule el valor de D desarrollando por los menores de las filas 2,3 y 5. Verifique
que su valor es -1032.
λz1 + iz1 + z3 = 1
iz1 + λz2 + iz3 = iλ
z1 + (1 − i)z2 + λz3 = iλ2
como una función de λ.
129
19. Sean
~1 = {1, −1, 2, 0} ,
β ~2 = {0, 1, 1, 0}
β
~3 = {2, 1, 0, −1} ,
β ~4 = {1, 0, −1, 2}
β
x1 + x2 − x3 − x4 = 1
x1 − x2 + 2x3 + x4 = 1
21. Sean
α
~1 = {−1, 1, −1, 1}
α
~2 = {2, 1, −1, 1}
α
~3 = {0, 1, 1, 1}
α
~4 = {0, 0, 1, 1}
22. Sea M la variedad lineal del ejercicio (20) expresada en el sistema de coorde-
nadas [O; ~e1 , ~e2 , ~e3 , ~e4 ], sea P de coordenadas (1, 1, 0, 0) en tal sistema. Encuentre
la dirección de la recta perpendicular de P a M , el pie de la perpendicular en
M y la longitud de tal perpendicular por el método descrito en el libro (sin usar
el sistema de ecuaciones que representa a M ).
un movimiento rı́gido (las coordenadas se suponen dadas en [O; ~e1 , ~e2 , ~e3 , ~e4 ].
−−→
Sean P1 , P2 , P3 , P4 tales que OPi = ~ei i = 1, 2, 3, 4, O∗ = f (O), Pi∗ = f (Pi ) i =
−−−→
1, 2, 3, 4. Verifique que la matriz (aij ) es ortogonal. Sea ~e∗i = O∗ Pi∗ i = 1, 2, 3, 4,
sea P = (x1 , x2 , x3 , x4 ). Encuentre las coordenadas de P en el sistema de coorde-
nadas [O∗ ; ~e∗1 , ~e∗2 , ~e∗3 , ~e∗4 ]. ¿Cuál es la ecuación del hiperplano x1 +x2 +x3 +x4 = 1
en el segundo sistema?
Bibliografı́a
[1] Lectures on Linear Algebra, Gel’fand I. M., New York, Interscience (1961).
[2] Higher Algebra, Kurosh A. G., Moscow, Mir Publishers (1972).
[3] Introduction to Modern Algebra and Matrix Theory, Schreier, O. - Sperner E.,
New York, Chelsea.
[4] Linear Algebra, Shilov G. E., Engelwood Cliffs, N. J., Prentice Hall (1961).
[5] Linear Algebra and Multi-dimensional Geometry, Efimov N. V. - Rozendorn E.
R., Mir Publishers (1975).
131
Índice alfabético
Rn , 29 Inversión, 9
n-tupla, 2, 29
Ángulo entre vectores, 85 l.d., 31
l.i., 31
Adjunto de un menor, 21 Linealmente dependientes, 30
Linealmente independientes, 30
Base, 34 Longitud de un segmento, 83
Base estándar, 35, 65 Longitud de un vector, 83
Coeficientes, 1 Método de eliminación de Gauss, 3
Combinación lineal, 1, 30 Matrices
Compatibilidad de sistemas homogéneos,
Igualdad, 55
51
Inverso aditivo, 55
Compatibilidad de sistemas no homogéneos,
Matriz nula, 55
46
Producto de matrices, 56
Componentes, 29, 63, 92
Producto por un número escalar, 55
Componentes con respecto a una base, 35
Suma de matrices, 55
Consideraciones sobre geometrı́a analı́tica,
Matrices elementales, 125
79
Matrices equivalentes, 43
Construcción de sistemas ortonormales, 104
Matrices equivalentes por filas, 125
Coordenadas, 91
Matriz adjunta, 59
Deformación continua de sistemas de co- Matriz ampliada, 46
ordenadas, 100 Matriz diagonal, 43
Delta de Kronecker, 36, 59, 98 Matriz inversa, 60
Dependencia lineal, 30 Matriz reducida por filas, 125
Desigualdad de Cauchy-Schwarz, 83 Matriz singular, 58
Desigualdad triangular, 84 Matriz traspuesta, 12, 59
Determinante, 8, 11, 12 Matriz triangular
Desarrollo por adjuntos, 22 inferior, 23
Propiedades, 13 superior, 23
Dimensión, 34 Menor de un determinante, 19
Dimensión de un subespacio, 66, 68 Menor complementario, 20
Distancia, 83 Menor de una matriz, 39
Distancia a una variedad lineal, 105 Menor orlado, 39
Movimiento rı́gido, 111
Ecuación lineal con n incógnitas, 1 Movimientos rı́gidos en R2 , 115
Ecuación lineal homogénea, 1 Movimientos rı́gidos en R3 , 118
Espacio euclı́deo n-dimensional, 83 Movimientos rı́gidos y producto escalar,
Espacio vectorial n-dimensional, 29 111
Movimientos rı́gidos y variedades lineales,
Independencia lineal, 30 112
132
ÍNDICE ALFABÉTICO 133