Está en la página 1de 137

Conceptos Básicos de Algebra Lineal

y Geometrı́a Multidimensional

Alvaro Cofré
Duvan Henao
ii
Índice general

1. Sistemas de ecuaciones lineales 1


1.1. El método de eliminación de Gauss . . . . . . . . . . . . . . . . . . . . . 3
1.2. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3. Propiedades del determinante . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4. Teorema de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.5. La regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

2. Relaciones de dependencia lineal 29


2.1. El espacio vectorial Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2. Dependencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.3. Dimensión del espacio vectorial Rn . . . . . . . . . . . . . . . . . . . . . 31
2.4. Rango de un sistema de vectores . . . . . . . . . . . . . . . . . . . . . . 35
2.5. Rango de matrices y dependencia lineal . . . . . . . . . . . . . . . . . . 37
2.6. Equivalencia de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.7. Soluciones de sistemas de ecuaciones lineales . . . . . . . . . . . . . . . 46
2.7.1. Compatibilidad para sistemas no homogéneos . . . . . . . . . . . 46
2.7.2. Sistemas homogéneos . . . . . . . . . . . . . . . . . . . . . . . . 51
2.7.3. Soluciones para sistemas arbitrarios . . . . . . . . . . . . . . . . 53

3. Álgebra de matrices 55
3.1. Producto de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.2. Matrices inversas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.3. Representación matricial de un sistema de ecuaciones . . . . . . . . . . . 60
3.4. Rango de un producto de matrices . . . . . . . . . . . . . . . . . . . . . 61

4. Vectores en Rn 63
4.1. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.2. Subespacios de vectores en Rn . . . . . . . . . . . . . . . . . . . . . . . 65
4.3. Variedades lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.4. Subespacios de soluciones . . . . . . . . . . . . . . . . . . . . . . . . . . 79

5. Distancia y Volumen en Rn 83
5.1. Métrica euclidiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.2. Volúmenes y determinantes . . . . . . . . . . . . . . . . . . . . . . . . . 85

6. Sistemas de coordenadas 91
6.1. Transformación de coordenadas . . . . . . . . . . . . . . . . . . . . . . . 93
6.2. Variedades lineales y sistemas de ecuaciones . . . . . . . . . . . . . . . . 95
6.3. Volúmenes y sistemas de coordenadas cartesianas . . . . . . . . . . . . . 97

iii
iv ÍNDICE GENERAL

6.4. Deformación continua de sistemas de coordenadas . . . . . . . . . . . . 100


6.5. Construcción de sistemas ortonormales . . . . . . . . . . . . . . . . . . . 104
6.6. Distancia y Variedades lineales . . . . . . . . . . . . . . . . . . . . . . . 105

7. Movimientos Rı́gidos 111


7.1. Movimientos rı́gidos en R2 . . . . . . . . . . . . . . . . . . . . . . . . . . 115
7.2. Movimientos rı́gidos en R3 . . . . . . . . . . . . . . . . . . . . . . . . . . 118

8. Problemas propuestos 125


Capı́tulo 1

Sistemas de ecuaciones
lineales

Nota: La palabra número designa a un elemento de un campo K. En nuestro caso


K es el campo de los números reales o bien el de los complejos.

Definición 1.1 Llamaremos ecuación lineal con n incógnitas a una ecuación del tipo
a1 x1 + a2 x2 + · · · an xn = b (1.1)
Los números a1 , . . . , an se llaman coeficientes de las incógnitas, al número b se le
llama término libre . Diremos que la colección ordenada de números (k1 , k2 , . . . , kn )
es una solución de la ecuación si
a1 k1 + a2 k2 + · · · + an kn = b
Si b = 0 la ecuación se dice homogénea .
Puesto que alguno de los coeficientes ai en (1.1) debe ser distinto de cero, podemos
suponer que a1 6= 0. Asignemos valores arbitrarios k2 , k3 , . . . , kn a las incógnitas x2 ,
x3 , . . . , xn , entonces
b − a2 k2 − a3 k3 − · · · − an kn
x1 = .
a1
³ ´
Claramente, la colección ordenada b−a2 k2 −···−a
a1
n kn
, k 2 , k 3 , . . . , k n es una posible solu-
ción de la ecuación. Puesto que esta es solución independientemente de cuáles son los
valores de k concluimos que (1.1) tiene infinitas soluciones.

Definición 1.2 Sean


a1 x1 + · · · + an xn = c1 (1.2)
b1 x1 + · · · + bn xn = c2 (1.3)
Sean α, β números arbitrarios. Diremos que la ecuación
α(a1 x1 + · · · + an xn ) + β(b1 x1 + · · · + bn xn ) = αc1 + βc2 (1.4)
es combinación lineal de las ecuaciones (1.2) y (1.3).

1
2 CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Sea (k1 , k2 , . . . , kn ) una solución común de (1.2) y (1.3). Entonces


α(a1 k1 + · · · + an kn ) + β(b1 k1 + · · · + bn kn ) = αc1 + βc2
y (k1 , k2 , . . . , kn ) es solución de (1.4).

Se concluye que si una ecuación es combinación lineal de dos o más ecuaciones lineales
entonces toda solución común de las ecuaciones que participan en la combinación lineal
es solución de la ecuación.

Nota: A una colección ordenada del tipo (k1 , k2 , . . . , kn ) la llamaremos n-tupla.

Definición 1.3 Consideremos el sistema de ecuaciones lineales de m ecuaciones con


n incógnitas
a11 x1 + · · · + a1n xn = c1
..
.
an1 x1 + · · · + amn xn = cm
Diremos que la n-tupla (k1 , k2 , . . . , kn ) es solución del sistema si es solución de cada
una de las m ecuaciones del sistema. Si c1 = c2 = · · · = cm = 0 diremos que el sistema
es homogéneo .

Definición 1.4 Sean

a11 x1 + · · · + a1n xn = c1 b11 x1 + · · · + b1n xn = d1


.. ..
. .
am1 x1 + · · · + amn xn = cm bm1 x1 + · · · + bmn xn = dm
(1.5) (1.6)
Supongamos que cada ecuación del sistema (1.5) es combinación lineal de las ecua-
ciones del sistema (1.6) y viceversa. Diremos que los sistemas (1.5) y (1.6) son equiv-
alentes .
Teorema 1.5 Dos sistemas equivalentes tienen exactamente las mismas soluciones.
Demostración: Sea (k1 , . . . , kn ) solución de (1.5). Considere la primera ecuación de
(1.6). Ella es una combinación lineal de las ecuaciones del primer sistema. Puesto que
(k1 , k2 , . . . , kn ) es una solución común entonces es solución de la primera ecuación del
sistema (1.6).

Razonando análogamente para cada una de las ecuaciones del sistema (1.6) hemos
demostrado que cada solución del sistema (1.5) es solución del sistema (1.6). El mismo
argumento permite demostrar que toda solución de (1.6) es solución de (1.5).

Supongamos ahora que (1.6) no tiene solución. Entonces (1.5) tampoco puede tenerla
y viceversa. Se concluye que (1.5) y (1.6) tienen exactamente las mismas soluciones.

Definición 1.6 Si un sistema de ecuaciones lineales tiene solución diremos que es


compatible . Si tiene exactamente una solución diremos que es compatible determi-
nado , si tiene más de una solución diremos que es compatible indeterminado . Si no
tiene solución diremos que es incompatible .
1.1. EL MÉTODO DE ELIMINACIÓN DE GAUSS 3

1.1. El método de eliminación de Gauss


Consideremos el sistema

a11 x1 + · · · + a1n xn = b1
.. (1.7)
.
am1 x1 + · · · + amn xn = bm

Caso 1: El coeficiente de x1 es distinto de cero en alguna de las ecuaciones. En tal


caso podemos suponer que a11 6= 0 (si es necesario reordenamos las ecuaciones).

Caso 2: Si aij = 0, j = 1, . . . , m simplemente tenemos un sistema de m ecuaciones con


n − 1 incógnitas.

Supongamos entonces que a11 6= 0. Reemplacemos el sistema (1.7) por un nuevo sis-
tema equivalente, que por lo tanto tiene exactamente las mismas soluciones que (1.7).
Denotemos por ECi a la i-ésima ecuación del sistema (1.7). Construyamos el nuevo
sistema definiendo sus ecuaciones de la manera siguiente:

Ecuación 1 = EC1
a21
Ecuación 2 = EC2 − EC1
a11
a31
Ecuación 3 = EC3 − EC1
a11
..
.
am1
Ecuación m = ECm − EC1
a11

Obtenemos ası́ un nuevo sistema equivalente a (1.7)

a11 x1 + a12 x2 + · · · + a1n xn = b1


a022 x2 + · · · + a02n xn = b02
a032 x2 + · · · + a03n xn = b03 (1.8)
..
.
a0m2 x2 + · · · + a0mn xn = b0m

Nota: Cada una de las ecuaciones de (1.7) se puede reconstruir fácilmente como
combinación lineal de las ecuaciones de (1.8), es por esto que son equivalentes.

Caso 1: El coeficiente de x2 es distinto de cero en alguna de las ecuaciones 2, 3, . . . , m.

Caso 2: Si a02j = 0 ∀ j = 2, 3, . . . , m, procedemos a la eliminación de la incógnita x3 .

Supongamos entonces que a022 6= 0, hacemos lo mismo en (1.8). Denotemos por ECi0 a la
ecuación i-ésima del sistema, y por ECi00 a la ecuación i-ésima del sistema a construir.
4 CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Definimos entonces al nuevo sistema por

EC100 = EC10
EC200 = EC20
a032
EC300 = EC30 − EC20
a022
a0
EC400 = EC40 − 42 EC20
a022
..
.
00 0 a0m2
ECm = ECm − EC20
a022

Obtenemos ası́ un sistema equivalente a (1.8) (y por lo tanto equivalente a (1.7))

a11 x1 + a12 x2 + a13 x3 + · · · + a1n xn = b1


a022 x2 + a023 x3 + · · · + a02n xn = b02
a0033 x3 + · · · + a003n xn = b003
..
.
a00m3 x3 + · · · + a0mn xn = b00m

Nota: Si en alguna parte del proceso alguna ecuación tiene todos los coeficientes y el
término libre iguales a cero, podemos suprimirla puesto que la ecuación

0 · x1 + 0 · x2 + · · · + 0 · xn = 0

es satisfecha por cualquier n-tupla (k1 , k2 , . . . , kn ).

Sin en alguna parte del proceso alguna ecuación tiene todos los coeficientes iguales a
cero y el término libre distinto de 0 debemos concluir que el sistema es incompatible .
Supongamos que el sistema es compatible. En tal caso pueden presentarse sólo dos
situaciones:

i) Después de k − 1 etapas, las incógnitas xk+1 , xk+2 , . . . , xn quedan todas elimi-


nadas producto de suprimir ecuaciones del tipo 0 · x1 + · · · + 0 · xn = 0. En tal
caso el sistema queda con forma trapezoidal

a11 x1 + a12 x2 + a13 x3 + · · · + a1k xk + · · · a1n xn = b1


a022 x2 + a023 x3 + · · · + a02k xk + · · · + a02n xn = b02
a0033 x3 + · · · + a003k xk + · · · + a003n xn = b003
..
.
(k−1) (k−1) (k−1)
akk xk + · · · + akn xn = bk ,

(k−1) (k−1)
con a11 6= 0, a022 6= 0, · · · , akk 6= 0, donde k < m y k < n. Como akk 6= 0
podemos asignar valores arbitrarios a xk+1 , xk+2 , . . . , xn en la última ecuación y
despejar xk . Luego reemplazamos en la penúltima ecuación y despejamos xk−1
y ası́ sucesivamente hasta llegar hasta x1 . Hemos obtenido ası́ una solución que
depende de n − (k − 1) parámetros arbitrarios (nadie afirma que sea la única), el
1.1. EL MÉTODO DE ELIMINACIÓN DE GAUSS 5

sistema es compatible indeterminado .

Ejemplo:
x1 − x2 + 2x3 + x4 = 1
x1 + 2x2 − x3 − x4 = 0
3x1 + 0 · x2 + 3x3 + x4 = 2
2x1 − 2x2 + 4x3 + 2x4 = 2

Eliminemos x1 :
x1 − x2 + 2x3 + x4 = 1
3x2 − 3x3 − 2x4 = −1
3x2 − 3x3 − 2x4 = −1
0 · x2 + 0 · x3 + 0 · x4 = 0

Eliminemos x2 :
x1 − x2 + 2x3 − x4 = 1
3x2 − 3x3 − 2x4 = −1
0 · x3 + 0 · x4 = 0

Tenemos k = 3. Tenemos una solución que depende de 4 − (3 − 1) parámetros


arbitrarios. En la segunda ecuación sea x3 = λ, x4 = µ entonces x2 = 13 [3λ + 2µ −
1]. Reemplazando en la primera se tiene
1 5 2
x1 = [3λ + 2µ − 1] − 2λ + µ + 1 = −λ + µ +
3 3 3
£ ¤
Obtenemos ası́ una solución −λ + 35 µ + 23 , λ + 23 µ − 13 , λ, µ donde λ y µ son
números arbitrarios. Tenemos entonces infinitas soluciones, una para cada par de
valores de λ y µ.

ii) Si k = n el sistema tiene forma triangular


a11 x1 + a12 x2 + · · · + a1n xn = b1
a022 x2 + · · · + a02n xn = b02
..
.
a(n−1)
nn xn = b(n−1)
n

Es claro que en este caso el sistema tiene exactamente una solución puesto que la
última ecuación determina el valor de xn en forma única y la penúltima determina
el valor de xn−1 en forma única, etc.

Ejemplo:
x1 + x2 + x3 = 0
2x1 + 2x2 − x3 = 1
−x1 + x2 − 3x3 = 1
6 CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Eliminemos x1 :
x1 + x2 + x3 = 0
−3x3 = 1
2x2 − 2x3 = 1

Reordenemos las ecuaciones:


x1 + x2 + x3 = 0
2x2 − 2x3 = 1
−3x3 = 1

Luego x3 = − 13 , 2x2 = 2(− 13 ) + 1 ⇒ x2 = 16 , x1 = − 16 + 1


3 = 16 .

Si el sistema es homogéneo, puesto que (0, 0, . . . , 0) es siempre solución tenemos sólo


las alternativas de compatible determinado si k = n y compatible indeterminado si
k < n. Tenemos ası́:
Todo sistema homogéneo de m ecuaciones con n incógnitas con m < n es compatible
indeterminado (sólo puede ser reducido a la forma trapezoidal).

Llamaremos matriz del sistema al cuadro rectangular de m × n números


 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
 
 .. .. .. .. 
 . . . . 
am1 am2 ··· amn
y matriz ampliada del sistema a
 
a11 a12 ··· a1n b1
 a21 a22 ··· a2n b2 
 
 .. .. .. .. .. 
 . . . . . 
am1 am2 ··· amn bm
Estas definiciones permiten escribir un sistema en forma sintética.

Ejemplo: El sistema
x1 + 2x2 + 5x3 = −9
x1 − x2 + 3x3 = 2
3x1 − 6x2 − x3 = 25
puede escribirse como  
1 2 5 −9
 1 −1 3 2 
3 −6 −1 25
y pueden hacerse las mismas transformaciones que realizarı́amos con las ecuaciones
del sistema con las filas de la matriz ampliada, ası́ eliminando x1 obtenemos
 
1 2 5 9
 0 −3 −2 11 
0 −12 −16 52
1.1. EL MÉTODO DE ELIMINACIÓN DE GAUSS 7

Eliminando x2 :
 
1 2 5 9
 0 −3 −2 11 
0 0 −8 8

luego x1 = 2, x2 = −3, x3 = −1.


Ejemplo: Resolver el sistema
 
1 −5 −8 1 3
 3 1 −3 −5 1 
 
 1 0 −7 2 −5 
0 11 20 −9 2

Eliminamos x1 :
 
1 −5 −8 1 3
 0 16 21 −8 −8 
 
 0 5 1 1 −8 
0 11 20 −9 2

Antes de eliminar x2 , restemos la segunda ecuación a la cuarta


 
1 −5 −8 1 3
 0 16 21 −8 −8 
 
 0 5 1 1 −8 
0 −5 −1 −1 10

Podemos ver de inmediato que el sistema es incompatible.


Ejemplo: Resolver el sistema
 
4 1 −3 −1 0
 2 3 1 −5 0 
1 −2 −2 3 0

Puesto que el sistema es homogéneo, omitimos la columna de los términos libres y


permutamos la primera y la tercera ecuación:
     
1 −2 −2 3 1 −2 −2 3 1 −2 −2 3
 2 3 1 −5  →  0 7 5 −11  →  0 7 5 −11 
4 1 −3 −1 0 9 5 −13 0 0 − 10
7
8
7

Tomemos x4 = λ arbitrario entonces x3 = 45 λ luego

7x2 + 4λ − 11λ = 0 ⇒ x2 = λ

y
8 3
x1 = 2λ + λ − 3λ = λ
5 5
8 CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

1.2. Determinantes
El método de Gauss nos permite resolver un sistema de ecuaciones pero no propor-
ciona un criterio de compatibilidad en términos de los coeficientes de las incógnitas y
los términos libres, menos aún una fórmula que permita encontrar los valores de las
incógnitas. Sin embargo, una modificación de dicho método aplicado a sistemas de dos
ecuaciones con dos incógnitas y tres ecuaciones con tres incógnitas permite deducir
la llamada “regla de Cramer”, previa introducción de un nuevo ente matemático: el
determinante . Primero nos abocaremos a la tarea de introducir esta nueva noción
para lo cual necesitamos algunos conceptos auxiliares.

Sea M un conjunto finito formado por n elementos a los cuales ponemos etiquetas
distintas con los números 1, 2, . . . , n. Podemos llamar i1 al objeto que tiene la etiqueta
con el número 1, i2 al objeto que tiene la etiqueta con el número 2, . . . , in al objeto que
tiene la etiqueta con el número n. Decimos que i1 , i2 , . . . , in constituyen un conjunto
de n sı́mbolos y como la naturaleza de los objetos no va a jugar papel alguno en lo
que sigue supondremos simplemente que el conjunto de n sı́mbolos está formado por
los números 1, 2, . . . , n. Dichos sı́mbolos pueden ser ordenados en una fila de diversas
maneras. Por ejemplo, si n = 3 podemos ordenarlos de 6 maneras distintas, a saber:
1 2 3, 1 3 2, 2 1 3, 2 3 1, 3 1 2, 3 2 1 .
En general, si tenemos n sı́mbolos, el primero de una fila puede ser elegido de n
maneras. Por cada una de ellas tenemos n − 1 maneras de elegir el segundo. Por cada
una de las n(n − 1) maneras de elegir los dos primeros tenemos n − 2 maneras de
elegir el tercero, ası́ para elegir los tres primeros tenemos n(n − 1)(n − 2) maneras.
Continuando la argumentación hasta agotar los recursos tenemos que con n sı́mbolos
podemos formar
n(n − 1)(n − 2) · · · (n − (n − 2))(n − (n − 1)) = n!
filas distintas. A cada una de las filas la llamaremos una permutación de ellos y a la
fila 1 2 3 · · · n que sigue el orden natural la llamaremos permutación natural.

Definición 1.7 Si en una permutación cualquiera intercambiamos dos sı́mbolos cua-


lesquiera (no necesariamente contiguos) dejando todos los demás en su sitio obtenemos
una nueva permutación. Decimos que esta nueva permutación ha sido obtenida de la
original mediante una trasposición.
Por ejemplo, si n = 5, 5 2 3 4 1 se obtiene de la permutación natural intercambiando 1
y 5.

Teorema 1.8 Consideremos las n! permutaciones de n sı́mbolos. Ellas pueden ser


escritas en una lista tal que cada permutación que aparece en la lista puede ser obtenida
de la anterior mediante una trasposición, y la lista puede empezar con cualquiera de
ellas.
Demostración: El teorema es cierto para n = 2. Supongamos que ha sido demostrado
para n = k y consideremos todas las permutaciones de k + 1 sı́mbolos. Empecemos la
lista con una cualquiera de ellas, digamos
i1 i2 i3 · · · ik ik+1
1.2. DETERMINANTES 9

y a continuación escribamos todas aquellas que empiezan con i1 las cuales son k!. Como
el sı́mbolo i1 queda fijo, cada una de ellas puede ser considerada como una permutación
de k sı́mbolos y por lo tanto, por la hipótesis de inducción, pueden ser escritas en una
lista en que cada una difiere de la anterior en una trasposición llevada a cabo en los
sı́mbolos i2 , i3 , . . . , ik+1 y empezando precisamente con i1 i2 i3 · · · ik ik+1 .

Veamos la última de esta lista preliminar. En ella transpongamos i1 con i2 y repitamos


el proceso. Por este método construı́mos una lista de permutaciones donde hay k!
permutaciones que empiezan con i1 , k! que empiezan con i2 , . . . , k! que empiezan con
ik+1 ; en total k!(k + 1) = (k + 1)! permutaciones distintas en que cada una difiere de
la anterior en una trasposición.

Corolario 1.9 Dada una permutación de n sı́mbolos, a partir de ella es posible obtener
otra cualquiera mediante una sucesión de transposiciones.

Definición 1.10 Sea i1 i2 · · · in una permutación cualquiera. Diremos que los sı́mbolos
is e it forman una inversión si is > it pero s < t.

Por ejemplo, si n = 5 en
32415
i1 = 3, i2 = 2, i3 = 4, i4 = 1, i5 = 5.

Entonces i1 e i2 forman una inversión: i1 > i2 pero s = 1 < t = 2. i3 e i4 forman una


inversión: i3 > i4 pero s = 3 < t = 4.

Definición 1.11 Una permutación se dice par si sus sı́mbolos forman un número par
de inversiones, impar si forman un número impar de inversiones.

Por ejemplo, si n = 6, 3 2 1 6 4 5 es impar, 3 2 1 4 6 5 es par.

Teorema 1.12 Una trasposición cambia la paridad de una permutación.

Demostración: Supongamos que los sı́mbolos a trasponer son contiguos

i1 i2 · · · k l · · · in

Al trasponer obtenemos i1 i2 · · · l k · · · in donde la disposición de k y l con respecto a


los restantes n − 2 sı́mbolos no ha cambiado luego al pasar de k l a l k quitamos una
inversión o agregamos una.

Supongamos ahora que entre k y l hay s sı́mbolos

k ir ir+1 · · · ir+s−1 l

Pasamos a ir ir+1 · · · ir+s−1 l k mediante s+1 trasposiciones y luego a l ir ir+1 · · · ir+s−1 k


mediante s trasposiciones más. En total para obtener la última permutación de la
primera realizamos 2s + 1 trasposiciones de términos contiguos, cada una de las cuales
cambió la paridad de la permutación (primera parte de la demostración) luego si era
par ahora es impar y viceversa.
10 CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Corolario 1.13 El número de permutaciones pares es igual al número de permuta-


ciones impares.

Demostración: Hagamos una lista en que cada una difiere de la anterior por una
trasposición. Como para n ≥ 2 n! es par hay n!
2 de cada tipo.

Definición 1.14 Sea M el conjunto de n sı́mbolos, sea f : M → M 1-1 y sobre.


Diremos que f es una sustitución de grado n.

Sean i1 i2 · · · in y αi1 αi2 · · · αin dos permutaciones de M , sea A el cuadro


µ ¶
i1 i2 · · · in
(1.9)
αi1 αi2 · · · αin

Podemos interpretar el cuadro de la siguiente manera: la primera fila es el dominio


M de una función f : M → M y la segunda fila es su recorrido de modo tal que
f (ij ) = αij , j = 1, 2, . . . , n. A la inversa, cada función f : M → M que sea 1-1 y sobre
puede ser representada por uno de estos cuadros. Es claro que podemos identificar al
conjunto de estos cuadros con el de las sustituciones de grado n; también es claro que
cada sustitución admite diversas representaciones, por ejemplo
µ ¶ µ ¶
1 2 3 3 1 2
,
3 2 1 1 3 2

representan la misma sustitución de grado 3. En general, lo que define a (1.9) es la


asignación f (ij ) = αij luego siempre es posible obtener, mediante trasposiciones de
columnas, una representación de la forma
µ ¶
1 2 3 ··· n
(1.10)
α1 α2 α3 · · · αn

Lo que no se puede hacer es intercambiar el orden de las dos filas porque ellas juegan
distintos papeles, ası́
µ ¶ µ ¶
2 1 4 3 4 3 1 2
y
4 3 1 2 2 1 4 3

son distintas sustituciones de grado 4, en la primera f (2) = 4 en tanto que en la se-


gunda f (2) = 3. De (1.10) es claro que hay n! sustituciones de grado n.

Volvamos a (1.9) y consideremos la paridad de ambas filas. Cualquier trasposición


de dos columnas de (1.9) hace cambiar solidariamente la paridad de ambas filas, si
ellas tienen la misma paridad en una representación ellas tendrán la misma paridad
en cualquier otra, análogamente para el caso de paridad opuesta. Se concluye que el
que ambas filas tengan la misma paridad o paridad opuesta no depende de la repre-
sentación de la sustitución luego podemos definir

Definición 1.15 Diremos que una sustitución de grado n es par si en alguna repre-
sentación ambas filas tienen la misma paridad y diremos que es impar si en alguna
representación ambas tienen paridad opuesta.
1.2. DETERMINANTES 11

Nota: La sustitución identidad


µ ¶
1 2 3 ··· n
1 2 3 ··· n

se considera par.
De (1.10) se concluye que hay n! n!
2 sustituciones pares y 2 sustituciones impares (n ≥ 2).
También es claro que si una sustitución de grado n es par la suma del número de
inversiones de ambas filas es par y si es impar dica suma también es impar. Se concluye
que para juzgar la paridad de una sustitución de grado n es conveniente favorecer la
representación µ ¶
1 2 3 ··· n
.
α1 α2 α3 · · · αn
Puesto que la primera fila tiene 0 inversiones, la paridad de la sustitución está deter-
minada por el número de inversiones de la permutación α1 α2 · · · αn .
µ ¶ µ ¶
3 1 4 5 2 1 2 3 4 5
Ejemplo: es la misma sustitución de grado 5 que .
2 5 4 3 1 5 1 2 4 3
Puesto que la permutación 5 1 2 4 3 presenta cinco inversiones tenemos que la sustitu-
ción dada es impar.
Estamos listos para introducir el concepto de determinante . Sea
 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
 
(aij ) ≡  . .. .. .. 
 .. . . . 
an1 an2 · · · ann

una matriz cuadrada de orden n. Consideremos todos los productos posibles de n


elementos de (aij ) donde cada producto contiene exactamente un elemento de cada
fila y uno de cada columna, esto es, todos los productos de la forma

a1α1 a2α2 · · · anαn (1.11)

donde α1 α2 · · · αn es una permutación de los ı́ndices 1,2,. . . , n. Puesto que para formar
(1.11) podemos elegir primero un elemento de la primera fila de (aij ), a saber a1α1 ,
luego uno de la segunda fila, a saber a2α2 (donde a2α2 no puede estar en la columna
α1 , esto es, α1 6= α2 ), luego uno de la tercera fila a saber a3 α3 (donde a3α3 no puede
estar en las columnas α1 o α2 , esto es α1 6= α2 6= α3 ) y ası́ continuamos hasta la fila
n, podemos concluir que hay n! de estos productos ya que en (1.11) los ı́ndices fila
siempre pueden escribirse en el orden natural.

Cada uno de los productos (1.11) tiene naturalmente un signo. Si la sustitución


µ ¶
1 2 3 ··· n
α1 α2 α3 · · · αn

es par le mantenemos dicho signo, si es impar lo multiplicamos por -1.

A la suma algebráica de estos n! productos de la forma (1.11) con los signos adju-
dicados mediante la regla recién enunciada lo llamaremos determinante de orden n
correspondiente a la matriz (aij ). Si n = 1 diremos que a11 es el determinante de
12 CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

orden 1 de la matriz (a11 ).

Al determinante de la matriz (aij ) lo denotaremos por


¯ ¯
¯ a11 a12 ··· a1n ¯
¯ ¯
¯ a21 a22 ··· a2n ¯
¯ ¯
det(aij ) ≡ ¯ .. .. .. .. ¯
¯ . . . . ¯
¯ ¯
¯ an1 an2 ··· ann ¯

Ejemplo: Sea  
a11 a12 a13
(aij ) =  a21 a22 a23 
a31 a32 a33
Hay 6 productos de la forma (1.11)
a1α1 a2α2 a3α3
donde debemos rellenar α1 , α2 , α3 con todas las permutaciones posibles de los ı́ndices
1,2,3. Los 6 productos posibles son
a11 a22 a33
correspondientes a las permutaciones pares 1 2 3, 2 3 1, 3 1 2, ellos
a12 a23 a31
mantienen su signo. Los otros 3 son
a13 a21 a32

a12 a21 a33


correspondientes a las permutaciones impares 2 1 3, 1 3 2, 3 2 1,
a11 a23 a32
ellos deben ser multiplicados por -1. Luego
a13 a22 a31

det(aij ) = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a12 a21 a33 − a11 a23 a32 − a13 a22 a31

1.3. Propiedades del determinante


Definición 1.16 Sea (aij ) una matriz cuadrada de orden n. A la matriz cuadrada
de orden n (bij ), donde bij = aji i = 1, 2, . . . , n, j = 1, 2, . . . , n la llamaremos la
traspuesta de (aij ), se anota
(bij ) = (aij )t
Es claro que (bij ) se obtiene de (aij ) poniendo las filas de aij como columnas de bij .

Ejemplo:    
1 3 5 1 2 1
(aij ) =  2 1 4  ⇒ (aij )t =  3 1 1 
1 1 1 5 4 1
En general si
   
a11 a12 ··· a1n a11 a21 ··· an1
 a21 a22 ··· a2n   a12 a22 ··· an2 
   
(aij ) =  .. .. .. ..  ⇒ (aij )t =  .. .. .. .. 
 . . . .   . . . . 
an1 an2 ··· ann a1n a2n ··· ann
1.3. PROPIEDADES DEL DETERMINANTE 13

Nota: Cada producto a1α1 a2α2 · · · anαn se llama un término del determinante.
Propiedad 1: det(aij ) = det(aij )t

Es evidente que ambos determinantes tienen los mismos términos, hay que demostrar
que el mismo término tiene el mismo signo en det(aij ) y en det(aij )t . Sea

a1α1 a2α2 · · · anαn

un término de det(aij ). Si llamamos (bij ) = (aij )t tal término es en det(bij )

bα1 1 bα2 2 · · · bαn n .

Si reordenáramos los factores de modo que el producto quede en la forma canónica


b1γ1 b2γ2 · · · bnγn esto serı́a lo mismo que llevar la sustitución
µ ¶ µ ¶
α1 α2 · · · αn 1 2 3 ··· n
a la forma .
1 2 ··· n γ1 γ2 γ3 · · · γn
µ ¶
α1 α2 · · · αn
Pero esta última tiene la misma paridad que la cual a su vez
µ 1 2¶ · · · n
1 2 3 ··· n
tiene la misma paridad que (la suma del número de in-
α1 α2 α3 · · · αn
versiones es la misma).

Se concluye que a1α1 a2α2 · · · anαn tiene el mismo signo considerado como término de
det(bij ).

De la propiedad 1 se deduce que cualquier afirmación sobre las filas del determinante
es válidad para sus columnas y viceversa, por esta razón las propiedades que siguen
sólo se demostrarán para las filas del determinante.

Propiedad 2: Si para algún i, 1 ≤ i ≤ n, aij = 0 ∀ j = 1, 2, . . . , n entonces


det(aij ) = 0.

En efecto, cada término contiene un factor de la i-ésima fila (definición de determi-


nante) luego todos los términos son iguales a cero.

Propiedad 3: Si un determinante se obtiene de otro permutando dos filas todos los


términos del primer determinante serán términos del segundo pero con signos contra-
rios, es decir, al permutar dos filas el determinante sólo cambia de signo.

Supongamos que permutamos las filas i y j, i < j. Sea (bij ) la matriz que se obtiene
al permutar las filas.
Consideremos un término cualquiera del determinante original,

a1α1 a2α2 · · · aiαi · · · ajαj · · · anαn

y su signo está determinado por la paridad de


µ ¶
1 2 ··· i ··· j ··· n
α1 α2 · · · αi · · · αj ··· αn
14 CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

En el nuevo determinante él es

b1α1 b2α2 · · · bjαi · · · biαj · · · bnαn

(aiαi pasa a la fila j pero permanece en la columna αi , análogamente para ajαj ) y su


signo está determinado por la paridad de
µ ¶
1 2 ··· j ··· i ··· n
α1 α2 · · · αi · · · αj · · · αn

Puesto que 1 2 · · · j · · · i · · · n se obtiene de 1 2 · · · i · · · j · · · n mediante una trasposi-


ción, ambas permutaciones tienen paridad contraria y por consiguiente ambas sustitu-
ciones tienen paridad contraria.

Se concluye que a1α1 a2α2 · · · anαn aparece en el nuevo determinante con signo opuesto
al que tenı́a en el determinante original.

Propiedad 4: Un determinante con dos filas iguales es igual a cero.

Supongamos que det(aij ) = d y supongamos que las filas i, j son iguales. Entonces al
intercambiar las filas i, j obtenemos el mismo determinante, pero por la propiedad 3,
obtenemos el determinante con signo opuesto luego d = −d ⇒ d = 0.

Propiedad 5: Si se multiplican todos los elementos de una fila del determinante por
un número k, el determinante queda multiplicado por k.

Supongamos que multiplicamos todos los elementos de la fila i por k. Por la definición
de determinante cada término queda multiplicado por k.

Nota: El factor común de todos los elementos de una fila puede ser extraı́do como
un factor del determinante.

Ejemplo: ¯ ¯ ¯ ¯
¯ 2 4 6 ¯ ¯ 1 2 3 ¯
¯ ¯ ¯ ¯
¯ a b c ¯ = 2¯ a b c ¯
¯ ¯ ¯ ¯
¯ d e f ¯ ¯ d e f ¯

Propiedad 6: Un determinante con dos filas proporcionales es igual a cero.

Supongamos que air = kajr r = 1, 2, . . . , n. Por la propiedad 5 es posible extraer factor


común de la fila j, queda ası́ un determinante con dos filas iguales.

Propiedad 7: Escribamos la i-ésima fila de det(aij ) como

aij = bj + cj j = 1, 2, . . . , n.

Entonces det(aij ) es igual a la suma de dos determinantes cuyas filas son, salvo la fila
i, las mismas que las del original, y la fila i del primer sumando es b1 b2 · · · bn y la fila
i del segundo sumando es c1 c2 · · · cn .
1.3. PROPIEDADES DEL DETERMINANTE 15

En efecto,

a1α1 a2α2 · · · anαn = a1α1 a2α2 · · · (bj + cj ) · · · anαn


= a1α1 · · · bj · · · anαn + a1α1 · · · cj · · · anαn

Pero el primer sumando es un término del determinante original salvo que su fila i ha
sido reemplazada por b1 b2 · · · bn , análogamente para el segundo sumando.

Ejemplo:
¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯
¯ 3 3 3 ¯ ¯ 1+2 2+1 0+3 ¯ ¯ 1 2 0 ¯ ¯ 2 1 3 ¯
¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯
¯ a b c ¯=¯ a b c ¯=¯ a b c ¯+¯ a b c ¯
¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯
¯ d e f ¯ ¯ d e f ¯ ¯ d e f ¯ ¯ d e f ¯

Definición 1.17 Diremos que la i-ésima fila de det(aij ) es combinación lineal de las
demás filas del determinante si hay constantes k1 , k2 , . . . , ki−1 , ki+1 , . . . , kn tales
que
i−1
X n
X
aij = kr arj + kr arj j = 1, 2, . . . , n
r=1 r=i+1

Ejemplo: Consideremos el determinante


¯ ¯
¯ a1 a2 a3 ¯
¯ ¯
¯ b b2 b3 ¯
¯ 1 ¯
¯ a1 + 2b1 a2 + 2b2 a3 + 2b3 ¯

La tercera fila es combinación lineal de las filas 1 y 2, k1 = 1, k2 = 2, entonces


2
X
a3j = br arj j = 1, 2, 3.
r=1

Nota: Es posible que algunos de los kr sean iguales a cero. En tal caso la fila i es
combinación lineal de algunas de las restantes filas pero con la argucia de tomar los
restantes kr como iguales a cero podemos fingir que es combinación lineal de todas
las filas. En el caso en que todos los kr menos uno sean iguales a cero, por ejemplo
kj 6= 0, obtenemos que la fila i, i 6= j es combinación lineal de la fila j, esto es, la fila
i es proporcional a la fila j. Se concluye que la proporcionalidad se puede considerar
como un caso particular de combinación lineal.
Propiedad 8: Si una de las filas del determinante es combinación lineal de las demás,
el determinante es igual a cero.

Supongamos que la i-ésima fila es combinación lineal de las demás filas. Descomponga-
mos el determinante en una suma de determinantes cuyas filas son todas iguales a las
del determinante original salvo la i-ésima, tal como lo permite la propiedad 7. Cada
uno de estos, o bien tiene una fila de ceros, o bien tiene dos filas proporcionales, en
ambos casos el sumando en cuestión es igual a cero.
16 CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Propiedad 9: El determinante no cambia si a los elementos de una fila se agregan


los elementos de otra fila multiplicados por un mismo número.

Supongamos que a la i-ésima fila se le agrega la j-ésima multiplicada por k. Obtenemos


un determinante cuya i-ésima fila es air + kajr , r = 1, 2, . . . , n. Tal como antes usamos
la propiedad 7.

Nota: Es claro que el determinante no cambia si a una fila se le agrega una combi-
nación lineal de las demás.

Ejemplo: Calcule ¯ ¯
¯ ¯
¯ am + bp an + bq ¯
∆ = ¯¯ ¯
¯
¯ cm + dp cn + dq ¯

usando la propiedad 7.

¯ ¯ ¯ ¯
¯ am an ¯ ¯ bp bq ¯
¯
∆ = ¯ ¯ ¯
+¯ ¯
am + dp cn + dq ¯ cm + dp cn + dq ¯
¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯
¯ am an ¯ ¯ am an ¯ ¯ bp bq ¯ ¯ bp bq ¯
¯
= ¯ ¯ + ¯ ¯ + ¯ ¯ + ¯ ¯
cm cn ¯ ¯ dp dq ¯ ¯ cm cn ¯ ¯ dp dq ¯
¯ ¯ ¯ ¯
¯ m n ¯ ¯ p q ¯
¯
= 0 + ad ¯ ¯ ¯
+ bc ¯ ¯ + 0 usando la propiedad 3
p q ¯ m n ¯
¯ ¯ ¯ ¯
¯ p q ¯ ¯ p q ¯
= −ad ¯¯ ¯ + bc ¯¯ ¯
m n ¯ m n ¯
¯ ¯
¯ p q ¯
¯
= (bc − ad) ¯ ¯
m n ¯

Ejemplo: Calcule ¯ ¯
¯ 2 0 6 0 4 ¯
¯ ¯
¯ 5 3 2 2 7 ¯
¯ ¯
∆ = ¯¯ 2 5 7 5 5 ¯
¯
¯ 2 0 9 2 7 ¯
¯ ¯
¯ 7 8 4 2 1 ¯
Por la propiedad 5 ¯ ¯
¯ 1 0 3 0 2 ¯
¯ ¯
¯ 5 3 2 2 7 ¯
¯ ¯
∆ = 2 ¯¯ 2 5 7 5 5 ¯,
¯
¯ 2 0 9 2 7 ¯
¯ ¯
¯ 7 8 4 2 1 ¯
aplicando la propiedad 9 las filas 2, 3, 4, 5 tenemos:
¯ ¯
¯ 1 0 3 0 2 ¯
¯ ¯
¯ 0 3 −13 2 −3 ¯
¯ ¯
∆ = 2 ¯¯ 0 5 1 5 1 ¯
¯
¯ 0 0 3 2 3 ¯
¯ ¯
¯ 0 8 −17 2 −13 ¯
1.3. PROPIEDADES DEL DETERMINANTE 17

Por definición de determinante, todos los términos deben contener exactamente un


elemento de la primera columna, luego sobreviven sólo aquellos sumandos que con-
tienen a a11 = 1 y exactamente un elemento de las filas 2, 3, 4, 5 y un elemento de las
columnas 2, 3, 4, 5. Entonces un término tı́pico del desarrollo es de la forma

1 · a2α2 · a3α3 · a4α4 · a5α5

cuyo signo está dado por la sutitución


µ ¶
1 2 3 4 5
1 α2 α3 α4 α5

la cual tiene la misma paridad que la sustitución de grado 4


µ ¶
2 3 4 5
α2 α3 α4 α5

(el conjunto M de sı́mbolos es 2, 3, 4, 5) puesto que 1 no forma ninguna inversión con


los restantes sı́mbolos. Se concluye que
¯ ¯ ¯ ¯
¯ 3 −13 2 −3 ¯ ¯ 3 −13 2 −3 ¯¯
¯ ¯ ¯
¯ 5 1 5 1 ¯¯ ¯ 5 1 5 1 ¯¯
∆ = 2 ¯¯ ¯ = 2 ¯¯
¯ 0 3 2 3 ¯ ¯ 0 3 2 3 ¯¯
¯ 8 −17 2 −13 ¯ ¯ 0 −5 −5 −11 ¯
¯ ¯ ¯ ¯
¯ 15 −65 10 −15 ¯ ¯ 15 −65 10 −15 ¯
¯ ¯ ¯ ¯
2 ¯¯ 15 3 15 3 ¯¯ 2 ¯¯ 0 68 5 18 ¯¯
= =
15 ¯¯ 0 3 2 3 ¯¯ 15 ¯¯ 0 3 2 3 ¯¯
¯ 0 −5 −5 −11 ¯ ¯ 0 −5 −5 −11 ¯
¯ ¯ ¯ ¯
¯ 68 5 18 ¯¯ ¯ 63 5 18 ¯¯
¯ ¯
= 2 ¯¯ 3 2 3 ¯¯ = 2 ¯¯ 1 2 3 ¯¯
¯ −5 −5 −11 ¯ ¯ 0 −5 −11 ¯
¯ ¯ ¯ ¯
¯ 1 2 3 ¯¯ ¯ 1 2 3 ¯¯
¯ ¯
= −2 ¯¯ 63 5 18 ¯¯ = −2 ¯¯ 0 −121 −171 ¯¯
¯ 0 −5 −11 ¯ ¯ 0 −5 −11 ¯
¯ ¯ ¯ ¯
¯ 121 171 ¯ ¯ ¯
= −2 ¯¯ ¯ = −2 ¯ 1 −93 ¯
5 11 ¯ ¯ 5 11 ¯
¯ ¯
¯ 1 −93 ¯
= −2 ¯¯ ¯ = −2 · 476 = −952
0 476 ¯

Ejemplo: Encuentre las raı́ces de


¯ ¯
¯ 1 1 2 3 ¯
¯ ¯
¯ 1 2 − x2 2 3 ¯
¯ ¯=0
¯ 2 3 1 5 ¯
¯ ¯
¯ 2 3 1 9 − x2 ¯

Para x = 1 y para x = −1 las dos primeras filas quedan iguales luego el polinomio es
divisible por (x − 1)(x + 1). Análogamente para las filas 3 y 4 con x = ±2. Luego el
determinante (que es un polinomio de grado 4) es de la forma c(x2 − 4)(x2 − 1), nos
18 CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

falta el valor de c. Haciendo x = 0 tenemos


¯ ¯ ¯ ¯
¯ 1 1 2 3 ¯ ¯ 1 1 2 3 ¯
¯ ¯ ¯ ¯
¯ 1 2 2 3 ¯ ¯ 0 1 0 0 ¯
4c = ¯¯ ¯=¯
¯ ¯
¯
¯
¯ 2 3 1 5 ¯ ¯ 2 3 1 5 ¯
¯ 2 3 1 9 ¯ ¯ 0 0 0 4 ¯

Utilizando la misma argumentación que en el ejercicio anterior vemos que un término


tı́pico del determinante es a1α1 a2α2 a3α3 a44 , (a44 = 4) luego
¯ ¯ ¯ ¯
¯ 1 1 2 ¯ ¯ 1 1 2 ¯ ¯ ¯
¯ ¯ ¯ ¯ ¯ 1 0 ¯
¯ ¯ ¯
4c = 4 ¯ 0 1 0 ¯ = 4 ¯ 0 1 0 ¯ = 4 ¯ ¯ ¯ ¯
¯ 2 3 1 ¯ ¯ 0 1 −3 ¯ 1 −3 ¯

luego c = −3.
Ejemplo: Calcule el determinante de la matriz de n × n dada por
½
a si i 6= j
aij =
x si i = j
Sumando a la primera columna todas las demás queda el siguiente determinante:
ai1 = x + (n − 1)a , i = 1, 2, . . . , n
a1j = a , j = 2, 3, . . . , n
aij = a , i 6= j, i = 2, 3, . . . , n, j = 2, 3, . . . , n
aii = x , i = 2, 3, . . . , n
Luego el determinante es igual a [x + (n − 1)a]∆, donde ∆ es el determinante dado por
ai1 = 1, i = 1, 2, . . . , n
a1j = a, j = 2, 3, . . . , n
aij = a, i 6= j, i = 2, 3, . . . , n, j = 2, 3, . . . , n
aii = x, i = 2, 3, . . . , n
Restemos la primera fila a todas las demás filas, aplicamos la misma argumentación
que en ejercicios anteriores y tenemos que el determinante pedido es [x + (n − 1)a]d
donde d es un determinante de orden (n − 1) dado por
½
0 i 6= j
aij =
x − a i = j, i = 2, 3, . . . , n
El único término distinto de cero de dicho determinante es (x − a)(x − a) · · · (x − a)
(n − 1 veces) y su signo está dado por
µ ¶
2 3 ··· n
2 3 ··· n
luego el determinante pedido vale [x + (n − 1)a](x − a)n−1 .
Ejemplo: Calcule el determinante de Vandermonde
¯ ¯
¯ 1 1 ··· 1 ¯
¯ ¯
¯ a1 a 2 · · · a n ¯
¯ ¯
¯ 2
a22 a2n ¯
∆ = ¯ a1 ··· ¯
¯ .. .. .. .. ¯
¯ . . . . ¯
¯ n−1 ¯
¯ a an−1
· · · a n−1 ¯
1 2 n
1.4. TEOREMA DE LAPLACE 19

En forma sucesiva restamos a la fila k la fila k − 1 multiplicada por a1 , k = n, n −


1, n − 2, . . . , 2. Entonces
¯ ¯
¯ 1 1 1 ··· 1 ¯
¯ ¯
¯ 0 a2 − a1 a3 − 1 ··· an − a1 ¯
¯ ¯
¯ 0 a2 (a2 − a1 ) a3 (a3 − a1 ) ··· an (an − a1 ) ¯¯
∆ = ¯
¯ .. .. .. .. .. ¯
¯ . . . . . ¯
¯ ¯
¯ 0 an−2 (a2 − a1 ) an−2 (a3 − a1 ) · · · an−2 (an − a1 ) ¯
2 3 n
= (a2 − a1 )(a3 − a1 ) · · · (an − a1 )d
donde d es un determinante de Vandermonde de orden n − 1.

Por demostrar: El determinante de Vandermonde es igual al producto de todas las


diferencias posibles ai − aj , 1 ≤ j < i ≤ n.

La afirmación es verdadera para n = 2 y acabamos de demostrar que si es válida para


n − 1 también es válida para n.

1.4. Teorema de Laplace


Puesto que es difı́cil calcular un determinante usando directamente la definición, bus-
caremos un teorema que reduzca el cálculo de un determinante de orden n a uno de
n − 1, lo cual permite, en principio, remontarse al cálculo de determinantes de orden
2.

Definición 1.18 Sea d un determinante de orden n, sea k entero, 1 ≤ k ≤ n − 1. En


la matriz (aij ) elegimos arbitrariamente k filas y k columnas. Consideremos la matriz
formada por los elementos que están en las intersecciones de las k filas y k columnas
elegidas. Al determinante de orden k de esta matriz se le llama menor de orden k
del determinante d (es el determinante que se obtiene de borrar n − k filas y n − k
columnas de d).
Ejemplo: Sea ¯ ¯
¯ a11 a12 a13 a14 ¯
¯ ¯
¯ a21 a22 a23 a24 ¯
d = ¯¯ ¯
¯
¯ a31 a32 a33 a34 ¯
¯ a41 a42 a43 a44 ¯
Un menor de orden 1 se obtiene escogiendo la fila 2 y la columna 3, el menor es
|a23 | = a23 .

Un¯ menor de orden


¯ 2 se obtiene escogiendo las filas 2,3 y las columnas 2, 4, el menor
¯ a a24 ¯
es ¯¯ 22 ¯.
¯
a32 a34
Si borramos la fila 1 y la columna 1 obtenemos el menor de orden 3 dado por
¯ ¯
¯ a22 a23 a24 ¯
¯ ¯
¯ a32 a33 a34 ¯
¯ ¯
¯ a42 a43 a44 ¯
20 CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Definición 1.19 Sea M un menor de orden k de d, 1 ≤ k ≤ n − 1. Suprimamos las k


filas y las k columnas en cuyas intersecciones se encuentra M . Las restantes (n − k)
filas y (n − k) columnas forman un menor M 0 llamado el menor complementario de
M .
¯ ¯ ¯ ¯
¯ a a24 ¯¯ ¯ a11 a13 ¯
En el ejemplo previo, el menor complementario de ¯¯ 22 es ¯ ¯
¯ a41 a43 ¯.
a32 a34 ¯

Definición 1.20 Supongamos que el menor M de orden k se encuentra en las filas


i1 , i2 , . . . , ik y en las columnas j1 , j2 , . . . , jk , sea M 0 su menor complementario. Si

SM = i1 + i2 + · · · + ik + j1 + j2 + · · · + jk ,

llamaremos adjunto de M a (−1)SM M 0 .


¯ ¯
¯ a a24 ¯¯
En el ejemplo previo, el adjunto de ¯¯ 22 es
a32 a34 ¯
¯ ¯
¯ a a13 ¯
(−1)2+3+2+4 ¯¯ 11 ¯
¯
a41 a43

Lema 1.21 Sea d un determinante de orden n, sea M un menor de orden k, sea M 0


su menor complementario. Sea A un término de M (con el signo que tiene en M ),
sea B un término de M 0 (con el signo que tiene en M 0 ). Entonces (−1)SM AB es un
término de d (con el signo que le corresponde en d)

Demostración: Supongamos que M 0 está formado por las primeras k filas y primeras
k columnas. Como SM = 2(1 + 2 + · · · + k), (−1)SM = 1. Sea A = a1α1 a2α2 · · · akαk ,
su signo está determinado por la sustitución
µ ¶
1 2 3 ··· k
,
α1 α2 α3 · · · αk

sea l su número de inversiones. Un término cualquiera de M 0 es

B = a(k+1)βk+1 a(k+2)βk+2 · · · anβn ,

su signo en M 0 está dado por


µ ¶
k+1 k+2 ··· n
,
βk+1 βk+2 ··· βn

sea l0 su número de inversiones.

AB tiene exactamente un factor de cada fila y cada columna de d luego es un término


0
de d. El signo de AB en el producto M M 0 está determinado por (−1)l+l , su signo en
d está determinado por la sustitución
µ ¶
1 2 ··· k k + 1 k + 2 ··· n
.
α1 α2 · · · αk βk+1 βk+2 · · · βn

Pero como los α no pueden formar inversión con los β, ella tiene l + l0 inversiones, su
0
signo en d también está determinado por (−1)l+l .
1.4. TEOREMA DE LAPLACE 21

Supongamos ahora que M 0 está formado por las filas i1 < i2 < · · · < ik y las columnas
j1 < j2 < · · · < jk . Llevemos el menor M al ángulo superior izquierdo, esto es, mediante
trasposiciones de filas y trasposiciones de columnas formamos un nuevo determinante
cuyas primeras k filas y primeras k columnas son las k filas y k columnas de M . Para
esto llevamos a cabo
k(k + 1)
(i1 − 1) + (i2 − 2) + · · · + (ik − k) = i1 + i2 + · · · + ik −
2
trasposiciones de filas y

k(k + 1)
(j1 − 1) + (j2 − 2) + · · · + (jk − k) = j1 + j2 + · · · + jk −
2
trasposiciones de columnas, el nuevo determinante d0 es igual a

(−1)i1 +i2 +···+ik +j1 +j2 +···+jk −k(k+1) d ,

pero k(k + 1) es par luego d0 = (−1)SM d.

Puesto que en el proceso indicado no cambian ni las filas ni las columnas que constitu-
yen a M 0 ni tampoco su orden relativo, M 0 sigue siendo el menor complementario de
M en d0 . Sea A un término de M , B un término de M 0 . Como el orden relativo de las
filas y columnas de M no ha cambiado, A sigue teniendo el mismo signo como término
de M en la nueva posición de M , análogamente para B. Entonces, por la primera
parte de la demostración, AB es un término de d0 . Pero todos los términos de d0 son
términos de d si los multiplicamos por (−1)SM puesto que (−1)SM d0 = (−1)2SM d = d
luego (−1)SM AB es un término de d.
El lema nos permite reducir el cálculo de un determinante de orden n a un determi-
nante de orden n − 1.

Notación: Sea M = |aij | un menor de 1 × 1 del determinante d. Su menor comple-


mentario es de orden (n − 1) y lo designaremos por Mij . Designaremos por Aij =
(−1)i+j Mij al adjunto de M .

Teorema 1.22 Sea i una fila cualquiera de d. Entonces


n
X
d= aij Aij
j=1

Demostración: Por el lema, cada término del desarrollo aij Aij es un término de d
con el signo que le corresponde en d. Sea A un término del desarrollo air Air , si j 6= r,
A no puede ser un término del desarrollo aij Aij puesto que A contiene al elemento air
de la i-ésima fila en tanto que aij Aij contiene al elemento aij de la i-ésima fila, j 6= r.

El desarrollo aij Aij contiene (n − 1)! términos de d con el signo que les corresponde en
Xn
d, aij Aij contiene n(n − 1)! términos distintos de d con el signo que les corresponde
j=1
n
X
en d y puesto que d consta de n! términos se tiene que aij Aij es d.
j=1
22 CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

n
X
Notación: Diremos que aij Aij es el desarrollo del determinante por los adjuntos
j=1
de la i-ésima fila.

Es obvio que también es posible desarrollar el determinante por los adjuntos de una
columna cualquiera.

Ejemplo: Desarrollar
¯ ¯
¯ ¯
¯ 3 1 −1 2 ¯
¯ ¯
¯ ¯
¯ −5 1 3 −4 ¯
d = ¯¯ ¯
¯
¯ 2 0 1 −1 ¯¯
¯
¯ ¯
¯ 1 −5 3 −3 ¯

por los adjuntos de la tercera fila.

¯ ¯ ¯ ¯
¯ 1 −1 2 ¯ ¯ 3 −1 2 ¯
¯ ¯ ¯ ¯
d = (−1)3+1 · 2 · ¯¯ 1 3 −4 ¯¯ + (−1)3+2 · 0 · ¯¯ −5 3 −4 ¯
¯
¯ −5 3 −3 ¯ ¯ 1 3 −3 ¯
¯ ¯ ¯ ¯
¯ 3 1 2 ¯¯ ¯ 3 1 −1 ¯
¯ ¯ ¯
+(−1)3+3 · 1 · ¯¯ −5 1 −4 ¯¯ + (−1)3+4 · (−1) · ¯¯ −5 1 3 ¯
¯
¯ 1 −5 −3 ¯ ¯ 1 −5 3 ¯

Del ejemplo se concluye que mientras más ceros tiene la fila, más fácil es el desarrollo.
Ası́, usando sistemáticamente las propiedades del determinante es posible transfor-
marlo de modo que quede una fila que tiene un 1 y (n − 1) ceros, ası́ el cálculo de un
determinante de orden n se reduce al cálculo de un sólo determinante de orden n − 1.

Ejemplo: Sea ¯ ¯
¯ −2 5 0 −1 3 ¯
¯ ¯
¯ 1 0 3 7 −2 ¯
¯ ¯
d = ¯¯ 3 −1 0 5 −5 ¯
¯
¯ 2 6 −4 1 2 ¯
¯ ¯
¯ 0 −3 −1 2 3 ¯

Realice las siguientes transformaciones:

Sume a la segunda fila tres veces la quinta fila.

Reste a la cuarta fila cuatro veces la quinta fila.

Luego desarrolle por los adjuntos de la tercera columna, se obtiene


¯ ¯
¯ −2 5 −1 3 ¯¯
¯
¯ 1 −9 13 7 ¯¯
d = (−1) ¯¯
¯ 3 −1 5 −5 ¯¯
¯ 2 18 −7 −10 ¯

En este último determinante realice las siguientes transformaciones:


1.4. TEOREMA DE LAPLACE 23

Sume a la primera fila dos veces la segunda fila.


Reste a la tercera fila tres veces la segunda fila.
Reste a la cuarta fila dos veces la segunda fila.
Luego desarrolle por los adjuntos de la primera columna, se obtiene
¯ ¯ ¯ ¯
¯ −13 25 17 ¯¯ ¯¯ −13 25 17 ¯¯
¯
d = ¯¯ 26 −34 −26 ¯¯ = ¯¯ 0 16 8 ¯¯
¯ 36 −33 −24 ¯ ¯ 36 −33 −24 ¯
¯ ¯
¯ −13 25 17 ¯¯ ½ ¯ ¯ ¯ ¯¾
¯ ¯ 2 1 ¯ ¯ 17 ¯¯
= 8¯ 0¯ 2 1 ¯ = 8 −13 ¯¯
¯ ¯ + 36 ¯ 25
−33 −24 ¯ ¯ 2 1 ¯
¯ 36 −33 −24 ¯
= 8{−13(−48 + 33) + 36(25 − 34)} = 8{195 − 324} = −8 · 129 = −1032

n
X
Corolario 1.23 Sea i 6= j, entonces aik Ajk = 0.
k=1
n
X
Demostración: aij Ajk puede interpretarse como el desarrollo por los adjuntos
k=1
de la j-ésima fila de un determinante igual al original salvo que la j-ésima fila es
bjk = aik k = 1, 2, . . . , n. Pero éste es un determinante cuya i-ésima fila y j-ésima fila
son iguales luego vale cero.

Definición 1.24 Una matriz


 
a11 a12 ··· a1n
 a21 a22 ··· a2n 
 
 .. .. .. .. 
 . . . . 
an1 an2 ··· ann
se dice triangular superior si aij = 0 siempre que i > j, o bien triangular inferior si
aij = 0 siempre que i < j.
Teorema 1.25 El determinante de una matriz triangular (superior o inferior) es igual
al producto de los elementos en su diagonal.
Demostración: Claramente el teorema es cierto si n = 1. Sea d el determinante de
la matriz (aij ). Supongamos que la matriz es triangular superior y desarrollemos por
los adjuntos de la primera columna, obtenemos
n
X
d= ai1 Ai1 = a11 A11 ,
i=1

pero A11 es el determinante de la matriz que resulta de eliminar la primera fila y


la primera columna, que es también triangular superior. Luego si suponemos cierto el
teorema para matrices de n−1 filas y n−1 columnas tenemos que A11 = a22 a33 · · · ann ,
de donde se tiene que el teorema es cierto por inducción.

Si la matriz es triangular inferior, su traspuesta es triangular superior y los elementos


de su diagonal permanecen invariantes.
24 CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Teorema 1.26 (Laplace) Sea d un determinante de orden n, sea 1 ≤ k ≤ n − 1.


Elijamos k filas (o k columnas) del determinante y consideremos todos los menores
de orden k que se pueden formar con dichas k filas (o k columnas). La suma de los
productos de dichos menores por sus respectivos adjuntos es d.

Antes de dar la demostración veamos un ejemplo. Sea


¯ ¯
¯ −4 1 2 −2 1 ¯
¯ ¯
¯ 0 3 0 1 −5 ¯
¯ ¯
d = ¯¯ 2 −3 1 −3 1 ¯
¯
¯ −1 −1 3 −1 0 ¯
¯ ¯
¯ 0 4 0 2 5 ¯

Desarrollamos por los menores de la primera y tercera columnas ( esto es k = 2 y


elegimos las columnas 1 y 3).

¯ ¯ ¯ ¯
¯ ¯ ¯ −3 −3 1 ¯ ¯ ¯¯ 3 1 −5 ¯¯
¯
1+2+1+3 ¯ −4 2 ¯¯ ¯ ¯ −4 2 ¯ ¯
¯ ¯ −1 −1 0 ¯ + (−1)1+3+1+3 ¯ ¯¯ ¯
d = (−1) ¯ 0 0 ¯¯ ¯ ¯ 2 1 ¯ ¯ −1 −1 0 ¯
¯ 4 2 5 ¯ ¯ 4 2 5 ¯
¯ ¯ ¯ ¯
¯ ¯¯ 3 1 −5 ¯¯ ¯ ¯¯ 3 1 −5 ¯
¯
1+4+1+3 ¯ −4 2 ¯¯ ¯¯ ¯
1+5+1+3 ¯ −4 2 ¯ ¯
¯¯ ¯
+(−1) −3 −3 1 ¯ + (−1) −3 −3 1 ¯
¯ −1 3 ¯ ¯¯ ¯ ¯ 0 0 ¯¯ ¯
4 2 5 ¯ ¯ −1 −1 0 ¯
¯ ¯ ¯ ¯
¯ ¯ ¯ 1 −2 1 ¯ ¯ ¯ ¯ 1 −2 1 ¯
¯ 0 0 ¯¯ ¯¯ ¯ ¯ 0 0 ¯ ¯ ¯
+(−1) 2+3+1+3 ¯ −1 −1 0 ¯¯ + (−1)2+4+1+3 ¯¯ ¯ ¯ −3 −3 1 ¯
¯ 2 1 ¯ ¯¯ −1 3 ¯¯ ¯
4 2 5 ¯ ¯ 4 2 5 ¯
¯ ¯ ¯ ¯
¯ ¯ ¯ 1 −2 1 ¯ ¯ ¯ ¯ 1 −2 1 ¯
¯ 0 0 ¯¯ ¯¯ ¯ ¯ 2 1 ¯ ¯ ¯
+(−1) 2+5+1+3 ¯ −3 −3 1 ¯¯ + (−1)3+4+1+3 ¯¯ ¯ ¯ 3 1 −5 ¯
¯ 0 0 ¯ ¯¯ −1 3 ¯¯ ¯
−1 −1 0 ¯ ¯ 4 2 5 ¯
¯ ¯ ¯ ¯
¯ ¯ ¯ 1 −2 1 ¯ ¯ ¯ ¯ 1 −2 1 ¯
¯ 2 1 ¯¯ ¯¯ ¯ ¯ −1 3 ¯ ¯ ¯
+(−1) 3+5+1+3 ¯ 3 1 −5 ¯¯ + (−1)4+5+1+3 ¯¯ ¯¯ 3 1 −5 ¯¯
¯ 0 0 ¯ ¯¯ 0 0 ¯¯
−1 −1 0 ¯ ¯ −3 −3 1 ¯

Demostración: Sean i1 , i2 , . . . , ik las filas escogidas, sea A = a1α1 a2α2 · · · anαn un


término cualquiera del determinante d. En A hay exactamente un elemento de cada
una de las filas i1 , i2 , . . . , ik . Supongamos que ellos están en las columnas αi1 , αi2 , . . . ,
αik . Consideremos el producto B = ai1 αi1 ai2 αi2 · · · aik αik . B contiene exactamente un
elemento de cada fila y un elemento de cada columna del menor M formado por las filas
i1 , i2 , . . . , ik y las columnas αi1 , αi2 , . . . , αik . El producto de los restantes factores de
A contiene exactamente un elemento de cada fila y un elemento de cada columna del
menor complementario M 0 de M . Se concluye que, al menos en valor absoluto, A es un
término del desarrollo indicado
¡ ¢ en el enunciado del teorema. El número de términos
de dicho desarrollo es nk k!(n − k)! = n! y según el lema, cada uno es un término
de d. Pero sólo hay uno que contiene los mismos factores que A, si difiriese en signo
con A entonces no serı́a término de d. Hemos demostrado que todos los términos de d
aparecen entre los indicados en el enunciado del teorema y que estos son exactamente
n!, esto prueba el teorema propuesto.
1.5. LA REGLA DE CRAMER 25

1.5. La regla de Cramer


Consideremos un sistema de n ecuaciones lineales con n incógnitas:

a11 x1 + a12 x2 + · · · + a1n xn = b1


a21 x1 + a22 x2 + · · · + a2n xn = b2
.. (1.12)
.
an1 x1 + an2 x2 + · · · + ann xn = bn
Sea d el determinante de la matriz del sistema, supondremos que d 6= 0. Si (1.12) es
compatible, sea (α1 , α2 , . . . , αn ) una solución. Entonces

a11 α1 + a12 α2 + · · · + a1n αn = b1


a21 α1 + a22 α2 + · · · + a2n αn = b2
.. (1.13)
.
an1 α1 + an2 α2 + · · · + ann αn = bn
Sea j arbitrario, 1 ≤ j ≤ n, multipliquemos la primera igualdad de (1.13) por A1j (el
adjunto de a1j ), la segunda por A2j , . . . , la enésima por Anj y sumándolas se obtiene
à n ! à n ! à n ! n
X X X X
ai1 Aij α1 + ai2 Aij + α2 + · · · + ain Aij αn = bi Aij
i=1 i=1 i=1 i=1

n
X n
X
aij Aij = d y si r 6= j, air Aij = 0, luego
i=1 i=1

n
X
dαj = bi Aij
i=1

n
X
Pero bi Aij es el desarrollo de un determinante idéntico a d salvo por su j-ésima
i=1
columna que es reemplazada por la solumna de los términos libres b1 , b2 , . . . , bn . Si
n
X
dj ≡ bi Aij entonces
i=1
dj
αj = 1≤j≤n (1.14)
d
Se concluye que si d 6= 0 y el sistema es compatible entonces la solución es única y
está dada por (1.14).

A la inversa, supongamos que d 6= 0 y reemplacemos la n-tupla ( dd1 , dd2 , . . . , ddn ) en el


lado izquierdo de (1.12). Veamos que sucede en la i-ésima ecuación:
n n n n
" n #
X dr 1X X X 1X
air = air bs Asr = air Asr bs
r=1
d d r=1 s=1 s=1
d r=1

Pero ½
n
1X 0 si i 6= s
air Asr = d
d r=1 d si i = s
26 CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

d
luego la ecuación se satisface para 1 ≤ i ≤ n. Se concluye que αj = dj 1 ≤ j ≤ n es
una solución del sistema de ecuaciones y por lo tanto si d 6= 0 el sistema es compatible,
tenemos ası́ la regla de Cramer:

Teorema 1.27 Si el determinante d de la matriz de un sistema de ecuaciones lineales


d
es distinto de cero, el sistema tiene solución única dada por (α1 , α2 , . . . , αn ), αj = dj
1 ≤ j ≤ n donde dj es idéntico al determinante d salvo por la j-ésima columna que se
reemplaza por la columna de los términos libres.

Nota: Todo sistema homogéneo es compatible (admite siempre la solución trivial


(0, 0, . . . , 0), si d 6= 0 esta es la única solución. Se concluye que si un sistema lineal
homogéneo de n ecuaciones con n incógnitas tiene soluciones distintas de la trivial
necesariamente su determinante d es igual a cero.
Estamos en condiciones de demostrar que si un determinante d es igual a cero al menos
una de sus filas es combinación lineal de las demás. Para esto consideremos el sistema
homogéneo de n ecuaciones con n incógnitas cuya matriz (aij ) es aquella cuyas filas
son las filas del determinante d. Si aplicamos el método de Gauss obtenemos un sis-
tema cuyo determinante es igual a cero, puesto que el método de eliminación de Gauss
consiste esencialmente en restar a una ecuación ciertas combinaciones lineales de las
ecuaciones que la preceden y mediante estas operaciones el valor del determinante del
sistema no cambia. Esto significa que dicho sistema sólo puede ser reducido a un sis-
tema trapezoidal, esto es, alguna de las ecuaciones debe haber sido eliminada, pues
de lo contrario habrı́a sido obtenido un sistema triangular, cuya matriz tendrı́a un
determinante distinto de cero pues serı́a el producto de los elementos en la diagonal,
que serı́an todos distintos de cero. Pero para que eso suceda, al menos una de las
ecuaciones debe ser combinación lineal de las demás precisamente porque el método
de eliminación consiste en restar a una ecuación ciertas combinaciones lineales de las
ecuaciones que la preceden.

La afirmación también es verdadera para las columnas de d puesto que el sistema cuya
matriz es la traspuesta de (aij ) también tiene determinante igual a cero.

Puesto que un sistema homogéneo que se puede llevar mediante el método de Gauss
a un sistema trapezoidal admite soluciones no triviales, se concluye también que si el
determinante de un sistema homogéneo es igual a cero dicho sistema tiene soluciones
distintas de la trivial.

Ejemplo: Resolver el sistema


 
2 1 −5 1 8
 1 −3 0 −6 9 
 
 0 2 −1 2 −5 
1 4 −7 6 0

¯ ¯
¯ 2 1 −5 1 ¯
¯ ¯
¯ 1 −3 0 −6 ¯
d = ¯¯ ¯ = 27
¯
¯ 0 2 −1 2 ¯
¯ 1 4 −7 6 ¯
1.5. LA REGLA DE CRAMER 27
¯ ¯ ¯ ¯
¯ 8 1 −5 1 ¯¯ ¯ 2 8 −5 1 ¯
¯ ¯ ¯
¯ 9 −3 0 −6 ¯¯ ¯ 1 9 0 −6 ¯
d1 = ¯¯ = 81 d2 = ¯¯ ¯ = −108
¯ −5 2 −1 2 ¯¯ ¯ 0 −5 −1 2 ¯
¯
¯ 0 4 −7 6 ¯ ¯ 1 0 −7 6 ¯
¯ ¯ ¯ ¯
¯ 2 1 8 1 ¯¯ ¯ 2 1 −5 8 ¯
¯ ¯ ¯
¯ 1 −3 9 −6 ¯¯ ¯ 1 −3 0 9 ¯
d3 = ¯¯ = −27 d4 = ¯¯ ¯ = 27
¯ 0 2 −5 2 ¯¯ ¯ 0 2 −1 −5 ¯
¯
¯ 1 4 0 6 ¯ ¯ 1 4 −7 0 ¯

α1 = 3 α2 = −4 α3 = −1 α4 = 1

Ejemplo: Dado el sistema


 
λ 1 2 0
 
 
 1 0 1 0 
 
0 −1 λ 0
encuentre los valores de λ para los cuales el sistema admite una solución no trivial.

Necesariamente ¯ ¯
¯ λ 1 2 ¯
¯ ¯
¯ 1 0 1 ¯=0
¯ ¯
¯ 0 −1 λ ¯
Entonces ¯ ¯ ¯ ¯
¯ 0 1 ¯¯ ¯¯ 1 2 ¯¯
λ ¯¯ − =0, λ − (λ + 2) = 0
−1 λ ¯ ¯ −1 λ ¯
luego para cualquier valor de λ el sistema admite sólo la solución trivial.
28 CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES
Capı́tulo 2

Relaciones de dependencia
lineal

2.1. El espacio vectorial Rn


Para construir la teorı́a general de los sistemas de ecuaciones lineales introduciremos
un objeto algebraico auxiliar. Sea n un natural arbitrario, llamaremos “espacio vec-
torial n-dimensional” y lo designaremos por Rn a la siguiente estructura algebraica:
sus elementos serán todas las n-tuplas α = (a1 , a2 , . . . , an ) de números reales. Diremos
que dichas n-tuplas son vectores de Rn , nos referiremos a ellas como vectores a secas.
Por ejemplo, R2 es el conjunto de los pares ordenados de números reales, R3 es el con-
junto de los trı́os ordenados de números reales. Los números a1 , a2 , . . . , an se llaman
las componentes de la n-tupla.

Diremos que α = (a1 , a2 , . . . , an ), β = (b1 , b2 , . . . , bn ) son iguales si y sólo si ai = bi


i = 1, 2, . . . , n.

En Rn definimos las siguientes operaciones:

Sean α = (a1 , a2 , . . . , an ), β = (b1 , b2 , . . . , bn ), llamaremos suma de los vectores α y β


al vector
α + β = (a1 + b1 , a2 + b2 , . . . , an + bn )
De la definición de suma y de la conmutatividad y asociatividad de la suma de números
vemos que la suma de vectores es conmutativa y asociativa:

α + β = β + α, ∀ α, β ∈ Rn

α + (β + γ) = (α + β) + γ, ∀ α, β, γ ∈ Rn

Llamaremos vector nulo a 0 = (0, 0, . . . , 0), es claro que es el único vector de Rn que
tiene la siguiente propiedad:

α+0=α ∀ α ∈ Rn

Llamaremos inverso aditivo del vector α = (a1 , a2 , . . . , an ) a

−α = (−a1 , −a2 , . . . , −an )

29
30 CAPÍTULO 2. RELACIONES DE DEPENDENCIA LINEAL

y es el único vector tal que α + (−α) = 0. Al vector

α + (−β) = (a1 − b1 , a2 − b2 , . . . , an − bn )

lo llamaremos la diferencia de los vectores α y β, se anota simplemente como α − β.

Sea α ∈ Rn , k un número real, llamaremos producto del vector α por el número real k
al vector
kα ≡ αk = (ka1 , ka2 , . . . , kan )
Es evidente que la operación tiene las siguientes propiedades:

i.- 1 · α = α ∀ α ∈ Rn

ii.- k(α + β) = kα + kβ ∀ α, β ∈ Rn , ∀ k ∈ R

iii.- (k1 + k2 )α = k1 α + k2 α ∀ α ∈ Rn ,∀ k1 , k2 ∈ R

iv.- k1 (k2 α) = (k1 k2 )α ∀ α ∈ Rn ,∀ k1 , k2 ∈ R

El lector puede verificar que 0 · α = 0, (−1)α = −α para todo α ∈ Rn , y si kα = 0


entonces k = 0 ó α = 0.

2.2. Dependencia lineal


Definición 2.1 Sean α1 , α2 , . . . , αs ∈ Rn . Diremos que el vector β es combinación
lineal de los vectores α1 , α2 , . . . , αs si existen números reales l1 , l2 , . . . , ls tales que
s
X
β= li αi
i=1

Definición 2.2 Diremos que los vectores α1 , α2 , . . . , αs son linealmente dependientes


si hay números reales k1 , k2 , . . . , ks no todos nulos tales que
s
X
ki αi = 0
i=1

En caso contrario diremos que los vectores α1 , α2 , . . . , αs son linealmente indepen-


dientes.

El conjunto de vectores es linealmente independiente si y sólo si la única combinación


lineal de ellos que es igual a cero es la trivial, esto es,

0 · α1 + 0 · α2 + · · · + 0 · αn

(aquella en que todos los ki son cero).

Vemos que todo conjunto de vectores que contiene al vector cero es linealmente de-
pendiente, si αi = 0 tomemos kj = 0 si j 6= i, ki 6= 0 y se tiene

0 · α1 + 0 · α2 + · · · + ki αi + · · · + 0 · αn = 0
2.3. DIMENSIÓN DEL ESPACIO VECTORIAL RN 31

Teorema 2.3 El conjunto de vectores α1 , α2 , . . . , αs , s ≥ 2 es linealmente dependi-


ente si y sólo si al menos uno de ellos es combinación lineal de los otros.
s
X
Demostración: Supongamos que hay k1 , k2 , . . . , ks no todos nulos tales que ki αi =
i=1
0. Sin pérdida de generalidad podemos suponer que k1 6= 0. Entonces
s
X −ki
α1 = αi .
i=2
k1

s
X
A la inversa, supongamos que hay l2 , l3 , . . . , ls tales que α1 = l2 α2 . Entonces
i=2

s
X
α1 − l2 α2 = 0 ,
i=2

tome k1 = 1, ki = −li , i = 2, 3, . . . , s.
Ejemplo: En R3 sean

α1 = (5, 2, 1) α2 = (−1, 3, 3) α3 = (9, 7, 5) α4 = (3, 8, 7)

Es fácil ver que 4α1 − α2 − 3α3 + 2α4 = 0, el sistema de cuatro vectores es linealmente
dependiente. . También 2α1 + α2 − α3 = 0 luego α1 , α2 , α3 también son linealmente
dependientes como también lo son α2 , α3 , α4 .
Nota: Supongamos que de los s vectores α1 , α2 , . . . , αs hay r de ellos linealmente
dependientes, r < s, entonces el conjunto α1 , α2 , . . . , αs es linealmente dependiente. En
efecto, sin pérdida de generalidad podemos suponer que α1 , α2 , . . . , αr son linealmente
dependientes y por lo tanto hay k1 , k2 , . . . , kr no todos nulos tales que

k1 α1 + · · · + kr αr = 0 .

Elija kr+1 = kr+2 = · · · = ks = 0.

Es obvio que si un conjunto de vectores es linealmente independiente, todo subconjunto


de él es linealmente independiente.
Notación: Cuando un sistema de vectores es linealmente dependiente diremos que es
l.d., si es linealmente independiente diremos que es l.i.

2.3. Dimensión del espacio vectorial Rn


Es claro que en Rn hay sistemas de n vectores que son l.i., considere el sistema

e1 = (1, 0, 0, . . . , 0)
e2 = (0, 1, 0, . . . , 0)
..
.
en = (0, 0, 0, . . . , 1)
32 CAPÍTULO 2. RELACIONES DE DEPENDENCIA LINEAL

n
X
ki ei = 0 ⇒ (k1 , k2 , . . . , kn ) = 0 = (0, 0, . . . , 0)
i=1
luego ki = 0, i = 1, 2, . . . , n.

Teorema 2.4 Sean α1 , α2 , . . . , αs ∈ Rn , s > n. Entonces el conjunto es l.d.


Demostración: Sean αi = (ai1 , ai2 , . . . , ain ), i = 1, 2, . . . , s y supongamos que
Xs
ki αi = 0. Entonces
i=1
s
X
(ki ai1 , ki ai2 , . . . , ki ain ) = (k1 a11 , k1 a12 , . . . , k1 a1n ) +
i=1
(k2 a21 , k2 a22 , . . . , k2 a2n ) +
..
.
(ks as1 , k2 as2 , . . . , ks asn )
às s s
!
X X X
= ki ai1 , ki ai2 , . . . , ki ain = 0
i=1 i=1 i=1

Obtenemos ası́ un sistema lineal homogéneo


s
X
aij ki = 0 j = 1, 2, . . . , n (2.1)
i=1

para las variables k1 , k2 , . . . , ks .

Sabemos que (2.1) es compatible, como el número de incógnitas es mayor que el número
de ecuaciones (s > n), al aplicar el método de Gauss el sistema queda reducido a la
forma trapezoidal y por lo tanto tiene soluciones no triviales.
Del teorema se concluye que un sistema l.i. de vectores en Rn consta a lo más de n
vectores (ya vimos que hay sistemas l.i. que constan exactamente de n vectores).

Definición 2.5 Sean α1 , α2 , . . . , αr un sistema de vectores l.i. en Rn . Diremos que


el sistema es linealmente independiente maximal si al agregar a él cualquier β ∈ Rn ,
el nuevo sistema α1 , α2 , . . . , αr , β es l.d.
De lo dicho anteriormente se concluye que todo sistema l.i. en Rn que consta de n
vectores es linealmente independiente maximal.

Sea α1 , α2 , . . . , αn l.i. en Rn , sea β ∈ Rn arbitrario. Puesto que α1 , α2 , . . . , αn es


maximal, hay constantes k1 , k2 , . . . , kn+1 , no todas nulas, tales que
n
X
ki αi + kn+1 β = 0
i=1

Si kn+1 = 0 entonces al menos uno entre k1 , k2 , . . . , kn es distinto de cero lo cual es


contradicción. Se concluye que kn+1 6= 0 y β es combinación lineal de los vectores α1 ,
α2 , . . . , αn . Se concluye que
2.3. DIMENSIÓN DEL ESPACIO VECTORIAL RN 33

Si α1 , α2 , . . . , αn es l.i. todo vector de Rn puede expresarse como combinación


lineal de ellos. Decimos que el sistema de vectores α1 , α2 , . . . , αn genera a Rn .
Por ejemplo, el sistema de vectores
e1 = (1, 0, 0, . . . , 0)
e2 = (0, 1, 0, . . . , 0)
..
.
en = (0, 0, 0, . . . , 1)
genera a Rn .
n
X
Si α = (a1 , a2 , . . . , an ) entonces α = a i ei .
i=1

Sea α1 , α2 , . . . , αr l.i., y supongamos que no es maximal. Entonces hay αr+1 ∈ Rn tal


que α1 , α2 , . . . , αr , αr+1 es l.i. Si no es maximal, hay αr+2 ∈ Rn tal que α1 , α2 , . . . ,
αr , αr+1 , αr+2 es l.i. Sabemos que el proceso debe terminar porque a lo más pueden
completarse n vectores l.i. Entonces todo sistema l.i. está contenido en un sistema
maximal, en particular un vector distinto de cero está contenido en un sistema lin-
ealmente independiente maximal. Se concluye que hay infinitos sistemas linealmente
independientes maximales en Rn .

¿Hay sistemas linealmente independientes maximales que constan de menos de n vec-


tores ? La respuesta es negativa, todos constan exactamente de n vectores. Nos abo-
caremos a responder la pregunta recién formulada.

Definición 2.6 Diremos que el vector β se expresa linealmente mediante el sistema


de vectores α1 , α2 , . . . , αr si β es combinación lineal de ellos.
Es claro que si β se expresa linealmente mediante un subsistema α1 , α2 , . . . , αr tam-
bién se expresa linealmente mediante α1 , α2 , . . . , αr .

Definición 2.7 Diremos que el sistema de vectores β1 , β2 , . . . , βs se expresa lineal-


mente mediante el sistema de vectores α1 , α2 , . . . , αr si cada uno de los vectores β1 ,
β2 , . . . , βs es combinación lineal de ellos.
Teorema 2.8 Supongamos que el sistema de vectores β1 , β2 , . . . , βs se expresa lin-
ealmente mediante el sistema de vectores α1 , α2 , . . . , αr y que el sistema de vectores
γ1 , γ2 , . . . , γt se expresa linealmente mediante el sistema de vectores β1 , β2 , . . . , βs .
Entonces el sistema γ1 , γ2 , . . . , γt se expresa linealmente mediante el sistema α1 , α2 ,
. . . , αr .
Demostración: Sea
Xs
γj = lji βi j = 1, 2, . . . , t
i=1
Xr
βi = βik αk i = 1, 2, . . . , s entonces
k=1
s r r
às !
X X X X
γj = lji βik αk = lji βik αk j = 1, 2, . . . , t
i=1 k=1 k=1 i=1
34 CAPÍTULO 2. RELACIONES DE DEPENDENCIA LINEAL

Definición 2.9 Dos sistemas de vectores se dicen equivalentes si cada uno se expresa
linealmente mediante el otro.
Del teorema y la definición se tiene que si dos sistemas son equivalentes y un vector α
se expresa linealmente mediante uno de ellos entonces también se expresa linealmente
mediante el otro.

Teorema 2.10 Sea α1 , α2 , . . . , αr un sistema de vectores l.i. en Rn y supongamos


que se expresa linealmente mediante el sistema de vectores β1 , β2 , . . . , βs . Entonces
r ≤ s.
Demostración: Supongamos que r > s. Por hipótesis
s
X
αi = aij βj i = 1, 2, . . . , r
j=1

En Rs definimos los vectores


γ1 = (a11 , a12 , . . . , a1s )
γ2 = (a21 , a22 , . . . , a2s )
..
.
γr = (ar1 , ar2 , . . . , ars )
Como r > s el conjunto de vectores γ1 , γ2 , . . . , γr es l.d. y por lo tanto hay k1 , k2 ,
. . . , kr no todos nulos tales que
r
X
kl γl = 0
l=1
Igualando las componentes a cero tenemos que
r
X
ki aij = 0 j = 1, 2, . . . , s
i=1

Pero à r !
r
X r
X s
X s
X X
ki αi = ki aij βj = ki aij βj = 0
i=1 i=1 j=1 j=1 i=1

lo cual es contradicción luego r ≤ s.

Corolario 2.11 Sean α1 , α2 , . . . , αr y β1 , β2 , . . . , βs sistemas equivalentes en Rn


ambos l.i. Entonces r = s.
Por definición se tiene que si α1 , α2 , . . . , αr y β1 , β2 , . . . , βs son sistemas linealmente
independientes maximales en Rn entonces ellos son equivalentes y por el corolario se
tiene que r = s. Como hay sistemas maximales de n vectores se tiene que r = s = n.

Todos los sistemas l.i. maximales en Rn constan de n vectores y hay infinitos de ellos.
Diremos que un sistema l.i. maximal en Rn es una base de Rn y el que todas las bases
de Rn constan del mismo número n de vectores se expresa diciendo que Rn tiene di-
mensión n.
2.4. RANGO DE UN SISTEMA DE VECTORES 35

2.4. Rango de un sistema de vectores


Sea α1 , α2 , . . . , αn una base de Rn , sea α = (a1 , a2 , . . . , an ). Entonces hay c1 , c2 , . . . ,
n
X
cn tales que α = ci αi . Los números ci se llaman las componentes del vector α con
i=1
respecto a la base α1 , α2 , . . . , αn . Si

α1 = (b11 , . . . , b1n )
α2 = (b21 , . . . , b2n )
..
.
αn = (bn1 , . . . , bnn )

entonces
n
X n
X
ck αk = ck (bk1 , bk2 , . . . , bkn ) = (a1 , a2 , . . . , an )
k=1 k=1

es equivalente a
n
X
ck bkj = aj j = 1, 2, . . . , n (2.2)
k=1

luego para encontrar las componentes del vector α con respecto a la base α1 , α2 , . . . ,
αn debemos resolver el sistema (2.2). Es claro que un vector tiene un juego distinto
de componentes en cada base pero tal juego es único. En efecto, si
n
X n
X n
X
α= ci αi = c0i αi ⇒ (ci − c0i )αi = 0
i=1 i=1 i=1

entonces ci = c0i porque los α1 , α2 , . . . , αn son l.i.

Nótese que si queremos encontrar las componentes del vector 0 en la base α1 , α2 , . . . ,


αn tenemos que resolver el sistema
n
X
ck bkj = 0 j = 1, 2, . . . , n (2.3)
k=1

Puesto que se espera que (2.3) sólo tenga la solución trivial necesariamente debe tenerse
que det(bij ) 6= 0. A la inversa, si det(bij ) 6= 0 entonces (2.3) sólo tiene la solución trivial
y
X n
ck αk = 0
k=1

implica ck = 0, k = 1, 2, . . . , n. Esto demuestra que

Teorema 2.12 El conjunto de vectores α1 , α2 , . . . , αn es l.i. si y sólo si det(bij ) 6= 0.

La base e1 , e2 , . . . , en se llama la base estándar de Rn , en ella


n
X
α= a k ek
k=1
36 CAPÍTULO 2. RELACIONES DE DEPENDENCIA LINEAL

esto es, las componentes del vector α con respecto a la base estándar coinciden con
las componentes de la n-tupla (a1 , a2 , . . . , an ). Esta es la única base para la cual esto
sucede. Si hubiese una base para la cual ck = ak , k = 1, 2, . . . , n para todos los vectores
de Rn , esto deberı́a ser cierto en particular para e1 , e2 , . . . , en .

Definamos el siguiente sı́mbolo llamado “delta de Kronecker”


½
1 si i = j
δij =
0 si i 6= j

Entonces
n
X n
X
ck αk = ck (bk1 , bk2 , . . . , bkn ) = ei = (δi1 , δi2 , . . . , δin )
k=1 k=1

Pero queremos que ck = δik para k = 1, 2, . . . , n luego


n
X
δik (bk1 , bk2 , . . . , bkn ) = (δi1 , δi2 , . . . , δin ) .
k=1

En el miembro izquierdo δik = 0 si k 6= i, δii = 1 luego

(bi1 , bi2 , . . . , bin ) = (δi1 , δi2 , . . . , δin )

luego αi = ei , i = 1, 2, . . . , n.

Definición 2.13 Sea α1 , α2 , . . . , αr un sistema de vectores en Rn . Diremos que


el subsistema αi1 , αi2 , . . . , αis , s < r (aij ∈ {α1 , α2 , . . . , αr }, j = 1, 2, . . . , s) es
linealmente independiente maximal con respecto al sistema α1 , α2 , . . . , αr si el sistema
αi1 , αi2 , . . . , αis , β con β 6= αij j = 1, 2, . . . , s, β ∈ {α1 , α2 , . . . , αn } es l.d.

Nota: Si α1 , α2 , . . . , αr es l.i. también lo consideramos como un subsistema lineal-


mente independiente maximal.
Dos subsistemas como los recién definidos tienen el mismo número de vectores. En
efecto, sea α1 , α2 , . . . , αr un sistema l.d. Podemos suponer sin pérdida de generali-
dad que α1 , α2 , . . . , αs es subsistema linealmente independiente maximal. Queremos
demostrar que
α1 , α2 , . . . , αr (2.4)
y
α1 , α2 , . . . , αs (2.5)
son equivalentes. Vemos que αs+1 , αs+2 , . . . , αr se expresan linealmente mediante
(2.5) porque (2.5) es maximal y αi con 1 ≤ i ≤ s es

αi = 0 · α1 + 0 · α2 + · · · + 1 · αi + · · · + 0 · αs

ası́ que también se expresa linealmente mediante (2.5) y por lo misma razón (2.5) se
expresa linealmente mediante (2.4). Entonces (2.4) es equivalente a cualquiera de sus
subsistemas linealmente independientes y por transitividad ellos son equivalentes entre
sı́. Por teorema previo ellos tienen el mismo número de vectores.
2.5. RANGO DE MATRICES Y DEPENDENCIA LINEAL 37

Definición 2.14 Sea α1 , α2 , . . . , αr un sistema de vectores en Rn . Al número de


vectores de un subsistema linealmente independiente maximal cualquiera se le llama
rango del sistema α1 , α2 , . . . , αr .

Teorema 2.15 Sean


α1 , α2 , . . . , αr (2.6)
y
β1 , β2 , . . . , βs (2.7)
n
dos sistemas de vectores en R . Sea k el rango el primer sistema y l el rango del segun-
do. Si (2.6) es expresa linealmente mediante (2.7) entonces k ≤ l y si son equivalentes,
k = l.

Demostración: Sea
αi1 , αi2 , . . . , αik (2.8)
linealmente independiente maximal en (2.6) y sea

βj1 , βj2 , . . . , βjl (2.9)

linealmente independiente maximal en (2.7).

Tenemos que (2.8) y (2.6) son equivalentes y también (2.9) y (2.7). Como (2.6) se
expresa linealmente mediante (2.7) entonces (2.8) se expresa linealmente mediante
(2.7) y por consiguiente se expresa linealmente mediante (2.9). Pero el rango de (2.8)
es igual al rango de (2.6) y el rango de (2.7) es igual al rango de (2.9). Por teorema
previo, como (2.8) es l.i. entonces el rango de (2.8) es menor o igual al rango de (2.9),
esto es, k ≤ l. Si (2.6) y (2.7) son equivalentes entonces l ≤ k luego k = l.

2.5. Rango de matrices y dependencia lineal


El problema de discernir la dependencia o independencia lineal de un sistema de vec-
tores en Rn , sean ellos

αi = (ai1 , ai2 , . . . , ain ) i = 1, 2, . . . , r

se reduce a resolver la ecuación vectorial


r
X
ki (ai1 , ai2 , . . . , ain ) = (0, 0, . . . , 0)
i=1

la cual escrita en componentes se reduce al siguiente sistema lineal homogéneo:


r
X
ki aij = 0 j = 1, 2, . . . , n (2.10)
i=1

Entonces el sistema α1 , α2 , . . . , αr es l.d. si y sólo si (2.10) tiene soluciones no triviales.

Ejemplo: En R4 sean

α1 = (0, 1, −1, 1)
α2 = (2, 1, 1, 0)
α3 = (1, 1, 1, 1)
38 CAPÍTULO 2. RELACIONES DE DEPENDENCIA LINEAL

Entonces
k1 (0, 1, −1, 1) + k2 (2, 1, 1, 0) + k3 (1, 1, 1, 1) = (0, 0, 0, 0)
es equivalente al sistema

2k2 + k3 = 0
k1 + k2 + k3 = 0
−k1 + k2 + k3 = 0
k1 + k3 = 0

De la segunda y tercera ecuación se tiene 2k1 = 0, de la cuarta k3 = 0 y de la primera


k2 = 0 luego el sistema tiene sólo la solución trivial. α1 , α2 , α3 son l.i.
Abordaremos el mismo problema por otro método. Sea A = (aij ) una matriz de s filas
y n columnas (matriz de s × n). Consideremos los vectores

αi = (a1i , a2i , . . . , asi ) i = 1, 2, . . . , n

Este sistema de vectores son las columnas de A miradas como vectores en Rs . Lla-
maremos rango de la matriz A al rango del sistema α1 , α2 , . . . , αn .

Es natural pensar que podrı́amos haber usado las filas de A para dar la misma defini-
ción, que en justicia deberı́amos hablar del rango fila de A y rango columna de A.
Posteriormente descubriremos que ambos son iguales y por lo tanto es irrelevante si se
eligen columnas o filas de A para dar la definición de rango de A.

Sea k natural, sea k ≤ mı́n(s, n). Nos interesamos por los valores de k par los cuales
hay menores de orden k de la matriz A que son distintos de cero, en particular, por
el mayor de estos k. Diremos que k ≤ mı́n(s, n) es el mayor orden de menor no nulo
de la matriz A si hay un menor de orden k de A que es distinto de cero y todos los
menores de orden r, k < r ≤ mı́n(s, n) son iguales a cero. Por ejemplo, si
 
1 2 1 0
 0 −1 1 2 
A=  0 3 2 1 ,

0 −2 2 4

es claro que det A = 0 luego k < 4.

Consideremos el menor
¯ ¯
¯ 1 2 1 ¯ ¯ ¯
¯ ¯ ¯ −1 1 ¯
¯ 0 −1 1 ¯=¯ ¯ = −2 − 3 = −5
¯ ¯ ¯ 3 2 ¯
¯ 0 3 2 ¯

luego k = 3.

Nótese que si todos los menores de orden k de A son cero, todos los menores de orden
superior son cero. Consideremos un menor cualquiera de orden k + j, k < k + j ≤
mı́n(s, n). Lo desarrollamos por los menores de orden k usando el teorema de Laplace.

Teorema 2.16 El mayor orden r de menor no nulo de la matriz A es igual al rango


de A.
2.5. RANGO DE MATRICES Y DEPENDENCIA LINEAL 39

Demostración: Sabemos que hay menor de orden r que es distinto de cero y que
todos los menores de orden superior valen cero. Supondremos (para simplificar la
notación) que el menor formado por las r primeras filas y las r primeras columnas
de A es distinto de cero. Llamaremos D a este menor. Consideremos las r primeras
columnas de A como vectores de Rs . Sea
αi = (a1i , a2i , . . . , asi ) , i = 1, 2, . . . , r
r
X
y supongamos que ki αi = 0, esto es,
j=1

r
X
ki (a1i , a2i , . . . , asi ) = (0, 0, . . . , 0) .
i=1

En componentes se tiene
r
X
ki aji = 0 j = 1, 2, . . . , n (2.11)
j=1

Supongamos que el sistema (2.11) tiene solución no trivial. Entonces el sistema


r
X
ki aji = 0 j = 1, 2, . . . , r
i=1

tiene solución no trivial y por lo tanto su determinante es distinto de cero. Pero su


determinante es D luego hemos demostrado que las r primeras columnas de A son l.i.
En general, hemos demostrado que si Mr es un menor de orden r de la matriz, las r
columnas de la matriz que pasan por el menor A son l.i.

Sea ∆i el siguiente menor de orden r + 1 de la matriz A


¯ ¯
¯ a11 a12 · · · a1r a1l ¯
¯ ¯
¯ a21 a22 · · · a2r a2l ¯
¯ ¯
¯ ¯
∆i = ¯ ... ..
.
..
.
..
.
..
. ¯
¯ ¯
¯ ar1 ar2 · · · arr arl ¯
¯ ¯
¯ ai1 ai2 · · · air ail ¯

∆i se llama un menor “orlado” de D y se obtiene “pegando” a D los r primeros


elementos de la elésima columna, r < l ≤ n, los r primeros elementos de una fila i
cualquiera, 1 ≤ i ≤ s y el elemento ail .

Si se tiene que 1 ≤ i ≤ r, ∆i tiene dos filas iguales y por lo tanto vale cero y si
r < i ≤ s, ∆i es un menor de orden r + 1 de la matriz A y por hipótesis vale cero.
Luego ∆i = 0 para todo i. Desarrollando ∆i por los adjuntos de la última fila se tiene
r
X
aij Aij + ail Ail = 0
j=1

pero Aij no incluye a la última fila de ∆i luego es independiente de i en magnitud y


su signo en ∆i está dado por (−1)(r+1)+j y tampoco depende de i. Para enfatizar esto
anotaremos Aj = Aij , en particular Ail = D, luego
ai1 A1 + ai2 A2 + · · · + air Ar + ail D = 0
40 CAPÍTULO 2. RELACIONES DE DEPENDENCIA LINEAL

y como D 6= 0 entonces
r
X Aj
ail = kj aij , kj = − , j = 1, 2, . . . , r (2.12)
j=1
D

Pero (2.12) es verdadero para cualquier i, 1 ≤ i ≤ s y k1 , k2 , . . . , kr son independientes


de i. Luego (2.12) dice que la i-ésima columna de la matriz A es combinación lineal de
las r primeras columnas de A. Se concluye que las r primeras columnas de A forman
un sistema linealmente independiente maximal del sistema de columnas de A miradas
como vectores de Rs . Por definición, se tiene que el rango de A es igual a r.
Nota: Debemos hacer notar que en la demostración anterior no usamos que todos los
menores de orden r + 1 son cero, sino que los menores orlados de orden r + 1 de D son
cero, esta observación simplifica el cálculo del rango de A.
Para calcular el rango de una matriz A de s × n tenemos que desarrollar el siguiente
proceso:
i.- Si la matriz tiene algún elemento aij 6= 0, su rango es por lo menos 1. Si todos
los menores orlados de orden 2 del menor |aij | son cero entonces su rango es 1.

ii.- Si algún menor orlado de orden 2 de |aij | es distinto de cero, sea D2 este menor,
calculamos todos los menores orlados de orden 3 de D2 , si todos valen cero, el
rango de la matriz es 2.

iii.- Si algún menor orlado de orden 3 de D2 es distinto de cero, sea D3 dicho menor,
procedemos a los menores orlados de orden 4 de D3 , . . .

iv.- El proceso termina cuando encontramos un menor Dk de orden k distinto de cero


y tal que todos sus menores orlados de orden k + 1 valen cero.
Ejemplo:  
2 −4 3 1 0
 1 −2 1 −4 2 
A=
 0

1 −1 3 1 
4 −7 4 −4 5
s = 4, n = 5, luego el rango de A puede ser a lo más 4.
¯ ¯
¯ 2 −4 ¯
a11 = 2 6= 0, sea D2 = ¯¯ ¯. D = 0, pero esto no significa que A tenga rango 1,
1 −2 ¯ ¯ 2 ¯
¯ 2 3 ¯
podemos tomar por ejemplo D2 = ¯ ¯ ¯ = −1 6= 0. Sea
1 1 ¯
¯ ¯
¯ 2 3 1 ¯¯
¯
D3 = ¯¯ 1 1 −4 ¯¯ = −12 6= 0
¯ 0 −1 3 ¯

Calculemos los orlados de D3 . Ellos son


¯ ¯ ¯ ¯
¯ 2 3 1 −4 ¯¯ ¯ 2 3 1 0 ¯¯
¯ ¯
¯ 1 1 −4 −2 ¯¯ ¯ 1 1 −4 2 ¯¯
O1 = ¯¯ O2 = ¯¯
¯ 0 −1 3 1 ¯¯ ¯ 0 −1 3 1 ¯¯
¯ 4 4 −4 −7 ¯ ¯ 4 4 −4 5 ¯
2.5. RANGO DE MATRICES Y DEPENDENCIA LINEAL 41

Pero O1 = O2 = 0 luego el rango de la matriz es 3 y las tres primeras columnas forman


un sistema linealmente independiente maximal del sistema de columnas de A.
Nota: Si en la demostración del teorema anterior el menor D no consistiera en las
primeras r filas y las primeras r columnas sino que de r filas y r columnas cualesquiera,
el menor orlado ∆1 podrı́a no ser un menor del determinante puesto que la columna
i-ésima que se coloca al final podrı́a no ser la última de las columnas, es decir, las
columnas podrı́an quedar en un orden distinto al orden que tienen en la matriz A
(como el menor orlado O1 en el ejemplo anterior). Lo mismo puede suceder con la fila
i-ésima. Sin embargo, el orden de las columnas en el determinante no puede alterar su
magnitud sino que únicamente su signo, de modo que si todos los menores de orden
r + 1 son cero, el menor orlado ∆i debe ser cero también.
Ejemplo: Sean α1 = (2, −2, −4), α2 = (1, 9, 3), α3 = (−2, −4, 1), α4 = (3, 7, −1).
Buscamos un subsistema linealmente independiente maximal del sistema α1 , α2 , α3 ,
α4 . Para ello, formemos una matriz de 3 × 4 cuyas columnas son estos vectores
 
2 1 −2 3
A =  −2 9 −4 7 
−4 3 1 −1
¯ ¯
¯ 2 1 ¯
y calculamos su rango. Claramente ¯¯ ¯ 6= 0. Sus orlados son
−2 9 ¯
¯ ¯ ¯ ¯
¯ 2 1 −2 ¯ ¯ 0 10 −6 ¯ ¯ ¯
¯ ¯ ¯ ¯ ¯ ¯
O1 = ¯¯ −2 9 −4 ¯=¯ −2 9 −4 ¯ = 2 ¯ 10 −6 ¯ = 0
¯ ¯ ¯ ¯ −15 9 ¯
¯ −4 3 1 ¯ ¯ 0 −15 9 ¯
¯ ¯ ¯ ¯
¯ 2 1 3 ¯¯ ¯¯ 0 10 10 ¯¯ ¯ ¯
¯ ¯ 10 10 ¯¯
O2 = ¯¯ −2 9 7 ¯¯ = ¯¯ −2 9 ¯
7 ¯ = 2¯ ¯ =0
¯ −15 −15 ¯
−4 3 −1 ¯ ¯ 0 −15 −15 ¯

luego el rango de A es 2 y α1 , α2 forman un subsistema linealmente independiente


maximal.

Teorema 2.17 Sea A una matriz de s×n. El máximo número de filas l.i. de A miradas
como vectores en Rn es igual al máximo número de columnas l.i. de A miradas como
vectores en Rs .

Demostración: Consideremos At (la matriz traspuesta de A). Puesto que el valor de


un determinante no cambia cuando se traspone se tiene que rango A = rango At . Pero

rango fila de A = rango columna de At = rango At = rango A = rango columna de A

Ejemplo: Consideremos el sistema homogéneo


 
1 2 1 3 0
 4 −1 5 −6 0 
 
 1 −3 −4 −7 0 
2 −1 −1 0 0
42 CAPÍTULO 2. RELACIONES DE DEPENDENCIA LINEAL

Queremos
¯ saber¯ si tiene soluciones distintas de la trivial. Sea A la matriz del sistema,
¯ 1 2 ¯
D2 = ¯¯ ¯=6 0. Sea
4 −1 ¯
¯ ¯ ¯ ¯
¯ 1 2 1 ¯¯ ¯¯ 1 2 1 ¯
¯ ¯
O1 = ¯¯ 4 −1 5 ¯¯ = ¯¯ 0 −9 1 ¯ 6= 0
¯
¯ 1 −3 −4 ¯ ¯ 0 −5 −5 ¯

Consideremos el único orlado de O1 :


¯ ¯ ¯ ¯
¯ 1 2 1 3 ¯¯ ¯ 1 2 1 3 ¯ ¯ ¯
¯ ¯ ¯ ¯ −9 1 −18 ¯
¯ 4 −1 5 −6 ¯¯ ¯ 0 −9 1 −18 ¯ ¯ ¯
¯ = ¯ ¯ = ¯ −5 −5 −10 ¯
¯ 1 −3 −4 −7 ¯¯ ¯ 0 −5 −5 −10 ¯ ¯ ¯
¯ ¯ ¯ ¯ 0 2 4 ¯
¯ 2 −1 −1 0 ¯ ¯ 0 −5 −3 −6 ¯
¯ ¯ ¯ ¯
¯ −9 1 −18 ¯¯ ¯ −9 1 −18 ¯
¯ ¯ ¯
= −10 ¯¯ 1 1 2 ¯ = −10 ¯¯ 1 0
¯ 0 ¯
¯
¯ 0 1 2 ¯ ¯ 0 1 2 ¯
¯ ¯
¯ 1 −18 ¯
= 10 ¯¯ ¯ = 200 6= 0
1 2 ¯

Luego el rango fila de A es 4, las cuatro ecuaciones del sistema son l.i. Luego, al
aplicar el método de Gauss, ninguna puede desaparecer y el sistema queda en la forma
triangular y por lo tanto tiene sólo la solución trivial.
Nota: Podrı́amos haber calculado directamente el determinante del sistema y haber
verificado que era distinto de 0 y por teorema previo, cuya demostración depende de
la regla de Cramer, haber dicho de inmediato que tenı́a sólo la solución trivial. Hemos
demostrado que se puede concluir lo mismo sin conocer la regla de Cramer.

2.6. Equivalencia de matrices


Si A es una matriz de n × n tal que su determinante d es igual a cero, el rango máximo
de A puede ser (n − 1) luego las n filas de la matriz son l.d. Luego si un determinante
d vale cero, entre sus filas (columnas) existe una relación de dependencia lineal. Esto
ya lo sabı́amos, pero el método del rango nos permite decir cuántas y cuáles filas son l.i.

Existe otro método más simple para calcular el rango de una matriz.

Definición 2.18 Se llaman transformaciones elementales de una matriz A a las sigu-


ientes:
a) La trasposición de dos filas (o columnas)
b) La multiplicación de una fila (o una columna) por un número distinto de cero.
c) La suma a una fila (o a una columna) de otra fila (o columna) multiplicada por un
número.

Teorema 2.19 Las transformaciones elementales de una matriz no alteran su rango.

Demostración:
2.6. EQUIVALENCIA DE MATRICES 43

a) El orden en el cual se consideren las filas no altera su dependencia lineal.

b) Sea α1 , α2 , . . . , αr un sistema linealmente independiente maximal de filas. Sean


c1 , c2 , . . . , cr r números arbitrarios distintos de cero. Supongamos que los vectores
βi = ci αi i = 1, 2, . . . , r son l.d. Entonces hay constantes ki i = 1, 2, . . . , r no todas
Xr
nulas tales que ki βi = 0, esto es,
i=1

r
X
(ki ci )αi = 0
i=1

lo cual es una contradicción.

Sea α una fila cualquiera, entonces


r
X Xr
li
α= li αi = βi
i=1
c
i=1 i

luego el sistema β1 , β2 , . . . , βr es maximal.

c) Sean α1 , α2 , . . . , αs las filas de la matriz, sean

α1 , α2 , . . . , αi + kαj , αi+1 , . . . , αj , . . . , αs

las filas de la nueva matriz. Es claro que las filas de la matriz anterior y de la nueva
matriz son sistemas equivalentes de vectores y por lo tanto tienen el mismo rango.

Definición 2.20 Diremos que dos matrices A y B son equivalentes si B proviene de


A a través de una sucesión de transformaciones elementales.

Es evidente que una transformación elemental es invertible, luego si B proviene de A


a través de una sucesión de transformaciones elementales, entonces A proviene de B
a través de una sucesión de transformaciones elementales. Es claro que dos matrices
equivalentes tienen el mismo rango.

Definición 2.21 Sea A matriz de s × n. Diremos que A tiene la forma diagonal si


a11 = a22 = · · · = arr = 1 (para algún r tal que 0 ≤ r ≤ mı́n(s, n)) y todos los demás
elementos son cero.

Puesto que una matriz diagonal tiene un menor de orden r distinto de cero (en realidad
vale 1) y todos sus menores de orden r + 1 son cero, su rango es r.

Teorema 2.22 Toda matriz puede ser reducida a la forma diagonal mediante una
sucesión de transformaciones elementales.
44 CAPÍTULO 2. RELACIONES DE DEPENDENCIA LINEAL

Demostración: Si aij = 0 ∀ i, j ella tiene la forma diagonal. Si no es ası́, sin pérdida


de generalidad podemos suponer que a11 = 1; en forma análoga al método de Gauss
aplicado a la primera columna llevamos la matriz A a la forma

 
1 a12 a13 ··· a1n
 0 a022 a023 ··· a02n 
 
A0 =  .. .. .. .. .. ,
 . . . . . 
0 a0s2 a0s3 ··· a0sn

luego, aplicando el método a la primera fila, esto es, restando a cada columna una
columna proporcional a la primera de modo que aparezcan ceros en la primera fila,
llevamos A0 a la forma

 
1 0 0 ··· 0
 0 a0022 a0023 ··· a002n 
 
A00 =  .. .. .. .. .. 
 . . . . . 
0 a00s2 a00s3 ··· a00sn

Si todos los a00ij son cero, A00 tiene la forma diagonal. Si algún a00ij es distinto de cero
aplicamos el método a la columna 2 y a la fila 2 de A00 . Es claro que el proceso termina
después de un número finito de pasos.

Se concluye que para calcular el rango de una matriz basta contar el número de unos
que hay en su diagonal principal.

Ejemplo: Calcular el rango de

 
0 2 −4
 −1 −4 5 
 
A=
 3 1 7 

 0 5 −10 
2 3 0
2.6. EQUIVALENCIA DE MATRICES 45

   
1 4 −5 1 4 −5
 3 1 7   3 1 7 
   
A1 = 
 2 3 0 
 A2 = 
 2 3 0 

 0 1 −2   0 1 −2 
0 1 −2 0 0 0
   
1 4 −5 1 4 −5
 0 −11 22   0 −1 2 
   
A3 = 
 0 −5 10 
 A4 = 
 0 −1 2 
 0 1 −2   0 −1 2 
0 0 0 0 0 0
   
1 4 −5 1 0 0
 0 −1 2   0 −1 2 
   
A5 = 
 0 0 0 
 A6 = 
 0 0 0  
 0 0 0   0 0 0 
0 0 0 0 0 0
 
1 0 0
 0 −1 0 
 
A7 = 
 0 0 0 

 0 0 0 
0 0 0

rango A = 2.

Ejemplo: Calcular el rango de


 
1 2 6 −2 −1
 −2 −1 0 −5 −1 
 
 3 1 −1 8 1 
A=



 −1 0 2 −4 −1 
 −1 −2 −7 3 2 
−2 −2 −5 −1 1

   
1 1 2 6 −2 1 1 2 6 −2
 1 −2 −1 0 −5   0 −3 −3 −6 −3 
   
 −1 3 1 −1 8   0 4 3 5 6 
A1 = 


 A2 = 



 1 −1 0 2 −4   0 −2 −2 −4 −2 
 −2 −1 −2 −7 3   0 1 2 5 −1 
−1 −2 −2 −5 −1 0 −1 0 1 −3
   
1 1 2 6 −2 1 1 2 6 −2
 0 1 1 2 1   0 1 1 2 1 
   
 0 4 3 5 6   0 4 3 5 6 
A3 = 


 A4 = 



 0 1 1 2 1   0 1 2 5 −1 
 0 1 2 5 −1   0 −1 0 1 −3 
0 −1 0 1 −3 0 0 0 0 0
46 CAPÍTULO 2. RELACIONES DE DEPENDENCIA LINEAL
   
1 0 0 0 0 1 0 0 0 0
 0 1 1 2 1   0 1 1 2 1 
   
 0 4 3 5 6   0 0 −1 −3 2 
A5 = 
 0

 A6 = 



 1 2 5 −1   0 0 1 3 −2 
 0 −1 0 1 −3   0 0 1 3 −2 
0 0 0 0 0 0 0 0 0 0
   
1 0 0 0 0 1 0 0 0 0
 0 1 1 2 1   0 1 0 0 0 
   
 0 0 1 3 −2   0 0 1 3 −2 
A7 = 
 0

 A8 = 



 0 0 0 0   0 0 0 0 0 
 0 0 0 0 0   0 0 0 0 0 
0 0 0 0 0 0 0 0 0 0
 
1 0 0 0 0
 0 1 0 0 0 
 
 0 0 1 0 0 
A9 = 



 0 0 0 0 0 
 0 0 0 0 0 
0 0 0 0 0

rango A = 3.

2.7. Soluciones de sistemas de ecuaciones lineales


2.7.1. Compatibilidad para sistemas no homogéneos
Teorema 2.23 El sistema de s ecuaciones lineales con n incógnitas

a11 x1 + a12 x2 + · · · + a1n xn = b1


a21 x1 + a22 x2 + · · · + a2n xn = b2
.. (2.13)
.
as1 x1 + as2 x2 + · · · + asn xn = bs

es compatible si y sólo si el rango de la matriz A del sistema es igual al rango de la


matriz ampliada Ā del sistema.

Demostración: Supongamos que el sistema es compatible, sea (k1 , k2 , . . . , kn ) una


solución. Reemplazando en (2.13) se tiene

n
X
air kr = bi i = 1, 2, . . . , s (2.14)
r=1

Interpretemos las columnas de A y la última columna de Ā como vectores en Rs , sean

αj = (a1j , a2j , . . . , asj ) j = 1, 2, . . . , n


β = (b1 , b2 , . . . , bs )
2.7. SOLUCIONES DE SISTEMAS DE ECUACIONES LINEALES 47

Entonces
n
X
ki αi = k1 (a11 , a21 , . . . , as1 ) + k2 (a12 , a22 , a32 , . . . , as2 ) + · · · + kn (a1n , a2n , . . . , asn )
i=1
à n n n
!
X X X
= a1r kr , a2r kr , . . . , asr kr
r=1 r=1 r=1

Se concluye que (2.14) es equivalente a


n
X
ki αi = β
i=1

luego la última columna de Ā se expresa linealmente mediante las columnas de A (es


obvio que las demás también). Es claro que toda columna de A se expresa linealmente
mediante las columnas de Ā. Entonces ambos sistemas de columnas son equivalentes
y por lo tanto tienen el mismo rango.

Si el rango de A es igual al de Ā cualquier sistema linealmente independiente maximal


de columnas de A es linealmente independiente maximal mirado como parte del sistema
de columnas de Ā. Entonces la última columna de Ā se expresa linealmente mediante
un sistema linealmente independiente maximal de columnas de A y por lo tanto es
combinación lineal de las columnas de A. Entonces hay números k1 , k2 , . . . , kn tales
que
Xn
ki αi = β
i=1

o sea, (k1 , k2 , . . . , kn ) es solución del sistema.


Supongamos que el sistema es compatible y que el rango de A es igual a r. Sin pérdida
de generalidad podemos suponer que las r primeras filas de A son l.i. (basta reor-
denar las ecuaciones). Supongamos que las r primeras filas de Ā son l.d. Entonces hay
números λ1 , λ2 , . . . , λn no todos nulos tales que
r
X r
X r
X
λi (ai1 , ai2 , . . . , air , βi ) = 0 ⇒ λi aij = 0 j = 1, 2, . . . , n , λi β i = 0
i=1 i=1 i=1

r
X
lo cual implica que λi (ai1 , ai2 , . . . , ain ) = 0, contradicción. Las r primeras filas de
i=1
Ā son entonces l.i. y forman un sistema linealmente independiente maximal de filas
de Ā. Se deduce que las ecuaciones r + 1, r + 2, . . . , s son combinaciones lineales de
las r primeras ecuaciones. Toda solución de las r primeras es por lo tanto solución de
todo el sistema y viceversa, el sistema (2.13) es equivalente al sistema formado por las
r primeras ecuaciones. Basta entonces resolver el sistema
a11 x1 + a12 x2 + · · · + a1n xn = b1
a21 x1 + a22 x2 + · · · + a2n xn = b2
.. (2.15)
.
ar1 x1 + ar2 x2 + · · · + arn xn = br

Como r ≤ mı́n(s, n) entonces r ≤ n.


48 CAPÍTULO 2. RELACIONES DE DEPENDENCIA LINEAL

Caso 1: r = n. Entonces el menor M formado por los coeficientes de las r primeras


incógnitas es distinto de cero (las r primeras filas de A son l.i.), (2.15) es un sistema
de r = n ecuaciones con n incógnitas y determinante M 6= 0, por la regla de Cramer
tiene solución única.

Caso 2: r < n. Llamaremos incógnitas independientes a xr+1 , xr+2 , . . . , xn . Asignemos


a ellas valores arbitrarios cr+1 , cr+2 , . . . , cn y reescribamos (2.15) como

a11 x1 + · · · + a1r xr = b1 − a1(r+1) cr+1 − a1(r+2) cr+2 − · · · − a1n cn


a21 x1 + · · · + a2r xr = b2 − a2(r+1) cr+1 − a2(r+2) cr+2 − · · · − a2n cn
.. (2.16)
.
ar1 x1 + · · · + arr xr = br − ar(r+1) cr+1 − ar(r+2) cr+2 − · · · − arr cn

Este es un sistema de r ecuaciones con r incógnitas con determinante M 6= 0 y para


cada juego de valores cr+1 , cr+2 , . . . , cn hay una solución única (c1 , c2 , . . . , cr ) (la cual
se calcula mediante la regla de Cramer). Es claro que

(c1 , c2 , . . . , cr , cr+1 , . . . , cn )

es una solución del sistema (2.15), y como ella depende de n − r parámetros arbitrarios
se tiene que el sistema original tiene infinitas soluciones.

¿Son estas todas las soluciones del sistema? Sea (k1 , k2 , . . . , kn ) una solución arbitraria
de (2.15). Reemplazando en (2.15) y escribiendo las r identidades resultantes en la for-
ma (2.16) podemos interpretar ası́:

(k1 , k2 , . . . , kr ) es la única solución de (2.16) que se obtiene asignado los valores kr+1 ,
kr+2 , . . . , kn a las incógnitas independientes. Luego (k1 , k2 , . . . , kn ) se puede obtener
por el método recién descrito, dicho método entrega todas las soluciones del sistema
original.

Nota: Un sistema lineal compatible tiene solución única si y sólo si el rango de la


matriz del sistema es igual al número de incógnitas.
Ejemplo: Resolver  
5 −1 2 1 7
 2 1 4 −2 1 
1 −3 −6 5 0
¯ ¯
¯ 5 −1 ¯
¯
Nótese que ¯ ¯= 6 0,
2 1 ¯
¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯
¯ 5 −1 2 ¯ ¯ 1 −3 −6 ¯ ¯ 5 −1 1 ¯ ¯ 1 −3 5 ¯
¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯
¯ 2 1 4 ¯¯ = ¯¯ 2 1 4 ¯ = 0, ¯ 2 1 −2 ¯=¯ 2 1 −2 ¯=0
¯ ¯ ¯ ¯ ¯ ¯
¯ 1 −3 −6 ¯ ¯ 1 −3 −6 ¯ ¯ 1 −3 5 ¯ ¯ 1 −3 5 ¯

luego el rango de A es 2, sin embargo


¯ ¯ ¯ ¯ ¯ ¯
¯ 5 −1 7 ¯ ¯ 1 −3 5 ¯ ¯ 0 0 5 ¯¯
¯ ¯ ¯ ¯ ¯
¯ 2 1 1 ¯=¯ 2 1 1 ¯=¯ 2 1 1 ¯¯ =
6 0
¯ ¯ ¯ ¯ ¯
¯ 1 −3 0 ¯ ¯ 1 −3 0 ¯ ¯ 1 −3 0 ¯

luego el rango de Ā es 3, el sistema es incompatible.


2.7. SOLUCIONES DE SISTEMAS DE ECUACIONES LINEALES 49

Ejemplo: Resolver
 
7 3 2
 1 −2 −3 
4 9 11
¯ ¯
¯ 7 3 ¯¯
Nótese que ¯¯ 6 0 luego el rango de A es 2.
=
1 −2 ¯
¯ ¯ ¯ ¯
¯ 7 3 2 ¯ ¯ 4 9 11 ¯
¯ ¯ ¯ ¯
¯ 1 −2 −3 ¯=¯ 1 −2 −3 ¯ = 0,
¯ ¯ ¯ ¯
¯ 4 9 11 ¯ ¯ 4 9 11 ¯

el rango de Ā es 2, el sistema es compatible, las dos primeras ecuaciones son l.i.,


r = n = 2, la solución es única y se obtiene resolviendo

7x1 + 3x2 = 2 5 23
⇒ x1 = − , x2 =
x1 − 2x2 = −3 17 17

Ejemplo: Resolver
 
1 1 −2 −1 1 1
 3 −1 1 4 3 4 
1 5 −9 −8 1 0
¯ ¯
¯ 1 1 ¯¯
Nótese que ¯¯ 6 0 pero
=
3 −1 ¯
¯ ¯ ¯ ¯
¯ 1 1 ¯ ¯ 1 1 −2
−2 ¯
¯ ¯ ¯ ¯
¯ 3 −1 ¯ = ¯ 0 −4 7
1 ¯ = 0
¯ ¯ ¯ ¯
¯ 1 5 ¯ ¯ 0 4 −7
−9 ¯
¯ ¯ ¯ ¯
¯ 1 1 −1 ¯¯ ¯¯ 1 1 −1 ¯
¯ ¯
¯ 3 −1 4 ¯¯ = ¯¯ 0 −4 7 ¯ = 0
¯ ¯
¯ 1 5 −8 ¯ ¯ 0 4 −7 ¯
¯ ¯ ¯ ¯
¯ 1 1 1 ¯¯ ¯¯ 1 1 1 ¯
¯ ¯
¯ 3 −1 3 ¯¯ = ¯¯ 0 −4 0 ¯ = 0
¯ ¯
¯ 1 5 1 ¯ ¯ 0 4 0 ¯

luego el rango de A es 2.
¯ ¯ ¯ ¯
¯ 1 1 1 ¯ ¯ 1 1 1 ¯
¯ ¯ ¯ ¯
¯ 3 −1 4 ¯=¯ 0 −4 1 ¯ = 0,
¯ ¯ ¯ ¯
¯ 1 5 0 ¯ ¯ 0 4 −1 ¯

rango Ā = 2, el sistema es compatible.

Como las dos primeras filas de Ā son l.i. el sistema se reduce a las dos primeras
ecuaciones, elijamos x3 , x4 , x5 como incógnitas independientes

x1 + x2 = 1 + 2x3 + x4 − x5
3x1 − x2 = 4 − x3 − 4x4 − 3x5
50 CAPÍTULO 2. RELACIONES DE DEPENDENCIA LINEAL

Luego
1
x1 = (5 + x3 − 3x4 − 4x5 )
4
1
x2 = − (1 − 7x3 − 7x4 )
4

Ejemplo: Resolver  
4 1 −2 1 3
 1 −2 −1 2 2 
 
 2 5 0 1 −1 
3 3 −1 −3 1
Nótese que ¯ ¯ ¯ ¯
¯ 4 1 −2 ¯ ¯ 2 5 0 ¯
¯ ¯ ¯ ¯
¯ 1 −2 −1 ¯=¯ 1 −2 −1 ¯=0
¯ ¯ ¯ ¯
¯ 2 5 0 ¯ ¯ 2 5 0 ¯
pero ¯ ¯ ¯ ¯
¯ 1 −2 1 ¯¯ ¯¯ 1 −2 −1 ¯
¯ ¯
¯ −2 −1 2 ¯¯ = ¯¯ −4 3 0 ¯ 6= 0
¯ ¯
¯ 5 0 1 ¯ ¯ 4 2 0 ¯

¯ ¯ ¯ ¯
¯ 4 1 −2 1 ¯ ¯ 4 1 −2 1 ¯¯ ¯ ¯
¯ ¯ ¯ ¯ −7 −4 3 ¯
¯ 1 −2 −1 2 ¯ ¯ −7 −4 3 0 ¯ ¯ ¯ ¯
¯ ¯ = ¯¯ = − ¯¯ −2 4 2 ¯¯
¯ 2 5 0 1 ¯ −2 4 2 0 ¯ ¯
¯ ¯ ¯ ¯ 15 6 −7 ¯
¯ 3 3 −1 −3 ¯ ¯ 15 6 −7 0 ¯
¯ ¯ ¯ ¯
¯ −15 12 11 ¯ ¯ −15 12 11 ¯
¯ ¯ ¯ ¯
= − ¯¯ −2 4 2 ¯¯ = − ¯¯ −2 4 2 ¯¯
¯ 15 6 −7 ¯ ¯ 0 18 4 ¯
¯ ¯ ¯ ¯
¯ −15 12 11 ¯ ¯ 0 −18 −4 ¯
¯ ¯ ¯ ¯
= 4 ¯¯ 1 −2 −1 ¯¯ = 4 ¯¯ 1 −2 −1 ¯¯ = 0 ,
¯ 0 9 2 ¯ ¯ 0 9 2 ¯

se concluye que rango A = 3. El único menor orlado de 4 × 4 en Ā es (el otro es el


det A que ya vimos que es cero)
¯ ¯ ¯ ¯
¯ 1 −2 1 3 ¯¯ ¯¯ 1 −2 1 3 ¯ ¯ ¯
¯ ¯ ¯ −5 4 8 ¯
¯ −2 −1 2 2 ¯¯ ¯¯ 0 −5 4 8 ¯ ¯ ¯
¯ = ¯ = ¯ 10 −4 −16 ¯=0
¯ 5 0 1 −1 ¯¯ ¯¯ 0 10 −4 −16 ¯ ¯ ¯
¯ ¯ ¯ 5 −6 −8 ¯
¯ 3 −1 −3 1 ¯ ¯ 0 5 −6 −8 ¯

pues las columnas 1 y 3 son proporcionales; el rango de Ā es 3 luego el sistema es


compatible.

Nótese que no es posible usar la regla de Cramer, que la incógnita independiente es


x1 , que las tres primeras filas de Ā son l.i., después de estos considerandos tenemos:

x2 − 2x3 + x4 = 3 − 4x1 x2 − 2x3 + x4 = 3 − 4x1


−2x2 − x3 + 2x4 = 2 − x1 ⇒ −5x3 + x4 = 8 − 9x1
5x2 + x4 = −1 − 2x1 10x3 − 4x4 = −16 + 18x1
2.7. SOLUCIONES DE SISTEMAS DE ECUACIONES LINEALES 51

Sumando las dos últimas tenemos 5x3 = −8+9x1 , reemplazando en la segunda tenemos
x4 = 0. Al reemplazar en la primera ecuación se obtiene
1
5x2 − 2(−8 + 9x1 ) = 15 − 20x1 ⇒ x2 = (−1 − 2x1 )
5

2.7.2. Sistemas homogéneos


En este caso rango A = rango Ā luego son siempre compatibles. Si r = n, la única
solución del sistema es la trivial, si r < n el sistema tiene infinitas soluciones. En
particular, si el número de ecuaciones es igual al número de incógnitas el sistema tiene
soluciones distintas de la trivial si y sólo si det A = 0 (r < n).

Sean

α = (a1 , a2 , . . . , an )
β = (b1 , b2 , . . . , bn )

soluciones de un sistema homogéneo. Entonces cualquier combinación lineal de ellas


es también solución, esto es, si λ, µ son números arbitrarios, λα + µβ es solución del
sistema (lo cual no es cierto para sistemas no homogéneos).

Puesto que las soluciones pueden ser interpretadas como vectores en Rn , un conjunto
de soluciones linealmente independiente maximal con respecto al conjunto de todas las
soluciones del sistema puede constar a lo más de n soluciones, entonces existe un con-
junto finito de soluciones del cual todas las demás son combinaciones lineales. Dicho
conjunto se llamará un sistema fundamental de soluciones. Por un teorema previo, to-
dos los conjuntos fundamentales de soluciones constan del mismo número de soluciones.

Teorema 2.24 Sea A la matriz de un sistema homogéneo de s ecuaciones con n


incógnitas, sea r igual al rango de A. Entonces un conjunto fundamental de soluciones
consta de n − r soluciones.

Demostración: Sin pérdida de generalidad podemos suponer que las incógnitas inde-
pendientes son xr+1 , xr+2 , . . . , xn . Sea d un determinante arbitrario de (n − r) × (n − r)
distinto de cero. Sea
¯ ¯
¯ c1(r+1) c1(r+2 ) ··· c1n ¯¯
¯
¯ c2(r+1) c2(r+2) ··· c2n ¯¯
¯
d=¯ .. .. . .. ¯
¯ . . .. . ¯
¯ ¯
¯ c(n−r)(r+1) c(n−r)(r+2) · · · c(n−r)n ¯

Adoptemos como valores para las incógnitas independientes los elementos de la i-ésima
fila de d, esto es,

xr+1 = ci(r+1) , xr+2 = ci(r+2) , · · · xn = cin ,

sea αi = (ci1 , ci2 , · · · , cir , ci(r+1) , · · · , cin ) la solución del sistema obtenida para dichos
valores de las incógnitas independientes, 1 ≤ i ≤ n − r.
52 CAPÍTULO 2. RELACIONES DE DEPENDENCIA LINEAL

Si formamos la matriz de (n − r) × n cuyas filas son α1 , α2 , . . . , αn−r ella tiene un


menor de (n − r) × (n − r) que es distinto de cero (es precisamente d) luego el rango
de dicha matriz es n − r. Se concluye que α1 , α2 , . . . , αn−r son l.i.

Sea β = (b1 , b2 , . . . , bn ) una solución arbitraria del sistema. Designemos por αi0 , β 0 a

αi0 = (ci(r+1) , ci(r+2) , . . . , cin ) i = 1, 2, . . . , n − r y


β0 = (br+1 , br+2 , . . . , bn )

Es claro que α10 , α20 , . . . , αn−r


0
son un sistema l.i. de vectores en Rn−r y que en Rn−r
el sistema α1 , α2 , . . . , αn−r , β 0 es l.d., entonces hay números k1 , k2 , . . . , kn−r tales
0 0 0

que
β 0 = k1 α10 + k2 α20 + · · · + kn−r αn−r
0

En Rn , sea
n−r
X
δ= ki αi − β .
i=1

Puesto que δ es combinación lineal de soluciones del sistema, el mismo también es


solución del sistema. Pero δ tiene sus últimas n − r componentes iguales a cero, luego
es la solución obtenida cuando xr+1 = xr+2 = · · · = xn = 0. Como el sistema es
homogéneo esta es precisamente la solución trivial luego δ = 0 y
n−r
X
β= ki α i .
i=1

El sistema α1 , α2 , . . . , αn−r es maximal.


Ejemplo: Encuentre un sistema fundamental de soluciones para
 
3 1 −8 2 1 0
 2 −2 −3 −7 2 0 
 
 1 11 −12 34 −5 0 
1 −5 2 −16 3 0

En la matriz A del sistema hagamos las siguientes transformaciones elementales:

A la tercera fila restamos dos veces la primera, sumamos dos veces la segunda y una
vez la cuarta, obtenemos
 
3 1 −8 2 1
 2 −2 −3 −7 −2 
A1 = 
 0 0


0 0 0
1 −5 2 −16 3

En A1 permutamos la tercera fila y la cuarta:


 
3 1 −8 2 1
 2 −2 −3 −7 2 
A2 =   1 −5 2

−16 3 
0 0 0 0 0
2.7. SOLUCIONES DE SISTEMAS DE ECUACIONES LINEALES 53

luego
   
−1 5 −2 16 −3 −1 5 −2 16 −3
 2 −2 −3 −7 2   2 −2 −3 −7 2 
A3 = 
 1
 
A4 =  
−5 2 −16 3  0 0 0 0 0 
0 0 0 0 0 0 0 0 0 0
Es claro que rango A = 2 y que podemos elegir x3 , x4 , x5 como incógnitas indepen-
dientes.
−x1 + 5x2 = 2x3 − 16x4 + 3x5
2x1 − 2x2 = 3x3 + 7x4 − 2x5

8x2 = 7x3 − 25x4 + 4x5


1
x2 = (7x3 − 25x4 + 4x5 )
8
1
2x1 − (7x3 − 25x4 + 4x5 ) = 3x3 + 7x4 − 2x5
4
8x1 − 7x3 + 25x4 − 4x5 = 12x3 + 28x4 − 8x5
1
x1 = (19x3 + 3x4 − 4x5 )
8
Tomemos d como ¯ ¯
¯ 1 0 0 ¯
¯ ¯
d = ¯¯ 0 1 0 ¯¯
¯ 0 0 1 ¯
Obtenemos
19 7
α1 = ( , , 1, 0, 0)
8 8
3 25
α2 = ( , − , 0, 1, 0)
8 8
1 1
α3 = (− , , 0, 0, 1)
2 2

2.7.3. Soluciones para sistemas arbitrarios


Una manera de escribir las soluciones de un sistema lineal arbitrario es la siguiente.
Supongamos que por algún método se ha encontrado una solución de él. La llaramemos
“una solución particular del sistema” y la designaremos por αp . Sea β una solución
cualquiera del sistema, sea α1 , α2 , . . . , αn−r un sistema fundamental de soluciones del
correspondiente sistema homogéneo. Como β − αp es solución del sistema homogéneo,
hay números k1 , k2 , . . . , kn−r tales que
n−r
X
β − αp = ki αi .
i=1

Se concluye que , conocida una solución del sistema, basta resolver el correspondiente
sistema homogéneo, ya que todas las soluciones del sistema original son de la forma
β = solución particular + una solución del sistema homogéneo .
54 CAPÍTULO 2. RELACIONES DE DEPENDENCIA LINEAL
Capı́tulo 3

Álgebra de matrices

Definición 3.1 Sean A = (aij ), B = (bij ) matrices de m × n. A y B se dicen iguales


si
aij = bij 1≤i≤m 1≤j≤n

Dos matrices son iguales si y sólo si sus elementos correspondientes son iguales.

Definición 3.2 Sean A = (aij ), B = (bij ) matrices de m × n. Llamaremos matriz


suma de A y B a la matriz de m × n

A + B = (aij + bij )

Es trivial que la operación suma de matrices tiene las siguientes propiedades:


i.- A + B = B + A
ii.- A + (B + C) = (A + B) + C
iii.- Existe una única matriz de m × n, la matriz 0 = (0ij ) donde 0ij = 0 para todo
1 ≤ i ≤ m, 1 ≤ j ≤ n, tal que A + 0 = A para toda matriz A de m × n.
iv.- Dada una matriz A = (aij ) de m × n, existe una única matriz de m × n
−A = (−aij )

tal que A + (−A) = 0.


Definición 3.3 Sea A = (aij ) matriz de m × n, k un número arbitrario. Llamaremos
matriz producto de A por el número k a

kA = (kaij )

Es trivial que la operación multiplicación de una matriz por un número k tiene las
siguientes propiedades:
i.- 1 · A = A
ii.- k1 (k2 A) = (k1 k2 )A
iii.- k(A1 + A2 ) = kA1 + kA2
iv.- (k1 + k2 )A = k1 A + k2 A

55
56 CAPÍTULO 3. ÁLGEBRA DE MATRICES

3.1. Producto de matrices


Definición 3.4 Sea A = (aij ) matriz de m×n, B = (bij ) matriz de n×q. Llamaremos
matriz producto de A y B a la matriz de m × q

AB = (cij )
n
X
donde cij = aik bkj 1 ≤ i ≤ m, 1 ≤ j ≤ q.
k=1
 
a11 a12 µ ¶
b11
Ejemplo: Sea A =  a21 a22 , B = . Entonces
b21
a31 a32
 
a11 b11 + a12 b21
AB =  a21 b11 + a22 b21  .
a31 b11 + a32 b21

Nota: De la definición se ve que en general el producto de matrices no es conmutativo,


pues el número de filas y columnas de la matriz producto cambia si se altera el orden
de los factores, salvo si se multiplican matrices cuadradas del mismo orden. Pero aún
cuando A y B sean ambas de n × n el producto en general no es conmutativo, por
ejemplo, si
µ ¶ µ ¶ µ ¶ µ ¶
1 2 1 2 3 4 1 4
A= , B= ⇒ AB = , BA =
0 1 1 1 1 1 1 3

La operación multiplicación de matrices tiene las siguientes propiedades:


i.- Si k es un número, A una matriz de m × n, B matriz de n × q, entonces

(kA)B = A(kB) = kAB

ii.- Si A es una matriz de m × n, B y C son matrices de n × q, entonces

A(B + C) = AB + AC

y si B y C son matrices de m × n y A es matriz de n × q, entonces

(B + C)A = BA + CA .

iii.- El producto de matrices es asociativo. Sean A = (aij ) de m × n, B = (bij ) de


n × q, C = (cij ) de q × r, entonces
à q ! à q " n # !
X X X
(AB)C = (AB)ik ckj = ail blk ckj
k=1 k=1 l=1
à n q
! Ã n
!
X X X
= ail blk ckj = ail (BC)lj = A(BC)
l=1 k=1 l=1
3.1. PRODUCTO DE MATRICES 57

Teorema 3.5 Sean A y B matrices de n × n. Entonces det AB = det A det B.

Demostración: Sea A = (aij ), B = (bij ). Sea ∆ el determinante auxiliar de 2n × 2n

¯ ¯
¯ a11 a12 ··· a1n 0 0 ··· 0 ¯
¯ ¯
¯ a21 a22 ··· a2n 0 0 ··· 0 ¯
¯ ¯
¯ .. .. .. .. .. .. .. .. ¯
¯ . . . . . . . . ¯
¯ ¯
¯ an1 an2 ··· ann 0 0 ··· 0 ¯¯
∆ = ¯¯
¯ −1 0 ··· 0 b11 b12 ··· b1n ¯¯
¯ 0 −1 ··· 0 b21 b22 ··· b2n ¯¯
¯
¯ .. .. .. .. .. .. .. .. ¯¯
¯ . . . . . . . . ¯
¯
¯ 0 0 ··· −1 bn1 bn2 ··· bnn ¯

Aplicando el desarrollo de Laplace por menores de n × n de las n primeras filas y n


primeras columnas se tiene que ∆ = det A det B.

Llamemos Ci a la i-ésima columna de ∆, 1 ≤ i ≤ 2n. En ∆ hagamos las siguientes


transformaciones: a la columna (n + 1) sumemos

b11 C1 + b21 C2 + · · · + bn1 Cn

La columna (n + 1) de ∆ queda ası́:

n
X
a1k bk1
k=1
Xn
a2k bk1
k=1
..
.
n
X
ank bk1
k=1
0
0
..
.
0

Luego a la columna n + 2 sumamos

b12 C1 + b22 C2 + · · · + bn2 Cn


58 CAPÍTULO 3. ÁLGEBRA DE MATRICES

La columna n + 2 de ∆ queda ası́:


n
X
a1k bk2
k=1
Xn
a2k bk2
k=1
..
.
n
X
ank bk2
k=1
0
0
..
.
0

Después de n etapas se tiene


¯ ¯
¯ n
X n
X n
X ¯
¯ a ¯
¯ 11 a12 ··· a1n a1k bk1 a1k bk2 ··· a1k bkn ¯
¯ ¯
¯ k=1 k=1 k=1 ¯
¯ Xn Xn Xn ¯
¯ a ¯
¯ 21 a22 ··· a2n a2k bk1 a2k bk2 ··· a2k bkn ¯
¯ ¯
¯ k=1 k=1 k=1 ¯
¯ .. .. .. .. .. .. .. .. ¯
¯ . . . . . . . . ¯
¯ ¯
∆=¯ n
X n
X n
X ¯
¯ a ¯
¯ n1 an2 ··· ann ank bk1 ank bk2 ··· ank bkn ¯
¯ ¯
¯ k=1 k=1 k=1 ¯
¯ −1 0 ··· 0 0 0 ··· 0 ¯
¯ ¯
¯ 0 −1 ··· 0 0 0 ··· 0 ¯
¯ ¯
¯ .. .. .. .. .. .. .. .. ¯
¯ . . . . . . . . ¯
¯ ¯
¯ 0 0 ··· −1 0 0 ··· 0 ¯

donde los elementos cij que están en las filas 1,2,. . . , n y las columnas n + 1, n + 2,
. . . , 2n son de la forma
n
X
cij = aik bkj 1 ≤ i ≤ n, 1≤j≤n
k=1

esto es, ellos son los elementos de la matriz AB. Desarrollando ∆ por Laplace pero
ahora por los menores de n × n de las últimas filas se tiene

∆ = (−1)n+1+n+2+···+n+n+1+2+···+n (−1)n det AB

Pero
n(n + 1)
(n + 1 + n + 2 + · · · + n + n + 1 + 2 + · · · + n) + n = n2 + 2 + n = 2n2 + 2n
2
es par luego ∆ = det AB y también ∆ = det A det B.

Definición 3.6 Sea A matriz de n × n. Diremos que A es singular si det A = 0.


3.2. MATRICES INVERSAS 59

Del teorema se deduce que si A es singular o B es singular entonces AB es singular.

Recordemos que el sı́mbolo δij (delta de Kronecker) se define como δij = 0 si i 6= j y


δii = 1.

Llamaremos matriz identidad de n × n a la matriz I de n × n tal que I = (δij ). Si A


es cualquier matriz de n × n y A = (aij ) entonces
à n !
X
AI = aik δkj = (aij ) = A ,
k=1

análogamente IA = A.

Nótese que I es única. Si hubiese otra matriz I 0 de n × n tal que AI 0 = I 0 A = A ∀ A


entonces
I = II 0 = I 0 I
I0 = II 0 = I 0 I
Nótese que det I = 1.

3.2. Matrices inversas


Resolvamos ahora el siguiente problema: dada una matriz A de n × n buscamos una
matriz B de n × n tal que AB = BA = I.

Puesto que det AB = det A det B = 1, para que B pueda existir A debe ser no singular.

Nota: Recordemos que la matriz traspuesta de A = (aij ) es la matriz At = (bij )


donde bij = aji .

Definición 3.7 Sea A = (aij ) matriz de n × n. Llamaremos matriz adjunta de A a


la matriz de n × n A∗ = (bij ), donde bij = Aji , esto es, el elemento que está en la
intersección d ela fila i y la columna j de A∗ es el adjunto del elemento correspondiente
de At  
A11 A21 · · · An1
 A12 A22 · · · An2 
 
A∗ = (Aji ) =  . .. .. .. 
 .. . . . 
A1n A2n ··· Ann
 
1 0 1
Ejemplo: Sea A =  2 1 0 .
0 1 2
¯ ¯ ¯ ¯ ¯ ¯
¯ 1 0 ¯ ¯ 2 0 ¯¯ ¯ 2 1 ¯
A11 = ¯ ¯ ¯ = 2 A12 = − ¯¯ = −4 A13 =¯¯ ¯=2
1 2 ¯ 0 2 ¯ 0 1 ¯
¯ ¯ ¯ ¯ ¯ ¯
¯ 0 1 ¯ ¯ 1 1 ¯¯ ¯ 1 0 ¯
A21 = − ¯¯ ¯=1 A22 = ¯¯ =2 A23 = −¯¯ ¯ = −1
1 2 ¯ 0 2 ¯ 0 1 ¯
¯ ¯ ¯ ¯ ¯ ¯
¯ 0 1 ¯ ¯ 1 1 ¯¯ ¯ 1 0 ¯
A31 = ¯¯ ¯ = −1 A32 = − ¯ =2 A33 =¯¯ ¯=1
1 0 ¯ ¯ 2 0 ¯ 2 1 ¯
60 CAPÍTULO 3. ÁLGEBRA DE MATRICES

Entonces  
2 1 −1
A∗ =  −4 2 2 
2 −1 1
Nótese que
    
1 0 1 2 1 −1 4 0 0
AA∗ =  2 1 0  −4 2 2 = 0 4 0 
0 1 2 2 −1 1 0 0 4
    
2 1 −1 1 0 1 4 0 0
A∗ A =  −4 2 2  2 1 0  =  0 4 0 
2 −1 1 0 1 2 0 0 4

Sea A no singular, sea d = det A, entonces


à n ! à n !
X X
∗ ∗
AA = aik (A )kj = aik Ajk
k=1 k=1
n
X n
X
Si i = j, aik Aik = d, si i 6= j, aij Ajk = 0, luego AA∗ = (dδij ) = dI. Análoga-
k=1 k=1
mente, Ã !
n
X

A A= Aki akj = dI
k=1
Se tiene que det AA∗ = dn luego det A = d ∗ n−1
, si A es no singular, A∗ también es no
singular.

Sea B = d1 A∗ , entonces AB = BA = I. Diremos que B es una matriz inversa de A.

Sea B 0 otra matriz inversa de A, entonces AB 0 = B 0 A = I luego (B 0 A)B = B y


B 0 (AB) = B 0 , entonces B 0 = B. Se concluye que una matriz no singular A tiene una
inversa única. La designaremos por A−1 y A−1 = ( d1 Aji ) donde Aji es el adjunto de aji .

3.3. Representación matricial de un sistema de ecua-


ciones
Sea A = (aij ) la matriz de s × n de los coeficientes de un sistema lineal de s ecuaciones
con n incógnitas, sea  
x1
 x2 
 
X= . 
 .. 
xn
la matriz de n × 1 de las incógnitas, sea
 
b1
 b2 
 
B= .. 
 . 
bs
3.4. RANGO DE UN PRODUCTO DE MATRICES 61

la matriz de s × 1 de los términos libres. Aprovechando las definiciones de producto


de matrices e igualdad de matrices podemos escribr matricialmente el sistema como
AX = B.

Supongamos que s = n y A es no singular, entonces X = A−1 B. Puesto que si d 6= 0, de


la regla de Cramer sabemos que la solución X es única, dicho resultado debe coincidir
con aquel entregado por la regla de Cramer. En efecto,
¡ ¢
X = (xi1 ) = (xi ) = A−1 B = (A−1 B)i1
à n ! à n ! à n !
X X1 1 X di
−1
= (A )ik Bk1 = Aki bk1 = bk Aki = ( )
d d d
k=1 k=1 k=1

3.4. Rango de un producto de matrices


Sea A = (aij ) matriz de m×n, B = (bij ) matriz de n×p. Sea C = AB matriz de m×p.

Teorema 3.8 rango C ≤ rango A, rango C ≤ rango B.

Demostración: Si rango de B = 0 (B es la matriz cero) entonces AB = 0 y


rango C = 0, el teorema se cumple.

Si rango B = p (todas las columnas son l.i.), como el rango de C no puede exceder el
número de columnas de C se tiene rango C ≤ rango B.

Sea rango B = r, 0 < r < p. Para simplificar la notación en la demostración suponga-


mos que las r primeras columnas de B son l.i. Consideremos la columna k, k > r; hay
α1 , α2 , . . . , αr tales que
       
b1k b11 b12 b1r
 b2k   b21   b22   b2r 
       
 ..  = α1  ..  + α2  ..  + · · · + αr  .. 
 .   .   .   . 
bnk bn1 bn2 bnr

esto es,
r
X
bjk = αs bjs j = 1, 2, . . . , n .
s=1
n
X
Puesto que cik = aij bjk se tiene que
j=1
 
n
X r
X r
X n
X n
X
cik = aij αs bjs = αs aij bjs  = αs cis 1 ≤ i ≤ m,
j=1 s=1 s=1 j=1 s=1

esto es        
c1k c11 c12 c1r
 c2k   c21   c22   c2r 
       
 ..  = α1  ..  + α2  ..  + · · · + αr  .. 
 .   .   .   . 
cmk cm1 cm2 cmr
62 CAPÍTULO 3. ÁLGEBRA DE MATRICES

luego en C la columna k, k > r, es combinación lineal de las r primeras columnas, se


concluye que el rango de C es menor o igual que r.

Nota: (AB)t = (αij ) donde


n
X n
X
αij = (AB)ji = ajk bki = (B t )ik (At )kj
k=1 k=1

luego (AB)t = B t At .
Entonces C t = B t At luego rango C t ≤ rango At pero rango C t = rango C, rango At =
rango A luego rango C ≤ rango A.

Corolario 3.9 Sea A matriz de m × n, B matriz no singular de n × n, D matriz no


singular de m × m. Entonces rango AB = rango A y rango DA = rango A.

Demostración: rango AB ≤ rango A, pero A = A(BB −1 ) = (AB)B −1 luego rango A ≤


rango AB. Análogamente para D.
El rango se preserva bajo multiplicación por una matriz no singular.

Nota: En la demostración del teorema no es necesario recurrir a la matriz traspuesta.


n
X
De la definición del producto de matrices se tiene que cik = aij bjk , i = 1, 2, . . . , n.
j=1
Por otra parte
 n 
X
 bjk a1j 
   j=1   
 
a1j  Xn  c1k
n
X  a2j   bjk a2j 
  c2k 
   = 
bjk  .. =   . 
 
j=1
j=1
 .  ..   .. 
 . 
amj   cmk
 Xn 
 b a 
jk mj
j=1

Luego, en general, al post - multiplicar una matriz A por una matriz B las columnas de
AB son combinaciones lineales de las columnas de A. Se tiene entonces que el sistema
de columns de C se expresa linealmente mediante el sistema de columnas de A, por
teorema previo, rango C ≤ rango A.
n
X
Por otra parte, sea i fijo, entonces cij = aik bkj , 1 ≤ i ≤ n. Consideremos
k=1

n
à n n n
!
X X X X
aik (bk1 , bk2 , . . . , bkp ) = aik bk1 , aik bk2 , · · · , aik bkp = (ci1 , ci2 , . . . , cip )
k=1 k=1 k=1 k=1

Luego, en general, al pre - multiplicar una matriz B por una matriz A las filas de
AB son combinaciones lineales de las filas de B, el sistema de filas de C se expresa
linealmente mediante el sistema de filas de B luego rango AB ≤ rango B.
Capı́tulo 4

Vectores en Rn

4.1. Propiedades
Con el fin de estudiar los sistemas lineales de ecuaciones introdujimos una estructura
algebraica auxiliar a la cual designamos por Rn . Por el momento nos olvidaremos de
las operaciones de suma y multiplicación por un número y focalizaremos nuestro in-
terés en el “conjunto” Rn a cuyos elementos llamaremos “puntos”.

Sean P = (x1 , x2 , . . . , xn ), Q = (y1 , y2 , . . . , yn ) puntos de Rn , llamaremos recta por P


y Q al siguiente conjunto de puntos de Rn :

{(z1 , z2 , . . . , zn ) : zi = xi + λ(yi − xi ), i = 1, 2, . . . , n , −∞ < λ < ∞}

Llamaremos segmento P Q a la totalidad de los puntos de la recta por P y Q para los


cuales 0 ≤ λ ≤ 1.

Los puntos P y Q del segmento P Q se llaman los puntos extremos del segmento. El
segmento P Q se dice dirigido si a uno de los puntos extremos P , Q lo llamamos punto
inicial y al otro, punto final. Si el punto inicial es P el segmento dirigido se designa
−−→ −−→
por P Q, si el punto inicial es Q se designa por QP . A los segmentos dirigidos los
llamaremos vectores en Rn , a las n diferencias yi − xi , i = 1, 2, . . . , n, las llamaremos
−−→
las componentes del vector P Q. Según esta definición xi − yi , i = 1, 2, . . . , n, son las
−−→
componentes del vector QP . Dos vectores se dicen iguales si y sólo si sus componentes
correspondientes son iguales. De acuerdo a esta definición de igualdad de vectores,
dos vectores que difieren tanto en su punto inicial como en su punto final pueden ser
iguales, pero una vez elegido arbitrariamente el punto inicial P = (x1 , x2 , . . . , xn ), si
a1 , a2 , . . . , an son las componentes del vector, su punto final Q = (y1 , y2 , . . . , yn )
queda únicamente determinado por las ecuaciones

yi = xi + ai i = 1, 2, . . . , n

Si un vector tiene componentes a1 , a2 , . . . , an lo designaremos por {a1 , a2 , . . . , an } ≡ ~a.

La expresión {0, 0, . . . , 0}, la cual no recibe significado de las definiciones anteriores se


llama vector nulo y se designa por ~0.

63
64 CAPÍTULO 4. VECTORES EN RN

Sean ~a = {a1 , a2 , . . . , an }, ~b = {b1 , b2 , . . . , bn } dos vectores, queremos definir la “suma”


de ellos, la cual se designará por ~a + ~b:

Elijamos arbitrariamente el punto inicial P de ~a, sea Q su punto final. Elegimos co-
mo punto inicial de ~b a Q, sea R su punto final. Llamaremos vector suma de ~a y ~b
−→ −−→ −−→ −→
al vector P R cuyo punto inicial es P y cuyo punto final es R. Entonces P Q+ QR = P R.

Sea P = (x1 , x2 , . . . , xn ) entonces Q = (y1 , y2 , . . . , yn ) está dado por

yi = xi + ai i = 1, 2, . . . , n

y R = (z1 , z2 , . . . , zn ) está dado por

zi = yi + bi i = 1, 2, . . . , n .
−→
Entonces zi = xi + ai + bi luego P R es el vector cuyas componentes son a1 + b1 , a2 +
b2 , . . . , an + bn . Ası́ se tiene que

{a1 , a2 , . . . , an } + {b1 , b2 , . . . , bn } = {a1 + b1 , a2 + b2 , . . . , an + bn }

Es claro que la suma es conmutativa, asociativa, tiene una identidad única que es el
vector nulo y cada vector tiene un único inverso aditivo.

Definimos el producto del vector ~a = {a1 , a2 , . . . , an } por el número real λ como el


vector
λ~a ≡ ~aλ = {λa1 , λa2 , · · · , λan },
operación que tiene las siguientes propiedades:

i.- 1 · ~a = ~a

ii.- λ(µ~a) = λµ~a

iii.- λ(~a + ~b) = λ~a + λ~b

iv.- (λ + µ)~a = λ~a + µ~a

También se tiene que


λ~a = ~0 ⇒ λ=0 ó ~a = ~0
n
X
Sean ~a = {a1 , a2 , . . . , an }, ~b = {b1 , b2 , . . . , bn }. Al número real ai bi lo llamaremos
i=1
producto escalar de ~a y ~b, lo designaremos por ~a · ~b.

Es claro que

~a · ~b = ~b · ~a

λ(~a · ~b) = (λ~a) · ~b = ~a · (λb)

~a · (~b + ~c) = ~a · ~b + ~a · ~c
4.2. SUBESPACIOS DE VECTORES EN RN 65

y que ~a · ~b = 0 no implica necesariamente ~a = ~0 ó ~b = ~0. Si ~a · ~b = 0 decimos que ~a y ~b


son mutuamente ortogonales.

Diremos que los p vectores ~a1 , ~a2 , . . . , ~ap son l.d. si hay reales no todos nulos λ1 , λ2 ,
. . . , λp tales que
X p
λi~ai = ~0 ,
i=1

esto es, si existe una combinación lineal no trivial de ellos que es igual al vector nulo.
En caso contrario diremos que son l.i. Las propiedades de la relación de dependencia
o independencia lineal entre vectores son análogas a las definidas en Rn por lo tanto
no insistiremos en enunciarlas o demostralas, simplemente las usaremos.

Notación: Llamaremos V al conjunto de los vectores en Rn premunido de las opera-


ciones de suma y multiplicación por un número.

A los vectores ~e1 = {1, 0, . . . , 0}, ~e2 = {0, 1, . . . , 0}, . . . , ~en = {0, 0, . . . , 1} los llamare-
mos la base estándar de V . Ellos son claramente l.i.

4.2. Subespacios de vectores en Rn


Definición 4.1 Sea L ⊂ V , L 6= ∅. Diremos que L es un subespacio de V si

i.- cada que ~a ∈ L y λ es un número real arbitrario entonces λ~a ∈ L.

ii.- cada que ~a, ~b ∈ L (~a y ~b no necesariamente distintos) entonces ~a + ~b ∈ L.

Nota: Si L es un subespacio, ~0 ∈ L.
Sean ~a1 , ~a2 , . . . , ~ap vectores en V . Sea
p
X
L = {~a : ~a = λi~ai , λi ∈ R i = 1, 2, . . . , p} ,
i=1

esto es, el conjunto de todas las combinaciones lineales de los vectores ~a1 , ~a2 , . . . , ~ap .

Es claro que L es un subespacio de V . Si H es otro subespacio de V tal que ~a1 , ~a2 , . . . , ~ap ∈
Xn
H entonces λi~ai ∈ H luego L ⊂ H. Se concluye que L es el subespacio más pequeño
i=1
que contiene a los vectores ~a1 , ~a2 , ~a3 , . . . , ~ap . Diremos que L es el subespacio generado
por los vectores ~a1 , ~a2 , . . . , ~ap .

Teorema 4.2 (Teorema de reemplazo de Steinitz) Sean ~a1 , ~a2 , . . . , ~ap vectores
arbitrarios en V , sea L el subespacio generado por ellos. Sean ~b1 , ~b2 , . . . , ~bq q vectores
l.i. en L. Entonces hay un cierto subconjunto de q vectores del conjunto ~a1 , ~a2 , . . . , ~ap
tal que el conjunto de los vectores restantes unido al conjunto ~b1 , ~b2 , . . . , ~bq también
genera a L.
66 CAPÍTULO 4. VECTORES EN RN

Demostración: Demostraremos el teorema por inducción. Si ningún vector ~b1 , ~b2 ,


. . . , ~bq se ha dado, o sea q = 0, el teorema es cierto. Supongamos que q > 0 y que
el teorema ha sido demostrado para los primeros q − 1 vectores ~bi . Supongamos que
numeramos los vectores ~a1 , ~a2 , . . . , ~ap de manera tal que los vectores reemplazados
son ~a1 , ~a2 , . . . , ~aq−1 , esto es, de modo tal que L sea generado por ~b1 , ~b2 , . . . , ~bq−1 , ~aq ,
. . . , ~ap . Como ~bq ∈ L
q−1
X p
X
~bq = λi~bi + λi~ai
i=1 i=q
donde λq , λq+1 , . . . , λp no pueden ser todos nulos. Supongamos que λq 6= 0, entonces
q−1 p q−1 p
1~ 1 X ~ 1 X 1 X λi ~ X λi
~aq = bq − λi b i − λi~ai = ~bq − bi − ~ai
λq λq i=1 λq i=q+1 λq i=1
λ q λ
i=q+1 q

Sea ~c ∈ L arbitrario, por la hipótesis de inducción


q−1
X p
X
~c = µi~bi + µi~ai ,
i=1 i=q

sustituyendo ~aq se tiene


q−1
X Xp
λi ~ µq λi
~c = (µi − µq )bi + ~bq + (µi − µq )~ai .
i=1
λq λq i=q+1
λ q

Esto demuestra que ~b1 , ~b2 , . . . , ~bq , ~aq+1 , . . . , ~ap generan a L.


Nota: Sean ~b1 , ~b2 , . . . , ~bq , q > p, vectores arbitrarios en L. Si ellos fuesen l.i. po-
drı́amos aplicar el teorema anterior y reemplazar ~a1 , ~a2 , . . . , ~ap por ~b1 , ~b2 , . . . , ~bp de
modo que ~b1 , ~b2 , . . . , ~bp generan a L y por lo tanto ~bp+1 , . . . , ~bq son combinaciones
lineales de ellos, lo cual es contradicción.

Se concluye que en L un conjunto l.i. de vectores no puede tener más de p vectores y


por lo tanto se tiene que en V “cualquier conjunto de más de p combinaciones lineales
de p vectores dados es siempre l.d.”
n
X
Si ~a = {a1 , a2 , . . . , an }, ~a = ai~ei . Se tiene que V es generado por el conjunto l.i.
i=1
~e1 , ~e2 , . . . , ~en . Aplicando la observación anterior tomando a ~e1 , ~e2 , . . . , ~en como los
vectores dados, p = n, concluı́mos que cualquier conjunto de más de n vectores en V
es l.d.; un conjunto l.i. de vectores en V puede contener a lo más n vectores.
Esta observación permite dar la siguiente
Definición 4.3 Sea L un subespacio cualquiera de V , supongamos que en L hay p
vectores l.i., 0 ≤ p ≤ n, y que cualquier conjunto de más de p vectores en L es l.d.
Diremos que L tiene dimensión p. Si p = 0 entonces L = {0}.
Supongamos que L tiene dimensión p > 0, sean ~a1 , ~a2 , . . . , ~ap vectores l.i. en L. Si
~b ∈ L, el conjunto ~a1 , ~a2 , . . . , ~ap , ~b es l.d., hay λ1 , λ2 , . . . , λp , λp+1 no todos nulos
tales que
Xp
λi~ai + λp+1~b = 0 .
i=1
4.2. SUBESPACIOS DE VECTORES EN RN 67

Si λp+1 = 0 obtenemos una contradicción, luego λp+1 6= 0 y ~b es una combinación


lineal de ~a1 , ~a2 , . . . , ~ap ; cualquier conjunto l.i. de p vectores en L genera a L.

Si L tiene dimensión p, diremos que cualquier conjunto l.i. de p vectores en L es una


base de L.

Sea ~a1 , ~a2 , . . . , ~ap una base de L, sea ~b ∈ L arbitrario, supongamos que ~b puede
representarse de dos maneras distintas como combinación lineal de los vectores ~a1 , ~a2 ,
. . . , ~ap , esto es,
n
X n
X
~b = λi~ai = µi~ai ,
i=1 i=1

entonces λi = µi , i = 1, 2, . . . , n (los vectores ~a1 , ~a2 , . . . , ~ap son l.i.). Cada ~b ∈ L tiene
una única representación en términos de una base.

Teorema 4.4 Sea L el subespacio generado por los vectores ~a1 , ~a2 , . . . , ~aq . La di-
mensión de L es igual al número máximo de vectores l.i. que hay entre los vectores ~a1 ,
~a2 , . . . , ~aq .

Demostración: Sea p dicho número máximo, supongamos que los vectores dados han
sido ordenados de modo que los p primeros son l.i. Entonces el conjunto de vectores
~a1 , ~a2 , . . . , ~ap , ~ap+k , con 1 ≤ k ≤ q − p, es l.d. luego ap+k es una combinación lineal
de ~a1 , ~a2 , . . . , ~ap
Xp
(k)
~ap+k = λi ~ai ; k = 1, 2, . . . , q − p (4.1)
i=1
q
X
Sea ~b ∈ L, entonces ~b = µi~ai , reemplazando ~ap+1 , ~ap+2 , . . . , ~aq por sus expresiones
i=1
(4.1) vemos que ~b es una combinación lineal de ~a1 , ~a2 , . . . , ~ap .

Entonces L es subconjunto del subespacio generado por ~a1 , ~a2 , . . . , ~ap y es trivial que
el subespacio generado por ~a1 , ~a2 , . . . , ~ap es subconjunto de L luego ambos son iguales
y la dimensión de L es p.
Nota: Sea L un subespacio en V . Sea L∗ otro subespacio de V contenido en L, su-
pongamos que la dimensión de L es p y que la dimensión de L∗ es igual a la de L.
Entonces si ~a1 , ~a2 , . . . , ~ap es una base de L∗ , también lo es de L luego el conjunto de
las combinaciones lineales de ~a1 , ~a2 , . . . , ~ap es igual a L∗ y a L, entonces L∗ = L.

Luego si L∗ está propiamente contenido en L, necesariamente la dimensión de L∗ es


menor que la de L.

Teorema 4.5 Sea L un subespacio de dimensión p, sean ~b1 , ~b2 , . . . , ~bk un conjunto
arbitrario de vectores l.i. en L, k ≤ p. Entonces ~b1 , ~b2 , . . . , ~bk puede ser extendido a
una base de L agregando de manera ordenada p − k vectores ~ak+1 , ~ak+2 , . . . , ~ap (de
modo que ~b1 , ~b2 , . . . , ~bk , ~ak+1 , . . . , ~ap sea un conjunto l.i.).

Demostración: Sea ~a1 , ~a2 , . . . , ~ap una base de L. Por el teorema de Steinitz (podemos
suponer los ~a1 , ~a2 , . . . , ~ap adecuadamente ordenados) podemos reemplazar ~a1 , ~a2 , . . . ,
68 CAPÍTULO 4. VECTORES EN RN

~ak por ~b1 , ~b2 , . . . , ~bk de modo que el conjunto ~b1 , ~b2 , . . . , ~bk , ~ak+1 , . . . , ~ap también
genera a L. Pero dim L = p luego, por el teorema anterior, ~b1 , ~b2 , . . . , ~bk , ~ak+1 , . . . ,
~ap es l.i.
Nota: Dados dos subespacios L1 , L2 , L1 ∩ L2 es siempre no vacı́o puesto que ~0 ∈
L1 ∩ L2 . Es claro que si ~a ∈ L1 ∩ L2 , λ~a ∈ L1 y λ~a ∈ L2 luego λ~a ∈ L1 ∩ L2 y si
~a, ~b ∈ L1 ∩ L2 , ~a + ~b ∈ L1 y ~a + ~b ∈ L2 luego ~a + ~b ∈ L1 ∩ L2 . Concluı́mos que la
intersección de dos subespacios es un subespacio.

Definición 4.6 Sean L1 , L2 subespacios de V . Llamaremos suma de L1 y L2 a

L = {~c : ~c = ~a + ~b, ~a ∈ L1 , ~b ∈ L2 }

Claramente ~0 = ~0 + ~0 luego L 6= ∅.

Si ~c ∈ L, hay ~a ∈ L1 , ~b ∈ L2 tales que ~c = ~a + ~b. Pero λ~a ∈ L1 , λ~b ∈ L2 , y por


definición λ~c = λ~a + λ~b ∈ L.

Análogamente, si ~c1 y ~c2 ∈ L, hay ~a1 , ~a2 ∈ L1 , y ~b1 , ~b2 ∈ L2 tales que ~c1 = ~a1 + ~b1 ,
~c2 = ~a2 + ~b2 , entonces
~c1 + ~c2 = (~a1 + ~a2 ) + (~b1 + ~b2 ) ,

~a1 + ~a2 ∈ L1 , ~b1 + ~b2 ∈ L2 luego ~c1 + ~c2 ∈ L.

Se concluye que L es un subespacio en V llamado el subespacio suma de L1 y L2 , y se


denota por L = L1 + L2 .

Teorema 4.7 Sean L1 y L2 subespacios de V , dim L1 = p1 , dim L2 = p2 . Sea D =


L1 ∩ L2 , dim D = d. Sea S = L1 + L2 , dim S = s. Entonces p1 + p2 = d + s.

Demostración: Sea ~a1 , ~a2 , . . . , ~ad una base de D. Extendemos esta base a una base
de L1 agregando vectores ~b1 , ~b2 , . . . , ~bq donde q = p1 − d, y también la extendemos a
una base de L2 agregando ~c1 , ~c2 , . . . , ~cr donde r = p2 − d.

Si ~a1 ∈ L1 entonces
d
X q
X
~a1 = λi~ai + µi~bi
i=1 i=1

y si ~a2 ∈ L2 entonces
d
X r
X
~a2 = ρi~ai + σi~ci
i=1 i=1

Puesto que todo vector de S es de la forma ~a1 + ~a2 , todo vector de S es una combi-
nación lineal del conjunto de vectores ~a1 , ~a2 , . . . , ~ad , ~b1 , ~b2 , . . . , ~bq , ~c1 , ~c2 , . . . , ~cr .

Queremos demostrar que esta colección es l.i. Supongamos que


d
X q
X r
X
αi~ai + βi~bi + γi~ci = ~0
i=1 i=1 i=1
4.2. SUBESPACIOS DE VECTORES EN RN 69

r
X r
X r
X
Entonces γi~ci ∈ L1 y como γi~ci ∈ L2 se tiene que γi~ci ∈ D y por lo tanto
i=1 i=1 i=1
r
X Xd
γi~ci = δi~ai . Por construcción la colección ~a1 , ~a2 , . . . , ~ad , ~c1 , ~c2 , . . . , ~cr es l.i.
i=1 i=1
luego γi = 0, i = 1, 2, . . . , r y δi = 0, i = 1, 2, . . . , d y por lo tanto

d
X q
X
αi~ai + βi~bi = ~0
i=1 i=1

Por idénticas razones αi = 0, i = 1, 2, . . . , d y βi = 0, i = 1, 2, . . . , q. Se concluye que la


colección ~a1 , ~a2 , . . . , ~ad , ~b1 , ~b2 , . . . , ~bq , ~c1 , ~c2 , . . . , ~cr es l.i. y genera a S, por definición

dim S = s = d + q + r = d + p1 − d + p2 − d .

Nota: Es claro que para cada natural n hay un Rn y por lo tanto un V . Para n = 2,
V es lo que llamamos “los vectores geométricos en el plano” y para n = 3, V es lo
que llamamos “los vectores geométricos en el espacio”. De ahora en adelante a V lo
designaremos por V n .
Ejemplo: En V 4 sean

~a1 = {3, −1, 1, 2}


~a2 = {4, −1, −2, 3}
~a3 = {10, −3, 0, 7}
~a4 = {−1, 1, −7, 0}

Sea L1 el subespacio generado por ~a1 , ~a2 , ~a3 , ~a4 . Sean

~b1 = {2, −4, −3, 7}


~b2 = {5, 2, 2, −1}

Sea L2 el subespacio generado por ~b1 , ~b2 . Encontrar las dimensiones de L1 , L2 , L1 ∩L2 ,
L1 + L2 .

Consideremos el sistema de vectores ~a1 , ~a2 , ~a3 , ~a4 y supongamos que α~a1 + β~a2 +
γ~a3 + δ~a4 = ~0, entonces

3α + 4β + 10γ − δ = 0
−α − β − 3γ + δ = 0
α − 2β − 7δ = 0
2α + 3β + 7γ = 0

Sea  
3 4 10 −1
 −1 −1 −3 1 
A=
 1

−2 0 −7 
2 3 7 0
70 CAPÍTULO 4. VECTORES EN RN

la matriz del sistema. Puesto que la cuarta fila es suma de las dos primeras ella tiene
el mismo rango que  
3 4 10 −1
 −1 −1 −3 1 
A1 =  1 −2 0 −7 

0 0 0 0
la cual tiene el mismo rango que
 
0 1 1 2
 −1 −1 −3 1 
A2 = 
 0

−3 −3 −6 
0 0 0 0
¯ ¯
¯ 3 4 ¯¯
la cual tiene rango 2, luego rango A = 2 y como ¯¯ 6 0 las dos primeras
=
−1 −1 ¯
columnas de A son l.i.

Se concluye que ~a1 , ~a2 es un sistema linealmente independiente maximal de la colec-


ción ~a1 , ~a2 , ~a3 , ~a4 , dim L1 = 2.

Supongamos que α~b1 + βb2 = ~0


2α + 5β = 0
−4α + 2β = 0
−3α + 2β = 0
7α − β = 0
Sumando las tres últimas se tiene que necesariamente β = 0 luego el sistema tiene sólo
la solución trivial, dim L2 = 2.

Todo vector de L1 es de la forma α~a1 + β~a2 , todo vector de L2 es de la forma γ~b1 + δ~b2 .
Se concluye que S = L1 + L2 es el subespacio generado por ~a1 , ~a2 , ~b1 , ~b2 . Supongamos
que
α~a1 + β~a2 + γ~b1 + δ~b2 = ~0
La matriz del sistema es
 
3 4 2 5
 −1 −1 −4 2 
A=
 1

−2 −3 2 
2 3 7 −1
la cual tiene el mismo rango que
 
0 1 −10 11
 −1 −1 −4 2 
A1 = 
 0

−3 −7 4 
0 1 −1 3
la cual tiene el mismo rango que
 
1 1 4 −2
 0 1 −10 11 
A2 = 
 0 −3

−7 4 
0 1 −1 3
4.3. VARIEDADES LINEALES 71

y esta a su vez el mismo rango que


 
1 1 4 −2
 0 1 −10 11 
A3 = 
 0

0 −37 37 
0 0 9 −8
y que  
1 1 4 −2
 0 1 −10 11 
A4 = 
 0

0 −1 1 
0 0 9 −8
y que  
1 1 4 −2
 0 1 −10 11 
A5 = 
 0

0 −1 1 
0 0 0 1
y trabajando por columnas
   
1 1 2 −2 1 1 2 −2
 0 1 1 11   0 1 1 11 
A6 =  0 0
 , A7 =  
0 1   0 0 1 1 
0 0 1 1 0 0 0 1

El determinante de A7 es
¯ ¯
¯ 1 1 11 ¯ ¯ ¯
¯ ¯ ¯ 1 1 ¯
det A7 = ¯¯ 0 1 1 ¯=¯
¯ ¯ 0 1
¯=1
¯
¯ 0 0 1 ¯

luego rango A = 4 luego la dimensión de S es igual a 4.

Se concluye que como dim L1 + dim L2 = dim L1 ∩ L2 + dim L1 + L2 entonces la


dimensión de L1 ∩ L2 es 0.

4.3. Variedades lineales


Habı́amos definido la recta por los puntos P = (x1 , x2 , . . . , xn ), Q = (y1 , y2 , . . . , yn ) de
Rn como el conjunto de los puntos (z1 , z2 , . . . , zn ) ∈ Rn tales que

zi = xi + λ(yi − xi ) i = 1, 2, . . . , n , −∞ < λ < ∞ .


−−→
Sea ~a = P Q = {y1 − x1 , y2 − x2 , . . . , yn − xn }, entonces ~a ∈ V n . Llamaremos R =
(z1 , z2 , . . . , zn ). De la definición de recta y de la definición de igualdad de vectores
tenemos que
−→ −−→
P R = λP Q.
Como para cada valor de λ obtenemos un punto R de la recta, obtenemos el punto R
−−→
correspondiente al valor λ “copiando” al vector λP Q con punto inicial P . Pero la to-
talidad de los vectores λ~a es un subespacio de L de V n de dimensión 1, luego podemos
pensar la recta como la totalidad de los puntos R obtenidos de “copiar” o “aplicar” el
72 CAPÍTULO 4. VECTORES EN RN

subespacio L a partir de P . Es motiva la siguiente definición:

Llamaremos variedad lineal de dimensión p a la totalidad de los puntos R ∈ Rn


obtenidos de “copiar” los vectores de un subespacio L de V n a partir de un punto fijo
P ∈ Rn . Decimos que los puntos R de la variedad se obtienen “aplicando” el subespa-
cio L en P . En otras palabras, los puntos R de la variedad son los extremos finales de
los vectores de L representados como segmentos dirigidos cuyo punto inicial es P .

Ejemplo: Sea L un subespacio de dimensión 2 de V 3 , donde interpretamos R3 como


el espacio fı́sico ordinario. Sea ~a, ~b una base de L, sea P un punto fijo del espacio.
Copiamos ~a y ~b con punto inicial P , sean Q y R sus puntos finales respectivamente.
Como ~a y ~b son l.i., P , Q, R determinan un plano Π en el espacio. Afirmamos que
la variedad lineal de dimensión 2 obtenida de aplicar L en P es el plano Π del espa-
cio fı́sico ordinario. En efecto, el punto S obtenido de aplicar λ~a en P está en Π y
análogamente el punto T obtenido de aplicar
Q
µ~b en P también está en Π. Puesto que un
Z vector arbitrario de L es de la forma λ~a + µ~b,
S
sea Z el punto obtenido de aplicar λ~a + µ~b en
P . Por definición de suma de vectores, para
obtener λ~a + µ~b copiamos arbitrariamente λ~a
a partir de P y luego copiamos λ~b a partir de
P T R S (o podemos aplicar µ~b en P y luego λ~a en
T ), es claro que Z ∈ Π. A la inversa, dado Z ∈ Π, trazando paralelas por Z a ~a y ~b
podemos encontrar S y T (o sea λ y µ) luego todo punto Z ∈ Π puede ser encontrado
por este método.
Nota: Una variedad lineal de dimensión 0 se obtiene aplicando L = {~0} en P , o
sea es simplemente un punto. Una variedad lineal de dimensión 1 es una recta, una
variedad lineal de dimensión 2 es un plano, una variedad lineal de dimensión n − 1 es
un hiperplano. Todos los puntos de una variedad lineal son equivalentes en el siguiente
sentido: si tomamos otro punto Q de la variedad y aplicamos L en Q obtenemos la
misma variedad, en efecto, sea Q otro punto de la variedad, sea Z un punto arbitrario
−→ −−→
de ella. Entonces hay ~z ∈ L tal que ~z = P Z. También hay ~q ∈ L tal que ~q = P Q. Pero
−−→ −→ −→ −→ −→
P Q + QZ = P Z luego ~q + QZ = ~z, QZ = ~z − ~q. Pero ~z − ~q ∈ L luego Z se obtiene
aplicando ~z − ~q en Q.
Nota: En Rn consideremos el punto O = (0, 0, . . . , 0). Si P = (x1 , x2 , . . . , xn ) es otro
punto cualquiera de Rn , podemos obtener P aplicando el vector {x1 , x2 , . . . , xn } de
V n en O. Como V n es un subespacio de sı́ mismo, podemos concluir que Rn es una
variedad lineal de dimensión n.
Sea M la variedad lineal obtenida aplicando el subespacio L de dimensión p > 0. Sea
−−→
P0 ∈ M , sea ~a1 , ~a2 , . . . , ~ap una base de L. Sea P ∈ M , entonces P0 P ∈ L y hay
números reales y1 , y2 , . . . , yp tales que
p
−−→ X
P0 P = yi~ai .
i=1

−−→
Es claro que como P0 P tiene una única expresión en la base ~a1 , ~a2 , . . . , ~ap , el juego
de números reales y1 , y2 , . . . , yp es único.
4.3. VARIEDADES LINEALES 73

Definición 4.8 Diremos que el punto P0 y la base ~a1 , ~a2 , . . . , ~ap de L constituyen un
sistema afı́n de coordenadas en M cuyo origen es P0 y tal que las direcciones de los
ejes coordenados están dadas por ~a1 , ~a2 , . . . , ~ap . Lo anotaremos por (P0 , ~a1 , ~a2 , . . . , ~ap ).

Diremos que el juego de números y1 , y2 , . . . , yp son las coordenadas del punto P ∈ M


con respecto al sistema de coordenadas (P0 , ~a1 , ~a2 , . . . , ~ap ).

Es ası́ como cada punto P ∈ M puede ser representado por una p-tupla (y1 , y2 , . . . , yp )
de números reales y es claro que dado el sistema de coordenadas la correspondencia
entre puntos de M y p-tuplas es 1-1. Sin embargo, si cambiamos P0 , o la base de L
o ambos, el mismo punto P ∈ M está representado por otra p-tupla de números reales.

Teorema 4.9 Sean P0 , P1 , . . . , Pp puntos en Rn tales que ellos no están todos en


ninguna variedad lineal de dimensión menor que p. Entonces existe una única variedad
lineal M de dimensión p que los contiene.
(k) (k) (k)
Demostración: Sean Pk = (x1 , x2 , . . . , xn ), k = 0, 1, . . . , p, tales que no están
−−→
todos en ninguna variedad lineal de dimensión menor que p. Sean α ~ k = P0 P , k =
1, 2, . . . , p. Si ellos fuesen l.d. el subespacio L generado por ellos tendrı́a dimensión
menor que p. Al aplicar L en P0 obtendrı́amos una variedad lineal M de dimensión
menor que p que los contiene a todos, luego ellos son l.i. y por lo tanto el subespacio
L generado por ellos tiene dimensión p.

Al aplicar L en P0 obtenemos una variedad lineal M de dimensión p que contiene a


P0 , P1 , . . . , Pp . Sea M 0 otra variedad lineal de dimensión p que los contiene a todos.
Entonces ella se obtiene aplicando un cierto subespacio L0 de dimensión p en cualquiera
de sus puntos, por ejemplo P0 . Se concluye que α ~ 1, α ~ k pertenecen a L0 , como
~ 2, . . . , α
ellos son l.i. y dim L = dim L = p entonces L = L y por lo tanto M = M 0 .
0 0

Diremos que M es la variedad lineal determinada por los p + 1 puntos P0 , P1 , . . . , Pp .


Sea P = (x1 , x2 , . . . , xn ) un punto arbitrario de ella. Entonces
p
X
−−→ (0) (0)
P0 P = ~ k = {x1 − x1 , x2 − x2 , . . . , xn − x(0)
λk α n } y
k=1
(k) (0) (k) (0)
α
~k = {x1 − x1 , x2 − x2 , . . . , x(k) (0)
n − xn } k = 1, 2, . . . , p

luego
p
X
(0) (0) (k) (0) (k) (0)
{x1 − x1 , x2 − x2 , . . . , xn − x(0)
n } = λk {x1 − x1 , x2 − x2 , . . . , x(k) (0)
n − xn }
k=1
( p p
)
X (k) (0)
X
= λk (x1 − x1 ), . . . , λk (x(k)
n − x(0)
n )
k=1 k=1

Aplicando la definición de igualdad de vectores se tiene que


p
X
(0) (k) (0)
xi − xi = λk (xi − xi ) i = 1, 2, . . . , n
k=1
p
à p
!
X (k) (0)
X
xi = λk xi + xi 1− λk
k=1 k=1
74 CAPÍTULO 4. VECTORES EN RN

n
X p
X
Llamamos λ0 = 1 − λk entonces λk = 1 y
k=1 k=0

p
X (k)
xi = λk xi i = 1, 2, . . . , n (4.2)
k=0

p
X
Si P ∈ M , existen números reales λ0 , λ1 , . . . , λp tales que λk = 1 y las coordenadas
k=0
−−→
de P pueden ser representadas en la forma (4.2). Como la expresión del vector P0 P
en la base α
~ 1, α
~ 2, . . . , α
~ p es única, el juego λ0 , λ1 , . . . , λp es único.
p
X
A la inversa, dados λ0 , λ1 , . . . , λp tales que λk = 1, entonces el punto P cuyas
k=0
coordenadas están dadas por (4.2) está en la variedad M porque el punto determinado
por
p
−−→ X
P0 P = λk α
~k
k=0

está en M .

Se concluye que los puntos de M están determinados por (4.2) de modo que a cada
p
X
juego de números λ0 , λ1 , . . . , λp tales que λk = 1 le corresponde exactamente un
k=0
punto de M .

Nota: Sean M y M 0 dos variedades lineales en Rn , sean L y L0 subespacios que las


generan. Sea D = M ∩M 0 . Si D 6= ∅, sea P0 ∈ D. Si D = {P0 } entonces necesariamente
L ∩ L0 = {~0}. Supongamos que α ~ ∈ L ∩ L0 y α ~ 6= ~0, entonces α
~ ∈ L y el punto P tal
−−→ 0
que P0 P = α ~ está en M , por razón análoga está en M luego P ∈ D. A la inversa,
−−→
supongamos que D tiene más de un punto, sea P ∈ D, P0 P ∈ L ∩ L0 luego el punto P
se obtiene aplicando un vector de L ∩ L0 en P0 . Entonces D = M ∩ M 0 es la variedad
lineal obtenida aplicando el subespacio L∩L0 en un punto cualquiera de la intersección.

Definición 4.10 Sean M y M 0 dos variedades lineales, sean L y L0 dos subespacios


que las generan. Diremos que M y M 0 son mutuamente paralelas si L ⊂ L0 o bien
L0 ⊂ L.

Teorema 4.11 Sean M y M 0 variedades lineales mutuamente paralelas. Entonces M ∩


M 0 = ∅ o bien M ⊂ M 0 o M 0 ⊂ M .

Demostración: Supongamos que M ∩ M 0 6= ∅, sea L ⊂ L0 , entonces L ∩ L0 = L luego


M ∩ M 0 es la variedad lineal obtenida aplicando L en un punto de la intersección.
Como todos los puntos de M son equivalentes, M ∩ M 0 = M luego M ⊂ M 0 .
Ejemplo: Demuestre que tres vectores en V 3 son l.d. si y sólo si ellos son paralelos
a un mismo plano.
4.3. VARIEDADES LINEALES 75

Sean α ~ ~γ ∈ V 3 , sea M un plano en R3 generado por el subespacio L de dimensión


~ , β,
dos aplicado en un punto P0 ∈ R3 . Diremos que α ~ es paralelo al plano M si para algún
−−→ ~ ~γ son paralelos a M . Entonces hay
P ∈ M se tiene P0 P = α ~ . Supongamos que α ~ , β,
−−→ ~ −−→ −−→ ~ ~γ son l.i. entonces M
P, Q, R ∈ M tales que α ~ = P0 P , β = P0 Q, ~γ = P0 R. Si α
~ , β,
tiene dimensión tres, luego α ~
~ , β, ~γ son l.d.

Sean α ~ ~γ vectores en V 3 , sean ellos l.d. Entonces hay λ, µ, ν no todos nulos tales
~ , β,
que
α + µβ~ + ν~γ = ~0 .
λ~
Supongamos que λ 6= 0 entonces α ~ = − µ β~ − ν ~γ .
λ λ

Caso 1: Si ~γ = λβ, ~ sea P0 ∈ R3 arbitrario. Sea P ∈ R3 tal que − −→ ~ Sea Q


P0 P = β.
−−→ −−→
tal que P0 P , P0 Q son l.i. Entonces P0 , P , Q determinan un plano M . Sea R tal que
−−→ ~ R está en M , entonces β, ~ ~γ son paralelos a M . Por otro lado α
P0 R = λβ. ~ es de la
forma α~ = ηβ, en forma análoga a ~γ , también α~ es paralelo a M .

Caso 2: Si β~ y ~γ son l.i., sea P0 ∈ R3 arbitrario, sea L el subespacio generado por β~y
~γ . Sea M el plano obtenido de aplicar L en P0 . Como α ~y
~ es combinación lineal de β
~γ , α
~ ∈ L, luego α ~ ~γ son paralelos a M .
~ , β,
Ejemplo: Sea M una variedad lineal en Rn , sean P , Q puntos de M . Demuestre que
la recta por P y Q está contenida en M . A la inversa, sea M tal que si R y S pertenecen
a M , la recta por R y S está contenida en M . Demuestre que M es una variedad lineal.

Sea P = (x1 , x2 , . . . , xn ), sea Q = (y1 , y2 , . . . , yn ), sea L el subespacio que genera a M .


−→ −−→
Un punto R está sobre la recta si y sólo si P R = λP Q para algún λ. Supongamos que
−−→ −−→
M se genera aplicando L en M , por hipótesis P Q ∈ L luego λP Q ∈ L, por definición,
R ∈ M.

A la inversa, sea M ⊂ Rn con esta propiedad, sea P0 ∈ M . Sea L el conjunto de los


vectores de V n tales que de su aplicación en P0 se obtienen puntos en M , esto es,
−−→
L = {~α∈Vn : α ~ = P0 P , P ∈ M }
−−−→
L es no vacı́o pues ~0 = P0 P0 ∈ L. Sea α~ ∈ L, sea λ un número cualquiera. Sea P ∈ M
−−→
tal que α~ = P0 P . El punto que resulta de aplicar λ~ α en P0 está en la recta por P0 y
P , luego por hipótesis está en M . Por lo tanto λ~
α ∈ L.

~ ∈ L, sean P, Q ∈ M tales que α −−→ ~ −−→


Sean α~, β ~ = P0 P , β = P0 Q. Sea ~γ = λ~α + µβ~ una
~ , β~ son l.d., ~γ puede expresarse como combinación
combinación lineal de ellos dos. Si α
lineal de sólo uno de ellos y ya se demostró que en tal caso ~γ está en L. Supongamos
entonces que son l.i. Consideremos dos casos.

Caso 1: Si γ es de la forma ~γ = λ(~ ~ sea R el punto dado por −


α − β)
−→ −−→
P0 R = −P0 Q.
Puesto que R está en la recta por Q y por P0 , R está en M . Sea S el punto dado
−→ −→
por P S = 21 P R, punto que está en la recta por P y R y que por lo tanto está en M .
−−→ −−→
Finalmente sea T tal que P0 T = 2λP0 S. T está en la recta que une P0 con S luego
está en M , y además
−−→ −−→ −→ 1 −−→ 1 −−→ −→ −−→ ~ = ~γ
P0 T = 2λ(P0 P + P S) = 2λ( P0 P + (P0 P + P R)) = λ(~
α + P0 R) = λ(~
α − β)
2 2
76 CAPÍTULO 4. VECTORES EN RN

luego ~γ ∈ L.

Caso 2: El caso λ + µ = 0 es el caso anterior, luego supongamos que λ + µ 6= 0. Sea R


un punto en la recta que une a P con Q dado por
−→ µ −−→
PR = PQ.
λ+µ
−−→ −−→
Sea S en la recta por P0 y R dado por P0 S = (λ + µ)P0 R. S ∈ M y
−−→ −−→ µ −−→ −−→
P0 S = (λ + µ)P0 P + (P P0 + P0 Q)
λ+µ
= (λ + µ)~
α − µ~α + µβ
= λ~ ~
α + µβ = ~γ
luego ~γ ∈ L.

Por lo tanto, L es un subespacio de V n y M es una variedad lineal de Rn .


Ejemplo: Sea M una variedad lineal en Rn de dimensión menor que n, sea P0 un
punto fuera de M . Sea N el conjunto de los puntos de Rn que están sobre alguna recta
que une un punto de M con P0 . ‘? Es N una variedad lineal?

Sea p = dim M , p < n. Si p = 0 M consiste de un solo punto y por lo tanto N es la


recta que une ese punto con P0 , luego N es una variedad lineal.

No obstante N deja de ser una variedad lineal si p > 0. Supongamos que N es una
variedad lineal, sea L el subespacio que genera a M , L0 el subespacio que genera a
N . Sea R0 un punto arbitrario de M , podemos pensar en M como la variedad que
resulta de aplicar L en R0 . Como p > 0 es posible encontrar un punto R ∈ M , tal que
R 6= R0 . Hay entonces un vector β~ ∈ L tal que β ~=− −→
R0 R. Claramente M ⊂ N luego
−−−→ −−→ ~ están en L0 . Sea S un punto en M dado por −−→ ~ y
α
~ = P0 R0 y P0 R = α ~ +β R0 S = −β,
sea T dado por
−−→ −−→ −−−→ −−→ ~
P0 T = −P0 S = −(P0 R0 + R0 S) = −~ α+β
T está en la recta que pasa por P0 y S luego T ∈ N , entonces −~ α+β ~ ∈ L0 . Como
α
~ +β ~ está también en L0 se tiene que 2β~ ∈ L0 , esto es, el punto Q dado por −−→ ~
P 0 Q = 2β
está en N . Luego Q está en la recta que une a P con un punto Z ∈ M y como R0 6= R
−−→ −−→
necesariamente β 6= 0, por lo tanto, para algún real λ se tiene que P0 Z = λP0 Q. Pero
en tal caso se tiene que
−−−→ −−→ −−→ −−→
R0 P0 = R0 Z + ZP0 = R0 Z − 2λβ ∈ L
luego P0 ∈ M y esto no puede ser.

Sea N 0 el conjunto que resulta de unir N con la variedad lineal que resulta de aplicar
L en P0 . N 0 , a diferencia de N , sı́ es una variedad lineal. En efecto, sea α ~ 1, α ~ 2, . . . , α
~p
−−−→
una base de L, sea α ~ 0 = P0 R0 . Por hipótesis α
~0 ∈
/ L luego α ~ 0, α
~ 1, α
~ 2, . . . , α
~ p son l.i.
Si Q ∈ N hay R ∈ M tal que Q está sobre la recta que une P0 con R y por lo tanto,
−−→ −−→ −−−→ −−→ −−→
para algún real λ se tiene que P0 Q = λP0 R. Pero P0 R0 + R0 R = P0 R. Como
p
à p
!
−−→ X −−→ X
R0 R = ai α
~i , P0 Q = λ α ~0 + ai α
~i
i=1 i=1
4.3. VARIEDADES LINEALES 77

p
−−→ X
luego P0 Q = ~ i . Sea L0 el subespacio de dimensión p + 1 generado por α
bi α ~ 0, α
~ 1,
i=0
α ~ p . Entonces Q se obtiene aplicando un vector de L0 en P0 .
~ 2, . . . , α
p
X
~ =
A la inversa, sea β ~ en P0 y sea
~ i un vector cualquiera de L0 , apliquemos β
bi α
i=0
Q ∈ Rn tal que β~=− −→
P0 Q. Consideremos la recta por P0 y Q. Sea R un punto arbitrario
−−→ ~=− −−→ −−→
de dicha recta, entonces P0 R = λβ P0 R0 + R0 R luego
p p
−−→ X X
R0 R = λbi α
~i − α
~ 0 = (λb0 − 1)~
α0 + λbi α
~i .
i=0 i=1

Si b0 = 0, β~ ∈ L, luego Q está en la variedad que resulta de copiar L en P0 y por lo


tanto está en N 0 . Si b0 6= 0, para λ = b10 se tiene que R ∈ M luego Q ∈ N .
Ejemplo: Sea M una variedad lineal en Rn de dimensión menor que n, sea P0 un
punto fuera de M , sea λ un real fijo. Sea N ⊂ Rn tal que S ∈ N si y sólo si hay
−−→ −−→
Q ∈ M tal que P0 S = λP0 Q. ¿Es N una variedad lineal?

Si λ = 0 N consiste en el punto P0 y por ende es una variedad lineal. Supongamos


entonces que λ 6= 0.

Sea S0 un punto fijo de N , S un punto arbitrario de n. Sean Q0 , Q ∈ M tales que


−−−→ −−−→ −−→ −−→
P0 S0 = λP0 Q0 , P0 S = λP0 Q. Sea L el subespacio que genera a M . Entonces
−−→ −−−→ −−→ −−−→
P0 S − P0 S0 = λ(P0 Q − P0 Q0 )
−−→ −−→ −−→
luego S0 S = λQ0 Q. Pero Q0 Q ∈ L luego S se obtiene aplicando un vector de L en S0 .

A la inversa, sea α
~ ∈ L, queremos demostrar que al aplicar α ~ en S0 obtenemos un
punto S ∈ N . En efecto, si Q es el punto que resulta de copiar λ1 α
~ en Q0 (punto que
está en M ) tenemos que
−−→ −−−→ −−→ −−−→
λP0 Q = λ(P0 Q0 + Q0 Q) = P0 S0 + α
~
−−→ −−→
luego P0 S = λP0 Q y S ∈ N .

Entonces N es una variedad lineal paralela a M obtenida de aplicar L en S0 .


Ejemplo: Sean L1 y L2 rectas distintas en Rn . Sean P y Q puntos arbitrarios de L1
y L2 respectivamente. Sea L la recta por P y Q. Considere la unión M de todas las
rectas L (consideradas como conjuntos de puntos en Rn ). ¿Es M una variedad lineal?

Caso 1: L1 ∩ L2 6= ∅. Sea α ~ la dirección de L2 . Supongamos que


~ la dirección de L1 y β
hay más de un punto en la intersección, por ejemplo O1 y O2 . Entonces hay λ1 , λ2 ,
µ1 y µ2 tales que
−−−→ −−−→ −−−→
P0 O1 = λ1 α
~ P0 O2 = λ2 α
~ O1 O2 = (λ2 − λ1 )~
α
−−−→ −−−→ −−−→
Q0 O1 = µ1 β~ ~
Q0 O2 = µ2 β ~
O1 O2 = (µ2 − µ1 )β
78 CAPÍTULO 4. VECTORES EN RN

Pero α ~ son l.i. entonces λ1 = λ2 , µ1 = µ2 , luego no puede haber más que un punto
~, β
en L1 ∩ L2 .

Sea entonces O el punto de intersección de L1 y L2 . Sea R ∈ M , entonces para algún


−→ −−→
P ∈ L1 y algún Q ∈ L2 se tiene P R = rP Q. Como P ∈ L1 y Q ∈ L2 hay λ y µ tales
−−→ −−→ ~ entonces
que OP = λ~ α y OQ = µβ,
−−→ −−→ −→ −−→
OR = OP + P R = λ~ α + rP Q
−−→ −−→ −−→ −−→ ~
OR + rOP = λ~α + rOP + rP Q = λ~ α + rµβ
−−→
OR = λ~α − rλ~α + rµβ~ = λ(1 − r)~ ~
α + rµβ

Sea H el subespacio generado por α ~ Entonces R se obtiene aplicando un vector


~ y β.
de H en O.
−−→
A la inversa, sea ~γ = λ~ α + µβ~ y apliquemos ~γ en O. Sea R tal que OR = ~γ . Si ~γ = 0,
R = O y entonces R ∈ M (O pertenece a la recta que lo une con algún punto de L1
distinto de él, considerando O como punto de L2 ). Si µ = 0 pero λ 6= 0, R mismo
está en L1 , y está en la recta que lo une con O, lo cual demuestra que R ∈ M (con-
siderando O como punto de L2 ).
−−→ −−→
Si µ 6= 0 sea P ∈ L1 , P 6= O, y tal que OP 6= λ~
α. Hay λp tal que OP = λp α
~ . Si Z es
un punto arbitrario de la recta que pasa por P y R se tiene que
−→ −−→ −→ −→ ~ − λp α
OZ = OP + P Z = λ~
α + tP R = λ~
α + t(~γ − λp α
~ ) = λ~
α + t[λ~
α + µβ ~]

Z ∈ L2 si y solo si λ + t(λ − λp ) = 0 luego hay un único Z0 en la recta por P y R que


está sobre L2 . Se concluye que R está sobre la recta por P y Z0 , esto es, R ∈ M . Por
lo tanto, M es la variedad lineal obtenida aplicando H en O.

Caso 2: L1 y L2 son paralelas, α


~ = β.~ Sean O1 ∈ L1 , O2 ∈ L2 puntos fijos de L1 y L2
−−−→
respectivamente. Sea ~γ = O1 O2 , sea P ∈ L1 , Q ∈ L2 , sea R un punto cualquiera de la
−→ −−→ −−→ −−→
recta por P y Q. Entonces P R = rP Q. Además O1 P = λ~ α y O2 Q = µ~α para algún
−−→ −−→
par de valores de λ y µ. Entonces ~γ + µ~α = λ~
α + P Q luego P Q = ~γ + (µ − λ)~
α y como
−−→ −→ −−→ −−→ −−→
O1 P + P R = O1 R se tiene que λ~ α + rP Q = O1 R,
−−→
O1 R = λ~
α + r{~γ + (µ − λ)~
α} ,

~ y ~γ , R se obtiene aplicando un vector de H en O1 .


si H es el subespacio generado por α

Análogamente al primer caso, al aplicar un vector ~γ ∈ H en O1 obtenemos un punto


de M . M es la variedad lineal obtenida de aplicar H en O1 .

Caso 3: L1 y L2 se cruzan. Si M fuese una variedad de dimensión dos, ella es un


plano que contiene a L1 y L2 . Entonces L1 y L2 serı́an coplanares y no paralelos luego
tendrı́an un punto común, ası́ que M no puede ser una variedad de dimensión dos. Sea
−−−→
~ la dirección de L1 , β~ la de L2 . Sea O1 ∈ L1 , sea O2 ∈ L2 , sea ~γ = O1 O2 . Entonces α
α ~,
~ ~γ son l.i. Sea H el subespacio generado por α
β, ~ ~γ . Si copiamos H a partir de O1
~ , β,
generamos una variedad lineal M 0 y podemos verificar tal como en el segundo caso que
M ⊂ M 0 . Pero los puntos que están sobre un plano por L1 y paralelo a L2 claramente
están en M 0 pero no en M luego M 6= M 0 . Pero cualquier variedad de dimensión tres
4.4. SUBESPACIOS DE SOLUCIONES 79

que contenga a M debe tener un subespacio generador que contenga a α ~ y ~γ luego


~, β
0 0 0
ella necesariamente debe ser M . Si M ⊂ M y M 6= M ella no puede tener dimensión
tres. Es obvio que M no puede tener dimensión mayor que tres porque M ⊂ M 0 . Se
concluye que M no es una variedad lineal.

4.4. Subespacios de soluciones


Consideremos un sistema homogéneo de s ecuaciones lineales con n incógnitas, sea r el
rango de la matriz del sistema. Entonces sus soluciones constituyen un subespacio de
V n . Puesto que hay n − r soluciones fundamentales ellas son una base del subespacio
el cual tiene entonces dimensión n − r.

Puesto que las soluciones de un sistema no homogéneo se obtienen sumando a una


solución dada del sistema todas las soluciones del correspondiente sistema homogéneo,
podemos reeinterpretar este resultado en lenguaje geométrico de la siguiente manera:

Sea (x1 , x2 , . . . , xn ) una solución del sistema no homogéneo. La interpretaremos como


un punto P ∈ Rn . Sea α ~ = {y1 , y2 , . . . , yn } una solución del correspondiente sistema
−−→
homogéneo, sabemos que hay Q ∈ Rn tal que α ~ = P Q. Si O ∈ Rn está dado por
−−→
O = (0, 0, . . . , 0) entonces OP = {x1 , x2 , . . . , xn } es una solución vectorial del sistema.
Pero
−−→ −−→ −−→
OP + P Q = OQ = {x1 + y1 , x2 + y2 , . . . , xn + yn } ,
luego el punto Q = (x1 + y1 , x2 + y2 , . . . , xn + yn ) es una solución del sistema no
homogéneo. Se concluye lo siguiente:

Sea L el subespacio de soluciones del correspondiente sistema homogéneo, sea M ⊂ Rn


formado por todas las soluciones del sistema no homogéneo. Si P ∈ M , aplicando un
vector α
~ ∈ L en P obtenemos un punto Q ∈ M .

A la inversa, sea Q = (z1 , z2 , . . . , zn ) ∈ M , si β~ = {z1 , z2 , . . . , zn }, α


~ = {x1 , x2 , . . . , xn }
entonces
β~−α ~ = {z1 − x1 , z2 − x2 , . . . , zn − xn } ∈ L .
~−α −−→ ~ −−→
Pero α~ + (β ~ ) = OQ y β −α ~ = P Q luego el punto Q ∈ M se obtiene aplicando
~−α
β ~ en P .

M es la variedad lineal de dimensión n − r obtenida aplicando L en una solución


P ∈ Rn arbitraria del sistema no homogéneo.

Teorema 4.12 Sea L un subespacio de V n . Entonces existe un sistema lineal ho-


mogéneo con n incógnitas tal que L es su espacio de soluciones.

Demostración: Sea p = dim L. Sea α ~ i = {ai1 , ai2 , . . . , ain }, i = 1, 2, . . . , p una base


de L, sea ~x = {x1 , x2 , . . . , xn }. Considere el sistema
n
X
α
~ i · ~x = aij xi = 0 i = 1, 2, . . . , p (4.3)
j=1
80 CAPÍTULO 4. VECTORES EN RN

p
X
La matriz de (4.3) tiene rango p. Sea λj α
~ j ∈ L, sea ~x una solución de (4.3).
j=1
Entonces
p
X p
X
~x · λj α
~j = λj (~x · α
~ j) = 0 ,
j=1 j=1

si ~x es solución de (4.3) entonces ~x es ortogonal a todos los vectores de L. A la inversa,


si ~x es ortogonal a todos los vectores de L, ~x es solución de (4.3).

Nótese que si ~x1 , ~x2 son ortogonales a L, α~x1 + β~x2 es ortogonal a L luego L0 , el
conjunto de los vectores de V n que son ortogonales a L es un subespacio de V n , que
coincide con el espacio de soluciones de (4.3) luego dim L0 = n − p.

Busquemos los vectores ortogonales a L0 . Sea β~i , i = 1, 2, . . . , n − p una base de L0 . Un


vector ~y = {y1 , y2 , . . . , yn } es ortogonal a L0 si y sólo si

β~i · ~yi = 0 i = 1, 2, . . . , n − p (4.4)

Pero β~1 , β
~2 , . . . , β
~n−p son en particular ortogonales a α
~ 1, α
~ 2, . . . , α
~ p luego

~1 · α
β ~i = 0 , β~2 · α
~i = 0 , ... , ~n−p · α
β ~i = 0 i = 1, 2, . . . , p

(4.4) es un sistema homogéneo cuyas soluciones son todos los vectores ortogonales a
L0 luego su espacio de soluciones tiene dimensión p. Como α ~ 1, α
~ 2, . . . , α
~ p son l.i. y
están en dicho espacio de soluciones, tal espacio de soluciones es precisamente L.

Para resumir: Sea L un subespacio de V n de dimensión p, sea L0 el subespacio de V n


~1 , β
que consta de todos los vectores ortogonales a L. L0 tiene dimensión n − p. Si β ~2 ,
~n−p es una base de L0 vemos que el sistema
..., β

~i · ~y = 0
β i = 1, 2, . . . , n − p , ~y = {y1 , y2 , . . . , yn }

tiene como espacio de soluciones a L.

Teorema 4.13 Sea M una variedad lineal en Rn . Entonces existe un sistema lineal
con n incógnitas tal que el conjunto de sus soluciones es M .

Demostración: Sea L el subespacio que genera a M , sea p = dim L. Por el teorema


anterior, existe un sistema lineal homogéneo

a11 x1 + a12 x2 + · · · + a1n xn = 0


a21 x1 + a22 x2 + · · · + a2n xn = 0
.. (4.5)
.
am1 x1 + am2 x2 + · · · + amn xn = 0

cuyo espacio de soluciones es L.


4.4. SUBESPACIOS DE SOLUCIONES 81

Supongamos que M se obtiene aplicando L en P = (ξ1 , ξ2 , . . . , ξn ). Definimos bi =


Xn
aik ξk , consideremos el sistema
k=1

a11 x1 + a12 x2 + · · · + a1n xn = b1


a21 x1 + a22 x2 + · · · + a2n xn = b2
.. (4.6)
.
am1 x1 + am2 x2 + · · · + amn xn = bm

Entonces las soluciones de (4.6) se obtienen aplicando el espacio de soluciones de (4.5)


en P . Nótese que podemos encontrar un sistema (4.5) en que m = n − p de modo que
(4.6) tenga exactamente n − p ecuaciones.
82 CAPÍTULO 4. VECTORES EN RN
Capı́tulo 5

Consideraciones sobre
distancia y volumen en Rn

5.1. Métrica euclidiana


Definición 5.1 Sean P = (x1 , x2 , . . . , xn ), Q = (y1 , y2 , . . . , yn ) puntos de Rn . Lla-
maremos distancia entre P y Q a
" n
# 12
X
PQ = (yi − xi )2
i=1

Es claro que P Q ≥ 0 y que P Q = 0 sii P = Q.

Notación: Si a Rn adjuntamos esta notación de distancia, al producto obtenido lo


llamaremos “espacio euclidiano n-dimensional”.

Definición 5.2 Dada la recta por P y Q

zi = xi + λ(yi − xi ) i = 1, 2, . . . , n −∞<λ<∞

llamaremos longitud del segmento P Q (0 ≤ λ ≤ 1) a la distancia entre P y Q.


−−→
Nota: Sea α~ = P Q = {y1 −x1 , y2 −x2 , . . . , yn −xn }. La longitud del segmento dirigido
−−→
P Q que es una representación posible de α ~ es P Q. Esto motiva la siguiente definición:

~ = {a1 , a2 , . . . , an } un vector de V n . Llamaremos longitud del


Definición 5.3 Sea α
vector α
~ a à n ! 12
X
k~αk = a2i ,
i=1

k~
αk se llama la norma de α
~.

Nótese que k~
αk = 0 sii sus puntos extremos coinciden, esto es, k~ ~ = ~0.
αk = 0 sii α

83
84 CAPÍTULO 5. DISTANCIA Y VOLUMEN EN RN

Teorema 5.4 (Desigualdad de Cauchy-Schwarz) |~ ~ ≤ k~


α · β| ~
αkkβk

Demostración: Supongamos primero que k~ ~ = 1. Como ∀ α


αk = kβk ~ ∈ V n se tiene
2
k~
αk = α
~ ·α
~ ≥ 0, entonces
~−α
kβ ~−α
~ k2 = (β ~−α
~ ) · (β ~ 2 − 2~
~ ) = kβk ~ + k~
α·β αk2 ≥ 0

luego
~ · β~ ≤ 1
α (5.1)
Hay igualdad en (5.1) sii α ~
~ = β.

α
~ ~
β
~ , β~ vectores arbitrarios distintos de ~0, por (5.1)
Sean α · ≤ 1 luego
k~
αk ~
kβk

α ~ ≤ k~
~ ·β ~
αkkβk (5.2)

Es claro que (5.2) es verdadera si α ~ es ~0, luego (5.2) es cierto para α


~ ó β ~ cualquiera.
~ yβ
En particular es cierta para −~ ~
α y β luego

α) · β~ ≤ k − α
(−~ ~
~ kkβk ⇒
−(~ ~ ≤ k~
α · β) ~
αkkβk
¯ ¯
¯ α β~ ¯¯ ~
~ ~ ~ ¯ ~ α
~ β
Si α
~ yβ son tales que |~α · β| = k~
αkkβk entonces ¯ · ¯ = 1. Si · =1
¯ k~αk kβk ~ ¯ k~
αk kβk ~
α
~ β~ α
~ β~ (−~α) β~ α
~ β~
entonces = , si · = −1, · = 1 y − = . Hay
k~
αk ~
kβk k~
αk kβk ~ k~
αk kβk ~ k~
αk kβk~
k~αk ~
igualdad sii α
~ =± β.
~
kβk

Teorema 5.5 (Desigualdad triangular) Sean P , Q, R tres puntos cualesquiera en


el espacio euclidiano Rn . Entonces

P R ≤ P Q + QR
−−→ −−→ ~ −→ −−→ −−→
Demostración: Sean P Q = α
~ , QR = β, entonces P R = P Q + QR luego
2
PR = k~ ~ 2 = (~
α + βk ~ · (~
α + β) ~ = k~
α + β) αk2 + 2~ ~ + kβk
α·β ~ 2
αk2 + 2k~
≤ k~ ~ + kβk
αkkβk ~ 2 = (k~ ~ 2
αk + kβk)
⇒ PR ≤ k~ ~ = P Q + QR
αk + kβk

Nota: Hemos demostrado más que eso, si α ~ ∈ V n entonces


~, β

k~ ~ ≤ k~
α + βk ~
αk + kβk

¿Cuándo se produce igualdad?

Supongamos que Q pertenece al segmento P R. Sea P = (x1 , x2 , . . . , xn ), R = (z1 , z2 , . . . , zn ).


Entonces Q = (y1 , y2 , . . . , yn ) es tal que

yi = xi + λ(zi − xi ) i = 1, 2, . . . , n 0≤λ≤1
5.2. VOLÚMENES Y DETERMINANTES 85

Pero
zi − yi = zi − xi − (yi − xi ) = (1 − λ)(zi − xi ) i = 1, 2, . . . , n
à n ! 12 à n ! 12
X X
2 2
P Q + QR = |λ| (zi − xi ) + |1 − λ| (zi − xi ) = PR
i=1 i=1

porque 0 ≤ λ ≤ 1 entonces |λ| = λ, |1 − λ| = 1 − λ.


−−→ −−→
A la inversa, si hay igualdad y alguno entre P Q y QR es el vector cero, entonces P = Q
−−→ −−→
o Q = R y Q está en el segmento. Supongamos entonces que P Q 6= ~0 y QR 6= ~0. Hay
−−→ −−→ −−→ −−→
igualdad si P Q · QR = kP QkkQRk luego
−−→ −−→
PQ QR
−−→ = −−→
kP Qk kQRk
−−→ −−→
luego P Q = µQR, µ > 0,
yi − xi = µ(zi − yi ) i = 1, 2, . . . , n
xi + µzi
yi = i = 1, 2, . . . , n
1+µ
µ µ
yi = xi + (zi − xi ) 0<λ= < 1,
µ+1 µ+1
Q está en el interior del segmento P R.

Definición 5.6 Sean α ~ distintos de ~0. Llamaremos ángulo γ entre α


~, β ~ y β~ , se
designa por γ ≡ (~ ~ al ángulo γ tal que 0 ≤ γ ≤ π definido por
α, β),

α ~
~ ·β
cos γ = .
k~ ~
αkkβk
Nota: La desigualdad de Cauhy-Schwarz garantiza que la definición es correcta.
Nota: Sean α ~ distintos de cero. Entonces cos γ = 0 sii α
~, β ~ ·β~ = 0. Decimos que α
~ y
~ son ortogonales. En Rn euclideo, los vectores ~ei de la base estándar son mutuamente
β
ortogonales.

5.2. Volúmenes y determinantes


D C Queremos describir el parelógramo ABCD analı́tica-
P mente. Sea P un punto interior al paralelógramo o
F bien sobre alguno de sus lados. Por P tracemos par-
alelas a AB y AD respectivamente, sean E, F los
puntos de intersección en AB y AD respectivamente.
A E B
−→ −→ −−→ −→ −→
AP = AE + EP = AE + AF
Pero
−→ −−→
AE = λ1 AB 0 ≤ λ1 ≤ 1
−→ −−→
AF = λ2 AD 0 ≤ λ2 ≤ 1
86 CAPÍTULO 5. DISTANCIA Y VOLUMEN EN RN

−→ −−→ −−→
Luego AP = λ1 AB + λ2 AD, 0 ≤ λ1 , λ2 ≤ 1.
−−→ −−→
A la inversa, si al aplicar el vector λ1 AB + λ2 AD en A para llevarlo al punto O, tal
punto P pertenece al paralelógramo si 0 ≤ λ1 , λ2 ≤ 1.

Sean α ~ 2 vectores l.i. en V 2 , sea A un punto fijo en R2 . Llamaremos paralelógramo


~ 1, α
al conjunto de los puntos P ∈ R2 en los cuales es transformado el punto A al aplicar
todos los vectores de la forma λ1 α ~ 1 + λ2 α
~ 2 , 0 ≤ λ1 , λ2 ≤ 1 en A. Diremos que α
~ 1, α
~2
son los lados del paralelógramo.

Podemos realizar una construcción análoga en R3 : Sean α ~ 1, α


~ 2, α
~ 3 vectores l.i. en
V 3 , sea A un punto fijo de R3 . Llamaremos paralelepı́pedo al conjunto de los puntos
P ∈ R3 en los cuales es transformado el punto A al aplicar todos los vectores de la
forma λ1 α~ 1 + λ2 α
~ 2 + λ3 α
~ 3 , 0 ≤ λ1 , λ2 , λ3 ≤ 1 en A. Diremos que α ~ 1, α
~ 2, α
~ 3 son las
aristas del paralelepı́pedo.

Definición 5.7 Sean α~ 1, α ~ n vectores l.i. en V n , sea A un punto fijo de Rn .


~ 2, . . . , α
Llamaremos paralelotopo n-dimensional al conjunto de los puntos P ∈ Rn en los
Xn
cuales es transformado el punto A al aplicar todos los vectores de la forma λi α
~ i,
i=1
0 ≤ λi ≤ 1, i = 1, 2, . . . , n en A. Diremos que α
~ 1, α
~ 2, . . . , α
~ n son las aristas del
paralelotopo.

Nuestro objetivo es definir el volumen de un paralelotopo n-dimensional, para esto


revisamos las propiedades esenciales que la noción tiene en dos y tres dimensiones.
En primer lugar, debe ser invariante a traslaciones; por definición, el paralelógramo
y el paralelepı́pedo son generados trasladando el punto fijo A mediante los vectores
λ1 α
~ 1 + λ2 α
~ 2 , λ1 α
~ 1 + λ2 α
~ 2 + λ3 α
~ 3 . Pedir que el volumen del paralelotopo sea invari-
ante a traslaciones es, en otras palabras, que área y volumen deben ser independientes
de la elección del punto A. Si elegimos otro punto, digamos B, el paralelógramo (par-
alelepı́pedo) resultante debe tener la misma área (volumen). Paralelógramos que tienen
los mismos lados deben tener la misma área, paralelepı́pedos con las mismas aristas
deben tener el mismo volumen.

El volumen del paralelotopo n-dimensional debe ser solo una función de las aristas, lo
anotaremos como V (~α1 , α
~ 2, . . . , α
~ n ).

Para establecer una unidad de medida, al paralelotopo cuyas aristas son los vectores
de la base estándar le asignaremos el volumen 1, esto es

V (~e1 , ~e2 , . . . , ~en ) = 1

En Rn euclı́deo, los vectores ~e1 , ~e2 , . . . , ~en tienen longitud uno y aristas mutuamente
ortogonales. A un paralelotopo n-dimensional cuyas aristas tienen todas la misma lon-
gitud y son todas mutuamente ortogonales le llamaremos cubo n-dimensional.

Es claro que debemos exigir V (~


α1 , α
~ 2, . . . , α
~ n ) ≥ 0.

Paralelógramos equivalentes (bases de igual longitud y misma altura) tienen la misma


área, paralelelı́pedos equivalentes (bases de igual área y misma altura) tienen el mismo
5.2. VOLÚMENES Y DETERMINANTES 87

volumen. Veamos el significado de esto en términos de las aristas:

D C E
2
ABCD y ABEC son equivalentes. Los par-
a
a2 a+ 1 alelógramos cuyas aristas son α ~ 1, α
~2 y α
~ 1,
α
~1 + α ~ 2 tienen la misma área.
A a1 B
H G L Los paralelepı́pedos ABCDEF GH y
ABCDF KLG son equivalentes. Los par-
E F alepı́pedos cuyas aristas son α
~ 1, α
~ 2, α
~3 y α
~ 1,
K α
~ 2, α
~1 + α
~ 3 tienen el mismo volumen.
3
+a

a3 Puesto que estas combinaciones se pueden


a1

D C hacer con cualquier par de aristas (cualquier


a2 cara puede ser elegida como base) probaremos
lo siguiente:
A a1 B

V (~
α1 , α
~ 2, . . . , α
~ i, . . . , α
~ n ) = V (~
α1 , α
~ 2, . . . , α
~i + α
~ k, . . . , α
~ n)

donde k 6= i, 1 ≤ k ≤ n.

Si en un paralelotopo de aristas α ~ 1, α
~ 2, . . . , α
~ n reemplazamos la arista α~ i, 1 ≤ i ≤ n
por α~i + α ~ k , 1 ≤ k ≤ n, k 6= i, el nuevo paralelotopo de aristas α ~ 1, α
~ 2, . . . , α
~ i +~
αk ,
..., α
~ n tiene el mismo volumen que el original.

F E Consideremos los paralelógramos ABCD y ABEF de aris-


tas α
~ 1, α
~2 y α
~ 1 , λ~
α2 , λ real.
la2
Area ABCD AD k~
α2 k 1
= = =
D Area ABEF AF kλ~α2 k |λ|
C
a2 Pedimos entonces que

A a1 B V (~
α1 , α
~ 2 , . . . , λ~
αi , . . . , α
~ n ) = |λ|V (~
α1 , α
~ 2, . . . , α
~ i, . . . , α
~ n)

Si en un paralelotopo de aristas α
~ 1, α
~ 2, . . . , α
~ n reemplazamos la arista α
~ i por λ~
αi el
volumen queda multiplicado por |λ|.

En resumen, definiremos el volumen de un paralelotopo n-dimensional de aristas α


~ 1,
α
~ 2, . . . , α
~ n como una función real V (~
α1 , α
~ 2, . . . , α
~ n ) tal que

i.- V (~
α1 , α
~ 2, . . . , α
~ n) ≥ 0

ii.- V (~
α1 , α
~ 2, . . . , α
~ i, . . . , α
~ n ) = V (~
α1 , α
~ 2, . . . , α
~i + α
~ k, . . . , α
~ n) i 6= k

iii.- V (~
α1 , α
~ 2 , . . . , λ~
αi , . . . , α
~ n ) = |λ|V (~
α1 , α
~ 2, . . . , α
~ n)

iv.- V (~e1 , ~e2 , . . . , ~en ) = 1

Queremos demostrar que tal función existe y es única. Quitemos la restricción de que
los vectores α
~ 1, α
~ 2, . . . , α
~ n deben ser l.i. y permitamos que cualquier n-tupla de vec-
tores de V n pueda ser argumento de la función V (~ α1 , α
~ 2, . . . , α
~ n ). Con este propósito
88 CAPÍTULO 5. DISTANCIA Y VOLUMEN EN RN

introducimos una nueva función real D(~α1 , α


~ 2, . . . , α
~ n ) donde (~
α1 , α
~ 2, . . . , α
~ n ) es una
n-tupla de vectores de V n (no necesariamente l.i) y que satisface las propiedades sigu-
ientes:

i.- D(~
α1 , α
~ 2, . . . , α
~ i, . . . , α
~ n ) = D(~
α1 , α
~ 2, . . . , α
~i + α
~ k, . . . , α
~ n) i 6= k

ii.- D(~
α1 , α
~ 2 , . . . , λ~
αi , . . . , α
~ n ) = λD(~
α1 , α
~ 2, . . . , α
~ i, . . . , α
~ n)

iii.- D(~e1 , ~e2 , . . . , ~en ) = 1

Sean α
~ i = {ai1 , ai2 , . . . , ain }, i = 1, 2, . . . , n, sea A a matriz de n × n cuyas filas son los
vectores α
~ i . No es difı́cil demostrar, usando i), ii) y iii) que D(~ α1 , α
~ 2, . . . , α
~ n ) goza de
las mismas propiedades que las de las filas (columnas) de det A, a saber:

i.- D(~
α1 , α
~ 2, . . . , α
~ i, . . . , α
~ n ) = D(~
α1 , α
~ 2, . . . , α
~ i + λ~
αk , . . . , α
~ n) i 6= k, λ real.
n
X
ii.- D(~
α1 , α
~ 2, . . . , α
~ i, . . . , α
~ n ) = D(~
α1 , α
~ 2, . . . , α
~i + λk α
~ k, . . . , α
~ n ).
k=1,k6=i

iii.- Si α
~ i = 0, 1 ≤ i ≤ n, D(~
α1 , α
~ 2, . . . , α
~ n ) = 0.

iv.- Si α
~ 1, α
~ 2, . . . , α
~ n son l.d., D(~
α1 , α
~ 2, . . . , α
~ n ) = 0.

v.- D(~
α1 , α
~ 2, . . . , α
~ i, . . . , α
~ k, . . . , α
~ n ) = −D(~
α1 , α
~ 2, . . . , α
~ k, . . . , α
~ i, . . . , α
~ n ).
~ + ~γ , α
vi.- D(β ~ 2, . . . , α ~ α
~ n ) = D(β, ~ 2, . . . , α
~ n ) + D(~γ , α
~ 2, . . . , α
~ n ).
r
X
vii.- Sea α
~i = βik , i = 1, 2, . . . , n
k=1

r
X
⇒ D(~
α1 , α
~ 2, . . . , α
~ n) = D(β1ν1 , β2ν2 , β3ν3 , . . . , βnνn ) .
ν1 ,...,νn =1

viii.- Si α
~ 1, α
~ 2, . . . , α
~ n son l.i., D(~
α1 , α
~ 2, . . . , α
~ n ) 6= 0.

Tenemos que demostrar que existe una función que satisface las propiedades i), ii) y
iii) y que es única. La demostración se hace por inducción y no la entregaremos porque
excede el ámbito de estas notas. Pero lo que se obtiene esencialmente es lo siguiente:

Si existe un función D(~α1 , α~ 2, . . . , α


~ n ) que satisface i), ii), iii) ella debe tener una
cierta forma, luego se verifica que la función de la forma obtenida satisface i), ii), iii)
lo cual prueba la existencia de D(~ α1 , α
~ 2, . . . , α
~ n ). Finalmente, usando vii) y viii) se
obtiene una expresión explı́cita de D(~ α1 , α
~ 2, . . . , α
~ n ) la cual coincide con la definición
de det A. Entonces D(~ α1 , α
~ 2, . . . , α
~ n ) = det A. A D(~ α1 , α
~ 2, . . . , α
~ n ) la llamaremos fun-
ción determinante.

Esto último prueba que si H(~ α1 , α


~ 2, . . . , α
~ n ) es otra función que satisface i), ii), iii)
entonces ella tiene necesariamente la misma forma que D(~ α1 , α
~ 2, . . . , α
~ n ) y como sa-
tisface las propiedades vii), viii), H(~ α1 , α ~ 2, . . . , α
~ n ) = det A.

Definamos V (~
α1 , α
~ 2, . . . , α
~ n ) = |D(~
α1 , α
~ 2, . . . , α
~ n )|.
5.2. VOLÚMENES Y DETERMINANTES 89

Es claro que se satisfacen las 4 propiedades que le exigimos al volumen. Queremos


demostrar que es la única que las satisface.

Sea la función sgn D definida por



 1 si D > 0
sgn D = 0 si D = 0

−1 si D < 0

Consideremos V (~ α1 , α
~ 2, . . . , α
~ n )sgn D(~
α1 , α
~ 2, . . . , α
~ n ). Queremos demostrar que ella
satisface las propiedades i), ii), iii) de la función determinante.

Ni V (~
α1 , α
~ 2, . . . , α
~ n ) ni sgn D(~
α1 , α
~ 2, . . . , α
~ n ) cambian cuando se reemplaza α
~ i por
α
~i + α
~ k luego satisface i).

Como (sgn a)(sgn b) = sgn (ab), al reemplazar α ~ i por λ~


αi la función queda multipli-
cada por |λ|sgn λ = λ luego satisface ii). Es claro que satisface iii). Entonces

V (~
α1 , α
~ 2, . . . , α
~ n )sgn D(~
α1 , α
~ 2, . . . , α
~ n ) = D(~
α1 , α
~ 2, . . . , α
~ n)

Si D(~
α1 , α
~ 2, . . . , α
~ n ) 6= 0,

V (~
α1 , α
~ 2, . . . , α
~ n )(sgn D(~
α1 , α ~ n ))2
~ 2, . . . , α = sgn D(~
α1 , α
~ 2, . . . , α
~ n )D(~
α1 , α
~ 2, . . . , α
~ n)
= |D(~
α1 , α
~ 2, . . . , α
~ n )| ,

luego observe que si D 6= 0, (sgn D)2 = 1. Si D(~ α1 , α


~ 2, . . . , α
~ n ) = 0, la propiedad
viii) de la función determinante nos permite concluir que los vectores α ~ 1, α ~ 2, . . . ,
α
~ n son l.d., pero cualquier función que satisface las propiedades ii) y iii) de la fun-
ción determinante es 0 si los vectores α ~ 1, α
~ 2, . . . , α
~ n son l.d. Como V (~ α1 , α
~ 2, . . . , α
~ n)
las satisface, V (~ α1 , α
~ 2, . . . , α
~ n ) = 0 si los vectores α ~ 1, α~ 2, . . . , α~ n son l.d. Entonces
|D(~ α1 , α
~ 2, . . . , α
~ n )| es la única función que satisface las propiedades i), ii), iii), iv)
exigidas al volumen.

Definición 5.8 Definimos como volumen de un paralelotopo n-dimensional en Rn


euclı́deo a
V (~
α1 , α
~ 2, . . . , α
~ n ) = |D(~
α1 , α
~ 2, . . . , α
~ n )|
90 CAPÍTULO 5. DISTANCIA Y VOLUMEN EN RN
Capı́tulo 6

Sistemas de coordenadas

Recordemos la definición (4.8). Sea M una variedad lineal, P0 un punto de M y L el


subespacio que la genera, supongamos L tiene dimensión p > 0. Si α~ 1, α
~ 2, . . . , α
~ p es
una base de L y P un punto arbitrario de M , podemos escribir (de manera única)
p
−−→ X
P0 P = yi α
~i
i=1

Decimos que y1 , y2 , . . . , yp son las coordenadas del punto P con respecto al sistema de
coordenadas [P0 ; α ~ 1, α ~ p ]. Puesto que Rn es una variedad lineal n-dimensional,
~ 2, . . . , α
si β~1 , β~2 , . . . , β
~n es una base de V n y Q ∈ Rn , para cada P ∈ Rn podemos escribir
(de manera única)
n
−−→ X ∗ ~
QP = i x βi
i=1

Decimos que x∗1 , x∗2 , . . . , x∗n son las coordenadas del punto P en el sistema de coorde-
nadas [Q; β~1 , β
~2 , . . . , β
~n ], el punto Q tiene coordenadas 0,0,. . . , 0.

Elijamos como origen el punto O = (0, 0, . . . , 0) y como base de V n la base estándar


~e1 , ~e2 , . . . , ~en . Sea P = (x1 , x2 , . . . , xn ) un punto arbitrario de Rn . Entonces
−−→
OP = {x1 − 0, x2 − 0, . . . , xn − 0} = {x1 , x2 , . . . , xn }
= x1 {1, 0, . . . , 0} + x2 {0, 1, . . . , 0} + · · · + xn {0, 0, . . . , 1}
Xn
= xi~ei .
i=1

Con respecto al sistema de coordenadas [O; ~e1 , ~e2 , . . . , ~en ], las coordenadas de P coin-
ciden con los elementos de la n-tupla (x1 , x2 , . . . , xn ).

Definición 6.1 Sea [Q; β~1 , β ~2 , . . . , β~n ] un sistema de coordenadas en Rn , sea α ~ =


Xn
{a1 , a2 , . . . , an } un vector de V n . Entonces α ~ = ~i (en forma única). Dire-
a∗i β
i=1
mos que a∗1 , a∗2 , . . . , a∗n son las componentes de α ~ en el sistema de coordenadas
[Q; β ~1 , β
~2 , . . . , β
~n ], o bien, las componentes del vector α con respecto a la base β~1 , β
~2 ,
~
. . . , βn .

91
92 CAPÍTULO 6. SISTEMAS DE COORDENADAS

Es claro que las componentes del vector α


~ son independientes de la elección del origen
Q.

Notación: De ahora en adelante escribiremos P = (x1 , x2 , . . . , xn ) sólo si x1 , x2 , . . . ,


xn son las coordenadas de P en [O; ~e1 , ~e2 , . . . , ~en ] y escribimos α
~ = {a1 , a2 , . . . , an }
sólo si a1 , a2 , . . . , an son las componentes de α
~ con respecto a la base ~e1 , ~e2 , . . . , ~en .

Sea [Q; β~1 , β ~2 , . . . , β~n ] un sistema de coordenadas en Rn , sea P ∈ Rn de coordenadas


x1 , x2 , . . . , x∗n , sea R ∈ Rn de coordenadas y1∗ , y2∗ , . . . , yn∗ . Entonces
∗ ∗

X X n X n n
−→ −−→ −−→ ~i + ~i =
P R = P Q + QR = − x∗i β yi∗ β (yi∗ − x∗i )β~i
i=1 i=1 i=1
−→
luego P R tiene componentes (yi∗ − x∗i ), i = 1, 2, . . . , n en el sistema dado. Si α~ =
Xn n
X
a∗i β~i , λ~
α = ~i luego λ~
(λa∗i )β α tiene componentes λa∗i , i = 1, 2, . . . , n en el
i=1 i=1
n
X
~=
sistema dado. Si β ~i entonces
b∗i β
i=1

n
X
~ + β~ =
α (a∗i + b∗i )β~i ,
i=1

~ + β~ tiene componentes a∗i + b∗i , i = 1, 2, . . . , n en el sistema dado.


α
n
X
Sean α
~ 1, α ~ n n vectores en V n , sea α
~ 2, . . . , α ~i = a∗ik β~k , sea
k=1
 
a∗11 a∗12 ··· a∗1n
 a∗21 a∗22 ··· a∗2n 
 
(a∗ik ) =  .. .. .. .. 
 . . . . 
a∗m1 a∗m2 ··· a∗mn
m
X
~ i∗ = {a∗i1 , a∗i2 , . . . , a∗in }, i = 1, 2, . . . , n y supongamos que
Llamamos α ~ i∗ = ~0.
λi α
i=1
m
X
Entonces λi a∗ik = ~0, k = 1, 2, . . . , n y por lo tanto
i=1

m m
à n
! n
Ãm !
X X X X X
λi α
~i = λi ~k
a∗ik β = λi a∗ik ~k = ~0 .
β
i=1 i=1 k=1 k=1 i=1

Luego si las filas de (a∗ik ) son l.d. entonces α


~ 1, α
~ 2, . . . , α
~ n son l.d. con exactamente la
misma relación lineal.
m
X
A la inversa, supongamos que λi α
~ i = 0, entonces
i=1

n
Ãm ! m
X X X
λi a∗ik ~k = 0
β ⇒ λi a∗ik = 0 k = 1, 2, . . . , n
k=1 i=1 i=1
6.1. TRANSFORMACIÓN DE COORDENADAS 93

luego si los vectores α


~ 1, α ~ n son l.d. las filas de (a∗ik ) son l.d. con la misma
~ 2, . . . , α
relación lineal.

Se concluye que el número de vcetores l.i. que contiene un sistema linealmente inde-
pendiente maximal del conjunto α ~ 1, α
~ 2, . . . , α
~ m es igual al número de vectores que
contiene un sistema linealmente independiente maximal del conjunto de filas de la
matriz (a∗ik ) y es por lo tanto igual al rango de dicha matriz.

6.1. Transformación de coordenadas


Problema: Sean [Q0 ; β~1 , β~2 , . . . , β
~n ], y [Q00 ; ~γ1 , ~γ2 , . . . , ~γn ] dos sistemas de coordenadas
n n
en R . Sea P ∈ R y supongamos que se conocen las coordenadas de P en el primer
sistema. Se piden las coordenadas de P en el segundo sistema.

Sean
n
X n
−−0−→ −−00−→0 X
Q Q00 = ~i
si β Q Q = ti~γi
i=1 i=1
n
X n
X
~k =
β vik~γi ~γk = uik β~i k = 1, 2, . . . , n
i=1 i=1

Sean x1 , x2 , . . . , xn las coordenadas de P en el primer sistema, y1 , y2 , . . . , yn las


coordenadas de P en el segundo sistema. Entonces
n n
−−0→ X −−→ X
QP = xi β~i Q00 P = yi~γi
i=1 i=1

−−→ −−−→ −−→


Pero Q00 P = Q00 Q0 + Q0 P luego
n n n n n
à n !
X X X X X X
yi~γi = ti~γi + xk β~k = ti~γi + vik xk ~γi
i=1 i=1 k=1 i=1 i=1 k=1

n
X −−→ −−−→ −−→
yi = ti + vik xk i = 1, 2, . . . , n . Análogamente, Q0 P = Q0 Q00 + Q00 P luego
k=1
Xn
xi = si + uik yk i = 1, 2, . . . , n
k=1
(6.1)
Decimos que (6.1) es una transformación de coordenadas del primer sistema al segundo
o viceversa.

Problema: ¿Cómo cambian las componentes de un vector frente a una transformación


de coordenadas?

~ ∈ V n con componentes a1 , a2 , . . . , an con respecto al primer sistema y compo-


Sea α
nentes b1 , b2 , . . . , bn con respecto al segundo sistema.
94 CAPÍTULO 6. SISTEMAS DE COORDENADAS

n
X n
X
α
~ = ~k =
ak β bk~γk
k=1 k=1
n n
à n !
X X X
bi~γi = vik ak ~γi
i=1 i=1 k=1
Xn
bi = vik ak i = 1, 2, . . . , n
i=1

Análogamente
n n
à n !
X X X
ai β~i = uik bk ~i
β
i=1 i=1 k=1
Xn
ai = uik bk i = 1, 2, . . . , n
k=1

Analicemos con mayor detención las expresiones


n
X
β~k = vik~γi
i=1
Xn k = 1, 2, . . . , n
~γk = uik β~i
i=1

Como β~1 , β ~2 , . . . , β~n son l.i., el rango de (vik ) es igual a n. Como ~γ1 , ~γ2 , . . . , ~γn son
l.i., el rango de (uik ) es igual a n. Se concluye que det(vik ) y det(uik ) son distintos de
cero.

~1 , β~2 , . . . , β
Problema: Supongamos que sólo [Q0 ; β ~n ] es dado y que también el sistema
de ecuaciones
Xn
yi = ti + vik xk i = 1, 2, . . . , n
k=1

con det(vik ) 6= 0 es dado. Este sistema de ecuaciones le asigna a un punto P de co-


ordenadas x1 , x2 , . . . , xn con respecto al sistema [Q0 ; β~1 , β~2 , . . . , β
~n ] una n-tupla de
números y1 , y2 , . . . , yn . ¿Existe un sistema de coordenadas donde las coordenadas de
P son precisamente y1 , y2 , . . . , yn ?

Sea Vik el adjunto de vik en det(vik ). Revisando la demostración de la regla de Cramer


se obtiene que
Xn
(yi − ti )Vik
i=1
xk = k = 1, 2, . . . , n
det(vik )
Llamemos
n
X
ti Vik
i=1 Vik
sk = − uki = k = 1, 2, . . . , n
det(vik ) det(vik )
6.2. VARIEDADES LINEALES Y SISTEMAS DE ECUACIONES 95

Obtenemos ası́ el sistema


n
X
xk = sk + uki yi k = 1, 2, . . . , n
i=1

n
−−−→ X
Sea Q00 el punto tal que Q0 Q00 = si β~i y definamos ~γ1 , ~γ2 , . . . , ~γn por
i=1

n
X
~γk = ~i .
uik β
i=1

El análisis previo nos dice que ~γ1 , ~γ2 , . . . , ~γn son l.i. entonces [Q00 ; ~γ1 , ~γ2 , . . . , ~γn ] es el
sistema de coordenadas pedido.

~1 , β
Análogamente, dada una base β ~2 , . . . , β~n y el sistema de ecuaciones
n
X
bi = vik ak i = 1, 2, . . . , n det(vik ) 6= 0
i=1

podemos encontrar una segunda base ~γ1 , ~γ2 , . . . , ~γn tal que estas ecuaciones represen-
tan las ecuaciones de transición para las componentes de un vector al pasar de la base
~1 , β
β ~2 , . . . , β~n a la base ~γ1 , ~γ2 , . . . , ~γn .

6.2. Variedades lineales y sistemas de ecuaciones


En otro capı́tulo demostramos que toda variedad lineal es representable mediante un
sistema lineal de ecuaciones en el sentido que M consiste precisamente de aquellos
puntos que son las soluciones del sistema de ecuaciones, pero en la deducción está im-
plı́cito que el sistema de coordenadas es [O; ~e1 , ~e2 , . . . , ~en ]. ¿Cuál es la situación cuando
el sistema de coordenadas es arbitrario?

~1 , β~2 , . . . , β
Sea [Q0 ; β ~n ] un sistema de coordenadas en el cual toda variedad lineal de
dimensión p es representable por un sistema lineal de ecuaciones cuya matriz tiene
rango n − p y tal que, a la inversa, todo sistema de esa naturaleza representa una
variedad lineal de dimensión p. Existen sistemas de coordenadas ası́, [O; ~e1 , ~e2 , . . . , ~en ]
es uno.

Supongamos que la variedad lineal M de dimensión p está dada por el sistema de


ecuaciones
n
X
aik xk = bi i = 1, 2, . . . , m (6.2)
k=1

donde el rango de (aik ) es n − p.

Sea [Q00 ; ~γ1 , ~γ2 , . . . , ~γn ] otro sistema de coordenadas y supongamos que las ecuaciones
~1 , β
de transición para pasar del sistema [Q00 ; ~γ1 , ~γ2 , . . . , ~γn ] al sistema [Q0 ; β ~2 , . . . , β~n ]
son
Xn
xi = si + uik yk i = 1, 2, . . . , n
k=1
96 CAPÍTULO 6. SISTEMAS DE COORDENADAS

Llamemos
~δi = {ui1 , ui2 , . . . , uin } i = 1, 2, . . . , n
~y = {y1 , y2 , . . . , yn }

Entonces xi = si + ~δi · ~y , sustituyendo en (6.2) se tiene


n
X
aik (sk + ~δk · ~y ) = bi
k=1
à n
! n
X X
aik ~δk · ~y = bi − aik sk i = 1, 2, . . . , n (6.3)
k=1 k=1

Sea P ∈ M , sean x1 , x2 , . . . , xn sus coordenadas con respecto a [Q0 ; β ~1 , β


~2 , . . . , β
~n ],
00
sean y1 , y2 , . . . , yn con respecto a [Q ; ~γ1 , ~γ2 , . . . , ~γn ]. Por hipótesis las coordenadas
x1 , x2 , . . . , xn satisfacen las ecuaciones (6.2), como xi = si + ~δi · ~y , al reemplazar las
xi en (6.2), obtenemos que las yi satisfacen el sistema (6.3).

A la inversa, sean y1 , y2 , . . . , yn las coordenadas de un punto P en Rn con respecto


a [Q00 ; ~γ1 , ~γ2 , . . . , ~γn ] y supongamos que satisfacen (6.3). Entonces sus coordenadas x1 ,
x2 , . . . , xn con respecto a [Q0 ; β~1 , β ~2 , . . . , β~n ] satisfacen xi = si + ~δi · ~y , i = 1, 2, . . . , n
X n
y por (6.3) aik (sk + ~δk · ~y ) = bi luego
k=1

n
X
aik xk = bi i = 1, 2, . . . , n
k=1

y por lo tanto P ∈ M y (6.3) representa a M en [Q00 ; ~γ1 , ~γ2 , . . . , ~γn ].

Consideremos la matriz de coeficientes del sistema (6.3), llamemos


n
X
α
~i = aik ~δk i = 1, 2, . . . , n
k=1

a sus vectores fila.

Los vectores ~δ1 , ~δ2 , . . . , ~δn son l.i., luego, por un teorema previo, el número de vec-
tores de cualquier subconjunto linealmente independiente maximal de α ~ 1, α
~ 2, . . . , α
~n
es igual al rango de (aik ) el cual es n − p, de modo que la matriz del sistema (6.3) tiene
rango n − p.

Nota: Todo sistema lineal de ecuaciones en las variables y1 , y2 , . . . , yn y con matriz


de rango n − p representa una variedad lineal de dimensión p en cualquier sistema de
coordenadas [Q00 ; ~γ1 , ~γ2 , . . . , ~γn ]. Basta usar las ecuaciones
n
X
yi = ti + vik xk i = 1, 2, . . . , n
k=1

y el sistema transforma a un sistema en las variables x1 , x2 , . . . , xn con matriz de


~1 , β
rango n−p y referido al sistema de coordenadas [Q0 ; β ~2 , . . . , β~n ] donde por hipótesis
6.3. VOLÚMENES Y SISTEMAS DE COORDENADAS CARTESIANAS 97

un tal sistema representa a una variedad lineal de dimensión p.

Si en (6.2) hacemos bi = 0, i = 1, 2, . . . , n, entonces xi = ~δi · ~y , i = 1, 2, . . . , n y por lo


tanto (6.3) es homogéneo; por teoremas previos se tiene entonces:

Un subespacio de dimensión p se representa en cualquier sistema de coordenadas por


un sistema homogéneo de ecuaciones cuya matriz tiene rango n − p; a la inversa,
cualquier sistema lineal homogéneo cuya matriz tiene rango n − p representa a un
subespacio de dimensión p.

6.3. Volúmenes y sistemas de coordenadas cartesianas


Problema: Sean α ~ 1, α
~ 2, . . . , α
~ n n vectores cuyas componentes están dadas en el sis-
tema de coordenadas [Q; β~1 , β~2 , . . . , β ~n ]. Se pide el volumen del paralelotopo de aristas
α
~ 1, α
~ 2, . . . , α
~ n.

Sean α~ i = {ai1 , ai2 , . . . , ain }, i = 1, 2, . . . , n, sean a∗i1 , a∗i2 , . . . , a∗in las componentes de
~ i con respecto a la base β~1 , β~2 , . . . , β
α ~n , se tiene

n
X
α
~i = ~ν
a∗iν β
ν=1

Sean vi1 , vi2 , . . . , vin las componentes del vector β ~i con respecto a la base estándar,
se tiene
X n
~i = {vi1 , vi2 , . . . , vin } =
β vik~ek
k=1
n
X
Puesto que α
~i = aik~ek tenemos que
k=1

n n
à n
! n
à n !
X X X X X
aik~ek = a∗iν vνk~ek = a∗iν vνk ~ek
k=1 ν=1 k=1 k=1 ν=1

luego
n
X
aik = a∗iν vνk i, k = 1, 2, . . . , n
ν=1

esto es, la matriz (aik ) resulta de multiplicar las matrices (a∗ik ) y (vik ), luego

det(aik ) = det(a∗ik ) det(vik ) (6.4)

donde el volumen pedido es | det(aik )|. La ecuación (6.4) dice que tal volumen puede
~1 , β
ser calculado conociendo las componentes de las aristas en el sistema [Q; β ~2 , . . . , β~n ]
~
y las expresiones de los vectores βi en la base estándar.

Problema: ¿Cómo se comporta el producto escalar en un sistema de coordenadas


~1 , β
[Q; β ~2 , . . . , β
~n ]?
98 CAPÍTULO 6. SISTEMAS DE COORDENADAS

Sean
n
X
~a = {a1 , a2 , . . . , an } ~a = a∗i β~i
i=1
n
X
~b = {b1 , b2 , . . . , bn } ~b = b∗i β~i
i=1

n
à n ! à n !
X X X
~a · ~b = ai bi = ~i
a∗i β · ∗~
bk βk
i=1 i=1 i=1
Xn X n
= a∗i b∗k (β~i · β
~k )
i=1 k=1

Vemos que la fórmula no es análoga a la original en que las componentes están dadas
con respecto a la base estándar. Si β~i · β
~k = 0 i 6= k, β
~i · β
~k = 1 si i = k entonces
n
X
~a · ~b = a∗i b∗i (6.5)
i=1

Demostremos que la condición β~i · β


~k = δik es necesaria para que se cumpla (6.5).
~ ~ ~
Tomemos ~a = βi , b = βk , entonces a∗j = 0 si j 6= i, a∗i = 1, análogamente para b∗i ,
~i · β~k = δik .
luego β

Definición 6.2 Diremos que α ~ 1, α ~ 2, . . . , α


~ p forman un sistema ortonormal de vec-
tores si α
~i · α
~ k = δik , i, k = 1, 2, . . . , p
p
X p
X
Si λi α
~ i = 0 entonces λi (~
αi · α
~ k ) = 0; esto nos dice que todos los λk son cero,
i=1 i=1
luego todo sistema ortonormal de vectores consta de vectores l.i.

Definición 6.3 Si [Q; β~1 , β~2 , . . . , β~n ] es tal que β


~1 , β
~2 , . . . , β
~n es ortonormal diremos
que [Q; β~1 , β
~2 , . . . , β
~n ] es un sistema de coordenadas cartesianas.

Vemos que [Q; ~e1 , ~e2 , . . . , ~en ] es un sistema de coordenadas cartesianas luego no hay
problema con su existencia.

~1 , β
Sean [Q0 ; β ~2 , . . . , β
~n ], [Q00 ; ~γ1 , ~γ2 , . . . , ~γn ] cartesianos, sean
n
X
β~k = vik~γi
i=1 k = 1, 2, . . . , n
Xn
~γk = uik β~i
i=1

~k · ~γj = vjk , ~γk · β


Entonces β ~j = ujk , 1 ≤ j, k ≤ n. Luego si en la segunda ecuación
intercambiamos k por j se tiene que

vjk = ukj 1 ≤ j, k ≤ n
6.3. VOLÚMENES Y SISTEMAS DE COORDENADAS CARTESIANAS 99

de donde
n
X
~γk = ~i
vki β (6.6)
i=1

Como ~γ1 , ~γ2 , . . . , ~γn es ortonormal


n
X
β~k · β
~j = vik vij = δkj k, j = 1, 2, . . . , n
i=1

Análogamente se tiene
n
X
~γk · ~γj = vki vji = δkj k, j = 1, 2, . . . , n
i=1

Tenemos entonces que las filas y las columnas de (vik ) forman sistemas ortonormales
de vectores. Tales matrices se dicen ortogonales.
n
X
En vik vij = δkj multipliquemos por Vhj donde Vhj es el adjunto de vhj en det(vkj ),
i=1
donde h es un entero fijo entre 1 y n, luego sumamos las n ecuaciones resultantes:
n
à n ! n
X X X
vik vij Vhj = δkj Vhj
j=1 i=1 j=1
 
n
X Xn
 vij Vhj  vik = Vhk
i=1 j=1
n
X
(δih det(vik ))vik = Vhk
i=1
vhk det(vik ) = Vhk

Como det(vik ) 6= 0 se tiene


Vhk
vhk = 1 ≤ h ≤ n, 1≤k≤n (6.7)
det(vik )
Estas relaciones caracterizan a una matriz ortogonal, en efecto
n
X n
X Vij
vik vij = vik = δkj
i=1 i=1
det(vik )
n
X n
X Vji
vki vji = vki = δkj
i=1 i=1
det(vik )

Nótese que las relaciones (6.7) provienen exclusivamente de


n
X
~k · β
β ~j = vik vij = δkj
i=1

pero las relaciones


n
X
~γk · ~γj = vki vji = δkj
i=1
100 CAPÍTULO 6. SISTEMAS DE COORDENADAS

pueden ser deducidas de las relaciones (6.7), se concluye:

Si las columnas de una matriz forman un sistema ortonormal, sus filas también forman
un sistema ortonormal.

Por otra parte, si las filas de una matriz forman un sistema ortonormal, las columnas
de la traspuesta forman un sistema ortonormal y por lo tanto las filas de la traspuesta
también, luego si las filas de una matriz forman un sistema ortonormal, sus columnas
también forman un sistema ortonormal.

Sea (vik ) ortogonal, entonces

(det(vik ))2 = det(vik ) det(aik ) , donde (aik ) = (vik )t


à n ! à n !
X X
= det viν aνk = det viν vkν = 1
ν=1 ν=1

∴ | det(vik )| = 1
Problema: Queremos calcular el volumen de un paralelotopo cuyas aristas α
~ 1, α
~ 2,
..., α ~1 , β
~ n están en un sistema cartesiano [Q; β ~2 , . . . , β~n ].
n
X n
X
Si α
~i = ~k y β~i =
a∗ik β vik~ek como det(ak ) = det(a∗ik ) det(vik ) el volumen pedido
k=1 k=1
es
| det(aik )| = | det(a∗ik )|| det(vik )| ,
como β~1 , β~2 , . . . , β~n es ortonormal entonces | det(vik )| = 1 luego el volumen pedido
es | det(a∗ik )|. Se concluye que la fórmula para el volumen es la misma para todos los
sistemas cartesianos.

6.4. Deformación continua de sistemas de coorde-


nadas
Nota: Sabemos que si β ~1 , β~2 , . . . , β~n son l.i., D(β ~1 , β~2 , . . . , β~n ) 6= 0. Puesto que
~ ~ ~ ~ ~ ~
D(λβ1 , β2 , . . . , βn ) = λD(β1 , β2 , . . . , βn ), si r es un real arbitrario distinto de cero,
siempre existe una base β ~1 , β~2 , . . . , β
~n donde D(β ~1 , β~2 , . . . , β~n ) = r. En efecto, sea ~γ1 ,
~γ2 , . . . , ~γn una base cualquiera, sea D(~γ1 , ~γ2 , . . . , ~γn ) = d 6= 0,
r r
D( ~γ1 , ~γ2 , . . . , ~γn ) = D(~γ1 , ~γ2 , . . . , ~γn ) = r ,
d d

llame β~1 = dr ~γ1 , β~i = ~γi , i = 2, 3, . . . , n.


Dividamos los sistemas de coordenadas en dos clases; aquellos para los cuales el va-
lor de D(β~1 , β
~2 , . . . , β~n ) es positivo y aquellos para los cuales D(β ~1 , β
~2 , . . . , β~n ) < 0.
Queremos demostrar que dos sistemas de la misma clase pueden ser deformados con-
tinuamente el uno en el otro sin que D(β~1 , β ~2 , . . . , β
~n ) adopte el valor 0 durante el
proceso de deformación y que esto no es posible para dos sistemas de distinta clase.
Intuitivamente, esto significa que dos n-edros de la misma clase pueden hacerse coin-
cidir mediante un cambio “suave” de sus ángulos y longitudes, piense por ejemplo en
6.4. DEFORMACIÓN CONTINUA DE SISTEMAS DE COORDENADAS 101

dos trı́podes en R3 . Tratemos de precisar estas ideas.

Sean β~ = {v1 , v2 , . . . , vn }, ~γ = {u1 , u2 , . . . , un }, sean fi (t), i = 1, 2, . . . , n funciones


continuas definidas en c ≤ t ≤ d tales que fi (c) = vi , fi (d) = ui , i = 1, 2, . . . , n.

~ {f1 (d), f2 (d), . . . , fn (d)} = ~γ , la función vecto-


Entonces {f1 (c), f2 (c), . . . , fn (c)} = β,
rial
f~(t) = {f1 (t), f2 (t), . . . , fn (t)}
~ es deformado
es una función continua de t en c ≤ t ≤ d. Decimos que el vector β
continuamente en el vector ~γ .

El intervalo [c, d] es irrelevante. Sea [c0 , d0 ] otro intervalo, sea

(c − d)t0 + dc0 − cd0


t=
c0 − d0
Si t0 varı́a de c0 a d0 , t recorre (c, d) de c a d, entonces
µ ¶
(c − d)t0 + dc0 − cd0
fi , i = 1, 2, . . . , n
c0 − d0

~ ~g (d0 ) = ~γ luego ~g (t0 ) cumple


definidas en [c0 , d0 ] son funciones gi (t)0 tales que ~g (c0 ) = β,
con el mismo propósito de f (t).~

Sean [Q; β ~1 , β~2 , . . . , β


~n ], [Q∗ ; ~γ1 , ~γ2 , . . . , ~γn ] dos sistemas de coordenadas, sea Q =

(x1 , x2 , . . . , xn ), Q = (y1 , y2 , . . . , yn ), tomemos

fi (t) = xi + t(yi − xi ) 0≤t≤1, i = 1, 2, . . . , n .

Entonces el punto Q es deformado continuamente en el punto Q∗ a lo largo del seg-


mento QQ∗ .

Tenemos que demostrar que el sistema de vectores β ~1 , β~2 , . . . , β


~n puede ser defor-
mado continuamente en el sistema de vectores ~γ1 , ~γ2 , . . . , ~γn de modo que la inde-
pendencia lineal se preserve en todo momento del proceso de deformación, esto es, si
~i = {vi1 , vi2 , . . . , vin }, ~γi = {ui1 , ui2 , . . . , uin }, i = 1, 2, . . . , n tenemos que encontrar
β
n2 funciones continuas fik (t) definidas en c ≤ t ≤ d tales que fik (c) = vik , fik (d) = uik
y tales que para todo t con c ≤ t ≤ d se tiene que det(fik (t)) 6= 0. Esto no puede
suceder si D(β ~1 , β~2 , . . . , β~n ) = det(vik ) y D(~γ1 , ~γ2 , . . . , ~γn ) = det(uik ) tienen signos
opuestos, puesto que det(fik (t)) es una función continua de t en c ≤ t ≤ d luego para
al menos un t0 ∈ [c, d] deberı́a tenerse que det(fik (t0 )) = 0. Supondremos entonces
que det(vik ) y det(uik ) tienen el mismo signo. Podemos elegir un representativo de
la clase con determinante positivo, por ejemplo, ~e1 , ~e2 , . . . , ~en y un representativo
de la clase con determinante negativo, digamos ~e1 , ~e2 , . . . , -~en . Demostraremos que
cada sistema en una clase puede ser deformado continuamente en su correspondiente
representativo. Si β~1 , β~2 , . . . , β ~n ; ~γ1 , ~γ2 , . . . , ~γn están en la clase con determinante
positivo y ambos pueden ser deformados continuamente en ~e1 , ~e2 , . . . , ~en entonces, de
manera análoga, podemos deformar ~e1 , ~e2 , . . . , ~en en ~γ1 , ~γ2 , . . . , ~γn y ası́ β ~1 , β
~2 , . . . ,
~
βn puede ser deformado en ~γ1 , ~γ2 , . . . , ~γn vı́a ~e1 , ~e2 , . . . , ~en . Análogamente para el
caso con determinante negativo.
102 CAPÍTULO 6. SISTEMAS DE COORDENADAS

Teorema 6.4 Sea β ~1 , β~2 , . . . , β


~n un sistema de vectores tales que D(β~1 , β~2 , . . . , β
~n ) >
0. Entonces β ~1 , β~2 , . . . , β~n puede ser deformado continuamente en ~e1 , ~e2 , . . . , ~en
sin que el determinante del sistema de vectores se anule en ninguna etapa del proce-
so. Análogamente, β ~1 , β~2 , . . . , β~n puede ser deformado en ~e1 , ~e2 , . . . , −~en sólo si
D(β~1 , β
~2 , . . . , β~n ) < 0.

Demostración: Para n = 1, sea β ~1 = {v}, det(v) = v. Si v > 0, sea f (t) = v+t(1−v),


0 ≤ t ≤ 1; si v < 0 sea f (t) = v + t(−1 − v), 0 ≤ t ≤ 1. Para n = 1 el teorema es
verdadero, supongamos que es verdadero para n − 1.

~1 , β~2 , . . . , β
Lema 6.5 β ~n puede ser deformado continuamente en β~1 , β
~2 , . . . , β
~i , ~δ,

β~i+1 , . . . , β~n donde ~δ = β


~i +λβ
~k , i 6= k, λ real, de modo que el determinante permanece

constante durante el proceso de deformación.

Demostración: Sean fis (t) las n2 funciones determinadas en 0 ≤ t ≤ λ por:

f~i (t) = β
~i + tβ
~k , 0 ≤ t ≤ λ; ~j , j 6= i, 0 ≤ t ≤ λ
fj (t) = β

esto es,

fis (t) = vis + tvks 0 ≤ t ≤ λ, s = 1, 2, . . . , n


fjs (t) = vjs 0 ≤ t ≤ λ, s = 1, 2, . . . , n, j 6= i

Dado que D(β ~1 , β


~2 , . . . , β~n ) = D(β
~1 , β
~2 , . . . , β~i + tβ~k , . . . , β
~n ) el determinante per-
manece constante.

~1 , β
Lema 6.6 El sistema de vectores β ~2 , . . . , β~n puede ser continuamente deformado

sin cambio alguno en el valor del determinante, en cualquier sistema que provenga de
él por un cambio simultáneo del signo de dos vectores, digamos, sustituyendo β~i , β~k
~i , −β
por −β ~k .

Demostración: Consideremos la operación del primer lema como una del siguiente
tipo:

~j permanece igual.
Si j 6= i, j 6= k, β

β~i se reemplaza por β


~i + λβ~k , se anota β~i → ~i + λβ
7 β ~k .

β~k se reemplaza por β~k , se anota β


~k →
7 β~k .

Apliquemos en forma sucesiva esta nueva forma del primer lema:

~i
β 7→ β ~i + 2β
~k β~ + 2β
~k 7→ β ~i + 2β~k ~i + 2β
β ~k 7 → −β~i
~ ~ , luego i ~ ~ ~ , luego ~ ~
βk 7 → βk βk 7 → −βi − βk −βi − βk 7→ −β~i − β~k
6.4. DEFORMACIÓN CONTINUA DE SISTEMAS DE COORDENADAS 103

−β~i 7→ ~i
−β
y por último ~k .
−β~i − β
~k 7 → −β

Al menos un vector β ~i debe tener vik 6= 0, si no es ası́, det(vik ) = 0. Si vnn = 0, hay β


~i
con vin 6= 0 y por el primer lema podemos reemplazar β~n por β~i + β ~n , luego podemos
suponer que vnn 6= 0. Luego β~1 7→ β~1 − v1n β
vnn
~n , la última componente de este vector es
cero. En general, hacemos β ~i 7→ β
~i − vin β
~n , 1 ≤ i ≤ n − 1 entonces
vnn
¯ ¯
¯ b11 b12 ··· b1(n−1) 0 ¯
¯ ¯
¯ b21 b22 ··· b2(n−1) 0 ¯
¯ ¯
¯ .. .. .. .. .. ¯
det(vik ) = ¯ . . . . . ¯
¯ ¯
¯ b(n−1)1 b(n−1)2 ··· b(n−1)(n−1) 0 ¯
¯ ¯
¯ vn1 vn2 ··· vn(n−1) vnn ¯

Apliquemos el primer lema al sistema de columnas de este último determinante:


vni
(i-ésima columna) 7→ (i-ésima columna) − (n-ésima columna)
vnn

(esto implica una deformación continua del sistema de filas de la nueva matriz las
cuales son en realidad los nuevos vectores β~i , esto es porque al deformar continua-
mente el sistema de columnas de la nueva matriz de todos modos hubo que encontrar
n2 funciones gik (t) que produjesen la deformación. Para interpretarlas como deforma-
ciones continuas de los nuevos β~i basta considerarlas en el orden adecuado).

El nuevo determinante adopta la forma


¯ ¯
¯ b11 b12 ··· b1(n−1) 0 ¯ ¯ ¯
¯ ¯ ¯ b11 b12 ··· b1(n−1) ¯
¯ b21 b · · · b 0 ¯ ¯ ¯
¯ 22 2(n−2) ¯ ¯ b21 b22 ··· b2(n−1) ¯
¯ .. .. . .. .
.. .. ¯ ¯ ¯
¯ . . . ¯ = vnn ¯ .. .. .. .. ¯
¯ ¯ ¯ . . . . ¯
¯ b(n−1)1 b(n−1)2 · · · b(n−1)(n−1) 0 ¯ ¯ ¯
¯ ¯ ¯ b(n−1)1 b(n−1)2 ··· b(n−1)(n−1) ¯
¯ 0 0 ··· 0 vnn ¯

luego el determinande de (n − 1) × (n − 1), det(bik ) es distinto de cero puesto que


vnn 6= 0. Sea ~e01 , ~e02 , . . . , ~e0n−1 los vectores de la base estándar de Rn−1 . Por la hipótesis
de inducción, el sistema de filas de (bik ) puede ser deformado continuamente en ~e01 , ~e02 ,
. . . , ~e0n−1 o bien en ~e01 , ~e02 , . . . , −~e0n−1 sin que el determinante cambie de signo; det(bk )
queda en la forma ¯ ¯
¯ 1 0 ··· 0 ¯¯
¯
¯ 0 1 ··· 0 ¯¯
¯
¯ .. .. . . .. ¯
¯ . . . . ¯¯
¯
¯ 0 0 · · · ±1 ¯

y por lo tanto el determinante original queda en la forma


¯ ¯
¯ 1 0 ··· 0 0 ¯¯
¯
¯ 0 1 ··· 0 0 ¯¯
¯
¯ .. .. . . .. .. ¯
¯ . . . . . ¯¯
¯
¯ 0 0 · · · ±1 0 ¯¯
¯
¯ 0 0 ··· 0 vnn ¯
104 CAPÍTULO 6. SISTEMAS DE COORDENADAS

Finalmente, si vnn > 0, transformemos vnn continuamente a 1, si vnn < 0 trans-


formemos vnn continuamente a −1. Si el elemento (n − 1)(n − 1) de la matriz es +1,
el teorema está demostrado, si es −1, aplicamos el segundo lema y el determinante
queda en la forma ¯ ¯
¯ 1 0 ··· 0 0 ¯
¯ ¯
¯ 0 1 ··· 0 0 ¯
¯ ¯
¯ .. .. . . .. .. ¯
¯ . . . . . ¯
¯ ¯
¯ 0 0 ··· 1 0 ¯
¯ ¯
¯ 0 0 · · · 0 ±1 ¯

Este determinante vale 1 si el elemento nn vale 1 y vale −1 si el elemento nn vale −1


y esto depende de si det(vik ) > 0 o bien det(vik ) < 0, el teorema queda demostrado.

6.5. Construcción de sistemas ortonormales


Sea L un subespacio de V n , dim L = p, ¿tiene L una base ortonormal?

Sea α
~ 1, α
~ 2, . . . , α
~ p una base de L. Si p = 1, β ~1 = α~ 1 constituye un tal sistema.
k~
α1 k
Supongamos que todos los subespacios de dimensión p − 1 tienen una base ortonormal,
sea L0 el subespacio generado por α ~ 1, α ~ p−1 . Por hipótesis, L0 tiene una base
~ 2, . . . , α
ortonormal β~1 , β~2 , . . . , β
~p−1 . El sistema β ~1 , β~2 , . . . , β
~p−1 , α ~p
~ p es l.i. luego un vector β
~ ~ ~ ~
con kβp k = 1 y ortogonal a β1 , β2 , . . . , βp−1 debe ser de la forma
n−1
X
~p =
β λi β~i + λp α
~p .
i=1

Haciendo producto punto con β~i , 1 ≤ i ≤ p − 1, se obtiene

0 = λi + λp (~ ~i )
αp · β ⇒ λi = −λp (~ ~i )
αp · β 1≤i≤p−1
à p−1
!
X
~p = λp
luego β α
~p − αp · βi )βi . Como kβ~p k = 1 y β
(~ ~ ~ ~1 , β
~2 , . . . , β~p−1 , α
~ p es l.i.
i=1
° °
° p−1
X °
° ~i )β~i °
podemos concluir que °α~p − (~αp · β ° 6= 0 y
° °
i=1

1
λp = ± ° °
° p−1
X °
° ~i °
°α~p − αp · β~i )β
(~ °
° °
i=1

~1 , β
luego β ~2 , . . . , β~p con

p−1
X
α
~p − αp · β~i )β
(~ ~i
~p = ± °
β i=1
°
° p−1
X °
° ~i °
°α~p − αp · β~i )β
(~ °
° °
i=1
6.6. DISTANCIA Y VARIEDADES LINEALES 105

es una base ortonormal de L.

~i , basta tomar
Esta fórmula proporciona un método recursivo para determinar los β
~ α
~1
β1 = k~α1 k entonces
~1 )β
~1
~2 = α
β
~ 2 − (~
α2 · β
,
k~
α2 − (~ ~1 )β
α2 · β ~1 k

luego tenemos β~1 y β~2 y usamos la fórmula para determinar β


~3 , etc.

6.6. Distancia y Variedades lineales


n
X
Sea [Q; β~1 , β~2 , . . . , β
~n ] un sistema de coordenadas cartesiandas en Rn . Si α
~ = ~i
ai β
i=1
~
~ · β~i = ai , 1 ≤ i ≤ n luego
entonces α
n
X n
X
k~ 2
αk = α
~ ·α
~= a2i = α · β~i )2
(~
i=1 i=1

Problema: Sea M una variedad lineal, P ∈/ M , M 6= Rn , M contiene más de un pun-


to. Sea dim M = p, 0 < p < n, sea L el subespacio generador. Queremos determinar
la perperdicular bajada de P a M .

~1 , β
Sea β ~2 , . . . , β
~p una base ortonormal de L, la extendemos a una base ortonormal de
V , llamaremos L0 al subespacio generado por β
n ~p+1 , β
~p+1 , . . . , β~n . Es claro que todo
vector de L0 es ortogonal a todo vector de L y si α ~ ∈ L ∩ L0 entonces
p
X n
X
α
~= λi β~i = λi β~i
i=1 i=p+1

luego λi = 0, i = 1, 2, . . . , n, y α
~ = 0.

Sea α
~ un vector cualquiera que es ortogonal a todos los vectores de L. Entonces
Xn
α
~ = ~i y a1 = a2 = · · · = ap = 0 luego α
ai β ~ ∈ L0 . Se concluye que el conjun-
i=1
to de todos los vectores ortogonales a L es el subespacio L0 .
−−→
Sea Q = (y1 , y2 , . . . , yn ) tal que Q ∈
/ M . ¿Existe un punto P ∈ M tal que P Q es
ortogonal a todos los vectores de L?

Sea P0 ∈ M arbitrario,
n
−−→ X ~
P0 Q = λi βi
i=1
p
X
~=
y llamemos β ~ en P0 , P0 se transforma en P , esto es, −
~i , al aplicar β
λi β
−→
P0 P = β~ y
i=1
n
X
−−→ −−→ −−→ −−→ ~i , −
−→
como β~ ∈ L entonces P ∈ M . Pero P0 Q = P0 P + P Q luego P Q = λi β P Q ∈ L0 ,
i=p+1
106 CAPÍTULO 6. SISTEMAS DE COORDENADAS

luego P es uno de los puntos buscados. Queremos demostrar que P es único. Sea P 0
n
−−→ X −−→ ~
otro. P 0 Q = µi β~i y P 0 Q · βi = 0, i = 1, 2, . . . , p luego µi = 0, i = 1, 2, . . . , p
i=1

n
X
−−0→ −−0→ −−→ −−0→ −−0→ −−→
P Q = P P + PQ P P = P Q − PQ = ~i
(µi − λi )β
i=p+1

−−→ −−→
luego P 0 P ∈ L0 y como P 0 , P ∈ M entonces P 0 P ∈ L. Como L ∩ L0 = {0} se sigue que
P = P 0.
−−→
Llamaremos al segmento P Q (o al vector P Q) la perpendicular de Q a M , P se llama
el pie de la perpendicular.
v v
u X u X
u n u n −−→ ~ 2
PQ = t λ2i = t [(P0 Q · βi )]
i=p+1 i=p+1

donde P0 es un punto arbitrario de M . Pero


v
u n
uX −−→
P0 Q = t [(P0 Q · β~i )]2
i=1

luego P0 Q ≥ P Q.
p
X −−→ −−→ ~
Hay igualdad sólo si [(P0 Q · β~i )]2 = 0, esto es sólo si P0 Q · βi = 0, i = 1, 2, . . . , p, y
i=1
esto se da sólo si P0 = P .

P Q es la distancia más corta de un punto Q a la variedad M . A la inversa, si P0 ∈ M


y P0 Q es la distancia más corta de Q a M entonces P0 Q = P Q es la perpendicular de
Q a M.

Problema: Supongamos que M está dada por el sistema lineal


n
X
aik xk = bi i = 1, 2, . . . , r
k=1

Queremos encontrar la perpendicular de Q a M . Suponemos que la matriz del sistema


tiene rango r, o sea que las r ecuaciones son independientes.

El subespacio L generador de M tiene dimensión p = n − r y está representado por el


correspondiente sistema homogéneo
n
X
aik xk = 0 i = 1, 2, . . . , r
k=1

y está compuesto por todas las soluciones vectoriales de tal sistema. Si ~x = {x1 , x2 , . . . , xn }
es una solución vectorial y α
~ i = {ai1 , ai2 , . . . , ain }, i = 1, 2, . . . , r es un vector fila de
la matriz del sistema se tiene que α~ i · ~x = 0, i = 1, 2, . . . , r luego ellos son todos ortog-
onales a L. Sea L0 el subespacio de todos los vectores ortogonales a L, sabemos que L0
6.6. DISTANCIA Y VARIEDADES LINEALES 107

tiene dimensión n − p = r; como α ~ 1, α ~ r son l.i. y están en L0 , ellos constituyen


~ 2, . . . , α
0
una base para L . Por el método de ortonormalización, podemos obtener una base
ortonormal para L0 a partir de α ~ 1, α
~ 2, . . . , α
~ r . Recordando que n − p = r, refirámonos
a esta base ortonormal de L0 por β ~p+1 , β ~p+2 , . . . , β~n . Sea β
~p+1 = {vi1 , vi2 , . . . , vin },
i = 1, 2, . . . , r y elijamos P0 ∈ M arbitrario pero fijo. Consideremos el sistema lineal
de ecuaciones
n
X n
X
vik xk = vik zk i = 1, 2, . . . , r P0 = (z1 , z2 , . . . , z) (6.8)
k=1 k=1

−−→
Si P = (x1 , x2 , . . . , xn ) es una solución de este sistema, entonces P0 P · β~p+i = 0,
−−→ −−→
i = 1, 2, . . . , r luego P0 P ∈ L y por lo tanto P ∈ M . A la inversa, si P ∈ M , P0 P ∈ L
y es solución vectorial del sistema homogéneo, luego es ortogonal a todos los vectores
de L0 y por lo tanto es solución de (6.8). Se concluye que (6.8) representa a M .

Sea Q = (y1 , y2 , . . . , yn ) un punto que no está en M . Entonces


X n
−−→ ~
P0 Q · βp+i = vik (yk − zk ) i = 1, 2, . . . , r
k=1

Si P es el pie de la perpendicular de Q a M sabemos que


v
u X
u n −−→
PQ = t [P0 Q · ~δi ]2
i=p+1

donde P0 ∈ M y es arbitrario y ~δp+1 , ~δp+2 , . . . , ~δn es una base ortonormal de L0 . Como


~p+i , i = 1, 2, . . . , r es una base ortonormal de L0 tenemos que
β

r
" n #2
2 X X
PQ = vik (yk − zk )
i=1 k=1

El caso más común es aquel en que M es un hiperplano, esto es, M tiene dimensión
n − 1. En tal caso M está dado por una sóla ecuación
n
X
ai xi = b
i=1

Entonces L0 tiene dimensión 1 y es generado por α


~ = {a1 , a2 , . . . , an }. Sea
α
~ ai
~∗ =
α = {a∗1 , a∗2 , . . . , a∗n } a∗i = v
k~
αk uX
u n 2
t ai
i=1

Sea P0 = (z1 , z2 , . . . , zn ) un punto arbitrario de M entonces


n
X n
X az b
a∗i zi = v i i =v
uX u
i=1 i=1 u n 2 uXn
t ai t a2i
i=1 i=1
108 CAPÍTULO 6. SISTEMAS DE COORDENADAS

La nueva ecuación de M es
n
X ax b
v i i =v
uX u
i=1 u n 2 uXn
t ai t a2i
i=1 i=1

y se llama la forma normal de hiperplano M .

La perpendicular P Q está dada por


( n )2
2 X

PQ = ak (yk − zk )
k=1
 2    2

 
 
 


 
 
   


 
 
 
Xn  Xn   

2 a  ak yk  b
PQ = v k (yk − zk ) = v
u n
−
 v

 u n 
 
  uX  uXn 


k=1 uX 2 
 
k=1 u 



t a i






 t ai 
2 t a2i 



i=1 i=1 i=1

Esto nos da una manera mecánica de calcular la distancia de un punto a un hiperplano.


Escriba el hiperplano en forma normal y acumule todos los términos en el miembro
izquierdo, reemplace las coordenadas de P = (c1 , c2 , . . . , cn ) por las coordenadas de
Q = (y1 , y2 , . . . , yn ). El valor absoluto de lo que resulta es la distancia pedida.

Problema: Sean M1 , M2 variedades lineales, queremos encontrar la perpendicular


−−→
común (cuando esta exista). Buscamos P ∈ L1 , Q ∈ L2 tales que el vector P Q es
ortogonal a M1 y M2 .

Sea L1 el subespacio generador de M1 , L2 el de M2 . Sea S = L1 + L2 de dimensión


s > 0 (M1 y M2 no consisten ambos de un sólo punto). Sea β~1 , β~2 , . . . , β
~s una base
ortonormal de S. Si s = n, el único vector ortogonal a todos los vectores de S es ~0. Un
vector que es ortogonal a todos los vectores de L1 y L2 debe ser ortogonal a todos los
vectores de S, luego la perpendicular común es ~0, luego P = Q ∈ M1 ∩ M2 , se concluye
que M1 ∩ M2 6= ∅.
−−−→
Pero M1 ∩ M2 6= ∅. En efecto, sea P0 ∈ M1 , Q0 ∈ M2 entonces P0 Q0 ∈ S porque
−−−→
s = n entonces hay α ~ 1 ∈ L1 , α
~ 2 ∈ L2 tales que P0 Q0 = α~1 + α
~ 2 . Supongamos
−−→ −−→
que α
~ 1 lleva P0 en P y que −~ α2 lleva a Q0 en Q entonces P0 P = α
~ 1 , QQ0 = α
~ 2,
−−−→ −−→ −−→ −−→
P0 Q0 = P0 P + P Q + QQ0 , esto es,
−−→
α
~1 + α
~2 = PQ + α
~1 + α
~2

luego P = Q.

Por construcción, P ∈ M1 , Q ∈ M2 luego M1 ∩ M2 6= ∅. Se concluye que si s = n la


perpendicular común es ~0.

Supongamos entonces que s < n. Sea β~1 , β


~2 , . . . , β
~s base ortonormal de S, la extende-
mos a una base ortonormal de V , sea L subespacio generado por β~s+1 , β
n 0 ~s+2 , . . . , β
~n ,
6.6. DISTANCIA Y VARIEDADES LINEALES 109

L0 es el subespacio de todos los vectores ortogonales a S, S ∩ L0 = {~0}. Si P0 ∈ M1 ,


n s
−−−→ X ~ X
Q0 ∈ M2 y P0 Q0 = λi βi , llamemos ~γ = λi β~i . ~γ ∈ S luego hay α
~ 1 ∈ L1 , α
~ 2 ∈ L2
i=1 i=1
−−→ −−→
tales que ~γ = α
~1 + α
~ 2 . Sea P ∈ M1 tal que P0 P = α
~ 1 , Q ∈ M tal que Q0 Q = −~
α2 .
−−−→ −−→ −−→ −−→
P0 Q0 = P0 P + P Q + QQ0 y también
n
X n
X n
X
−−−→ ~ ~ −−→ −−→
P0 Q0 = ~γ + λi βi = α
~1 + α
~2 + λi βi = P0 P + QQ0 + λi β~i
i=p+1 i=p+1 i=p+1

luego
n
X
−−→
PQ = λi β~i
i=p+1
−−→
luego P Q ∈ L0 y es ortogonal a todos los vectores de S y por lo tanto a todos los
vectores de L1 y L2 .
−−−→ −−−→
Sean P 0 ∈ M1 , Q0 ∈ M2 tales que P 0 Q0 es una perpendicular común. Entonces P 0 Q0 ∈
Xn
−−→ ~i y
L0 luego P Q = µi β
i=p+1
n
X
−−→ −−0−→0 ~i
PQ − P Q = (λi − µi )β
i=p+1
−−→ −−→ −−−→ −−→ −−→ −−−→
también está en L0 . Pero P Q = P P 0 + P 0 Q0 + Q0 Q luego P Q − P 0 Q0 ∈ S luego debe ser
−−→ −−−→
el vector ~0 puesto que L0 ∩ S = {~0} de donde P Q = P 0 Q0 . Todas las perpendiculares
comunes son paralelas y de igual longitud.
−−→ −−→ −−→ −−→ −−→ −−→
También se deduce que P P 0 + Q0 Q = ~0 luego P P 0 = QQ0 . Pero P P 0 ∈ L1 , QQ0 ∈ L2
−−→0 −−→0
luego P P = QQ ∈ L1 ∩ L2 .
−−→ −−→
A la inversa, sea ~γ ∈ L1 ∩ L2 , sean P 0 ∈ M1 , Q0 ∈ M2 tales que P P 0 = ~γ , QQ0 = ~γ .
−−→ −−→ −−→ −−→ −−→ −−−→ −−−→
Como P P 0 ∈ L1 , QQ0 ∈ L2 y P P 0 = QQ0 = ~γ se tiene que P Q = P 0 Q0 luego P 0 Q0 es
una perpendicular común.
−−→
Sean P y Q, P ∈ M1 , Q ∈ M2 tales que P Q es una perpendicular común. Sea
−−→ −−→
D = L1 ∩ L2 , sea ~γ ∈ D. Si P 0 ∈ M1 es tal que P P 0 = ~γ , Q0 ∈ M2 es tal que QQ0 ∈ L2
−−−→
entonces P 0 Q0 también es una perpendicular común y todas se obtienen de esta manera.
n
−−−→ X ~
Volvamos atrás, si P0 ∈ M1 , Q0 ∈ M2 , P0 Q0 = λi βi y P y Q fueron obtenidos de
i=1
n
X
−−→ −−→ ~i luego P0 Q0 ≥
modo que P Q fuese una perpendicular común entonces P Q = λi β
i=p+1
P Q y como todas las perpendiculares comunes tienen igual longitud, la longitud de
cualquiera de ellas es la distancia más corta entre M1 y M2 . Para que exista igualdad
−−−→
necesariamente λi = 0, i = 1, 2, . . . , s, luego P0 Q0 ∈ L0 y es una perpendicular común.
Se concluye que un segmento que conecta un punto P0 ∈ M1 , con un punto Q0 ∈ M2
−−−→
es la distancia más corta entre M1 y M2 si y sólo si P0 Q0 es una perpendicular común
entre M1 y M2 .
110 CAPÍTULO 6. SISTEMAS DE COORDENADAS
Capı́tulo 7

Movimientos Rı́gidos

En el espacio euclidiano Rn consideremos transformaciones f : Rn → Rn tales que si


f (P ) = P ∗ , f (Q) = Q∗ entonces P ∗ Q∗ = P Q. Diremos que una tal transformación es
un movimiento rı́gido.
−−→ −−→ −→
Sean P ∗ = f (P ), Q∗ = f (Q), R∗ = f (R). Como QR = QP + P R
−−→ −−→ −−→ −−→ −−→ −→ −→ −→
QR · QR = QP · QP + 2QP · P R + P R · P R .
−−→ −−→ −−→ −−→
Como QP · QP = P Q · P Q,
−−→ −−→ −−→ −−→ −−→ −→ −→
QR · QR = kQRk2 = kP Qk2 − 2P Q · P R + kP Rk2

luego
−−→ −→ 1 −−→ 2 −→ −−→
PQ · PR = (kP Qk + kP Rk2 − kQRk2 ), de manera análoga
2
−−∗−→∗ −−∗−→∗ 1 −−∗−→∗ 2 −−−→ −−−→
P Q ·P R = (kP Q k + kP ∗ R∗ k2 − kQ∗ R∗ k2 )
2
y como f es un movimiento rı́gido se tiene que
−−→ −→ −−∗−→∗ −−∗−→∗
PQ · PR = P Q · P R

El producto escalar es invariante frente a movimientos rı́gidos.

Sea [O; β ~n ] un sistema de coordenadas cartesianas en Rn . Sea −


~1 , β~2 , . . . , β −→ ~
OPi = βi, i =
1, 2, . . . , n, sea f un movimiento rı́gido, sean O∗ = f (O), Pi∗ = f (Pi ), i = 1, 2, . . . , n,
−−∗−→∗ ~ ∗
O Pi = βi , i = 1, 2, . . . , n. Entonces

~∗ = −
β~i∗ · β
−−→ −−−→ −−→ −−→ ~ ~
O∗ Pi∗ · O∗ Pk∗ = OPi · OPk = βi · βk = δik
k

~∗, β
Se concluye que [O∗ ; β ~∗, . . . , β
~ ∗ ] es un sistema de coordenadas cartesianas en Rn .
1 2 n

Sea P ∈ Rn , sean x1 , x2 , . . . , xn sus coordenadas con respecto a [O; β~1 , β~2 , . . . , β


~n ],
∗ ∗ ∗ ∗ ∗ ~∗ ~∗ ~ ∗
sean x1 , x2 , . . . , xn las coordenadas de P en [O ; β1 , β2 , . . . , βn ]. Entonces
n n
−−→ X ~ −−∗−→∗ X ∗ ~ ∗
OP = xi βi , O P = xi βi
i=1 i=1

111
112 CAPÍTULO 7. MOVIMIENTOS RÍGIDOS

−−→ ~ −−→ −−→ −−−→ ~ ∗ −−∗−→∗ −−∗−→∗


xi = OP · βi = OP · OPi x∗i = O∗ P ∗ · βi = O P · O Pi

luego xi = x∗i .

Demostremos que un movimiento rı́gido es 1-1 y sobre. Sea Q∗ ∈ Rn , sean y1 , y2 ,


. . . , yn sus coordenadas en [O∗ ; β ~ ∗ , β~ ∗ , . . . , β
~ ∗ ]. Si Q tiene coordenadas y1 , y2 , . . . , yn
1 2 n
~ ~ ~ ∗
en [O; β1 , β2 , . . . , βn ] entonces f (Q) = Q . Si P tiene coordenadas x1 , x2 , . . . , xn en
[O; β ~1 , β
~2 , . . . , β~n ] y f (P ) = Q∗ entonces xi = yi , i = 1, 2, . . . , n y P = Q.

~1 , β
Sean [O; β ~2 , . . . , β~n ], [O∗ ; β~ ∗ , β
~∗, . . . , β
~ ∗ ] dos sistemas arbitrarios de coordenadas
1 2 n
cartesianas.

Sea f : Rn → Rn definida por: sea P un punto cuyas coordenadas cartesianas en el


primer sistema son x1 , x2 , . . . , xn , sea P ∗ el punto cuyas coordenadas en el segundo
sistema son x1 , x2 , . . . , xn , definimos f (P ) = P ∗ .

Sea Q otro punto cuyas coordenadas cartesianas con respecto al primer sistema son
y1 , y2 , . . . , yn . Entonces v
u n
uX
P Q = t (yi − xi )2
i=1

Pero Q = f (Q) tiene coordenadas y1 , y2 , . . . , yn en el segundo sistema y
v
u n
uX
P ∗ Q∗ = t (yi − xi )2
i=1

entonces P Q = P ∗ Q∗ , f es un movimiento rı́gido.

Teorema 7.1 Sea f un movimiento rı́gido, M una variedad lineal de dimensión p.


Entonces f (M ) es una variedad lineal de dimensión p.

Demostración: Sea [O; β ~1 , β~2 , . . . , β~n ] un sistema de coordenadas cartesianas, en tal


sistema M se representa mediante un sistema lineal de ecuaciones cuya matriz tiene
rango n − p. Sea [O∗ ; β~1∗ , β ~∗, . . . , β
2
~ ∗ ] el sistema de coordenadas cartesianas obtenido de
n
~2 , . . . , β~n ] tomando O∗ = f (O) y si Pi es tal que −
~1 , β −→ ~ −−∗−→∗ ~ ∗
[O; β OPi = β i entonces O Pi = βi ,
i = 1, 2, . . . , n. Si P ∈ M y tiene coordenadas x1 , x2 , . . . , xn en el primer sistema,
por lo visto previamente tiene coordenadas x∗1 , x∗2 , . . . , x∗n en el segundo sistema con
x∗i = xi y por lo tanto P ∗ = (x∗1 , x∗2 , . . . , x∗n ) satisface el mismo sistema de ecuaciones
con respecto a [O∗ ; β~1∗ , β ~∗, . . . , β
2
~ ∗ ].
n

Nota: Sean M1 , M2 variedades lineales con espacios generadores L1 , L2 . Debemos


recordar que si M1 ∩M2 6= ∅ entonces M1 ∩M2 es la variedad lineal obtenida de aplicar
L1 ∩ L2 en un punto P0 ∈ M1 ∩ M2 .

Teorema 7.2 Sea f un movimiento rı́gido, M1 , M2 variedades lineales. Sea D =


M1 ∩ M2 6= ∅. Entonces D∗ = M1∗ ∩ M2∗ .

Demostración: Sea P ∈ D, entonces P ∗ ∈ M1∗ , P ∗ ∈ M2∗ luego P ∗ ∈ M1∗ ∩ M2∗


luego D∗ ⊂ M1∗ ∩ M2∗ . Sea P ∗ ∈ M1∗ ∩ M2∗ , hay un único P tal que f (P ) = P ∗ y
P ∈ M1 ∩ M2 luego P ∗ ∈ D∗ y M1∗ ∩ M2∗ ⊂ D∗ .
113

Nota: Si D = ∅ entonces D∗ = ∅. En efecto, si P ∗ ∈ D∗ habrı́a P tal que f (P ) = P ∗


y además P ∈ D, esto no puede ser.

Si M1 ⊂ M2 , D = M1 , D∗ = M1∗ luego M1∗ ⊂ M2∗ .


−−→
~ ∈ V n . Sea P ∈ Rn , hay Q ∈ Rn tal que α
Sea f un movimiento rı́gido, sea α ~ = P Q,
−−−→
definamos F : V n → V n por F (~
α) = P ∗ Q∗ .

Queremos demostrar que F es independiente de la elección de P . Sea P1 arbitrario,


−−−→
sea Q1 tal que α ~ = P1 Q1 . Consideremos un sistema de coordenadas cartesianas
[O; β~1 , β~2 , . . . , β
~n ], sea [O∗ ; β ~ ∗ , β~ ∗ , . . . , β~ ∗ ] tal como antes. Los puntos P ∗ , Q∗ , P ∗ ,
1 2 n 1
Q∗1 tienen las mismas coordenadas en [O∗ ; β ~∗, β
~∗, . . . , β
~ ∗ ] que P , Q, P1 , Q1 tienen en
1 2 n
[O; β~1 , β ~n ] luego los vectores −
~2 , . . . , β −−→ −−−→
P ∗ Q∗ y P1∗ Q∗1 tienen las mismas componentes en
el sistema [O∗ ; β ~ ∗ , β~ ∗ , . . . , β~ ∗ ] que los vectores − −→ −−−→
P Q y P1 Q1 tienen en [O; β~1 , β~2 , . . . , β
~n ].
n
−−→ −−−1→ 2 −−∗−→∗ −−∗−→∗
Como P Q = P1 Q1 entonces P Q = P1 Q1 luego F está bien definida.

Si F (~
α1 ) = F (~α2 ), α ~ 2 tienen las mismas componentes en [O; β~1 , β
~1 y α ~2 , . . . , β~n ] luego
α
~1 = α~ 2 . Es claro que F es sobre. Diremos que f induce la transformación F en V n .

Problema: Sea [O; β~1 , β ~2 , . . . , β~n ] un sistema de coordenadas fijo, sea P un punto de
coordenadas x1 , x2 , . . . , xn con respecto a este sistema. Sea f un movimiento rı́gido.
Se piden las coordenadas de P ∗ .

~ ∗ , β~ ∗ , . . . , β~ ∗ ]. Sean
Sabemos que P ∗ tiene coordenadas x1 , x2 , . . . , xn en [O∗ ; β1 2 n

n n
−−→∗ X ~ ~∗ =
X
OO = ti βi βk aik β~i
i=1 i=1

~1 , β~2 , . . . , β
Si P ∗ tiene coordenadas y1 , y2 , . . . , yn en [O; β ~n ] entonces

n
X
yi = ti + aik xk i = 1, 2, . . . , n
k=1

y además (aik ) es matriz ortogonal.

A la inversa, consideremos el sistema lineal

n
X
yi = ti + aik xk i = 1, 2, . . . , n (7.1)
i=1

donde x1 , x2 , . . . , xn representan las coordenadas de P en un cierto sistema de coorde-


nadas cartesianas [O, β ~1 , β~2 , . . . , β
~n ]. Si interpretamos (7.1) como una transformación
f tal que f (P ) es el punto P ∗ cuyas coordenadas y1 , y2 , . . . , yn están dadas por (7.1)
entonces, si (aik ) es ortogonal, f es un movimiento rı́gido.

En efecto, sea Q otro punto de coordenadas x01 , x02 , . . . , x0n , sea Q∗ de coordenadas y10 ,
114 CAPÍTULO 7. MOVIMIENTOS RÍGIDOS

y20 , . . . , yn0 donde Q∗ = f (Q). Entonces


n
X
yi0 − yi = aik (x0k − xk ) i = 1, 2, . . . , n
k=1
" n
#2
X
(yi0 − yi )2 = aik (x0k − xk )
k=1
n X
X n
= aik aij (x0k − xk )(x0j − xj ) i = 1, 2, . . . , n
k=1 j=1

Sumemos las n ecuaciones:


n
X n X
X n X
n
(yi0 − yi )2 = aik aij (x0k − xk )(x0j − xj )
i=1 i=1 k=1 j=1
n X
n
à n !
X X
= aik aij (x0k − xk )(x0j − xj )
k=1 j=1 i=1
Xn X n n
X
= δkj (x0k − xk )(x0j − xj ) = (x0k − xk )2
k=1 j=1 k=1

2 2
luego P Q = P ∗ Q∗ .

Si det(aik ) = 1, (7.1) se dice un movimiento rı́gido propio, si det(aik ) = −1 se dice


impropio.

Consideremos la transformación inducida por (7.1) en V n . Queremos calcular las com-


−−→
ponentes de f (~ α) a partir de las componentes de α ~ . Pero las componentes de P Q son
−− −→
x0k − xk , k = 1, 2, . . . , n, y las de P ∗ Q∗ son yi0 − yi luego ya tenı́amos que
n
X
yi0 − yi = aik (x0k − xk )
k=1

~ y u∗i a las componentes de α


Si llamamos ui a las componentes de α ~ ∗ = F (~
α) se tiene
n
X
u∗i = aik ui i = 1, 2, . . . , n
k=1

Sea Aik el adjunto de aik en det(aik ), volviendo a (7.1) se tiene, por la regla de Cramer
que
n
X
1
xi = Aki (yk − tk ) i = 1, 2, . . . , n (7.2)
det(aik )
k=1

(7.2) también define una transformación. Si P ∗ es la imagen de P según (7.1) entonces


P es la imagen de P ∗ según (7.2), luego la transformación definida por (7.2) es la
inversa de la transformación definida por (7.1). Además como (aik ) es ortogonal se
Ajh
tiene que ajh = .
det(aik )
7.1. MOVIMIENTOS RÍGIDOS EN R2 115

Nota: Vimos que un movimiento rı́gido deja invariante al producto escalar, pero
para demostrarlo representamos ambos vectores con el mismo punto inicial. Queremos
hacer ver que esta restricción es superflua. Sean α ~ arbitrarios, α
~, β ~ ∗ fueron
~∗ y β
−−→ −→
definidos independientemente de su punto inicial. Tomemos α~ = P Q, β = P R entonces
∗ −−∗−→∗ ~ ∗ −−∗−→∗ ~ ∗ ~∗
α
~ =P Q ,β =P R yα ~ ·β =α ~ ·β .
Nota: Consideremos el paralelotopo n-dimensional generado por los vectores l.i. β ~1 ,
~ ~ ~ ∗ ~∗ ~ ∗
β2 , . . . , βn , sean β1 , β2 , . . . , βn sus imágenes según un movimiento rı́gido. Sea P
el punto a partir del cual se genera el paralelotopo, sea P ∗ su imagen, aplicando
Xn
los vectores ~ ∗ , 0 ≤ λi ≤ 1 a partir de P ∗ se obtiene un nuevo paralelotopo,
λi β i
i=1
llamémoslo la imagen del paralelotopo original según el movimiento rı́gido. Si β ~i tiene
~ ∗
componentes ui1 , ui2 , . . . , uin en el sistema cartesiano [O; ~γ1 , ~γ2 , . . . , ~γn ], βi tiene las
mismas componentes en [O∗ ; ~γ1∗ , ~γ2∗ , . . . , ~γn∗ ]. El volumen del paralelotopo original es
| det(uik )|. El volumen del paralelotopo cuyas aristas son β ~ ∗ , β~ ∗ , . . . , β~ ∗ puede ser
1 2 n
evaluado de la misma manera en términos de los componentes de los vectores β ~ ∗ en el
i
∗ ∗ ∗ ∗
sistema [O ; ~γ1 , ~γ2 , . . . , ~γn ]. Pero dichas componentes son iguales a las de los vectores
~i en el sistema [O; ~γ1 , ~γ2 , . . . , ~γn ], luego este segundo volumen es igual al original. El
β
volumen de un paralelotopo es invariante frente a movimientos rı́gidos.
~∗
¿Qué sucede con det(uik ) si las uik son reemplazadas por las componentes de los βi
en el mismo sistema de coordenadas [O; ~γ1 , ~γ2 , . . . , ~γn ]?

Supongamos que tales componentes son u∗i1 , u∗i2 , . . . , u∗in . Sabemos que
n
X
u∗ik = akν uiν i, k = 1, 2, . . . , n
ν=1
à n
!
X
det(u∗ik ) = det uiν akν = det(uik ) det(aik )
ν=1

Como det(aik ) = ±1,


det(u∗ik ) = ± det(uik ).

7.1. Movimientos rı́gidos en R2


En un sistema de coordenadas cartesianas un movimiento rı́gido f está dado por

y1 = t1 + a11 x1 + a12 x2
y2 = t2 + a21 x1 + a22 x2

donde (aik ) es ortogonal, y para las componentes de los vectores se tiene

u∗1 = a11 u1 + a12 u2


u∗2 = a21 u1 + a22 u2

Un vector α~ se dice invariante bajo f si f (~


α) = α~ . Es claro que ~0 es invariante bajo
f . Nos preguntamos si existe algún otro vector invariante. Si es que lo hay debe darse
que
u1 = a11 u1 + a12 u2 (a11 − 1)u1 + a12 u2 = 0
⇒ (7.3)
u2 = a21 u1 + a22 u2 a21 u1 + (a22 − 1)u2 = 0
116 CAPÍTULO 7. MOVIMIENTOS RÍGIDOS

luego para que algún vector distinto de cero sea invariante, la matriz
µ ¶
(a11 − 1) a12
a21 (a22 − 1)
debe tener rango R menor que 2.

Caso 1: R = 0. Todos los vectores de µV 2 son ¶soluciones de (7.3), a11 = a22 = 1,


1 0
a12 = a21 = 0, luego la matriz (aik ) es , det(aik ) = 1, y las ecuaciones que
0 1
definen a f son de la forma
y1 = t1 + x1
y2 = t2 + x2
−−→
Si O = (0, 0), O∗ = (t1 , t2 ), el movimiento rı́gido es una traslación en OO∗ ; si
t1 = t2 = 0, f es la identidad.

Caso 2: R = 1.
¯ ¯
¯ a11 − 1 a12 ¯¯
0=¯ ¯ = det(aik ) + 1 − a11 − a22
a21 a22 − 1 ¯
µ ¶
a11 − 1 a12
y algún elemento de es distinto de cero.
a21 a22 − 1
Si det(aik ) = 1 entonces a11 + a22 = 2, pero como
a211 + a212 = 1
a221 + a222 = 1
ningún aik puede ser tal que |aik | > 1 y a11 +a22 = 2 se cumple sólo si a11 = a22 = 1. En
tal caso a12 = a21 = 0 y estamos en el caso 1. Entonces es necesario que det(aik ) = −1.
A11
Pero si det(aik ) = −1, como a11 = det(a ik )
y A11 = a22 se tiene a11 = −a22 y entonces
det(aik ) + 1 − a11 − a22 = 0 y (aik ) tiene rango 1. Luego el caso 2 puede suceder si y
sólo si det(aik ) = −1.

En tal caso tenemos un subespacio invariante de dimensión 1. Sea β~1 un vector unitario
que es base de este subespacio y extendemos a una base ortonormal β ~1 , β~2 de R2 . Sea
Q arbitrario, escribamos las ecuaciones de f en [Q; β~1 , β~2 ]. Las nuevas ecuaciones son
de la forma
y1 = t1 + c11 x1 + c12 x2 u∗1 = c11 u1 + c12 u2
y2 = t2 + c21 x1 + c22 x2 u∗2 = c21 u1 + c22 u2

Pero β~1 es vector invariante y en la base elegida u1 = 1, u2 = 0 luego


u1 = c11 u1 + c12 u2 c11 = 1

u2 = c21 u1 + c22 u2 c21 = 0
Además
A22 c11
c22 = = luego c22 = −c11 = −1
det(cik ) −1
A12 −c21
c12 = = luego c12 = c21 = 0
det(cik ) −1
7.1. MOVIMIENTOS RÍGIDOS EN R2 117

~1 , β
De lo dicho se desprende que las ecuaciones de f en el sistema [Q; β ~2 ] deben ser de
la forma
y1 = t1 + x1
(7.4)
y2 = t2 − x2
Sea Q1 tal que su coordenada x1 en [Q; β ~1 , β
~2 ] es arbitraria pero x2 = 1 t2 . Por (7.4),
2
−−−→
Q∗1 tiene y2 = 21 t2 luego la segunda componente de Q1 Q∗1 en tal sistema es 0. Como las
componentes de un vector son independientes del origen y dependen sólo de la base,
−−−→ ~1 , β
~2 ]. Pero
el vector Q1 Q∗1 tiene segunda componente igual a cero en el sistema [Q1 ; β
en este sistema Q1 tiene coordenadas 0, 0 y por lo tanto la segunda coordenada de Q∗1
en este sistema debe ser 0. Si consideramos (7.4) con respecto al sistema [Q1 ; β~1 , β ~2 ],
si x1 = x2 = 0 necesariamente y2 = 0 luego t2 = 0. Se concluye que en el sistema
~1 , β~2 ] las ecuaciones de f deben ser de la forma
[Q1 ; β
y1 = t1 + x1
y2 = −x2
La ecuación y1 = t1 +x1 nos dice que cada punto del plano es trasladado en la dirección
del eje x1 en |t1 | hacia la derecha o izquierda según t1 > 0 ó t1 < 0 y después se realiza
una reflexión en el eje x1 .

Caso 3: R = 2. El único vector invariante es ~0. Si det(aik ) = −1 estamos en el caso


A11
2. Luego det(aik ) = 1. Como a11 = det(a ik )
, si a11 = 1 entonces a22 = A11 = 1,
a12 = a21 = 0 y estamos en el caso 1. Luego a11 6= 1.

A la inversa, si det(aik ) = 1 y a11 6= 1 tenemos que estar en el caso 3 porque en el caso


1 se tiene a11 = 1 y en el caso 2 se tiene det(aik ) = −1.

Supongamos que f tiene un punto fijo (x1 , x2 ) entonces


x1 = t1 + a11 x1 + a12 x2
x2 = t2 + a21 x1 + a22 x2

(a11 − 1)x1 + a12 x2 = −t1


a21 x1 + (a22 − 1)x2 = −t2
Como el rango de la matriz del sistema es 2, el sistema tiene siempre una única solu-
ción (x1 , x2 ), sea Q(x1 , x2 ) el punto fijo, sea [Q; β~1 , β
~2 ] un sistema de coordenadas
cartesianas, la forma de f en este sistema es
y1 = t1 + a11 x1 + a12 x2
y2 = t2 + a21 x1 + a22 x2
Para x1 = x2 = 0 se tiene y1 = y2 = 0 luego t1 = t2 = 0. Como a211 + a221 = 1 sea ϕ tal
que a11 = cos ϕ y pidamos 0 < ϕ < 2π (ϕ = 0 no puede darse porque entonces R = 0)
A22 A12
a22 = = a11 = cos ϕ a12 = = −a21 = − sen ϕ
det(aik ) det(aik )
luego
y1 = x1 cos ϕ − x2 sen ϕ
y2 = x1 sen ϕ + x2 cos ϕ
118 CAPÍTULO 7. MOVIMIENTOS RÍGIDOS

en el sistema [Q; β~1 , β


~2 ]. Entonces β
~1 va al vector β
~ ∗ de componentes cos ϕ, sen ϕ y β ~2
1
~ de componentes − sen ϕ, cos ϕ luego [Q; β
va al vector β ∗ ~1 , β
~2 ] va a [Q; β~ , β
∗ ~ ] después

2 1 2
de una rotación en el sentido trigonométrico positivo en torno a Q y ángulo ϕ. Si P es
arbitrario, P ∗ tiene las mismas coordenadas en [Q; β~1∗ , β ~ ∗ ] que P tiene en [Q; β
2
~1 , β~2 ].

Podemos concluir que P se obtiene de P por una rotación en torno a Q y de ángulo ϕ.

Nota: det(aik ) debe tener el mismo valor en todos los sistemas de coordenadas ante-
riores, porque su valor está determinado por la dimensión del subespacio de vectores
invariantes, dimensión que es independiente de la elección del sistema de coordenadas.

7.2. Movimientos rı́gidos en R3


En un sistema cartesiano cualquiera, las ecuaciones de f son
3
X
y i = ti + aik xk i = 1, 2, 3 ,
k=1

(aik ) matriz ortogonal, det(aik ) = ±1.

Consideremos primero el caso det(aik ) = 1. Si el vector de componentes u1 , u2 , u3 es


invariante entonces
X3
ui = aik ui
k=1
luego u1 , u2 , u3 deben ser soluciones del sistema
(a11 − 1)u1 + a12 u2 + a13 u3 = 0
a21 u2 + (a22 − 1)u2 + a23 u3 = 0 (7.5)
a31 u1 + a32 u2 + (a33 − 1)u3 = 0
¯ ¯
¯ a11 − 1 a12 a13 ¯
¯ ¯
¯ a21 a22 − 1 a23 ¯ = det(aik ) − A11 − A12 − A13 + a11 + a22 + a33 − 1
¯ ¯
¯ a31 a32 a33 − 1 ¯

Como det(aik ) = 1, aik = Aik luego el determinante vale cero. El rango de la matriz
de (7.5) es a lo más dos luego la dimensión del subespacio de vectores invariantes es
al menos uno.

Queremos demostrar que si det(aik ) = 1 la dimensión de tal subespacio puede ser 1


ó 3 pero nunca puede ser 2.

Supongamos que es 2, entonces el rango de la matriz de (7.5) es a lo más 1 y todos


sus menores de 2 × 2 son cero, en particular
¯ ¯
¯ a11 − 1 a12 ¯¯
¯ = A33 − a11 − a22 + 1 = 0
¯ a21 a22 − 1 ¯
¯ ¯
¯ a11 − 1 a13 ¯¯
¯ = A22 − a11 − a33 + 1 = 0
¯ a31 a33 − 1 ¯
¯ ¯
¯ a22 − 1 a23 ¯¯
¯ = A11 − a22 − a33 + 1 = 0
¯ a32 a33 − 1 ¯
7.2. MOVIMIENTOS RÍGIDOS EN R3 119

Sumando las dos primeras ecuaciones y recordando que aik = Aik se obtiene −2a11 +
2 = 0, a11 = 1. De manera análoga a22 = a33 = 1. De la ortogonalidad de (aik ) se
obtiene aik = 0, i 6= k, luego todos los coeficientes en (7.5) son cero, la dimensión del
espacio invariante es 3, todos los vectores en V 3 son invariantes.

Consideremos ahora el caso det(aik ) = −1, ¿existe algún vector ~γ que va a −~γ ?
Entonces, si las componentes de ~γ son u1 , u2 , u3 debe tenerse que u∗i = −ui , i = 1, 2, 3
y deben ser soluciones de

(a11 + 1)u1 + a12 u2 + a13 u3 = 0


a21 u2 + (a22 + 1)u2 + a23 u3 = 0
a31 u1 + a32 u2 + (a33 + 1)u3 = 0
y el determinante de la matriz del sistema vale
det(aik ) + A11 + A22 + A33 + a11 + a22 + a33 + 1
y como det(aik ) = −1 y aik = −Aik el determinante se anula.

El subespacio de soluciones tiene al menos dimensión 1. Probaremos que tal dimensión


es 1 ó 3. Supongamos que tiene dimensión 2, entonces todos los menores de 2 × 2 de
la matriz del sistema deben ser cero, en particular los principales (a lo largo de la
diagonal principal). Se obtiene a11 = a22 = a33 = −1 y aik = 0 si i 6= k, todos los
coeficientes se anulan y todo V 3 es invariante.

Sea p la dimensión del subespacio de vectores invariantes, q la dimensión del subespa-


cio de vectores ~γ que van a −~γ .

p y q están definidos para todo movimiento rı́gido f independientemente si det(aik ) = 1


ó det(aik ) = −1.

Los resultados coleccionados hasta ahora nos dicen que para cualquier f al menos una
de las siguientes ecuaciones se cumple:
i.- p = 1
ii.- p = 3
iii.- q = 1
iv.- q = 3
Demostraremos que para cualquier movimiento rı́gido en R3 se cumple exactamente
una de las cuatro ecuaciones.

En efecto, ii) se cumple si y sólo si todo V 3 es invariante, eso excluye a las otras.
Análogamente si iv) se cumple. Luego dos de ellas pueden cumplirse simultáneamente
sólo si ii) y iv) no se cumplen, esto es, i) y iii) son las únicas alternativas que podrı́an
darse juntas. Supongamos que es ası́, hay ~γ 6= ~0 que es invariante y ~δ 6= ~0 que va a −~δ.
Es claro que ~γ y ~δ son l.i. Consideremos el subespacio L de los vectores ortogonales a
~γ y ~δ. La dimensión de L es 1. Sea ~e ∈ L, ~e 6= ~0, sea ~e∗ su imagen. Entonces
~e · ~γ = ~e · ~δ = 0 ⇒ ~e∗ · ~γ ∗ = ~e∗ · ~δ∗ = 0 ⇒ ~e∗ · ~γ = ~e∗ · (−~δ) = 0
120 CAPÍTULO 7. MOVIMIENTOS RÍGIDOS

luego ~e∗ ∈ L, ~e∗ = λ~e. Pero k~e∗ k = k~ek, entonces λ = ±1. Como ~e, ~γ , ~δ son l.i., si
~e = ~e∗ no es posible que p = 1 y si ~e = −~e∗ no es posible que q = 1.

Tenemos ası́ los movimientos rı́gidos en R3 divididos en cuatro clases mutuamente ex-
cluyentes, i) y ii) corresponden a det(aik ) = 1, iii) y iv) corresponden a det(aik ) = −1.

i.- p = 1. Sea β~3 invariante, kβ ~3 k = 1, extendamos a una base ortonormal β ~1 , β


~2 , β
~3
3 ~ ~ ~
de R , sea [Q; β1 , β2 , β3 ] un sistema cartesiano, consideremos las ecuaciones de f
en tal sistema, sean ellas
3
X
yi = ti + aik xk i = 1, 2, 3
k=1
3
X
u∗k = aik ui k = 1, 2, 3
k=1

Como β~3 es invariante, u∗ = u∗ = 0, u∗ = 1 luego a13 = a23 = 0, a33 = 1 y de la


1 2 3
ortogonalidad de (aik ) obtenemos a31 = a32 = 0 luego

y1 = t1 + a11 x1 + a12 x2
y2 = t2 + a21 x1 + a22 x2 (7.6)
y3 = t3 + x3

El determinante de la matriz del sistema es


¯ ¯
¯ a11 a12 0 ¯ ¯ ¯
¯ ¯ ¯ a12 ¯¯
¯ a21 a22 0 ¯ = ¯ a11
¯ ¯ ¯ a21 a22 ¯
¯ 0 0 1 ¯

De la ortonormalidad se tiene

a211 + a212 = 1
a221 + a222 = 1

También a11 a21 + a12 a22 + a13 a23 = 0 luego a11 a21 + a12 a22 = 0.
¯ ¯ µ ¶
¯ a a12 ¯¯ a11 a12
Como det(aik ) = 1, ¯¯ 11 = 1 luego es ortogonal.
a21 a22 ¯ a21 a22

Ella es la matriz de las dos primeras ecuaciones de (7.6), luego estas dos ecua-
ciones definen un movimiento rı́gido en R2 . Además no es posible tener a11 =
a22 = 1 porque en tal caso p = 3. Entonces este movimiento rı́gido en R2 tiene un
punto fijo, esto es, hay x1 , x2 que satisfacen y1 = x1 , y2 = x2 . Sea S ∈ R3 cuyas
dos primeras coordenadas en [Q; β~1 , β~2 , β ~3 ] son x1 , x2 . S ∗ tiene entonces como
sus dos primeras coordenadas y1 = x1 , y2 = x2 y por lo tanto las dos primeras
−−→
componentes de SS ∗ son cero. Este resultado, aunque lo hemos obtenido usando
el sistema de coordenadas [Q; β ~1 , β
~2 , β
~3 ], es independiente del origen y es váli-
~ ~ ~
do también en [S; β1 , β2 , β3 ], luego S ∗ tiene las mismas coordenadas que S en
7.2. MOVIMIENTOS RÍGIDOS EN R3 121

este nuevo sistema, y, habiendo elegido a S como nuevo origen, esto significa
que las dos primeras coordenadas tanto de S como de S ∗ son cero. Dado que
las ecuaciones de f mantienen su forma aunque hayamos cambiado el sistema de
coordenadas, lo dicho sobre las coordenadas de S y S ∗ visto en (7.6) nos dice que
~1 , β
las ecuaciones de f en [S, β ~2 , β
~3 ] tienen la forma

y1 = a11 x1 − a12 x2
y2 = a21 x1 + a22 x2
y3 = t3 + x3 .
µ ¶
a11 a12
Como es ortogonal, podemos determinar de manera única un ángu-
a21 a22
lo ϕ, 0 ≤ ϕ ≤ 2π, tal que a11 = cos ϕ, a21 = sen ϕ, a12 = − sen ϕ, a22 = cos ϕ,
~1 , β
luego en [S; β ~2 , β~3 ] las ecuaciones de f son

y1 = x1 cos ϕ − x2 sen ϕ
y2 = x1 sen ϕ + x2 cos ϕ
y3 = t3 + x3

Consideremos una recta ` paralela a β ~3 . Todos sus puntos tienen sus dos primeras
coordenadas x1 , x2 iguales, su intersección con el plano x1 , x2 tiene coordenadas
x1 , x2 , 0. Buscamos `∗ . Sea P ∈ ` de coordenadas x1 , x2 , x3 . Las dos primeras
ecuaciones no dependen de x3 luego todos los P ∗ tienen la misma intersección y1 ,
y2 , 0 con el plano y1 , y2 , y las dos coordenadas y1 , y2 están determinadas por las
dos primeras ecuaciones de (7.5) donde x1 , x2 son las dos primeras coordenadas
de la intersección de ` con el plano x1 , x2 . Dicho en otras palabras, `∗ queda com-
pletamente determinada una vez conocida la imagen de este punto intersección.
Por otra parte, estas dos ecuaciones definen una rotación de ángulo ϕ en torno al
origen. Consideremos la rotación en R3 en torno al eje x3 y de ángulo ϕ, el punto
(x1 , x2 , 0) ∈ ` va al punto (y1 , y2 , 0) ∈ `∗ luego ` va a `∗ . Como ` es arbitraria,
esto es cierto para cualquier recta paralela a β ~3 . Nuestro movimiento rı́gido se
compone de una rotación de R3 en torno al eje x3 de [S; β ~1 , β~2 , β~3 ] seguida de
una traslación en la dirección de dicho eje.

ii.- p = 3. Vimos que en cualquier sistema cartesiano det(aik ) vale 1 y que aik = δik ,
las ecuaciones adoptan la forma

y1 = t1 + x1
y2 = t2 + x2
y3 = t3 + x3

lo cual representa una traslación.

iii.- q = 1. En este caso det(aik ) = −1 en todo sistema de coordenadas cartesianas.


Sea ~γ3 , k~γ3 k = 1 tal que ~γ3 va a −~γ3 , extendamos a una base ortonormal ~γ1 , ~γ2 , ~γ3 ,
escribamos las ecuaciones de f en [Q; ~γ1 , ~γ2 , ~γ3 ]. Sean u1 , u2 , u3 las componentes
de ~γ3 . Como ~γ3 7→ −~γ3 se tiene que u∗1 = u∗2 = 0, u∗3 = −1 si u1 = u2 = 0 y
122 CAPÍTULO 7. MOVIMIENTOS RÍGIDOS

u3 = 1. Pero esto es posible sólo si a13 = a23 = 0 y a33 = −1. Se tiene

y1 = t1 + a11 x1 + a12 x2
y2 = t2 + a21 x1 + a22 x2 (7.7)
y3 = t3 − x3

Sea R ∈ R3 tal que su tercera coordenada es x3 = 12 t3 en [Q; ~γ1 , ~γ2 , ~γ3 ]. Entonces
−−→
R∗ tiene y3 = 21 t3 y la tercera componente de RR∗ es 0. Tal como antes, su
tercera componente es 0 en [R; ~γ1 , ~γ2 , ~γ3 ], donde R tiene coordenadas (0, 0, 0)
luego y3 = 0 cuando x1 = x2 = x3 = 0, y por lo tanto t3 = 0. El determinante
del sistema (7.7) es ¯ ¯
¯ a11 a12 ¯
−¯¯ ¯ = −1
a21 a22 ¯
µ ¶
a11 a12
luego es ortogonal.
a21 a22

Si a11 = 1 entonces a22 = a11 = 1 luego a12 = a21 = 0 y las ecuaciones (7.7)
adoptan la forma

y1 = t1 + x1
y2 = t2 + x2
y3 = −x3 ;

en este caso f consiste en una reflexión en el plano x1 , x2 seguida de una traslación


paralela a ese plano.

Si a11 6= 1, hay dos números x1 , x2 que sustituı́dos en las dos primeras ecuaciones
de (7.7) dan y1 = x1 , y2 = x2 . Sea S ∈ R3 tal que sus dos primeras coordenadas
en [R; ~γ1 , ~γ2 , ~γ3 ] son x1 , x2 y tal que x3 = 0. Entonces S ∗ tiene coordenadas
y1 = x1 , y2 = x2 , y3 = −x3 = 0 ya que t3 = 0. Como S es punto fijo de f ,
x1 = x2 = x3 = 0 entonces y1 = y2 = y3 = 0 y finalmente t1 = t2 = t3 = 0. Sean

a11 = cos ϕ , a21 = sen ϕ , a12 = − sen ϕ , a22 = cos ϕ ,

en [S; ~γ1 , ~γ2 , ~γ3 ] las ecuaciones de f quedan

y1 = x1 cos ϕ − x2 sen ϕ
y2 = x2 sen ϕ + x2 cos ϕ
y3 = −x3

f es una reflexión en el plano x1 , x2 seguida de una rotación en torno al eje x3 .

iv.- q = 3. det(aik ) = −1 en todo sistema cartesiano, a11 = a22 = a33 = −1, aik = 0
para i 6= k. Se tiene

y1 = t1 − x1
y2 = t2 − x2
y3 = t3 − x3
7.2. MOVIMIENTOS RÍGIDOS EN R3 123

Sea Q ∈ R3 con x1 = 12 t1 , x2 = 12 t2 , x3 = 12 t3 entonces Q∗ tiene las mismas


coordenadas que Q. Considere el sistema [Q; ~γ1 , ~γ2 , ~γ3 ] en este sistema x1 = x2 =
x3 = 0 entonces y1 = y2 = y3 = 0, y finalmente t1 = t2 = t3 = 0. Entonces

y1 = −x1
y2 = −x2
y3 = −x3

y f es una reflexión en el origen.


124 CAPÍTULO 7. MOVIMIENTOS RÍGIDOS
Capı́tulo 8

Problemas propuestos

1. Sean A y B matrices de m × n. Diremos que B es equivalente por filas con A


si B se obtiene de A mediante una sucesión finita de operaciones elementales fila.

Sean
   
1 2 0 −1 5 1 0 1 0 2
 1 1 −1 2 1   0 1 1 1 −1 
A=
 3
, B= 
0 1 1 2   4 2 3 1 0 
4 4 −2 1 0 1 0 1 0 1

¿Son A y B equivalentes por filas?

2. Sea R matriz de m × n. Diremos que R es reducida por filas si se cumplen las


siguientes condiciones:
i. El primer elemento distinto de cero de una fila no nula es igual a 1 (una fila
nula es una fila que consta sólo de ceros).
ii. Toda columna que contiene al primer elemento no nulo de una fila tiene
todos sus demás elementos iguales a cero.
Demuestre que toda matriz A de m × n es equivalente por filas a una matriz R
reducida por filas. Encuentre todas las matrices de 3 × 3 reducidas por filas.

3. Sea B una matriz de n × p. Encuentre una matriz C de m × p cuyas filas sean


combinaciones lineales de las filas de B. Demuestre que existe una matriz A de
m × n tal que C = AB.

Enuncie y verifique una proposición similar para las columnas.

4. Sea E de m × m. Diremos que E es elemental si se obtiene de la matriz identidad


de m × m mediante una sóla operación elemental fila. Sea e operación elemental
fila, sea A una matriz arbitraria de m×n. Sea e(A) la matriz resultante de aplicar
e a A, sea e(I) la correspondiente matriz elemental. Demuestre que e(A) = e(I)A.

125
126 CAPÍTULO 8. PROBLEMAS PROPUESTOS

Sean A y B matrices de m × n. Demuestre que B es equivalente por filas con


A si y sólo si B = P A donde P es un producto de matrices elementales de m×m.

5. Sea A matriz invertible de orden n. Demuestre que A es equivalente por filas a


la matriz identidad de orden n. Invente un algoritmo para calcular la inversa de
A. Materialice su invención calculando la inversa de
 
1 −1 1
A= 2 0 1 
3 0 1

6. Sea A de n × n. Demuestre que las siguientes propiedades son equivalentes.


i. A es invertible.
ii. A es equivalente por filas a la identidad.
iii. A es un producto de matrices elementales.
iv. AX = 0 tiene sólo la solución trivial.
v. AX = Y tiene solución para cada matriz Y .
7. Sea  
1 2 1 0
A =  −1 0 3 5 
1 −2 1 1
Encuentre una matriz R reducida por filas equivalente por filas a A y encuentre
P de 3 × 3 tal que R = P A.

8. a. Sea A de 2 × 1, B de 1 × 2. Demuestre que C = AB no es invertible.


b. Sea A de m × n, demuestre que si A no es invertible hay B 6= 0 de n × n tal
que AB = 0.
9. Sea Rn el conjunto de las n-tuplas de números reales y E n = Rn con las defini-
ciones de suma y multiplicación por un escalar.

Sean A = (a1 , a2 , . . . , an ), B = (b1 , b2 , . . . , bn ) puntos de Rn . Sean a, b las mismas


n-tuplas miradas como elementos de E n . Sea h : Rn × Rn → E n dada por
h[(A, B)] = b − a. Diremos que el par (A, B) representa a b − a y lo anotamos
−−→ −−→
como AB; decimos que A es el punto inicial de AB y B es su punto final.
Demuestre que
i. Dado A ∈ Rn , x ∈ E n , hay un único B ∈ Rn tal que el par (A, B) representa
a x.
ii. Si (A, B) representa a x, (B, C) representa a y, entonces (A, C) representa
a z = x + y.
iii. Si A ∈ Rn entonces (A, A) representa a 0 ∈ E n .
iv. Si (A, B) representa a x entonces (B, A) representa a −x.
v. Demuestre que si x ∈ E n entonces hay infinitos pares (A, B) que lo repre-
sentan. De aquı́ en adelante, en lugar de escribir que (A, B) representa a
−−→
b − a escribiremos AB = b − a.
127

vi. Sea λ real arbitrario. Demuestre que hay un único punto P (λ) ∈ Rn tal
−→
que AP = λ(b − a) y que si p(λ) es la misma n-tupla que corresponde a P
mirada como elemento de E n entonces p(λ) = a + λ(b − a).
−−→
Llamaremos recta por A de dirección AB al conjunto de puntos de Rn

{a1 + λ(b1 − a1 ), a2 + λ(b2 − a2 ), . . . , an + λ(bn − an ) : λ ∈ Rn }

Diremos que p(λ) = a + λ(b − a) es la ecuación vectorial de la recta (la cual


−−−−→ −−→
también puede escribirse como AP (λ) = λAB ). Si C, D ∈ Rn , llamaremos
−−→
segmento de recta CD al subconjunto de la recta por C y de dirección CD
correspondiente a 0 ≤ λ ≤ 1.

Demuestre que si A, B son puntos del segmento CD entonces AB ⊂ CD.


−−→
Demuestre que la recta por A y dirección AB es la misma que la original.
−−→ −−→
Sean a, b ∈ E n . Demuestre que a y b son l.d. si y sólo si AP1 = a, AP2 = b
son tales que P1 y P2 están sobre la misma recta en Rn .
10. En E 5 sean

a1 = (1, 0, 2, −1, 3)
a2 = (0, 0, 1, 1, −1)
a3 = (1, 1, 2, 0, 0)

i. ¿Cuál es la dimensión de L(a1 , a2 , a3 )?


ii. ¿ Está (1, 0, 0, 0, 0) en L(a1 , a2 , a3 )?
iii. Si es que dim L(a1 , a2 , a3 ) = 3, extienda a1 , a2 , a3 a una base de E 5 .
11. En E 4 sean

a1 = (3, −1, 1, 2)
a2 = (4, −1, −2, 3)
a3 = (10, −3, 0, 7)
a4 = (−1, 1, −7, 0)

Sea L1 = L(a1 , a2 , a3 , a4 ). Sean

b1 = (2, −4, −3, 7)


b2 = (5, 2, 2, −1)

Sea L2 = L(b1 , b2 ).

Encuentre dim L1 , dim L2 , dim L1 ∩ L2 , dim(L1 + L2 ).

12. Sea L un subespacio de E n . Sea X = {y ∈ E n : (x − y) ∈ L}, sea Z = {y ∈ E n :


(z − y) ∈ L}. Demuestre que si X ∩ Z 6= ∅ entonces X = Z. Llamaremos a X
la clase del elemento x ∈ E n . Demuestre que si w ∈ X entonces la clase W del
elemento w es X. A los elementos de una clase los llamaremos representativos
128 CAPÍTULO 8. PROBLEMAS PROPUESTOS

de la clase. Sea E n /L el conjunto de las clases de X. Definimos combinación


lineal de las clases X e Y a la siguiente clase: sean x ∈ X, y ∈ Y arbitrarios.
Llamaremos αX + βY a la clase que contiene a αx + βy. Demuestre que la clase
definida es independiente de la elección de x ∈ X o y ∈ Y .

13. Sea h : E n → E n /L definida por h(x) = X. Demuestre que h es sobre pero no


1-1. Demuestre que
h(x + z) = h(x) + h(z) ∀ x, z ∈ E n
h(αx) = αh(x) ∀ x ∈ En, ∀α ∈ R

14. Sea AX = B un sistema de n + 1 ecuaciones con n incógnitas. Sea A = (aij ),


B = (Bi ) y supongamos que el determinante de la matriz que consiste de las
primeras n filas de A es distinto de cero. Demuestre que el sistema tiene solución
si y sólo si det(cij ) = 0 donde la matriz (cij ) está definida como: cij = aij si
1 ≤ i ≤ n + 1, 1 ≤ j ≤ n, ci(n+1) = bi , 1 ≤ i ≤ n + 1.

15. Sea ¯ ¯
¯ −2 5 0 −1 3 ¯
¯ ¯
¯ 1 0 3 7 −2 ¯
¯ ¯
D = ¯¯ 3 −1 0 5 −5 ¯
¯
¯ 2 6 −4 1 2 ¯
¯ ¯
¯ 0 −3 −1 2 3 ¯
Calcule el valor de D desarrollando por los menores de las filas 2,3 y 5. Verifique
que su valor es -1032.

16. Sea A una matriz de m × n. Supongamos que un menor de orden r de A es


distinto de cero, r < mı́n(m, n), r > 0. Demuestre que A tiene al menos r filas y
r columnas l.i.

17. Resuelva el sistema de ecuaciones lineales


(3 + i)z1 − iz2 + z3 = 0
2z1 + iz2 − (1 − i)z3 = 0
(1 + i)z1 + 0 · z2 + 2z3 = 0
z1 − iz2 + (1 + i)z3 = 0
iz1 − z2 + 3z3 = 0

donde zj = xj + iyj , j = 1, 2, 3, sin separar parte real e imaginaria. Verifique su


resultado resolviendo el sistema separando en parte real y parte imaginaria.

18. Estudie las soluciones del sistema

λz1 + iz1 + z3 = 1
iz1 + λz2 + iz3 = iλ
z1 + (1 − i)z2 + λz3 = iλ2
como una función de λ.
129

19. Sean

~1 = {1, −1, 2, 0} ,
β ~2 = {0, 1, 1, 0}
β
~3 = {2, 1, 0, −1} ,
β ~4 = {1, 0, −1, 2}
β

vectores en V 4 , sea Q = (1, 1, 1, 1) un punto en R4 . Verifique que [Q; β~1 , β ~2 , β~3 , β ~4 ]


4
es un sistema de coordenadas en R . Encuentre las coordenadas del punto P =
(0, 1, 1, 0) en dicho sistema. ¿Cuáles son las coordenadas de Q? Dado α ~ =
{0, 1, 1, 0} ∈ V 4 , encuentre las componentes de α ~ con respecto al sistema de
coordenadas dado. ¿Cuáles son las componentes de β~1 , y las de β ~1 + β~2 ? En-
cuentre la ley de transformación de coordenadas para pasar del sistema dado a
[0; ~e1 , ~e2 , ~e3 , ~e4 ] y viceversa. Encuentre las coordenadas de P en [O; ~e1 , ~e2 , ~e3 , ~e4 ]
y verifique que sus fórmulas son correctas. ¿Cuál es la ley de transformación para
las componentes de los vectores? Encuentre las componentes de α ~ en [O; ~e1 , ~e2 , ~e3 , ~e4 ]
y verifique que su ley de transformación es correcta.

20. Sean α ~ 1 = {− 12 , 23 , 1, 0}, α~ 2 = {0, 1, 0, 1} vectores en V 4 cuyas componentes


están dadas en [O; ~e1 , ~e2 , ~e3 , ~e4 ]. Sea P0 ∈ R4 de coordenadas (0, 3, 2, 0) en tal
sistema. Sea L el subespacio de V 4 generado por α ~1 y α
~ 2 . Encuentre todos los
puntos (x1 , x2 , x3 , x4 ) ∈ R4 que están sobre la variedad lineal M obtenida de
copiar L en P0 . Demuestre que el conjunto de soluciones del sistema

x1 + x2 − x3 − x4 = 1
x1 − x2 + 2x3 + x4 = 1

es exactamente tal variedad lineal.

Encuentre el subespacio L0 de vectores ortogonales a L, luego encuentre un sis-


tema homogéneo cuyo espacio de soluciones es L y a continuación encuentre un
sistema no homogéneo cuyo conjunto de soluciones sea el de los puntos de M .

Encuentre el sistema de ecuaciones que representa a M en el sistema [Q; β~1 , β


~2 , β
~3 , β
~4 ]
del ejercicio (19).

21. Sean

α
~1 = {−1, 1, −1, 1}
α
~2 = {2, 1, −1, 1}
α
~3 = {0, 1, 1, 1}
α
~4 = {0, 0, 1, 1}

vectores en V 4 cuyas componentes están dadas en la base estándar. Encuentre


el volumen del paralelotopo de aristas α ~ 1, α
~ 2, α
~ 3, α
~ 4 . Con respecto al sistema
de coordenadas [Q; β~1 , β
~2 , β
~3 , β~4 ] del ejercicio anterior, verifique e interprete la
fórmula
det(aik ) = det(a∗ik ) det(vik ) (Sección 6.4)
130 CAPÍTULO 8. PROBLEMAS PROPUESTOS

Encuentre la fórmula para el producto escalar en la base β ~1 , β


~2 , β
~3 , β
~4 . Use el
método de Gram-Schmidt con el producto escalar en la base estándar para ob-
tener un sistema ortonormal de vectores α ~ 10 , α
~ 20 , α
~ 30 , α
~ 40 a partir de α ~ 1, α
~ 2, α
~ 3, α
~ 4,
y otro β ~ ,β
0 ~ , β~ , β~ a partir de β
0 0 0 ~1 , β~2 , β~3 , β~4 . Verifique que la matriz de tran-
1 2 3 4
sición del sistema α ~ 10 , α
~ 20 , α
~ 30 , α
~ 40 al sistema β ~0 , β ~0 , β~ 0 , β~ 0 es ortogonal. Exprese
1 2 3 4
0 0 0
los vectores α ~ 1, α~ 2, α
~ 3, α~ 4 en el sistema α ~ 1, α ~ 2, α ~ 3, α ~ 40 y verifique e interprete la
fórmula
| det(aik )| = | det(a∗ik )|| det(vik )|

22. Sea M la variedad lineal del ejercicio (20) expresada en el sistema de coorde-
nadas [O; ~e1 , ~e2 , ~e3 , ~e4 ], sea P de coordenadas (1, 1, 0, 0) en tal sistema. Encuentre
la dirección de la recta perpendicular de P a M , el pie de la perpendicular en
M y la longitud de tal perpendicular por el método descrito en el libro (sin usar
el sistema de ecuaciones que representa a M ).

Considere el hiperplano x1 + x2 + x3 + x4 = 1 y el punto P = (1, 1, 0, 0). Encuen-


tre la dirección, pie y longitud de la perpendicular de P al hiperplano. Encuentre
un vector ortogonal a M y al hiperplano dado.

23. Sea f : R4 → R4 dada por


4
X
y i = ti + aik xk i = 1, 2, 3, 4
k=1

un movimiento rı́gido (las coordenadas se suponen dadas en [O; ~e1 , ~e2 , ~e3 , ~e4 ].
−−→
Sean P1 , P2 , P3 , P4 tales que OPi = ~ei i = 1, 2, 3, 4, O∗ = f (O), Pi∗ = f (Pi ) i =
−−−→
1, 2, 3, 4. Verifique que la matriz (aij ) es ortogonal. Sea ~e∗i = O∗ Pi∗ i = 1, 2, 3, 4,
sea P = (x1 , x2 , x3 , x4 ). Encuentre las coordenadas de P en el sistema de coorde-
nadas [O∗ ; ~e∗1 , ~e∗2 , ~e∗3 , ~e∗4 ]. ¿Cuál es la ecuación del hiperplano x1 +x2 +x3 +x4 = 1
en el segundo sistema?
Bibliografı́a

[1] Lectures on Linear Algebra, Gel’fand I. M., New York, Interscience (1961).
[2] Higher Algebra, Kurosh A. G., Moscow, Mir Publishers (1972).
[3] Introduction to Modern Algebra and Matrix Theory, Schreier, O. - Sperner E.,
New York, Chelsea.
[4] Linear Algebra, Shilov G. E., Engelwood Cliffs, N. J., Prentice Hall (1961).
[5] Linear Algebra and Multi-dimensional Geometry, Efimov N. V. - Rozendorn E.
R., Mir Publishers (1975).

131
Índice alfabético

Rn , 29 Inversión, 9
n-tupla, 2, 29
Ángulo entre vectores, 85 l.d., 31
l.i., 31
Adjunto de un menor, 21 Linealmente dependientes, 30
Linealmente independientes, 30
Base, 34 Longitud de un segmento, 83
Base estándar, 35, 65 Longitud de un vector, 83
Coeficientes, 1 Método de eliminación de Gauss, 3
Combinación lineal, 1, 30 Matrices
Compatibilidad de sistemas homogéneos,
Igualdad, 55
51
Inverso aditivo, 55
Compatibilidad de sistemas no homogéneos,
Matriz nula, 55
46
Producto de matrices, 56
Componentes, 29, 63, 92
Producto por un número escalar, 55
Componentes con respecto a una base, 35
Suma de matrices, 55
Consideraciones sobre geometrı́a analı́tica,
Matrices elementales, 125
79
Matrices equivalentes, 43
Construcción de sistemas ortonormales, 104
Matrices equivalentes por filas, 125
Coordenadas, 91
Matriz adjunta, 59
Deformación continua de sistemas de co- Matriz ampliada, 46
ordenadas, 100 Matriz diagonal, 43
Delta de Kronecker, 36, 59, 98 Matriz inversa, 60
Dependencia lineal, 30 Matriz reducida por filas, 125
Desigualdad de Cauchy-Schwarz, 83 Matriz singular, 58
Desigualdad triangular, 84 Matriz traspuesta, 12, 59
Determinante, 8, 11, 12 Matriz triangular
Desarrollo por adjuntos, 22 inferior, 23
Propiedades, 13 superior, 23
Dimensión, 34 Menor de un determinante, 19
Dimensión de un subespacio, 66, 68 Menor complementario, 20
Distancia, 83 Menor de una matriz, 39
Distancia a una variedad lineal, 105 Menor orlado, 39
Movimiento rı́gido, 111
Ecuación lineal con n incógnitas, 1 Movimientos rı́gidos en R2 , 115
Ecuación lineal homogénea, 1 Movimientos rı́gidos en R3 , 118
Espacio euclı́deo n-dimensional, 83 Movimientos rı́gidos y producto escalar,
Espacio vectorial n-dimensional, 29 111
Movimientos rı́gidos y variedades lineales,
Independencia lineal, 30 112

132
ÍNDICE ALFABÉTICO 133

Mutuamente ortogonales, 65 Sistema linealmente independiente maxi-


mal, 32
Norma, 83 Sistema ortonormal de vectores, 98
Sistemas de coordenadas, 91
Origen de un sistema de coordenadas, 91
Sistemas de ecuaciones equivalentes, 2
Ortogonalidad, 65, 85
Sistemas de vectores equivalentes, 34
Ortonormalización de Gram-Schmidt, 104
Solución de un sistema de ecuaciones line-
Paralelógramo, 86 ales, 2
lados del, 86 Solución de una ecuación lineal, 1
Paralelepı́pedo, 86 Subespacio, 65
aristas del, 86 Subespacio de soluciones de un sistema
Paralelotopo, 86 homogéneo, 79
aristas del, 86 Subespacio generado por un conjunto de
Permutación, 8 vectores, 65
Impar, 9 Suma de subespacios, 68
Par, 9 Sustitución, 10
Permutación natural, 8 Impar, 10
Producto de determinantes, 56 par, 10
Producto escalar, 64
Proyección ortogonal, 105 Término libre, 1
Puntos, 63 Teorema de Laplace, 23
Transformación de coordenadas, 93
Rango de un sistema de vectores, 37 Transformaciones elementales de una ma-
Rango de una matriz, 38 triz, 42
Rango columna, 38 Transposición, 8
Rango fila, 38 Traslación, 121
Recta, 63, 127
Reflexión, 117 Vandermonde
Reflexión con respecto a un plano, 122 Determinante de, 18
Reflexión con respecto al origen, 123 Matriz de, 18
Regla de Cramer, 8, 25 Variedad lineal, 72
Rotación, 118 Variedades lineales paralelas, 74
Rotación en torno a un eje, 121, 122 Variedades lineales y sistemas de ecuaciones,
95
Segmento, 63 Vectores, 29, 63
dirigido, 63 Diferencia de vectores, 30
Punto final, 63 Inverso aditivo, 29, 64
Punto inicial, 63 Producto por un número escalar, 30,
Puntos extremos, 63 64
Sistema afı́n de coordenadas, 73 Propiedades, 63
Sistema de coordenadas, 91 Suma de vectores, 29, 64
Sistema de coordenadas cartesianas, 98 Vector nulo, 29, 63
Sistema de ecuaciones compatible, 2 Volúmenes y sistemas de coordenadas carte-
Sistema de ecuaciones compatible deter- sianas, 97
minado, 2, 5 Volumen de un paralelotopo n-dimensional,
Sistema de ecuaciones compatible indeter- 86, 89
minado, 2, 5
Sistema de ecuaciones incompatible, 2, 4
Sistema fundamental de soluciones, 51
Sistema homogéneo de ecuaciones lineales,
2, 6

También podría gustarte