Está en la página 1de 208

Álgebra Lineal I

ÍNDICE GENERAL

1. Sistemas de ecuaciones lineales 1


1.1. De…niciones y propiedades básicas . . . . . . . . . . . . . . . . 1
1.2. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4. El espacio vectorial de las matrices . . . . . . . . . . . . . . . 7
1.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.6. Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . 11
1.6.1. Operaciones elementales renglón . . . . . . . . . . . . . 14
1.6.2. Sistemas de ecuaciones homogéneos . . . . . . . . . . . 22
1.6.3. Sistemas de ecuaciones no homogéneos . . . . . . . . . 23
1.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.8. Multiplicación de Matrices. El álgebra de las matrices cuadradas 27
1.8.1. Matrices elementales . . . . . . . . . . . . . . . . . . . 33
1.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.10. Multiplicación de matrices particionadas . . . . . . . . . . . . 37
1.11. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1.12. Matrices invertibles . . . . . . . . . . . . . . . . . . . . . . . . 44
1.13. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
1.14. La transpuesta de una matriz . . . . . . . . . . . . . . . . . . 55
1.15. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
1.16. La factorización LU de una matriz . . . . . . . . . . . . . . . 59
1.17. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

i
2. Determinantes 72
2.1. La función determinante . . . . . . . . . . . . . . . . . . . . . 72
2.2. Propiedades de los determinantes . . . . . . . . . . . . . . . . 76
2.3. Cálculo de determinantes usando propiedades . . . . . . . . . 87
2.4. Matrices invertibles y determinantes. Determinante de un pro-
ducto de matrices . . . . . . . . . . . . . . . . . . . . . . . . . 89
2.5. Factorización LU y determinantes . . . . . . . . . . . . . . . . 97
2.6. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . 100
2.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102

3. Espacios vectoriales 105


3.1. De…niciones, ejemplos y propiedades básicas . . . . . . . . . . 105
3.2. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
3.3. Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . 111
3.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
3.5. Espacios generados . . . . . . . . . . . . . . . . . . . . . . . . 115
3.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
3.7. Dependencia e independencia lineal . . . . . . . . . . . . . . . 121
3.8. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
3.9. Bases y dimensión . . . . . . . . . . . . . . . . . . . . . . . . 128
3.9.1. Dimensión de los subespacios . . . . . . . . . . . . . . 135
3.10. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
3.11. Bases ordenadas y el vector de coordenadas . . . . . . . . . . 137
3.11.1. Cambio de coordenadas . . . . . . . . . . . . . . . . . 139
3.11.2. Forma simple de determinar si un conjunto de vectores
es linealmente dependiente o no . . . . . . . . . . . . . 142
3.12. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
3.13. Suma y suma directa de subespacios . . . . . . . . . . . . . . 145
3.14. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150

4. Transformaciones lineales 152


4.1. De…niciones, ejemplos y propiedades básicas . . . . . . . . . . 152
4.1.1. Transformaciones lineales especiales . . . . . . . . . . . 154
4.2. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
4.3. El espacio vectorial de las transformaciones lineales . . . . . . 159
4.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
4.5. El núcleo y la imagen de una transformación lineal; el teorema
de la dimensión. . . . . . . . . . . . . . . . . . . . . . . . . . . 162

ii
4.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
4.7. Transformaciones inyectivas y suprayectivas; isomor…smos y
transformaciones inversas. . . . . . . . . . . . . . . . . . . . . 166
4.8. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
4.9. Rango . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
4.9.1. Rango y consistencia . . . . . . . . . . . . . . . . . . . 179
4.9.2. Rango y determinantes . . . . . . . . . . . . . . . . . . 182
4.10. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
4.11. Los cuatro espacios fundamentales de una matriz; sus bases y
dimensiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
4.12. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
4.13. Rango de un producto de matrices . . . . . . . . . . . . . . . 196
4.14. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
4.15. Espacios cociente . . . . . . . . . . . . . . . . . . . . . . . . . 199
4.16. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203

iii
CAPÍTULO 1

Sistemas de ecuaciones lineales

Se usará a lo largo de estas notas la notación K para representar un


campo arbitrario. A los elementos de K se les llama escalares.
Este capítulo trata sobre los sistemas de ecuaciones lineales y sus solu-
ciones mediante operaciones elementales renglón en matrices. Proporciona al
alumno una idea de los orígenes del álgebra lineal y las técnicas de cálculo
necesarias.

1.1. De…niciones y propiedades básicas


Sea K un campo. Empezamos con la siguiente ecuación lineal simple:
ax = b; (1.1)
donde a y b 2 K. Si a 6= 0, entonces la ecuación (1.1) tiene en K la solución
única
x = a 1 b:
A continuación, supongamos que deseamos resolver el siguiente sistema de
dos ecuaciones lineales en K 2 :
ax + by = p
(1.2)
cx + dy = q;
donde a; b; c; d; p y q 2 K. Supongamos ahora que K = R, el campo de los
números reales. Hay al menos dos formas de buscar las soluciones: geométrica
y algebraicamente.

1
2

Geométricamente
Es bien sabido que ambas ecuaciones son ecuaciones de líneas en el plano
xy. Por lo tanto, las soluciones del sistema en el plano xy son los puntos de
intersección de las dos líneas. De este modo, podemos distinguir los tres casos
siguientes:

Caso 1 Las dos líneas se intersecan en exactamente un punto (x0 ; y0 ). Este


es el caso donde las pendientes de las dos líneas no son las mismas.
Esto es,
a c a c
6= o 6= :
b d b d
En este caso el sistema tiene una solución única (x0 ; y0 ):

Caso 2 Las dos líneas son paralelas y distintas, que ocurre cuando
a c p q
= y 6= :
b d b d
En este caso no hay intersección y el sistema no tiene solución.

Caso 3 Las dos líneas coinciden, que ocurre cuando


a c p q
= y = :
b d b d
En este caso hay un número in…nito de puntos de intersección y por
consiguiente, hay un número in…nito de soluciones.

Algebraicamente
Algebraicamente, podemos resolver el sistema (1.2) por al menos dos
métodos: el método de sustitución y el método de eliminación. Para el méto-
do de sustitución, despejamos una de las dos variables de la primera ecuación
en (1.2) y la sustituimos en la segunda ecuación de la siguiente manera:
a p
y= x+ ; (1.3)
b b
siempre que b 6= 0 y luego sustituyendo la expresión (1.3) en la segunda
ecuación de (1.2), encontramos

(ad bc)x = pd bq (1.4)


3

Está claro que si


ad bc 6= 0;
entonces el sistema (1.2) tiene una solución única. Por otro lado, si ad bc = 0
y pd bq 6= 0, entonces la ecuación (1.4) muestra que el sistema (1.2) no tiene
solución. Finalmente, si ad bc = 0 y pd bq = 0, entonces el sistema (1.2)
tiene un número in…nito de soluciones.
Por lo tanto, como hemos dicho anteriormente, la ecuación. (1.1) tiene
una solución única si y solo si
a 6= 0:
Por otro lado, el sistema (1.2) tiene una solución única si y solo si

ad bc 6= 0:
Entonces, la pregunta ahora es ¿qué pasa si tenemos un sistema 3 3 o
en general un sistema n n?
¿Podemos discutir siempre la existencia de soluciones en términos de rela-
ciones similares entre los coe…cientes? Y si es así, ¿cómo podemos encontrar
tales relaciones en general? Como veremos más adelante, la respuesta a la
pregunta anterior nos lleva al estudio del álgebra de matrices.

1.2. Matrices
Las matrices surgen al considerar sistemas de ecuaciones lineales

m11 x1 + m12 x2 + + m1` x` = b1


m21 x1 + m22 x2 + + m2` x` = b2
..
.
mk1 x1 + mk2 x2 + + mk` x` = bk :

donde los coe…cientes mij ; bi 2 A, con A un anillo conmutativo con identi-


dad. Una de las técnicas más fundamentales para encontrar las soluciones
de un sistema de ecuaciones lineales es mediante la eliminación de variables.
Por ejemplo, suponga se desea resolver el siguiente sistema de ecuaciones
diofantinas con coe…cientes en el anillo Z,

2x1 x2 + x3 = 0
x1 + 3x2 + 4x3 = 0:
4

Si añadimos 2 veces la segunda ecuación a la primera obtenemos


7x2 7x3 = 0
o x2 = x3 . Si añadimos 3 veces la primera ecuación a la segunda ecuación,
obtenemos que
7x1 + 7x3 = 0
o x1 = x3 . Así, concluimos que si x1 ; x2 ; x3 es una solución entonces x1 =
x2 = x3 . Recíprocamente, se puede veri…car que cualquier tripleta de este
tipo es una solución. De este modo, el conjunto de soluciones consiste de las
tripletas ( n; n; n); n 2 Z.
En realidad no hay necesidad de continuar escribiendo las variables ya
que se calcula solo con los coe…cientes, multiplicando por los elementos del
anillo A. Abreviamos el sistema como un arreglo rectangular, que se llama
matriz de 2 4 = número de renglones número de columnas:
2 1 1 j 0
:
1 3 4 j 0
Introducimos la de…nición de matriz y de diferentes tipos de matrices:
matriz cuadrada, matriz diagonal, matriz identidad, matriz cero.

De…nición 1.2.1 Sea A un anillo conmutativo con identidad. Los elementos


de A son llamados escalares. Una matriz k ` sobre A es una función M
del conjunto de los pares (i; j); 1 i k; 1 j ` en A. Los elementos de
la matriz M son los escalares M (i; j) = mij .
Con frecuencia es conveniente describir la matriz disponiendo sus elemen-
tos en un arreglo rectangular con k renglones y ` columnas encerrados entre
paréntesis o entre corchetes:
0 1
m11 m12 m1j m1`
Bm21 m22 m2j m2` C
B . .. .. .. C
B . ..
.
..
. C
B . . . . C
M =B C:
B mi1 mi2 mij mi` C
B . .. .. .. .. .. C
@ .. . . . . . A
mk1 mk2 mkj mk`
El renglón i-ésimo de M; 1 i k es:
Mi = mi1 mi2 mij mi` :
5

La columna j-ésimade M; 1 j ` es:


0 1
m1j
Bm2j C
B . C
B . C
B . C
Mj=B C:
B mij C
B . C
@ .. A
mkj
La colección de todas las matrices de k ` se denota como Ak ` o Mk ` (A).
Cuando la matriz tiene una sola columna (renglón) se llama vector columna
(renglón). Al conjunto de todos los vectores columna los denotamos como
A k = Ak 1 .
De forma abreviada nos referimos a una matriz de las manera siguientes:
(i) M = (mij ) para indicar que el elemento en la entrada ij es mij .
(ii) Si M 1 ; M 2 ; : : : ; M ` son las columnas de M , escribimos
M = [M 1 jM 2 j jM ` ] :

(iii) Si M1 ; M2 ; : : : ; Mk son los renglones de M , escribimos


2 3
M1
6 M2 7
6 7
M = 6 .. 7
4 . 5
Mk

Ejemplo 1.2.2 Sea 0 1


3 6 2 1
B 2 4 1 3C
M =B
@0
C
0 1 1A
1 2 1 0
una matriz en Z4 4 . Entonces
M1 = 3 6 2 1 :
0 1
6
B4C
M 2 = B C
@ 0 A:
2
6

El elemento m32 de M es m32 = 0.


Ejemplo 1.2.3 La matriz de 4 1
10
2
B1C
M =B
@ 5A
C

1
es un vector columna y la matriz de 1 4
M= 1 2 1 9
es un vector renglón.
Comentario 1.2.4 Ya que las matrices son funciones, dos matrices M =
(mij ) y N = (nij ) son iguales si
(a) M y N son del mismo tamaño.
(b) mij = nij en A para todo i; j.
Ejemplo 1.2.5
4 1 5 1+3 1 2+3
= :
2 3 0 2 1 4 6 6
Los elementos m11 ; m22 ; : : : forman la diagonal principal de la matriz
(mij ). Una matriz n n es llamada una matriz cuadrada. Una matriz cuadra-
da n n con mij = 0 para todo i 6= j es llamada una matriz diagonal. La
matriz identidad In es la matriz diagonal n n con 1A en cada entrada de
la diagonal principal, esto es, In = ( ij ) donde es la delta de Kornecker:
para cualquier conjunto de índices I y anillo conmutativo A con identidad el
símbolo
1A si i = j
ij =
0 si i 6= j;
para todo i; j 2 I. Por ejemplo,
0 1
1 0 0
I3 = @0 1 0A :
0 0 1
Las matrices k ` con todas las entradas cero son llamadas matrices cero,
denotadas 0,
0 0 0
0= :
0 0 0
7

1.3. Ejercicios
1. Determine el tamaño de la siguiente matriz en Z
0 1
1 1 6 4
M = @0 1 2 8A
0 0 0 1

y los elementos m13; m23 y m32 . Escriba la diagonal principal de A.

2. Escriba la matriz 0 de 2 3 y la matriz identidad I4 .

3. Una submatriz de una matriz M es una matriz que se obtiene elimi-


nando renglones y columnas de M . Sea
0 1
1 1 3 2
B3 5 7 2C
M =B C
@1 2 9 8A :
4 0 2 2

Escriba las submatrices de M que se obtienen eliminando los renglones


y columnas indicados:

a) Los renglones primero y tercero.


b) Los renglones uno y tres y la columna tres.
c) Los renglones 2 y 3 y las columnas 1 y 2.

1.4. El espacio vectorial de las matrices


Para hacer del conjunto de matrices Mk ` (A) de tamaño k ` un espacio
vectorial, introducimos las operaciones siguientes sobre una matriz.

De…nición 1.4.1 Sean M = (mij ) y N = (nij ) 2 Mk ` (A). Entonces


(i) Suma M + N = (mij + nij ) 2 Mk ` (A).
(ii) Multiplicación por un escalar a 2 A; aM = (amij ) 2 Mk ` (A):
8

Ejemplo 1.4.2 Sean


0 1
1 1 2
M = @ 3 4 5A
0 1 1
0 1
0 2 1
N = @3 0 5A
7 6 0
0 1
0 0 2
P = @3 1 0A
0 2 4

Entonces
0 1 0 1
1 21 0 4 2
M 2N = @ 3 4 A
5 + @ 6 0 10A
0 11 14 12 0
0 1
1 5 0
= @ 3 4 5A
14 13 1
y
0 1 0 1
3 3 6 0 0 2
3M P = @ A
9 12 15 + @ 3 1 0A
0 3 3 0 2 4
0 1
3 3 4
= @6 11 15 A :
0 5 7

De…nición 1.4.3 La matriz aIn es llamada una matriz escalar,


0 1
a 0 0
B0 a 0C
B C
aIn = B .. .. .. C :
@. . .A
0 0 a

Teorema 1.4.4 La estructura (Mk ` (A); +; 0) es un grupo abeliano.


9

Demostración Sean M = (mij ); N = (nij ) y P = (pij ) 2 Mk ` (A). En-


tonces, ya que A es un anillo conmutativo, se cumple también para las ma-
trices del mismo tamaño,

(i) Asociatividad:
(M + N ) + P = ((mij ) + (nij )) + (pij ))
= ((mij + nij ) + (pij ))
= ((mij ) + (nij + pij ))
= M + (N + P ):

(ii) Conmutatividad:
M + N = (mij + nij )
= (nij + mij )
= N + M:

(iii) Identidad o neutro para la suma:


M + 0 = (mij + 0)
= (mij )
= M:

(iv) Inverso aditivo:


M + ( M ) = (mij + ( mij )
= (0)
= 0:

Las propiedades de la multiplicación por un escalar son las que siguen.

Teorema 1.4.5 Sea A un anillo con identidad 1. Entonces para M = (mij ); N =


(nij ) 2 Mk ` (A) y a; b 2 A se cumple que:
(i) 1M = M .
(ii) (ab)M = a(bM ).
(iii) a(M + N ) = aM + aN .
(iv) (a + b)M = aM + bM .
10

Demostración (i) 1M = (1 mij ) = (mij ) = M .


(ii) (ab)M = ((ab)mij ) = (a(bmij )) = a(bM ).
(iii) a(M + N ) = (a(mij + nij )) = (amij + anij ) = (amij ) + (anij ) =
aM + aN .
(iv) (a + b)M = ((a + b)mij ) = (amij + bmij ) = (amij ) + (bmij ) =
aM + bM .
Sea (A; +; ; 0; 1) un anillo conmutativo con identidad. Una estructura
(M; +0 ; fa ; 00 ), donde +0 es una función binaria de M M en M; fa : M ! M
es una función unaria v ! a v, multiplicación por el escalar a 2 A, una
función fa por cada a 2 A y 00 un elemento distinguido de M es un A-
módulo si satisface los axiomas de la teoría de A-módulos:

1. (M; +0 ; 00 ) es un grupo abeliano.

2. 8x(1 x = x).

3. 8x8y(a (x +0 y) = a x +0 a y).

4. 8x((a + b) x = a x +0 b x).

5. 8x(a (b x) = (a b) x).

Si además, A es un campo, entonces los A-módulos son llamados espa-


cios vectoriales sobre A. De este modo, el conjunto de matrices Mk ` (A) de
tamaño k ` es un A-módulo y si A = K; K un campo, Mk ` (K) es un
K-espacio vectorial.

1.5. Ejercicios
0 1 0 1
4 8 2 4 7 1
@
1. Sean A = 5 7 3 A @
y B = 35 87 23 A en Z. Determine
1 9 9 14 59 29
(A + B)23 y ( 2A)13 .

2. Sea (G; +; 0G ) un grupo abeliano. Para n 2 Z, de…na la multiplicación


11

escalar fn : G ! G; g !
7 ng como
8
>
> g+ +g si n > 0
>
> | {z }
< n veces
ng = 0G si n = 0
>
> ( g) + + ( g) si n < 0:
>
>
: | {z }
jnj veces

Muestre que G con esta multiplicación escalar es un Z-módulo.

3. Suponga que (K; +; ; 0; 1) (F; +; ; 0; 1) son campos. Para x; y cua-


lesquiera en F y 2 K, de…na

x y = x+y
x = x:

Muestre que con estas operaciones de suma y multipicación escalar


, el campo F es un K-espacio vectorial.

1.6. Sistemas de ecuaciones lineales


Suponga que A es un anillo conmutativo con 1. Consideramos el problema
de encontrar n escalares (elementos de A) x1 ; : : : ; xn que satsifacen

m11 x1 + m12 x2 + + m1` x` = b1


m21 x1 + m22 x2 + + m2` x` = b2
..
. (1.5)
mk1 x1 + mk2 x2 + + mk` x` = bk :

donde b1 ; : : : ; bk y mij ; 1 i k; 1 j ` son elementos dados de A. Lla-


mamos a (1.5) un sistema de k ecuaciones lineales con ` incógnitas. Cualquier
`-tupla (x1 ; : : : ; x` ) de elementos de A que satisface cada una de las ecua-
ciones en (1.5) es llamada una solución del sistema. Si b1 = b2 = = bk = 0
decimos que el sistema es homogéneo.
Como dijimos antes, encontramos las soluciones a este sistema de ecua-
ciones “eliminando variables”, esto es, multiplicando ecuaciones por escalares
y luego añadiéndolas para producir ecuaciones en las que algunas de las xj
no están presentes.
12

Para el sistema (1.5) suponga que seleccionamos k escalares c1 ; : : : ; ck ,


multiplicamos la ecuación j-ésima por cj y luego las añadimos. Obtenemos
la ecuación

(c1 m11 + c2 m21 + + ck mk1 )x1 + (c1 m12 + c2 m22 + + ck mk2 )x2 +
+(c1 m1` + c2 m2` + + ck mk` )x`
= c 1 b1 + c 2 b2 + + c k bk :

Llamamos a esta ecuación una combinación lineal de las ecuaciones en


(1.5). Evidentemente cualquier solución del sistema completo de ecuaciones
(1.5) será una solución también de esta ecuación nueva. Esta es la idea fun-
damental del proceso de eliminación.
Si tenemos otro sistema lineal de ecuaciones

n11 x1 + n12 x2 + + n1` x` = c1


n21 x1 + n22 x2 + + n2` x` = c2
..
. (1.6)
nm1 x1 + nm2 x2 + + nm` x` = cm :

en el que cada una de las m ecuaciones es una combinación lineal de las


ecuaciones en (1.5), entonces cada solución de (1.5) es una soluciónde este
sistema nuevo. Sin embargo, puede suceder que algunas soluciones de (1.6)
no sean soluciones de (1.5) . Eso no sucede si cada ecuación en el sistema
original es una combinación lineal de las ecuaciones en el sistema nuevo.

De…nición 1.6.1 Dos sistemas de ecuaciones lineales S1 y S2 son equiva-


lentes si cada ecuación de S1 es una combinación lineal de las ecuaciones en
S2 y cada ecuación de S2 es una combinación lineal de las ecuaciones en S1 .

Ejemplo 1.6.2 Los sistemas de ecuaciones lineales siguientes, sobre el cam-


po Q de los números racionales, son equivalentes:

E1 : 2x1 + 6x2 + 6x3 + 2x4 = 2 E10 : x1 + 3x2 + 3x3 + x4 = 1


E2 : 5x1 + 3x2 + 3x3 + 5x4 = 5 E20 : x2 + x3 = 0
E3 : 4x1 + 4x4 = 4
13

ya que
1
E1 = 2E10 + 0E20 E10 = E1 + 0E2 + 0E3
2
5 1
E2 = 5E10 12E20 0
E2 = E1 E2 + 0E3
24 12
E3 = 4E10 12E20
Como los sistemas son equivalentes, el conjunto de soluciones es el mismo
para ambos sistemas.
Podemos resumir lo que hemos dicho.

Teorema 1.6.3 Sistemas de ecuaciones lineales equivalentes tienen exacta-


mente las mismas soluciones.
Lo recíproco no es cierto. Por ejemplo, considere los siguientes sistemas
de ecuaciones no equivalentes.
x1 + x2 + x3 = 0 x1 + 2x2 + 3x3 = 0
x1 + x2 + x3 = 4 x1 + 2x2 + 3x3 = 4:
Buscamos un sistema de ecuaciones equivalente al original pero que sea más
fácil de resolver.
En la formación de las combinaciones lineales vimos qe no hay necesidad
de seguir escribiendo las incógnitas x1 ; : : : ; xn ya que se opera únicamente
con los escalares mij y bj . El sistema (1.5) se abreviará como
Mx = b
donde M es la matriz k `,
0 1 0 1 0 1
m11 m12 m1j m1` x1 b1
Bm21 m22 m 2j m2` C Bx 2 C B b2 C
B . .. .. .. C B.C B.C
B . ... ... C B.C B.C
B . . . . C B.C B.C
M =B C;x = B C y b = B C:
B mi1 mi2 mij mi` C B xi C B bi C
B . . . .. .. .. C B.C B.C
@ .. .. .. . . . A @ .. A @ .. A
mk1 mk2 mkj mk` x` bk
M se llama la matriz de coe…cientes del sistema (1.5). Consideramos aho-
ra operaciones sobre los renglones de la matriz M que correspondan a la
formación de combinaciones lineales de las ecuaciones del sistema M x = b.
14

1.6.1. Operaciones elementales renglón


Sea A un anillo conmutativo con identidad y M una matriz con coe…-
cientes en A. Las operaciones elementales renglón sobre M son de tres tipos.

I Intercambio de los renglones r y s que denotamos con el símbolo Rrs .

II Multiplicación del renglón r de M por un escalar a 2 A , es decir por una


unidad del anillo A. Denotamos esta operación con el símbolo Rr (a).

III Al renglón r se le suma a veces el renglón s, donde a es cualquier escalar


a 2 A y el renglón r es distinto del renglón s. Representamos esta
operación como Rrs (a).

Una operación elemental renglón es una función e : Ak ` ! Ak l tal que


a cada matriz M de tamaño k ` le asocia una matriz e(M ) de tamaño k `
de la manera siguiente:

I e(M )ij = mij si i 6= r; s; e(M )rj = msj ; e(M )sj = mrj .

II e(M )ij = mij si i 6= r; e(M )rj = amrj ; a 2 A .

III e(M )ij = mij si i 6= r; e(M )rj = mrj + amsj .

Ejemplo 1.6.4 Sea el anillo A = Z5 . En cada uno de los casos se obtuvo la


matriz N de la matriz M realizando la operación elemental renglón indicada.
0 M 1 0 N 1
2 4 1 2 4 1
@ 4 0 A @
1 R23 3 1 3A
!
1=2 1 2 4 0 1
0 M 1 0 N 1
2 4 1 3 1 2 3 4
@4 0 A @
1 4 R1 (3) 4 0 1 4A
3 1 2 4 ! 3 1 2 4
M M
1 3 0 1 4 1 3 0 1 4
R21 ( 2) :
2 0 1 4 1 ! 0 4 4 2 3
Una razón por la que nos restringimos a estos tres tipos simples de ope-
raciones renglón es que, después de realizar dicha operación e en una matriz
M , podemos recapturar M realizando una operación similar en e(M ).
15

Teorema 1.6.5 A cada operación elemental renglón e le corresponde una


operación elemental renglón e1 , del mismo tipo de e, tal que e1 (e(M )) =
e(e1 (M )) = M para toda matriz M 2 Mk ` (A). En otras palabras, la fun-
ción inversa de una operación elemental renglón existe y es una operación
elemental renglón del mismo tipo.
Demostración Si la operación elemental renglón e es del tipo

I entonces e1 = e. Si es del tipo

II entonces e1 es la operación que multiplica el renglón r por a 1 . Finalmente,


si es del tipo

III entonces e1 reemplaza el renglón r por el renglón r mas el renglón s


multiplicado por a.

De…nición 1.6.6 Si M y N son dos matrices k ` sobre el anillo conmu-


tativo con identidad A, se dice que N es equivalente por renglones a M si
N se obtiene de M mediante una sucesión …nita de operaciones elementales
renglón.
Equivalencia por renglones es una relación de equivalencia.

Teorema 1.6.7 Si M y N son matrices equivalentes por renglones, entonces


los sistemas homogéneos de ecuaciones lineales M x = 0; N x = 0 tienen
exactamente las mismas soluciones.
Demostración Es su…ciente mostrar el teorema cuando N se obtiene de
M por medio de una sola operación elemental renglón. No importa cuál de
los tres tipos sea la operación, cada ecuación en el sistema N x = 0 será
una combinación lineal de las ecuaciones en el sistema M x = 0. Dado que
el inverso de una operación elemental renglón es una operación elemental
renglón, cada ecuación en M x = 0 también será una combinación lineal de
las ecuaciones en N x = 0. Por lo tanto, estos dos sistemas son equivalentes
y, por el teorema 1.6.3, tienen las mismas soluciones.

Ejemplo 1.6.8 Suponga que A = C y


0 1
1 i
A = @ i 3A :
1 2
16

Al realizar operaciones renglón, a menudo es conveniente combinar varias


operaciones de tipo III .
0 1 0 1 0 1 0 1
1 i 0 2+i 0 1 0 1
@ i 3A R13 (1) @0 3 + 2iA R1 1 @0 3 + 2iA R21 ( (3 + 2i)) @0 0A :
R23 (i) 2+i R31 ( 2)
1 2 ! 1 2 ! 1 2 ! 1 0
De este modo, el sistema de ecuaciones

x1 + ix2 = 0
ix1 + 3x2 = 0
x1 + 2x2 = 0

tiene solo la solución trivial x1 = x2 = 0.


En el ejemplo obviamente no estábamos realizando operaciones al azar.
Nuestra elección de operaciones renglón fue motivada por un deseo de sim-
pli…car la matriz de coe…cientes de manera análoga a “eliminar incógnitas”
en el sistema de ecuaciones lineales. Hagamos ahora una de…nición formal
del tipo de matriz a la que intentamos llegar.

De…nición 1.6.9 Una matriz se encuentra en forma escalonada por ren-


glones ( fer)si se cumplen las condiciones siguientes:
(i) Todos los renglones (si los hay) cuyos elementos son todos cero apare-
cen en la parte inferior de la matriz.
(ii) Si dos renglones sucesivos tienen elementos distintos de cero, entonces
el primer elemento distinto de cero en el renglón de abajo está más hacia la
derecha que el primer elemento distinto de cero en el renglón de arriba.
Una matriz en forma escalonada por renglones se ve de la siguiente mane-
ra, 0 1
B0 0 C
B C
B0 0 0 C
B C:
B0 0 0 0 0 0 C
B C
@0 0 0 0 0 0 0 0A
0 0 0 0 0 0 0 0

De…nición 1.6.10 Una matriz M está en la forma escalonada reducida por


renglones ( ferr) o forma normal de Hermite si
17

(i) M está en forma escalonda por renglones.


(ii) El primer elemento distinto de cero (comenzando por la izquierda) en
cualquier renglón no cero es 1.
(iii) Cualquier columna que contiene el primer 1 en un renglón, tiene
ceros en el resto de sus elementos.
Una matriz en forma escalonada reducida por renglones se ve así,
0 1
1 0 0 0
B0 0 1 0 0 C
B C
B0 0 0 1 0 C
B C
B0 0 0 0 0 0 1 C :
B C
@0 0 0 0 0 0 0 0 A
0 0 0 0 0 0 0 0
De…nición 1.6.11 El primer número diferente de cero en un renglón (si lo
hay) se llama pivote para ese renglón.

Ejemplo 1.6.12
0 1
2 1 3 2
@0 5=2 1=2 0A
0 0 0 1
fer
0 1
1 2 1 2
@0 0 0 0A
0 1 2 4
no fer
0 1
1 0 2 5
@0 1 3 6A
0 0 0 0
ferr
0 1
1 2 3 4
@0 1 1 1A :
0 0 1 3
no ferr

Ahora demostraremos que podemos pasar de cualquier matriz dada a una


matriz escalonada reducida por renglones, por medio de un número …nito de
operaciones elementales renglón. En combinación con el teorema 1.6.7, esto
nos proporcionará una herramienta e…caz para resolver sistemas de ecua-
ciones lineales.
18

Teorema 1.6.13 Cada matriz k ` sobre un campo K es equivalente por


renglones a una matriz en forma escalonada reducida por renglones.
Demostración Primero probamos que cualquier matriz es equivalente a una
matriz en fer. Si M = 0, entonces M ya está en la fer. Sea ahora M 6= 0
una matriz k ` sobre K. La prueba es por inducción sobre el número k de
renglones de la matriz M . Si k = 1, es claro. El proceso de reducción es el
siguiente:
I Encontrar el primer renglón (leyendo de arriba hacia abajo) tal que la
primera columna tenga un elemento distinto de cero. Llama a este ele-
mento el pivote. Si no existe vaya a la segunda columna, etc.
II Si este renglón no es el primer renglón intercámbielo con el primer renglón.
III Réstense múltiplos apropiados del primer renglón de los demás renglones
para hacer cero los elementos debajo del pivote.
IV Tache el primer renglón y la primera columna. La matriz resultante tiene
ahora k 1 renglones. Por hipótesis de inducción, por medio de ope-
raciones elementales renglón es equivalente a una matriz en fer. Lo
importante a tener en cuenta es esto: al llevar a cabo estas últimas
operaciones, no cambiaremos las entradas en el renglón 1.
La matriz resultante está ahora en fer.
Ahora, para cada renglón distinto de cero, haga 1 el pivote multiplicando
el renglón por una constante adecuada. Luego, réstense multiplos apropiados
del renglón de los demás renglones para hacer cero también los elementos
arriba del pivote.
La matriz resultante está ya en la ferr.

Ejemplo 1.6.14 Usando el procedimento descrito en la prueba del teorema


1.6.13, llevamos la matriz en Q
0 1
2 4 6 18
@4 5 6 24A
3 1 2 4
a su fer.
0 1 0 1 0 1
2 4 6 18 2 4 6 18 2 4 6 18
@4 R ( 2) 5
5 6 24A 21 @0 3 6 12A R32 ( ) @0 3 6 12A :
R31 ( 23 ) 3
3 1 2 4 ! 0 5 11 23 ! 0 0 1 3
19

Tomamos esta última matriz y la llevamos a su ferr:


0 1 0 1 0 1
2 4 6 18 R1 ( 12 ) 1 2 3 9 R12 ( 2) 1 0 0 4
@0 3 6 A 1 @
12 R2 ( 3 ) 0 1 2 4A R13 (1) @0 1 0 2A :
0 0 1 3 R3 ( 1) 0 0 1 3 R23 ( 2) 0 0 1 3
! !
Contaremos con dos métodos para resolver los sistemas de ecuaciones
lineales sobre un campo K:
M x = b:
Construimos la matriz aumentada (M jb) del sistema de ecuaciones escri-
biendo las ecuaciones ordenadamente.

Eliminación de Gauss Se reduce la matriz aumentada o la matriz de co-


e…cientes si b = 0, a la forma escalonada por renglones fer, se despeja
el valor de la última incógnita y después se usa sustitución hacia atrás
para las demás incógnitas.

Eliminación de Gauss-Jordan Se reduce la matriz aumentada o la matriz


de coe…cientes si b = 0, a la forma escalonada reducida por renglones
ferr.

Ejemplo 1.6.15 Resolvemos el sistema de ecuaciones lineales siguiente usan-


do el método de Gauss y el método de Gauss-Jordan.

2x1 + 4x2 + 6x3 = 18


4x1 + 5x2 + 6x3 = 24
3x1 + x2 2x3 = 4:

La matriz aumentada del sistema es


0 1
2 4 6 j18
@4 5 6 j24A :
3 1 2 j4

Del ejemplo 1.6.14, la fer de esta matriz es


0 1
1 2 3 j9
@0 1 2 j4A
0 0 1 j3
20

De este modo, el sistema de ecuaciones lineales original es equivalente la


sistema de ecuaciones lineales
x1 + 2x2 + 3x3 = 9
x2 + 2x3 = 4
x3 = 3:
Ahora usamos sustitución hacia atrás,
x2 + 2(3) = 4; x2 = 2
x1 + 2( 2) + 3(3) = 9; x1 = 4:
La solución es (4; 2; 3). Ahora, la ferr de la matriz aumentada (ejemplo
1.6.14) es 0 1
1 0 0 j4
@0 1 0 j 2A :
0 0 1 j3
Así, si usamos el método de eliminación de Gauss-Jordan, el sistema de
ecuaciones original es equivalente al sistema de ecuaciones lineales
x1 = 4
x2 = 2
x3 = 3;
del cual podemos leer directamente que la solución es (4; 2; 3).

Ejemplo 1.6.16 La matriz aumentada del sistema de ecuaciones lineales


2x2 + 3x3 = 4
2x1 6x2 + 7x3 = 15
x1 2x2 + 5x3 = 10
es 0 1
0 2 3 j4
@2 6 7 j15A :
1 2 5 j10
La ferr de esta matriz es
0 1
1 0 8 j15
@0 1 3=2 j5=2 A :
0 0 0 j 1
21

La última ecuación es
0x1 + 0x2 + 0x3 = 1:
Así, el sistema no tiene solución.

De…nición 1.6.17 Un sistema de ecuaciones lineales que no tiene solu-


ciones se dice que es inconsistente. Si tiene al menos una solución, decimos
que el sistema de ecuaciones lineales es consistente.

Ejemplo 1.6.18 El método de Gauss o Gauss-Jordan, a veces, funciona so-


bre anillos que no son campos. Por ejemplo suponga que deseamos resolver
en el anillo de los enteros Z el sistema de ecuaciones lineales diofantinas
siguientes
x1 + 3x2 5x3 + x4 = 4
2x1 + 5x2 2x3 + 4x4 = 6:
Entonces, la matriz aumentada del sistema de ecuaciones lineales es
1 3 5 1 j4
:
2 5 2 4 j6
El proceso de reducción a la ferr de la matriz aumentada es
1 3 5 1 j4 1 3 5 1 j4
R21 ( 2)
2 5 2 4 j6 ! 0 1 8 2 j 2
1 3 5 1 j4 1 0 19 7 j 2
R2 ( 1) R12 ( 3) :
! 0 1 8 2 j2 ! 0 1 8 2 j2
En este caso, existe un número in…nito de soluciones en Z. Los valores de
las variables x3 y x4 se pueden escoger de manera libre (2 grados de libertad).
Entonces
x1 = 2 19x3 7x4
x2 = 2 + 8x3 + 2x4 :
Así que, si x3 = z1 2 Z y x4 = z2 2 Z arbitrarios, las soluciones se represen-
tan por
( 2 19z1 7z2 ; 2 + 8z1 + 2z2 ; z1 ; z2 ):
Por ejemplo si z1 = 1 y z2 = 2 se obtiene la solución
( 35; 14; 1; 2):
22

De…nición 1.6.19 Las variables correspondientes a las posiciones pivotales


se llaman variables básicas y las variables que corresponden a las posiciones
no pivotales se llaman variables libres.
Hemos visto que para los sistemas consistentes hay dos posibilidades. Los
sistemas de ecuaciones consistentes con una sola solución se llaman determi-
nados y con más de una solución, indeterminados.

1.6.2. Sistemas de ecuaciones homogéneos


Para el sistema general de ecuaciones lineales homogéneo
m11 x1 + m12 x2 + + m1` x` = 0
m21 x1 + m22 x2 + + m2` x` = 0
..
.
mk1 x1 + mk2 x2 + + mk` x` = 0:
siempre tenemos la solución trivial x1 = x2 = = x` = 0.
Considere ahora el sistema Rx = 0 donde R es una matriz escalonada
reducida por renglones de tamaño k `. Suponga que los renglones 1; : : : ; r
son distintos de cero y que el pivote del renglón i está en la columna ci . Si
u1 ; : : : ; u` r representan las (` r) variables libres que son diferentes de las
variables básicas xc1 ; : : : ; xcr entonces las r ecuaciones no triviales de Rx = 0
tienen la forma
X
` r
x c1 + n1j uj = 0
j=1
..
.
X
` r
x cr + nrj uj = 0:
j=1

Todas las soluciones del sistema de ecuaciones Rx = 0 se obtienen dando


valores arbitrarios a u1 ; : : : ; ur y calculando entonces los valores correspon-
dientes de xc1 ; : : : ; xcr . Observamos una cosa más en relación con el sistema
Rx = 0. Si r < ` entonces tiene una solución no trivial, ya que existen varia-
bles libres y podemos elegir alguna variable libre xj que no esté entre las r
variables básicas xc1 ; : : : ; xcr y se puede construir una solución en que este
xj es 1.
23

Teorema 1.6.20 Si M es una matriz k ` con k < `, el sistema homogéneo


M x = 0 tiene una solución distinta de la solución trivial.
Demostración Sea R la matriz escalonada reducida por renglones equiv-
alente a M . Entonces los sistemas M x = 0 y Rx = 0 tienen las mismas
soluciones. Si r es el número de renglones distintos de cero de R, entonces
r k < `. De las observaciones anteriores Ax = 0 tiene una solución no
trivial.

Teorema 1.6.21 Si M es una matriz cuadrada k k, entonces M es equiv-


alente por renglones a la matriz identidad k k si y solo si el sistema de
ecuaciones M x = 0 tiene únicamente la solución trivial.
Demostración Si M es equivalente por renglones a Ik , entonces M x = 0 e
Ik x = 0 tienen las mismas soluciones.
Recíprocamente, suponga que M x = 0 tiene únicamente las solución tri-
vial x = 0. Sea R la matriz en forma escalonada reducida de k k que es
equivalente por renglones a M y sea r el número de renglos distintos de cero
de R. Entonces Rx = 0 no tiene ninguna solución no trivial. De este modo
r k y ya que R tiene k renglones, r k y de aquí tenemos que r = k.
Como esto signi…ca que R en realidad tiene un 1 como pivote en cada
uno de sus renglones y dado que estos 1 ocurren en columnas diferentes, R
debe ser la matriz identidad k k.

1.6.3. Sistemas de ecuaciones no homogéneos


Preguntemos ahora qué operaciones elementales renglón hacer para re-
solver un sistema de ecuaciones lineales M x = b; M de k `, que no es
homogéneo (b 6= 0). Una diferencia básica entre este sistema y uno homogé-
neo es que, mientras que el sistema homogéneo siempre tiene la solución
trivial x1 = = x` = 0, un sistema no homogéneo no necesariamente tiene
alguna solución.
Formamos la matriz aumentada M 0 = (M jb) del sistema M x = b. Esta
es una matriz de k (` + 1) cuyas ` primeras columnas son las columnas de
M y cuya última columna es b. Más precisamente,

m0ij = mij , si j `
m0i;`+1 = bi :
24

Suponga que realizamos una sucesión de operaciones elementales renglón so-


bre M obteniendo una matriz R en forma escalonada reducida por renglones.
Si desarrollamos la misma sucesión de operaciones renglón sobre la matriz
aumentada M 0 , obtenderemos una matriz R0 cuyas primeras ` columnas son
las columnas de R y cuya última columna d contiene ciertos escalares
0 1
d1
B .. C
d=@.A
dk
que resultan de aplicar la sucesión de operaciones elementales a b.
Igual que en la prueba del teorema 1.6.7, los sistemas M x = b y Rx = d
son equivalentes y de aquí tienen las mismas soluciones. Es muy fácil de-
terminar si el sistema Rx = d tiene soluciones o no y determinar todas las
soluciones si existen. Porque si R tiene r renglones distintos de cero, con el
pivote ocurriendo en la columna ci ; i = 1; : : : ; r, entonces las primeras r ecua-
ciones de Rx = d expresan xc1 ; : : : ; xcr en términos de las restantes (` r)
variables xj y los escalares d1 ; : : : ; dr . Las últimas (k r) ecuaciones son
0 = dr+1
..
.
0 = dk:
En consecuencia, la condición para que el sistema tenga una solución es di = 0
para i > r. Si se cumple esta condición, todas las soluciones al sistema se
encuentran como en el caso homogéneo, asignando valores arbitrarios a (` r)
de la xj y luego calculando xci a partir de la i-ésima ecuación.

Ejemplo 1.6.22 Sea K = Q el campo de los números racionales y


0 1
1 2 1
M = @2 1 1 A:
0 5 1
Suponga que deseamos resolver el sistema M x = b para algunos b1 ; b2 y b3 .
La forma escalonada reducida por renglones de la matriz aumentada
0 1
1 2 1 j b1
M = @2 1
0
1 j b2 A
0 5 1 j b3
25

es 0 1
3
1 0 5
j 15 (b1 + 2b2 )
@0 1 1
j 15 (b2 2b1 ) A :
5
0 0 0 j b3 b2 + 2b1
Por lo tanto, la condición para que el sistema M x = b tenga solución es que

2b1 b2 + b3 = 0

y si los escalares dados bi satisfacen esta condición, todas las soluciones son
obtenidas asignándoles un valor q a x3 y luego calculando
3 1
x1 = q + (b1 + 2b2 )
5 5
1 1
x2 = q + (b1 + 2b2 ):
5 5

1.7. Ejercicios
1. Sea K = C el campo de los números complejos. ¿Son equivalentes los
dos sistemas de ecuaciones lineales siguientes? Si lo son, exprese cada
ecuación en cada sistema como una combinación lineal de las ecuaciones
en el otro sistema.

x1 + x2 + 4x3 = 0 x1 x3 = 0
x1 + 3x2 + 8x3 = 0 x2 + 3x3 = 0
1 5
x1 + x2 + x3 = 0
2 2

2. Demostrar que si dos sistemas homogéneos de ecuaciones lineales con


dos incógnitas tienen las mismas soluciones, son equivalentes.

3. Demuestre que el intercambio de dos renglones de una matriz se puede


lograr mediante una sucesión …nita de operaciones elementales renglón
de los otros dos tipos.

4. Muestre que la forma escalonada por renglones de una matriz M de


k ` no es única.
26

5. Se puede describir una matriz R de k ` en forma escalonada reducida


por renglones como sigue. Ya sea R = 0 o existe un entero positivo
r; 1 r k y r enteros postivos c1 ; : : : ; cr con 1 ci ` y

rij = 0 para i > r y rij = 0 si j < ci


ricj = ij ; 1 i r; 1 j r
c 1 < c2 < < cr :

Muestre que la forma escalonada reducida por renglones de una matriz


M de k ` es única.

6. Describa explícitamente todas las matrices 2 2 en forma escalonada


reducida por renglones.

7. Sea 0 1
3 1 2
@
M= 2 1 1A :
1 3 0
¿Para qué b tiene una solución el sistema M x = b?

8. Sea 0 1
3 6 2 1
B 2 4 1 3C
M =B
@0
C
0 1 1A
1 2 1 0
¿Para qué b tiene solución el sistema M x = b?

9. Construya los siguientes sistemas de ecuaciones lineales:

a) Un sistema homogéneo de cuatro ecuaciones y cinco incógnitas


cuya solución general sea:
0 1 0 1 0 1 0 1
x1 1 1 0
Bx 2 C B1C B0C B 0C
B C B C B C B C
Bx3 C = x2 B0C + x4 B 2 C + x5 B 1C
B C B C B C B C:
@x 4 A @0A @1A @ 0A
x5 0 0 1
27

b) Un sistema no homogéneo de cuatro ecuaciones y cinco incógnitas


cuya solución general sea:
0 1 0 1 0 1 0 1 0 1
x1 1 1 1 0
Bx2 C B0C B1C B0C B0C
B C B C B C B C B C
Bx3 C = B1C + x2 B0C + x4 B 2 C + x5 B 1C :
B C B C B C B C B C
@x4 A @0A @0A @1A @0A
x5 0 0 0 1

1.8. Multiplicación de Matrices. El álgebra


de las matrices cuadradas
El proceso de formar combinaciones lineales de los renglones de una matriz
es fundamental. Por esta razón, es ventajoso introducir un esquema sistemáti-
co para indicar exactamente qué operaciones se deben realizar. Más especí…-
camente, suponga que N es una matriz de ` s sobre un anillo conmutativo
con identidad A con renglones N1 ; N2 ; : : : ; N` y que de N construimos
una matriz P con renglones P1 ; P2 ; : : : ; Pk formando ciertas combinaciones
lineales
Pi = mi1 N1 + mi2 N2 + + mi` N` : (1.7)
Los renglones de la matriz P están dados por los k ` escalares nij que son
las entradas de un matrix P de tamaño k `. Si expandimos (1.7)
Pi = (pi1 ; pi2 ; : : : ; pis )
!
X̀ X̀ X̀
= mir nr1 ; mir nr2 ; : : : ; mir nrs :
r=1 r=1 r=1

vemos que las entradas de N están dadas por



pij = mir nrj :
r=1

De…nición 1.8.1 Sean M una matriz de k ` y N una matriz de ` s sobre


el anillo conmutativo con identidad A. El producto M N es la matriz P de
k s cuya entrada ij es

pij = mir nrj :
r=1
28

Ejemplo 1.8.2 Multiplicamos0algunas 1


matrices en el anillo de los enteros
1 4 1
1 0 2
(a) M = ; N = @2 1 1A. Entonces
3 0 1
3 0 1

P1 = (7; 4; 3) = 1 (1; 4; 1) + 0 (2; 1; 1) + 2 (3; 0; 1)


P2 = (6; 12; 14) = 3 (1; 4; 1) + 0 (2; 1; 1) + 1 (3; 0; 1)

y por lo tanto,
7 4 3
MN = P = :
6 12 4
2 1 1
(b) M = ;N = . En este caso,
5 4 6
P1 = 2 1+1 6=8
P2 = 5 1 + 4 6 = 29

y así,
8
MN = P = :
29

Comentario 1.8.3 Es importante observar que el producto de dos matri-


ces no necesariamente está de…nido; el producto está de…nido si y solo si el
número de columnas en la primera matriz coincide con el número de ren-
glones en la segunda matriz. De este modo, en el ejemplo anterior, no tiene
sentido intercambiar el orden de los factores, pues N M no está de…nido.
Note también que si M una matriz de k ` y N una matriz de ` s;entonces
P = M N es una matriz de k s. En resumen para poder multiplicar dos
matrices M y N , en ese orden

número de columnas de M = número de renglones de N

y el tamaño del producto M N es

k 6` 6` s=k s

Ejemplo 1.8.4 (a) Si I es la matriz identidad k k y M es una matriz


k `, entonces IM = M .
(b) Si I es la matriz identidad ` ` y M es una matriz k `, entonces
MI = M.
29

(c) Si 0 es la matriz cero de m k y M es una matriz k ` entonces


0M = 0 es la matriz cero de m `.
(d) Sea M una matriz de k ` sobre el anillo conmutativo con identidad
A. Nuestra notación abreviada anterior M x = b para un sistema de ecua-
ciones lineales es consistente con nuestra de…nición de productos de matrices.
Porque si 0 1
x1
Bx 2 C
B.C
B.C
B.C
x = B C;
B xi C
B.C
@ .. A
x`
entonces M x es la matriz de k 1
0 1
m11 x1 + m12 x2 + + m1` x`
B m21 x1 + m22 x2 + + m2` x` C
B .. C
B C
B . C
B C:
B mi1 x1 + mi2 x2 + + mi` x` C
B .. C
@ . A
mk1 x1 + mk2 x2 + + mk` x`

En términos de las columnas de la matriz M , el producto es

M x = x1 M 1 + x2 M 2 + + x` M ` :

Ya que M x = b, decimos que b es una combinación lineal de las columnas


de M . De este modo, el sistema de ecuaciones lineales tiene al menos una
solución si y solo si podemos escribir b como una combinación lineal de las
columnas de M .
Note que si de…nimos el producto escalar, punto o interno de dos vectores
0 1 0 1
m1 n1
B m2 C B n2 C
B C B C
m = B .. C y n = B .. C
@ . A @.A
mk nk
30

como m n = m1 n1 + m2 n2 + + mk nk o bien
0 1
n1
B n2 C
B C
m1 m2 mk B .. C = m1 n1 + m2 n2 + + mk nk ;
@.A
nk
entonces si P = M N ,
pij = (renglón i de M ) (columna j de N )
1 3 3 2
Ejemplo 1.8.5 Sean M = y N = . Entonces, si P =
2 4 5 6
MN,
p11 = (renglón 1 de M) (columna 1 de N ) = 3 + 15 = 18
p12 = (renglón 1 de M) (columna 2 de N ) = 2 + 18 = 16
p21 = (renglón 2 de M) (columna 1 de N ) = 6 + 20 = 14
p22 = (renglón 2 de M) (columna 2 de N ) = 4 + 24 = 28:
Así,
18 16
P = MN = :
14 28
De modo similar,
7 1
NM = :
7 39
Note que M N 6= N M .

De…nición 1.8.6 Si M N = N M decimos que M y N conmutan.


A pesar de que un producto de matrices depende del orden en que se
escriben los factores, es independiente de la forma en que están asociados.

Teorema 1.8.7 Sean M; N y P matrices tales que tiene sentido el producto


o la suma indicada y sea a 2 A, un escalar.
(i) Asociatividad: M (N P ) = (M N )P . De aquí, podemos escribir M N P .
(ii) Distributividad:
M (N + P ) = M N + M P
(M + N )P = M P + N P:
(iii) Compatibilidad: a(M N ) = (aM )N = M (aN ).
31

Demostración (i) Por de…nición


X
[M (N P )]ij = mir (N P )rj
r
!
X X
= mir nrs psj
r s
XX
= mir (nrs psj )
r s
XX
= (mir nrs )psj
s r
!
X X
= (mir nrs ) psj
s r
X
= (M N )is psj
s
= [(M N )P ]ij :

(ii) Tenemos que


X
[M (N + P )]ij = mir (nrj + prj )
r
X
= mir nrj + mir prj
r
X X
= mir nrj + mir prj
r r
= (M N )ij + (M P )ij
= [M N + M P ]ij :

La otra ley distributiva, (M +N )P = M P +N P se prueba de manera similar.


(iii) El resultado se obtiene de las igualdades siguientes
X X X
a mir nrj = a(mir nrj ) = mir (anrj ):
r r r

Cuando M es una matriz cuadrada k k, el producto M M está de…nido.


Denotamos esta matriz por M 2 . Por el teorema anterior, (M M )M = M (M M )
32

o M 2 M = M M 2 , así que el producto M M M está de…nido sin ambigüedad.


Denotamos este producto por M 3 . En general, el producto

M
| M{z M}
r-veces

está de…nido sin ambigüedad y será denotado como M r .


Dado un sistema de ecuaciones lineales M x = b(b 6= 0), su sistema ho-
mogéneo asociado se de…ne como M x = 0.

Teorema 1.8.8 Sea M x = b un sistema de ecuaciones lineales.


(i) Sean x1 ; x2 soluciones del sistema M x = b, entonces x1 x2 es una
solución del sistema homogéneo asociado M x = 0.
(ii) Sean x; y soluciones de M x = b. Entonces existe h, solución de M x =
0, tal que y = x + h.
Demostración (i) M (x1 x 2 ) = M x1 M x2 = b b = 0.
(ii) Tome h = y x.

Ejemplo 1.8.9 Considere el siguiente sistema de ecuaciones lineales

x1 + 2x2 x3 = 2
2x1 + 3x2 + 5x3 = 5
x1 3x2 + 8x3 = 1:

Entonces la matriz aumentada del sistema de ecuaciones lineales es


0 1
1 2 1 j2
(M jb) = @ 2 3 5 j5A :
1 3 8 j1
La ferr de (M jb) es igual a
0 1
1 0 13 j4
@0 1 7 j 1A :
0 0 0 j0
De aquí, el sistema de ecuaciones original es equivalente al sistema de ecua-
ciones linelaes

x1 + 13x3 = 4
x2 7x3 = 1:
33

Las variables básicas son x1 y x2 . La única variable libre es x3 . Haciendo


x3 = a vemos que todas las soluciones del sistema de ecuaciones son

(4; 1; 0) + a( 13; 7; 1)
(4 13a; 1 + 7a; a) = | {z } | {z } :
solución particular solución del sistema homogéneo asociado

Sea (A; +; ; 0; 1) un anillo conmutativo con identidad. Una estructura


0
(M; +0 ; 0 ; fa ; 00 ), donde +0 es una función binaria de M M en M , es una
función binaria de M M en M; fa : M ! M es una función unaria v ! a v,
multiplicación por el escalar a 2 A, una función fa por cada a 2 A y 00 es
un elemento distinguido de M , es una A-álgebra o una álgebra sobre A si
satisface los axiomas de la teoría de A-álgebras:

1 (M; +0 ; fa ; 00 ) es un A-módulo.

2. (M; +0 ; 0 ; 00 ) es un anillo.

3. 8x8y(a (x 0 y) = (a x) 0 y = x 0 (a y)).

De la de…nición del producto, para matrices cuadradas k k cualesquiera


M; N el producto M N está de…nido y es una matriz cuadrada. En vista del
teorema 1.8.7 si (A; +; ; 0; 1) un anillo conmutativo con identidad, entonces
(Mk k (A); +; ; fa ; 0) es una A-álgebra. Como anillo (Mk k (A); +; ; 0; Ik ) es
un anillo con identidad no necesariamente conmutativo.

1.8.1. Matrices elementales


Si N es una matriz dada y P se obtiene de N por medio de operaciones
elementales renglón, entonces cada renglón de P es una combinación lineal
de los renglones de N y de aquí existe una matriz M tal que M N = P . En
general existen muchas de tales matrices M y entre todas es conveniente y
posible escoger una teniendo un número de propiedades especiales. Antes de
entrar en esto, necesitamos introducir una clase de matrices.

De…nición 1.8.10 Una matriz k k es llamada una matriz elemental si


puede ser obtenida de la matriz identidad Ik a través de una sola operación
elemental renglón.
34

Ejemplo 1.8.11 Una matriz elemental de 2 2 es necesariamente una de


las siguientes:
0 1 1 a 1 0
; ; a 2 A; ;a 2 A
1 0 0 1 a 1
a 0 1 0
;a 2 A ; ;a 2 A :
0 1 0 a
Teorema 1.8.12 Sea e una operación elemental renglón y sea E = e(Ik ) la
matriz elemental k k. Entonces, para cualquier matriz M de k `,
e(M ) = EM:
Demostración Los tres tipos de operaciones elemental renglón deben tomarse
por separado. Sea E = (eij ). Entonces,
I si la operación elemental renglón es el intercambio de los renglones r y s,
8
< ip i 6= r; s
eip = sp i=r
:
rp i=s
y por lo tanto,
X
k
(EM )ij = eip mpj
p=1
8 P
k
>
< P p=1 ip mpj = mij i 6= r; s
k
= p=1 sp mpj = msj i = r
> P
: k
p=1 rp mpj = mrj i = s:

II Supongamos ahora que la operación elemental renglón es la multiplicación


del renglon r por a 2 A . Entonces
ip i 6= r
eip =
a rk i = r:
De aquí,
X
k
(EM )ij = eip mpj
p=1
( Pk
ip mpj = mij i 6= r
= Pk p=1
p=1 a rp mpj = amrj i = r:
35

III Finalmente, supongamos que r 6= s y que la operación renglón reemplaza


el renglón r por el renglón r mas a veces el renglón s. Entonces

ip i 6= r
eip =
rp +a sp i = r:
Entonces,
X
k
(EM )ij = eip mpj
p=1
( Pk
p=1 ip mpj
= mij i 6= r
Pk
p=1 ( rp + a sp )mpj = mrj + amsj i = r:

Ejemplo 1.8.13 Sea


0 1
1 2 5 2
@
M= 0 1 3 4A :
5 0 2 7
Como A es de 3 4, cada matriz elemental debe ser de 3 3 ya que E
debe ser cuadrada y multiplica a M por la izquierda. Suponga que deseamos
reemplazar el renglón 1 por el renglón 1 menos 3 veces el renglón 3 de la
matriz M . Entonces
0 10 1 0 1
1 0 3 1 2 5 2 14 2 11 19
@0 1 0 A @0 1 3 4A = @ 0 1 3 4 A:
0 0 1 5 0 2 7 5 0 2 7
Corolario 1.8.14 Sean M y N matrices de k ` sobre el anillo conmutativo
con identidad A. Entonces N es equivalente por renglones a M si y solo si
N = P M , donde P es un producto de matrices elementales k k.
Demostración Suponga que N = P M donde P = Em E2 E1 y las Ei
son matrices elementales k k. Entonces E1 M es equivalente por renglones a
M; E2 (E1 M ) es equivalente por renglones a E1 M y así E2 E1 M es equivalente
por renglones a M , etc.
Ahora suponga que N es equivalente por renglones a M . Sean E1 ; E2 ; : : : ; Em
las matrices elementales correspondientes a cierta sucesión de operaciones el-
ementales renglón que llevan M a N . Entonces N = Em E2 E1 M .
36

1.9. Ejercicios
1. Encuentre dos matrices diferentes M de 2 2 tales que M 2 = 0 pero
M 6= 0.

2. Sea 0 1
d1 0 0 0
B 0 d2 0 0C
B C
B .. C
D = B ... ... ..
.
..
. .C
B C
@0 0 dk 1 0A
0 0 0 dk
la matriz diagonal en Mk k (A) con entradas diagonales d1 ; : : : ; dk y M
son una matriz cuadrada en Mk k (A). Calcule los productos DM y
M D.

3. Veri…que que cada una de las siguientes matrices es nilpotente:


0 1 0 1
0 1 1 0 1 0
0 c @
; 0 0 2A ; @0 0 0A
0 0
0 0 0 0 2 0

4. Ver…que que cada una de las siguientes matrices es idempotente, esto


es, M 2 = M :
0 0 1 0 1 0
; ; : (1.8)
1 1 1 0 0 0

5. Sea 0 1
1 1 1
M = @2 0 1A :
3 0 1
Encuentre matrices elementales E1 ; E2 ; : : : ; Em tales que

Em E2 E1 M = I:

6. Sean 0 1
1 1
@ 3 1
M= 2 2 A;N = :
4 4
1 0
¿Existe una matriz P tal que P M = N ?
37

7. Sea
p11 p12
P =
p21 p22
una matriz 2 2. ¿Es posible encontrar matrices M; N de 2 2 tales que
P = M N N M ? Pruebe que dichas matrices puedes ser encontradas
si y solo si p11 + p22 = 0.
8. Pruebe que si un sistema de ecuaciones lineales con coe…cientes en R
tiene al menos dos soluciones diferentes, entonces tiene in…nidad de
soluciones. Sugerencia: si x1 6= x2 son soluciones del sistema Ax = b,
demuestre que x1 +k(x1 x2 ) también es solución del sistema para todo
k 2 R. Luego muestre que dos soluciones de este tipo para k distintas
son distintas.

1.10. Multiplicación de matrices particionadas


En esta sección, discutiremos cómo multiplicar matrices por bloques.
Comencemos con un ejemplo simple.

Ejemplo 1.10.1 Suponga que


0 1
1 1
1 2 j 3 B 2 2C
M= ;N = B
@
C:
A
0 1 j 2
0 4
M está particionada en dos submatrices
1 2 3
M1 = y M2 =
0 1 2
y N en las submatrices
1 1
N1 = y N2 = 0 4 :
2 2
De este modo, el producto de M y N puede ser escrito en la forma
0 1
N1
M N = M1 j M 2 @ A :
N2
38

La suma M1 N1 + M2 N2 está bien de…nida y


5 15 5 3 0 12
MN = = + = M 1 N 1 + M 2 N2 :
2 10 2 2 0 8
De este modo, si tratamos M como una matriz de 1 2 con entradas M1 y
M2 y N como una matriz 2 1 con entradas N1 y N2 y las multiplicamos,
obteniendo M1 N1 + M2 N2 , obtenemos el resultado correcto. Este proceso es
llamado multiplicación en bloques.
Recuerde que un producto de dos matrices M y N está de…nido solo
cuando el número de columnas de M es igual al número de renglones de N .
Este hecho solo permite ciertos tipos de particiones para la multiplicación
en bloques. Desarrollaremos el teorema principal examinando algunos casos
especiales. El lema siguiente es el ejemplo más simple de multiplicación de
matrices en bloques. 0 1
y1
B .. C
Sea = x1 x` un vector renglón de tamaño ` y = @ . A un
y`
vector columna de tamaño `. Suponga que escogemos una partición arbitraria
de como sigue.
= M 1 j M2 j j Mk : (1.9)
Cada Mi en (1.9) es un vector renglón de tamaño mi ; m1 + +mk = ` y M1 =
x1 xm1 ; M2 = xm1 +1 xm1 +m2 , etc. Ahora particionamos
exactamente de la misma manera.
0 1
N1
B C
B C
B N2 C
B C
B C
= B C:
B .. C
B . C
B C
@ A
Nk
Cada Ni es un 0 vector
1 columna0 de tamaño
1 mi para i = 1; : : : ; k. De este
y1 ym1 +1
B C B C
modo, N1 = @ ... A ; N2 = @ ... A, etc. En particular, cada producto
ym1 ym1 +m2
M1 N1 ; : : : ; Mk Nk está bien de…nido.
39

Lema 1.10.2
0 1
N1
B C
B C
B N2 C
B C X k
B C
= M1 j M 2 j j Mk B C = M i Ni :
B .. C
B . C i=1
B C
@ A
Nk
Demostración
X̀ m1
X mX
1 +m2 X̀
= xi yi = x i yi + xi yi + + xi yi = M1 N1 +M2 N2 + +Mk Nk :
i=1 i=1 i=m1 +1 i=m1 + +mk 1 +1

Una generalización del lema anterior es la siguiente. Sea M una matriz


de tamaño k ` y N de ` s . Suponga que M y N son particionadas en
submarices como sigue.
0 1
N1
B C
B C
B N2 C
B C
B C
M = M1 j M2 j j Mp y N = B C ;
B .. C
B . C
B C
@ A
Np

donde cada Mi es una matriz de k mi y cada Ni es de mi s. En particular,


m1 + +mp = ` y cada producto Mi Ni ; i = 1; : : : ; p es una matriz de tamaño
k s.

Lema 1.10.3 p
X
MN = M r Nr :
r=1
40

Demostración
(M N )ij = (renglón i de M ) (columna j de N )
0 1
columna j de N1
B C
B C
B .. C
= renglón i de M1 j j renglón i de Mp B . C
B C
@ A
columna j de Np
p p
X X
= (renglón i de Mr columna j de Nr ) = (Mr Nr )ij (por el lema 1.10.2)
r=1 r=1
p
!
X
= M r Nr :
r=1 ij

Ahora estamos listos para discutir la situación general.

Teorema 1.10.4 Sea M una matriz de tamaño k ` y N de ` s . Suponga


que M y N son particionadas en submatrices como sigue.
0 1 0 1
M11 j j M1p N11 j j N1q
B C B C
B C B C
B .. C y N = B .. .. C ;
M = B ... j j C
. C B . j j . C
B B C
@ A @ A
Mr1 j j Mrp Np1 j j Npq
donde Mij es una matriz de mi nj y Njt es una matriz de nj ut . Entonces
m1 + + mr = k; n1 + + np = ` y u1 + + uq = s. Para cada i = 1; : : : ; r
y j = 1; : : : ; q, sea
p
X
Pij = Mit Ntj :
t=1
Entonces 0 1
P11 j j P1q
B C
B C
B .. C :
M N = B ... j j . C
B C
@ A
Pr1 j j Prp
41

Demostración Los renglones de la submatriz Mi1 j j Mip de M


se inician con el renglón Mi = m1 + + mi 1 + 1 y terminan con el renglón
Mi0 = m1 + + mi . Las columnas de la submatriz
0 1
N1j
B C
B C
B .. C
B . C
B C
@ A
Npj

de N inician con la columna Uj = u1 + + uj 1 + 1 y terminan con la


0
columna Uj = u1 + + uj . Sea x un índice que va de Mi a Mi0 y sea y uno
que va de Uj a Uj0 . Entonces (renglón x de M ) (columna y de N ) recorre las
entradas de la submatriz de M N de tamaño mi uj dadas por

(M N )xy : Mi x Mi0 ; Uj y Uj0 :

Denote esta submatriz de M N por Pij . Entonces, el lema 1.10.3 implica que
0 1
N1j
B C
B C
B .. C
Pij = Mi1 j j Mip B . C
B C
@ A
Npj
p
X
= Mit Ntj ;
t=1

donde i = 1; : : : ; r y j = 1; : : : ; q. Conforma i y j varían, los Pij determinan


una partición natural del producto M N . Cada Pij es el producto en bloques
del i-ésimo renglón de la matriz particionada M con la j-ésima columna de
la matriz particionada N .
42

Ejemplo 1.10.5 Considere las matrices siguientes particionadas como sigue


0 1
3 4 1 j 7 8
B4 5 0 j 1 4C
B C
M = B C = M11 M12
B C M21 M22
@5 1 4 j 0 0A
6 1 5 j 0 0
0 1
1 1 j 1
B 1 0 j 1C
B C
B0 0 j 3C
N = B B C = N11 N12 :
C N21 N22
B C
@2 1 j 2 A
1 1 j 1

El tamaño de M11 y M21 es 2 3 y el tamaño de M12 y M22 es 2 2. El


tamaño de N11 es 3 2, el de N12 es 3 1, el de N21 es 2 2 y el de N22
es 2 1. Se comprueba fácilmente que el producto en bloques de M y N está
bien de…nido. El teorema 1.10.4 implica que

M11 M12 N11 N12


MN =
M21 M22 N21 N22
M11 N11 + M12 N21 M11 N12 + M12 N22
=
M21 N11 + M22 N21 M21 N12 + M22 N22
0 1
15 2 j 10
B5 7 j 7C
B C
= B
B
C:
C
@ 6 5 j 16A
5 6 j 22

Multiplicando directamente M y N , vemos que esta es la respuesta correcta.


43

1.11. Ejercicios
1. Sean
0 1 0 1
1 2 j 4 j 1 0 1 j 1 2
B3 1 j 0 j 0 1CC B j 1 0C
B B2 C
B C B C
B C B C
M =B
B0 1 j 1 j C
1 2C y N = B
B4 j 2 2CC
B C B C
B C B C
@1 0 j 2 j 3 1 A @1 j 0 1A
1 1 j 1 j 2 4 3 j 0 1

a) Calcule M N .
b) Liste los tamaños de los bloques en las particiones dadas arriba
y veri…que que las hipótesis del teorema 1.10.4 son satisfechas en
este caso.
c) Calcule el producto de M y N multiplicando por bloques.

2. Sean 0 1
1 1 0 0 0
B1 2 0 0 0C
B C
M =B
B0 0 1 2 3C
C
@0 0 1 0 1A
0 0 1 1 2
y 0 1
0 0 0 0 0
B0 0 0 0 0C
B C
N =B
B0 0 1 0 0C
C
@0 0 0 1 0A
0 0 0 0 1
Encuentre una buena partición de M y N para la cual la multiplicación
en bloques da al producto M N de una manera simple.
44

3. Considere la matriz diagonal en bloques


0 1
M11 j 0 j j 0
B C
B C
B 0 j M22 j j 0 C
B C
B C
M =B C:
B .. .. .. .. C
B . j . j . j . C
B C
@ A
0 j 0 j j Mkk

Las matrices M11 ; M22 ; : : : ; Mkk son matrices cuadradas no necesaria-


mente del mismo tamaño. Use el teorema 1.10.4 para calcular M n para
cualquier entero positivo n.

1.12. Matrices invertibles


Suponga que P es una matriz k k que es un producto de matrices
elementales. Para cada matriz M de k `, la matriz N = P M es equivalente
por renglones a M ; de aquí, M es equivalente por renglones a N y de este
modo, existe un producto Q de matrices elementales tales que M = QN . En
particular, esto es verdadero si M = Ik , la matriz identidad k k. En otra
palabras existe una matriz Q de k k, que es ella misma un producto de
matrices elementales tal que QP = I.

De…nición 1.12.1 Sea M una matriz (cuadrada) k k sobre el anillo con-


mutativo con identidad A. Una matriz N de k k tal que N M = Ik es llamada
una inversa izquierda de M ; una matriz N de k k tal que M N = Ik es
llamada una inversa derecha de A. Si M N = N M = Ik , entonces N es lla-
mada una inversa bilateral de M y M es llamada invertible (o no singular).
Una matriz cuadrada que no es invertible es llamada singular.
Una matriz invertible es simplemente un elemento invertible del anillo
(Mk k (A); +; ; 0; Ik ). Si M tiene una inversa izquierda N y una inversa
derecha P , entonces N = P .
Por lo tanto, si M tiene una inversa izquierda y una inversa derecha, M
es invertible y tiene una única inversa bilateral, que denotaremos como M 1
y la llamaremos simplemente la inversa de M . Ya que (Mk k (A)) es un
grupo, tenemos que si M es invertible, M 1 es invertible y (M 1 ) 1 = M .
45

También, Si M y N son invertibles, M N es invertible y (M N ) 1 = N 1


M 1
.
De este modo, un producto de matrices invertibles es invertible.

Teorema 1.12.2 Una matriz elemental es invertible.


Demostración Sea E una matriz elemental correspondiente a la operación
elemental renglón e. Si e1 es la operación inversa de e (teorema 1.6.5) y
E1 = e1 (I), entonces

EE1 = e(E1 ) = e(e1 (I)) = I

y
E1 E = e1 (E) = e1 (e(I)) = I:
Por lo tanto E es invertible y E1 = E 1 . La inversa de una matriz elemental
es una matriz elemental del mismo tipo:
1
(Ir (a)) = Ir (a 1 )
1
(Irs (a)) = Irs ( a)
1
(Irs ) = Irs :

Ejemplo 1.12.3
1 1
0 1 0 1 1 a 1 a
= ; = ;a 2 A
1 0 1 0 0 1 0 1
1 1
1 0 1 0 a 0 a 1 0
= ; a 2 A; = ;a 2 A
a 1 a 1 0 1 0 1
1
1 0 1 0
= ;a 2 A :
0 a 0 a 1

Teorema 1.12.4 Sea M una matriz k k. Son equivalentes


(i) M es invertible.
(ii) M es equivalente por renglones a la matriz identidad k k.
(iii) M es un producto de matrices elementales.
Demostración (i))(ii) Sea R la forma escalonada reducida de la matriz
M . Por el corolario 1.8.14,

R = Em E2 E1 M (1.10)
46

donde E1 ; E2 ; : : : ; Em son matrices elementales. Cada Ej es invertible y de


aquí si M es invertible, ya que el producto de matrices invertibles es inverti-
ble, R es invertible. Si R es invertible, cada renglón de R es distinto de cero.
Como esto signi…ca que R en realidad tiene un 1 como pivote en cada uno
de sus renglones y dado que estos 1 ocurren en columnas diferentes, R debe
ser la matriz de identidad k k.
(ii))(iii) Si R es igual a Ik entonces de (1.10),

M = E1 1 E2 1 Em1 :

Ya que la inversa de una matriz elemental es una matriz elemental y así, M


es un producto de matrices elementales.
(iii))(i) Claro.

Corolario 1.12.5 Sean M y N matrices de k `. Entonces N es equivalente


por renglones a M si y solo si N = P M donde P es una matriz invertible de
k k.

Teorema 1.12.6 Para una matriz M son equivalentes


(i) M es invertible.
(ii) El sistema homogéneo M x = 0 tiene únicamente la solución trivial
x = 0.
(iii) El sistema de ecuaciones M x = b tiene solución para cualquier matriz
b de k 1.
Demostración (i),(ii) Por el teorema 1.6.21, la condición (ii) es equiva-
lente a que M sea equivalente por renglones a la matriz identidad. Por el
teorema 1.12.4, (i) y (ii) son equivalentes.
(i),(iii) Si M es invertible, la solución de M x = b es M 1 b. Recíproca-
mente, suponga que M x = b tiene una solución para cualquier b dado. Sea
R la forma escalonada reducida por renglones de M . Deseamos mostrar que
R = I, que es equivalente a mostrar que el último renglón de R no es cero.
Sea 0 1
0
B0C
B C
B C
b = B ... C :
B C
@0A
1
47

Si el sistema Rx = b tiene una solución, entonces el último renglón de R no


puede ser 0. Sabemos que R = P M para alguna matriz invertible P . De este
modo Rx = b si y solo si M x = P 1 b, que por hipótesis, tiene solución.

Corolario 1.12.7 Una matriz cuadrada con una inversa derecha o izquierda
es invertible.
Demostración Sea M una matriz k k. Suponga que M tiene una inversa
izquierda, esto es, existe una matriz N tal que N M = I. Entonces M x = 0
solo tiene la solución trivial, porque x = Ix = N M x. Por lo tanto M es
invertible. Por otra parte, suponga que M tiene una inversa derecha, i.e.,
existe una matriz P tal que M P = I. Entonces P tiene una inversa izquierda
y es por lo tanto invertible. Se sigue entonces que M = P 1 y por lo tanto
M es invertible con inversa P .

Corolario 1.12.8 Si M es una matriz invertible de k k y si una sucesión


de operaciones elementales renglón reduce M a la identidad, entonces esa
misma sucesión de operaciones cuando son aplicadas a la matriz identidad
Ik obtienen M 1 .

Corolario 1.12.9 Sea M = M1 M2 Mn , donde M1 ; : : : ; Mn son matrices


cuadradas de k k. Entonces M es invertible si y solo si cada Mi es invertible.
Demostración Hemos visto que el producto de dos matrices invertibles es
invertible. Por inducción, si cada Mi es invertible entonces M es invertible.
Suponga ahora que M es invertible. Probamos primero que Mn es inver-
tible. Suponga que Mn x = 0. Entonce M x = (M1 M2 Mn 1 )Mn x = 0. Ya
que M es invertible debemos tener que x = 0. De este modo, el sistema de
ecuaciones M / n x = 0 solo tiene la solución trivial, así que Mn es invertible.
Pero ahora M1 M2 Mn 1 = M Mn 1 es invertible. Por el argumento anterior,
Mn 1 es invertible. Continuando de esta manera, concluimos que cada Mi es
invertible.

Comentario 1.12.10 Podemos hacernos las siguientes preguntas:


(i) ¿Qué matrices tienen inversa?
(ii) Si una matriz tiene una inversa, ¿cómo se puede calcular?

Ejemplo 1.12.11 Suponga que A = Q el campo de los números racionales.


Mostramos cómo responder a estas preguntas con un ejemplo simple.
48

5 3 1 x y
Sea M = . Suponga que M = , entonces
2 1 z w

1 5 3 x y 5x + 3z 5y + 3w 1 0
MM = = = :
2 1 z w 2x + z 2y + w 0 1
Por igualdad de matrices,
5x + 3z = 1 5y + 3w = 0
2x + z = 0 2y + w = 1
Esto obtiene dos sistemas de ecuaciones cuyas matrices aumentadas son
las siguientes:
5 3 j 1 5 3 j 0
y
2 1 j 0 2 1 j 1
respectivamente. Como las matrices de coe…cientes son iguales, trabajamos
con la matriz doblemente aumentada
5 3 j 1 0
2 1 j 0 1
y la reducción por renglones obtendrá, si M es invertible
1 0 j x y
:
0 1 j z w
Así que,
5 3 j 1 0 1 1 3=5 j 1=5 0
R1 ( )
2 1 j 0 1 5 2 1 j 0 1
!
1 3=5 j 1=5 0 1 3=5 j 1=5 0
R21 ( 2) R2 ( 5)
! 0 1=5 j 2=5 1 ! 0 1 j 2 5
3 1 0 j 1 3
R12 ( ) :
5 0 1 j 2 5
!
1 1 3
Entonces M es invertible y M = . Podemos compobar nuestros
2 5
cálculos haciendo las multiplicaciones:
1 3 5 3 1 0
=
2 5 2 1 0 1
5 3 1 3 1 0
= :
2 1 2 5 0 1
49

1 1
Ejemplo 1.12.12 Sea M = . Escribiendo la matriz doblemente au-
3 3
mentada y reduciendo por renglones,

1 1 j1 0 1 1 j1 0
R21 ( 3) :
3 3 j0 1 ! 0 0 j 3 1
La última línea se lee 0 = 3 o 0 = 1. Entonces el sistema es inconsistente
y M no es invertible.
Procedimiento para encontrar la inversa de una matriz cuadrada
M

I Se escribe la matriz aumentada (M jI).

II Se reduce M a la forma escalonda reducida por renglones.

III Se decide si M es invertible:


1
(a) Si la ferr de M es I, entonces M es la matriz que se tiene a la
derecha de la barra vertical.
(b) Si la ferr de M tiene algún renglón de ceros, entonces M no es
invertible.

Para matrices de tamaño 2 2 el criterio a continuación es útil.

m11 m12
De…nición 1.12.13 Sea M = 2 M2 2 (A). Entonces el deter-
m21 m22
minante de M se de…ne como

det M = m11 m22 m21 m12 :

Teorema 1.12.14 Sea M una matriz 2 2. Entonces


(i) M es invertible si y solo si det M 2 A .
(ii) Si det M 2 A , entonces

1 1 m22 m12
M = :
det M m21 m11
50

1 m22 m12
Demostración Suponga que det M 2 A y sea N = det M
.
m21 m11
Entonces
1 m22 m12 m11 m12
NM =
det M m 21 m 11 m 21 m22
1 m11 m22 m21 m12 0
=
det M 0 m m
11 22 m21 m12
1 0
= :
0 1

Esto muestra que M es invertible y que N = M 1 .


Suponga ahora que M es invertibe. Entonces existe M 1 tal que M M 1 =
M 1 M = I:Entonces det(M M 1 ) = det(M 1 M ) = det(I) = 1. Es fácil
comprobar que det(M M 1 ) = det M det M 1 y det(M 1 M ) = det M 1
det M . Así det M det M 1 = det M 1 det M = 1, que muestra que det M 2
A .
1 6
Ejemplo 1.12.15 Sea M = . Entonces det M = ( 1)( 12)
2 12
6 2 = 12 12 = 0, de modo que M 1 no existe.
2 3
Sea ahora N = . Entoces det N = 2 + 3 = 1 que es una unidad
1 1
en el anillo Z. Por lo tanto, N 1 existe y esta dada por

1 1 1 3 1 3
N = = :
1 1 2 1 2

Ejemplo 1.12.16 (uso de la inversa para resolver un sistema de ecuaciones)


El sistema de ecuaciones lineales

x1 + 2x2 + 3x3 = 1
x1 + x2 + 2x3 = 8
x2 + 2x3 = 3

se puede escribir matricialmente como M x = b, donde


0 1 0 1
1 2 3 1
M = @1 1 2A ; b = @ 8 A :
0 1 2 3
51

La matriz M es invertible y
0 1
0 1 1
M 1
= @ 2 2 1A :
1 1 1

De este modo la solución única está dada por


0 1 0 10 1 0 1
x1 0 1 1 1 11
x = @x 2 A = M 1 b = @ 2 2 1A @ 8 A = @ 11A :
x3 1 1 1 3 4

Ejemplo 1.12.17 (escritura matriz invertible como producto de matrices elementales)


Mostramos que la matriz
0 1
2 0 4
M = @0 1 1A
3 1 1

sobre Q es invertible y la escribimos como un producto de matrices ele-


mentales. El proceso de reduccion de la matriz triplemente aumentada es
el siguiente:
0 1 0 1
2 0 4 j 1 0 0 1 0 2 j 1=2 0 0
@0 1 1 j 0 1 0A 1
R1 ( 2 ) @ 0 1 1 j 0 1 0A
1 1 j 0 0 1 ! j 0 0 1 1
03 1 03 1 1
1 0 2 j 1=2 0 0 1 0 2 j 1=2 0 0
R31 ( 3) @0 1 1 j 0 1 0A R32 (1) @0 1 1 j 0 1 0A
! 5 j ! j
00 1 3=2 0 1 1 00 0 4 3=2 1 1 1
1 0 2 j 1=2 0 0 1 0 0 j 1=4 1=2 1=2
R3 ( 41 ) @0 1 1 j 0 1 0 A R13 ( 2) @0 1 1 j 0 1 0 A
! !
00 0 1 j 3=8 1=4 1=4 1 0 0 1 j 3=8 1=4 1=4
1 0 0 j 1=4 1=2 1=2
R23 ( 1) @ 0 1 0 j 3=8 5=4 1=4 A :
! 0 0 1 j 3=8 1=4 1=4

La matriz M 1 se obtuvo comenzando con I y aplicando estas 6 operaciones


elementales. De este modo, M 1 es el producto de estas 6 matrices elemen-
52

tales.
1 1 1
M = I23 ( 1)I13 ( 2)I3 ( )I32 (1)I31 ( 3)I1 ( )
0 10 4 10 2 10 10 10 1
1 0 0 1 0 2 1 0 0 1 0 0 1 0 0 1=2 0 0
= @ 0 1 1 A @ 0 1 0 A @ 0 1 0 A @0 1 0A @ 0 1 0A @ 0 1 0A
0 0 1 0 0 1 0 0 1=4 0 1 1 3 0 1 0 0 1
0 1
1=4 1=2 1=2
= @ 3=8 5=4 1=4 A :
3=8 1=4 1=4

Entonces M = (M 1 ) 1 es el producto de las inversas de las 6 matrices


elementales en orden opuesto:

M = I1 (2)I31 (3)I32 ( 1)I3 ( 4)I13 (2)I23 (1)


0 10 10 10 10 10 1
2 0 0 1 0 0 1 0 0 1 0 0 1 0 2 1 0 0
= @0 1 0A @0 1 0A @0 1 0A @0 1 0 A @0 1 0A @0 1 1A :
0 0 1 3 0 1 0 1 1 0 0 4 0 0 1 0 0 1

De…nición 1.12.18 Una matriz cuadrada M se llama matriz triangular su-


perior ( inferior) si todos sus componentes abajo (arriba) de la diagonal prin-
cipal son cero, esto es, mij = 0 para i > j (i < j). Una matriz triangular es
aquella que es triangular inferior o triangular superior.

Ejemplo 1.12.19
0 1
0 1 0 1 1 0 0 0
1 0 3 1 0 0 B1 1
@0 1 1A; @ 0 1 0A ; B 0 0C
C:
@1 1 1 0A
0 0 4 0 0 5
TS TS y TI
1 2 3 4
TI

Note que una matriz que es a la vez triangular superior e inferior es una
matriz diagonal.

Teorema 1.12.20 Sea M una matriz cuadrada. Entonces M se puede es-


cribir como un producto de matrices elementales y una matriz triangular
superior. En el producto las matrices elementales están a la izquierda y la
matriz triangular está a la derecha.
53

Demostración Si aplicamos la eliminación gaussiana a la matriz M el re-


sultado es una matriz triangular superior U , esto es,
Em Em 1 E2 E1 M = U;
donde Em ; Em 1 ; : : : ; E1 son matrices elementales y
M = E1 1 E2 1 Em1 1 Em1 U:

Ejemplo 1.12.21 Escribimos la matriz


0 1
1 0 0
M = @ 2 3 0A
1 4 0
como el producto de matrices elementales y una matriz triangular superior.
0 1 0 1
1 0 0 1 0 0
@ 2 3 0A R21 ( 2) @ 0 3 0A
!
0 1 4 1 0 0 1 4 1 0
1 0 0 1 0 0
R31 (1) @0 3 0A R2 ( 31 ) @0 1 0A
! !
00 4 01 0 4 0
1 0 0
R32 ( 4) @0 1 0A = U:
! 0 0 0
Entonces
M = I21 (2)I31 ( 1)I2 (3)I32 (4)U
0 10 10 10 10 1
1 0 0 1 0 0 1 0 0 1 0 0 1 0 0
= @2 1 0A @ 0 1 0A @0 3 0A @0 1 0A @0 1 0A :
0 0 1 1 0 1 0 0 1 0 4 1 0 0 0

1.13. Ejercicios
1. Sea 0 1
5 0 0
M = @1 5 0A :
0 1 5
¿Para qué x existe un escalar c tal que M x = cx?
54

1 1 1
2. Considere la matriz en R dada por M = .
1 1 1

a) Encuentre inversas derechas para M .


b) Compruebe que M no tiene inversas izquierdas.

3. Sea A 2 Cm n
; B 2 Cn m
y b 2 Cm .

a) Suponga que AB es la matriz identidad de orden m. Pruebe que el


sistema de ecuaciones lineales Ax = b tiene al menos una solución.
b) Suponga que BA es la matriz identidad de orden n. Pruebe que el
sistema de ecuaciones lineales Ax = b tiene a lo más una solución.

4. Suponga que M es una matriz de 2 1 y que N es una matriz de 1 2.


Pruebe que P = M N no es invertible.
5. Sea M una matriz cuadrada de k k. Pruebe los dos enunciados siguien-
tes:

a) Si M es invertible y M N = 0 para alguna matriz N de k k,


entonces N = 0.
b) Si M no es invertible, entonces existe una matriz N de k k tal
que M N = 0 pero N 6= 0.

6. En el ejercicio 3 de la sección 1.11, suponga que cada Mii ; i = 1; : : : ; k


es invertible. ¿Es M invertible? si lo es, ¿cuál es la inversa de M ?
7. Suponga que M y N son matrices invertibles. la matriz particionada
0 1
M j P
@ A;
0 j N
¿es invertible? Si esta matriz es invertible, ¿cuál es su inversa?
8. Sean M y N matrices triangulares superiores (inferiores) sobre un anillo
conmutativo con identidad A.

a) Pruebe que M N es una matriz triangular superior (inferior).


b) Pruebe que (M N )ii = mii nii para i = 1; 2; : : : ; n.
55

1.14. La transpuesta de una matriz


Se le debe haber ocurrido al lector que hemos mantenido una larga dis-
cusión sobre lor renglones de las matrices y que hemos dicho poco sobre las
columnas. Centramos nuestra atención en las renglones porque esto parece
más natural desde el punto de vista de las ecuaciones lineales. La discusión
en las secciones anteriores podría haberse llevado a cabo utilizando columnas
en lugar de …las. Si se de…nen operaciones de columnas elementales y equiva-
lencia de columnas de manera análoga a las operaciones de …las elementales
y equivalencia de renglones, está claro que cada matriz k ` será equivalente
por columnas a una matriz de “escalonada reducida por columna”. También
cada la operación elemental columna tendrá la forma M ! M E, donde E
es una matriz elemental ` `, y así sucesivamente.
Más especí…camente, sea A un anillo conmutativo con identidad y M una
matriz con coe…cientes en A. Las operaciones elementales columna sobre M
son de tres tipos.

I Intercambio de las columnas r y s que denotamos con el símbolo Crs .

II Multiplicación del columna r de M por un escalar a 2 A , es decir por una


unidad del anillo A. Denotamos esta operación con el símbolo Cr (a).

III A la columna r se le suma a veces la columna s, donde a es cualquier


escalar a 2 A y la columna r es distinta de la columna s. Representamos
esta operación como Crs (a).

De…nición 1.14.1 Si M y N son dos matrices k ` sobre el anillo conmu-


tativo con identidad A, se dice que N es equivalente por columnas a M si
N se obtiene de M mediante una sucesión …nita de operaciones elementales
columna.

Ejemplo 1.14.2 Suponga que A = Q y


0 1
1 6 4
M =@ 2 4 1A :
1 2 5
56

Entonces
0 1 0 1
1 6 4 1 0 0
@2 4 C ( 6) @
1A 21 2 8 9A
C31 ( 4)
1 20 5 !
1 1 08 9 1
1 0 0 1 0 0
C2 ( 18 ) @ 2 1 9A C32 (9) @ 2 1 0A = N:
! 1 1 9 ! 1 1 0
Así, N es equivalente por columnas a M .
A la matriz transpuesta de una “matriz escalonada (reducida) por ren-
glones”se le llama “matriz escalonada (reducida) por columnas”.

De…nición 1.14.3 Si M = (mij ) es una matriz de k ` sobre un anillo


conmutativo con identidad A, la transpuesta de M es la matriz M T de ` k
obtenida al intercambiar los renglones de M por las columnas de M; M T =
(mji ).
0 1
2 1
2 3 1
Ejemplo 1.14.4 Sea M = . Entonces M T = @ 3 4 A.
1 4 6
1 6
0 1
1 2 6 0 1
B2 C 1 2 0 2
3 4C
Si N = B@0 1 . En este caso, N T = @ 2 3 1 1A.
2A
6 4 2 5
2 1 5
Ejemplo 1.14.5 Del ejemplo 1.14.2, vemos que la matriz
0 1
1 2 1
N T = @0 1 1A
0 0 0
está en la fer. De aquí, N está en la forma escalonada por columnas. Ahora
0 1 0 1
1 0 0 1 0 0
N =@ 2 1 0A C12 ( 2) @0 1 0A = P
1 1 0 ! 1 1 0
La matriz P es equivalente por columnas a la matriz N . Note que
0 1
1 0 1
P T = @0 1 1A
0 0 0
57

está en la ferr. Por lo tanto, la matriz P está en la forma escalonada por


columnas.
Las propiedades básicas de la transpuesta son las siguientes.

Teorema 1.14.6 Sea M 2 Mk ` (A). Entonces,


(i) (M T )T = M .
(ii) (M + N )T = M T + N T
(iiii) Para cada a 2 A; (aM )T = aM T
(iv) (M N )T = N T M T .
(v) Si M es invertible, M T también lo es y (M T ) 1
= (M 1 T
) .
Demostración Las primeras tres propiedades son consecuencias directas de
la de…nición de la matriz transpuesta.
Necesitamos probar las dos últimas. La prueba de (iv) se puede hacer
mediante un cálculo directo. Suponga que M = (mij ) es una matriz de k `
y N = (nij ) es una matriz de ` s. Entonces,

P = M N = (pij )

con

pij = mir nrj :
r=1

De aquí,
!

(P T )ij = (M N )Tij = (pji ) = njr mri = NT MT :
r=1

(v) Podemos establecer la invertibilidad y obtener la fórmula al mismo


tiempo.

M T (M 1 )T = (M 1 M )T = I T = I
(M 1 )T M T = (M M 1 )T = I T = I:

Por la unicidad de la inversa, (M T ) 1


= (M 1 T
) .
58

1.15. Ejercicios
1. Muestre que si una matriz es triangular superior (inferior), su matriz
transpuesta es triangular inferior (superior).

2. Sea M una matriz triangular. Entonces, M es invertible si y solo si


todas las entradas de la diagonal principal son elementos invertibles
del anillo A.

3. Suponga que T es una matriz invertible triangular superior (inferior,


diagonal). Muestre que T 1 es una matriz triangular superior (inferior,
diagonal).

4. Sea M una matriz de k ` sobre un campo K. Muestre que por medio


de un número …nito de operaciones elementales renglón y/o columna
se puede pasar de M a una matriz R que es a la vez “escalonada
reducida por renglones” y “escalonada reducida por columnas”, esto
es, R = P M Q , donde P es una matriz invertible k k y Q es una
matriz invertible ` `.

5. Sea M una matriz cuadrada de k k. La matriz M es llamada simétrica


si M T = M y antisimétrica si M T = M .

a) Muestre que para cualquier matriz M de k k; M +M T es simétri-


ca y M M T es antisimétrica.
b) Muestre que cualquier matriz M de k k puede ser escrita como
la suma de una matriz simétrica y una antisimétrica.

6. La traza de una matriz M = (mij ) 2 Mk k (A) se de…ne como la


suma de los elementos de la diagonal principal de M y se denota por
traza(M ). Esto es,

X
k
traza(M ) = m11 + m22 + + mkk = mii :
i=1

Pruebe que

a) traza(M + N ) = traza(M )+ traza(N ).


b) traza(cM ) = ctraza(M ).
59

c) traza(M N ) = traza(N M ).
d) traza(M ) = traza(M T ).

7. Sea K un subcampo de los números complejos. Sea M 2 Mk ` (K), la


T
matriz conjugada de M es la matriz M = (mij ). Sea M = M = M T .
Entonces una matriz cuadrada es hermitiana si M = M y antiher-
mitiana si M = M . Dé algunos ejemplos de matrices hermitianas y
antihermitianas.

1.16. La factorización LU de una matriz


Ahora examinamos el proceso de eliminación gaussiana más cuidadosa-
mente. En este proceso, no son necesarias matrices elementales del tipo
Ei (c) = Ri (c).

De…nición 1.16.1 Una matriz elemental del tipo Eij = Rij es llamada una
transposición. Cualquier producto …nito de transposiciones es llamada una
matriz de permutación.
0 1 0 1
0 1 0 0 0 1
Ejemplo 1.16.2 E12 = @1 0 0A y E13 = @0 1 0A son transposi-
0 0 1 1 0 0
ciones. 0 1
0 1 0
P = E12 E13 = @0 0 1A
1 0 0
es una matriz de permutación.
Cualquier matriz de permutación se obtiene de Im permutando sus ren-
glones. Permitimos i = j en Eij . De este modo, la matriz identidad Im es
una transposición y de aquí una matriz de permutación.
Cuando reducimos por renglones M a una matriz triangular superior,
necesitamos producir ceros debajo de una entrada distinta de cero en una
columna dada. En otras palabras multiplicamos M por la izquierda por una
sucesión de matrices elementales de la forma siguiente:

Li = Emi (cm )Em 1;i (cm 1 ) Ei+2;i (ci+2 )Ei+1;i (ci+1 ):


60

La matriz Li es llamada una matriz triangular inferior elemental y es de la


forma
0 1
1 0 ::: 0 0 ::: ::: 0
B .. .. .. C
B. . . C
B C
B0 ::: ::: 1 0 ::: ::: 0 renglón i C
B C
L i = B0 ::: ::: ci+1 1 0 ::: 0 renglón i + 1C
B. .. .. C
B .. . . C
B C
@0 ::: ::: cm 0 ::: ::: 1 A
columna i
Describimos ahora el proceso de eliminación gaussiana en términos de trans-
posiciones y matrices triangulares inferiores elementales.

Teorema 1.16.3 Sea M 2 K m n . Existen un número …nito de transposi-


ciones E1 ; : : : ; Ek y un número …nito de matrices triangulares inferiores ele-
mentales L1 ; : : : ; Lk tal que

Lk Ek L1 E1 M

es triangular superior.
Demostración Podemos asumir que m > 1. Si M = 0, entonces M es
triangular superior y no hay nada que hacer. Podemos poner E1 = L1 = Im .
De aquí, podemos asumir que M 6= 0. Suponga que j es el número de
la primera columna de M que tiene una entrada distinta de cero. Entonces
después de efectuar un intercambio de renglones conveniente, i.e., después de
multiplicar por una transposición conveniente E1 , tenemos
0 1
0 : : : 0 a1j :::
B .. C :
E1 M = @ ... ..
.
..
. .A
0 : : : 0 amj :::

Aquí a1j 6= 0. Los denotan entradas de E1 M cuyos valores precisos no son


relevantes para la prueba. Ahora sea L1 la siguiente matriz de m m.
0 1
1 0 0 ::: 0 0
B a2j =a1j 1 0 : : : 0 0C
B C
L1 = B .. .. .. .. .. C
@ . . . . .A
amj =a1j 0 0 : : : 0 1
61

Entonces, 0 1
0 : : : 0 a1j :::
@
L1 E1 M = 0 : : : 0 0 M0 A
0 ::: 0 0
Si la submatriz M 0 es cero, entonces L1 E1 M es triangular superior y termi-
namos la prueba. Suponga que M 0 tiene una entrada distinta de cero. Sea
` el número de la primera columna de L1 E1 M en la cual M 0 tiene una en-
trada distinta de cero. Entonces j < ` y existe una transposición E2 tal que
E2 (L1 E1 M ) tiene la forma siguiente.
0 1
0 : : : 0 a1j ::: :::
B0 : : : 0 0 0 : : : 0 b2` ::: C
B C
E2 L1 E1 M = B .. .. .. .. .. .. .. .. C
@. . . . . . . .A
0 : : : 0 0 0 : : : 0 bm` :::

donde b2` 6= 0. Ahora sea L2 la siguiente matriz de m m. ...


0 1
1 0 0 ::: 0 0
B0 1 0 ::: 0 0C
B C
B0 b3` =b2` 1 : : : 0 0C
L2 = B C:
B .. .. .. .. .. C
@. . . . .A
0 bm` =b2` 0 : : : 0 1

Entonces
0 1
0 : : : 0 a1j ::: :::
B0 ::: 0 0 0 ::: 0 b2` ::: C
B C
B C
L2 E2 L1 E1 M = B0 ::: 0 0 0 ::: 0 0 C
B .. .. .. .. .. .. C
@. . . . . . M0 A
0 ::: 0 0 0 ::: 0 0

Obviamente, a lo más m 1 aplicaciones de este argumento reduce M a una


matriz triangular superior.
El caso más interesante ocurre cuando no se necesitan transposiciones
para reducir M a una matriz triangular superior U . En este caso existen ma-
trices triangulares inferiores elementales Lm 1 ; : : : ; L1 tales que Lm 1 L1 M =
62

U . Cada Li tiene la forma siguiente.


0 1
1 0 ::: ::: 0 0
B `21 1 0 : : : 0 0C
B C
L1 = B .. .. .. .. C ;
@ . . . .A
`m1 0 ::: ::: 0 1
0 1
1 0 0 0 ::: 0
B0 1 0 0 : : : 0C
B C
B 1 0 : : : 0C
L2 = B0 `32 C; (1.11)
B .. .. .. .. C
@. . . .A
0 `m2 0 ::: 0 1
..
.0 1
1 0 0 0
B .. .. .. C
B .C
Lm 1 = B. . C:
@0 : : : : : : 1 0A
0 : : : : : : `m;m 1 1

Algunas de las Li listadas en (1.11) podrían ser Im para permitir en la re-


ducción columnas cero o el caso m > n. Cada matriz Li es invertible y
0 1 1 0 1
1 0 ::: 0 0 ::: 0 1 0 ::: 0 0 0 :::
B .. .. .. .. C B .. .. ..
.. C
B. . . .C B. . .
.C
B C B C
B0 : : : 0 1 0 : : : 0C B0 : : : 0
1 0 : : : 0C
B C =B C
B0 : : : 0 ci+1 1 : : : 0C B0 : : : 0
ci+1 1 : : : 0C
B. .. .. .. .. C B. ..
.. .. .. C
@ .. . . . .A @ .. .. . .A
0 : : : 0 cm 0 ::: 1 0 ::: 0
cm 0 : : : 1
(1.12)
1 1 1
Ahora si Lm 1 L1 M = U , entonces M = L1 L2 Lm 1 U . La ecuación
1 1 1
(1.12) implica que L1 L2 Lm 1 es el siguiente producto de matrices tri-
63

angulares inferiores.
0 1
0 1 1 0 0 0 ::: 0
1 0 ::: ::: 0 0 B
B B0 1 0 0 : : : 0C
B `21 1 0 : : : 0 0C C B0
C
L 1 1 L2 1 Lm1 1 = B .. .. .. .. C B `32 1 0 : : : 0C C
@ . . . .A B @ ..
. .. .. .. C
. . .A
`m1 0 ::: ::: 0 1
0 `m2 0 : : : 0 1
0 1
1 0 0 0
B .. .. .. C
B. . .C
B C
@0 ::: ::: 1 0A
0 ::: ::: `m;m 1 1
0 1
1 0 ::: ::: 0 0
B `21 1 ::: ::: 0 0C
B C
B `31 `32 1 ::: 0 0C
= B C:
B .. .. .. .. C
@ . . . .A
`m1 `m2 : : : : : : `m;m 1 1

De este modo, M es un producto de una matriz triangular inferior L1 1 L2 1 Lm1 1


y una matriz triangular superior U . Registramos estos hechos en el siguiente
teorema,

Teorema 1.16.4 Sea M 2 K m n . Suponga que M se puede reducir a una


matriz triangular superior U sin usar transposiciones. Entonces M = LU
con L una matriz de m m triangular inferior con 1 en la diagonal.
La factorización de M que se obtuvo en el teorema 1.16.4 es llamada una
factorización LU de M . Aunque las factorizaciones LU no son en general
únicas, veremos que son muy útiles.

Ejemplo 1.16.5 Sea 0 1


1 4 0 0
M = @2 1 1 1A :
3 5 2 3
Sea 0 1
1 0 0
L1 = @ 2 1 0A :
3 0 1
64

Entonces 0 1
1 4 0 0
@
L1 M = 0 7 1 1A :
0 7 2 3
Sea 0 1
1 0 0
@
L2 = 0 1 0A :
0 1 1
Entonces 0 1
1 4 0 0
@
L2 L1 M = 0 7 1 1A = U;
0 0 1 2
una matriz triangular superior. Entonces
0 10 1
1 0 0 1 4 0 0
1 1 @
L1 L2 U = 2 1 0 A @ 0 7 1 1A
3 1 1 0 0 1 2

es una factorización LU de M .
Hemos visto en la prueba del teorema 1.16.3 que a lo más necesitamos
m 1 transposiciones y matrices triangulares inferiores elementales para
reducir M a una matriz triangular superior U . En el ejemplo 1.16.5, el número
de renglones m = 3 y así m 1 = 2 y se requirieron dos Li para reducir M
a U . En nuestro próximo ejemplo m > n y requiere menos de (m 1) de las
Li para reducir M a una matriz triangular superior.

Ejemplo 1.16.6 Sea 0 1


1 2
B1 3C
M =B
@2
C:
1A
1 4
Sea 0 1
1 0 0 0
B 1 1 0 0C
L1 = B
@ 2
C:
0 1 0A
1 0 0 1
65

Entonces 0 1
1 2
B0 1C
L1 M = B
@0
C:
3A
0 2
Luego sea 0 1
1 0 0 0
B0 1 0 0C
L2 = B
@0
C:
3 1 0A
0 2 0 1
Entonces 0 1
1 2
B0 1C
L 2 L1 M = B C
@0 0A = U
0 0
una matriz triangular superior. Así, una factorización LU de M es como
sigue: 0 1 0 10 1
1 2 1 0 0 0 1 2
B1 3C B1 1 0 0C B0 1C
B C B CB C:
@2 1A = @2 3 1 0A @0 0A
1 4 1 2 0 1 0 0
En este ejemplo, m 1 = 3 y se necesitan dos Li para reducir M a una
matriz triangular superior U .
La siguiente pregunta para pensar es: ¿Qué sucede si las transposiciones
son necesarias para reducir por renglones M a una matriz triangular superior?
Resulta que todavía es posible obtener una factorización LU siempre que
estemos dispuestos a permutar los renglones de M primero. Necesitamos el
lema siguiente.
Lema 1.16.7 Sea L la matriz m m
0 1
1 0 ::: 0 0 ::: ::: 0
B .. .. .. C
B. . . C
B C
B0 : : : : : : 1 0 ::: ::: 0 renglón i C
B C
L = B0 : : : : : : ci+1 1 0 ::: 0 renglón i + 1C :
B. .. .. C
B .. . . C
B C
@0 : : : : : : cm 0 ::: ::: 1 A
columna i
66

Sea E una transposición de la forma


0 1
Ii j 0
E=@ j A
0 j Q
donde Q es una matriz de transposición de (m i) (m i). Ponga
0 1 0 1
ci+1 yi+1
B C B C
Q @ ... A = @ ... A :
cm ym
Entonces EL = L0 E donde L0 es la matriz de m m
0 1
1 0 ::: 0 0 ::: ::: 0
B .. .. .. C
B. . .C
B C
B0 : : : : : : 1 0 : : : : : : 0C
B C:
B0 : : : : : : yi+1 1 0 : : : 0C
B. .. .. C
@ .. . .A
0 : : : : : : ym 0 : : : : : : 1
Demostración Particione
0 1
Ii j 0
L=@ j A
Z j Im i
donde Z es la matriz (m i) i
0 1
0 ::: 0 ci+1
B .. .. .. C :
@. . . A
0 : : : 0 cm
Entonces
0 10 1
Ii j 0 Ii j 0
EL = @ j A@ j A
0 j Q Z j Im i
0 1
Ii j 0
= @ j A
QZ j QIm i
0 1
Ii j 0
= @ j A:
0
Z j Q
67

Aquí 0 1
0 ::: 0 yi+1
0 B .. .. .. C :
Z = QZ = @ . . . A
0 ::: 0 ym
Por otra parte,
0 10 1
Ii j 0 Ii j 0
L0 E = @ j A@ j A
Z0 j Im i 0 j Q
0 1
Ii j 0
= @ j A:
Z0 j Q

De este modo, EL = L0 E.
Por lo tanto, si L es una matriz triangular inferior elemental y E es
una transposición, que intercambia dos renglones debajo del renglón i-ésimo,
entonces EL = L0 E donde L0 es otra matriz triangular inferior elemental.
Podemos usar esta idea para generalizar nuestra discusión acerca de las fac-
torizaciones LU .

Teorema 1.16.8 Sea M 2 K m n . Entonces existe una matriz de permutación


P y matrices triangulares inferiores elementales Lm 1 ; : : : ; L1 como en la
ecuación (1.11) tales que Lm 1 L1 P M es una matriz triangular superior.
Demostración Hemos visto que existen transposiciones E1 ; : : : ; Em 1 y ma-
trices triangulares inferiores L01 ; : : : ; L0m 1 tales que

L0m 1 Em 1 L01 E1 M = U (una matriz triangular superior)

La idea de la prueba es usar el lema 1.16.7 para mover las Ei en la ecuación


mas allá de las L0j . El lema 1.16.7 implica que E2 L01 = L001 E2 donde L001 es una
matriz triangular inferior elemental. Tenemos entonces que

L0m 1 Em 1 L03 E3 L02 L01 E2 E1 M = U:

De nuevo, por el lema 1.16.7, E3 L02 = L002 E3 y E3 L001 = L000


1 E3 . Haciendo estas
sustituciones tenemos que

L0m 1 Em 1 L03 L002 L000


1 E3 E2 E1 M = U:
68

Es claro ahora que la aplicación repetida de este argumento eventualmente


resulta en la factorización siguiente

Lm 1 Lm 2 L1 Em 1 Em 2 Em 1 M = U:

Haciendo P = Em 1 Em 2 Em 1 ; P es una matriz de permutación y

Lm 1 L m 2 L1 P M = U:

Por lo tanto, si estamos dispuestos a permutar los renglones de M primero,


la nueva matriz P M tendrá una factorización LU .

Corolario 1.16.9 Sea M 2 K m n . Existe una matriz de permutación P tal


que P M tiene una factorización LU .
Demostración Por el teorema 1.16.8, existen matrices triangulares inferiores
elementales Lm 1 ; : : : ; L1 y una matriz de permutación P tal que

Lm 1 Lm 2 L1 P M = U;

una matriz triangular superior. Entonces

P M = L1 1 Lm1 1 U

es una factorización LU de P M .

Ejemplo 1.16.10 Sea


0 1
1 0 1 2
M = @ 2 0 1 3A :
1 1 2 1

Si 0 1
1 0 0
L = @ 2 1 0A
1 0 1
entonces
0 1 0 1
1 0 1 2 1 0 1 2
LM = @0 0 1 1A y E23 (LM ) = @0 1 3 3 A:
0 1 3 3 0 0 1 1
69

Así, la multiplicación por E23 L convierte a M en una matriz triangular su-


perior. Sea P = E23 . Entonces
0 1
1 0 1 2
PM = @ 1 1 2 1A :
2 0 1 3

Reduzca P M con
0 1
1 0 0
L = @ 1 1 0A
2 0 1
0 10 1 0 1
1 0 0 1 0 1 2 1 0 1 2
LP M = @ 1 1 0A @ 1 1 2 1A = @0 1 3 3 A = U:
2 0 1 2 0 1 3 0 0 1 1

Por lo tanto, la factorización LU de P M es como sigue:


0 10 1
1 0 0 1 0 1 2
PM = @ 1 1 0A @0 1 3 3 A:
2 0 1 0 0 1 1

Terminamos esta sección con una discusión sobre por qué las factoriza-
ciones LU son útiles en las aplicaciones. Supongamos que queremos resolver
una gran cantidad de problemas de la forma M x = b. Aquí M es una matriz
k ` …ja, la misma en todos los problemas, b es un vector columna de tamaño
k que varía de un problema a otro. En esta situación, no tiene sentido hacer
la reducción por renglones de (M j b) una y otra vez conforme b varía. Es
más e…ciente encontrar una factorización LU de alguna permutación de M ,
digamos P M y proceder de la siguiente manera.
Para resolver M x = b.

(a) Encuentre una factorización LU tal que P M = LU .

(b) Reemplace M x = b con P M x = P b, i.e., con LU x = P b:

(c) Resuelva Ly = P b por sustitución hacia adelante.

(d) Resuelva U x = y por sustitución hacia atrás.


70

Los puntos importantes aquí son (c) y (d). Ya que ambas L y U son
matrices triangulares, las ecuaciones Ly = P b y U x = y se pueden resolver
fácilmente.

Ejemplo 1.16.11 Suponga que


0 10 1 0 1
1 4 0 x1 1
@2 1 1A @x2 A = @4A :
3 5 2 x3 8

La factorización LU de M es
0 1 0 10 1
1 4 0 1 0 0 1 4 0
@2 1 1A = @2 1 0A @0 7 1A :
3 5 2 3 1 1 0 0 1

Note que no fueron necesarias transposiciones para reducir M a una matriz


triangular superior. Ahora resolvermos el sistema de ecuaciones triangular
inferior por sustitución hacia adelante
0 10 1 0 1
1 0 0 y1 1
@2 1 0A @y2 A = @4A
3 1 1 y3 8

De este modo, y1 = 1; y2 = 2; y3 = 3. Finalmente, resolvemos el sistema de


ecuaciones triangular superior por sustitución hacia atrás
0 10 1 0 1
1 4 0 x1 1
@0 7 1A @x2 A = @2A
0 0 1 x3 3

Obtenemos que x3 = 3; x2 = 1=7 y x1 = 3=7.

1.17. Ejercicios
1. Muestre que una matriz M de k ` puede tener dos factorizaciones LU
diferentes.

2. Liste todas las matrices de permutación posibles de 2 2 y 3 3.


¿Cuántas matrices de permutación k k existen?
71

3. Suponga que P es una matriz de permutación de k k. Muestre que


P T = P 1.

4. Demuestre que si M es una matriz k k invertible tal que no es necesario


aplicar nigún intercambio de renglones durante la eliminación gaussia-
na, entonces M se puede factorizar de manera única como M = LU .

5. Encuente la factorización P M = LU de
0 1
0 7 4 1
B5 3 9 2C
M =B @2
C:
1 0 4A
16 5 11 8

6. Sea M 2 Rk k . Suponga que M tiene una factorización LU; M = LU ,


con las entradas en la diagonal de U distintas de cero. Muestre que
existe una matriz diagonal D de k k y una matriz triangular superior
U1 tal que

a) [U1 ]ii = 1 para todo i = 1; : : : ; k


b) M = LDU1 .

Esta descomposición es llamada una factorización LDU de M . Muestre


que las factorizaciones LDU (cuando existen son únicas).

7. Pruebe que si M es una matriz simétrica (M = M T ) de k k que


admite una descomposición LDU , entonces la descomposición LDU de
M es de la forma LDLT .
CAPÍTULO 2

Determinantes

Una de las metas en álgebra lineal es ser capaces de determinar cuándo


una matriz cuadrada es invertible. En este capítulo, damos un criterio general
para la invertibilidad de matrices cuadradas. Para ello de…nimos el determi-
nante para campos arbitrarios K, aunque esto puede hacerse tambien sobre
cualquier anillo conmutativo con identidad A.

2.1. La función determinante


Recuerde que la ecuación
ax = b (2.1)
tiene solución única si y solo si a 6= 0, en cuyo caso la solución está dada por
b
x= = a 1 b:
a
Ahora un sistema de dos ecuaciones y dos variables,

ax + by = p
(2.2)
cx + dy = q;

tiene una solución única si


ad bc 6= 0:

72
73

Usando notación matricial, el sistema puede ser reescrito como

MX = b
a b x p
con M = ;X = ;b = . El número ad bc = det(M ).
c d y q
En analogía con esto, y si consideramos la constante a in (2.1) como una
matriz cuadrada de 1 1, entonces el número a, es el determinante de la matriz
(a). Entonces, la ecuación (2.1) y el sistema (2.2) tienen soluciones únicas, es
decir, las matrices asociadas son invertibles, si y solo si sus determinantes no
son cero. Entonces, la pregunta natural es la siguiente: ¿podemos extender
esta condición para cualquier matriz cuadrada M en Mk k (K)? Es decir,
¿podemos mostrar que la matriz M es invertible si y solo si su determinante
no es cero? Antes de responder a esta pregunta, debemos explicar cómo
encontrar el determinante de una matriz cuadrada M en Mk k (K).
De acuerdo con las de…niciones anteriores, el determinante de la matriz
(a) de 1 1 es a, podemos escribir el determinante de la matriz 2 2 como

det(M ) = ad bc = det(a) det(d) det(b) det(c) (2.3)


Por lo tanto, expresamos el determinante de la matriz M de 2 2 utilizando
determinantes de matrices 1 1. Ahora, podemos de…nir el determinante de
forma recursiva, lo que signi…ca que la de…nición del determinante de una
matriz k k utiliza el determinante de matrices de (k 1) (k 1).
Entonces, queremos obtener una fórmula análoga para una matriz en
Mk k (K) para cualquier k 1. Para este propósito, es más conveniente
reescribir la matriz M en M2 2 (K) como

m11 m12
M=
m21 m22
y reescribir (2.3) como

det(M ) = det(m11 ) det(m22 ) det(m12 ) det(m21 ):

Ahora, para encontrar y expresar el determinante de una matriz M de 3 3,


consideramos el sistema de ecuaciones lineales

m11 x1 + m12 x2 + m13 x3 = b1


m21 x1 + m22 x2 + m23 x3 = b2
m31 x1 + m32 x2 + m33 x3 = b3 :
74

Se puede comprobar que este sistema de ecuaciones tiene solución única


si y solo si

m11 (m22 m33 m23 m32 ) m12 (m21 m33 m23 m31 )+m13 (m21 m32 m22 m31 ) 6= 0:

Llamamos a este número, el determinante de la matriz


0 1
m11 m12 m13
M = @m21 m22 m23 A :
m31 m32 m33

Entonces
m22 m23 m21 m23 m21 m22
det M = m11 det m12 det + m13 det
m32 m33 m31 m33 m31 m32
= m11 M11 m12 M12 + m13 M13 ;

donde M11 se obtiene suprimiendo el primer renglón y la primera columna


de la matriz M y calculando el determinante del matriz de 2 2 resultante.
Similarmente M12 y M13 se obtienen suprimiendo el primer renglón y las
columnas 2 y 3, respectivamente y calculando los determinantes de las ma-
trices respectivas de 2 2 que se obtienen. Estos Mij son llamados los menores
de M .

De…nición 2.1.1 Sea M una matriz de k k y Mij el determinante de la


matriz de (k 1) (k 1) obtenida de M eliminando el renglón i y la columna
j. Entonces Mij es el menor ij de M . El cofactor ij de M , denotado Cij
está dado por
Cij = ( 1)i+j Mij :

Ejemplo 2.1.2 Sea 0 1


5 4 20
M= @ 0 1 3 A:
2 1 21
Entonces
5 20
M32 = det = 15
0 3
0 1
M13 = det = 2:
2 1
75

y
C32 = ( 1)3+2 M32 = ( 15) = 15
C13 = ( 1)1+3 M13 = 2:
Usando la de…nición de arriba podemos escribir
0 1
m11 m12 m13
@
det m21 m22 m23 A = m11 C11 + m12 C12 + m13 C13 :
m31 m32 m33
Ahora, esta fórmula para el determinante puede ser generalizada a cualquier
matriz cuadrada como sigue.
0 1
m11 m12 m1k
Bm21 m22 m2k C
B C
De…nición 2.1.3 Sea M = B .. .. .. C una matriz de k k.
@ . . . A
mk1 mk2 mkk
Entonces el determinante de M , denotado por det(M ) (algunas veces sim-
plemente como jM j), está dado por
det(M ) = m11 C11 + m12 C12 + + m1k C1k
Xk
= m1j C1j ;
j=1

que se llama expansión por cofactores o expansión de Laplace del determi-


nante a lo largo del primer renglón.

Ejemplo 2.1.4 El determinante de la matriz


0 + 1
2 3 4+ 7
B1 2 5 2C
M =B @0
C
1 7 1A
1 0 2 3
es
0 1 0 1 0 1 0 1
2 5 2 1 5 2 1 2 2 1 2 5
det(M ) = 2 det @ A @ A @
1 7 1 + 3 det 0 7 1 + 4 det 0 1 1A @
7 det 0 1 7A
0 2 3 1 2 3 1 0 3 1 0 2
= 2(57) + 3(38) + 4( 3) 7(17) = 97:
76

2.2. Propiedades de los determinantes


Para las matrices triangulares el determinante es fácil de calcular.

Teorema 2.2.1 Sea M = (mij ) una matriz de k k triangular superior o


inferior. Entonces
det(M ) = m11 m22 mkk :
Demostración Haremos la prueba para matrices triangulares superiores.
Por inducción sobre k.
Si k = 2,
m11 m12
M= ; det M = m11 m22 :
0 m22
Ahora,
0 1 0 1 0 1
m11 m12 m1k m22 m23 m2k 0 m23 m2k
B 0 m22 C
m2k C B m3k C B0 m33 m3k C
B B 0 m33 C B C
det B .. .. ... .. C = m11 det B .. .. ... .. C m12 det B .. .. ... .. C
@ . . . A @ . . . A @. . . A
0 0 mkk 0 0 mkk 0 0 mkk
0 1
0 m22 m2;k 1
B0 0 m3;k 1 C
B C
+ + ( 1)1+k m1k det B .. .. .. .. C
@. . . . A
0 0 mk;k 1
0 1
m22 m23 m2k
B 0 m33 m3k C
B C
= m11 det B .. .. . . .. C
@ . . . . A
0 0 mkk
= m11 m22 m33 mkk ;
77

ya que, por hipótesis de inducción,


0 1
m22 m23 m2k
B 0 m33 m3k C
B C
det B .. .. ... .. C = m22 m33 mkk
@ . . . A
0 0 mkk
0 1
0 m23 m2k
B0 m33 m3k C
B C
det B .. .. .. .. C = 0
@. . . . A
0 0 mkk
.. ..
0 1. = .
0 m22 m2;k 1
B0 0 m3;k 1 C
B C
det B .. .. .. .. C = 0
@. . . . A
0 0 mk;k 1

Ejemplo 2.2.2
0 1
2 3 4
det @0 2 1 A = (2)( 2)( 1) = 4:
0 0 1

Para calcular el determinante podemos hacer el desarrollo a lo largo de


cualquier renglón de la matriz.

Teorema 2.2.3 Sea M = (mij ) una matriz de k k. Entonces

det(M ) = mi1 Ci1 + mi2 Ci2 + + mik Cik ;

para i = 1; 2; : : : ; k.
Demostración Por inducción sobre k. Para k = 2,

m11 m12
M =
m21 m22
det(M ) = m11 C11 + m12 C12 = m11 m22 m12 m21 :
78

Expandiendo a lo largo del segundo renglón,

det(M ) = m21 C21 + m22 C22 = m21 m12 + m22 m11 :

Suponemos ahora que el teorema es cierto para matrices de tamaño (k 1)


(k 1). La expansión a lo largo del primer renglón da el siguiente sumando
típico
m1` C1` = ( 1)1+` m1` M1` : (2.4)
Este es el único lugar en la expansión del det(M ) en que parece el término
m1` ya que otro sumando típico distinto sería

m1n C1n = ( 1)1+n m1n M1n

con ` 6= n y M1n se obtiene calculando el determinante de la submatriz que


se obtiene eliminando el primer renglón y la columna n-ésima de M (y m1`
está en el primer renglón de M ).
Como M1` es el determinante de una matriz S1` de (k 1) (k 1),
por la hipótesis de inducción, se puede calcular expandiendo a lo largo del
renglón i de M (que es el renglón (i 1) de S1` ). Un término general de esta
expasión es

j` jp
1
j j mip (cofactor de mip en S1` )(` 6= p) (2.5)
j i
j j

Este es el único término en la espansión del det(S1` ) en el i-ésimo renglón de


M que contiene al elemento mip . Sustituyendo (2.5) en (2.4) da

( 1)1+` m1` mip (cofactor de mip en S1` )(` 6= p). (2.6)

Este es el único lugar en la expansión del det(M ) a lo largo del primer renglón
en que aparece m1` mip .
Ahora si se expande por cofactores en el renglón i de M (donde i 6= 1) el
sumando general es
( 1)i+p mip Mip
79

y el término general en el cálculo de Mip = det Sip a lo largo de primer renglón


es
j` jp
j 1
j j m1` (cofactor de m1` en Sip )(` 6= p). (2.7)
j j i
j j
Si se inserta (2.7) en (2.6), la única ocurrencia del término mip m1` en la
expansión del renglón i del det(M ) es
( 1)i+p mip m1` (cofactor de m1` en Sip )(` 6= p). (2.8)
Sea S1i;`p la submatriz de M de (k 2) (k 2) obtenida al eliminar los
renglones 1 e i y las columnas ` y p de M (esto se llama menor de segundo
orden de M ). Si ` < p
cofactor de mip en S1` = ( 1)(i 1)+(p 1) det S1i;`p
cofactor de m1` en Sip = ( 1)1+` det S1i;`p
y, por lo tanto, (2.6) y (2.8) son
( 1)i+`+p 1 m1` mip det S1i;`p
( 1)i+`+p+1 m1` mip det S1i;`p ;
respectivamente. Si ` > p, entonces S1i;`p es
jp j`
j 1
j j
j j i
j j
y
cofactor de mip en S1` = ( 1)(i 1)+p det S1i;`p
cofactor de m1` en Sip = ( 1)1+(` 1) det S1i;`p :
Por lo tanto, (2.6) y (2.8) son
( 1)i+`+p m1` mip det S1i;`p
( 1)i+`+p m1` mip det S1i;`p :
80

Ejemplo 2.2.4 Si expandimos el determinante de la matriz


0 + 1
2 3 4+ 7
B1 2+ 5 2+ C
M =B @0
C
1 7 1 A
1 0 2 3

del ejemplo 2.1.4 a lo largo del segundo renglón, se obtiene

det(M ) = 1C21 + 2C22 + 5C23 2C24


0 1 0 1
3 4 7 2 4 7
= det @ 1 7 1A + 2 det @0 7 1A
0 2 3 1 2 3
0 1 0 1
2 3 7 2 3 4
5 det @0 1 1A 2 det @0 1 7A
1 0 3 1 0 2
= ( 59) + 2( 7) 5( 2) 2( 21)
= 97:

Teorema 2.2.5 Si algún renglón de la matriz M es cero, entonces det(M ) =


0.
Demostración Suponga que el renglón i de M contiene solo ceros. Esto es,
mij = 0 para j = 1; 2; : : : ; k. Entonces

det(M ) = mi1 Ci1 + mi2 Ci2 + + mik Cik


= 0+0+ +0
= 0:

Ejemplo 2.2.6 0 1
5 4 2
det @ 0 0 0 A = 0:
1 10 1000
Ahora veamos cómo afecta el cálculo del determinante, cuando realizamos
una operación elemental sobre la matriz.
81

Teorema 2.2.7 Sea N la matriz que se obtiene al multiplicar el renglón i


de M por un escalar c, entonces det(N ) = c det(M ).
Demostración Sea
0 1
m11 m12 m1k
B .. .. .. C
B . . . C
B C
N = Bcmi1 cmi2 cmik C :
B . .. .. C
@ .. . . A
mk1 mk2 mkk

Si calculamos el determinate de N expandiendo a lo largo del renglón i,


obtenemos

det(N ) = cmi1 Ci1 + cmi2 Ci2 + + cmin Cin


= c(mi1 Ci1 + mi2 Ci2 + + min Cin )
= c det M:

0 1
2 4 6
@
Ejemplo 2.2.8 Sea M = 1 3 2A. Entonces
2 1 7
0 1
1 2 3
@
det(M ) = 2 det 1 3 2A = 2( 8) = 16:
2 1 7
82

Teorema 2.2.9 Sean


0 1
m11 m12 m1k
B .. .. .. C
B . . . C
B C
M = B mi1 mi2 mik C
B . .. .. C
@ .. . . A
mk1 mk2 mkk
0 1
m11 m12 m1k
B .. .. .. C
B . . . C
B C
N = B i1 i2 ik C
B . .. .. C
@ .. . . A
mk1 mk2 mkk
0 1
m11 m12 m1k
B .. .. .. C
B . . . C
B C
P = Bmi1 + i1 mi2 + i2 mik + ik C :
B .. .. .. C
@ . . . A
mk1 mk2 mkk

Entonces det(P ) = det(M ) + det(N ).


Demostración Se expande el det(P ) a lo largo del renglón i para obtener:

det(P ) = (mi1 + i1 )Ci1 + (mi2 + i2 )Ci2 + + (mik + ik )Cik


= mi1 Ci1 + mi2 Ci2 + + mik Cik +
+ i1 Ci1 + i2 Ci2 + + ik Cik
= det(M ) + det(N ):
83

Ejemplo 2.2.10 Sean


0 1
5 4 3
M = @ 1 2 5A
7 9 3
0 1
5 4 3
N = @1 2 5A
7 9 3
0 1
5 4 3
P = @0 0 0A :
7 9 3

Entonces det(P ) = 0, pues tiene un renglón de ceros y como N se obtuvo


de M multiplicando el segundo renglón por 1, det(N ) = det(M ), por lo
tanto, det(M ) + det(N ) = 0 = det(P ). De hecho, det(M ) = 196.
Si intercambiamos dos renglones de la matriz, otra operación elemental
renglón, el determinante cambia de signo.

Teorema 2.2.11 El intercambio de dos renglones cualesquiera de M tiene


el efecto de multiplicar det(M ) por 1.
Demostración Suponemos primero que se cambian dos renglones adya-
centes i e i + 1:
0 1
m11 m12 m1k
B .. .. .. C
B . . . C
B C
B mi1 mi2 mik C
M = B C
Bmi+1;1 mi+1 ;2 mi+1;k C
B . .. .. C
@ .. . . A
mk1 mk2 mkk
0 1
m11 m12 m1k
B .. .. .. C
B . . . C
B C
Bmi+1;1 mi+1;2 mi+1;k C
N = B C:
B mi1 mi2 mik C
B . .. .. C
@ .. . . A
mk1 mk2 mkk
84

Hacemos las expansiones siguientes.

renglón i : det(M ) = mi1 Ci1 + + mik Cik


0 0
renglón i + 1 : det(N ) = ni+1;1 Ci+1;1 + + ni+1;k Ci+1;k
0 0
= mi1 Ci+1;1 + + mik Ci+1;k :

Tenemos que Cij = ( 1)i+j Mij . Si eliminamos de N el renglón i + 1 y la


columna j se obtiene el mismo Mij y así
0
Ci+1;j = ( 1)i+j+1 Mij = ( 1)( 1)i+j Mij = Cij :

Por lo tanto, det(N ) = det(M ).


Ahora suponga que i < j y que se intercambian los renglones i y j. Esto
se puede hacer intercambiando renglones adyacentes varias veces.
5 5 5 8 8 8
6 6 8 5 6 6
7 8 6 6 5 7
8 7 7 7 7 5
Se harán j i intercambios para mover el renglón j al renglon i. Entonces
el renglón i estará en el renglón i + 1 y pasará por otros j i 1 intercambios
para moverlo al renglón j:Por lo tanto,

# intercambios = (j i) + (j i 1)
= 2j 2i 1;

que es un número impar.

Ejemplo 2.2.12
0 1 0 1
0 a 0 0 b 0 0 0
Bb 0 0 0C B0 a 0 0C
det B
@0
C = det B C
0 0 cA @0 0 0 cA
0 0 d 0 0 0 d 0
0 1
b 0 0 0
B0 a 0 0C
= det B
@0 0
C
d 0A
0 0 0 c
= abcd:
85

Teorema 2.2.13 Si M tiene dos renglones iguales, det(M ) = 0.


Demostración Sea M una matriz de k k. La prueba es por inducción
sobre k. Si k = 2, entonces
m11 m12
det(M ) = det = m11 m12 m12 m11 = 0:
m11 m12
Suponga ahora que k > 2 y el resultado es válido para matrices de (k 1)
(k 1). Suponga que los renglones i y j de la matriz M son iguales. Entonces,
haciendo la expansión a lo largo del renglón `; ` distinto de i y de j (posible
ya que k > 2), tenemos que
det(M ) = m`1 C`1 + m`2 C`2 + + m`k C`k;
donde C`p = ( 1)`+p M`p ; p = 1; : : : ; k. Pero M`p es el determinante de una
matriz de (k 1) (k 1) con dos renglones iguales. De aquí, por hipótesis
de inducción, M`p = 0; p = 1; : : : ; k. Por lo tanto, det(M ) = 0.

Ejemplo 2.2.14 Si 0 1
5 3 p7
M = @4 2A ;
5 3 7
entonces det(M ) = 0.

Teorema 2.2.15 Si un renglón es un múliplo escalar de otro renglón en-


tonces det(M ) = 0.
Demostración Suponga que
mj1 mj2 mjk = c mi1 mi2 mik :
Entonces,
0 1
m11 m12 m1k
B .. .. .. C
B . . . C
B C
B mi1 mi2 mik C
B . .. .. C renglón i
det(M ) = c det B
B .. . . CC
Bm mik C
B i1 mi2 C renglón j
B . .. .. C
@ .. . . A
mk1 mk2 mkk
= c 0 = 0:
86

Ejemplo 2.2.16 El
0 1
5 4 3
det @ 1 2 3 A = 0;
10 8 6
ya que el tercer renglón es igual a 2 veces el primero.

Teorema 2.2.17 Si se suma un múltiplo escalar de un renglón M a otro


renglón de M , entonces el determinante no cambia.
Demostración Sea N la matriz que se obtiene al sumar c veces el renglón
i al renglón j de M .
0 1
m11 m12 m1k
B m21 m22 m2k C
B C
B .. .. .. C
B . . . C
B C
B mi1 mi2 mik C
det N = det B B .
.. .
.. .
..
C
C
B C
Bm + cm m + cm mjk + cmik C
B j1 i1 j2 i2 C
B . . . C
@ .
. .
. .
. A
mk1 mk2 mkk
0 1 0 1
m11 m12 m1k m11 m12 m1k
Bm21 m22 m C B m2k C
B 2k C B m21 m22 C
B .. .. .. C B .. .. .. C
B . . . C B . . . C
B C B C
(teorema 2.2.9) B mi1 mi2 mik C B mi1 mi2 mik C
= B
det B .. .. .. C + det B
C .. C
B ... ..
. C
B . . . C B . C
Bm m m C Bcm cmi2 cmik C
B j1 j2 jk C B i1 C
B . .. .. A C B . .. .. C
@ .. . . @ .. . . A
mk1 mk2 mkk mk1 mk2 mkk
= det(M ) + 0 = det(M ):

Teorema 2.2.18 Sea M una matriz k k. Entonces


mi1 Cj1 + mi2 Cj2 + + mik Cjk = 0 si i 6= j:
87

Demostración Sea
0 1
m11 m12 m1k
Bm21 m22 m2k C
B C
B .. .. .. C
B . . . C
B C
B mi1 mi2 mik C
N =B
B ... .. .. C :
B . . CC
Bm mi2 mik C
B i1 C renglón j
B . .. .. C
@ .. . . A
mk1 mk2 mkk

Entonces, por el teorema 2.2.13, det(N ) = 0. Pero N = M , excepto en el


renglón j. Expandiendo a lo largo del renglón j de N , se obtiene

mi1 Cj1 + mi2 Cj2 + + mik Cjk :

Comentario 2.2.19 Es imposible calcular un determinante de 25 25 con


un desarrollo por cofactores. Requiere alrededor de 25! multiplicaciones. Una
computadora tardaría años en realizar el cálculo. Hay métodos más rápidos
como veremos.

2.3. Cálculo de determinantes usando propiedades


El determinante de una matriz M de k k puede ser calculado como
sigue.

I Reduzca M a la forma escalonada, usando únicamente adición de renglones


e intercambio de renglones.

II Si cualquiera de las matrices que parecen en la reducción contiene un


renglón de ceros, entonces det(M ) = 0.

III De otro modo,

det(M ) = ( 1)r (producto de los pivotes); (2.9)

donde r es el número de intercambios de renglón realizados.


88

Ejemplo 2.3.1 Encontramos el determinante de la siguiente matriz


0 1
2 2 0 4
B3 3 2 2C
M =B @0 1 3 2A
C

2 0 2 1
reduciéndola a su forma escalonada.
0 1 0 1
2 2 0 4 R21 ( 32 ) 2 2 0 4
B3 3 2 2C R41 ( 1) B0 0 2 4C
det B@0 1 3 2A
C = det B
@0
C
1 3 2A
2 0 2 1 0 2 2 3
0 1
2 2 0 4
R23 B 0 1 3 2C
= det B @0 0 2
C
4A
0 2 2 3
0 1
2 2 0 4
R42 (2) B0 1 3 2 C
= det B
@0 0 2
C
4A
0 0 8 1
0 1
2 2 0 4
R43 ( 4) B0 1 3 2 C
= det B@0 0 2
C
4A
0 0 0 17
= (2)(1)(2)(17) = 68:

Ejemplo 2.3.2
0 1 0 1
1 2 0 0 1 2 0 0
B3 C
2 0 0 C 21
R ( 3) B0 8 0 0C
det B
@0 = det B C
0 1 5A @0 0 1 5A
0 0 7 2 0 0 7 2
0 1
1 2 0 0
R43 ( 7) B0 8 0 0C
= det B @0 0 1
C
5A
0 0 0 37
= ( 8)(37) = 296:
89

Comentario 2.3.3 La mayoría de los programas de cómputo que calculan


det(M ) para una matriz general M de k k utilizan la fórmula (2.9) ante-
rior. Requiere cerca de 2k 3 =3 operaciones aritméticas. Con este método, una
computadora puede calcular un determinante de 25 25 en una fracción de
segundo.

2.4. Matrices invertibles y determinantes. De-


terminante de un producto de matrices
Ahora se quiere probar que para dos matrices M y N cualesquiera de
k k; det(M N ) = det(M ) det(N ).
Primero calculamos el valor del determinante de una matriz elemental.

Lema 2.4.1 Sea E una matriz elemental.


(i) Si E = Rij entonces det(E) = 1:
(ii) Si E = Rji (c) entonces det(E) = 1.
(iii) Si E = Ri (c) entonces det(E) = c.
Demostración La matriz E se obtiene haciendo una sola operación elemen-
tal renglón sobre la matriz identidad I, cuyo det(I) = 1, por el teorema 2.2.1.
Ahora, para (i) E se obtiene intercambiando los renglones i y j de I. Por el
teorema 2.2.11, det(E) = 1. La matriz E de (ii) se obtiene multiplicando
el renglón i de la matriz identidad por c y sumándolo al renglón j, así que
por el teorema 2.2.17, el determinante no cambia, det E = 1. Para (iii), por
el teorema 2.2.7, det E = c.

Lema 2.4.2 Sea M de k k y E una matriz elemental. Entonces


det(EM ) = det(E) det(M ):
Demostración Usando el lema 2.4.1 anterior, examinamos cada una de las
operaciones elementales.
I Sea E = Rij . Entonces EM intercambia los renglones i y j de M y por lo
tanto, det(EM ) = det(M ) = det(E) det(M ).
II Sea E = Rji (c). Entonces EM se obtiene multiplicando el renglón i de
M por c y sumándolo al renglón j. Por lo tanto,
det(EM ) = det(M ) = det(E) det(M ):
90

III Si E = Ri (c); EM es M con el renglón i de M multiplicado por c. De


aquí que
det(EM ) = c det(M ) = det(E) det(M ):

Teorema 2.4.3 Sea U 2 K k k


triangular superior. Entonces U es invertible
si y solo si det(U ) 6= 0.
Demostración Sea
0 1
u11 u12 u1k
B 0 u22 u2k C
B C
U = B .. .. .. C :
@ . . . A
0 0 ukk

Entonces det(U ) = u11 u22 unn . Así, det(U ) 6= 0 si y solo si todos los
elementos de la diagonal son distintos de cero.
Si det(U ) 6= 0, entonces U se puede reducir por renglones a la matriz
identidad I. Para i = 1; 2; : : : ; n, se divide el renglón i de U por uii 6= 0, para
obtener 0 1
1 u012 u01k
B0 1 u02k C
B C
B .. .. .. C
@. . . A
0 0 1
Esta es la forma escalonada por renglones. Multiplicando los pivotes por
constantes adecuadas, vemos que la ferr de U es I y por lo tanto, por el
teorema 1.12.4, U es una matriz invertible.
Supongamos ahora que U es una matriz invertible. Entonces U es equiva-
lente por renglones a la matriz identidad, esto es, existen matrices elementales
tal que
U = E1 E2 Em :
Por el lema 2.4.2, det(U ) = det(E1 E2 Em ) = det(E1 ) det(E2 ) det(Em ) 6=
0.
El teorema anterior es válido para cualquier matriz M .

Teorema 2.4.4 Sea M 2 K k k . Entonces M es invertible si y solo si det(M ) 6=


0.
91

Demostración Tenemos que

M = E1 E2 Em U;

donde E1 ; E2 ; : : : ; Em son matrices elementales y U es una matriz triangular


superior. Entonces

det(M ) = det(E1 ) det(E2 ) det(Em ) det(U ):

Ya que det(Ei ) 6= 0 para i = 1; 2; : : : ; m; det(M ) 6= 0 si y solo si det(U ) 6= 0.


Suponga que M es invertible, entonces U es invertible y por lo tanto
det(U ) 6= 0, que implica que det(M ) 6= 0 .
Ahora, si det(M ) 6= 0, entonces det(U ) 6= 0 y U es invertible. Por lo tanto
M es invertible.

Teorema 2.4.5 Sean M; N 2 K k k . Entonces

det(M N ) = det(M ) det(N ):

Demostración Dividimos la prueba en varias partes.

I Suponga que det(M ) = det(N ) = 0, entonces N no es invertible y por lo


tanto, existe x 6= 0 tal que N x = 0. De aquí, M N x = 0 y de este modo,
M N no es invertible, det(M N ) = 0.
II Suponga ahora que det(M ) = 0 y det(N ) 6= 0. Como M no es invertible,
existe y 6= 0 tal que M y = 0 . Como det(N ) 6= 0; N es invertible y así
existe un único x 6= 0 tal que N x = y. Entonces M N x = 0 y M N no
es invertible. Por lo tanto, det(M N ) = 0.
III Si det(M ) 6= 0; M es invertible y se puede escribir como un producto de
matrices elementales
M = E1 E2 Em :
Entonces M N = E1 E2 Em N y

det(M N ) = det(E1 E2 Em N )
= det(E1 ) det(E2 ) det(Em ) det(N )
= det(E1 E2 Em ) det(N )
= det(M ) det(N ):
92

El determinante de una suma no siempre es igual a la suma de los deter-


minantes, i.e., en general

det(M + N ) 6= det(M ) + det(N ):

Ejemplo 2.4.6 Sean

5 4 2 1
M= ;N = :
1 2 2 5

Entonces det(M ) = 14; det(N ) = 12. Pero

7 5
M +N =
3 7

y det(M + N ) = 64 6= det(M ) + det(N ) = 26.

Teorema 2.4.7 Si P M = LU , donde P es una matriz de permutación y


L es una matriz triangular inferior con 1 en la diagonal y U es triangular
superior, entonces
det U
det M = = det U:
det P
Demostración det(P M ) = det(P ) det(M ) = det U . Ya que

P = Pn P n 1 P 2 P1 ;

donde cada Pi es una matriz de permutación elemental y por lo tanto det Pi =


1. De aquí,
det P = ( 1)n = 1:
det U
De este modo, det M = = det U .
det P
En esta sección se analiza la forma en que se pueden calcular las inversas
de las matrices haciendo uso de los determinantes.

Proposición 2.4.8 Si M es invertible, entonces

1 1
det M = :
det M
93

Demostración Si M es invertible, entonces M M 1 = I la matriz identidad.


De aquí, 1 = det I = det(M M 1 ) = det M det M 1 . Por lo tanto, det M 6= 0
y
1
det M 1 = :
det M

Teorema 2.4.9 det M = det M T .


Demostración Si M = LU entonces M T = (LU )T = U T LT . De aquí,

det M = det U
det M T = det U T = det U:

Si P M = LU , entonces det P det M = det P M = det M T P T = det M T det P T .


Ya que P T = P 1 ; det P T = det P 1 = det P ,

det M = det M T :

Como los renglones de una matriz son las columnas de su transpuesta, se


deduce que todo lo que se pueda decir sobre los renglones de los determinantes
es cierto también para sus columnas.

Ejemplo 2.4.10 Sea 0 1


4 7 2
M= @ 3 5 1 A:
8 6 9
Expandiendo en el segundo renglón se obtiene

7 2 4 2 4 7
det M = 3 det 5 det 1 det
6 9 8 9 8 6
= 3(75) 5(20) (80) = 405:

Del mismo modo, si se expande en la tercera columna se obtiene

3 5 4 7 4 7
det M = 2 det det + 9 det
8 6 8 6 3 5
= 2( 22) 80 + 9( 41) = 405:
94

Antes de usar determinantes para calcular las inversas es necesario de…nir


la adjunta de una matriz M .

De…nición 2.4.11 Sean M 2 K k k y Cij ; 1 i; j k los cofactores de M ,


la matriz C de…nida por
0 1
C11 C12 : : : C1k
BC21 C22 : : : C2k C
B C
C = B .. .. . . .. C
@ . . . . A
Ck1 Ck2 : : : Ckk

es llamada la matriz de cofactores de M y la transpuesta de C es llamada la


adjunta (o adjugada) de M y escribimos

adj(M ) = C T :

Ejemplo 2.4.12 Sea 0 1


3 1 0
M = @1 1 2A :
1 1 1
Entonces
1 2 1 2 1 1
C11 = ( 1)1+1 det = 3; C12 = det = 1; C13 = det =2
1 1 1 1 1 1
1 0 3 0 3 1
C21 = det = 1; C22 = det = 3; C23 = det = 2
1 1 1 1 1 1
1 0 3 0 3 1
C31 = det = 2; C32 = det = 6; C33 = det = 4:
1 2 1 2 1 1
Entonces la matriz de cofactores es
0 1
3 1 2
C= @ 1 3 2A
2 6 4
y la adjunta de M ,
0 1
3 1 2
T
adj(M ) = C = @ 1 3 6A :
2 2 4
95

Teorema 2.4.13 Sea M una matriz de k k. Entonces


0 1
det M 0 0 ::: 0
B 0 det M 0 ::: 0 C
B C
B 0 C
(M )(adjM ) = B 0 0 det M ::: C = (det M )I:
B .. .. .. .. C
@ . . . . A
0 0 0 : : : det M

Demostración Sea D = (dij ) = (M )(adj M ). Entonces


0 10 1
m11 m12 m1k C11 C21 Ck1
Bm21 m22 C B
m2k C BC12 C22 Ck2 C
B C
D = B .. .. .. C B .. .. .. C :
@ . . . A@ . . . A
mk1 mk2 mkk C1k C2k Ckk

Se tiene que

dij = (renglón i de M ) (columna j de adj M )


0 1
Cj1
BCj2 C
B C
= mi1 mi2 mik B .. C :
@ . A
Cjk

Así,
dij = mi1 Cj1 + mi2 Cj2 + + mik Cjm : (2.10)
Ahora si i = j, la suma en (2.10) es igual a mi1 Ci1 + mi2 Ci2 + + mik Cik
que es la expansión de det M a lo largo del renglón i. Por otro lado, si i 6= j,
entonces la suma en (2.10) es igual a cero. Por lo tanto

det M si i = j
dij =
0 si i 6= j:

Esto prueba el teorema.


Ahora se puede establecer el resultado principal.

Corolario 2.4.14 Sea M una matriz de k k. Si M es invertible, entonces

1 1
M = adjM:
det M
96

Demostración Si M es invertible, entonces det M 6= 0. Entonces

1 1 1
(M ) adj M = [M (adj M )] = (det M )I = I:
det M det M det M

1 1
De aquí, M = adj M .
det M
Ejemplo 2.4.15 Sea 0 1
3 1 0
M = @1 1 2A :
1 1 1
Como det M = 8, la matriz M es invertible. Del ejemplo 2.4.12 anterior
0 1
3 1 2
adjM = @ 1 3 6A :
2 2 4

Así,
0 1
3 1 2
1@
M 1
= 1 3 6A
8
2 2 4
0 1
3=8 1=8 1=4
= @ 1=8 3=8 3=4 A
1=4 1=4 1=2

m11 m12
Ejemplo 2.4.16 Sea M = . Entonces la matriz de cofactores
m21 m22
m22 m21
de M; C = y por lo tanto
m12 m11

m22 m12
adjM = C T = :
m21 m11

De aquí, si det M 6= 0, entonces

1 1 m22 m12
M = :
det M m21 m11
97

2.5. Factorización LU y determinantes


Sea M una matriz cuadrada de k k. Se desea resolver el sistema de
ecuaciones
Mx = b
donde M es una matriz invertible. La mejor manera de resolver esta ecuación
(sistema) es reemplazar la matriz de coe…cientes M con otra matriz que es
triangular. Este procedimiento es la eliminación gaussiana y es básicamente
equivalente a escribir M en la forma

M = LU

donde L es una matriz triangular inferior y U es una matriz triangular su-


perior. La pregunta ahora es la siguiente: ¿existe esta descomposición y si
existe, es única?
Para proporcionar una respuesta, iniciamos con las de…niciones siguientes.

De…nición 2.5.1 (menor principal) Sea M una matriz de k k. La sub-


matriz principal de orden `; (1 ` k) es la submatriz formada eliminado
de M; k ` renglones y k ` columnas con los mismos índices (por ejemplo,
elimina los renglones 1; 2 y 5 y las columnas 1; 2 y 5). El determinante de
esta submatriz es llamado el menor principal de orden ` de M .
De los menores principales, uno es líder.

De…nición 2.5.2 (menor principal líder) Sea M una matriz de k k.


Un menor de orden `; (1 ` k) es llamado un menor principal líder de
orden ` si es el determinante de la submatriz obtenida eliminando de M los
últimos k ` renglones y columnas. Esta submatriz es llamada la submatriz
principal líder.

Ejemplo 2.5.3 Considere la matriz


0 1
1 2 0
M = @ 1 3 4A :
2 2 5
98

Entonces los menores principales líderes de M son

M (1) = det(1) = 1
1 2
M (2) = det =5
1 3
M (3) = det(M ) = 33:

Teorema 2.5.4 (descomposición LU ) Sea M una matriz invertible de k


k. Entonces M admite una descomposición única de la forma

M = LU (2.11)

donde L es una matriz triangular inferior con 1 en la diagonal y U es una


matriz triangular superior si y solo si todos sus menores principales líderes
son distintos de cero. En este caso,

det(M ) = det(U ) = producto de los elementos de la diagonal de U:

Demostración Probamos primero la unicidad. Asuma que existen L1 ; L2 ; U1


y U2 satisfaciendo las suposiciones del teorema, tal que

M = L1 U1 = L2 U2 :

Esto da, multiplicando por la izquierda por L2 1 y por la derecha por U1 1

(recuerde que las cuatro matrices son invertibles, ya que M es invertible),

L2 1 L1 = U2 U1 1 :

Ahora, ponemos L = L2 1 L1 y U = U2 U1 1 . Es claro que L es una matriz


triangular inferior y U es una matriz triangular superior. De este modo,
ya que L = U , son necesariamente matrices diagonales con las entradas
diagonales de L siendo 1. Entonces tenemos que L = U = Ik . Esto muestra
que L1 = L2 y U1 = U2 , así que la descomposición (2.11), es única.
La prueba de la existencia de la factorización (2.11), es hecha por in-
ducción en k (el tamaño de la matriz). Trivialmente, si k = 1, entonces
M = (m) = (1)(m), así que (2.11) es satisfecha cuando k = 1. Asuma ahora
que (2.11) se sostiene para una matriz de tamaño (k 1) (k 1) y particione
M como
Mk 1 m 1
M= ;
mT2 mkk
99

donde Mk 1 es una matriz de (k 1) (k 1); m1 y m2 son elementos de


K k 1 y mkk 2 K. Ahora, es claro de las hipótesis del teorema que todos
los menores principales líderes de Mk 1 son distintos de cero y de este modo
Mk 1 es invertible. De aquí, podemos aplicar la hipótesis de inducción a Mk 1
y escribirla como
Mk 1 = Lk 1 Uk 1 ;
donde Lk 1 y Uk 1 son matrices de (k 1) (k 1) con Lk 1 una matriz
triangular inferior cuyos elementos diagonales son 1 y Uk 1 es una matriz
triangular superior.
Ahora considere las dos matrices de k k,
Lk 1 0 Uk 1 c
L= yU= ; (2.12)
dT 1 0 mkk dT c

donde c y d están en K k 1
y deben ser determinados. Ahora la fórmula
M = LU , da
Lk 1 Uk 1 Lk 1 c Mk 1 m 1
LU = = :
dT Uk 1 mkk mT2 mkk
Esto implica que
Lk 1 c = m1 y dT Uk 1 = mT2 :
Ya que Lk 1 y Uk 1 son matrices invertibles, entonces c y d están determi-
nados de manera única como
c = Lk 1 1 m1 y dT = mT2 Uk 11 :
Por lo tanto, hemos mostrado que M = LU con L y U únicos y dados como
en (2.12).
El recíproco es claro, ya que si M tiene la factorización (2.12), entonces
si M (`) es el menor principal líder de M de orden `, entonces
M (`) = L(`) U (`) ;
donde L(`) y U (`) son dos menores principales líderes de orden ` de L y U ,
respectivamente. Por consiguiente,
Y
M (`) = ujj
1 j m

que es distinto de cero, ya que U es una matriz invertible. Esto completa la


prueba del teorema.
100

Ejemplo 2.5.5 Considere la matriz


0 1
1 2 4
M = @3 8 14A :
2 6 13
Primero calculamos los menores líderes de M , obteniendo
1 2
M (1) = det(1) = 1; M (2) = det = 2; M (3) = det M = 6:
3 8
De este modo, de acuerdo al teorema anterior, la descomposición LU existe
y tenemos
0 1
1 2 4
M = @3 8 14A
2 6 13
0 10 1
1 0 0 u11 u12 u13
= @l21 1 0A @ 0 u22 u23 A
l31 l32 1 0 0 u33
0 1
u11 u12 u13
= @l21 u11 l21 u12 + u22 l21 u13 + u23 A:
l31 u11 l31 u12 + l32 u22 l31 u13 + l32 u23 + u33
Resolviendo el sistema obtenemos,
0 1 0 1
1 0 0 1 2 4
L = @3 1 0A y U = @0 2 2A :
2 1 1 0 0 3

2.6. Regla de Cramer


En la sección presente se examina un viejo método para resolver sistemas
con el mismo número de incógnitas y ecuaciones. Considere el sistema de k
ecuaciones lineales con k incónitas.
m11 x1 + m12 x2 + + m1k xk = b1
m21 x1 + m22 x2 + + m2k xk = b2
..
. (2.13)
mk1 x1 + mk2 x2 + + mkk xk = bk
101

que se puede escrbir como M x = b. Si det M 6= 0, el sistema (2.13) tiene


solución única dada por x = M 1 b. Se puede desarrollar un método para
encontrar dicha solución sin reducción por renglones y sin calcular M 1 .
Sea D = det M . Se de…nen k matrices:
0 1 0 1 0 1
b1 m12 m1k m11 b1 m1k m11 m12 b1
Bb2 m22 C
m2k C B C B b2 C
B Bm21 b2 m2k C Bm21 m22 C
M1 = B .. .. .. C ; M2 = B .. .. .. C ; : : : ; Mk = B .. .. .. C :
@. . . A @ . . . A @ . . .A
bk mk2 mkk mk1 bk mkk mk1 mk2 bk
Es decir, Mi es la matriz obtenida al reemplazar la columna i de M por b.
Por último, sea D1 = det M1 ; D2 = det M2 ; : : : ; Dk = det Mk :

Teorema 2.6.1 (regla de Cramer) Sea M una matriz de k k y suponga


que det M 6= 0. Entonces la solución única de M x = b está dada por
Di
xi = ; i = 1; : : : ; k:
D
Demostración La única solución es x = M 1 b. Pero
0 10 1
C11 C21 Ck1 b1
1 B
1 BC12 C22 C B
Ck2 C Bb2 CC
M 1 b = (adj M )b = B .. .. .. C B .. C :
D D@ . . . A @ .A
C1k C2k Ckk bk
Si se expande el determinate de Mj respecto a su columna j se obtiene
Dj = b1 C1j + b2 C2j + + bk Ckj :
Por lo tanto, 0 1 0 1
D1 D1 =D
1 B C B
BD2 C BD2 =D C
C
x = B .. C = B .. C :
D@ . A @ . A
Dk Dk =D

Ejemplo 2.6.2 Resolvemos el sistema


2x1 + 4x2 + 6x3 = 18
4x1 + 5x2 + 6x3 = 24
3x1 + x2 2x3 = 4;
102

usando la regla de Cramer.


0 1
2 4 6
@
D = det 4 5 6 A = 6 6= 0:
3 1 2
Así que el sistema tiene solución única.
0 1 0 1 0 1
18 4 6 2 18 6 2 4 18
D1 = det @24 5 6 A = 24; D2 = det @4 24 6 A= 12; D3 = det @4 5 24A = 18:
4 1 2 3 4 2 3 1 4
De aquí, x1 = D1 =D = 24=6 = 4; x2 = D2 =D = 12=6 = 2; x3 = D3 =D =
18=6 = 3.

2.7. Ejercicios
1. Consider la matriz 0 1
c 2 0
M = @1 c 2A ;
0 1 c
donde c es un número real. Encuentre todos los valores de c, si hay
alguno, para los cuales M es invertible.
2. Sean M y N dos matrices invertibles de k k. Muestre que si
MN = N M;
entonces k es par.
3. (Determinante de Vandermonde) De…nimos el determinante de Vander-
monde V (a1; a2 ; : : : ; ak ) como el determinante de la matriz de Vandermonde
0 1
1 a1 a21 a1n 1
B1 a2 a2 a2n 1 C
B 2 C
Vk = B .. .. .. C : (2.14)
@. . . A
1 ak a2k akn 1

Encuentre V (a1; a2 ; : : : ; ak ) para todo k 1. Deduzca que el deter-


minante de Vandermonde es cero si y solo si al menos dos de las ai
coinciden. Sugerencia: use inducción en k.
103

4. (Matriz de Hankel) De…nimos la matriz de Hankel como


0 1
s0 s1 s2 sn 1
B s1 s2 s3 sn C
B C
Hn = B .. .. .. C = (si+j 2 ) ; 1 i; j n;
@ . . . A
sn 1 sn sn+1 s2n 2
Pn k
donde sk = i=1 ai ; 0 k 2n 2; para algunos a1 ; a2 ; : : : ; an 2 K.
a) Muestre que Hn = VnT Vn , donde Vn es la matriz de Vandermonde
(2.14).
b) Encuentre el det Hn .
5. Sea M una matriz cuadrada de k k, sobre un campo K tal que 2 6= 0.
Recuerde que M es llamada antisimétrica si M T = M . Sea M una
matriz de k k antisimétrica. Muestre que si k es impar det(M ) = 0.
6. (Matriz compañera) La matriz compañera asociada al polinomio p(x) =
a0 + a1 x + + an 1 xn 1 + xn se de…ne como la matriz
0 1
0 1 0 0
B .. C
B 0 0 1 . 0 C
B . .. .. .. C
Cp = B .. . . . C ;
B C
@ 0 0 0 1 A
a0 a1 a2 an 1
donde a0 ; a1 ; : : : ; an 1 2 K.
a) Muestre que det(Cp ) = ( 1)n a0 . Sugerencia: reduza Cp a su fer.
b) Pruebe que det( I CP ) = p( ).
c) Deduzca que det( I CP ) = 0 si y solo si es una raíz de p.
7. La matriz A de n n es llamada tridiagonal si tiene la forma
0 1
a1 b 1 0 : : : : : : 0
B .. C
B c 1 a2 b 2 . C
B C
B 0 c 2 a3 b 3 : : : 0 C
An = B
B ... .. .. .. .. C :
B . . . . C
C
B. ... ... ... C
@ .. bn 1 A
0 ::: 0 cn 1 an
104

a) Muestre que
det(An ) = an det(An 1 ) bn 1 c n 1 det(An 2 ); n 3:
b) La sucesión de Fibonacci es la sucesión de números 1; 2; 3; 5; 8; 13; : : :
generada por la relación Fn = Fn 1 + Fn 2 ; n 3, con F1 = 1 y
F2 = 2. Muestre que el determinante de la matriz de Fibonacci
0 1
1 1 0 ::: ::: 0
B .. C
B 1 1 1 .C
B C
B0 1 1 1 : : : 0C
Bn = BB ... . . . . . . .. C
B . . . .C C
B . ... ... ... C
@ .. 1A
0 ::: 0 1 1
es el n-ésimo número de Fibonacci Fn .
8. Sea M una matriz de n n y sean A; B; C y D matrices cuadradas de
p p con 2p = n.
a) Muestre que si
A 0p p
M=
0p p D
entonces
det M = det A det D = det(AD): (2.15)
b) Muestre que (2.15) permanece verdadero si M tiene una de las
formas
A 0p p A B
M= oM= :
C D 0p p D
c) Muestre que si M es la matriz escrita en bloques como
A B
M= ;
C D
entonces la fórmula
det M = det(AD BC)
no es verdadera en general.
d) (Fórmula de Schur) Muestre que si D es invertible, entonces
det M = det D det(A BD 1 C):
CAPÍTULO 3

Espacios vectoriales

El álgebra lineal y la geometría son disciplinas a…nes. Si echamos mano


de los vectores, necesitamos de un punto como origen o anclaje en el que
apoyar los vectores y mirando atentamente a sus extremos, descubrimos que
allí están ubicados los puntos todos ellos, los que pueblan y llenan el espacio,
Así, nuestros objetos geométricos son ciertos subconjuntos de los espacios
vectoriales. Para estudiarlos no necesitamos de un sistema de coordenadas.

3.1. De…niciones, ejemplos y propiedades bási-


cas
Recuerde que un grupo es un conjunto no vacío G junto con una operación
binaria

G G ! G
(a; b) 7! ab

satisfaciendo las condiciones siguientes:

G1 (asociatividad) para todo a; b; c 2 G,

(ab)c = a(bc):

105
106

G2 (existencia de un elemento neutro (identidad)) existe un elemento e 2 G


tal que
ae = ea = a
para todo a 2 G;
G3 (existencia del inverso) para cada a 2 G, existe a0 2 G tal que

aa0 = a0 a = e:

Usualmente, denotamos un grupo por (G; ). Si ab = ba para todo a; b 2 G


entonces el grupo es llamado conmutativo o abeliano.

Proposición 3.1.1 En un grupo el elemento neutro es único.


Demostración Si e; e0 fueran dos elementos identidad, entonces ya que e es
una identidad,
ee0 = e0 ;
y ya que e0 es una identidad,
ee0 = e:
De este modo e = e0 .
Similarmente, el elemento inverso en un grupo es único.

Proposición 3.1.2 Sea G un grupo. Para cada a 2 G el inverso es único


Demostración Suponga que a 2 G tiene dos inversos b y b0 . Por lo tanto

ab = ba = e;
ab0 = b0 a = e;

entonces

b0 = b0 e
= b0 (ab)
= (b0 a) b
= (e) b
= b:

Por lo tanto, el inverso es único y será denotado por a 1 .


Una propiedad importante de los grupos es la siguiente:
107

Proposición 3.1.3 (ley de cancelación) Sean a; b; c elementos de un grupo


G. Si ab = ac, entonces b = c. Si ba = ca, entonces b = c.
1
Demostración Si multiplicamos a ambos lados de ab = ac, por a por la
izquierda;

a 1 ab = a 1 ac
eb = ec
b = c.

Analogamente para ba = ca solo que ahora por la derecha.

Ejemplo 3.1.4 Uno de los grupos abelianos más simples es el grupo de en-
teros (Z; +) con la adición (+) como la operación binaria. La estructura del
grupo en este conjunto da signi…cado a los enteros negativos como los inver-
sos de los enteros positivos con respecto a la ley de suma (+).

Ejemplo 3.1.5 El conjunto de matrices K k `


es un grupo abeliano con respec-
to a la suma usual de matrices.

Ejemplo 3.1.6 El conjunto de n-tuplas K n = (x1 ; x2 ; : : : ; xn )T : xi 2 K; 1 i n


o K n = f(x1 ; x2 ; : : : ; xn ) : xi 2 K; 1 i ng con la suma

(x1 ; x2 ; : : : ; xn )T + (y1 ; y2 ; : : : ; yn )T = (x1 + y1 ; x2 + y2 ; : : : ; xn + yn )T o


(x1 ; x2 ; : : : ; xn ) + (y1 ; y2 ; : : : ; yn ) = (x1 + y1 ; x2 + y2 ; : : : ; xn + yn )

es un grupo abeliano.

De…nición 3.1.7 Sea V un conjunto no vacío y sea K un campo. Se dan


dos operaciones sobre V ; una interna denotada por (+) y de…nida por:

V V ! V : (v; w) 7! v + w

llamada suma (cerradura de la suma) y una externa denotada por ( ) llama-


da multiplicación por un escalar (cerradura de la multiplicación escalar) y
de…nada como:
K V ! V : (c; v) 7! c v = cv:
Entonces V es llamado un espacio vectorial sobre K si para todo x; y en
V y para todo ; 2 K las propiedades siguientes se sostienen:
108

1. (V; +) es un grupo abeliano.


2. 1K x = x.
3. ( x) = ( )x (asociatividad).
4. (x + y) = x + y (primera ley distributiva)
5. ( + )x = x + x (segunda ley distributiva).

Ejemplo 3.1.8 El espacio de n- tuplas K n es un espacio vectorial con la


suma de…nida como en el ejemplo 3.1.6. El producto de un escalar 2 K y
el elemento (x1 ; x2 ; : : : ; xn )T o (x1 ; x2 ; : : : ; xn ) 2 K n es

(x1 ; x2 ; : : : ; xn )T = ( x1 ; x2 ; : : : ; xn )T o
(x1 ; x2 ; : : : ; xn ) = ( x1 ; x2 ; : : : ; xn ):

Que esta adición y multiplicación escalar cumplen las condiciones 2-5 es fácil
de veri…car, usando las propiedades semejantes de la adición y multiplicación
de los elementos de K.

Ejemplo 3.1.9 (espacio vectorial nulo) Sea V = f0g.

Ejemplo 3.1.10 El espacio de matrices m n; K m n


con la suma usual de
matrices
(A + B)ij = aij + bij
y el producto por un escalar 2 K y una matriz A de…nido por

( A)ij = aij :

Obsérvese que K n 1
= K n.

Ejemplo 3.1.11 V = f(x; y) 2 R2 : y = mx donde m es …jog. Esto es, V


consiste en todos los puntos que están sobre la recta y = mx que pasa por el
origen y tiene pendiente m. Todo elemento en V es un elemento de R2 y R2
es un espacio vectorial. De este modo, se cumplen los axiomas 2-5 excepto
quizás, la cerradura de la suma y la multiplicación por un escalar. Suponga
ahora que x = (x1 ; y1 ); y = (x2 ; y2 ) 2 V . Entonces, y1 = mx1 ; y2 = mx2 y

x + y = (x1 + x2 ; y1 + y2 )
= (x1 + x2 ; m(x1 + x2 )) 2 V:
109

También (0; 0) = (0; m0) 2 V; (x; y) = ( x; m( x)) y (x; y) (x; y) = (0; 0)


que, junto con la asociatividad de la suma, hacen de (V; +) un grupo abeliano.
Ahora, si (x; y) 2 V entonces (x; y) = ( x; m( x)) 2 V y la multipli-
cación por un escalar es cerrada.

Ejemplo 3.1.12 Una recta que no pasa por el origen no constituye un es-
pacio vectorial. Por ejemplo,

V = (x; y) 2 R2 : y = 2x + 1

no cumple la cerradura de la suma.

Ejemplo 3.1.13 Sea V = f(x; y; z) 2 R3 : ax + by + cz = 0g. Esto es, V es


el conjunto de puntos de R3 que está en el plano con vector normal (a; b; c)
y que pasa por el origen. Entonces V es un espacio vectorial.

Ejemplo 3.1.14 El espacio de funciones de un conjunto en un campo, V =


ff : S ! Kg. Entonces con la suma usual de funciones:

(f + g)(s) = f (s) + g(s); s 2 S

y la multiplicación escalar

( f )(s) = f (s); 2 K;

es un espacio vectorial sobre K. De cálculo, en particular, V = C[0; 1] =


ff : [0; 1] ! Rg o C[a; b] el conjunto de funciones continuas con valores reales
de…nidas en [0; 1] ([a; b]) forman un espacio vectorial, ya que la suma de dos
funciones continuas es continua y la multiplicaicón de una función continua
por un número real es una función continua.

Ejemplo 3.1.15 El conjunto K[t] de polinomios en la variable t con coe…-


cientes en K bajo la suma usual de polinomios y multiplicación por un escalar
(polinomio constante) es un espacio vectorial.
Hay unos pocos hechos simples que se desprenden, casi inmediatamente,
de la de…nición de espacio vectorial y procedemos a derivarlos.

Teorema 3.1.16 (propiedades elementales de los espacios vectoriales)


En cualquier espacio vectorial, si x; y; z denotan elementos arbitrarios y ;
son escalares arbitrarios, entonces
110

(i) (Ley de cancelación de la adición de vectores). Si x+z = y+z entonces


x = y.
(ii) 0x = 0.
(iii) 0 = 0.
(iv) ( )x = ( x) = ( x).
(v) Si x = 0 entonces = 0 o x = 0.
(vi) Si x = y y 6= 0 entonces x = y.
(vii) Si x = x; x 6= 0 entonces = .
(viii) (x + y) = ( x) + ( y) = x y. P
(ix) x + x = 2x; x + x + x = 3x y en general ni=1 x = nx.
Demostración (i) Es la ley de cancelación en el grupo (V; +).
(ii) 0x = (0 + 0)x = 0x + 0x implica que 0x + 0 = 0x + 0x. Por la ley de
cancelación, 0x = 0.
(iii) 0 = (0 + 0) = 0 + 0 implica que 0 = 0.
(iv) ( )x + x = ( + )x = 0x = 0. De aquí, ( x) = ( )x.
Por otra parte, ( x) + x = ( x + x) = 0 = 0, de donde se sigue que
( x) = ( x).
(v) Si 6= 0; 1 ( x); x = 0.
(vi) x = y implica que (x y) = 0. Ya que 6= 0, por (iv), x y = 0.
Exto implica que x = y.
(vii) Similar a la anterior.
(viii) (x + y) + ( x y) = x + ( x) + y + ( y) = 0. También, (x + y) +
[( x) + ( y)] = x + ( x) + y + ( y) = 0.
Por lo tanto, (x + y) = ( x) + ( y) = x y.
(ix) x + x = (1 + 1)x = 2x; x + x + x = 2x + x = 3x.
Por
Pn inducción,
Pn 1
i=1 x = i=1 x + x = (n 1)x + x = nx.

3.2. Ejercicios
1. Una función f de…nida sobre la línea real con valores reales es llamada
una función par (impar) si f ( t) = f (t) (f ( t) = f (t)) para cada
número real t. Pruebe que el conjunto de las funciones pares (impares)
de…nidas sobre la línea real con las operaciones de adición y multi-
plicación escalar de…nidas en el ejemplo 3.1.14 es un espacio vectorial
sobre R.
111

2. Sea R+ el conjunto de los números reales positivos. Considere R+ junto


con las operaciones: de adición

: R + R + ! R+
(x; y) !
7 x y 3

y multiplicación escalar

: R R+ ! R+
( ; x) !
7 x 3 +3

¿R+ junto con estas operaciones es un espacio vectorial sobre R? Jus-


ti…que su respuesta.

3. Pruebe que R es un espacio vectorial sobre R con las operaciones x y =


x + y 1; x= x + 1. ¿Cuál es el neutro aditivo en este espacio
vectorial? En este contexto, ¿qué signi…ca x?

4. En lo que sigue, determine si el conjunto dado es un espacio vectorial.


De no ser así explique por qué:

a) El conjunto de polinomios de grado n con término constante


cero.
p
b) El conjunto de números reales de la forma a + b 2, donde a y
b son números racionales, bajo la suma de números reales usu-
al y la multiplicación por un escalar de…nida solo para escalares
racionales.

3.3. Subespacios vectoriales


En esta sección se introducirán algunos conceptos básicos en el estudio
de los espacios vectoriales.

De…nición 3.3.1 Sea V un espacio vectorial sobre el campo K. Un subes-


pacio de V es un subconjunto W de V que, con las operaciones de adición
vectorial y multiplicación escalar sobre V , es él mismo un espacio vectorial
sobre K.
112

En cualquier espacio vectorial V , note que V y f0g son subespacios. Am-


bos se conocen como subespacios triviales. Los subespacios no triviales son
llamados subespacios propios.

De…nición 3.3.2 Un subconjunto H de un grupo G se llama un subgrupo


de él si tiene las siguientes propiedades:
Cerradura: Si a; b 2 H, entonces ab 2 H.
Identidad: e 2 H.
Inversos: Si a 2 H, entonces a 1 2 H.
La primera condición, dice que la operación binaria del grupo G se puede
usar para de…nir una operación binaria sobre H, llamada la operación binaria
inducida. La segunda y la tercera condición, dicen que H es un grupo con
respecto a esta ley inducida. En la de…nición hemos mencionado todas las
partes de la de…nición de un grupo excepto la ley asociativa.
No se menciona la asociativa, ya que el conjunto H la hereda automáti-
camente de G.
No es necesario veri…car todos los axiomas para probar que un subcon-
junto es un espacio vectorial. El subconjunto W es un subespacio si (W; +)
es un subgrupo de (V; +) y para todo w 2 W y todo escalar 2 K, el vector
w 2 W . Las propiedades 2; 3; 4 y 5 no necesitan ser comprobadas, ya que
se cumplen para todo V . Se pueden simpli…car aún más las cosas.

Teorema 3.3.3 Sea V un espacio vectorial y W un subconjunto de V . En-


tonces W es un subespacio de V si y solo si las tres condiciones siguientes
se sostienen:
(i) 0 2 W .
(ii) x + y 2 W cuando x 2 W e y 2 W .
(iii) x 2 W cuando 2 K y x 2 W .
Demostración Si W es un subespacio de V , entonces W es un espacio
vectorial con las operaciones de adición y multiplicación escalar inducidas
por V . De aquí, las condiciones (ii) y (iii) se sostienen y existe 00 2 W tal
que x + 00 = x para cada x 2 W . Pero también x + 0 = x y de este modo
00 = 0 por la proposición 3.1.1. De este modo, la condición (i) se sostiene.
Recíprocamente, si (i), (ii) y (iii) se cumplen, entonces + es cerrada en
W; 0 2 W y ( 1)w = w 2 W (teorema 3.1.16(iv)), lo cual muestra que
(W; +) es un subgrupo de (V; +). Por la discusión que precede a este teorema,
W es un subespacio de V .
113

Ejemplo 3.3.4 (i) W = f(x; y) 2 R2 : y = 2xg R2 es un subespacio pro-


pio.
(ii) W = f(x; y) 2 R2 : y = x2 g R2 no es un subespacio de R2 , ya que
no es cerrado bajo multiplicación escalar.
(iii) W = f(x; y; z) 2 R3 : x = at; y = bt; z = ct; a; b; c; t 2 Rg R3 , una
recta que pasa por el origen (t = 0) es un subespacio propio de R3 :
Si
x1 = at1 ; y1 = bt1 ; z1 = ct1
x2 = at2 ; y2 = bt2 ; z2 = ct2 ;
entonces
x1 + x2 = a(t1 + t2 ); y1 + y2 = b(t1 + t2 ); z1 + z2 = c(t1 + t2 )
x1 = a( t1 ); y1 = b( t1 ); z1 = c( t1 ):
(iv) W = f(x; y; z) 2 R3 : ax + by + cz = 0; a; b; c 2 Rg R3 , un plano
que pasa por el origen es un subespacio propio de R3 .
(v) No todo espacio vectorial tiene un subespacio propio, e.g., V = K:
Si W 6= f0g V , entonces W tiene un elemento w 6= 0 2 K. Ya que K
es un campo, 1=w 2 K y (1=w)w = 1 2 W y por lo tanto 1 = 2 W para
todo 2 K. De aquí, W = V .
(vi) Las matrices simétricas (A = AT ) forman un subespacio del espacio
de matrices cuadradas K n n .
(vii) Una matriz A de n n sobre el campo C de los números complejos
es hermítica ( o autoadjunta) si
ajk = akj
para todo j; k, donde la barra indica conjugación compleja. Una matriz 2 2
es hermítica si y solo si tiene la forma
a b + ci
b ci d
donde a; b; c y d son números reales. El conjunto de todas las matrices her-
míticas no es un subespacio del espacio de todas las matrices n n sobre C.
En efecto, si A es hermítica , sus elementos en la diagonal a11 ; a22 ; : : : ; ann
son números reales, pero los elementos diagonales de iA, en general, no son
números reales. Por otro lado, es fácil ver que el conjunto de las matrices
hermíticas n n es un espacio vectorial sobre el campo de los números reales
(con la soperaciones usuales).
114

Ejemplo 3.3.5 (espacio solución de un sistema homogéneo de ecuaciones lineales)


Sea M una matriz de k ` sobre K. Entonces el espacio nulo de M ,

N (M ) = x 2 K ` : M x = 0

es un subespacio de K ` :

M 0 = 0, así 0 2 N (M ):
Si x; y 2 N (M ); M (x + y) = M x + M y = 0 + 0 = 0 y por lo tanto x + y 2 N (M ):
Para x 2 N (M ); M ( x) = M x = 0 = 0, que muestra que x 2 N (M ):

Ejemplo 3.3.6 El conjunto de todos los polinomios de grado menor o igual


a n; K[t]n es un subespacio vectorial de K[t] el espacio de los polinomios con
coe…cientes en K.

Ejemplo 3.3.7 C 0 [0; 1] es un subespacio propio de C[0; 1] donde C 0 [0; 1] es


el conjunto de funciones cuyas primeras derivadas son continuas.

Teorema 3.3.8 Sea V un espacio vectorial sobre el campo K. La intersec-


ción de cualquier colección de subespacios de V es un subespacio de V .
Demostración
T Sea Wi ; i 2 I una colección arbitraria de subespacios de V y
sea W = i2I Wi . Dado que todo Wi es un subespacio cada uno contiene al
vector nulo. Así que 0 2 W . Sean x; y 2 W . Por de…nición de W , los vectores
x; y 2 Wi para cada i 2 I y por ser cada Wi subespacio, el vector x + y 2 Wi
para cada i 2 I. Así x + y 2 W . Similaremente, si x 2 W , entonces x 2 Wi
para todo i 2 I y por lo tanto x 2 Wi ; i 2 I. Esto muestra que x 2 W y
que W es un subespacio de V .

Comentario 3.3.9 La unión de dos subespacios de V no es en general un


subespacio de V .

Ejemplo 3.3.10 Sean

W1 = (x; y; z) 2 R3 : x + y 5z = 0
W2 = (x; y; z) 2 R3 : 5x + 3y + 2z = 0

entonces
W1 \ W2 = N (M );
115

1 1 5
donde M = . La forma escalonada reducida de la matriz aumen-
5 3 2
tada (M j 0) es
1 0 17=2 j 0
:
0 1 27=2 j 0
Si hacemos z = t;
17 27
x= t; y = t; z = t:
2 2

3.4. Ejercicios
1. Sea K un campo y k un entero positivo (k 2). Sea V el espacio
vectorial de todas las matrices k k sobre K. ¿Cuáles de los siguientes
conjuntos de matrices M de V son subespacios de V ?

a) todas las M invertibles;


b) todas las M no invertibles;
c) las matrices triangulares superiores;
d) las matrices triangulares inferiores;
e) las matrices diagonales;
f ) todas las M para las que M N = N M , donde N es una cierta
matriz dada de V ;
g) todas las M para las que M 2 = M .

2. Sean W1 y W2 subespacios de un espacio vectorial V tal que W1 [W2 sea


también un subespacio. Muestre que uno de los espacios está contenido
en el otro.

3.5. Espacios generados


Del teorema 3.3.8 se deduce que si S es cualquier conjunto de vectores de
V , entonces existe un subespacio mínimo de V que contiene a S; esto es, un
subespacio que contiene a S y que está contenido en cada unos de los otros
subespacios que contienen a S.
116

De…nición 3.5.1 Sea S un conjunto de vectores de un espacio vectorial V .


El subespacio generado por S se de…ne como la intersección W de todos
los subespacios de V que contienen a S. Cuando S es un conjunto …nito de
vectores, S = fv1 ; v2 ; : : : ; vn g se dice simplemente que W es el subespacio
generado por los vectores v1 ; v2 ; : : : ; vn .

De…nición 3.5.2 Sean v1 ; v2 ; : : : ; vn vectores en un espacio vectorial V . En-


tonces, cualquier expresión de la forma

1 v1 + 2 v2 + + n vn

en donde 1; 2; : : : ; n son escalares se llama combinación lineal de v1 ; v2 ; : : : ; vn .

Ejemplo 3.5.3 (i)


0 1 0 1 0 1
7 1 5
@ 7 A = 2@ 2 A @ 3A :
7 4 1

(ii)
3 2 8 1 0 4 0 1 2
=3 +2 :
1 9 3 1 1 5 2 3 6
(iii) En K[t]n , todo polinomio puedes ser expresado como combinación
lineal de los monomios 1; t; t2 ; : : : ; tn .

Teorema 3.5.4 El subespacio generado por un subconjunto S no vacío de


un espacio vectorial V es el conjunto de todas las combinaciones lineales de
los vectores de S.
Demostración Sea W el subespacio generado por S. Entonces toda combi-
nación lineal
v = 1 v1 + 2 v2 + + n vn
de vectores v1 ; v2 ; : : : ; vn de S pertenece a W . Así W contiene el conjunto L
de todas las combinaciones lineales de vectores de S. El conjunto L, por otra
parte, contiene a S y no es pues vacío. Si v; w pertenecen a L; entonces v es
una combinación lineal,

v= 1 v1 + 2 v2 + + n vn
117

de vectores vi de S y w es una combinación lineal


w= 1 w1 + 2 w2 + + m wm

de vectores wj en S. Entonces
v + w = 1 v1 + 2 v2 + + n vn + 1 w1 + 2 v2 + + m wm
v = ( 1 v1 + 2 v2 + + n vn ) = 1 v1 + 2 v2 + + n vn
0 = 0v1 + 0v2 + + 0vn ;
pertenecen a L. Con lo que L es un subespacio de V .
Se ha demostrado que L es un subespacio de V que contiene a S y también
que todo subespacio que contiene a S contiene a L. Se sigue que L es la
intersección de todos los subespacios que contienen a S; es decir, que L es el
subespacio generado por el conjunto S.
Denotamos al subespacio generado por S como hSi.
1 0 x 1
Ejemplo 3.5.5 (i) i = ;j = generan K 2 , ya que =x +
0 1 0 1 y 0 10
1 0
0
y = xi+yj. Similarmente, K 3 es generado por i = @0A ; j = @1A ; k =
1
0 1 0 0
0
@0A.
1
(ii) K[t]n es generado por 1; t; : : : ; tn .
a b 1 0 0 1 0 0 0 0
(iii) = a +b +c +d , así que
c d 0 0 0 0 1 0 0 1
1 0 0 1 0 0 0 0
; ; y generan K 2 2 .
0 0 0 0 1 0 0 1
(iv) K[t] no es generado por ningún conjunto …nito de polinomios. Supon-
ga que p1 ; p2 ; : : : ; pm son polinomios y sea pk el polinomio de mayor grado
con N = grado pk . Entonces el polinomio p = tN +1 no puede ser escrito como
combinación lineal de p1 ; p2 ; : : : ; pm .
1 3 1 3
(v) R2 = ; . Tenemos que ; R2 . Para la otra
2 4 2 4
x
contención, sea 2 R2 arbitrario. ¿Existen escalares 1 ; 2 2 R tales que
y
x 1 3
= 1 + 2 ?
y 2 4
118

Debemos resolver el sistema de ecuaciones lineales,

1+3 2 = x
2 1+4 2 = y:
Resolviendo el sistema de ecuaciones, formamos su matriz aumentada
1 3 jx
;
2 4 jy
cuya forma escalonada reducida por renglones es
0 1
3y 4x
B1 0 j 2 C
@ y + 2x A :
0 1 j
2
(vi) Sea W = h(1; 3; 2); (4; 1; 5)i R3 . Entonces (x; y; z) 2 W si y
solo si (x; y; z) = 1 (1; 3; 2) + 2 (4; 1; 5), esto es,

1 +4 2 = x
3 1 2 = y
2 1 5 2 = z:
Resolviendo el sistema de ecuaciones lineales,
0 1
1 4 j x
@3 1 j yA
2 5 j z
encontramos que su forma escalonada reducida por renglones es
0 1
x + 4y
B1 0 j 13 C
B 3x y C
B0 1 j C:
B 13 C
@ 17x + 3y + 13z A
0 0 j
13
17x + 3y + 13z
El sistema tiene solución si y solo si = 0, i.e., 17x + 3y +
13
13z = 0 que es la ecuación de un plano que pasa por el origen. En general,
el espacio generado por dos vectores diferentes de cero en R3 que no son
paralelos es un plano que pasa por el origen.
119

Ejemplo 3.5.6 Sea M una matriz k ` sobre el campo K. Los vectores


renglón de M son los vectores de K ` dados por M1 ; M2 ; : : : ; Mk . El subes-
pacio de K ` generado por los renglones de M es llamado el espacio de ren-
glones de M . Los vectores columna de M son los vectores de K k dados por
M 1 ; M 2 ; : : : ; M ` . El subespacio de K k generado por las columnas de M es
llamado el espacio de columnas de M .

Ejemplo 3.5.7 Sea V el espacio de los polinomios K[t]. Sea S el subconjunto


de V que consta de los polinomios 1; t; t2 ; : : : ; tn ; : : :. Entonces V es generado
por S.

Teorema 3.5.8 Si V = hv1 ; v2 ; : : : ; vn i entonces V = hv1 ; v2 ; : : : ; vn ; vn+1 i,


para vn+1 2 V .
Demostración Sea v 2 V . Entonces

v = 1 v1 + 2 v2 + + n vn
= 1 v1 + 2 v2 + + n vn + 0 vn+1 :

De…nición 3.5.9 Si S1 ; S2 ; : : : ; Sk son subconjuntos de un espacio vectorial


V , el conjunto de todas las sumas

v1 + v2 + + vk

de vectores vi 2 Si se llama la suma de los subconjuntos S1 ; S2 ; : : : ; Sk y se


representa por
S1 + S 2 + + Sk
Pk
o por i=1 Si .
Si W1 ; W2 ; : : : ; Wk son subespacios de V , entonces la suma

W = W1 + W2 + + Wk

es un subespacio de V que contiene cada uno de los subespacios Wi . De eso


se sigue, como en la demostración del teorema 3.5.4, que W es el subespacio
generado por la unión de W1 ; W2 ; : : : ; Wk .
120

Ejemplo 3.5.10 Sea V el espacio vectorial de todas las matrices 2 2 sobre


K. Sea W1 el subconjunto de V que consta de todas las matrices de la forma

x y
z 0

donde x; y; z son escalares arbitrarios de K. Por último sea W2 el subconjunto


de V que consta de todas las matrices de la forma

x 0
0 y

donde x e y son escalares arbitrarios de K. Entonces W1 y W2 son subespacios


de V . También
V = W1 + W2
porque
a b a b 0 0
= + :
c d c 0 0 d
El subespacio W1 \ W2 consta de todas las matrices de la forma

x 0
:
0 0

3.6. Ejercicios
1. Sean v1 = (x1 ; y1 ; z1 ) y v2 = (x2 ; y2 ; z2 ) en R3 . Demuestre que si v2 =
v1 ; 2 R, entonces hv1 ; v2 i es una recta que pasa por el origen.

2. Sean fu1 ; u2 ; : : : ; un g y fv1 ; v2 ; : : : ; vn g dos conjuntos de n vectores de


algún espacio vectorial V sobre el campo K. Suponga que

v1 = a11 u1 + a12 u2 + + a1n un


v2 = a21 u1 + a22 u2 + + a2n un
..
.
vn = an1 u1 + an2 u2 + + ann un ;
121

aij 2 K; 1 i n; 1 j n. Demuestre que si


0 1
a11 a12 a1n
B a21 a22 a2n C
B C
det B .. .. .. C 6= 0;
@ . . . A
an1 an2 ann

entonces hu1 ; u2 ; : : : ; un i = hv1 ; v2 ; : : : ; vn i.

3. Muestre que si

1 0 0 0 0 1
M1 = ; M2 = y M3 = ;
0 0 0 1 1 0

entonces hM1 ; M2 ; M2 i es el subespacio de todas las matrices simétricas


2 2.

4. Muestre que si S1 y S2 son subconjuntos arbitrarios de un espacio


vectorial V , tales que S1 S2 entonces hS1 i hS2 i. En partiuclar, si
S1 S2 y hS1 i = V deduzca que hS2 i = V .

5. Sean S1 y S2 subconjuntos de un espacio vectorial V . Pruebe que


hS1 \ S2 i hS1 i\hS2 i. Dé un ejemplo en el cual hS1 \ S2 i = hS1 i\hS2 i
y uno en el que son diferentes.

3.7. Dependencia e independencia lineal


En esta sección se de…ne el signi…cado de independencia lineal y se mues-
tra su relación con la teoría de sistemas homogéneos de ecuaciones y deter-
minantes.
Empezamos tratando de contestar la siguiente pregunta: ¿existe una relación
1 2
especial entre los vectores v1 = y v2 = ? Por supuesto, v2 = 2v1 o
2 4
si se escribe esta ecuación de otra manera,

2v1 v2 = 0:

En otra palabras, el vector cero se puede escribir como una combinación


lineal no trivial de v1 y v2 .
122

De…nición 3.7.1 Sea V un espacio vectorial sobre K. Un subconjunto S de


V se dice linealmente dependiente (o simplemente dependiente) si existen
vectores distintos v1 ; v2 ; : : : ; vn de S y escalares 1 ; 2 ; : : : ; n de K no todos
nulos, tales que
1 v1 + 2 v2 + + n vn = 0:
Un conjunto que no es linealmente dependiente se dice linealmente indepen-
diente. Si el conjunto S tiene solo un número …nito de vectores v1 ; v2 ; : : : ; vn
se dice, a veces, que los v1 ; v2 ; : : : ; vn son dependientes (o independientes),
en vez de decir que S es dependiente (o independiente).

Teorema 3.7.2 Dos vectores en un espacio vectorial son linealmente depen-


dientes si y solo si uno es múltiplo escalar del otro. (En el caso del espacio
Rn esto quiere decir que los vectores son paralelos).
Demostración Si v2 = v1 ; v1 v2 = 0 y v1 ; v2 son linealmente depen-
dientes. Si v1 y v2 son linealmente dependientes, existen constantes 1 ; 2 al
menos una distinta de cero, digamos 1 , tales que

1 v1 + 2 v2 = 0
2
v1 = v2
1

y por lo tanto, v1 es un múltiplo escalar de v2 .


0 1 0 1
3 1
Ejemplo 3.7.3 (i) 0 y @ A @ 0 A son linealmente dependientes ya que
0 1 0 1 4 4=3
3 1
@0A = 3 @ 0 A.
4 0 14=30 1 0 1 0 1
1 0 1 0
@ A @ A
(ii) 0 y 1 son linealmente independientes ya que 0 =@ A @ 1A =
0 1 0 0 0 0
0
@ A implica que = 0, que es imposible.
0 0 1 0 1 0 1
1 0 0
(iii) Los vectores @0A ; @1A y @0A son linealmente independientes.
1 0 1
123

Para ver esto, escribimos la ecuación de dependencia lineal:


0 1 0 1 0 1 0 1
1 0 0 0
1
@ A @ A
0 + 2 1 + 3 0 = 0A@ A @
1 0 1 0

que da origen al siguiente sistema homogéneno de ecuaciones lineales.

1 = 0
2 = 0
1 + 3 = 0

cuya solución es claramente 1 = 2 = 3 = 0.


3 1 4
(iv) ; y son linealmente dependientes ya que la ecuación
2 10 5
de dependencia lineal da origen al sistema homogéneo

3 1 4 j0
2 10 5 j 0

que tiene un número in…nito de soluciones en R2 ya que hay menos ecua-


ciones que incógnitas.
(v) En el espacio vectorial C[0; 1], las funciones sen x y cos x son lineal-
mente independientes. La ecuación de dependencia lineal es

1 sen x+ 2 cos x = 0

para todo x 2 [0; 1]. Tomando x = 0; 2 = 0. Por lo tanto, 1 sen x = 0, que


implica que 1 = 0 ya que sen x 6= 0 para x = 1.
(vi) En K[t]2 los polinomios t y 1 t son linealmente independientes ya
que
1 t + 2 (1 t) = 0
implica que 2 +( 1 2 )t = 0 y por lo tanto, 2 =0y 1 = 2 = 0.
Las siguientes son consecuencias fáciles de la de…nición de dependencia
lineal.

1. Todo conjunto que contiene un conjunto linealmente dependiente es


linealmente dependiente.
124

2. Todo subconjunto de un conjunto linealmente independiente es lineal-


mente independiente.

3. Todo conjunto que contiene al vector 0 es linealmente dependiente; en


efecto, 1 0 = 0.

4. Un conjunto S de vectores es linealmente independiente si y solo si,


todo subconjunto …nito de S es linealmente independiente; es decir,
si y solo si para vectores diferentes v1 ; v2 ; : : : ; vn de S arbitrariamente
elegidos 1 v1 + 2 v2 + + n vn = 0 implica que i = 0; 1 i n.

5. El conjunto vacío es linealmente independiente, porque conjuntos lineal-


mente dependientes deben ser no vacíos.

6. Un conjunto que consiste de un solo vector distinto de cero es lineal-


mente independiente. Porque si fvg es linealmente dependiente, en-
tonces v = 0 para algún escalar distinto de cero . De este modo,
1 1
v= ( v) = 0 = 0:

La cuestión de cuándo S es el conjunto generador más pequeño para hSi


está relacionada con cuándo algún vector de S es una combinación lineal
de los otros vectores, esto es, está relacionada a la cuestión de cuándo S es
linealmente dependiente. Para ver por qué, considere el subconjunto S =
fv1 ; v2 ; v3 ; v4 g de R3 , donde v1 = (2; 1; 4); v2 = (1; 1; 3); v3 = (1; 1; 1) y
v4 = (1; 2; 1). Entonces

2v1 + 3v2 + v3 0v4 = 0:

Esta ecuación implica que v3 (o alternativamente, v1 0 v2 ) es una combinación


lineal de los otros vectores en S. Por ejemplo, v3 = 2v1 3v2 + 0v4 . Por lo
tanto, cada combinación lineal 1 v1 + 2 v2 + 3 v3 + 4 v4 de vectores en S
puede ser escrita como una combinación lineal de v1 ; v2 y v4 :

1 v1 + 2 v2 + 3 v3 + 4 v4 = 1 v1 + 2 v2 + 3 (2v1 3v2 + 0v4 ) + 4 v4


= ( 1 + 2 3 )v1 + ( 2 3 3 )v2 + 4 v4 :

Más generalmente, suponga que S es cualquier conjunto linealmente de-


pendiente conteniendo dos o más vectores. Entonces algún vector v 2 S
puede ser escrito como una combinación lineal de los otros vectores en S y
125

hS fvgi = hSi. Se sigue que si ningún subconjunto propio de S genera hSi,


entonces S debe ser linealmente independiente. Otra manera de verlo, es el
teorema siguiente.

Teorema 3.7.4 Sea S un subconjunto linealmente independiente de un es-


pacio vectorial V y sea v un vector que no está en S. Entonces S [ fvg es
linealmente dependiente si y solo si v 2 hSi.
Demostración Si S [ fvg es linealmente dependiente, entonces existen vec-
tores v1 ; v2 ; : : : ; vn en S [ fvg tales que 1 v1 + 2 v2 + + n vn = 0 para
algunos escalares distintos de cero 1 ; 2 ; : : : ; n . Ya que S es linealmente
independiente, uno de los vi digamos v1 es igual a v. Por lo tanto,
1
v = 1 ( 2 v2 n vn )
1
= ( 1 2 )v2 ( 1 1 n )vn :
Ya que v es una combinación lineal de v2 ; : : : ; vn 2 S, tenemos que v 2 hSi.
Recíprocamente, sea v 2 hSi. Entonces existen vectores v1 ; v2 ; : : : ; vn en
S y escalares 1 ; 2 ; : : : ; n tales que v = 1 v1 + 2 v2 + + n vn . De aquí,

1 v1 + 2 v2 + + n vn + ( 1)v = 0:
Ya que v 6= vi para i = 1; 2; : : : ; n, el coe…ciente de v en esta combinación
lineal es distinto de cero y por lo tanto el conjunto fv1 ; v2 ; : : : ; vn ; vg es lin-
ealmente dependiente. Por lo tanto, S [ fvg es linealmente dependiente.
La teoría de sistemas homogéneos nos habla acerca de la dependencia o
independencia lineal de los vectores.

Teorema 3.7.5 Un conjunto de n vectores en K m es siempre linealmente


dependiente si n > m.
0 1 0 1 0 1
a11 a12 a1n
B a21 C B a22 C B a2n C
B C B C B C
Demostración Sean v1 = B .. C ; v2 = B .. C ; : : : ; vn = B .. C vectores
@ . A @ . A @ . A
am1 am2 amn
m
en K . La ecuación de dependencia lineal es:
0 1 0 1 0 1
a11 a12 a1n
B a21 C B a22 C B a2n C
B C B C B C
v
1 1 + v
2 2 + + v
n n = 1 B .. C + 2 B .. C + + n B .. C = 0: (3.1)
@ . A @ . A @ . A
am1 am2 amn
126

Entonces la ecuación (3.1) se convierte en


a11 1 + a12 2+ + a1n n = 0
a21 1 + a22 2+ + a2n n = 0
..
.
am1 1 + am2 2 + + amn n = 0:
Dado que n > m, hay más variable que ecuaciones y por lo tanto el sis-
tema homogéneo tiene más de una solución. De esta forma, existen escalares
1 ; 2 ; : : : ; n no todos cero que satisfacen (3.1) y por lo tanto los vectores
v1 ; v2 ; : : : ; vn son linealmente dependientes.

Corolario 3.7.6 Un conjunto de vectores linealmente independientes en K n


tiene a lo más n vectores.
Demostración Si el conjunto tiene más de n vectores es linealmente dependiente.
0 1
a11 a12 a1n
B a21 a22 a2n C
B C
Teorema 3.7.7 Sea A = B .. .. .. C. Entonces las columnas
@ . . . A
am1 am2 amn
de A consideradas como vectores son linealmente independientes si y solo si
N (A) = f0g.
Demostración Sea A = [A 1 j j A n ] y supongamos que las columnas de
A son linealmente independientes. Sea x = (x1 ; : : : ; xn )T 2 N (A). Entonces
0 1
x1
B .. C
0 = Ax = [A 1 j j A n ] @ . A = x1 A 1 + + xn A n ;
xn

de donde se sigue que x1 = = xn = 0. Por lo tanto N (A) = f0g.


Recíprocamente, supongamos que N (A) = f0g. La ecuación de depen-
dencia lineal de las columnas de A es
x1 A 1 + + xn A n = 0;
que es equivaente a Ax = 0 con x = (x1 ; : : : ; xn )T . Se sigue que x 2 N (A)
y por lo tanto x = 0. De aquí, x1 = = xn = 0 y las columnas de A son
linealmente independientes.
127

Corolario 3.7.8 Sea A una matriz n n. Entonces det A 6= 0 si y solo si


las columnas de A son linealmente independientes.
Demostración Si las columnas de A son linealmente independientes, el sis-
tema Ax = 0 tiene una única solución y por lo tanto A es invertible. Pero
eso sucede si y solo si det A 6= 0.

Corolario 3.7.9 Cualquier conjunto de n vectores linealmente independi-


entes en K n genera K n .
Demostración Sea A la matriz formada con los vectores linealmente inde-
pendientes. Entonces A 2 K n n tiene det A 6= 0 y por lo tanto es invertible.
Para cualquier b 2 K n ; Ax = b tiene una única solución x = A 1 b, que dice
que cualquier b 2 K n es una combinación lineal de las columnas de A.
0 1 0 1 0 1
3 7 1
Ejemplo 3.7.10 Los vectores @ A
4 ; @ A @
1 ; 1A son linealmente inde-
2 3 8
pendientes ya que 0 1
3 7 1
det @ 4 1 1A = 163 6= 0
2 3 8
y por lo tanto generan R3 .

3.8. Ejercicios
1. ¿Para
0 1 qué
0 valores
1 0 de 1 y serán linealmente independientes los vectores
3 2
@2A ; @ 1A ; @ 5 A?
1 2

2. Sea fv1 ; v2 ; : : : ; vn g un conjunto linealmente independiente.

a) Demuestre que los vectores v1 ; v1 + v2 ; v1 + v2 + v3 ; : : : ; v1 + v2 +


+ vn son linealmente independientes.
b) Demuestre que el recíproco también es cierto.
128

3. Sea S un conjunto de polinomios distintos de cero en K[t] tal que no hay


dos de ellos que tengan el mismo grado. Pruebe que S es linealmente
independiente.

4. Halle tres vectores en R3 que sean linealmente dependientes y tales que


dos cualesquiera de ellos sean linealmente independientes.

3.9. Bases y dimensión


Vimos que si S es un conjunto generador para un subespacio W y ningún
subconjunto propio de S es un conjunto generador para W , entonces S debe
ser linealmente indpendiente. Un conjunto generador linealmente independi- sabemos
ente para W posee una propiedad muy útil – cada vector en W se puede que una
expresar en una y solo una manera como una combinación lineal de los vec- base es un
conjunto de
tores en el conjunto. n vectores
linealmente
De…nición 3.9.1 Sea V un espacio vectorial. Una base de Hamel de V es un independient
conjunto de vectores linealmente independientes de V que genera el espacio es que
V. genera un
espacio.
Ejemplo 3.9.2 Sea K un campo y en K n sea S el conjunto que consta de
los vectores e1 ; e2 ; : : : ; en de…nidos por
0 1 0 1 0 1
1 0 0
B0C B1C B0C
B C B C B C
e1 = B .. C ; e2 = B .. C ; : : : ; en = B .. C :
@.A @.A @.A
0 0 1

Entonces [e1 j e2 j j en ] = In , cuyo det In = 1 6= 0 y por lo tanto,


e1 ; e2 ; : : : ; en son linealmente independientes. Además, por el corolario 3.7.9,
el conjunto de vectores fe1 ; e2 ; : : : ; en g genera todo el espacio K n . Por lo tanto
el conjunto de vectores fe1 ; e2 ; : : : ; en g es una base del espacio K n . Esta base
particular se llamará base canónica de K n .
En general, cualquier conjunto de n vectores linealmente independientes
en K n es una base de K n .

Ejemplo 3.9.3 (i) La base canónica de K[t] es f1; t; t2 ; : : :g. Este ejemplo
muestra que una base no es necesariamente …nita.
129

(ii) La base canónica de K[t]n es f1; t; t2 ; : : : ; tn g.


(iii) La base canónica de K m n son las matrices Eij ; i = 1; 2; : : : ; m y
j = 1; 2; : : : ; n con valor 1 en ij y cero en las demás posiciones.
(iv) Ya que h;i = f0g y ; es linealmente independiente, vemos que ; es
una base de V = f0g.

Ejemplo 3.9.4 Encontramos una base en R3 para el conjunto de vectores


en el plano 80 1 9
< x =
= @y A 2 R3 : 3x 2y + 6z = 0 :
: ;
z
es un espacio
0 vectorial
1 y si escogemos y; z arbitrariamente (dos grados de
x
2
libertad) y si @y A 2 ; x = y 2z:De este modo, los vectores en tienen
3
z
la forma 02 1 0 1 0 1
y 2z 2=3 2
B3 C @ A @ A;
@ y A = y 1 + z 0
z 0 1
0 1 0 1
2=3 2
lo cual muestra que @ 1 A y @ 0 A generan a . Además son linealmente
0 1
independientes (porque uno no es múltiplo del otro) y así forman una base
de .
El siguiente teorema establece la propiedad más signi…cativa de una base.

Teorema 3.9.5 Sea V un espacio vectorial y B es un subconjunto de V .


Entonces B es una base si y solo si cada v 2 V se puede expresar de manera
única como una combinación lineal de vectores de B, esto es,

v= 1 v1 + 2 v2 + + n vn ;

para escalares únicos 1; 2; : : : ; n y vectores v1 ; v2 ; : : : ; vn de B.


Demostración Sea B una base de V . Si v 2 V , entonces v 2 hBi porque
hBi = V . De este modo, v es una combinación lineal de vectores en B.
130

Suponga que

v = 1 v1 + 2 v2 + + n vn
= 1 v1 + 2 v2 + + n vn + n+1 w1 + + m wm ;

n m; 1 ; 2 ; : : : ; n ; 1 ; 2 ; : : : ; m escalares y v1 ; v2 ; : : : ; vn ; w1 ; : : : ; wm vec-
tores distintos en B son dos representaciones de v. Entonces

( 1 1 )v1 +( 2 2 )v2 + +( n n )vn + n+1 w1 + + m wm = 0:

Como los vectores v1 ; v2 ; : : : ; vn ; w1 ; : : : ; wm son linealmente independientes,


se sigue que 1 1 = 2 2 = = n n = n+1 = = m = 0.
De aquí, 1 = 1 ; 2 = 2 ; : : : ; n = n y la representación de v como una
combinación lineal de los vectores de B es única.
Para el recíproco, claramente hBi = V . Para ver que B es linealmente
independiente, supongamos que 1 v1 + 2 v2 + + n vn = 0; 1 ; 2 ; : : : ; n
escalares y v1 ; v2 ; : : : ; vn vectores en B. Ya que el vector 0 se puede representar
como
0v1 + 0v2 + + 0vn = 0
y la representación es única, 1 = 2 = = n = 0 y por lo tanto B es un
conjunto linealmente independiente. Así B es una base de V .
Mostraremos ahora que si un espacio vectorial tiene una base que tiene
un número …nito de elementos (una base …nita), entonces todas las bases de
V son …nitas y con el mismo número de elementos.

Teorema 3.9.6 Sea V un espacio vectorial generado por un conjunto …nito


de vectores v1 ; v2 ; : : : ; vm . Entonces todo conjunto independiente de vectores
de V es …nito y no contiene más de m elementos.
Demostración Para demostrar este teorema es su…ciente ver que todo sub-
conjunto S de V que contiene más de m vectores es linealmente depen-
diente. En S hay vectores diferentes w1 ; w2 ; : : : ; wn , donde n > m. Como
v1 ; v2 ; : : : ; vm generan V ,

w1 = a11 v1 + a21 v2 + + am1 vm


w2 = a12 v1 + a22 v2 + + am2 vm
..
.
wn = a1n v1 + a2n v2 + + amn vm:
131

Ahora considere el sistema homogéneo Ax = 0, donde A = (aij ) es una


matriz m n. Como m < n, este sistema tiene una solución no trivial. Sea
= ( 1 ; : : : ; n )T 6= 0 dicha solución no trivial. Entonces

1 w1 + + n wn = 1 (a11 v1
+ a21 v2 + + am1 vm ) + +
+ n (a1n v1 + a2n v2 + + amn vm )
= (a11 1 + + a1n n )v1 + + (am1 1 + + am1n n )vm
= 0v1 + + 0vm
= 0:

Esto demuestra que S es un conjunto linealmente dependiente.

Corolario 3.9.7 Sea V un espacio vectorial teniendo una base …nita. En-
tonces cada base de B contiene el mismo número de vectores.
Demostración Suponga que B es una base …nita de V que contiene exacta-
mente m vectores. Por el teorema anterior toda base de V es …nita y contiene
no más de m elementos. Así si B 0 es una base con n elementos n m. Por
el mismo razonamiento, m n. Por lo tanto, n = m.
Esta propiedad hace posible las siguientes de…niciones.

De…nición 3.9.8 Un espacio vectorial es llamado de dimensión …nita si


tiene una base que consiste de un número …nito de vectores. En este caso,
la dimensión de V es el número de elementos de una base cualquiera de V .
Un espacio vectorial que no es de dimensión …nita es llamado de dimensión
in…nita.
Note que si un espacio vectorial tiene una base in…nita, todas sus bases
son in…nitas. Se puede demostrar también, usando aritmética cardinal, que
dos bases in…nitas cualesquiera de un espacio vectorial tienen la misma car-
dinalidad.

Ejemplo 3.9.9 (i) El espacio vectorial V = f0g tiene dimensión cero.


(ii) K n tiene dimensión n.
(iii) K m n tiene dimensión mn.
(iv) K[t]n tiene dimensión n + 1.
Los ejemplos siguiente muestran que la dimensión de un espacio vectorial
depende de su campo de escalares.
132

Ejemplo 3.9.10 (i) Sobre el campo de los números complejos, el espacio


vectorial de los números complejos tiene dimensión 1. (Una base es f1g).
(ii) Sobre los números reales, el espacio de los números complejos tiene
dimensión 2. (Una base es f1; ig).

Teorema 3.9.11 Si V es un espacio vectorial generado por un conjunto


…nito S, entonces algún subconjunto de S es una base de V . De aquí, V
tiene dimensión …nita.
Demostración Si S = ; o S = f0g, entonces V = f0g y ? es un sub-
conjunto de S que es una base para V . De otro modo, S contiene un vec-
tor distinto de cero v1 . Entonces fv1 g es un conjunto linealmente indepen-
diente. Continúe, si es posible, escogiendo vectores v2 ; : : : ; vn en S tal que
fv1 ; v2 ; : : : ; vn g es linealmente independiente. Ya que S es un conjunto …nito,
…nalmente debemos llegar a una etapa en la que B = fv1 ; v2 ; : : : ; vn g es un
subconjunto linealmente independiente, pero la adjunción a B de cualquier
vector en S produce un conjunto linealmente dependiente. A…rmamos que B
es una base de V . Ya que B es linealmente independiente por construcción,
es su…ciente mostrar que B genera V . Sea v 2 V , entonces ya que S genera
V; v = 1 w1 + 2 w2 + m wm ; 1 ; 2 ; : : : ; m escalares y w1 ; w2 ; : : : ; wm 2 S.
Si wi 2 B; wi 2 hBi. Si wi 2 = B, entonces la construcción precedente muestra
que B [ fwi g es linealmente dependiente y de aquí wi 2 hBi. En este caso,
reemplazando wi por una combinación lineal de vectores de B, vemos que v
es una combinación lineal de vectores de B. Por lo tanto, hBi = V y es una
base de V .
Este teorema dice que un conjunto generador …nito de V puede ser re-
ducido a una base de V .

Ejemplo 3.9.12 Sea

S = f(2; 3; 5); (8; 12; 20); (1; 0; 2); (0; 2; 1); (7; 2; 0)g :

Se puede mostrar que S genera R3 . Podemos reducir S a una base de R3 .


Para comenzar, escogemos cualquier vector de S distinto de cero, digamos
(2; 3; 5), para estar en la base. Ya que 4(2; 3; 5) = (8; 12; 20), el con-
junto f(2; 3; 5); (8; 12; 20)g es linealmente dependiente y no incluimos a
(8; 12; 20) en nuestra base. Por otra parte, (1; 0; 2) no es un múltiplo de
(2; 3; 5), así que el conjunto f(2; 3; 5); (1; 0; 2)g es linealmente independi-
ente. De este modo, incluimos (1; 0; 2) en nuestra base. Ahora consideramos
133

el conjunto f(2; 3; 5); (1; 0; 2); (0; 2; 1)g, entonces


0 1
2 3 5
det @1 0 2A = 15
0 2 1

y por lo tanto, los vectores (2; 3; 5); (1; 0; 2); (0; 2; 1) son linealmente in-
dependientes, así que incluimos (0; 2; 1) en nuestra base. Para el vector …nal
en S;

2(2; 3; 5) + 3(1; 0; 2) + 4(0; 2; 1) (7; 2; 0) = (0; 0; 0);

así que excluimos al vector (7; 2; 0) de nuestra base. Concluimos que

f(2; 3; 5); (1; 0; 2); (0; 2; 1)g

es un subconjunto de S que es una base de R3 :

Corolario 3.9.13 Sea V un espacio vectorial con dimensión n.


(i) Cualquier conjunto generador …nito de V contiene al menos n vectores
y un conjunto generador para V que contenga exactamente n vectores es una
base para V .
(ii) Cualquier subconjunto de V linealmente independiente que contiene
exactamente n vectores es una base de V .
(iii) Cada subconjunto linealmente independiente de V puede ser extendi-
do a una base de V .
Demostración Sea B una base de V . Entonces B consiste de n vectores
linealmente independientes que generan V .
(i) Sea G un conjunto …nito generando V . Por el teorema 3.9.11 algún
subconjunto H de G es una base de V . Por el corolario 3.9.7, H contiene
exactamente n vectores. Ya que un subconjunto de G contiene n vectores, G
debe contener al menos n vectores. Más aún, si G contiene exactamente n
vectores, entonces H = G, así que G es una base de V .
(ii) Sea L un subconjunto linealmente independiente de V conteniendo
exactamente n vectores. Sea v 2 V tal que v 2 = hLi, entonces por el teorema
3.7.4 L [ fvg es un conjunto de n + 1 vectores linealmente independientes,
que contradice el teorem 3.9.6. Por lo tanto, hLi = V y L es una base de V .
(iii) Sea L un subconjunto linealmente independiente de V que contiene m
vectores. Por inducción, suponga que m = 0, entonces L = ; y L B que es
134

una base de V . Ahora sea L = fv1 ; v2 ; : : : ; vm+1 g un subconjunto de V de m+


1 vectores linealmente independientes. Aplicando la hipótesis de inducción,
existe un subconjunto fw1 ; w2 ; : : : ; wn m g de V tal que fv1 ; v2 ; : : : ; vm g [
fw1 ; w2 ; : : : ; wn m g es una base de V . Entonces,

vm+1 = 1 v1 + 2 v2 + + m vm + 1 w1 + 2 w2 + + n m wn m : (3.2)

Ya que m+1 n; m n 1 y por lo tanto 1 n m. Además, algún i 6= 0,


digamos 1 , porque de otro modo L es linealmente dependiente, contrario a
la hipótesis. Resolviendo (3.2) para w1 ,
1 1
w1 = ( 1 1 )v1 + ( 1 2 )v2 + +( 11 m )vm +
1 1 1
+( 1 )vm+1 +( 1 2 )w2 + +( 1 n m )wn m :

Sea H = fw2 ; : : : ; wn w g, entonces w1 2 hL [ Hi. Se sigue que

fv1 ; v2 ; : : : ; vm ; w1 ; w2 ; : : : ; wn mg hL [ Hi

y por lo tanto V = hv1 ; v2 ; : : : ; vm ; w1 ; w2 ; : : : ; wn wi = hL [ Hi. Esto com-


pleta la inducción.

Ejemplo 3.9.14 (i) Los polinomios t2 + 3t 2; 2t2 + 5t 3 y t2 4t + 4


generan R[t]2 ya que cada polinomio at2 + bt + c en R[t]2 es una combinación
lienal de esos tres, a saber

( 8a+5b+3c)(t2 +3t 2)+(4a 2b c)(2t2 +5t 3)+( a+b+c)( t2 4t+4) = at2 +bt+c:

Ya que son tres polinomios generadores en un espacio de dimensión tres,


forman una base de R[t]2 .
(ii) Los vectores f(2; 3; 5); (1; 0; 2); (0; 2; 1)g del ejemplo 3.9.12 son
tres vectores linealmente independientes en un espacio vectorial R3 de dimen-
sión 3 y por lo tanto forman una base del mismo.
(iii) El conjunto f1 + t; 1 tg es linealmente independiente en el espacio
vectorial R[t]2 de polinomios de grado menor o igual a dos. Ya que la dimen-
sión de R[t]2 es 3, para completar la base, necesitamos un tercer vector que
sea linealmente independiente de los primeros dos. Para ello, extendemos el
conjunto dado de vectores mediante la inclusión de la base canónica de R[t]2 ,
que nos da:
S = 1 + t; 1 t; 1; t; t2 :
135

Ahora S es linealmente dependiente, pues contiene más de tres vectores (dim R[t]2 =
3) y reducimos este conjunto a una base. Ya que
1 1
1 = (1 + t) + (1 t)
2 2
1 1
t = (1 + t) (1 t);
2 2
los descartamos y por lo tanto, f1 + t; 1 t; t2 g es una base de R[t]2 que
contiene a f1 + t; 1 tg.

3.9.1. Dimensión de los subespacios


Relacionamos la dimensión de un subespacio con la dimensión del espacio
que lo contiene.

Teorema 3.9.15 Sea W un subespacio de un espacio vectorial V de dimen-


sión …nita. Entonces W es de dimensión …nita y dim(W ) dim(V ). Más
aún, si dim(W ) = dim(V ), entonces V = W .
Demostración Suponga que dim(V ) = n. Si W = f0g, entonces W es de
dimensión …nita y dim(W ) = 0 n. De otro modo, W contiene un vec-
tor v1 6= 0; de este modo fv1 g es un conjunto linealmente independiente.
Continúe escogiendo vectores v1 ; v2 ; : : : ; vm en W tal que fv1 ; v2 ; : : : ; vm g es
linealmente independiente. Ya que ningún subconjunto linealmente indepen-
diente de V tiene más de n vectores, este proceso debe detenerse en alguna
etapa m n y fv1 ; v2 ; : : : ; vm g es linealmente independiente pero adjun-
tándole otro vector de W produce un conjunto linealmente dependiente. El
teorema 3.7.4 implica que fv1 ; v2 ; : : : ; vm g genera W y de aquí, es una base
para W . Por lo tanto, dim(W ) = m n.
Si dim(W ) = n, entonces una base de W es un subconjunto de V que
contiene n vectores. Por el corolario 3.9.13(ii), esta base de W tambien es
una base de V ; de este modo W = V .
De este teorema se sigue que cualquier espacio vectorial que contiene
un subespacio de dimensión in…nita es de dimensión in…nita. Por ejem-
plo, C[0; 1] y C 0 [0; 1] tienen dimensión in…nita pues las funciones polino-
miales P [0; 1] = ff : [0; 1] ! R : f (t) = p(t); p 2 R[t]g forman un subespa-
cio de dimensión in…nita de C 0 [0; 1] C[0; 1]. También, si V es de dimen-
sión in…nita y W es un subespacio propio de V , entonces no necesariamente
dim W < dim V .
136

Ejemplo 3.9.16 Los únicos subespacios propios de R3 son los conjuntos de


vectores que están en una recta o en un plano que pasan por el origen:
dim W = 0; 1; 2; 3. Si dim W = 0; W = f0g y si dim W = 3; W = R3 .
Ahora bien si dim W = 1, entonces W = h(a; b; c)i. Si w 2 W , entonces
w = (a; b; c)t, i.e., x = at; y = bt; z = ct. Pero esta es la ecuación de una
recta que pasa por el origen con vector de dirección (a; b; c). Finalmente, si
dim W = 2, sean w1 = (a1 ; b1 ; c1 ) y w2 = (a2 ; b2 ; c2 ) una base para W . Si
(x; y; z) 2 W , existenúmeros reales s y t tales que (x; y; z) = sw1 + tw2 .
Entonces

x = sa1 + ta2
y = sb1 + tb2
z = sc1 + tc2 :

Sea w3 = ( ; ; ) = w1 w2 . De aquí,

w3 (x; y; z) = x + y + z
= (sa1 + ta2 ) + (sb1 + tb2 ) + (sc1 + tc2 )
= ( a1 + b1 + c1 )s + ( a2 + b2 + c21 )t
= (w3 w1 )s + (w3 w2 )t = 0:

Por lo tanto, W es un plano que pasa por el origen con vector normal w3 .

Corolario 3.9.17 Si W es un subespacio de un espacio vectorial V de di-


mensión …nita, entonces cualquier base de W puede ser extendida a una base
de V .
Demostración Sea S una base de W . Ya que S es un subconjunto lineal-
mente independiente de V , por el corolario 3.9.13, S se puede extender a una
base de V .
Usando el lema de Zorn de teoría de conjuntos se puede demostrar que
todo espacio vectorial tiene una base.

3.10. Ejercicios
1. Sea V el espacio de las matrices 2 2 sobre K. Hallar una base
fA1 ; A2 ; A3 ; A4 g de V , de matrices idempotentes, esto es A2j = Aj para
cada j.
137

2. Sea V el conjunto R de los números reales. Considerar V como un es-


pacio vectorial sobre el campo Q de los números racionales, con las
operaciones usuales. Demostrar que este espacio vectorial no es de di-
mensión …nita.

3. Sean u; v vectores distintos de un espacio vectorial V . Muestre que si


fv; wg es una base de V y ; son escalares distintos de cero, entonces
ambos fv + w; vg y f v; wg son bases también de V .

4. Sea V = K n n el espacio vectorial de las matrices cuadradas con co-


e…cientes en K. Encuentre una base y determine la dimensión de los
siguientes subespacios de V :

a) El subespacio de matrices de traza cero.


b) El subespacio de todas las matrices triangulares superiores.
c) El espacio de matrices antisimétricas.

5. Para una a 2 K, determine la dimensión del subespacio de K[t]n


de…nido por ff 2 K[t]n : f (a) = 0g.

3.11. Bases ordenadas y el vector de coorde-


nadas
Una de las características útiles de una base B en un espacio vectorial
V de dimensión n es que permite introducir coordenadas en V en forma
análoga a las “coordenadas naturales”, xi , de un vector v = (x1 ; : : : ; xn ) en
el espacio K n . Las coordenadas de un vector v en V , respecto de la base B,
serán los escalares que sirven para expresar v como una combinación lineal
de los vectores de la base. Así, con respecto a la base canónica de K n ,
X
n
(x1 ; : : : ; xn ) = xi ei
i=1

y la coordenada i-ésima xi es el coe…ciente de ei en esta expresión. En este


caso, se puede decir cuál es la coordenada i-ésima porque se tiene un orden
“natural”de los vectores de la base canónica, esto es, se tiene una regla para
determinar cuál es el “primer” vector en la base, cuál es el segundo y así
138

sucesivamente. Si B es una base arbitraria del espacio V de dimensión n, no


se tiene probablemente un orden natural de los vectores de B y, por lo tanto,
será necesario imponer algún orden a estos vectores antes de que se pueda
de…nir la “coordenada i-ésima de v con respecto a B”.

De…nición 3.11.1 Una base ordenada para V es una n-ada ordenada


(v1 ; v2 ; : : : ; vn )
de vectores, para los cuales el conjunto fv1 ; v2 ; : : : ; vn g es una base de V . Un
sistema de coordenadas del espacio vectorial V consiste de una base ordenada
de V .
Sea B = (v1 ; v2 ; : : : ; vn ) un sistema de coordenadas de V . Se sabe que
para cada vector v 2 V existe una única n-ada ordenada ( 1 ; : : : ; n ) de
escalares tales que:
v = 1 v1 + + n vn :
Esto nos permite construir una función de V a K n :
[ ]B : V ! K n
v 7! ( 1 ; : : : ; n )T :
donde [v]B = ( 1 ; : : : ; n )T se llama la matriz de coordenadas o las coorde-
nadas de v con respecto a la base ordenada B.
Si
w = 1 v1 + + n vn
entonces
v+w = ( 1 + 1 )v1 + +( n+ n )vn
v = ( 1 )v1 + + ( n )vn :
De aquí,
[v + w]B = [v]B + [w]B
[ v]B = [v]B :
Debe observarse también que [v]B = [w]B implica que v = w y cada vector
( 1 ; : : : ; n )T 2 K n es la matriz de coordenadas de algún vector de V , a
saber, el vector 1 v1 + + n vn . De este modo, la función [ ]B determina
una correspondencia biunívoca entre el conjunto de todos los vectores de V y
el espacio vectorial K n . Conocer un vector viene a ser lo mismo que conocer
sus coordenadas.
139

1 1
Ejemplo 3.11.2 Los vectores v1 = ; v2 = forman una base de R2 ,
0 1
1 1 x
ya que det = 1 6= 0. Sea v 2 R2 ; v = . Entonces
0 1 y

1 1 x
1 + 2 =
0 1 y

o bien,
1 1 jx
0 1 jy
cuya forma escalonada reducida por renglones es

1 0 j x y
0 1 j y

de donde 1 =x y; 2 = y, i.e.,

x y
[v]B =
y

1 1 1 1
como por ejemplo = . Comprobación: = 1 +
2 B
2 2 0
1
2 .
1

3.11.1. Cambio de coordenadas


Sea V un espacio vectorial y suponga que B = (v1 ; v2 ; : : : ; vn ) y B 0 =
(w1 ; w2 ; : : : ; wn ) son bases ordenadas de V . ¿Cómo están relacionadas las
matrices de coordenadas [v]B y [v]B 0 ? Buscamos una única matriz MB;B 0

Kn
[ ]B % j
V j !MB;B 0
[ ]B 0 & #
Kn
140

de modo tal que el diagrama sea conmutativo, esto es, MB;B 0 [v]B = [v]B 0 .
Para que esto último se cumpla, si v = vj entonces
0 1
0
B .. C
B.C
B C
MB;B 0 [vj ]B = MB;B 0 B1C
B.C renglón j
@ .. A
0
= columna j de MB;B 0
= [vj ]B 0 :

Así que si
X
n
vj = aij wi ; 1 j n
i=1

entonces MB;B 0 = A = (aij ). La matriz MB;B 0 se llama la matriz de transición


o matriz de cambio de base de la base B a la base B 0 .
3 2 2 5
Ejemplo 3.11.3 Sea B = ; y B0 = ; dos
1 1 4 3
bases ordenadas de R2 . Para encontrar la matriz de transición MB;B 0 debemos
expresar los elementos de la base B en términos de la base B 0 , esto es,

3 2 5
= a11 + a21
1 4 3
2 2 5
= a12 + a22 ;
1 4 3

esto es,

2a11 5a21 = 3
4a11 + 3a21 = 1

2a12 5a22 = 2
4a12 + 3a22 = 1:
141

Estos sistemas se pueden resolver de manera conjunta como

2 5 j 3 2
;
4 3 j 1 1

cuya forma escalonada reducida es

1 0 j 7=13 1=26
:
0 1 j 5=13 5=13

Por lo tanto,
7=13 1=26
MB;B 0 = :
5=13 5=13
7
Por ejemplo sea v = . Entonces
4

7 3 2
= 1 + 2 ;
4 1 1

esto es,

3 1 +2 2 = 7
1 2 = 4:

La solución de este sistema de ecuaciones es 1 = 3; 2 = 1. Por lo tanto,


7 3
= y
4 B 1

7 7
= MB;B 0
4 B0
4 B
7=13 1=26 3
=
5=13 5=13 1
41=26
= :
20=26

7 41 2 20 5
Comprobación: = .
4 26 4 26 3
142

Teorema 3.11.4 Sea V un espacio vectorial de dimensión n sobre el campo


K y sean B y B 0 bases ordenadas de V . Entonces existe una única matriz
n n, necesariamente invertible, con elementos de K, de modo que
MB;B 0 [v]B = [v]B 0
1
MB;B 0 [v]B 0 = [v]B
para todo vector v de V . Las columnas de MB;B 0 están dadas por
[vj ]B 0 ; j = 1; : : : ; n:
T
Demostración Suponga que [v]B = = ( 1; : : : ; n) y que [v]B 0 = =
( 1 ; : : : ; n )T . Entonces
v = 1 v1 + + n vn
X n X
n
= 1 ai1 wi + + n ain wi
i=1 i=1
!
X
n X
n
= aij j wi ;
i=1 j=1
P
lo que implica que i = aij j , i.e., [v]B 0 = MB;B 0 [v]B . Como B y B 0 son
conjuntos linealmente independientes, [v]B = 0 si y solo si [v]B 0 = 0 y por lo
1
tanto MB;B 0 es invertible y MB 0 ;B = MB;B 0.

3.11.2. Forma simple de determinar si un conjunto de


vectores es linealmente dependiente o no
Sea B = fv1 ; : : : ; vn g una base del espacio vectorial V . Sea
A = [[w1 ]B j [w2 ]B j j [wn ]B ]:
Entonces w1 ; w2 ; : : : ; wn son linealmente independientes si y solo si det A 6= 0.
Demostración Suponga que
1 w1 + + n wn = 0:
Entonces,
[ 1 w1 + + n wn ]B = [0]B , i.e.,
1 [w1 ]B + + n [wn ]B = 0:
Como los [wi ]B son vectores en K n , por el corolario 3.7.8 son linealmente
independientes si y solo si det A 6= 0.
143

Ejemplo 3.11.5 En K[t]3 los polinomios 1; 1 + t; t + t2 ; t2 + t3 son lineal-


mente independientes, ya que si tomamos para K[t]3 la base canónica C =
(1; t; t2 ; t3 ),

A = [[1]C j [1 + t]C j [t + t2 ]C j [t2 + t3 ]C ]


0 1
1 1 0 0
B0 1 1 0C
= B
@0
C;
0 1 1A
0 0 0 1

matriz cuyo determinante es 1 6= 0. De hecho, estos polinomios forman una


base de K[t]3 , pues son cuatro vectores linealmente independientes en un
espacio vectorial de dimensión cuatro.
Completamos nuestro análisis demostrando el teorema siguiente.

Teorema 3.11.6 Suponga que A es una matriz invertible n n sobre K. Sea


V un espacio vectorial de dimensión n sobre K y sea B una base ordenada
de V . Entonces existe una base ordenada B 0 de V , única, tal que A = MB;B 0 .
1
Demostración Suponga que B = (v1 ; v2 ; : : : ; vn ). Sea P = A y de…na

X
n
wj = pij vi ; j = 1; : : : ; n:
i=1

Entonces
!
X
n X
n X
n
ajk wj = ajk pij vi
j=1 j=1 i=1
Xn Xn
= pij ajk vi
j=1 i=1
!
X
n X
n
= pij ajk vi
i=1 j=1
X
n
= (In )ik vi
i=1
= vk :
144

Por lo tanto, el subespacio generado por el conjunto

B 0 = fw1 ; w2 ; : : : ; wn g

contiene a V y así es igual a V . De este modo, B 0 es una base y por su


de…nición, A = MB;B 0 .

Ejemplo 3.11.7 La matriz

cos sen
A=
sen cos

es invertible con inversa

1 cos sen
P =A = :
sen cos

Si B es la base canónica de R2 , entonces

w1 = p11 e1 + p21 e2 = (cos ; sen )


w2 = p12 e1 + p22 e2 = ( sen ; cos );

es una base de R2 ; intuitivamente esta base puede ser descrita como la obteni-
x
da por rotación de un ángulo de la base canónica. Si 2 R2 ,
y

x0 cos sen x x cos + ysen


= = :
y0 sen cos y xsen + y cos

3.12. Ejercicios
1. Sea C la base canónica de K n y B = fv1 ; v2 ; : : : ; vn g cualquier otra
base. Sea A = [v1 j v2 j j vn ] la matriz cuyas columnas son los
vectores de B. Demuestre que la matriz de transición MC;B = A 1 .

2. Demuestre que [v]B = CA[v]B para todo vector v en un espacio vecto-


rial V si y solo si CA = I.

3. Sean v = (v1 ; v2 ) y w = (w1 ; w2 ) dos vectores de R2 tales que

v1 w1 + v2 w2 = 0; v12 + v22 = w12 + w22 = 1:


145

Demostrar que B = fv; wg es una base de R2 . Hallar las coordenadas


del vector (x; y) en la base ordenada (v; w). (Las condiciones impuestas
a v y w dicen geométricamente, que v y w son perpendiculares y de
longitud 1).
4. Sea V el espacio vectorial sobre los números complejos de todas las
funciones de R en C. Sea f1 (x) = 1; f2 (x) = eix ; f3 (x) = e ix .

a) Demostrar que f1 ; f2 y f3 son linealmente independientes.


b) Sea g1 (x) = 1; g2 (x) = cos x; g3 (x) = sen x. Hallar una matriz
invertible 3 3; P , tal que
X
3
gj = pij fi :
i=1

5. Sea V el espacio vectorial real de todas las funciones polinomiales de


R en R de grado 2 o menor; es decir, el espacio de todas las funciones
de la forma
f (x) = a + bx + cx2 :
Sea t un número real …jo y defínase
g1 (x) = 1; g2 (x) = x + t; g3 (x) = (x + t)2 :
Demostrar que B = fg1 ; g2 ; g3 g es una base de V . Si
f (x) = a + bx + cx2 ;
¿cuáles son las coordenadas de f en esta base ordenada B = (g1 ; g2 ; g3 )?

3.13. Suma y suma directa de subespacios


Recordemos que dados dos subespacios W1 y W2 de un espacio V; W1 +W2
es el subespacio generado por W1 [ W2 . Si W1 y W2 son dos subespacios de
dimensión …nita de un espacio vectorial V , no necesariamente de dimensión
…nita, se veri…ca la fórmula siguiente.

Teorema 3.13.1 (fórmula de las dimensiones (o de Grassman)) Si W1


y W2 son subespacios de dimensión …nita de una espacio vectorial, entonces
W1 + W2 es de dimensión …nita y
dim W1 + dim W2 = dim(W1 \ W2 ) + dim(W1 + W2 ):
146

Demostración Por el corolario 3.9.17, W1 \W2 tiene una base …nita fu1 ; : : : ; uk g
que es parte de la base
fu1 ; : : : ; uk ; v1 ; : : : ; vm g
para W1 y parte de la base
fu1 ; : : : ; uk ; w1 ; : : : ; wn g
para W2 . El subespacio W1 + W2 es generado por los vectores
u1 ; : : : ; uk ; v1 ; : : : ; vm ; w1 ; : : : ; wn
y estos vectores forman un conjunto independiente. En efecto, supóngase que
X X X
i ui + j vj + r wr = 0:

Entonces X X X
u
i i +r wr = j vj
P P
que muestra que r wr 2 W1 . Como r wr también pertenece a W2 , se
sigue que X X
w
r r = i ui

para ciertos escalares 1; : : : ; k. Como el conjunto


fu1 ; : : : ; uk ; w1 ; : : : ; wn g
es independiente, cada uno de los escalares r = 0. Así,
X X
i ui + j vj = 0

y como
fu1 ; : : : ; uk ; v1 ; : : : ; vm g
es también un conjunto independiente, cada i = 0 y cada j = 0. De este
modo,
fu1 ; : : : ; uk ; v1 ; : : : ; vm ; w1 ; : : : ; wn g
es una base para W1 + W2 . Finalmente,
dim W1 + dim W2 = (k + m) + (k + n)
= k + (m + k + n)
= dim(W1 \ W2 ) + dim(W1 + W2 ):
147

Ejemplo 3.13.2 Considere los subespacios


n o
T 3
W1 = x y z 2 R : x + y + z = 0

y n o
T
W2 = x y z 2 R3 : 2x y+z =0

de R3 Entonces W1 y W2 son dos planos y por lo tanto tienen dimensión


dos. Su intersección W1 \ W2 es una recta de dimensión uno. Por lo tanto
la dimensión de W1 + W2 de acuerdo a la fórmula de Grassman es tres. Por
lo tanto W1 + W2 = R3 y cualquier vector se puede escribir como la suma de
un vector de W1 y uno de W2 . Sin embargo, esta representación no es única,
ya que
0 1 0 1 0 1
6 3 3
@ 0 A = @ 2 A + @ 2A
5 1 4
0 1 0 1
1 5
= @ 3 A + @ 3A :
2 7
Cuando la descomposición es única, la suma de subespacios es llamada
suma directa.

De…nición 3.13.3 Sean W1 ; : : : ; Wk subespacios de un espacio vectorial V .


Se dice que W1 ; : : : ; Wk son independientes si

w1 + + wk = 0; wi 2 Wi

implica que wi es 0.
El signi…cado de independencia es el siguiente.

Proposición 3.13.4 Sea W = W1 + + Wk el subespacio generado por


W1 ; : : : ; Wk . Si W1 ; : : : ; Wk son independientes, entonces la expresión de cada
2 W es única.
Demostración Si

= w1 + + wk ; wi 2 Wi
= w10 + + wk0 ; wi0 2 Wi
148

entonces 0 = (w1 w10 ) + + (wk wk0 ), luego wi wi0 = 0; i = 1; : : : ; k.


Así, si W1 ; : : : ; Wk son independientes, se puede operar con los vectores
de W = W1 + +Wk como k-tuplas (w1 ; : : : ; wk ), con wi en Wi , en la misma
forma como se opera con los vectores de Rk como k-tuplas de números.

Lema 3.13.5 Sea V un espacio vectorial de dimensión …nita. Sean W1 ; : : : ; Wk


subespacios de V y sea W = W1 + + Wk . Son equivalentes:
(i) W1 ; : : : ; Wk son independientes.
(ii) Para todo j; 2 j k, se tiene

Wj \ (W1 + + Wj 1 ) = f0g :

(iii) Si Bi es una base ordenada de Wi ; 1 i k, entonces B = (B1 ; : : : ; Bk )


es una base ordenada para W .
Demostración Supóngase (i). Sea w 2 Wj \ (W1 + + Wj 1 ). Entonces
existen vectores w1 ; : : : ; wj 1 con wi en Wi tales que

w = w1 + + wj 1 :

Como
w1 + + wj 1 w+0+ +0=0
y W1 ; : : : ; Wk son independientes, debe tenerse que w1 = = wj 1 = w = 0.
Ahora (ii) implica (i). Supóngase que

0 = w1 + + wk ; wi 2 Wi :

Sea j el mayor entero i tal que wi 6= 0. Entonces

0 = w1 + + wj ; wj 6= 0:

Así, wj = w1 wj 1 , es un vector no nulo en Wj \ (W1 + + Wj 1 ).


Ahora supóngase (i). Sea Bi una base para Wi ; 1 i k y sea B =
(B1 ; : : : ; Bk ). Cualquier relación lineal entre los vectores de B tendrá la forma

w1 + + wk = 0

donde wi es cierta combinación lineal de los vectores en Bi . Como W1 ; : : : ; Wk


son independientes, cada wi = 0. Como cada Bi es independiente, la relación
149

que tenemos entre los vectores en B es la relación trivial. Suponga ahora (iii)
y que
w1 + + wk = 0; wi 2 Wi :
Entonces cada wi es una combinación lineal de los elementos de Bi y como
B es una base, wi = 0; 1 i n.
Si cualquiera (y, por lo tanto, todas) de las condiciones del último lema
se cumple, se dice que la suma W = W1 + + Wk es directa o que W es la
suma directa (interna) de W1 ; : : : ; Wk y se escribe

W = W1 Wk :

En este caso, dim W = dim W1 + + dim Wk .

Ejemplo 3.13.6 Sea V un espacio vectorial de dimensión …nita sobre el


campo K y sea fv1 ; : : : ; vn g una base de V . Si Wi es el subespacio de dimen-
sión 1 generado por vi , entonces V = W1 Wn .

Ejemplo 3.13.7 Sea n un entero positivo y sea V el espacio de todas las


matrices n n sobre el campo K. Sea W1 el subespacio de todas las matrices
simétricas y W2 el espacio de todas las matrices antisimétricas. Entonces
V = W1 W2 . Si A es cualquier matriz de V , la expresión única de A como
suma de matrices, una en W1 y la otra en W2 , es

A = A1 + A 2
1
A1 = (A + AT )
2
1
A2 = (A AT ):
2
Ejemplo 3.13.8 Sea V = K[t] y sean

W1 = fp 2 V : p(1) = p( 1) = 0g = q(t2 1) : q 2 V
W2 = K[t]1 = fa + btg :

Entonces V = W1 W2 :
q
(t2 1) j p
r
2
p = (t 1)q + r, grado r < 2. Como el cociente y el residuo son únicos, la
descomposición es única y, por ello, la suma es directa.
150

3.14. Ejercicios
1. Sea W un subespacio de Rn y sea

W ? = v 2 Rn : v T w = 0 para todo w 2 W :

Pruebe que W ? es un subespacio de Rn y que la suma W + W ? es


directa. Al subespacio W ? se le denomina complemento ortogonal de
W.

2. Dos subespacios U y W de Rn son ortogonales si uT w = 0 para todo


u 2 U y todo w 2 W . Si U y W son ortogonales se escribe U ? W .
Pruebe que si U y W son ortogonales, entonces la suma de U y W es
directa.

3. Sea V el espacio de todas las funciones de R en R; sea Vp el subespacio


de V que consiste de las funciones pares, f ( x) = f (x); sea Vi el
subespacio de las funciones impares, f ( x) = f (x). Pruebe que V =
Vp Vi .

4. Sea V el espacio vectorial de todas las matrices 2 2 sobre el campo


K. Sea W1 el subespacio de V de las matrices de la forma

a a
b c

ysea W2 el subespaciode V dado por las matrices de la forma

x y
:
x z

Hallar la dimensión de W1 ; W2 ; W1 \ W2 y W1 + W2 .

5. Sea V un espacio vectorial sobre un campo K de dimensión …nita y W


un subespacio de V . Muestre que existe un subespacio Z de V tal que

V =W Z:

El subespacio Z es llamado un complemento de W . En general hay


muchos complementos de un subespacio W .
151

6. Sean V y W dos espacios vectoriales de dimensión …nita sobre el mismo


campo K. De…nimos el espacio vectorial llamado el producto directo de
V y W como V W = f(v; w) : v 2 V; w 2 W g con adición y multipli-
cación escalar dadas por

(v1 ; w1 ) + (v2 ; w2 ) = (v1 + v2 ; w1 + w2 )


(v; w) = ( v; w):

a) Entonces (V W; +; ) es un espacio vectorial sobre K con 0 =


(0V ; 0W ). Muestre que

dim(V W ) = dim V + dim W:

b) De…na

V1 = V f0W g
W1 = f0V g W:

Entonces V1 y W1 son subespacios de V W . Muestre que

V W = V1 W1 :
CAPÍTULO 4

Transformaciones lineales

Es natural ahora considerar aquellas funciones de…nidas sobre espacios


vectoriales que “preservan la estructura”.

4.1. De…niciones, ejemplos y propiedades bási-


cas
Enpezamos dando la noción de homomor…smo entre grupos.

De…nición 4.1.1 Sean G; G0 grupos. Un homomor…smo, o simplemente un


mor…smo, ' : G ! G0 es cualquier función que satisface

' (ab) = ' (a) ' (b) ;

para todo a; b 2 G.

Ejemplo 4.1.2 (i) La función determinante det : GLn (K) ! K es un


homomor…smo del grupo de matrices invertibles con coe…cientes en K al
grupo multiplicativo de los elementos distintos de cero del campo K.
(ii) La función ' : Z ! G de…nida como ' (n) = an , donde a es un
elemento …jo de G, es un homomor…smo.
(iii) La función inclusión i : H ! G de un subgrupo H de un grupo G,
de…nida como i (x) = x, es un homomor…smo.

152
153

Proposición 4.1.3 Un homomor…smo de grupos ' : G ! G0 lleva la iden-


tidad de G a la identidad de G0 e inversos a inversos. En otras palabras,
' (1) = 10 y
1
' a 1 = (' (a)) :
Demostración Como 1 = 1 1 y ' es un homomor…smo,
' (1) = ' (1 1)
= ' (1) ' (1) :
Cancelando, ' (1) = 10 .
Ahora
1
' a ' (a) = ' a 1 a
= ' (1)
= 10
y similarmente
1
' (a) ' a = 10 .
De aquí,
1 1
' a = (' (a)) :

Ya que un espacio vectorial es un grupo abeliano, una tranformación lineal


de un espacio vectorial a otro espacio vectorial será un homormor…smo entre
sus grupos abelianos, que preserva la multiplicación escalar.

De…nición 4.1.4 Sean V y W dos espacios vectoriales sobre el campo K.


Una tranformación lineal (homomor…smo) de V en W es una función T de
V en W tal que
T (v1 + v2 ) = T (v1 ) + T (v2 ) (homomor…smo de los grupos abelianos (V; +) y (W; +))
T ( v) = T (v);
para todos los vectores v1 ; v2 de V y todos los escalares 2 K.

Ejemplo 4.1.5 Sea T : R2 ! R2 dada por T (x; y) = (3x; y). Entonces T es


una transformación lineal ya que:
(i) T ((x1 ; y1 ) + (x2 ; y2 )) = T (x1 + x2 ; y1 + y2 ) = (3(x1 + x2 ); y1 + y2 ) =
(3x1 + 3x2 ; y1 + y2 ) = (3x1 ; y1 ) + (3x2 ; y2 ) = T (x1 ; y1 ) + T (x2 ; y2 ).
(ii) T ( (x; y)) = T ( x; y) = (3 x; y) = (3x; y) = T (x; y):
154

4.1.1. Transformaciones lineales especiales


Las aplicaciones del álgebra lineal a la geometría son amplias y varia-
das. La razón principal de esto es que la mayoría de las transformaciones
geométricas importantes son lineales.

Ejemplo 4.1.6 (rotación) Para cualquier ángulo , de…na T : R2 ! R2


por la regla: T (a1 ; a2 ) es el vector que se obtiene al rotar (a1 ; a2 ) en sentido
antihorario un ángulo si (a1 ; a2 ) 6= (0; 0) y T (0; 0) = (0; 0). Entonces T
es una transformación lineal llamada rotación por . Para determinar una
fórmula explícita para
p T sea el ángulo formado por (a1 ; a2 ) con el eje x
positivo y sea r = a21 + a22 . Entonces a1 = r cos y a2 = r sen . También,
T (a1 ; a2 ) tiene longitud r y forma un ángulo + con el eje x positivo. Se
sigue que

T (a1 ; a2 ) = (r cos( + ); rsen( + ))


= (r cos cos rsen sen ; r cos sen + rsen cos )
= (a1 cos a2 sen ; a1 sen + a2 cos )
cos sen a1
= :
sen cos a2

Finalmente, observe que esta fórmula es válida para (a1 ; a2 ) = (0; 0). La
cos sen
matriz es llamada matriz de rotación.
sen cos

Ejemplo 4.1.7 (re‡exión) T : R2 ! R2 dada por T (a1 ; a2 ) = (a1 ; a2 ).


La transformación lineal T es llamada re‡exión a lo largo del eje x.

Ejemplo 4.1.8 (proyección) T : R2 ! R2 dada por T (a1 ; a2 ) = (a1 ; 0).


La transformación T es llamada proyección sobre el eje x.
Ahora vemos algunos ejemplos adicionales.

Ejemplo 4.1.9 (transformación cero) Sean V y W espacios vectoriales.


De…na la transformación cero por 0 : V ! W por 0(v) = 0 para todo v 2 V ,
que es claramente lineal.

Ejemplo 4.1.10 (transformación identidad) De…na 1V : V ! V por


1V (v) = v, la transformación identidad que es claro que es lineal.
155

Ejemplo 4.1.11 (transformación lineal inducida por una matriz) Si


A 2 K m n , de…na TA : K n ! K m por TA (x) = Ax. Entonces T es lineal ya
que

(i) TA (x + y) = A(x + y) = Ax + Ay = TA (x) + TA (y)


(ii) TA ( x) = A( x) = (Ax) = TA (x):

Ejemplo 4.1.12 Sea V un espacio vectorial de dimensión …nita n > 0 y B


una base ordenada de V ,
[ ]B : V ! K n
la función de coordenadas es una transformación lineal biyectiva, como ha
sido mostrado anteriormente (ver sección 3.11).

Ejemplo 4.1.13 La función T : K m n


! Kn m
dada por T (A) = AT es
una transformación lineal puesto que

T (A + B) = (A + B)T
= AT + B T
= T (A) + T (B) y
T ( A) = ( A)T
= AT
= T (A):

Ejemplo 4.1.14 Sea V el espacio vectorial de todas las funciones diferen-


ciables de R en R y W el espacio de funciones de R a R, como en el ejemplo
3.1.14, entonces la función D : V ! W dada por D(f ) = f 0 es una transfor-
mación lineal por propiedades de la derivada.

Ejemplo 4.1.15 Sea V = C(R) es el espacio de todas las funciones conti-


nuas de R en R y sean a; b 2 R; a < b. De…na T : V ! R por
Z b
T (f ) = f (t)dt
a

para toda f 2 V . Entonces T es una transformación lineal porque la in-


tegral de…nida de una combinación lineal de funciones es la misma que la
combinación lineal de las integrales de…nidas de las funciones.
Probamos ahora las propiedades básicas de la transformaciones lineales.
156

Teorema 4.1.16 (propiedades de las transformaciones lineales) Sea T :


V ! W una transformación lineal. Entonces
(i) T (0V ) = 0W .
(ii) T (u v) = T (u) T (v).
(iii) T ( 1 v1 + + n vn ) = 1 T (v1 ) + + n T (vn ).
(iv) Si fv1 ; v2 ; : : : ; vn g es un conjunto linealmente dependiente, entonces
fT (v1 ); T (v2 ); : : : ; T (vn )g es linealmente dependiente.
Demostración Los incisos (i) y (ii) se siguen de la proposición 4.1.3. Para
(iii) podemos usar inducción sobre n. Si n = 2,

T ( 1 v1 + 2 v2 ) = T ( 1 v1 ) + T ( 2 v2 )
= 1 T (v1 ) + 2 T (v2 ):

Entonces T ( 1 v1 + + n 1 vn 1 + n vn ) = T ( 1 v1 + + n 1 vn 1 )+T ( n vn ).
Por hipótesis de inducción, T ( 1 v1 + + n 1 vn 1 ) = 1 T (v1 ) + +
n 1 T (v n 1 ). De aquí,

T ( 1 v1 + + n 1 vn 1 + n vn ) = 1 T (v1 ) + + n 1 T (vn 1 ) + T ( n vn )
= 1 T (v1 ) + + n 1 T (vn 1 ) + n T (vn ):

Finalmente, para (iv), si fv1 ; v2 ; : : : ; vn g es un conjunto linealmente depen-


diente,
Pn entonces existen escalares f 1 ; 2 ; : : : ; n g no todos nulos tales que
i=1 i i = 0. Entonces, por (iii) e (i),
v

Xn X
n
T( i vi ) = i T (vi ) =0
i=1 i=1

que da una relación de dependencia lineal del conjunto fT (v1 ); T (v2 ); : : : ; T (vn )g.

Ejemplo 4.1.17 La transformación T : R3 ! R2 dada por T (x; y; z) =


(1; z) no es lineal ya que T (0; 0; 0) = (1; 0) 6= (0; 0). Aunque la transformación
T : R2 ! R dada por T (x; y) = xy cumple que T (0; 0) = 0, no es lineal ya
que T ( (x; y)) = 2 xy 6= xy = T (x; y).
La manera más simple de construir o de…nir una transformación lineal
es por medio de la siguiente propiedad universal de las bases de un espacio
vectorial V .
157

Teorema 4.1.18 (propiedad universal) Sea B una base de V y W un


espacio vectorial. Podemos de…nir una transformación lineal T : V ! W
especi…cando los valores T (u) para u 2 B, i.e., dando una función f : B ! W
y extendiendo el dominio de f a todo V por linealidad. Además, si T1 y T2
tienen la propiedad de que T1 (u) = T2 (u) para todo u 2 B, entonces T1 = T2 ,
o sea la extensión es única.
B ,! V
f &y #!T
W
Demostración Extendemos la de…nición por linealidad poniendo
T ( 1 u1 + + n un ) = 1 f (u1 ) + + n f (un ):

Entonces T es lineal. Además,


T1 ( 1 u1 + + n un ) = 1 T1 (u1 ) + + n T1 (un )
= 1 T2 (u1 ) + + n T2 (un )
= T2 ( 1 u1 + + n un ):
Por lo tanto, T1 = T2 .

Ejemplo 4.1.19 Sea T : R3 ! R2 2


una transformación lineal de la que se
sabe que
3 1
T (1; 0; 0) =
2 4
1 1
T (0; 1; 0) =
5 5
2 2
T (0; 0; 1) = :
3 4
Como e1 ; e2 ; e3 forman una base de R3 , se puede asegurar que hay una y solo
una transformación lineal que cumple lo exigido; esta aplicación está dada
por
T (x; y; z) = xT (1; 0; 0) + yT (0; 1; 0) + zT (0; 0; 1)
3 1 1 1 2 2
= x +y +z
2 4 5 5 3 4
3x + y + 2z x y 2z
= :
2x 5y 3z 4x + 5y + 4z
158

4.2. Ejercicios
1. ¿Existe una transformación lineal T de R3 en R2 tal que T (1; 1; 1) =
(1; 0) y T (1; 1; 1) = (0; 1)?

2. Si

v1 = (1; 1); w1 = (1; 0)


v2 = (2; 1); w2 = (0; 1)
v3 = ( 3; 2); w3 = (1; 1)

¿existe una transformación lineal T de R2 en R2 tal que T (vi ) = wi


para i = 1; 2; 3?

3. Sea V el espacio vectorial de todas las matrices n n sobre el campo


K y sea B una matriz n n dada. Si

T (A) = AB BA

comprobar que T es una transformación lineal de V en V .

4. Sea V = C considerado como un espacio vectorial sobre R. Hallar una


función de V en V que sea una transformación lineal en dicho espacio
vectorial, pero que no sea una transformación lineal en C1 ; es decir,
que no sea lineal compleja.

5. Sea K un campo arbitrario y sea 2 K. Pruebe que la función


evaluación ev : K[t] ! K dada por ev (a0 + a1 t + + an tn ) =
a0 + a1 + + an n es una transformación lineal.
P
6. Pruebe que la función traza tr: K n n ! K dada por tr(A) = ni=1 aii
es lineal.

7. Sea A una matriz m n dada y sea TA : K n ! K m dada por TA (x) =


Ax. Demostrar que T es la transformación cero si y solo si A es la
matriz cero.
159

4.3. El espacio vectorial de las transforma-


ciones lineales
Sean V y W dos espacios vectoriales. El conjunto de todas las transfor-
maciones lineales T : V ! W , denotado por L(V; W ) tiene una estructura
natural de espacio vectorial.

Teorema 4.3.1 Sean T; U 2 L(V; W ), entonces


(i) la función (T + U )(v) = T (v) + U (v) 2 L(V; W ),
(ii) si es un escalar, la función ( T ) de…nida por ( T )(v) = T (v) 2
L(V; W ).
L(V; W ) junto con la adición y la multiplicación aquí de…nidas, es un
espacio vectorial.
(iii) Si dim V = n y dim W = m, entonces dim L(V; W ) = mn.
Demostración Los incisos (i) y (ii) son directos y es fácil comprobar que
L(V; W ) es un espacio vectorial. (iii) Sean
B = (v1 ; : : : ; vn ) y B 0 = (w1 ; : : : ; wm )
bases ordenadas o sistemas de coordenadas de V y W respectivamente. Para
cada par de enteros (p; q) con 1 p m y 1 q n se de…ne una
p;q
transformación lineal E de V en W por
0 si i 6= q
E p;q (vi ) =
wp si i = q
= iq wp :

De acuerdo a la propiedad universal de las bases (teorema 4.1.18) existe


una única transformacion lineal de V en W que satisface estas condiciones.
Las mn transformaciones lineales E p;q forman una base de L(V; W ). Sea
T 2 L(V; W ). Para cada j; 1 j n sea
0 1
a1j
B a2j C
B C
[T (vj )]B 0 = B .. C , i.e.,
@ . A
amj
X
m
T (vj ) = apj wp :
p=1
160

Queremos demostrar que T = U donde


X
m X
n
U= apq E p;q :
p=1 q=1

Para cada j,
X
m X
n
U (vj ) = apq E p;q (vj )
p=1 q=1
Xm X n
= apq jq wp
p=1 q=1
Xm
= apj wp
p=1
= T (vj )

y por lo tanto U = T . De aquí, las E p;q generan L(V; W ). Ahora si

X
m X
n
U= apq E p;q
p=1 q=1

es la transformación cero, U (vj ) = 0 para cada j, con lo que

X
m
apj wp = 0
p=1

y la independencia de los wp implica que apj = 0.

Teorema 4.3.2 Sea T 2 L(V; W ) y U 2 L(W; Z). Entonces la función com-


puesta U T de…nida por (U T )(v) = U (T (v)) 2 L(V; Z).

De…nición 4.3.3 Si V es un espacio vectorial, un operador lineal ( endomor…smo)


sobre V es una transformación lineal de V en V . En vez de escribir L(V; V )
se escribe L(V ).

Comentario 4.3.4 Así, por el teorema 4.3.2, el espacio L(V ) tiene una
“multiplicación” de…nida por composición. En este caso el operador T U
161

también está de…nido y en general U T 6= T U . Si T 2 L(V ) se puede


de…nir T 2 = T T; : : : ;

Tn = T T T (n veces),

T 0 = 1V si T 6= 0.

Lema 4.3.5 Sea V un espacio vectorial. Sean U; T1 ; T2 2 L(V ) y un es-


calar.
(i) 1V U = U 1V = U .
(ii) U (T1 + T2 ) = U T1 + U T2 ; (T1 + T2 ) U = T1 U + T2 U .
(iii) (U T1 ) = ( U ) T1 = U ( T1 ).
El espacio vectorial L(V ) junto con la operación de composición, es lo
que se conoce como una álgebra con identidad.

Ejemplo 4.3.6 (i) Sean T (x) = Ax donde A 2 K m n


y U (y) = By donde
B 2 K p m . La composición

(U T )(x) = U (T (x))
= U (Ax)
= B(Ax)
= (BA)x:

De este modo, U T es “multiplicación por la izquierda por BA”.


(ii) Sea V el espacio vectorial de todas las funciones polinomiales de K
en K y considera la transformación derivación D : C 1 [0; 1] ! C[0; 1] dada
por Dp = p0 . Sea T el operador “multiplicación por t”: T (p) = tp. Entonces
(D T )(p) = D(tp) = tp0 + p y (T D)(p) = T (p0 ) = tp0 y así D T 6= T D.
Note que (D T T D)(p) = p, i. e., D T T D = 1V .
Nos ocuparemos más adelante del problema de inversión en esta aritméti-
ca de transformaciones lineales.

4.4. Ejercicios
1. Encontrar dos operadores lineales T y U sobre R2 tales que T U = 0,
pero que U T 6= 0.
162

2. Sea V un espacio vectorial sobre un campo K tal que dim V = n y sea


T 2 L(V ). Sea k un entero positivo. Entonces T es llamada nilpotente
de índice k si T k = 0, pero T k 1 6= 0. Muestre que si T es nilpotente
de índice n, entonces para cualquier v 2 V satisfaciendo T n 1 (v) 6= 0,
el conjunto B = fv; T (v); T 2 (v); : : : ; T n 1 (v)g es una base de V .

4.5. El núcleo y la imagen de una transforma-


ción lineal; el teorema de la dimensión.
Cada homomor…smo de grupos ' determina dos subgrupos importantes:
su imagen y su núcleo (kernel en inglés). La imagen de ' : G ! G0 es la
imagen de la función

' (G) = Im ' = fx 2 G0 j x = ' (a) para alguna a 2 Gg ;

y es un subgrupo de G0 .

Ejemplo 4.5.1 El homomor…smo det : GLn (K) ! K tiene imagen K y


el homomor…smo inclusión i : H ! G tiene imagen el subgrupo H.
El núcleo de ',

ker (') = fa 2 G : ' (a) = 10 g ;

puede ser descrito también como la imagen inversa ' 1 (10 ) del elemento
identidad. El núcleo es un subgrupo de G, porque si a; b 2 ker ('),

' (ab) = ' (a) ' (b)


= 10 10
= 10 ;

de aquí ab 2 ker ('), etc. También ker ' 6= ; pues '(1) = 10 , esto es, 1 2 ker '.

Ejemplo 4.5.2 El núcleo del homomor…smo determinante es el subgrupo de


matrices cuyo determinante es 1. Este subgrupo es llamado el grupo lineal
especial y se denota por SLn (R):

SLn (R) = fA 2 GLn (R) j det A = 1g

es un subgrupo de GLn (R).


163

Si T es una transformación lineal de V en W , entonces la imagen de T


no es solo un sugrupo de W , sino un subespacio de W : sea w = T (v) y sea
un escalar. Entonces T ( v) = T (v) = w, lo que dice que w 2 Im T .
También el núcleo de T es un subespacio de V , ya que si T (v) = 0; T ( v) =
T (v) = 0 = 0 y por lo tanto, v 2 ker T .

De…nición 4.5.3 Sean V y W dos espacios vectoriales sobre el campo K y


sea T : V ! W una transformación lineal de V en W . El espacio nulo o
núcleo de T es el conjunto de todos los vectores v de V tales que T (v) = 0:
El rango de T es la dimensión de la imagen de T y la nulidad de T es la
dimensión del espacio nulo de T .
Establecemos ahora uno de los resultados más importantes del álgebra
lineal.

Teorema 4.5.4 (de la dimensión) Sean V y W espacios vectoriales sobre


el campo K y sea T una transformación lineal de V en W . Suponga que V
es de dimensión …nita. Entonces

rango(T ) + nulidad(T ) = dim V:

Demostración Sea fv1 ; : : : ; vk g una base de ker T , el núcleo de T . Exis-


ten vectores vk+1 ; : : : ; vn en V tales que fv1 ; : : : ; vn g es una base de V .
Podemos demostrar que fT vk+1 ; : : : ; T vn g es una base de Im T . Los vec-
tores T v1 ; : : : ; T vn generan evidentemente la imagen de T y como T vj = 0
para j k, se ve que T vk+1 ; : : : ; T vn generan la imagen. Para ver que estos
vectores son linealmente independientes, supongamos que se tienen escalares
i tales que
Xn

i (T vi ) = 0:
i=k+1

Entonces !
X
n
T i vi =0
i=k+1
P
y en consecuencia, v = ni=k+1 i vi 2 ker T . Como fv1 ; : : : ; vk g es una base
de ker T , debe existir escalares 1 ; : : : ; k tales que

X
k
v= i vi :
i=1
164

De aquí,
X
k X
n

i vi i vi =0
i=1 i=k+1

y como v1 ; : : : ; vn son linealmente independientes, se debe tener que

1 = = k = k+1 = = n = 0:

Si el rango de T es r, el hecho de que T vk+1 ; : : : ; T vn formen una base de la


Im T dice que r = n k. Como k es la nulidad de T y n es la dimensión de
V , se tiene el resultado.

Ejemplo 4.5.5 (i) Sea V = fp : R ! R : p(t) donde p(t) 2 R[t]3 g W =


ff : R ! Rg. Entonces D : V ! W está dado por D(a0 + a1 t + a2 t + a3 t3 ) =
2

a1 +2a2 t+3a3 t2 . Por lo tanto, Im D = R[t]2 ; ker D = fp : R ! R : p(t) = a0 g.


De aquí, dim V = 4; dim Im D = 3; dim ker D = 1.
(ii) La transformación cero 0V : V ! W tiene ker 0V = V; Im 0V = f0W g.
(iii) La transformación identidad 1V : V ! V tiene ker 1V = f0V g ; Im 1V =
V.

4.6. Ejercicios
1. Sea V un espacio vectorial sobre un campo K. Sea T 2 L(V ) tal que
T 2 = T . Una transformación lineal satisfaciendo esta propiedad es lla-
mada una proyección. Muestre que

a) ker(T 2 ) = ker(T ) si y solo si Im(T ) \ ker(T ) = f0g.


b) V = ker(T ) Im(T ).
c) Si U 2 L(V ), entonces T U =U T si y solo si

U (ker(T )) ker(T ) y U (Im(T )) Im T:

2. Considere T 2 L(Rn ) de…nido como

T (x1 ; x2 ; : : : ; xn ) = (x1 + xn ; x2 + xn 1 ; : : : ; xn + x1 ):

Encuentre dim ker(T ) y dim Im(T ).


165

3. Sean V; W y Z tres espacios vectoriales sobre el mismo campo K.


Asuma que la dimK V es …nita. Sea T 2 L(V; W ) y U 2 L(W; Z).

a) Muestre que Im(U T) Im(U ).


b) Pruebe que ker(T ) ker(U T ).
c) Deduzca que
rango(U T) m n frango(T ); rango(U )g :

4. Sea V un espacio vectorial sobre un campo K tal que la dimK V es


…nita y sea T 2 L(V ). Muestre que son equivalentes:

a) Existen dos proyecciones P y Q en L(V ) tales que


T =P Q e Im(P ) = Im(Q):

b) T 2 = 0L(V ) .

5. Sea V un espacio vectorial sobre el campo K tal que dimK V = n y sea


T 2 L(V ). Muestre que son equivalentes:

a) ker(T ) = Im(T ).
n
b) T 2 = 0L(E) y rango(T ) = .
2
6. Sean V y W dos espacios vectoriales de dimensión …nita sobre el mismo
campo K. Sean T y U 2 L(V; W ).

a) Pruebe que Im(T + U ) Im(T ) + Im(U ).


b) Muestre que rango(T + U ) rango(T )+ rango(U ).
c) Deduzca que jrango(T ) rango(U )j rango(T + U ).
d) Muestre que si T1 ; T2 y T3 están en L(V1 ; V2 ); L(V2 ; V3 ) y L(V3 ; V4 ),
respectivamente, donde V1 ; V2 ; V3 y V4 son cuatro espacios vecto-
riales de dimensión …nita sobre el mismo campo K, entonces
rango(T2 ) rango(T3 T2 ) = dimK (Im(T2 ) \ ker(T3 )):
Deduzca la desigualdad de Frobenius
rango(T2 T1 ) + rango(T3 T2 ) rango(T2 ) + rango(T3 T2 T1 ):
166

4.7. Transformaciones inyectivas y suprayec-


tivas; isomor…smos y transformaciones in-
versas.
En el tratamiento de las operaciones algebraicas con tranformaciones
lineales no se ha dicho nada aún sobre inversión. ¿Para qué operadores lin-
eales T de V existe un operador lineal T 1 tal que T T 1 = T 1 T = 1V ?

Proposición 4.7.1 Un homomor…smo de grupos ' : G ! G0 es inyectivo si


y solo si su núcleo es el subgrupo trivial f1g.
Demostración Si ' es inyectivo y a 2 ker ', entonces '(a) = 10 = '(1), de
donde a = 1 y ker ' = f1g. Recíprocamente, si ker ' = f1g y '(a) = '(b),
entonces 10 = '(a)'(b) 1 = '(a)'(b 1 ) = '(ab 1 ) así que ab 1 2 ker ' =
f1g. Por lo tanto, ab 1 = 1 (esto es a = b) y ' es inyectivo.
Aplicando este resultado, tenemos que una transformación lineal

T :V !W

es inyectiva si y solo si ker T = f0g. Hay varias caracterizaciones de inyec-


tividad.

Teorema 4.7.2 Sea T : V ! W una transformación lineal. Entonces


(i) T es 1-1 (inyectiva, monomor…smo, no singular) si y solo si ker T =
f0g si y solo si nulidad(T ) = 0.
(ii) Si dim V = n; T es 1-1 si y solo si rango(T ) = n.
(iii) T es 1-1 si y solo si T transforma cada subconjunto linealmente
independiente de V en un subconjunto linealmente independiente de W .
(iv) Si B = fv1 ; : : : ; vn g es una base de V , entonces T es 1-1 si y solo si
fT v1 ; : : : ; T vn g es una base de Im T .
Demostración El inciso (i) se sigue de la proposición 4.7.1 anterior.
(ii) Por (i), T es 1-1 si y solo si nulidad(T ) = 0. Ya que, por el teorema
de la dimensión 4.5.4, rango(T )+nulidad(T ) = dim V = n esto ocurre si y
solo si rango(T ) = n.
(iii) Suponga que S es un subconjunto de V linealmente independiente,
S V . Si v1 ; : : : ; vn 2 S, considere 1 T v1 + + n T vn = 0; entonces
T ( 1 v1 + + n vn ) = 0. Si T es 1-1; 1 v1 + + n vn = 0, que implica que
1 = = n = 0. Recíprocamente, si v 6
= 0; v es linealmente independiente
167

y por lo tanto T (v) es linealmente independiente. Por lo tanto, T (v) 6= 0, i.e.,


T es 1-1.
(iv) Sea B = fv1 ; : : : ; vn g es una base de V . Si T es 1-1, por (iii),
T v1 ; : : : ; T vn es linealmente independiente y por (ii) rango(T ) = n, i.e.,
dim Im T = n. De aquí, T v1 ; : : : ; T vn forman un conjunto de n vectores en un
espacio de dimensión n y por lo tanto son una base de Im T . Recíprocamente,
rango(T ) = n, implica por (ii) que T es 1-1.

Corolario 4.7.3 Sea T : V ! W una transformación lineal, dim V =


n; dim W = m. Si n > m; T no es 1-1.
Demostración Note que rango(T ) m < n. Por el teorema 4.7.2(ii), T no
es 1-1.
0 1 0 1
x x
3 2 @ A 1 2 3 @ A
Ejemplo 4.7.4 (i) Sea T : R ! R dada por T y = y
4 5 6
0 1 z
0 1 z
1 2
@ A 3 @
no es inyectiva. Por ejemplo, T 2 = =T 4A. Para encontrar
6
0 3
la dim ker T , necesitamos encontrar una base de fx 2 R3 : Ax = 0g donde A
1 2 3
es la matriz . La forma escalonada reducida por renglones de esta
4 5 6
1 0 1
matriz es y por lo tanto, todas las soluciones del sistema ho-
0 1 2 0 1
1
mogéneo de ecuaciones son de la forma @ 2A :De este modo, dim ker T =
1
1. Por el teorema de la dimensión, rango(T ) = 2, i.e., Im T = R2 . Por lo
tanto T es suprayectiva.
(ii) Sea T_ : R3 ! R4 dada por T (x; y; z) = (x; x + y; y + z; x + y + z).
Entonces

T (1; 0; 0) = (1; 1; 0; 1)
T (0; 1; 0) = (0; 1; 1; 1)
T (0; 0; 1) = (0; 0; 1; 1);

son linealmente independientes y generan Im T . Forman una base de Im T y


por lo tanto T es 1-1. En este caso, rango(T ) = 3 y T no es suprayectiva.
168

Podemos generalizar el ejemplo anterior 4.7.4(ii) de la manera siguiente.

Proposición 4.7.5 Sea T : V ! W una tranformación lineal. Suponga que


dim V = n y dim W = m. Entonces, si m > n; T no es sobre.
Demostración Por el teorema de la dimensión, n = nulidad(T )+ rango(T ).
De aquí, rango(T ) n. Si T fuera suprayectiva, rango(T ) = dim Im T =
m > n, una contradicción. Por lo tanto, T no es sobre.

x
Ejemplo 4.7.6 La transformación lineal T : R2 ! R3 dada por T =
0 1 0 1 y
x 0
@y A no es sobre (3 > 2) y, e.g., @0A 2
= Im T .
0 1
Sean G y G0 dos grupos. Queremos decir que son isomorfos si todas las
propiedades de la estructura de grupo de G se sostienen para G0 también.
Por ejemplo, sea G el conjunto de las matrices reales de la forma

1 x
:
0 1

Este es un subgrupo de GL2 (R), y el producto de dos de estas matrices es

1 x 1 y 1 x+y
= :
0 1 0 1 0 1

Los elementos de la esquina superior derecha se suman cuando multiplicamos


las matrices. De este modo cuando hacemos cálculos con estas matrices, úni-
camente necesitamos tener en cuenta las entradas de la esquina superior
derecha. Este hecho se expresa formalmente diciendo que el grupo G es iso-
morfo al grupo aditivo de los números reales R.
Cómo hacer preciso el concepto de isomor…smo no es claro de modo
inmediato, pero sucede que la manera correcta es relacionar los dos grupos
por medio de una correspondencia biyectiva entre sus elementos compatible
con las leyes de composición, esto es, una correspondencia

G ! G0

teniendo la siguiente propiedad: si a; b 2 G corresponden a a0 ; b0 2 G0 , en-


tonces al producto ab 2 G le corresponde el producto a0 b0 2 G0 .
169

De este modo, un isomor…smo de G a G0 es una función biyectiva que


es compatible con las leyes de composición: Usando la notación funcional
obtenemos
' (ab) = ' (a) ' (b)
para todo a; b 2 G. Esto es, un isomor…smo, es un homomor…smo biyectivo
de grupos.

De…nición 4.7.7 Se dice que dos grupos G y G0 son isomorfos si existe un


isomor…smo ' : G ! G0 y lo denotamos G = G0 .

Proposición 4.7.8 Sea ' : G ! G0 un isomor…smo de grupos. Entonces la


función inversa ' 1 es también un isomor…smo.
Demostración Claramente la función inversa es biyectiva. Lo único que
necesitamos probar es que ' 1 : G0 ! G es también un homomor…smo
de grupos. Así, sea ' 1 (g10 ) = g1 y ' 1 (g20 ) = g2 . Entonces '(g1 ) = g10 y
'(g2 ) = g20 y por lo tanto, ya que ' es un homomor…smo de grupos, '(g1 g2 ) =
'(g1 )'(g2 ) = g10 g20 . De aquí se sigue que ' 1 (g10 g20 ) = g1 g2 = ' 1 (g10 )' 1 (g20 )
y así ' 1 es un homomor…smo de grupos.
Entre espacios vectoriales un isomor…smo es un isomor…smo de grupos
que preserva la multiplicación escalar.

De…nición 4.7.9 Se llama isomor…smo a una transformación lineal

T :V !W

que sea biyectiva. Si existe un isomor…smo del espacio vectorial V sobre el


espacio vectorial W , se dice que V es isomorfo a W y escribimos V = W . Un
operador lineal T : V ! V que es un isomor…smo se llama un automor…smo.

Ejemplo 4.7.10 Sea V = U U1 = U U2 . Si u1 2 U1 ; u1 = u + u2 ; u 2


U; u2 2 U2 . De…na T : U1 ! U2 por u1 7! u2 . Entonces T es un isomor…smo.
Primero, T es una transformación lineal, ya que si u01 = u0 +u02 , entonces u1 +
u01 = u+u0 +u2 +u02 y de aquí, T (u1 +u01 ) = u2 +u02 = T (u1 )+T (u01 ). También,
para cualquier escalar ; u1 = u+ u2 y así T ( u1 ) = u2 = T (u1 ). Ahora
veri…camos que T biyectiva. Si T (u1 ) = 0, entonces u1 2 U1 \ U = f0g. Por
lo tanto, ker T = f0g, lo que muestra que T es inyectiva. Suponga ahora que
u2 2 U2 es arbitrario. Entonces, ya que V = U U1 ; u2 = u + u1 y de aquí,
T (u1 ) = u2 . Así T es suprayectiva y por lo tanto un isomor…smo.
170

Ejemplo 4.7.11 K[t]n = K n+1 vía la transformación lineal biyectiva aso-


ciada a la base canónica C = f1; t; t2 ; : : : ; tn g de K[t]n ;
0 1
a0
B a1 C
B C
B C
2
[a0 + a1 t + a2 t + + an t ] C = B a2 C :
n
B .. C
@.A
an

Teorema 4.7.12 Sean V y W dos espacios vectoriales sobre el campo K y


sea T una transformación lineal de V en W . Si T es invertible, entonces la
función inversa T 1 es también una transformación lineal de W sobre V .
Demostración Ya que T es un isomor…smo de los grupos abelianos (V; +)
y (W; +), por la proposición 4.7.8, T 1 es un isomor…smo de los grupos
abelianos de W y V . Así, solo resta probar que T 1 preserva la multiplicación
escalar. Sea pues w 2 W y 2 K un escalar. Sea T 1 (w) = v, esto es,
T (v) = w. Ya que T es lineal, T ( v) = T (v) = w. De aquí, T 1 ( w) =
v = T 1 (w). Esto muestra que T 1 es una transformación lineal también.
Obsérvese que V es trivialmente isomorfo a V , ya que el operador identi-
dad es un isomor…smo de V sobre V . También si V es isomorfo a W por un
isomor…smo T , entonces W es isomorfo a V , pues T 1 es un isomor…smode
W sobre V . También si V es isomorfo a W y W es isomorfo a Z, entonces
V es isomorfo a Z. Así, la relación de isomor…smo en la clase de los espacios
vectoriales es una relación de equivalencia.
En el ejemplo 4.7.4 hemos visto que una transformación lineal puede ser
1-1 sin ser suprayectiva y que puede ser suprayectiva sin ser 1-1. El teorema
que sigue ilustra un caso importante en que esto no puede ocurrir.

Teorema 4.7.13 Sean V y W espacios vectoriales de dimensión …nita sobre


el campo K tal que dim V = dim W . Si T : V ! W es una transformación
lineal, son equivalentes:
(i) T es invertible.
(ii) T es 1-1.
(iii) T es suprayectiva; esto es, la imagen de T es W .
Demostración Sea n = Im V = dim W . Por el terema de la dimensión 4.5.4
se sabe que
rango(T ) + nulidad(T ) = n:
171

Ahora bien, T es 1-1 si y solo si nulidad(T ) = 0 y como n = dim W la imagen


de T es W si y solo si rango(T ) = n. Como el rango mas la nulidad es n,
la nulidad es 0 precisamente cuando el rango es n. Por lo tanto, T es 1-1 si
y solo si T (V ) = W . Así, si se cumplen (ii) o (iii), la otra se cumple y T es
invertible.
El conjunto de operadores lineales invertibles sobre V con la operación
de composición es un grupo, pues la composición de dos operadores lineales
invertibles es un operador lineal invertible. La composición es asociativa, el
operador identidad 1V satisface 1V T = T 1V = T para todo T y para un
T invertible, por el teorema 4.7.12 existe un operador lineal invertible T 1
tal que T T 1 = T 1 T = 1V .

Teorema 4.7.14 Todo espacio vectorial de dimensión n sobre el campo K


es isomorfo a K n .
Demostración Sea V un espacio vectorial de dimensión n sobre el campo
K y sea B una base ordenada de V . Entonces la función de V a K n :

[ ]B : V ! K n

que a cada vector le asocia sus coordenadas con respecto a la base ordenada
B, como vimos en la sección 3.11, es una transformación lineal inyectiva y
de aquí, por el teorema 4.7.13, una biyección.
Es frecuente considerar a los espacios vectoriales isomorfos como si fueran
“el mismo”, aunque los vectores y las operaciones en los espacios sean muy
diferentes; es decir, a menudo se identi…can espacios isomorfos.

Corolario 4.7.15 Dos espacios vectoriales V y W de dimensión …nita son


isomorfos si y solo si tienen la misma dimensión.
Demostración Suponga que dim V = dim W = n. Entonces, por le teorema
anterior 4.7.14 , V = K n = W . Recíprocamente, suponga que V = W .
Entonces existe un isomor…smo T : V ! W . El teorema de la dimensión,
implica que n = rango(T )+ nulidad(T ) = rango(T ). De aquí, dim W = n.

Ejemplo 4.7.16 Los espacios K n y K[t]n no son isomorfos pues dim K n =


n, mientras que dim K[t]n = n + 1.
172

4.8. Ejercicios
1. Sea T un operador lineal sobre el espacio V de dimensión …nita. Supon-
ga que existe un operador lineal U sobre V tal que U T = 1V . Demostrar
que T es invertible y que U = T 1 .

2. Demostrar que K m n
es isomorfo a K mn .

3. Sean V y W espacios vectoriales sobre el campo K y sea U un isomor-


…smo de V sobre W . Demostrar que T 7! U T U 1 es un isomor…smo
de L(V ) sobre L(W ).

4.9. Rango
Recuerde que si A una matriz m n sobre el campo K, los vectores renglón
de A son los vectores de K n dados por A1 ; A2 ; : : : ; Am . El subespacio de
K n generado por los renglones de A es llamado el espacio de renglones de A.
El rango de renglones de A es la dimensión del espacio de renglones de A. Los
vectores columna de A son los vectores de K m dados por A 1 ; A 2 ; : : : ; A n .
El subespacio de K m generado por las columnas de A es llamado el espacio
de columnas de A. El rango de columnas de A es la dimensión del espacio de
columnas de A.
Si P es una matriz k m sobre K, entonces el producto B = P A es
una matriz k n cuyos vectores renglón B1 ; B2 ; : : : ; Bk son combinaciones
lineales
Bi = pi1 A1 + pi2 A2 + + pim Am
de los vectores renglón de A. Así el espacio de renglones de B es un subespacio
del espacio de renglones de A. Si P es una matriz invertible m m, entonces
B es equivalente por renglones a A, de modo que la igualdad A = P 1 B,
implica que el espacio de renglones de A es también un subespacio del espacio
de renglones de B.
De manera similar, si B es equivalente por columnas a A, esto es, existe
una matriz invertible Q tal que B = AQ, entonces B y A tienen el mismo
espacio de columnas.

Teorema 4.9.1 Las matrices equivalentes por renglones (columnas) tienen


el mismo espacio de renglones (columnas).
173

De este modo, para estudiar el espacio por renglones de A se puede estu-


diar el espacio de renglones de una matriz escalonada reducida por renglones
que es equivalente por renglones a A.

Teorema 4.9.2 Sea R una matriz escalonada no nula reducida por ren-
glones. Entonces los vectores renglón no nulos de R forman una base del
espacio de renglones de R.
Demostración Sean R1 ; : : : ; Rr los vectores renglón no nulos de R

Ri = (ri1 ; : : : ; rin ):

Claramente estos vectores generan el espacio de renglones de R; se necesita


solo demostrar que son linealmente independientes. Como R es una matriz
escalonada reducida por renglones, existen enteros positivos k1 ; : : : ; kr tales
que, para i r
(a) rij = 0 si j < ki
(b) ri;kj = ij (4.1)
(c) k1 < < kr :
Supónga que = (b1 ; : : : ; bn ) un vector del espacio de renglones de R:

= 1 R1 + + r Rr :

Entonces j = bkj , ya que

X
r
b kj = i ri;kj
i=1
Xr
= i ij
i=1
= j;

En particular, si = 0, entonces j = 0; j = 1; : : : ; r. Así, R1 ; : : : ; Rr son


linealmente independientes.

Teorema 4.9.3 Sean m y n enteros positivos y sea K un campo. Suponga


que W es un subespacio de K n y que dim W m. Entonces, existe exacta-
mente una matriz escalonada reducida por renglones de m n sobre K que
tiene a W como su espacio de renglones.
174

Demostración Ya que dim W m, podemos seleccionar m vectores 1 ; : : : ; m


en W que generan a W . Sea A la matriz de m n con los vectores renglón
1 ; : : : ; m y sea R una matriz escalonada reducida por renglones equivalente
por renglones a A. Entonces el espacio de renglones de R es W .
Ahora sea R cualquier matriz escalonada reducida por renglones que tenga
a W como su espacio de renglones. Sean R1 ; : : : ; Rr los vectores renglón no
nulos de R y supongamos que el pivote de Ri se produce en la columna
ki ; i = 1; : : : ; r. Los vectores R1 ; : : : ; Rr forma una base para W . En la
prueba del teorema 4.9.2, observamos que si = (b1 ; : : : ; bn ) está en W ,
entonces
= 1 R1 + + r Rr
y i = bki ; esto es, la expresión única de como una combinación lineal de
R1 ; : : : ; Rr es
Xr
= b ki R i :
i=1

Por lo tanto, cualquier vector está determinado si se conocen las coorde-


nadas bki ; i = 1; : : : ; r. Por ejemplo, Rs es el vector único en W que tiene la
coordenada ks -ésima 1 y la coordenada ki -ésima 0 para i 6= s.
Suponga que está en W y 6= 0. A…rmamos que la primera coordenada
distinta de cero de ocurre en una de las columnas ks . Ya que
X
r
= b ki R i
i=1

y 6= 0, podemos escribir
X
r
= bki Ri ; bks 6= 0:
i=s

De las condiciones (4.1) se tiene que rij = 0 si i > s y j ks . Así,

= (0; : : : ; 0; bks ; : : : ; bn ); bks 6= 0

y la primera coordenada distinta de cero de ocurre en la columna ks . Note


también que para cada ks ; s = 1; : : : ; r existe un vector en W que tiene una
coordenada ks -ésima distinta de cero, a saber, Rs .
Ahora está claro que R está determinada de manera única por W . La
descripción de R en términos de W es la siguiente. Consideramos todos los
175

vectores = (b1 ; : : : ; bn ) en W . Si 6= 0, entonces la primera coordenada


distinta de cero de debe aparecer en alguna columna t:

= (0; : : : ; 0; bt ; : : : ; bn ); bt 6= 0:

Sean k1 ; : : : ; kr aquellos enteros positivos t tales que existe algún 6= 0 en


W , la primera coordenada distinta de cero del cual se produce en la columna
t. Arregle k1 ; : : : ; kr en el orden k1 < k2 < < kr . Para cada uno de los
enteros positivos ks habrá un solo vector Rs en W tal que la coordenada ks -
ésima de Rs es 1 y la coordenada ki -ésima de Rs es 0 para i 6= s. Entonces
R es la matriz m n que tiene los vectores renglón R1 ; : : : ; Rr ; 0; : : : ; 0.

Corolario 4.9.4 Cada matriz M de k ` es equivalente por renglones a una


única matriz en forma escalonada reducida por renglones.
Demostración Sabemos que M es equivalente por renglones al menos a una
matriz R en forma escalonada reducida por renglones. Si M es equivalente
por renglones a otra de dichas matrices R0 , entonces R es equivalente por
renglones a R0 ; de aquí, R y R0 tienen el mismo espacio de renglones y por
lo tanto, deben ser idénticas.

Corolario 4.9.5 Sean M y N matrices de k ` sobre el campo K. Entonces


M y N son equivalentes por renglones si y solo si tienen el mismo espacio
de renglones.
Demostración Ya sabemos que si M y N son equivalentes por renglones,
tienen el mismo espacio de renglones. De este modo, suponga ahora que M
y N tienen el mismo espacio de renglones. Ahora M es equivalente por ren-
glones a una matriz escalonada reducida por renglones R y N es equivalente
por renglones a una matriz escalonada reducida por renglones R0 . Ya que M
y N tienen el mismo espacio de renglones, R y R0 tienen el mismo espacio
de renglones. Por lo tanto, R = R0 y M es equivalente por renglones a N .

De…nición 4.9.6 El rango de la matriz A es la dimensión del espacio de


renglones de A. Si R es la forma escalonada reducida por renglones de A,

rango(A) = dim espacio de renglones de A


= número de pivotes de R
= número de renglones diferentes de cero de R:
176

Las columnas básicas de A son las columnas de A que corresponden a las


posiciones pivotales (variables básicas).

Ejemplo 4.9.7 Consideremos la matriz


0 1
1 2 1 3 3
B2 4 0 4 4C
A=B@1 2 3
C:
5 5A
2 4 0 4 7

La forma escalonada reducida por renglones de A es


0 1
1 2 0 2 0
B0 0 1 1 0C
R=B @0 0 0 0
C:
1A
0 0 0 0 0

El rango de A es 3 pues R tiene tres renglones diferentes de cero. Los pivotes


de R están en las columnas uno, tres y cinco. Por lo tanto, las columnas
básicas de A son las columnas A 1 ; A 3 y A 5 , es decir
80 1 0 1 0 19
> 1
>
<
1 3 >>
B2C B0C B4C=
B C B C
columnas básicas de A = @ A ; @ A ; @ A : B C
>
> 1 3 5 >>
: ;
2 0 7

Note que cada columna no básica de R se puede expresar como combinación


lineal de las columnas básicas anteriores:
0 1 0 1 0 1 0 1 0 1
2 1 2 1 0
B0C B0C B1C B0C B1C
B C = 2B C;B C = 2B C + 1B C:
@0A @0A @0A @0A @0A
0 0 0 0 0

Se tiene exactamente la misma relación con las columnas no básicas de A:


0 1 0 1 0 1 0 1 0 1
2 1 3 1 1
B4C B2C B4C B2C B0C
B C = 2B C;B C = 2B C + 1B C:
@2A @1A @5A @1A @3A
4 2 4 2 0

Esto no es coincidencia.
177

Lema 4.9.8 Sean M y N matrices k ` y sea P una matriz invertible tal


que P M = N . Si

Nj= 1 N i1 + 2 N i2 + + s N is ;

entonces
Mj= 1 M i1 + 2 M i2 + + s M is :

1
Demostración De la hipótesis se sigue que M = P N . Entonces

M j = columna j de la matriz P 1 N
= P 1N j
= P 1 ( 1 N i1 + 2 N i2 + + s N is )
1 1
= 1 P N i1 + 2 P N i2 + + sP 1N is
= 1 M i1 + 2 M i2 + + s M is :

El lema establece que si una columna de N es una combinación lineal de


algunas columnas de N , entonces la misma relación de dependencia lineal
existe entre las columnas de M .

Teorema 4.9.9 Sea M una matriz de k ` y sea R su forma escalonada


reducida por renglones. Entonces:
(i) cada columna no básica R j en R es una combinación lineal de las
columnas básicas de R que están a la izquierda de R j . Más aún,

Rj= 1 R i1 + 2 R i2 + + s R is ;

donde R i1 ; R i2 ; : : : ; R is son las columnas básicas a la izquierda de R j y lo


escalares 1 ; 2 ; : : : ; s , son las primeras s entradas en R j :
(ii) La relación que existe entre las columnas de R es la misma entre
las columnas de M . En particular, si M j es una columna no básica de M ,
entonces
M j = 1 M i1 + 2 M i2 + + s M is ;
donde M i1 ; M i2 ; : : : ; M is son las columnas básicas a la izquierda de M j y
lo escalares 1 ; 2 ; : : : ; s , son las primeras s entradas en R j :
178

Demostración (i) Sea R j una columna no básica de R y sean R i1 ; R i2 ; : : : ; R is


las columnas básicas a la izquierda de R j . Entonces
0 1 0 1 0 1 0 1
1 1 0 0
B 2C B0C B1C B0C
B.C B.C B.C B.C
B.C B.C B.C B.C
B.C B.C B.C B.C
B C B C B C B C
R j = B s C = 1 B0C + 2 B0C + + s B1C
B C B C B C B C
B0C B0C B0C B0C
B.C B.C B.C B.C
@ .. A @ .. A @ .. A @ .. A
0 0 0 0

y claramente
0 1 0 1 0 1
1 0 0
B0C B1C B0C
B.C B.C B.C
B.C B.C B.C
B.C B.C B.C
B C B C B C
R i1 = B0C ; R i2 = B0C ; : : : ; R is = B1C :
B C B C B C
B0C B0C B0C
B.C B.C B.C
@ .. A @ .. A @ .. A
0 0 0

(ii) Como M y R son equivalentes por renglones, existe una matriz invertible
P tal que R = P M . El resultado se sigue aplicando el lema 4.9.8 anterior y
el inciso (i).

Ejemplo 4.9.10 Sea M una matriz real tal que


0 1 0 1
2 4
M 1 = @ 3A ; M 3 = @2A
2 5

y la forma escalonada reducida por renglones de M es


0 1
1 5 0 8
R= 0 @ 0 1 3 A:
0 0 0 0

Entonces las columnas uno y tres de M son columnas básicas. Dado que
R 2 = 5R 1 y R 4 = 8R 1 + 3R 3 , se sigue que las columnas 2 y 4 de M
179

satisfacen las mismas relaciones. Por lo tanto,


0 1
10
M 2 = 5M 1 = @ 15A
10
0 1
4
M 4 = 8M 1 + 3M 3 = @ 30 A :
1

De este modo, 0 1
2 10 4 4
M= @ 3 15 2 30 A :
2 10 5 1

4.9.1. Rango y consistencia


La relación entre el rango de una matriz y la consistencia de un sistema
de ecuaciones lineales es la siguiente.

Teorema 4.9.11 Sea M una matriz de k `. Las a…rmaciones siguientes


acerca del sistema de ecuaciones lineales M x = b son equivalentes:
(i) El sistema de ecuaciones M x = b es consistente.
(ii) b es una columna no básica en [M jb].
(iii) rango ([M jb]) = rango (M ).
(iv) b es una combinación lineal de las columnas básicas de M .
Demostración (i) ) (ii): Si b fuera una columna básica, al reducir [M jb] a
su forma escalonada reducida por renglones se tendría un renglón de la forma

0 0 0 j d , con d 6= 0;

que contradice (i).


(ii) ) (iii): Si b no es una columna básica de [M jb], entonces todas las
columnas básicas de [M jb] se encuentran en M y por lo tanto el número de
columnas básicas de [M jb] y M es el mismo. Así, estas matrices tienen el
mismo rango.
(iii) ) (iv): Si rango([M jb]) = rango(M ), entonces b no puede ser una
columna básica de [M jb], de lo contrario esta matriz tendría una columna
básica más que M y su rango no sería igual al de M . Como b no es colum-
na básica, por el teorema 4.9.9 anterior, b es una combinación lineal de las
180

columnas básicas de [M jb], i.e., b es una combinación lineal de las columnas


básicas de M .
(iv) ) (i) Finalmente, si b es una combinación lineal de las columnas
básicas de M , entonces b es combinación lineal de todas las columnas de M
(con coe…ciente cero en las columnas no básicas), esto es, existen s1 ; s2 ; : : : ; s`
tales que

b = s1 M 1 + s2 M 2 + + s` M `
= M s;
T
donde s = s1 s2 s` . Eso muestra que s es una solucióndel sistema
M x = b y por lo tanto el sistema es consistente.
De acuerdo al teorema 4.9.11 anterior, el espacio generado por las colum-
nas de M es el mismo que el espacio generado por las columnas básicas de
M.
1 1 1
Ejemplo 4.9.12 Sea M = . Entonces su forma escalonada
1
1 1
1 1 1
reducida por renglones es R = . De aquí, rango(M ) = 1. Si
0 0 0
1 1 1 1 1
b= , la forma escalonada reducida de [M jb] es y así,
1 0 0 0 0
rango(M jb) = 1. De acuerdo con el teorema 4.9.11, el sistema M x = b tiene
2
solución. Por otro lado si tomamos b = ; [M jb] tiene rango dos y por lo
3
tanto, en este caso, el sistema M x = b no tiene solución.
Si b = 0, entonces claramente, rango([M jb]) = rango(M ) y por lo tanto,
el sistema de ecuaciones lineales homogéneo M x = 0, siempre tiene solución.
Desde luego, x = 0 es una solución, la trivial. Para sistemas de ecuaciones
homógeneos tenemos el criterio siguiente.

Teorema 4.9.13 Sea M una matriz k `. El sistema homogéneo M x = 0


tiene solución única si y solo si rango(M ) = `.
Demostración Si el sistema homogéneo M x = 0 tiene solución única, en-
tonces no hay variables libres. Así, todas las columnas de M son básicas y
por lo tanto rango(M ) = `. Recíprocamente, si rango(M ) = `, todas las
columnas de M son básicas y no hay variables libres. Por lo tanto, la única
solución es x = 0.
181

Ejemplo 4.9.14 Sea


0 1
1 3 3 2
M =@ 2 6 9 5A :
1 3 3 0

Ya que en el sistema homógeneo M x = 0 hay menos ecuaciones que variables,


la solución no es única (teorema 1.6.20). De aquí, por el teorema 4.9.13
anterior, rango(M ) < 4. La forma escalonada reducida por renglones de M
es 0 1
1 3 0 1
R = @0 0 1 1=3A ;
0 0 0 0
así que rango(M ) = 2. La solución del sistema tiene dos variables básicas y
dos variables libres. La solución general es:
0 1 0 1 0 1 0 1
x1 3x2 x4 3 1
Bx 2 C B x2 C B C B 0 C
B C=B C = x2 B 1 C + x4 B C
1A :
@x 3 A @ 1
x A @ 0 A @
3 4 3
x4 x4 0 1

Ejemplo 4.9.15 Si 0 1
1 17 1
M= @ 0 1 1 A;
1 1 11
su forma escalonada reducida por renglones es
0 1
1 0 0
R = @0 1 0A :
0 0 1

De aquí, rango(M ) = 3 y por lo tanto el sistema homogéneo únicamente tiene


la solución trivial x = 0 (ver también el teorema 1.6.21).
Uno de los requisitos para que la matriz cuadrada M sobre un campo K
fuera invertible era que det(M ) 6= 0. Podemos deducir fácilmente un criterio
de invertibilidad equivalente como se indica en el siguiente corolario.

Corolario 4.9.16 Sea M una matriz cuadrada de k k. Entonces M es


invertible si y solo si rango(M ) = k.
182

Demostración Por el teorema 1.12.6, la matriz M es invertible si y solo si


el sistema homogéneo M x = 0 tiene únicamente la solución trivial x = 0.
Por lo tanto, por el teorema 4.9.13 anterior, M es invertible si y solo si
rango(M ) = k.
Si el sistema de ecuaciones M x = b tiene solución, podemos determinar
si esta solución es única de la manera siguiente.

Corolario 4.9.17 Sea M 2 K k ` . Si el sistema de ecuaciones lineales M x =


b es consistente entonces, son equivalentes:
(i) El sistema M x = b es consistente y determinado.
(ii) El sistema homogéneo asociado M x = 0 tiene únicamente la solución
trivial.
(iii) rango(M ) = `.
Demostración Ya que dos soluciones distintas de M x = b di…eren por una
solución del sistema homogéneo asociado (teorema 1.8.8), el resultado se sigue
directamente del teorema 4.9.13 anterior.

4.9.2. Rango y determinantes


Sea A una matriz m n y considere la transformación lineal asociada a
esta matriz TA : K n ! K m dada por por TA (x) = Ax. El núcleo de esta
transformación lineal TA es el espacio nulo de la matriz A, es decir, el espacio
de soluciones del sistema Ax = 0 y la imagen de TA es el conjunto de vectores
b en K m tales que b = Ax tiene una solución para x. Si A 1 ; A 2 ; : : : ; A n son
las columnas de A, entonces

Ax = x1 A 1 + x2 A 2 + + xn A n

de modo que la imagen de TA es el subespacio de K m generado por las


columnas de A. Es decir, la imagen de TA es el espacio de columnas de A.
Por lo tanto,
rango(TA ) = rango de columnas de A:
Sea R una matriz escalonada reducida por renglones equivalente por …las a
la matriz A. Entonces, el espacio nulo de A es también el espacio solución del
sistema Rx = 0. Si R tiene r renglones no nulos, es decir r = rango(A) = dim
espacio de renglones de A, entonces el sistema de ecuaciones Rx = 0 expresa r
de las incógnitas x1 ; : : : ; xn en términos de las (n r) incógnitas xj restantes.
183

Supóngase que los pivotes no nulos de los renglones no nulos están en las
columnas k1 ; : : : ; kr . Sea J el conjunto de los n r índices diferentes de
k1 ; : : : ; k r :
J = f1; : : : ; ng fk1 ; : : : ; kr g :
El sistema Rx = 0 tiene la forma
X
x k1 + c1j xj = 0
j2J
..
.
X
x kr + crj xj = 0
j2J

donde los cij 2 K son ciertos escalares. Todas las soluciones se obtienen
asignando (arbitrariamente) valores a aquellos xj con j 2 J y calculando los
valores correspondientes de xk1 ; : : : ; xkr . Para cada j 2 J, sea Ej la solución
obtenida al hacer xj = 1 y xi = 0 para todos los otros i de J. A…rmamos que
los n r vectores Ej ; j 2 J forman una base del espacio nulo de A.
Como el vector columna Ej tiene un 1 en el renglón j y ceros en los
renglones J fjg restantes, el conjunto de estos 0 vectores
1 es linealmente
x1
n B .. C
independiente. Si x 2 K es tal que Rx = 0; x = @ . A entonces
xn
X
y= xj Ej

es una solución también del sistema homogéneo Ax = 0. Esta solución es


tal que yj = xj para cada j 2 J y la solución con esta propiedad es única,
luego x = y y por lo tanto pertenece al espacio generado por los vectores Ej .
Esto muestra que dim ker TA = n r, donde r es la dimensión del espacio
de renglones de A. Si N (A) = ker TA es el espacio nulo de A, entonces la
nulidad(A) = dim ker(TA ).

Teorema 4.9.18 (del rango mas la nulidad) Sea A una matriz m n.


Entonces
rango(A) + nulidad(A) = n:
Es decir, el rango de A mas la nulidad de A es igual al número de columnas
de A.
184

Ejemplo 4.9.19 Consideremos la matriz 5 5


0 1
1 2 0 3 0
B1 2 1 1 0C
B C
A=B B 0 0 1 4 0C
C:
@2 4 1 10 1A
0 0 0 0 1

Su forma escalonada reducida por renglones es


0 1
1 2 0 3 0
B0 0 1 4 0C
B C
R=B B0 0 0 0 1C
C:
@0 0 0 0 0A
0 0 0 0 0

Una base del espacio de renglones de A se puede tomar de los renglones


distintos de cero de la matriz R,

(1; 2; 0; 3; 0); (0; 0; 1; 4; 0); (0; 0; 0; 0; 1):

El espacio de renglones de A consta de los vectores de la forma

1 (1; 2; 0; 3; 0) + 2 (0; 0; 1; 4; 0) + 3 (0; 0; 0; 0; 1) = ( 1; 2 1; 2; 3 1 + 4 2; 3 );

donde 1 ; 2 ; 3 son escalares arbitrarios. Así el rango(A) = 3.


Las ecuaciones del sistema Rx = 0 son:

x1 + 2x2 + 3x4 = 0
x3 + 4x4 = 0
x5 = 0:

De este modo, el espacio nulo de A consta de las columnas de la forma


0 1 0 1 0 1
2x2 3x4 2 3
B x2 C B C B C
B C B1C B0C
B 4x4 C = x2 B 0 C + x4 B 4C
C B C B
B C
@ x4 A @0A @1A
0 0 0
185

donde x2 y x4 son arbitrarios. Las columnas


0 1 0 1
2 3
B1C B 0C
B C B C
E2 = B C
B 0 C ; E4 = B
B 4C
C
@0A @ 1A
0 0

forman una base de ker TA . Este es un ejemplo de la base descrita en la


prueba del teorema 4.9.18.

Teorema 4.9.20 Si A es una matriz de m n de elementos en el campo K,


entonces
rango de renglones(A) = rango de columnas(A):
Demostración Considere la transformación lineal asociada a la matriz A; TA :
K n ! K m dada por por TA (x) = Ax. Entonces, como vimos anteriormente,

rango(TA ) = rango de columnas de A:

Por el teorema de la dimensión,

nulidad(TA ) + rango de columnas de A = n: (4.2)

Por el teorema 4.9.18, nulidad(TA ) = nulidad(A) = n rango(A) = n rango


de renglones de A. Sustituyendo en (4.2), obtenemos el resultado deseado

rango de renglones(A) = rango de columnas(A):

De este modo, concluimos que

rango(A) = rango de renglones(A) = rango de columnas(A):

Corolario 4.9.21 Sea A 2 K m n . Entonces


(i) 0 rango(A) m n fm; ng.
(ii) rango(A) = rango(AT ).
(iii) rango(A) = rango(P AQ) para matrices P y Q invertibles cualesquiera.
(iv) Para cualquier matriz B 2 K n p , rango(AB) m n frango(A); rango(B)g.
186

Demostración (i) Ya que el espacio de renglones de A K n , rango(A) =


rango de renglones(A) n. De manera similar, el espacio de columnas de
m
A K y así, rango(A) = rango de columnas(A) m. Por lo tanto, 0
rango(A) m n fm; ng.
(ii) rango(A) = rango de columnas(A) = rango de renglones(AT ) =
rango(AT ).
(iii) Por los teoremas 4.9.1 y 4.9.20, rango(A) = rango de renglones(A) =
rango de renglones(P A) = rango de columnas(P A) = rango de columnas(P AQ) =
rango(P AQ).
(iv) Hemos visto que el espacio de columnas de AB es un subespacio del
espacio de columnas de A y el espacio de renglones de AB es un subespacio
del espacio de renglones de B. De aquí, por el teorema 4.9.20,

rango(AB) = rango de columnas(AB) rango de columnas(A) = rango(A):

También,

rango(AB) = rango de renglones(AB) rango de renglones(B) = rango(B):

Por lo tanto, rango(AB) m n frango(A), rango(B)g.


Si rango(A) = m n fm; ng ; A se llama de rango completo.

De…nición 4.9.22 Sean M; N 2 Mk ` (K). Decimos que M y N son equi-


valentes si existen matrices invertibles P y Q tales que P M Q = N .
De este modo, M y N son equivalentes si N puede ser obtenida de M
aplicando un número …nito de operaciones elementales renglón y columna.
Un argumento simple muestra que esta es una relación de equivalencia.
Se sigue del colorario 4.9.21(iii), que si M y N son equivalentes tienen el
mismo rango.
¿Cuál es la matriz más simple equivalente a una matriz M dada?

Teorema 4.9.23 Si M es una matriz de k ` de rango r, entonces M es


equivalente a la matriz canónica de equivalencia

Ir 0
;
0 0

donde Ir es la matriz identidad r r.


187

Demostración Sea R la forma escalonada reducida por renglones de M .


Entonces, existe una matriz invertible P tal que P M = R. Como el rango de
M es r, las columnas básicas de R son las r columnas unitarias. Aplicando
intercambio de columnas a R podemos mover estas columnas unitarias a
la parte más izquierda. Si Q1 es el producto de las matrices elementales
correspondientes a estos intercambios de columnas, entonces P M Q1 tiene la
forma :
I J
P M Q1 = RQ1 = r :
0 0
Multiplicando esta igualdad por la derecha en ambos lados por la matriz
invertible,
I J
Q2 = r ;
0 I
obtenemos que

Ir J Ir J Ir 0
P M Q1 Q2 = = ;
0 0 0 I 0 0

donde I es la matriz identidad de (` r) (` r).


Finalmente, haciendo Q = Q1 Q2 se sigue el resultado. (Note que Q2 es
I J
invertible, ya que r es su inversa).
0 I
Hemos visto que una matriz cuadrada M en K k k es invertible si y solo
si se cumple una de las siguientes condiciones:

1. det(M ) 6= 0.

2. rango(M ) = k.

Entonces, necesariamente estas dos condiciones deben ser equivalentes y,


por lo tanto, tenemos la siguiente proposición.

Proposición 4.9.24 Sea M una matriz cuadrada en K k k . Entonces rango(M ) =


k si y solo si det(M ) 6= 0.
Por lo tanto, es natural buscar una posible extensión de este enfoque a
las matrices que no son necesariamente cuadradas o invertibles. De hecho,
resulta que este método puede aplicarse a una matriz arbitraria y tenemos
el siguiente teorema.
188

Teorema 4.9.25 (rango y menores) Sea M una matriz de k ` sobre el


campo K. Entonces rango(M ) = r; 1 r m n fk; `g si y solo si existe un
menor distinto de cero de orden r, que es el menor más grande distinto de
cero.
Demostración Suponga primero que rango(M ) = r. Ya que rango(M ) =
rango de columnas(M ); r columnas de M son linealmente independientes
(sin pérdida de generalidad podemos asumir que son las primeras r columnas
M 1 ; M 2 ; : : : ; M r de M ). Sea C = fe1 ; e2 ; : : : ; ek g la base canónica de K k . Si
r = k `, entonces B = fM 1 ; M 2 ; : : : ; M r g es una base de K k y tenemos
que
Xk
Mj= mij ei ; 1 j k;
i=1

de aquí, la matriz de transición de la base B a la base C es


0 1
m11 m12 m1k
Bm21 m22 m2k C
B C
MB;C = B .. .. .. C :
@ . . . A
mk1 mk2 mkk

Ya que MB;C es invertible, det(MB;C ) 6= 0. También, det(MB;C ) es un menor


de M ya que la matriz MB;C se puede obtener de M suprimiendo las últimas
` k columnas.
Ahora si r < k, ya que los elementos de B son linealmente independientes,
existen vectores vr+1 ; : : : ; vk (podemos elegir vj = ej; r + 1 j k) tales que

B 0 = fM 1 ; M 2 ; : : : ; M r ; er+1 ; : : : ; ek g

es una base de K k .En este caso, la matriz de cambio de base de la base B 0 a


la base C tiene la forma
0 1
m11 m12 m1r 0 0
B m21 m22 m2r 0 0C
B . .. .. .. .. C
B . C
B . . . . .C
B C
MB 0 ;C = B mr1 mr2 mrr 0 0C
B C
Bmr+1;1 mr+1 ;2 mr+1;r 1 0C
B . .. .. .. .. C
@ .. . . . .A
mk1 mk2 mkk 0 1
189

Ya que MB 0 ;C es invertible,
0 1
m11 m12 m1r
Bm21 m22 m2r C
B C
det(MB 0 ;C ) = det B .. .. .. C 6= 0:
@ . . . A
mr1 mr2 mrr
Recíprocamente, asuma que existe un menor distinto de cero de orden r de
la matriz M y que el menor correspondiente a los renglones i1 ; i2 ; : : : ; ir es
distinto de cero, esto es el determinante de la matriz
0 1
mi1 1 mi1 2 mi1 r
Bm i 1 m i 2 mi2 r C
B 2 2 C
N = B .. .. .. C
@ . . . A
mir 1 mir 2 mir r
no es cero. Suponga que
1M 1 + 2M 2 + + rM r = 0: (4.3)
Ahora, como antes,
X
k
Mj= mij ei ; 1 j k: (4.4)
i=1

Entonces, teniendo en cuenta (4.4), tenemos que (4.3) puede ser expresado
como un sistema lineal de la forma
0 10 1
m11 m12 m1r 1
Bm21 m22 C B
m2r C B 2 C
B C
B .. .. .. C B .. C = 0:
@ . . . A@ . A
mk1 mk2 mkr r

Esto lleva, al retener los renglones i1 ; i2 ; : : : ; ir , al sistema lineal


N = 0;
0 1
1
B C
B 2C
donde =B .. C. Este último sistema tiene una única solución 1 = 2 =
@ .A
r
= r = 0, ya que la matriz N es invertible. Esto muestra que M 1 ; M 2 ; : : : ; M r
190

son linealmente independientes y de este modo, rango(M ) = r. Esto completa


la prueba.
Ejemplo 4.9.26 Sea 0 1
2 3 4
B3 1 5C
M =B @ 1
C:
0 1A
0 2 4
Es claro que rango(M ) 3. Podemos comprobar fácilmente que los deter-
minantes de todas las submatrices 3 3 son cero. Por otro lado, tenemos
que
3 1
det = 1 6= 0:
1 0
Por lo tanto, rango(M ) = 2.
Ejemplo 4.9.27 Sea
0 1
a 2 1 b
@
M= 3 0 1 4A ;
5 4 1 2
donde a y b son números reales. Ya que
3 0
det = 12 6= 0;
5 4
rango(M ) 2 para todos los valores de a y b. Para encontrar los valores de
a y b para los cuales rango(M ) = 2, necesitamos buscar todos los valores de
a y b que hacen que el primer renglón sea una combinación lineal del segundo
y del tercer renglón. De este modo, sean y dos números reales tales que
a 2 1 b = 3 0 1 4 + 5 4 1 2 :
Esto lleva al sistema de ecuaciones
3 +5 = a
4 = 2
= 1
4 +2 = b;
cuya única solución es = 12 ; = 12 ; a = 1 y b = 3. Por lo tanto, si a = 1
y b = 3, entonces rango(M ) = 2, de lo contrario, los tres renglones serán
linealmente independientes y rango(M ) = 3.
191

4.10. Ejercicios
1. La forma escalonada reducida por renglones de una matriz M es
0 1
1 2 0 4 2 0 5 1 0
B0 0 1 5 3 0 4 1 2C
B C
R=B B0 0 0 0 0 1 1 1 4CC:
@0 0 0 0 0 0 0 0 0A
0 0 0 0 0 0 0 0 0

Las columnas 1; 3 y 6 de M son


0 1 0 1 0 1
5 1 2
B 1C B 2C B 3C
B C B C B C
B
M 1 = B 4 C;M 3 = B
C
B 2CC;M 6 =B
B 1C
C:
@5A @ 1A @ 0A
8 3 1

Encuentre la matriz M .

2. Considere el sistema de ecuaciones lineales

x1 2x2 2x3 5x5 + 3x6 = 5


x1 2x2 + 7x5 + 5x6 = 1
x4 3x5 + 4x6 = 7:

Sea M la matriz de coe…cientes y b el lado derecho de este sistema


lineal.

a) Calcule el rango de la matriz aumentada.


b) ¿Es consistente o inconsistente este sistema?
c) ¿Es posible escribir b como una combinación lineal de las columnas
de M ?
d) ¿El espacio de columnas de M contiene al vector b?

3. Pruebe que si M es una matriz k ` de rango k, entonces el sistema


de ecuaciones M x = b es consistente para cualquier b.
192

4. Suponga que los sistemas de ecuaciones cuyas matrices aumentadas son


(M j b) y (M j c) son consistentes. El sistema de ecuaciones con matriz
aumentada (M j b + c), ¿es consistente?

5. Discuta el rango de la matriz


0 1
1 0 2 a
@
M= 0 1 1 1A
2 8 a 0

en función del parámetro a.


M 0
6. Sean M y N matrices cuadradas. Pruebe que rango = rango(M )+
0 N
rango(N ).

7. Si M es la matriz de coe…cientes de un sistema homogéneo formado por


4 ecuaciones y 8 incógnitas y hay 5 variables libres, ¿cuál es el rango
de M ?

8. Sea M 2 K k ` de rango `. Pruebe que la función T : K ` ! K k dada


por T (x) = M x es una función inyectiva.

9. Suponga que M es una matriz de 2 1 y que N es una matriz de 1 2.


Demuestre que M N no es invertible.

10. Sean M y N matrices de k `y` p, respectivamente.

a) Suponga que la columna j de la matriz N es una combinación de


lineal de otras columnas de N , digamos,

Nj= 1 N j1 + + s N js :

Pruebe que

(M N ) j = 1 (M N ) j1 + + s (M N ) js :

b) Pruebe que rango(M N ) rango(N ).


c) Pruebe que rango(M N ) rango(M ).
d) Suponga que M y N son matrices cuadradas de k k. Pruebe que
si M N = I, entonces rango(M ) = k.
193

4.11. Los cuatro espacios fundamentales de


una matriz; sus bases y dimensiones
Si A es una matriz m n, asociamos con esta matriz los cuatro espacios
fundamentales de A:

1. El espacio de columnas de A,

R(A) = Im TA = fb 2 K m : existe x 2 K n ; b = Axg :

2. El espacio nulo de A,

N (A) = ker TA = fx 2 K n : Ax = 0g :

3. El espacio nulo izquierdo de A,

N (AT ) = ker TAT = x 2 K m : AT x = 0 :

4. El espacio de renglones de A,

R(AT ) = Im TAT = b 2 K n : existe x 2 K m ; b = AT x :

Estos espacios surgen de manera natural al considerar sistemas de ecua-


ciones lineales. Estos cuatro espacios están relacionado del modo siguiente.

Teorema 4.11.1 Si A 2 Rm n
, entonces:

Rm = R(A) N (AT )
Rn = N (A) R(AT ):

Demostración Primero demostramos que R(A) \ N (AT ) = f0g. En efecto,


si x 2 R(A) \ N (AT ), entonces AT x = 0 y x = Az para algún z. De aquí,

xT x = (Az)T x = (z T AT )x = z T (AT x) = z T 0 = 0;

de donde x = 0. Así, R(A) \ N (AT ) = f0g. Ahora, por la fórmula de


Grassman, dim R(A) + N (AT ) = dim(R(A)) + dim(N (AT )) dim(R(A) \
N (AT )) = r + (m r) 0 = m = dim Rm , donde r es el rango de A, tenemos
que Rm = R(A) + N (AT ). Por lo tanto, Rm = R(A) N (AT ).
194

Ahora, como R(A) \ N (AT ) = f0g para cualquier matriz A, tenemos que
R(AT ) \ N (A) = f0g y, de manera análoga al caso anterior, se demuestra la
segunda igualdad.
Para obtener las bases del espacio de columnas de A y el espacio nulo
izquierdo de A, ya que los renglones de AT son las columnas de A, podemos
usar la forma escalonada reducida de AT y proceder de la misma manera en
que encontramos bases para el espacio de renglones de A y el espacio nulo de
A. Sin embargo, tenemos el teorema siguiente que permite encontrar estas
bases más rápidamente.

Teorema 4.11.2 Sea A 2 K m n una matriz de rango r y sea P una matriz


invertible tal que P A = U , donde U es una forma escalonada de A. Entonces:
(i) Las columnas básicas de A forman una base para R(A), el espacio de
columnas de A.
(ii) Los últimos m r renglones de P forman una base de N (AT ), el
espacio nulo izquierdo de A.
Demostración (i) Sean A k1 ; : : : ; A kr las columnas básicas de A. Cada
columna básica pertenece al espacio de columnas de A pues Aej = A j . De
aquí, hA k1 ; : : : ; A kr i R(A). Por otro lado, si b 2 R(A), entonces existe
T
x = (x1 ; : : : ; xn ) tal que Ax = b. Luego b = x1 A 1 + + xn A n . Como
toda columna no básica de A se puede escribir como combinación lineal de
las columnas básicas, se sigue que b también es combinación lineal de las
columnas básicas de A. De aquí, R(A) hA k1 ; : : : ; A kr i y de este modo
R(A) = hA k1 ; : : : ; A kr i. Así fA k1 ; : : : ; A kr g genera al espacio de columnas
de A. Por otro lado, si fA k1 ; : : : ; A kr g no fuera linealmente independiente,
entonces algún elemento de fA k1 ; : : : ; A kr g sería combinación lineal del resto
de las columnas de fA k1 ; : : : ; A kr g y este elemento no sería columna básica
de A, que es una contradicción. Luego el conjunto fA k1 ; : : : ; A kr g es lineal-
mente independiente. Por lo tanto B = fA k1 ; : : : ; A kr g es una base del
espacio de columnas de A y dim R(A) = rango(A), que muestra otra vez que
el espacio de renglones de A y el espacio de columnas de A tienen la misma
dimensión.
(ii) Escribamos las matrices P; P 1 y U en forma de bloques. Es decir,
P1 1 C
P = ;P = Q1 Q2 ; U = ;
P2 0
donde P1 tiene tamaño r m; P2 tiene tamaño (m r) m; Q1 tiene tamaño
m r; Q2 tiene tamaño m (m r) y C tiene tamaño r n. Ya que det(P T ) =
195

det(P ) 6= 0 , por el corolario 3.7.8, las columnas de P T (los renglones de P ),


son linealmente independientes. En particular los m r renglones de P2 son
linealmente independientes.Por lo tanto, generan el espacio de renglones de
P2 y así constituyen una base para este espacio. Demostraremos ahora que el
espacio nulo izquierdo de A es el espacio de renglones de P2 y esto concluirá
la prueba. Sea y 2 N (AT ). Entonces
AT y = 0
) yT A = 0
) yT P 1U = 0
C
) y T Q1 Q2 =0
0
) y T Q1 C = 0
) C T (QT1 y) = 0
) QT1 y 2 N (C T ):
Pero N (C T ) = 0, pues rango (C T ) = rango (C) = r. Luego QT1 y = 0 y por
lo tanto y T Q1 = 0. Por otro lado, I = P 1 P = Q1 P1 + Q2 P2 , de donde se
sigue que
y T = y T I = y T (Q1 P1 + Q2 P2 ) = y T Q2 P2 ;
así que y = P2T (QT2 y). Por lo tanto, y está en el espacio de renglones de P2 .
Recíprocamente, si y está en el espacio de renglones de P2 , entonces y =
P2T x para algún x y, en consecuencia, y T A = xT P2 A. Por otro lado,
PA = U
P1 C
) A=
P2 0
P1 A C
) =
P2 A 0
) P2 A = 0:
Luego, y T A = xT P2 A = 0, es decir, AT y = 0. Por lo tanto, y está en el
espacio nulo izquierdo de A.

Ejemplo 4.11.3 Usando los teoremas 4.9.2 y 4.11.2, 0 se calcularán


1 bases de
1 2 2 3
los cuatro espacios fundamentales de la matriz A = @2 4 1 3A. Primero
3 6 1 4
196

se calcula una matriz invertible P tal que P A = U , donde U es la forma


escalonada reducida de A.
0 1 0 1
1 2 2 3 j 1 0 0 1 2 0 1 j 0 1 1
@ A @ C P1
[A j I] = 2 4 1 3 j 0 1 0 ! 0 0 1 1 j 0 3 2A = :
0 P2
3 6 1 4 j 0 0 1 0 0 0 0 j 1 5 3

Una base del espacio de columnas de A son las columnas básicas 1 y 3 de


A. La base del espacio de renglones son los renglones 1 y 2 de C. Una base
para el espacio nulo izquierdo es (1; 5; 3)T . Finalmente, una base para el
espacio nulo de A es ( 2; 1; 0; 0)T ; ( 1; 0; 1; 1)T .

4.12. Ejercicios
1. Sea A 2 Rm n . Pruebe que N (AT ) R(A)? y R(A) N (AT )? (ver
ejercicio 1 de la sección 3.14).

2. Calcule el complemento ortogonal del espacio de columnas de la matriz


0 1
1 2 1 1
A=@ 2 4 0 4A :
1 2 2 4

3. Pruebe que los espacios nulo y de renglones de una matriz A 2 Rm n


son ortogonales. Pruebe que también lo son los espacios de columnas y
el espacio nulo izquierdo de A (ver ejercicio 2 de la sección 3.14).

4.13. Rango de un producto de matrices


Hemos visto que rango(AB) m n frango(A), rango(B)g. Un resultado
más preciso para el rango de un producto de matrices es el siguiente.

Teorema 4.13.1 (rango de un producto de matrices) Si A 2 K m n


y
B 2 K n p , entonces

rango(AB) = rango(B) dim(N (A) \ R(B)):


197

Demostración Sea B = fx1 ; : : : ; xs g una base para N (A) \ R(B). Clara-


mente N (A) \ R(B) R(B). Supongamos que dim R(B) = s + t y exten-
demos la base B a una base de R(B), digamos B 0 = fx1 ; : : : ; xs ; z1 ; : : : ; zt g.
Demostraremos que dim R(AB) = t, mostrando que B 00 = fAz1 ; : : : ; Azt g
es una base para R(AB). En efecto, si b 2 R(AB),Ps entonces P b = ABy para
t
algún y. Pero By 2 R(B) implica que By = i=1 i xi + i=1 i zi para
algunos escalares i ; i . Luego
Xs X
t
b = A( i xi + i zi )
i=1 i=1
X
s X
t
= i Axi + i Azi
i=1 i=1
Xt
= i Azi ;
i=1

ya que B N (A) \ R(B) N (A). De este modo, B 00 genera R(AB).


Supongamos ahora que existen escalares 1 ; : : : ; t tales que
X
t
0 = i Azi
i=1
!
X
t
= A i zi :
i=1
Pt
Entonces i=1 i zi 2 N (A) \ R(B), de modo tal que existen escalares
1 ; : : : ; s tales que
Xt X
s

i zi = i xi ;
i=1 i=1
es decir,
X
t X
s

i zi i xi = 0:
i=1 i=1

Como B 0 es linealmente independiente, resulta que i = 0 y j = 0 para


i = 1; : : : ; t y j = 1; : : : ; s. Así B 00 es una base para R(AB), de modo que
t = dim R(AB) y de aquí se sigue que
rango(B) = dim R(B) = s + t = dim (N (A) \ R(B)) + rango(AB):
198

Una aplicación del teorema 4.13.1 anterior es la siguiente.

Teorema 4.13.2 Si A 2 Rm n , entonces:


(i) rango(AT A) = rango(A) = rango (AAT ).
(ii) R(AT A) = R(AT ) y R(AAT ) = R(A).
(iii) N (AT A) = N (A) y N (AAT ) = N (AT ).
Demostración (i) De acuerdo con el teorema 4.11.1, N (AT ) \ R(A) = f0g.
Aplicando la fórmula para el rango de un producto tenemos que

rango(AT A) = rango(A) dim(N (AT ) \ R(A))


= rango(A):

Intercambiando los papeles de A y AT , se tiene que

rango(AAT ) = rango(AT ) = rango(A):

(ii) Hemos visto ya que R(AB) R(A) y por lo tanto R(AT A) R(AT ).
De acuerdo con el inciso anterior tenemos que

dim R(AT A) = rango(AT A) = rango(A) = rango(AT ) = dim R(AT );

de donde se sigue que R(AT A) = R(AT ). Intercambiando los papeles de A y


AT se obtiene que R(AAT ) = R(A).
(iii) Usando el ejercicio 3(b) de la sección 4.6, se puede mostrar que
N (B) N (AB), luego N (A) N (AT A). Aplicando el inciso (i), tenemos
que

dim N (A) = n rango(A) = n rango(AT A) = dim N (AT A);

de donde se sigue que N (A) = N (AT A). Intercambiando los papeles de A y


AT obtenemos que N (AAT ) = N (AT ).

4.14. Ejercicios
1. Sean A; B 2 K m n
. Pruebe las siguientes desigualdades:

a) rango(A + B) rango(A)+ rango(B).


199

b) nulidad (A + B) nulidad(A)+ nulidad (B) n.


c) Si rango(B) = 1; jrango(A + B) rango(A)j 1.

2. Dé un ejemplo de dos matrices A y B para las cuales rango(AB) <


m n frango(A), rango(B)g.
3. Sea A 2 K m r ; B 2 K r p
y C 2 Kp n
.

a) Muestre la desigualdad de Frobenius,


rango(AB) + rango(BC) rango(B) + rango(ABC):

b) Deduzca que para dos matrices cualesquiera A 2 K m r


y K 2
K r n,
rango(AK) rango(A) + rango(K) r:
c) Pruebe la ley de nulidad de Sylvester. Si A y B son matrices
cuadradas en K n n , entonces
nulidad(AB) nulidad(A) + nulidad(B):

4.15. Espacios cociente


Sea V un espacio vectorial sobre el campo K y sea W un subespacio de
V . En general hay muchos subespacios W 0 que son complementarios de W ,
es decir, subespacios con la propiedad de que V = W W 0 . En general, no
hay modo de seleccionar un subespacio W 0 que se pudiera llamar subespacio
complementario natural de W . Sin embargo, se puede construir a partir de
V y W un espacio vectorial V =W , llamado “cociente” de V y W , que hará
de complemento natural de W . Este espacio cociente no es un subespacio de
V y, por tanto, no puede ser un subespacio complementario de W ; pero es
un espacio vectorial de…nido solo en términos de V y W y tiene la propiedad
de que es isomorfo a cualquier subespacio W 0 que sea complementario de W .
Si v1 y v2 2 V , se dice que v1 es congruente con v2 módulo W si el vector
(v1 v2 ) está en el subespacio W . Escribimos entonces
v1 v2 mod W:
La relación de congruencia módulo W es una relación de equivalencia sobre
V.
200

1. v v mod W , ya que v v = 0 2 W.

2. Si v1 v2 mod W , entonces v2 v1 mod W . En efecto, como W es un


subespacio de V , el vector (v1 v2 ) 2 W si y solo si (v2 v1 ) 2 W .

3. Si v1 v2 mod W y v2 v3 mod W , entonces v1 v3 mod W . En efecto,


si (v1 v2 ) 2 W y (v2 v3 ) 2 W , entonces v1 v3 = (v1 v2 )+(v2 v3 ) 2
W.

Las clases de equivalencia de esta relación de equivalencia se llaman clases


laterales de W . ¿Cuál es la clase de equivalencia (clase lateral) de un vector
v? Consta de todos los vectores u 2 V tales que (u v) 2 W ; esto es, todos
los vectores u de la forma u = v + w, con w 2 W . Por esta razón la clase
lateral del vector v se representa por

v + W:

Es apropiado pensar que la clase lateral de v con respecto a W es el conjunto


de vectores que se obtienen por translación del subespacio W por el vector
v. La clase lateral es llamada también la variedad afín lineal que pasa por
v y tiene por dirección al subespacio W . En general, no es un subespacio
de V . Para ilustrar estas variedades a…nes lineales, sea V = R2 y sea W un
subespacio de dimensión uno de V , es decir W es una recta que pasa por el
origen. Si v 2 R2 , la clase lateral v + W es la recta que pasa por el punto v
y es paralela a W .
El conjunto de todas las clases laterales se representa por V =W . De…nimos
ahora una adición vectorial y una multiplicación por un escalar en V =W como
sigue:

(v1 + W ) + (v2 + W ) = (v1 + v2 ) + W


(v + W ) = ( v) + W:

Ahora bien, muchos vectores diferentes de V tendrán la misma clase lateral


con respecto a W y, por tanto, se debe veri…car que la suma y el producto
anterior dependen solo de las clases laterales que intervienen. Lo que esto
quiere decir es que debemos demostrar lo siguiente:

1. Si v1 v10 mod W y v2 v20 mod W , entonces

v1 + v2 v10 + v20 mod W:


201

2. Si v1 v2 mod W , entonces v1 v2 mod W .

Estos hechos son fáciles de veri…car.

1. Si v1 v10 2 W y v2 v20 2 W , entonces como (v1 + v2 ) (v10 + v20 ) =


(v1 v10 ) + (v2 v20 ), vemos que (v1 + v2 ) es congruente con (v10 + v20 )
módulo W .

2. Si v1 v10 2 W y es cualquier escalar, entonces v1 v10 = (v1 v10 )


está en W .

Ahora es fácil comprobar que V =W , con la adición vectorial y la multi-


plicación por escalares de…nidos anteriormente, es un espacio vectorial sobre
el campo K. Cada una de las propiedades de la adición vectorial y de la
multiplicación por escalares se desprenden de la propiedad correspondiente
de las operaciones en V . Habría que decir que el vector nulo de V =W será la
clase lateral del vector nulo de V . Es decir, W es el vector nulo de V =W .
El espacio vectorial V =W se llama cociente (o diferencia) de V y W . Hay
una transformación lineal natural de V sobre V =W . Está de…nida por

: V ! V =W
v !
7 v + W:

Las operaciones en V =W se han de…nido justamente para que esta trans-


formación sea lineal. Obsérvese que el espacio nulo de es exactamente
ker = W . A se le llama la transformación cociente (o proyección) de V
sobre V =W .
La relación entre el espacio cociente V =W y los subespacios de V que son
complementarios de W puede ser establecida como sigue.

Teorema 4.15.1 Sea W un subespacio del espacio vectorial V y sea la


transformación cociente de V sobre V =W . Supongase que W 0 es un subespacio
de V . Entonces V = W W 0 si y solo si la restricción de a W 0 es un
isomor…smo de W 0 sobre V =W .
Demostración Suponga que V = W W 0 . Entonces cada v 2 V se puede
expresar de manera única como v = w + w0 , con w 2 W y w0 2 W 0 . Entonces
(v) = (w + w0 ) = (w0 ), esto es, v + W = w0 + W . Esto muestra que
mapea W 0 sobre V =W , es decir, (W 0 ) = V =W . También es inyectiva en
202

W 0 ; en efecto, suponga que w10 y w20 son vectores de W 0 y que (w10 ) = (w20 ).
Entonces (w10 w20 ) = 0, con lo que w10 w20 está en W . Este vector también
está en W 0 ; pero W \ W 0 = f0g, luego w10 w20 = 0. La restricción de a
W 0 es por tanto, un isomor…smo de W 0 con V =W .
Ahora suponga que W 0 es un subespacio de V tal que sea inyectiva en
W 0 y que (W 0 ) = V =W . Sea v 2 V . Entonces existe un vector w0 de W 0 tal
que (w0 ) = (v); es decir, w0 + W = v + W . Esto quiere decir que v = w + w0
para algún w 2 W . Por lo tanto, V = W + W 0 . Para ver que W \ W 0 = f0g,
suponga que v 2 W \ W 0 :Como v 2 W , se tiene que (v) = 0. Pero es
inyectiva en W ’y entonces debemos tener que v = 0. Por lo tanto, tenemos
que V = W W 0 .
Lo que realmente dice este teorema es que W 0 es complementario de W
sy y solo si W 0 es un subespacio que contiene exactamente un elemento de
cada clase lateral de W . Muestra que cuando V = W W 0 , la transformación
cociente “identi…ca” W 0 con V =W . En resumen, W W 0 =W es isomorfo
de W 0 de un modo “natural”.
Debemos notar otro hecho obvio. Si W es un subespacio del espacio vec-
torial de dimensión …nita V , entonces

dim W + dim V =W = dim V:

Se puede ver esto del teorema anterior. Tal vez es más fácil observar que lo
que esta fórmula dimensional dice es que

nulidad( ) + rango( ) = dim V:

Demostramos por último un resultado fundamental.

Teorema 4.15.2 (primer teorema de isomor…smo) Sean V y Z espa-


cios vectoriales sobre el campo K. Suponga que T es una transformación
lineal suprayectiva de V a Z. Si W es el espacio nulo de T , entonces Z es
isomorfo a V =W .
T
V ! Z
& "U
V =W
Demostración De…nimos una transformación U de V =W a Z por U (v +
W ) = T (v). Debemos veri…car que U está bien de…nida, es decir, que si
v + W = v 0 + W , entonces T v = T v 0 . Esto se sigue del hecho de que W es el
203

espacio nulo de T ; en efecto, v + W = v 0 + W quiere decir que v v 0 2 W y


esto sucede si y solo si T (v v 0 ) = 0. Esto muestra no solo que U está bien
de…nida, sino que también U es inyectiva.
Es ahora fácil comprobar que U es lineal y lleva V/W, sobre Z, pues T es
una transformación lineal de V sobre Z.

4.16. Ejercicios
1. Sea W un subespacio de un espacio vectorial V de dimensión …nita y
considere la base fw1 ; w2 ; : : : ; wk g de W . Si fw1 ; w2 ; : : : ; wk ; vk+1 ; : : : ; vn g
es una extensión de esta base a una base de V , pruebe que

fvk+1 + W; vk+2 + W; : : : ; vn + W g

es una base de V =W .

2. Pruebe lo siguientes teoremas de isomor…smo:

a) (Segundo teorema de isomor…smo) Sean U y W subespacios de un


espacio vectorial V . Entonces

U=(U \ W ) = (U + W )=W:

b) (Tercer teorema de isomor…smo) Sean U y W subespacios de un


espacio vectorial V y suponga que W U . Pruebe que U=W es
un subespacio de V =W y

(V =W ) = (U=W ) = V =U:
BIBLIOGRAFÍA

[1] de Burgos Román J., Álgebra Lineal y Geometría Cartesiana, Tercera


Edición, McGraw-Hill, 2006.

[2] Friedeberg S.H., Insel A.J., Spence L.A., Linear Algebra, Fifth Edition,
Pearson, 2019.

[3] Grossman S.I., Flores Godoy J.J., Álgebra Lineal, Séptima Edición,
McGraw-Hill, 2012.

[4] Ho¤man K., Kunze R., Linear Algebra, Second Edition, Pearson, 2018.

[5] Lang, S., Linear Algebra, Springer, 2011.

[6] Lara Rodríguez J.A., Rubio Barrios C.J., Álgebra Lineal, Ediciones de la
Universidad Autónoma de Yucatán, 2011.

[7] Schay G., A Concise Introduction to Linear Algebra, Springer, 2012.

[8] Said-Houari, B., Linear Algebra, Springer, 2017.

204

También podría gustarte