Documentos de Académico
Documentos de Profesional
Documentos de Cultura
29 de octubre de 2015
c 2000, 2001, 2015, Felipe Zaldvar.
fzaldivar.wordpress.com
Indice general
Prefacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . VII
1. Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1. Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2. Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3. Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4. Combinaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.5. Dependencia e independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.6. Bases y dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2. Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.1. Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.2. Nucleo e imagen de una transformacion lineal . . . . . . . . . . . . . . . . . . 53
2.3. Transformacion lineal asociada a una matriz . . . . . . . . . . . . . . . . . . . . 61
2.4. Matriz asociada a una transformacion lineal . . . . . . . . . . . . . . . . . . . . 75
2.5. Cambios de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
4.1. Expansion por menores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
4.2. Permutaciones y determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
4.3. Propiedades de los determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
V
VI Indice general
Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333
Estas son las notas de los cursos de algebra lineal que he ensenado en la licen-
ciatura en matematicas en anos recientes. Los prerequisitos son mnimos: un curso
introductorio de algebra superior que incluya las estructuras numericas basicas es
mas que suficiente. La primera parte del libro es el estudio de la matematica alre-
dedor del problema de resolver sistemas de ecuaciones lineales. El libro comienza
motivado por esto y avanza introduciendo las ideas y metodos necesarios para en-
tender el algoritmo usual para resolver sistemas de ecuaciones, el metodo de elimi-
nacion gaussiana. Este es un curso para estudiantes de matematicas y, aunque es
elemental, todos los resultados y metodos se justifican. No es un curso de recetas,
por el contrario, es un estudio de algunas de las ideas necesarias para entender el
problema considerado. En cada momento se enfatizan los conceptos y su relacion
con el problema de resolver sistemas de ecuaciones. En el captulo 3, usando to-
das las herramientas introducidas previamente, se estudia el metodo de Gauss para
resolver sistemas de ecuaciones, justificando el conjunto de conceptos e ideas que
tuvieron que introducirse en los dos captulos anteriores. La segunda parte del li-
bro es un estudio elemental de los operadores lineales en un espacio vectorial de
dimension finita y abarca desde el captulo 4 donde se introduce la nocion de de-
terminante de una matriz, generalizando los casos 2 2 y 3 3 ya conocidos desde
otros cursos, para probar todas las propiedades de los determinantes que se usaran
en los captulos 5 y 6 donde se estudian formas especiales de algunos operadores
lineales: diagonalizables, triangulables o en forma canonica de Jordan, todas ellos
de importancia capital en la matematica. En la tercera parte del libro se introducen
estructuras especiales en los espacios vectoriales: productos internos y productos
hermitianos en el captulo 7, para despues estudiar aquellos operadores lineales que
tienen ciertas simetras con respecto a los productos internos o hermitianos consi-
derados, en particular se obtienen criterios para la diagonalizabilidad de algunos de
estos operadores culminando en el captulo 8 con la demostracion de los teoremas
espectrales correspondientes. En el captulo 9 se hace un estudio elemental de fun-
ciones y formas bilineales, en especial formas cuadraticas, para terminar con una
aplicacion a la geometra de conicas en R2 y cuadricas en R3 . El captulo 10 es una
introduccion al algebra multilineal.
VII
VIII Prefacio
De las ecuaciones que hemos estudiado hasta ahora, las mas sencillas son ecua-
ciones en una variable, por ejemplo del estilo ax = b. En forma natural uno puede
considerar ecuaciones en mas de una variable y las mas simples de ellas son las ecua-
ciones polinomiales de primer grado, a las que llamaremos ecuaciones lineales. Por
ejemplo, en una variable son de la forma ax = b; en dos variables son ecuaciones de
la forma ax + by = c; en tres variables son ecuaciones de la forma ax + by + cz = d.
En general, si tenemos n variables x1 , . . . , xn , una ecuacion lineal en n variables es
una igualdad de la forma
() a1 x1 + + an xn = b
2x 3y + 5z = 10
1
2 1 Espacios vectoriales
() a1 x1 + + an xn = b,
() a1 x1 + + an xn = b,
2x + 3y = 5
4x 2y = 6
y preguntarnos por las soluciones (pares ordenados en R2 ) que sean solucion si-
multanea de la primera y de la segunda ecuacion. En el ejemplo anterior, (1, 1) es
solucion de la primera ecuacion ya que 2(1) + 3(1) = 5, pero no lo es de la segunda
ecuacion ya que 4(1) 2(1) = 2 6= 6. Similarmente, (3, 3) es solucion de la segunda
ecuacion pero no lo es de la primera. Observe ahora que el par ordenado (7/4, 1/2)
es solucion de ambas ecuaciones ya que
2(7/4) + 3(1/2) = 5
4(7/4) 2(1/2) = 6.
2x + 3y = 5
4x + 6y = 1
6 L
y que las dos rectas del sistema anterior son paralelas distintas.
Conviene entonces, para comenzar, considerar sistemas de ecuaciones lineales de
los cuales sepamos que siempre tienen soluciones. Algunos de estos sistemas son
aquellos de la forma:
l u := (l u1 , l u2 , . . . , l un )
u + (v + w) = (u + v) + w.
u + v = v + u.
u + 0 = u.
l (u + v) = l u + l v.
(l + g)u = l u + gu.
(l g)u = l (g u).
1 u = u.
u + v = (u1 , . . . , un ) + (v1 , . . . , vn )
= (u1 + v1 , . . . , un + vn ) por definicion de suma en Sh
= (v1 + u1 , . . . , vn + un ) porque ui + vi = vi + ui en K
= v+u por definicion de suma en Sh .
u + 0 = (u1 , . . . , un ) + (0, . . . , 0)
= (u1 + 0, . . . , un + 0) por definicion de suma en Sh
= (u1 , . . . , un ) porque ui + 0 = ui en K
= u.
u0 := ( u1 , . . . , un )
u + u0 = (u1 , . . . , un ) + ( u1 , . . . , un )
= (u1 u1 , . . . , un un )
= (0, . . . , 0)
= 0.
(l + g)u = (l + g)(u1 , . . . , un )
= (l + g)u1 , . . . , (l + g)un
= (l u1 + gu1 , . . . , l un + gun )
= (l u1 , . . . , l un ) + (gu1 , . . . , gun )
= l u + gu.
t
u
Ejercicio 1.1. Demuestre las propiedades (1), (5), (7) y (8) de la proposicion 1.1
anterior.
El lector habra notado que hasta ahora no hemos dado algun metodo para hallar
soluciones (diferentes de la solucion obvia 0) de un sistema homogeneo de ecuacio-
nes lineales. Tan solo hemos probado algunas propiedades del conjunto de solucio-
nes de un tal sistema homogeneo. Por el momento tendremos que conformarnos con
esto; mas adelante desarrollaremos un metodo general para hallar todas las solucio-
nes de un sistema de ecuaciones lineales homogeneo o no y sera hasta ese momento
cuando las propiedades que acabamos de demostrar muestren su importancia de-
bida. As, despues de pedir la confianza del lector en este punto, lo anterior sirva
unicamente como motivacion para el estudio de los conjuntos V que satisfacen las
mismas propiedades que Sh . El lector notara sin embargo que el tema de las solu-
ciones de sistemas de ecuaciones lineales estara siempre presente en los desarrollos
que haremos y en algunos puntos lo haremos explcito cuando convenga.
8 1 Espacios vectoriales
u + (v + w) = (u + v) + w.
u + v = v + u.
(3) Existe un neutro aditivo, es decir, existe un elemento 0V 2 V tal que para cual-
quier u 2 V se tiene que
u + 0V = u.
(4) Para cada elemento u 2 V existe un elemento u0 2 V tal que u + u0 = 0V . Al
elemento u0 se le llama un inverso aditivo del elemento u.
El producto por un escalar del campo K y un elemento de V satisface:
(5) Para cualesquiera u, v 2 V y l 2 K se tiene que
l (u + v) = l u + l v.
(l + g)u = l u + gu.
(l g)u = l (g u).
1 u = u.
l u = l (a1 , . . . , an ) := (l u1 , . . . , l un )
Ejercicio 1.4. Compruebe que el conjunto de funciones V anterior, con las opera-
ciones definidas antes, es un R-espacio vectorial.
V := {s : N ! R : s es una funcion},
l {an } := {l an }.
Ejercicio 1.5. Demuestre que el conjunto de sucesiones reales V , con las operacio-
nes anteriores, es un R-espacio vectorial.
Columna C j
?
0 1
a11 a12 a1 j a1n
B a21 a22 a2 j a2n C
B C
B .. .. .. C
B . . . C
B C
Renglon Ri - B
B ai1 ai2 ai j ain CC
B . .. .. C
@ .. . . A
am1 am2 am j amn
sumando entrada a entrada. Es claro que A + B 2 Matmn (K), por lo que la suma es
cerrada.
Producto de un escalar por una matriz. Si A = (ai j )mn es una matriz en Matmn (K)
y l 2 K es un escalar, se define l A mediante:
l A = l (ai j ) := (l ai j )
Ejercicio 1.6. Demuestre que el conjunto de matrices Matmn (K), con las opera-
ciones anteriores, es un K-espacio vectorial.
Ejercicio 1.7. Sea V := { f : R ! R : f es una funcion par} (recuerde que una f
es una funcion par si y solo si f (x) = f ( x) para todo x 2 R). Con la suma y
producto por un escalar usuales, vea el ejemplo 1.6, demuestre que V es un R-
espacio vectorial.
Ejercicio 1.8. Sean K = R y V = Cn con la suma coordenada a coordenada y pa-
ra un escalar l 2 R se define el producto por un vector de V = Cn coordenada a
coordenada. Es V un R-espacio vectorial?
Propiedades elementales de los espacios vectoriales. Las primeras propiedades de
los espacios vectoriales son aquellas que uno podra esperar:
Lema 1.3 (Ley de cancelacion para la suma). Si V es un K-espacio vectorial y
u, v, w 2 V son tales que
u + v = u + w,
entonces v = w.
Demostracion. Sea u0 2 V un inverso aditivo de u (el cual existe por la propiedad 4
de la definicion 1.2). Entonces, sumado u0 a ambos lados de la igualdad u+v = u+w
se obtiene la primera igualdad en
u0 + (u + v) = u0 + (u + w)
(u0 + u) + v = (u0 + u) + w por asociatividad
0V + v = 0V + w ya que u0 + u = 0V (un neutro aditivo)
v = w.
t
u
Lema 1.4. Si V es un K-espacio vectorial, entonces:
(1) El neutro aditivo de V es unico.
(2) Para cada u 2 V su inverso aditivo es unico.
Demostracion. (1) Supongamos que 0V y 0V0 son dos neutros aditivos de V . Enton-
ces,
(2) Sea u 2 V y supongamos que u0 y u00 son ambos inversos aditivos de u. Entonces,
por lo que u + u0 = u + u00 y, por la ley de cancelacion 1.3, se sigue que u0 = u00 . t
u
1.2 Espacios vectoriales 13
Demostracion. (1) Si l 2 K y 0 2 V ,
u + ( 1) u = 1 u + ( 1) u ya que 1 u = u
= (1 1) u
= 0u
= 0 por la propiedad (2) anterior.
( l ) u = l ( u) = (l u).
- W = eje X
Matrices. Para poder dar ejemplos de subespacios del (importante) espacio vectorial
de matrices Matmn (K) necesitaremos algunas definiciones:
() Una matriz A = (ai j )mn se dice que es una matriz cuadrada si m = n.
() Dada una matriz cuadrada en Matnn (K):
0 1
a11 a12 a1n
Ba21 a22 a2n C
B C
A = (ai j )nn = B . .. .. C
@ .. . . A
an1 an2 ann
Note que no estamos pidiendo que los elementos de la diagonal sean 6= 0, bien
puede suceder que algunos o todos los elementos de la diagonal tambien sean 0. En
particular, la matriz 0 2 Matnn (K) es una matriz diagonal.
16 1 Espacios vectoriales
() Una matriz cuadrada A = (ai j )nn se dice que es una matriz triangular superior
si todas sus entradas abajo de la diagonal son 0, i.e., si ai j = 0 siempre que i > j.
As, una matriz triangular superior se ve como:
0 1
a11 a12 a1n
B 0 a22 a2n C
B C
B .. .. . . .. C
@ . . . . A
0 0 ann
() Una matriz cuadrada A = (ai j )nn se dice que es una matriz triangular inferior
si todas sus entradas arriba de la diagonal son 0, i.e., si ai j = 0 siempre que i < j.
As, una matriz triangular inferior se ve como:
0 1
a11 0 0
Ba21 a22 0 0 C
B C
B .. .. . . .. C
@ . . . . A
an1 an2 ann
() Si 0 1
a11 a12 a1n
B a21 a22 a2n C
B C
A = (ai j )mn = B . .. .. C
@ .. . . A
am1 am2 amn mn
Por ejemplo, si
1 24
A=
130 23
entonces 0 1
1 1
AT = @ 2 3 A
4 0 32
() Una matriz cuadrada A = (ai j )nn se dice que es una matriz simetrica si es igual
a su transpuesta, i.e., si A = AT . Es decir, si ai j = a ji para todas las entradas de A.
1.3 Subespacios vectoriales 17
() Si A = (ai j )nn es una matriz, su traza, denotada Tr(A), es la suma de los ele-
mentos de su diagonal. Es decir,
Ejercicio 1.17. Sea V = R2 como R-espacio vectorial. Demuestre que los conjuntos
siguientes son subespacios vectoriales de V :
(i) W = {(x, y) 2 R2 : x = y}.
(ii) W = {(x, y) 2 R2 : x + y = 0}.
(iii) W = {(x, y) 2 R2 : x + 4y = 0}.
Ejercicio 1.18. Sea V = R3 como R-espacio vectorial. Demuestre que los conjuntos
siguientes son subespacios vectoriales de V :
(i) W = {(x, y, z) 2 R3 : x + y + z = 0}.
(ii) W = {(x, y, z) 2 R3 : x = y & 2y = z}.
(iii) W = {(x, y, z) 2 R3 : x + y = 3z}.
es un subespacio vectorial de V .
W1 +W2 := {w1 + w2 : w1 2 W1 y w2 2 W2 }
l (w1 + w2 ) = l w1 + l w2 2 W1 +W2
U = {(x, y, 0) 2 R3 } y W = {(0, y, z) 2 R3 }.
v = v + 0V con v 2 U y 0V 2 W
= 0V + v con 0V 2 U y v 2 W
Ejercicio 1.22. Recuerde que una matriz cuadrada A se dice que es simetrica si su
transpuesta es ella misma: AT = A. La matriz A se dice que es semisimetrica si
AT = A.
(i) Sean V = Mat22 (K), U V el subconjunto de matrices 2 2 simetricas y
W V el subconjunto de matrices semisimetricas.
(a) Muestre que U y W son subespacios vectoriales de V .
(b) Demuestre que V = U W .
(ii) Sean V = Matnn (K), U V el subconjunto de matrices simetricas y W V
el subconjunto de matrices semisimetricas.
(a) Muestre que U y W son subespacios vectoriales de V .
(b) Demuestre que V = U W .
Sugerencia: si A 2 Matnn (K), muestre que 12 (A + AT ) es simetrica.
y
W := {(bi j ) 2 Matnn (K) : bi j = 0 para todo i j}.
(i) Muestre que U y W son subespacios vectoriales de V .
(ii) Demuestre que V = U W .
1.4 Combinaciones lineales 21
L := {l u : l 2 R},
este subconjunto es una lnea recta en R3 que pasa por el origen en la direccion del
vector u:
6
L
-
6 P
@ @
@
-
@
@
@
v = a1 v1 + a2 v2 + + an vn .
0V = 0 v1 + + 0 vn .
f (x) = a0 1 + a1 x + a2 x2 + + an xn
es la combinacion lineal requerida, con los coeficientes a j del polinomio dado como
escalares.
Ejemplo 1.18. Si V = R2 y e1 = (1, 0), e2 = (0, 1), entonces todo vector u = (a, b) 2
R2 es combinacion lineal de e1 y e2 ya que
considerando los vectores columna (en Rm o K m ) dados por los coeficientes ai j del
sistema anterior y el vector columna de los terminos independientes bi :
0 1 0 1 0 1 0 1
a11 a12 a1n b1
B a21 C B a22 C B a2n C B b2 C
B C B C B C B C
C1 = B . C ,C2 = B . C , ,Cn = B . C ,b = B . C
@ .. A @ .. A @ .. A @ .. A
am1 am2 amn bm
y pensando a las incognitas x1 , . . . , xn como escalares de R (o de K), en notacion
vectorial el sistema de ecuaciones anterior se puede escribir como
1.4 Combinaciones lineales 23
0 1 0 1 0 1 0 1
a11 a12 a1n b1
B a21 C B a22 C B a2n C B b2 C
B C B C B C B C
x1 B . C + x2 B . C + + xn B . C = B .. C ,
@ .. A @ .. A @ .. A @ . A
am1 am2 amn bm
o, denotando a las columnas de coeficientes mediante C1 , . . . , Cn y a la columna
de terminos independientes por b, la combinacion lineal anterior se puede escribir
como
K(v1 , . . . , vn ) := {a1 v1 + + an vn : ai 2 K} V,
u = a1 v1 + + an vn y w = b1 v1 + + bn vn
y as
u + w = (a1 v1 + + an vn ) + (b1 v1 + + bn vn )
= (a1 + b1 )v1 + + (an + bn )vn
con C j los vectores columna del sistema y b el vector columna de los terminos
independientes, todos ellos elementos del espacio vectorial K n , la proposicion 1.14
anterior tiene la consecuencia inmediata siguiente:
Corolario 1.15. El sistema de ecuaciones lineales
Ejemplo 1.20. Si V = R2 y e1 = (1, 0), e2 = (0, 1), en el ejemplo 1.18 vimos que el
subespacio generado por e1 y e2 es todo R2 .
Con esta definicion, el ejemplo 1.20 nos dice que los vectores e1 = (1, 0) y e2 =
(0, 1) generan R2 .
Ejemplo 1.21. Si V = R3 , los vectores e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1) son
generadores de R3 . El argumento es similar al del ejemplo 1.20.
Ejercicio 1.27. Sea V = Mat22 (R). Demuestre que las matrices siguientes generan
a V:
10 01 00 00
, , , .
00 00 10 01
Ejercicio 1.28. Sea V = P2 (K) el espacio vectorial de los polinomios con coeficien-
tes en un campo K y de grado 2. Muestre que los polinomios 1, 1 + x, 1 + x + x2 ,
generan a V .
El ejemplo 1.25 de la seccion 1.4 nos dice que dado cualquier K-espacio vectorial
V , siempre hay un conjunto de generadores S de V , a saber S = V . El ejercicio 1.25
por su parte nos dice que si S genera al espacio V , entonces cualquier conjunto que
contenga a S tambien genera a V ; as, el problema no es agrandar un conjunto que
genere a V , sino por el contrario, sabiendo que un conjunto S genera al espacio V , el
problema es hallar el conjunto con el menor numero de elementos que genere a V .
1.5 Dependencia e independencia lineal 27
() v = a1 w1 + + ak wk con a j 2 K, w j 2 T ,
w j = a1 u1 + + ar ur con ui 2 S
Observacion 1.20. (1). Note que no estamos pidiendo que todos los vectores u 2 T
sean elementos del correspondiente subespacio K(T {u}); lo que estamos pidien-
do es que algun vector v 2 T satisfaga que v 2 K(T {v}).
(2). En la definicion 1.19 anterior, al decir que v sea combinacion lineal de los otros
vectores de T , la redaccion se preciso diciendo que esto significa que v 2 K(T
{v}). Esta precision es necesaria para tomar en cuenta el caso extremo cuando T =
{0V } en el ejemplo siguiente:
2 En realidad, en lugar de decir que T es un subconjunto, deberamos decir que T es una lista de
vectores, porque pueden haber vectores repetidos en T . Cuando se trate del concepto de dependen-
cia lineal, asumiremos al decir conjunto que lo tenemos es una lista.
28 1 Espacios vectoriales
() 0V = 0v1 + + 0vn ,
y decimos que la combinacion lineal (), donde todos los escalares son 0, es la
combinacion lineal obvia o trivial. Lo que la parte (2) de la proposicion pide es que
0V se pueda expresar como una combinacion lineal no trivial, es decir, que no todos
los coeficientes sean el escalar 0.
v = a1 v1 + + am vm
y por lo tanto
0V = ( 1)v + a1 v1 + + am vm
es una combinacion lineal con el coeficiente 1 de v 2 T distinto de 0.
1.5 Dependencia e independencia lineal 29
() 0V = a1 v1 + + an vn .
0V = a1 1 0V = a1 1 (a1 v1 + + an vn )
= v1 + (a1 1 a2 )v2 + + (a1 1 an )vn
de donde, despejando,
v1 = ( a1 1 a2 )v2 + + ( a1 1 an )vn ,
0V = a1 v1 + + an vn , con v j 2 T ,
entonces a1 = = an = 0. t
u
El ejemplo 1.29 nos dice que e1 y e2 son linealmente independientes en R2 .
Ejemplo 1.30. Sea V un K-espacio vectorial. Si v 2 V con v 6= 0V , entonces {v} es
linealmente independiente ya que si l v = 0V es cualquier combinacion lineal de v
que da el vector 0V , y si sucediera que l 6= 0, entonces multiplicando por l 1 2 K
se obtiene que
v = l 1 (l v) = l 1 0V = 0V ,
en contradiccion con v 6= 0V .
30 1 Espacios vectoriales
() a0 1 + a1 x + a2 x2 + + an xn = 0
es cualquier combinacion lineal de ellos que nos da el vector 0 2 K[x], como el vec-
tor 0 de K[x] es el polinomio cero y como en () a la izquierda se tiene el polinomio
a0 + a1 x + a2 x2 + + an xn , este es cero si y solo si todos sus coeficientes son 0,
i.e., a j = 0 para toda j y por lo tanto los vectores 1, x, x2 , . . . , xn son linealmente
independientes.
() 0V = a1 v1 + + an vn
Ejercicio 1.33. Muestre que los vectores de R2 siguientes son linealmente indepen-
dientes:
(i) u = (1, 0), v = (1, 1).
(ii) u = (2, 1), v = (1, 0).
(iii) u = (1, 2), v = (1, 3).
(iv) u = (3, 1), v = (0, 2).
Ejercicio 1.34. Muestre que los vectores de R3 siguientes son linealmente indepen-
dientes:
(i) u = (1, 1, 1), v = (0, 1, 2).
(ii) u = ( 1, 1, 0), v = (0, 1, 2).
(iii) u = (1, 1, 0), v = (1, 1, 1), w = (0, 1, 1).
(iv) u = (0, 1, 0), v = (0, 2, 1), w = (1, 5, 3).
Ejercicio 1.35. Muestre que los vectores de R2 siguientes son linealmente depen-
dientes, expresando a v como combinacion lineal de a y b:
1.5 Dependencia e independencia lineal 31
Ejercicio 1.37. Sea V como en el ejercicio 1.36. Demuestre que las funciones
Ejercicio 1.42. Sea A = (ai j )nn una matriz cuadrada con entradas en un campo
K y suponga que A es una matriz triangular superior. Demuestre que los vectores
columna de A, vistos como vectores en K n , son linealmente independientes.
32 1 Espacios vectoriales
generan Pn (R).
As, el lema 1.25 anterior nos dice que todo subconjunto mnimo de generadores
de V es una base. El recproco tambien es cierto:
Proposicion 1.27. Sean V un K-espacio vectorial y B V un subconjunto. Enton-
ces, B es subconjunto mnimo de generadores de V si y solo si B es base de V .
(1) a1 u1 + + an un = 0V
(2) a1 v + a2 u2 + + an un = 0V ,
v = a1 1 (a1 v) = a1 1 ( a2 u2 an un )
1 1
= ( a1 a2 )u2 + + ( a1 an )un
() v = l1 v1 + + ln vn .
(1) v = l1 v1 + + ln vn .
Supongamos que
(2) v = g1 v1 + + gn vn
(3) 0V = l1 v1 + + ln vn
El teorema 1.30 nos dice que todo espacio vectorial con un conjunto finito de ge-
neradores (a veces decimos, finitamente generado para indicar lo anterior), tiene una
base finita. A continuacion probaremos uno de los resultados mas importantes de la
teora que estamos desarrollando: todas las bases de un espacio vectorial finitamen-
te generado tienen el mismo numero de elementos. La demostracion esencialmente
considera dos bases del espacio dado y reemplaza los vectores de una base con los
de la otra. Para ver como se hace esto necesitaremos el lema siguiente, cuyo nombre
proviene del metodo en su demostracion:
Lema 1.32 (Lema de reemplazamiento). Sea V un K-espacio vectorial generado
por un conjunto finito de vectores v1 , . . . , vn . Supongamos que w1 , . . . , wm son m
vectores de V con m > n. Entonces, los vectores w1 , . . . , wm son linealmente depen-
dientes. Equivalentemente, si w1 , . . . , wm son linealmente independientes, entonces
m n.
(1) w1 = a1 v1 + + an vn .
Ahora, como estamos asumiendo que los w j son linealmente independientes, en-
tonces w1 6= 0V y as en (1) algun ai 6= 0. Renumerando si hiciera falta podemos
suponer que a1 6= 0 y as podemos despejar v1 de (1) para obtener:
v1 = a1 1 w1 a1 1 a2 v2 a1 1 an vn ,
V = K(v1 , v2 , . . . , vn ) K(w1 , v2 , . . . , vn ) V
Observe ahora que en (2) no se puede tener que todos los c j = 0, ya que si esto
sucediera (2) dira que w1 , . . . , wk , wk+1 son linealmente dependientes (el coeficiente
de wk+1 es 1 6= 0), en contradiccion con la suposicion inicial de que los wi son
linealmente independientes. Se sigue que algun ci 6= 0. Renumerando si hiciera falta
podemos suponer que ck+1 6= 0 y as se puede despejar a vk+1 de (2) para obtener
vk+1 como combinacion lineal de w1 , . . . , wk , wk+1 , vk+2 , . . . , vn , i.e.,
w = a1 w1 + + an wn
en K n . Entonces,
(i) Los vectores e1 , . . . , en generan K n ya que si v = (a1 , . . . , an ) es cualquier vector
de K n , se tiene que
1.6 Bases y dimension 37
0 = (0, . . . , 0) = a1 e1 + + an en
= (a1 , 0, . . . , 0) + + (0, . . . , 0, an )
= (a1 , . . . , an ),
dimK (W ) dimK (V ).
v = a1 v1 + + ak vk + ak+1 vk+1 + + an vn
= (a1 v1 + + ak vk ) + (ak+1 vk+1 + + an vn ),
v 2 U ) v = l1 v1 + + lk vk
v 2 W ) v = lk+1 vk+1 + + ln vn
y restando,
0V = l1 v1 + + lk vk lk+1 vk+1 + ln vn
y como {v1 , . . . , vn } es base de V , la igualdad anterior implica que todos los li = 0
y por lo tanto v = 0V . t
u
v = u + w = a1 u1 + + ak uk + b1 w1 + + br wr .
0V = a1 u1 + + ak uk + b1 w1 + + br wr ,
entonces
0V = 0V + 0V
= (a1 u1 + + ak uk ) + (b1 w1 + + br wr ),
0V = a1 u1 + + ak uk en U
0V = b1 w1 + + br wr , en W
() l1 v1 + + ln vn = 0.
1.6 Bases y dimension 41
S
Observe entonces que como cada vi 2 M = C2C C, entonces existen Ci 2 C tal
que vi 2 Ci y como C es una cadena, existe un Ck que contiene a todos los Ci para
1 i n y por lo tanto v1 , . . . , vn 2 Ck . Ahora, como Ck es linealmente independien-
te, la igualdad () implica que l1 = = ln = 0 y por lo tanto M es linealmente
independiente. t
u
Ejercicio 1.47. Cual es la dimension del espacio vectorial Mat22 (K)? De una ba-
se.
Ejercicio 1.55. Sea Pn (K) el espacio vectorial de polinomios de grado n con coe-
ficientes en un campo K. Calcule la dimension de Pn (K) y de una base.
3 La bandera {0} {recta} {plano} corresponde al punto ({0}) donde se planta la bandera, el
asta (recta) y la tela (plano).
Captulo 2
Transformaciones lineales
43
44 2 Transformaciones lineales
T (u + v) = T (x + x0 , y + y0 ) = (2(x + x0 ) + (y + y0 ), (x + x0 ) 3(y + y0 ))
= ((2x + y) + (2x0 + y0 ), (x 3y) + (x0 3y0 ))
0 0 0 0
= (2x + y, x 3y) + (2x + y , x 3y )
0 0
= T (x, y) + T (x , y )
= T (u) + T (v).
(ii) Si l 2 R, entonces l u = (l x, l y) y as
T (u + v) = T (x + x0 , y + y0 , z + z0 ) = ((x + x0 ) + (z + z0 ), (y + y0 ) (z + z0 ))
0 0 0 0
= ((x + z) + (x + z ), (y z) + (y z ))
0 0 0 0
= (x + z, y z) + (x + z , y z)
0 0 0
= T (x, y, z) + T (x , y , z )
= T (u) + T (v).
(ii) Si l 2 R, entonces l u = (l x, l y, l z) y as
T (l u) = T (l x, l y, l z) = (l x + l z, l y l z)
= l (x + z, y z)
= l T (x, y, z)
= l T (u).
2.1 Transformaciones lineales 45
Ejemplo 2.5. Sea V = C([0, 1], R) el R-espacio vectorial de funciones continuas del
intervalo [0, 1] a R. A cada funcion continua f 2 C([0, 1], R) le podemos asociar su
R
integral definida 01 f (x)dx 2 R y as tenemos una funcion
Z 1
I : C([0, 1], R) ! R dada por I( f (x)) := f (x)dx,
0
6 Rq (v)
* v
q
-
0
6
v
h *
b
f -
0 a
entonces
cos f = a/h y sen f = b/h,
por lo que
v = (a, b) = (h cos f , h sen f ).
Consideremos ahora al vector Rq (v) = (x, y) y pensemos ahora en las dos figuras
anteriores. La primera observacion es que en el triangulo rectangulo que forma el
vector Rq (v), los catetos son x e y, y la hipotenusa es la misma h que la del vector v.
Por eso decimos que las rotaciones son transformaciones rgidas, i.e., en particular
no cambian las longitudes. Luego observamos que el angulo que forma Rq (v) con
el semieje positivo X es q + f . Entonces, si Rq (v) = (x, y), sus componentes x, y
satisfacen que
x = h cos(q + f )
y = h sen(q + f ).
Entonces,
x = a cos q b sen q
y = a sen q + b cos q ,
Rq (u + v) = Rq (a + a0 , b + b0 )
= ((a + a0 ) cos q (b + b0 ) sen q , (a + a0 ) sen q + (b + b0 ) cos q )
= (a cos q b sen q , a sen q + b cos q )
+ (a cos q
0
b0 sen q , a0 sen q + b0 cos q )
= Rq (u) + Rq (v).
Si u = (a, b) 2 R2 y l 2 R, entonces
Rq (l u) = Rq (l a, l b)
= ((l a) cos q (l b) sen q , (l a) sen q + (l b) cos q )
= l (a cos q b sen q , a sen q + b cos q )
= l Rq (u).
6
(a, b)
*
b
f - X
HH f
0 H b
HH
j
H
(a, b)
6
v = (x, y)
*
- - X
0 x
48 2 Transformaciones lineales
Z 6
v = (x, y, z)
1
- Y
PP
PPq
prXY (v) = (x, y)
Similarmente se tienen las otras dos proyecciones sobre los planos coordenados
XZ y Y Z:
prXZ : R3 ! R2 dada por prXZ (x, y, z) = (x, z)
y
prY Z : R3 ! R2 dada por prY Z (x, y, z) = (y, z).
Se demuestra facilmente que todas estas proyecciones son funciones lineales.
Ejemplo 2.11. La funcion transposicion, t : Matmn (K) ! Matnm (K) dada por
t(A) = AT , tambien es una transformacion lineal.
2.1 Transformaciones lineales 49
t
u
Proposicion 2.4. Si T : V ! W es una transformacion lineal biyectiva, entonces la
funcion inversa T 1 : W ! V tambien es lineal.
Demostracion. (1): Sean u, v 2 W y sean u0 , v0 2 V tales que T (u0 ) = u y T (v0 ) = v.
Entonces, u + v = T (u0 ) + T (v0 ) = T (u0 + v0 ), ya que T es lineal. Se sigue que
1 1 1
T (u + v) = u0 + v0 = T (u) + T (v).
t
u
Definicion 2.5. Si T : V ! W es una transformacion lineal biyectiva, diremos que
T es un isomorfismo de espacios vectoriales.
As, la proposicion 2.4 dice que la funcion inversa de un isomorfismo T : V ! W
es un isomorfismo tambien.
Ejemplo 2.14. Si V es cualquier K-espacio vectorial, la funcion identidad es un iso-
morfismo. En efecto, por el ejemplo 2.12, la identidad es lineal y es biyectiva.
Ejemplo 2.15. Sea T : Mat22 (R) ! R4 la funcion dada por
ab
T = (a, b, c, d).
cd
Entonces, (a0 , a1 , a2 ) = (a00 , a01 , a02 ) y as ai = a0i , por lo que los polinomios corres-
pondientes son iguales. Que L es suprayectiva es porque si w = (a, b, c) 2 R3 , el
polinomio f (x) = a + bx + cx2 2 P2 (R) es tal que L( f (x)) = w.
La palabra isomorfismo, de las races griegas iso que significa igual y morfe que
significa forma, captura la propiedad de que una transformacion lineal biyectiva
entre dos espacios vectoriales identifica a estos dos espacios, tanto como conjuntos
(la biyectividad de la funcion) como con respecto a sus estructuras, identificando la
suma de un espacio con la suma en el otro, e identificando el producto de un escalar
en un espacio con el producto por un escalar en el otro. De alguna manera nos dice
que los dos espacios son el mismo, solo presentados de diferente manera o nombre.
En particular, en el caso de espacios vectoriales de dimension finita, esperamos que
los isomorfismos se comporten bien con respecto a las bases y a la dimension de los
espacios.
a1 T (v1 ) + + an T (vn ) = 0W .
Ejercicio 2.1. Sea f : V ! W una transformacion lineal entre dos K-espacios vec-
toriales. Si v1 , . . . , vn 2 V y l1 , . . . , ln 2 K, demuestre que
e
i2 : V ! U V dada por i2 (v) = (0U , v).
Demuestre que ambas son lineales e inyectivas.
Ejercicio 2.5. Con la misma notacion del ejercicio anterior, defina las funciones
y
p2 : U V ! V dada por p2 (u, v) = v.
Demuestre que son lineales y suprayectivas.
Ejercicio 2.6. Sea V un K-espacio vectorial de dimension finita y sea T : V ! V una
aplicacion lineal de V en s mismo. Considere la composicion de T consigo misma,
i.e., T 2 = T T : V ! V y sea idV : V ! V la identidad. Si T 2 = 0, demuestre que
la funcion diferencia idV T : V ! V es un isomorfismo.
Ejercicio 2.7. Si f : V ! W y g : W ! U son isomorfismos de K-espacios vecto-
riales, demuestre que la composicion g f : V ! U tambien es un isomorfismo, con
inversa
(g f ) 1 = f 1 g 1 : U ! V.
Ejercicio 2.8. Si g : R2 ! R2 es la funcion dada por g(x, y) = (x + y, x y). Muestre
que g es un isomorfismo.
Ejercicio 2.9. Si h : R2 ! R2 es la funcion dada por h(x, y) = (2x + y, 3x 5y).
Muestre que h es un isomorfismo.
Ejercicio 2.10. Si T : R3 ! R3 es la funcion dada por T (x, y, z) = (x y, x + z, x +
y + 2z). Muestre que T es un isomorfismo.
Ejercicio 2.11. Si L : R3 ! R3 es la funcion dada por L(x, y, z) = (2x y + z, x +
y, 3x + y + z). Muestre que L es un isomorfismo.
2.2 Nucleo e imagen de una transformacion lineal 53
T (a0 + a1 x + + an xn ) := (a0 , a1 , . . . , an ).
3x + y = 0
x 2y = 0.
y su imagen es todo R2 .
w = T (v) = T (a1 v1 + + an vn )
= a1 T (v1 ) + + an T (vn ) 2 K(T (v1 ), . . . , T (vn )),
El resultado siguiente dice que una transformacion lineal entre espacios de di-
mension finita esta determinada por sus valores en cualquier base del dominio:
Teorema 2.12. Sean V y W dos K-espacios vectoriales, con V de dimension finita
y sea B = {v1 , . . . , vn } una base de V . Si w1 , . . . , wn son elementos arbitrarios de
W , entonces existe una unica transformacion lineal tal que T (vi ) = wi , 1 i n.
Dicho en otras palabras:
(1) Cualquier funcion de la base B al espacio W se puede extender a una funcion
lineal T : V ! W .
(2) Si T, L : V ! W son dos funciones lineales tales que coinciden en la base B, i.e.,
T (vi ) = L(vi ), 1 i n, entonces T = L en todo V .
i.e., la combinacion lineal dada por los vectores wi = T (vi ) 2 W usando los (unicos)
escalares ai provenientes de v. Mostraremos que T : V ! W es lineal.
(i) Si v = a1 v1 + + an vn y u = b1 v1 + + bn vn son dos vectores de V escritos en
terminos de la base B, entonces
(ii) Si v = a1 v1 + + an vn y l 2 K, entonces
56 2 Transformaciones lineales
l v = (l a1 )v1 + + (l an )vn
L(v) = L(a1 v1 + + an vn )
= a1 L(v1 ) + + an L(vn ))
= a1 T (v1 ) + + an T (vn )) porque L(vi ) = T (vi )
= T (a1 v1 + + an vn )
= T (v),
y por lo tanto L = T . t
u
El resultado siguiente relaciona las dimensiones del nucleo, imagen y dominio
de una transformacion lineal entre espacios de dimension finita:
Teorema 2.13. Sea T : V ! W una transformacion lineal entre espacios vectoriales
de dimension finita. Entonces,
ak+1 uk+1 + + an un = a1 u1 + + ak uk .
2.2 Nucleo e imagen de una transformacion lineal 57
Se sigue que
Lin(V,W ) := {T : V ! W : T es K-lineal}.
(l T )(v) := l T (v),
Demostracion. Para L + T : V ! W :
(i) Si u, v 2 V , entonces
2 Siguiendo alguna tradicion, usaremos la notacion Lin(V,W ) para denotar al conjunto (de hecho,
espacio vectorial, como se vio a continuacion) de transformaciones lineales de V a W , aun cuando
la notacion usual es la de HomK (V,W ) porque en el caso general a las transformaciones lineales se
les suele llamar homomorfismos, y retomaremos esta ultima notacion a partir de la seccion 10.6.
58 2 Transformaciones lineales
(ii) Si u 2 V y a 2 K, entonces
Para l T : V ! W :
(i) Si u, v 2 V , entonces
(ii) Si u 2 V y a 2 K, entonces
t
u
Proposicion 2.15. Sean V y W dos K-espacios vectoriales. Entonces, con las ope-
raciones anteriores Lin(V,W ) es un K-espacio vectorial.
Demostracion. El neutro aditivo de Lin(V,W ) es la funcion 0 : V ! W que manda
todo al vector 0W y que es lineal por el ejemplo 2.13. La inversa aditiva de una
transformacion lineal T 2 Lin(V,W ) es la funcion T : V ! W dada por ( T )(v) :=
T (v), la cual es obviamente lineal. Todas las otras propiedades de espacio vectorial
se demuestran facilmente y se dejan como un ejercicio. t
u
Productos directos. Si V y W son dos K-espacios vectoriales, consideremos el pro-
ducto cartesiano V W de los conjuntos subyacentes. Es decir,
V W := {(v, w) : v 2 V, w 2 W }.
(v, w) + (v0 , w0 ) := (v + v0 , w + w0 )
l (v, w) := (l v, l w),
T : V W ! V W
T ((v, w) + (v0 , w0 )) = T (v + v0 , w + w0 ) = (v + v0 ) + (w + w0 )
= (v + w) + (v0 + w0 )
= T (v, w) + T (v0 , w0 ).
T (l (v, w)) = T (l v, l w) = l v + l w
= l (v + w)
= l T (v, w).
(2) : T es inyectiva. Para probar esto, mostraremos que ker T = {(0U , 0U )}. Sea
(v, w) 2 ker T ; entonces T (v, w) = 0U y as, 0U = T (v, w) = v+w implica que v = w
y por lo tanto v, w 2 V \ W . Pero como V \ W = {0U }, entonces v = 0U = w, i.e.,
(v, w) = (0U , 0U ).
(3) : T es suprayectiva. Esto es claro que si v + w 2 V W , entonces v 2 V y w 2 W ,
por lo que (v, w) 2 V W satisface que T (v, w) = v + w. t
u
Ejercicio 2.18. Demuestre las propiedades faltantes para ver que Lin(V,W ) es un
K-espacio vectorial.
60 2 Transformaciones lineales
Ejercicio 2.26. Suponga que V y W son dos espacios vectoriales de dimension finita
y dimK V = dimK W . Si f : V ! W es lineal, demuestre que f es inyectiva si y solo
si f es suprayectiva.
1
T (A) = (A AT ).
2
(i) Calcule el nucleo de T .
(ii) Calcule dimK (ker T ).
T (y1 , y2 ) = (2y1 y2 , y1 + y2 ),
2y1 y2 = z1
y1 + y2 = z2
donde el producto del renglon por la columna (que son del mismo tamano como
vectores, i.e., tienen el mismo numero de entradas) se hace componente a compo-
nente y luego se suman los resultados para obtener c11 . El lector puede verificar que
las otras entradas ci j de la matriz C = (ci j ) se obtienen de la misma manera, es decir,
ci j = (Renglon i de A) (Columna j de B)
donde en la derecha de la igualdad anterior se tienen vectores del mismo tamano (de
nuevo, pensandolos como vectores) y el producto quiere decir que es componente a
componente y luego se suman los resultados para obtener ci j . La condicion necesaria
para poder hacer el producto de matrices anterior es: el renglon i de A debe tener
64 2 Transformaciones lineales
se tiene que
2 1 101 2(1) 1(1) 2(0) 1(1) 2(1) 1(1)
AB = =
1 1 111 1(1) + 1(1) 1(0) + 1(1) 1(1) + 1(1)
1 11
= = C.
2 1 2
se tiene que
0 1 0 1
3 2 3(2) + 2(1) 3(3) + 2( 2) 3(4) + 2(5)
B2 1 C 2 3 4 B 2(2) + 1(1) 2(3) + 1( 2) 2(4) + 1(5) C
AB = B C B
@ 0 1 A 1 2 5 = @ 0(2) 1(1) 0(3) 1(
C
2) 0(4) 1(5) A
1 4 1(2) + 4(1) 1(3) + 4( 2) 1(4) + 4(5)
0 1
8 5 22
B 5 4 13 C
=B@ 1 2 5 A.
C
6 5 24
As, aun cuando AB y BA esten ambas definidas, puede suceder que AB 6= BA o que
AB = BA. Decimos que el producto de matrices, en general, no es conmutativo. Que
el producto s es asociativo, cuando este definido, es el contenido de la proposicion
siguiente:
Proposicion 2.19. Si A es m r, B es r t y C es t n, entonces AB es m t y
as (AB)C esta definida y es m n. Tambien BC es r n y as A(BC) esta definida y
es m n. Se tiene que
(AB)C = A(BC).
y as AB + AC = (ei j + fi j ) donde
t t
(2) ei j + f i j = aik bk j + aik ck j .
k=1 k=1
Observando que (1) y (2) son iguales se sigue que A(B +C) = AB + AC. t
u
2.3 Transformacion lineal asociada a una matriz 67
(AB)T = BT AT .
Finalmente, si (AB)T = (c0i j ) con c0i j = c ji , las igualdades (1) y (2) nos dicen que
c0i j = c ji = di j , es decir, (AB)T = BT AT . t
u
La matriz identidad. Para cada n 2 N la matriz In que tiene unos en la diagonal y
ceros en las otras entradas se llama la matriz identidad n n:
0 1
1 0 0
B 0 1 0 0 C
B C
In = B ... .. C .
B ..
. . C
B C
@ 0 0 1 0 A
0 0 0 1
La propiedad mas importante de las matrices Im es que son neutras para el pro-
ducto de matrices:
Proposicion 2.22. Si A 2 Matmn (K), entonces:
(1) A In = A.
(2) Im A = A.
Demostracion. (1): Pongamos A = (ai j ) e In = (di j ), donde
1 si i = j
di j =
0 si i 6= j.
donde
ai j si k = j
aik dk j =
0 si k 6= j,
por la definicion de di j . Se sigue que
n
ci j = aik dk j = ai j
k=1
AIn = A = In A
AB = In = BA.
Note que B debe ser entonces tambien nn. A la matriz B la llamaremos una inversa
de la matriz A.
Lema 2.23. Si A es una matriz n n invertible, entonces su inversa es unica.
A la unica inversa de A la denotaremos por A 1 .
Demostracion. Supongamos que B y C son matrices n n inversas de A. Entonces,
AC = In = BA y as B = BIn = B(AC) = (BA)C = InC = C. t
u
Ejercicio 2.33. Suponga que A, B 2 Matnn (K) son matrices invertibles. Demuestre
que AB es invertible.
Ejercicio 2.34. Si A es una matriz diagonal n n:
0 1
a11 0 0
B 0 a22 0 0 C
B C
B .. . .. ..C
A=B . .C
B C
@ 0 0 an 1,n 1 0 A
0 0 ann
(A 1 )T = (AT ) 1 .
A2 = A A tambien es n n,
A3 = A2 A tambien es n n,
y, usando induccion se define
An = An 1
A que tambien es n n
(A + B)2 = A2 + 2AB + B2 .
cos q sen q
Ejercicio 2.38. Sea A =
sen q cos q
Calcule A2 .
Calcule A3 .
Calcule Am , para todo entero m 0.
Ejercicio 2.40. Sea A = (ai j ) una matriz cuadrada nn, triangular superior estricta-
mente, i.e., ai j = 0 para toda i j. Demuestre que An = 0. Sugerencia: use induccion
sobre n.
Ejercicio 2.41. Una matriz cuadrada A se dice que es nilpotente si Ak = 0 para algun
entero k 1. As, el ejercicio anterior nos dice que una matriz triangular superior es-
tricta, es nilpotente. Suponga ahora que A, B 2 Matnn (K) son matrices nilpotentes
tales que AB = BA.
Demuestre que AB es nilpotente.
70 2 Transformaciones lineales
Tl A (x) = (l A)(x)
= l (Ax)
= (l TA )(x).
(3): Para mostrar que F es inyectiva, debemos mostrar que ker(F) = {0}, donde 0
es la matriz cero m n. En efecto, si A 2 Matmn (K) es tal que TA = 0 : K n ! K m ,
entonces TA es la transformacion lineal cero, i.e., manda todos los vectores de K n
en el vector cero de K m . En particular, si E j son los vectores columna de K n que
tienen un 1 en el lugar j y cero en las otras componentes, entonces TA (E j ) = 0.
Observemos ahora que, si A = (ai j ), entonces
TA (E j ) = AE j = columna j de la matriz A = 0
x = x1 E1 + xn En ,
2x 3y + z = 0
x 2z = 0.
(1) Ax = 0
(2) TA (x) = 0,
(3) TA (x) = b,
2.4 Matriz asociada a una transformacion lineal 75
0 1 0 1
x1 b1
B x2 C B b2 C
B C B C
donde x = B . C es el vector de incognitas y b = B . C 2 K m es el vector (co-
@ .. A @ .. A
xn bm
lumna) de terminos independientes en K m . As, el sistema (3) tiene una solucion si
y solo si existe x 2 K n tal que TA (x) = b, es decir, si y solo si b 2 Im(TA ).
As, para resolver el sistema no homogeneo (3), ya que lo primero que tenemos
que saber es si tiene o no soluciones, entonces lo primero que debemos hacer es
determinar si el vector b pertenece o no a la imagen Im(TA ) y para esto necesita-
mos una descripcion del subespacio Im(TA ), dando de preferencia una base de este
subespacio, que, como veremos en la seccion 3.2, esencialmente esta contenida en
la proposicion 2.11.
Y : Lin(K n , K m ) ! Lin(V,W )
v = a1 v1 + + an vn
Note que las coordenadas a1 , . . . , an forman una n-ada ordenada en K n ya que ca-
da a j corresponde al vector basico v j y los vectores basicos estan ordenados por
hipotesis.
Lema 2.27. Sea A = {v1 , . . . , vn } una base ordenada de V , y denotemos la corres-
pondencia que asocia a cada vector v 2 V sus coordenadas [a1 , . . . , an ]A en la base
A mediante
fA : V ! K n ,
i.e., fA esta dada por fA (v) := [a1 , . . . , an ]A . Entonces, fA es un isomorfismo.
u = a1 v1 + + an vn y v = b1 v1 + + bn vn ,
fA (l u) = [(l a1 ), . . . , (l an )]A
= l [a1 , . . . , an ]A
= l fA (u).
A = {v1 , . . . , vn } y B = {w1 , . . . , wm }
fA : V ! K n y fB : W ! K m
con inversas
yA : K n ! V y yB : K m ! W
2.4 Matriz asociada a una transformacion lineal 77
dadas por
yA (a1 , . . . , an ) := a1 v1 + + an vn y yB (b1 , . . . , bm ) := b1 w1 + + bm wm
yA fA yB fB
Kn / Km
T0
T 0 = fB T y A .
Explcitamente, si v 2 V , pongamos w = T (v) 2 W y consideremos sus coorde-
nadas con respecto a las bases correspondientes:
T 0 (a1 , . . . , an ) := (b1 , . . . , bm ).
Observe que como T 0 = fB T yA y todas las funciones del lado derecho son
lineales, entonces T 0 tambien es lineal. Una observacion mas: como yA y fB son
isomorfismos, el diagrama anterior identifica a T : V ! W como la funcion lineal
T 0 : Kn ! Km.
Proposicion 2.28. Sean V y W dos K-espacios vectoriales de dimensiones finitas n
y m, con bases A y B, respectivamente. La correspondencia anterior, que a cada
T 2 Lin(V,W ) le asocia T 0 = fB T yA 2 Lin(K n , K m ), es un isomorfismo.
78 2 Transformaciones lineales
T 0 + L0 = fB T yA + fB L yA
= (fB T + fB L) yA
= fB (T + L) yA
= (T + L)0 .
Si T 2 Lin(V,W ) y l 2 K, entonces
l T 0 = l (fB T yA )
= fB (l (T yA ))
= fB (l T ) yA
= (l T )0 .
Entonces,
Q (T ) = fB T yA por definicion de Q
= fB (yB F fA ) yA por definicion de T
= (fB yB ) F (fA yA ) = id F id
= F.
t
u
Y : Lin(K n , K m ) ! Lin(V,W )
2.4 Matriz asociada a una transformacion lineal 79
v = a1 v1 + + an vn 2 K n
por lo que, para obtener las coordenadas de T (v) 2 W en la base B, basta conocer
las coordenadas de cada T (vi ) 2 W en la base B. El primer paso es entonces calcular
las expresiones T (vi ) en la base B:
Bases ordenadas. Para las bases de un espacio vectorial de dimension finita, gene-
ralmente numeramos sus elementos del 1 al n (aunque algunas veces del 0 al n). En
principio, esta numeracion no es necesaria, porque las bases pueden ser vistas solo
como subconjuntos del espacio vectorial V dado. Sin embargo, el ordenamiento de
los elementos de una base, implcito en la numeracion de sus elementos, es impor-
tante al asociar coordenadas a un vector cualquiera de V y tambien, como hemos
visto, al asociar una matriz a una transformacion lineal entre espacios vectoriales
de dimension finita. En lo que sigue, cada vez que se hable de coordenadas o de
la matriz asociada a una transformacion lineal, se estara sobreentendiendo que las
bases, de los espacios involucrados, son bases ordenadas.
Resumen. Dada una transformacion lineal T : V ! W , si A es una base de V y B
es base de W , la matriz [T ]B
A asociada a la transformacion lineal T se calcula como
sigue:
(1). Se calculan los valores de T en los vectores de la base A = {v1 , . . . , vn } y se
expresan en la base B = {w1 , . . . , wm } de W :
(2). La matriz [T ]B
A es la matrix cuyas columnas son las coordenadas [T (v j )]B que
se calcularon en el paso (1). Dicho de otra manera, la matriz [T ]B
A es la transpuesta
de la matriz de coeficientes del paso (1).
y as
cos q sen q
[Rq ]A = .
A sen q cos q
por lo que
21 3
[T ]B = .
A 10 1
D(1) = 0 = 0 1 + 0 x + 0 x2
D(x) = 1 = 1 1 + 0 x + 0 x2
D(x2 ) = 2x = 0 1 + 2 x + 0 x2
D(x3 ) = 3x2 = 0 1 + 0 x + 3 x2 ,
por lo que 0 1
0100
[D]B
A=
@ 0 0 2 0 A.
0003
[T L]C C B
A = [T ]B [L]A .
[L(u)]B = A [u]A .
[T (L(u))]C = B [L(u)]B
y as
[(T L)(u)]C = B [L(u)]B = B (A [u]A ) = (BA) [u]A .
2.4 Matriz asociada a una transformacion lineal 83
Se sigue que
[T L]C C B
A = BA = [T ]B [L]A .
t
u
(vi) 2
Si f (x) = 3 2x + x , calcule [ f ]A , [L( f )]B y muestre que [L( f )]B =
A [ f ]A .
[L]B
(ii) q = p/4.
(iii) q = p.
(iv) q = p.
(v) q = p/3.
(vi) q = p/6.
(vii) q = 5p/4.
(iii) Si [T ]B
A = [F]A , es T = F?
B
Calcule [L]A
B.
(iv) Defina T : Mat22 (R) ! R mediante
1 2
(vi) Si A = , calcule sus coordenadas en la base A.
0 4
(vi) Si f (x) = 3 6x + x2 , calcule sus coordenadas en la base B.
Demuestre que los polinomios g0 (x), g1 (x), . . . , gn (x) forman una base de Pn (K). A
esta se le llama la base de interpolacion. Muestre que las coordenadas de un polino-
mio f (x) 2 Pn (K) en la base anterior, son [ f (x)] = [ f (a0 ), f (a1 ), f (a2 ) . . . , f (an )].
v = a1 v1 + + an vn
v = b1 w1 + + bn wn
Lo que buscamos es una relacion entre las dos expresiones (1) y (2) anteriores
para el vector v. Para esto, recordemos que las expresiones (1) y (2) en realidad son
isomorfismos fA y fB :
86 2 Transformaciones lineales
V V
fA fB
Kn Kn
y como [v]A 2 K n lo queremos relacionar com [v]B 2 K n , lo que necesitamos es
una funcion K n / K n que nos diga como obtener [v]B a partir de [v]A . Ahora,
como [v]A proviene del vector v 2 V y como [v]B proviene del mismo vector v 2
V , en el diagrama anterior es natural que pensemos en la funcion identidad idV :
V ! V , para obtener el diagrama siguiente, donde hemos indicado con una flecha
punteada a la funcion que necesitamos:
idV
V /V
fA fB
Kn / Kn
y as, para idV : V ! V , la correspondencia Lin(V,V ) ! Lin(K n , K n ) nos provee de
una (unica) transformacion lineal K n ! K n que, como sabemos, corresponde a una
matriz Q 2 Matnn (K) que satisface
Q[v]A = [v]B ,
Ejemplo 2.29. En R2 consideremos las bases A = {e1 = (1, 0), e2 = (0, 1)} y B =
{w1 = (1, 1), w2 = ( 1, 1)}. La matriz de cambio de base de A a B se obtiene
expresando cada vector ei 2 A en terminos de los vectores de la base B:
(1, 0) = 12 (1, 1) 1
2( 1, 1) = 12 w1 1
2 w2
(0, 1) = 12 (1, 1) + 12 ( 1, 1) = 12 w1 + 12 w2
y por lo tanto
1 1
Q= 2 2
1 1
2 2
es
[idV ]C C B
A = [idV ]B [idV ]A = RQ.
t
u
cion
idV = idV idV : V, A ! V, B ! V, A
por lo que
[idV ]A A B
A = [idV ]B [idV ]A = RQ,
y como [idV ]A
A = In , por el ejemplo 28, entonces RQ = In . Similarmente se muestra
que QR = In . Se sigue que R = Q 1 . t
u
[T ]B = Q 1 [T ]A Q.
Ejercicio 2.57. Dadas dos matrices A, B 2 Matnn (K), diremos que A es similar a
(o que es conjugada de) B si existe una matriz invertible Q 2 Matnn (K) tal que
B = Q 1 AQ.
89
90 3 Sistemas de ecuaciones lineales
0 1 0 1
x1 b1
B x2 C B b2 C
B C B C
x = B . C 2 Kn y b = B . C 2 Km,
@ .. A @ .. A
xn bm
() Ax = b
TA (x) = b,
de tal forma que la matriz A la podemos escribir como A = (C1 ,C2 , . . . ,Cn ), donde
las columnas C j son vectores de K m .
Proposicion 3.2. Sea A 2 Matmn (K). Entonces, el subespacio Im(TA ) K m esta
generado por las columnas C1 ,C2 , . . . ,Cn , i.e.,
Ahora, como
0 1
0 1 0 0 1
a11 a12 a1n B . C a1 j
B a21 a22 B .. C B
B a2n C
CB C B a2 j C C
TA (e j ) = Ae j = B . CB 1C = B . C = Cj
@ .. AB . C
B
C @ .
. A
@ .. A
am1 am2 amn am j
0
ya que K(C1 ,C2 , . . . ,Cn ) K(C1 ,C2 , . . . ,Cn , b). Hemos as probado:
Corolario 3.3. El sistema Ax = b tiene soluciones si y solo si
(ya que TA (w) = 0 porque w 2 ker(TA )). Se sigue que Av = Av0 = b, la ultima igual-
dad porque v0 es solucion del sistema. Se sigue que v es solucion tambien, i.e., v 2 S.
t
u
y observemos que:
(1). Si intercambiamos dos ecuaciones cualesquiera, el conjunto de soluciones no
se altera.
(2). Si fijamos cualquier ecuacion
a11 b1 + + a1n bn = b1
Definicion 3.6. Una matriz elemental m m es una matriz que se obtiene al hacer
una unica operacion elemental en la matriz identidad Im .
Ejemplo 3.2. Si a la matriz identidad
0 1
100
I3 = @ 0 1 0 A
001
0 1 0 1
1 0 0 a11 a12 a1n
B 0 1 0 0C 0 1 B a C
B C a11 a12 a1n B 21 a22 a2n C
B .. .. C B a a a C B .. C
B. .C 21 22 2n C B . C
EA = B CBB . C = B C
B 0 0 l 0 C
0 C @ .. A B l ai1 l ai2 l ain C
B
B C
B. .. C a a a B . C
@ .. .A m1 m2 mn @ .. A
0 0 1 am1 am2 amn
= B,
(0, . . . , 0, 1, 0, . . . , 0, l , 0, . . . , 0)
y as el renglon p de EA es
B = AE.
Demostracion. Solo observamos que el producto es ahora por una matriz elemental
a la derecha de A, porque al transponer se cambia el orden del producto. t
u
Proposicion 3.10. Las matrices elementales son invertibles y la inversa de una ma-
triz elemental es una matriz elemental del mismo tipo.
Demostracion. Como hay tres tipos de operaciones elementales, digamos con ren-
glones, tenemos tres tipos de matrices elementales:
Caso 1. Si la matriz elemental E se obtuvo intercambiando los renglones p y q de
Im , con p 6= q, entonces al multiplicar E por otra matriz A de tamano adecuado, se
intercambian los renglones p y q de A. As, para A = E, el producto EE intercambia
98 3 Sistemas de ecuaciones lineales
T
V /W
fA fB
Kn / Km
TA
donde las flechas verticales son los isomorfismos dados por las bases respecti-
vas. Mostraremos que fB (Im T ) = Im TA . En efecto, si w 2 fB (Im T ), entonces
w = fB (T (v)) con v 2 V . Se sigue que
(la segunda igualdad es por la conmutatividad del diagrama anterior, es decir, para
ir de V a K m , las dos rutas dan el mismo resultado).
Recprocamente, si w 2 Im(TA ), sea u 2 K n tal que TA (u) = w. Como fA es un
isomorfismo, para el u 2 K n sea v 2 V el unico vector tal que fA (v) = u. Entonces,
Im(TAQ ) = Im(TA TQ )
= TA (TQ (K n ))
= TA (K n ) ya que TQ es un isomorfismo
= Im(TA ).
y as
rang(PA) = dimK (Im(TPA )) = dimK (TA (K n )) = rang(A).
t
u
Corolario 3.13. Las operaciones elementales, en renglones o columnas, preservan
el rango de una matriz.
Demostracion. Las operaciones elementales en una matriz A equivalen a multiplicar
A por matrices elementales, que ya vimos que son invertibles. t
u
Si la matriz B se obtiene a partir de la matriz A mediante operaciones elementales,
lo denotaremos mediante A B y diremos que A y B son equivalentes.
100 3 Sistemas de ecuaciones lineales
rang(A) = rang(AT ).
Ir 01
Demostracion. Por el corolario 3.15, BAC = y as
02 03
T
Ir 01 Ir 02
CT AT BT = = ,
02 03 01 03
La inversa de una matriz. Usando el corolario 3.17 daremos un metodo para cal-
cular la inversa de una matriz invertible A. Para esto necesitaremos los conceptos
siguientes: si A = (ai j ) es una matriz m n y B = (bi j ) es una matriz m t, deno-
taremos con (A|B) a la matriz m (n + t) dada al yuxtaponer A y B una junta a la
otra, es decir, (A|B) = (ci j ) donde
ai j si 1 j n
ci j =
bi, j n si n + 1 j n + t.
Diremos que (A|B) es una matriz aumentada. Esto generaliza el caso cuando B = b
es un vector columna m 1, que ya habamos encontrado antes.
Lema 3.20. Si A = (ai j ) es una matriz m n, B = (bi j ) es una matriz m t y P =
(pi j ) es una matriz r m, entonces
P(A|B) = (PA|PB).
es decir,
3.2 Operaciones elementales y el rango de una matriz 103
termino general de PA si 1 j n
ei j =
termino general de PB si n + 1 j n + t,
y por lo tanto P(A|B) = (PA|PB). t
u
Para aplicar el lema 3.20 para encontrar la inversa de una matriz n n invertible
A, consideremos la matriz aumentada
(1) (A|In )
Demostracion. Solo falta probar la segunda afirmacion. Para esto, supongamos que
Ek , . . . , E1 son matrices elementales que satisfacen que:
rang(A) = rang(A|b),
rang(AB) rang(A),
rang(AB) rang(B).
Ejercicio 3.7. Sea A una matriz m n. Si A es de rango m, demuestre que existe una
matriz B, n m, tal que BA = In .
Ejercicio 3.8. Sea A una matriz m n. Si A es de rango n, demuestre que existe una
matriz B, n m, tal que AB = Im .
0 3 119 0 4 2 15 2 1
127 1 2 3 4
B7 2 1C B 2 4 6 8 C
C=B @1 0 1A
C D = B
@ 1 2 3 4 A.
C
020 3 4 9 12
Ejercicio 3.11. Encuentre la inversa de las matrices invertibles del ejercicio anterior.
106 3 Sistemas de ecuaciones lineales
y la idea es trabajar con la matriz aumentada del sistema original (A|b) y transfor-
marla, mediante operaciones elementales en renglones, en una matriz (A0 |b0 ) que
tenga asociado el sistema de ecuaciones sencillo de arriba. Lo primero que debemos
hacer es asegurarnos que el nuevo sistema tenga el mismo conjunto de soluciones
que el sistema original:
Proposicion 3.23. Si Ax = b es un sistema de m ecuaciones lineales en n incognitas
y si P es una matriz invertible m m, entonces el sistema (PA)x = Pb tiene el mismo
conjunto de soluciones que el sistema original.
Demostracion. Sea S K n el conjunto de soluciones del sistema original Ax = b
y sea S0 K n el conjunto de soluciones del sistema (PA)x = Pb. Mostraremos que
S = S0 . En efecto, si v 2 S, entonces Av = b y as PAv = Pb por lo que v es solucion
del sistema (PA)x = Pb, i.e., v 2 S0 . Recprocamente, si v 2 S0 , entonces (PA)v = Pb
y multiplicando por la inversa de P obtenemos: P 1 (PAv) = P 1 Pb, i.e., Av = b y
por lo tanto v 2 S. t
u
Corolario 3.24. Si Ax = b es un sistema de m ecuaciones lineales en n incognitas y
si (A0 |b0 ) se obtiene de (A|b) mediante un numero finito de operaciones elementales
en renglones, entonces el sistema A0 x = b0 tiene el mismo conjunto de soluciones
que el sistema original.
Demostracion. (A0 |b0 ) se obtiene de (A|b) mediante el producto de un numero finito
de matrices elementales E1 , . . . , Ek . Poniendo P = E1 Ek , resulta que P es inver-
tible y P(A|b) = (PA|Pb) = (A0 |b0 ), por lo que A0 x = b0 es el sistema (PA)x = Pb.
Aplicamos entonces la proposicion anterior. t
u
3.3 El metodo de Gauss 107
S = v0 + ker TA ,
y por lo tanto el sistema sencillo debe serlo de tal manera que uno pueda leer el
nucleo de TA de este sistema, i.e., uno debera ser capaz de dar una base del nucleo
ker TA a partir del sistema sencillo. Esto nos lleva a pedir que en la matriz aumentada
del sistema sencillo, las variables que encabezan ecuaciones solo aparezcan en esa
ecuacion. La definicion formal es como sigue:
Definicion 3.25. Una matriz m n se dice que esta en forma escalonada reducida
si:
(i) Todos los renglones con alguna entrada distinta de cero estan arriba de los
renglones que consisten de ceros.
(ii) La primera entrada distinta de cero de un renglon no cero es 1 y es la unica
entrada distinta de cero en su columna.
(iii) El 1 de la primera entrada distinta de cero de un renglon no cero esta en una
columna a la derecha de la primera entrada no cero del renglon precedente.
Observacion 3.26. La condicion (i) solo dice que los renglones que consisten de
ceros, si hay alguno de estos renglones, van en la parte de abajo de la matriz. La
condicion (iii) nos dice que la matriz esta escalonada y la condicion (ii) dice que un
renglon no cero tiene un 1 como primera entrada no trivial y arriba y abajo de este
uno solo hay ceros. As, la definicion anterior captura lo que deseamos que quiera
decir el termino sencillo.
Ejemplo 3.5. La matriz 0 1
1 0 0 1 2 3
B0 1 0 2 3 1C
B C
@0 0 1 0 1 2A
0 0 0 0 0 0
esta en forma escalonada reducida.
La matriz 0 1
1 0 2 1 2 3
B0 1 0 2 3 1C
B C
@0 0 1 0 1 2A
0 0 0 0 0 0
no esta en forma escalonada reducida, ya que en la columna del 1 del tercer renglon
no todos las entradas son cero.
108 3 Sistemas de ecuaciones lineales
La matriz 0 1
1 0 0 1 2 3
B0 3 0 2 3 1C
B C
@0 0 1 0 1 2A
0 0 0 0 0 0
no esta en forma escalonada reducida, ya que el segundo renglon no comienza con
un 1.
La matriz 0 1
1 0 0 1 2 3
B0 0 1 0 1 2C
B C
@0 1 0 2 3 1A
0 0 0 0 0 0
no esta en forma escalonada reducida, porque el 1 del tercer renglon no esta a la
derecha del 1 del renglon que lo precede.
La matriz 0 1
1 0 0 0 2 0
B0 1 2 0 3 0C
B C
@0 0 0 1 1 0A
0 0 0 0 0 1
esta en forma escalonada reducida.
La cuestion siguiente es evidente: dada una matriz A de tamano m n, es po-
sible transformarla, mediante operaciones elementales, en forma escalonada redu-
cida? La respuesta es afirmativa y el procedimiento para realizarlo es el metodo de
eliminacion gaussiana.
Metodo de eliminacion de Gauss. Dada una matriz A de tamano m n, si A es la
matriz cero, por definicion diremos que esta en forma escalonada reducida. Supon-
gamos entonces que A no es la matriz cero. El metodo que describiremos tiene dos
partes:
Parte 1. De arriba hacia abajo:
Paso 1. Se escoge la columna distinta de cero mas a la izquierda. Luego, usando
operaciones elementales en renglones traslade una de las entradas distintas de cero
en esta columna al primer renglon y luego conviertalo en 1 multiplicando este primer
renglon por el inverso multiplicativo de la entrada 6= 0 en cuestion. Se usan en este
paso a lo mas 2 operaciones elementales.
Paso 2. Usando a lo mas m 1 operaciones elementales de tipo 3 en renglones,
convierta en ceros todos los lugares abajo del 1 del primer paso.
Paso 3. Sin tomar en cuenta el primer renglon, considere las columnas de la matriz
resultante y escoja la columna distinta de cero mas a la izquierda. Repita los pasos
1 y 2 con esta columna.
Paso 4. Sin tomar en cuenta los dos primeros renglones, considere las columnas de
la matriz resultante y escoja la columna distinta de cero mas a la izquierda. Repita
3.3 El metodo de Gauss 109
los pasos 1 y 2 con esta columna. Proceda de esta manera hasta que, sin tomar en
cuenta los renglones donde ya se aplicaron los pasos 1 y 2, la matriz que resulte
tenga solo ceros o que ya se hayan agotado sus renglones. Note que el numero de
pasos es a lo mas m.
Parte 2. De abajo hacia arriba:
Paso 1. Comenzando con el ultimo renglon distinto de cero, usando operaciones
elementales de tipo 3 en renglones, convierta en ceros todos las entradas arriba del
primer 1 de este renglon. De nuevo, el numero de operaciones es a lo mas m 1.
Paso 2. Repita lo anterior con el penultimo renglon distinto de cero y proceda de
esta manera, de abajo hacia arriba, para convertir en ceros todos las entradas arriba
de los primeros 1 de los renglones distintos de cero. Note que en cada uno de estos
pasos se usan solo un numero finito de operaciones elementales en renglones y el
numero de pasos es a lo mas m.
Observe ahora que con el metodo de eliminacion gaussiana descrito arriba, a
partir de la matriz A de tamano m n, se obtiene una matriz A0 del mismo tamano y
que tiene forma escalonada reducida ya que, por los pasos de arriba hacia abajo se
satisfacen las condiciones (i) y (iii) de la definicion 3.25, y por los pasos de abajo
hacia arriba se satisface la condicion (ii). Se tiene as:
Proposicion 3.27. El metodo de eliminacion gaussiana transforma cualquier ma-
triz A 2 Matmn (K) en una matriz A0 2 Matmn (K) en forma escalonada reducida.
t
u
La primera consecuencia del metodo anterior es que el rango de la matriz A
es igual al rango de A0 ya que A0 se obtuvo a partir de A mediante operaciones
elementales, que no cambian el rango por la proposicion 3.11, y se lee directamente
de la matriz A0 escalonada reducida:
Proposicion 3.28. Sea A una matriz m n y sea A0 una matriz escalonada redu-
cida que se obtiene a partir de A mediante operaciones elementales en renglones.
Entonces, el rango de A es el numero de renglones distintos de cero en A0 .
a1 e1 + + ar er = 0
Hemos as probado:
Teorema 3.29. Sea A 2 Matmn (A) una matriz de rango r 1 y sea A0 una matriz
en forma escalonada reducida equivalente a A. Entonces,
(1) Para cada i = 1, . . . , r existe una columna Ck0 i de A0 tal que Ck0 i = ei , el vector
canonico de K m correspondiente.
(2) Si Cki es la columna de A correspondiente al ndice ki , entonces Ck1 , . . . ,Ckr son
linealmente independientes.
(3) Para cada j = 1, . . . , n, si la columna j de A0 es C0j = a1 j e1 + +ar j er , entonces
la columna j de A es
C j = a1 jCk1 + + ar jCkr .
t
u
A0 y A00 . Sean k1 < < kr y `1 < < `r tales que Ck0 i = ei y C`00i = ei . Mostraremos
ahora que ki = `i para toda i = 1, . . . , r por induccion sobre r.
(i) Si r = 1, Ck0 1 = e1 = C`001 y supongamos, sin perder generalidad, que `1 k1 . Si
sucediera que `1 > k1 , entonces C00j = 0 para 1 j < `1 , y por la parte (3) del teorema
anterior la columna de A correspondiente a C00j es C j = 0 tambien, para 1 j < `1 .
En particular, Ck1 = 0, lo cual contradice la parte (2) del teorema (ya que Ck1 debe
ser miembro de un conjunto linealmente independiente). Se sigue que k1 = `1 .
(ii) Supongamos que ki = `i para toda i < r. Mostraremos que kr = `r . Sin per-
der generalidad, supongamos que `r kr . Si sucediera que `r > kr , entonces para
1 j < `r , las columnas C00j tendran ceros hacia abajo comenzando con el renglon
r 1. Consecuentemente, por la parte (3) del teorema las columnas C j correspon-
dientes a C00j tendran tambien ceros hacia abajo comenzando con el renglon r 1.
En particular, Ckr tendra ceros a partir del renglon r 1.
Consideremos ahora la submatriz B de A dada por las primeras kr columnas:
B = (C1 , . . . ,Ckr ) y observemos que los renglones de B, a partir del renglon r 1
son todos cero y por lo tanto el rango de B es r 1, por (3.15). Pero esto contradice
la parte (2) del teorema que afirma que Ck1 , . . . ,Ckr son linealmente independientes.
Hemos as probado que los vectores canonicos e1 , . . . , er que aparecen en A0 y
A00 ,
estan en las mismas columnas de estas dos matrices. Por lo tanto, las columnas
de A que les corresponden son las mismas, es decir, Ck1 = C`1 , . . . ,Ckr = C`r .
Para mostrar que A0 = A00 , mostraremos que cualesquiera dos de sus columnas
son iguales: C0j = C00j . En efecto, escribiendo cada una de estas columnas como com-
binacion lineal de e1 , . . . , er :
C0j = a1 e1 + + ar er y C00j = b1 e1 + + br er ,
por la parte (3) del teorema anterior, la columna C j de A que les corresponde satis-
face que:
C j = a1Ck1 + + arCkr = b1Ck1 + + brCkr
y, como los Cki son linealmente independientes, entonces ai = bi para toda i. Se
sigue que C0j = C00j y por lo tanto A0 = A00 . t
u
y por lo tanto
r n r
() b = (sk1 Ck1 + + skr Ckr ) +C = ski Cki + tiC ji .
i=1 i=1
r n r
A v = ski Aeki + ti Ae ji
i=1 i=1
r n r
= ski Cki + tiC ji porque Ae j = C j
i=1 i=1
=b por ().
Note que el vector v anterior es el vector v obtenido en los pasos (1), (2) y (3)
de arriba. Observe tambien que, poniendo todos los ti = 0, se obtiene la solucion
particular:
r
v0 := ski eki .
i=1
v = v0 + t1 u1 + t2 u2 + + tn r un r ,
con v0 , u1 , . . . , un r vectores de K n .
Mostraremos ahora que los vectores u1 , . . . , un r forman una base de ker TA , y
para esto comenzamos mostrando que generan este nucleo: en efecto, por cons-
truccion cada ui 2 ker TA y as K(u1 , . . . , un r ) ker TA . Supongamos ahora que
u = (a1 , . . . , an ) es cualquier elemento de ker TA . Entonces
3.3 El metodo de Gauss 115
n r
() u ak uk = l j ek j
k=r+1 j=1
l1Ck1 + + lrCkr = 0
S = v0 + ker TA = {v 2 K n : v = v0 + t1 u1 + t2 u2 + + tn r un r , ti 2 K}.
t
u
0 1 0 1
3915 7 1 311 3
@2 6 3 1 7A @3 9 1 5 7A
1311 3 2 631 7
0 1
1 3 1 1 3
@0 0 2 2 2A
0 0 1 1 1
0 1
1 3 1 1 3
@0 0 1 1 1 A
0 0 2 2 2
0 1
1 3 0 2 2
@0 0 1 1 1A
0 0 0 0 0
x1 + 3x2 + 2x4 = 2
x3 x4 = 1
y las variables que encabezan ecuaciones son x1 y x3 , y las variables que no enca-
bezan ecuaciones son x2 y x4 . Dando valores parametricos a las variables que no
encabezan ecuaciones:
x2 = t1 y x4 = t2 ,
despejamos las variables que s encabezan ecuaciones:
x3 = 1 + x4 = 1 + t2
x1 = 2 3x2 2x4 = 2 3t1 2t2
por lo que la solucion general del sistema esta dada por los vectores de la forma
v = (x1 , x2 , x3 , x4 )
= (2 3t1 2t2 ,t1 , 1 + t2 ,t2 )
= (2, 0, 1, 0) + ( 3t1 2t2 ,t1 ,t2 ,t2 )
= (2, 0, 1, 0) + t1 ( 3, 1, 0, 0) + t2 ( 2, 0, 1, 1),
2x + y z=5
x y+z = 1
x + 2y 2z = 4.
x1 + 2x2 8x3 = 0
2x1 3x2 + 5x3 = 0
3x1 + 2x2 12x2 = 0.
3x1 1x2 + x3 = 2
x1 + 5x2 +2x3 = 6
2x1 + 3x2 + x3 = 0.
3x1 6x2 x3 x4 = 0
x1 2x2 + 5x3 3x4 = 0
2x1 4x2 + 3x3 x4 = 3.