Documentos de Académico
Documentos de Profesional
Documentos de Cultura
ÍNDICE GENERAL
i
2. Determinantes 72
2.1. La función determinante . . . . . . . . . . . . . . . . . . . . . 72
2.2. Propiedades de los determinantes . . . . . . . . . . . . . . . . 76
2.3. Cálculo de determinantes usando propiedades . . . . . . . . . 87
2.4. Matrices invertibles y determinantes. Determinante de un pro-
ducto de matrices . . . . . . . . . . . . . . . . . . . . . . . . . 89
2.5. Factorización LU y determinantes . . . . . . . . . . . . . . . . 97
2.6. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . 100
2.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
ii
4.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
4.7. Transformaciones inyectivas y suprayectivas; isomor…smos y
transformaciones inversas. . . . . . . . . . . . . . . . . . . . . 166
4.8. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
4.9. Rango . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
4.9.1. Rango y consistencia . . . . . . . . . . . . . . . . . . . 179
4.9.2. Rango y determinantes . . . . . . . . . . . . . . . . . . 182
4.10. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
4.11. Los cuatro espacios fundamentales de una matriz; sus bases y
dimensiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
4.12. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
4.13. Rango de un producto de matrices . . . . . . . . . . . . . . . 196
4.14. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
4.15. Espacios cociente . . . . . . . . . . . . . . . . . . . . . . . . . 199
4.16. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
iii
CAPÍTULO 1
1
2
Geométricamente
Es bien sabido que ambas ecuaciones son ecuaciones de líneas en el plano
xy. Por lo tanto, las soluciones del sistema en el plano xy son los puntos de
intersección de las dos líneas. De este modo, podemos distinguir los tres casos
siguientes:
Caso 2 Las dos líneas son paralelas y distintas, que ocurre cuando
a c p q
= y 6= :
b d b d
En este caso no hay intersección y el sistema no tiene solución.
Algebraicamente
Algebraicamente, podemos resolver el sistema (1.2) por al menos dos
métodos: el método de sustitución y el método de eliminación. Para el méto-
do de sustitución, despejamos una de las dos variables de la primera ecuación
en (1.2) y la sustituimos en la segunda ecuación de la siguiente manera:
a p
y= x+ ; (1.3)
b b
siempre que b 6= 0 y luego sustituyendo la expresión (1.3) en la segunda
ecuación de (1.2), encontramos
ad bc 6= 0:
Entonces, la pregunta ahora es ¿qué pasa si tenemos un sistema 3 3 o
en general un sistema n n?
¿Podemos discutir siempre la existencia de soluciones en términos de rela-
ciones similares entre los coe…cientes? Y si es así, ¿cómo podemos encontrar
tales relaciones en general? Como veremos más adelante, la respuesta a la
pregunta anterior nos lleva al estudio del álgebra de matrices.
1.2. Matrices
Las matrices surgen al considerar sistemas de ecuaciones lineales
2x1 x2 + x3 = 0
x1 + 3x2 + 4x3 = 0:
4
1
es un vector columna y la matriz de 1 4
M= 1 2 1 9
es un vector renglón.
Comentario 1.2.4 Ya que las matrices son funciones, dos matrices M =
(mij ) y N = (nij ) son iguales si
(a) M y N son del mismo tamaño.
(b) mij = nij en A para todo i; j.
Ejemplo 1.2.5
4 1 5 1+3 1 2+3
= :
2 3 0 2 1 4 6 6
Los elementos m11 ; m22 ; : : : forman la diagonal principal de la matriz
(mij ). Una matriz n n es llamada una matriz cuadrada. Una matriz cuadra-
da n n con mij = 0 para todo i 6= j es llamada una matriz diagonal. La
matriz identidad In es la matriz diagonal n n con 1A en cada entrada de
la diagonal principal, esto es, In = ( ij ) donde es la delta de Kornecker:
para cualquier conjunto de índices I y anillo conmutativo A con identidad el
símbolo
1A si i = j
ij =
0 si i 6= j;
para todo i; j 2 I. Por ejemplo,
0 1
1 0 0
I3 = @0 1 0A :
0 0 1
Las matrices k ` con todas las entradas cero son llamadas matrices cero,
denotadas 0,
0 0 0
0= :
0 0 0
7
1.3. Ejercicios
1. Determine el tamaño de la siguiente matriz en Z
0 1
1 1 6 4
M = @0 1 2 8A
0 0 0 1
Entonces
0 1 0 1
1 21 0 4 2
M 2N = @ 3 4 A
5 + @ 6 0 10A
0 11 14 12 0
0 1
1 5 0
= @ 3 4 5A
14 13 1
y
0 1 0 1
3 3 6 0 0 2
3M P = @ A
9 12 15 + @ 3 1 0A
0 3 3 0 2 4
0 1
3 3 4
= @6 11 15 A :
0 5 7
(i) Asociatividad:
(M + N ) + P = ((mij ) + (nij )) + (pij ))
= ((mij + nij ) + (pij ))
= ((mij ) + (nij + pij ))
= M + (N + P ):
(ii) Conmutatividad:
M + N = (mij + nij )
= (nij + mij )
= N + M:
2. 8x(1 x = x).
3. 8x8y(a (x +0 y) = a x +0 a y).
4. 8x((a + b) x = a x +0 b x).
5. 8x(a (b x) = (a b) x).
1.5. Ejercicios
0 1 0 1
4 8 2 4 7 1
@
1. Sean A = 5 7 3 A @
y B = 35 87 23 A en Z. Determine
1 9 9 14 59 29
(A + B)23 y ( 2A)13 .
escalar fn : G ! G; g !
7 ng como
8
>
> g+ +g si n > 0
>
> | {z }
< n veces
ng = 0G si n = 0
>
> ( g) + + ( g) si n < 0:
>
>
: | {z }
jnj veces
x y = x+y
x = x:
(c1 m11 + c2 m21 + + ck mk1 )x1 + (c1 m12 + c2 m22 + + ck mk2 )x2 +
+(c1 m1` + c2 m2` + + ck mk` )x`
= c 1 b1 + c 2 b2 + + c k bk :
ya que
1
E1 = 2E10 + 0E20 E10 = E1 + 0E2 + 0E3
2
5 1
E2 = 5E10 12E20 0
E2 = E1 E2 + 0E3
24 12
E3 = 4E10 12E20
Como los sistemas son equivalentes, el conjunto de soluciones es el mismo
para ambos sistemas.
Podemos resumir lo que hemos dicho.
x1 + ix2 = 0
ix1 + 3x2 = 0
x1 + 2x2 = 0
Ejemplo 1.6.12
0 1
2 1 3 2
@0 5=2 1=2 0A
0 0 0 1
fer
0 1
1 2 1 2
@0 0 0 0A
0 1 2 4
no fer
0 1
1 0 2 5
@0 1 3 6A
0 0 0 0
ferr
0 1
1 2 3 4
@0 1 1 1A :
0 0 1 3
no ferr
La última ecuación es
0x1 + 0x2 + 0x3 = 1:
Así, el sistema no tiene solución.
m0ij = mij , si j `
m0i;`+1 = bi :
24
es 0 1
3
1 0 5
j 15 (b1 + 2b2 )
@0 1 1
j 15 (b2 2b1 ) A :
5
0 0 0 j b3 b2 + 2b1
Por lo tanto, la condición para que el sistema M x = b tenga solución es que
2b1 b2 + b3 = 0
y si los escalares dados bi satisfacen esta condición, todas las soluciones son
obtenidas asignándoles un valor q a x3 y luego calculando
3 1
x1 = q + (b1 + 2b2 )
5 5
1 1
x2 = q + (b1 + 2b2 ):
5 5
1.7. Ejercicios
1. Sea K = C el campo de los números complejos. ¿Son equivalentes los
dos sistemas de ecuaciones lineales siguientes? Si lo son, exprese cada
ecuación en cada sistema como una combinación lineal de las ecuaciones
en el otro sistema.
x1 + x2 + 4x3 = 0 x1 x3 = 0
x1 + 3x2 + 8x3 = 0 x2 + 3x3 = 0
1 5
x1 + x2 + x3 = 0
2 2
7. Sea 0 1
3 1 2
@
M= 2 1 1A :
1 3 0
¿Para qué b tiene una solución el sistema M x = b?
8. Sea 0 1
3 6 2 1
B 2 4 1 3C
M =B
@0
C
0 1 1A
1 2 1 0
¿Para qué b tiene solución el sistema M x = b?
y por lo tanto,
7 4 3
MN = P = :
6 12 4
2 1 1
(b) M = ;N = . En este caso,
5 4 6
P1 = 2 1+1 6=8
P2 = 5 1 + 4 6 = 29
y así,
8
MN = P = :
29
k 6` 6` s=k s
M x = x1 M 1 + x2 M 2 + + x` M ` :
como m n = m1 n1 + m2 n2 + + mk nk o bien
0 1
n1
B n2 C
B C
m1 m2 mk B .. C = m1 n1 + m2 n2 + + mk nk ;
@.A
nk
entonces si P = M N ,
pij = (renglón i de M ) (columna j de N )
1 3 3 2
Ejemplo 1.8.5 Sean M = y N = . Entonces, si P =
2 4 5 6
MN,
p11 = (renglón 1 de M) (columna 1 de N ) = 3 + 15 = 18
p12 = (renglón 1 de M) (columna 2 de N ) = 2 + 18 = 16
p21 = (renglón 2 de M) (columna 1 de N ) = 6 + 20 = 14
p22 = (renglón 2 de M) (columna 2 de N ) = 4 + 24 = 28:
Así,
18 16
P = MN = :
14 28
De modo similar,
7 1
NM = :
7 39
Note que M N 6= N M .
M
| M{z M}
r-veces
x1 + 2x2 x3 = 2
2x1 + 3x2 + 5x3 = 5
x1 3x2 + 8x3 = 1:
x1 + 13x3 = 4
x2 7x3 = 1:
33
(4; 1; 0) + a( 13; 7; 1)
(4 13a; 1 + 7a; a) = | {z } | {z } :
solución particular solución del sistema homogéneo asociado
1 (M; +0 ; fa ; 00 ) es un A-módulo.
2. (M; +0 ; 0 ; 00 ) es un anillo.
3. 8x8y(a (x 0 y) = (a x) 0 y = x 0 (a y)).
ip i 6= r
eip =
rp +a sp i = r:
Entonces,
X
k
(EM )ij = eip mpj
p=1
( Pk
p=1 ip mpj
= mij i 6= r
Pk
p=1 ( rp + a sp )mpj = mrj + amsj i = r:
1.9. Ejercicios
1. Encuentre dos matrices diferentes M de 2 2 tales que M 2 = 0 pero
M 6= 0.
2. Sea 0 1
d1 0 0 0
B 0 d2 0 0C
B C
B .. C
D = B ... ... ..
.
..
. .C
B C
@0 0 dk 1 0A
0 0 0 dk
la matriz diagonal en Mk k (A) con entradas diagonales d1 ; : : : ; dk y M
son una matriz cuadrada en Mk k (A). Calcule los productos DM y
M D.
5. Sea 0 1
1 1 1
M = @2 0 1A :
3 0 1
Encuentre matrices elementales E1 ; E2 ; : : : ; Em tales que
Em E2 E1 M = I:
6. Sean 0 1
1 1
@ 3 1
M= 2 2 A;N = :
4 4
1 0
¿Existe una matriz P tal que P M = N ?
37
7. Sea
p11 p12
P =
p21 p22
una matriz 2 2. ¿Es posible encontrar matrices M; N de 2 2 tales que
P = M N N M ? Pruebe que dichas matrices puedes ser encontradas
si y solo si p11 + p22 = 0.
8. Pruebe que si un sistema de ecuaciones lineales con coe…cientes en R
tiene al menos dos soluciones diferentes, entonces tiene in…nidad de
soluciones. Sugerencia: si x1 6= x2 son soluciones del sistema Ax = b,
demuestre que x1 +k(x1 x2 ) también es solución del sistema para todo
k 2 R. Luego muestre que dos soluciones de este tipo para k distintas
son distintas.
Lema 1.10.2
0 1
N1
B C
B C
B N2 C
B C X k
B C
= M1 j M 2 j j Mk B C = M i Ni :
B .. C
B . C i=1
B C
@ A
Nk
Demostración
X̀ m1
X mX
1 +m2 X̀
= xi yi = x i yi + xi yi + + xi yi = M1 N1 +M2 N2 + +Mk Nk :
i=1 i=1 i=m1 +1 i=m1 + +mk 1 +1
Lema 1.10.3 p
X
MN = M r Nr :
r=1
40
Demostración
(M N )ij = (renglón i de M ) (columna j de N )
0 1
columna j de N1
B C
B C
B .. C
= renglón i de M1 j j renglón i de Mp B . C
B C
@ A
columna j de Np
p p
X X
= (renglón i de Mr columna j de Nr ) = (Mr Nr )ij (por el lema 1.10.2)
r=1 r=1
p
!
X
= M r Nr :
r=1 ij
Denote esta submatriz de M N por Pij . Entonces, el lema 1.10.3 implica que
0 1
N1j
B C
B C
B .. C
Pij = Mi1 j j Mip B . C
B C
@ A
Npj
p
X
= Mit Ntj ;
t=1
1.11. Ejercicios
1. Sean
0 1 0 1
1 2 j 4 j 1 0 1 j 1 2
B3 1 j 0 j 0 1CC B j 1 0C
B B2 C
B C B C
B C B C
M =B
B0 1 j 1 j C
1 2C y N = B
B4 j 2 2CC
B C B C
B C B C
@1 0 j 2 j 3 1 A @1 j 0 1A
1 1 j 1 j 2 4 3 j 0 1
a) Calcule M N .
b) Liste los tamaños de los bloques en las particiones dadas arriba
y veri…que que las hipótesis del teorema 1.10.4 son satisfechas en
este caso.
c) Calcule el producto de M y N multiplicando por bloques.
2. Sean 0 1
1 1 0 0 0
B1 2 0 0 0C
B C
M =B
B0 0 1 2 3C
C
@0 0 1 0 1A
0 0 1 1 2
y 0 1
0 0 0 0 0
B0 0 0 0 0C
B C
N =B
B0 0 1 0 0C
C
@0 0 0 1 0A
0 0 0 0 1
Encuentre una buena partición de M y N para la cual la multiplicación
en bloques da al producto M N de una manera simple.
44
y
E1 E = e1 (E) = e1 (e(I)) = I:
Por lo tanto E es invertible y E1 = E 1 . La inversa de una matriz elemental
es una matriz elemental del mismo tipo:
1
(Ir (a)) = Ir (a 1 )
1
(Irs (a)) = Irs ( a)
1
(Irs ) = Irs :
Ejemplo 1.12.3
1 1
0 1 0 1 1 a 1 a
= ; = ;a 2 A
1 0 1 0 0 1 0 1
1 1
1 0 1 0 a 0 a 1 0
= ; a 2 A; = ;a 2 A
a 1 a 1 0 1 0 1
1
1 0 1 0
= ;a 2 A :
0 a 0 a 1
R = Em E2 E1 M (1.10)
46
M = E1 1 E2 1 Em1 :
Corolario 1.12.7 Una matriz cuadrada con una inversa derecha o izquierda
es invertible.
Demostración Sea M una matriz k k. Suponga que M tiene una inversa
izquierda, esto es, existe una matriz N tal que N M = I. Entonces M x = 0
solo tiene la solución trivial, porque x = Ix = N M x. Por lo tanto M es
invertible. Por otra parte, suponga que M tiene una inversa derecha, i.e.,
existe una matriz P tal que M P = I. Entonces P tiene una inversa izquierda
y es por lo tanto invertible. Se sigue entonces que M = P 1 y por lo tanto
M es invertible con inversa P .
5 3 1 x y
Sea M = . Suponga que M = , entonces
2 1 z w
1 5 3 x y 5x + 3z 5y + 3w 1 0
MM = = = :
2 1 z w 2x + z 2y + w 0 1
Por igualdad de matrices,
5x + 3z = 1 5y + 3w = 0
2x + z = 0 2y + w = 1
Esto obtiene dos sistemas de ecuaciones cuyas matrices aumentadas son
las siguientes:
5 3 j 1 5 3 j 0
y
2 1 j 0 2 1 j 1
respectivamente. Como las matrices de coe…cientes son iguales, trabajamos
con la matriz doblemente aumentada
5 3 j 1 0
2 1 j 0 1
y la reducción por renglones obtendrá, si M es invertible
1 0 j x y
:
0 1 j z w
Así que,
5 3 j 1 0 1 1 3=5 j 1=5 0
R1 ( )
2 1 j 0 1 5 2 1 j 0 1
!
1 3=5 j 1=5 0 1 3=5 j 1=5 0
R21 ( 2) R2 ( 5)
! 0 1=5 j 2=5 1 ! 0 1 j 2 5
3 1 0 j 1 3
R12 ( ) :
5 0 1 j 2 5
!
1 1 3
Entonces M es invertible y M = . Podemos compobar nuestros
2 5
cálculos haciendo las multiplicaciones:
1 3 5 3 1 0
=
2 5 2 1 0 1
5 3 1 3 1 0
= :
2 1 2 5 0 1
49
1 1
Ejemplo 1.12.12 Sea M = . Escribiendo la matriz doblemente au-
3 3
mentada y reduciendo por renglones,
1 1 j1 0 1 1 j1 0
R21 ( 3) :
3 3 j0 1 ! 0 0 j 3 1
La última línea se lee 0 = 3 o 0 = 1. Entonces el sistema es inconsistente
y M no es invertible.
Procedimiento para encontrar la inversa de una matriz cuadrada
M
m11 m12
De…nición 1.12.13 Sea M = 2 M2 2 (A). Entonces el deter-
m21 m22
minante de M se de…ne como
1 1 m22 m12
M = :
det M m21 m11
50
1 m22 m12
Demostración Suponga que det M 2 A y sea N = det M
.
m21 m11
Entonces
1 m22 m12 m11 m12
NM =
det M m 21 m 11 m 21 m22
1 m11 m22 m21 m12 0
=
det M 0 m m
11 22 m21 m12
1 0
= :
0 1
1 1 1 3 1 3
N = = :
1 1 2 1 2
x1 + 2x2 + 3x3 = 1
x1 + x2 + 2x3 = 8
x2 + 2x3 = 3
La matriz M es invertible y
0 1
0 1 1
M 1
= @ 2 2 1A :
1 1 1
tales.
1 1 1
M = I23 ( 1)I13 ( 2)I3 ( )I32 (1)I31 ( 3)I1 ( )
0 10 4 10 2 10 10 10 1
1 0 0 1 0 2 1 0 0 1 0 0 1 0 0 1=2 0 0
= @ 0 1 1 A @ 0 1 0 A @ 0 1 0 A @0 1 0A @ 0 1 0A @ 0 1 0A
0 0 1 0 0 1 0 0 1=4 0 1 1 3 0 1 0 0 1
0 1
1=4 1=2 1=2
= @ 3=8 5=4 1=4 A :
3=8 1=4 1=4
Ejemplo 1.12.19
0 1
0 1 0 1 1 0 0 0
1 0 3 1 0 0 B1 1
@0 1 1A; @ 0 1 0A ; B 0 0C
C:
@1 1 1 0A
0 0 4 0 0 5
TS TS y TI
1 2 3 4
TI
Note que una matriz que es a la vez triangular superior e inferior es una
matriz diagonal.
1.13. Ejercicios
1. Sea 0 1
5 0 0
M = @1 5 0A :
0 1 5
¿Para qué x existe un escalar c tal que M x = cx?
54
1 1 1
2. Considere la matriz en R dada por M = .
1 1 1
3. Sea A 2 Cm n
; B 2 Cn m
y b 2 Cm .
Entonces
0 1 0 1
1 6 4 1 0 0
@2 4 C ( 6) @
1A 21 2 8 9A
C31 ( 4)
1 20 5 !
1 1 08 9 1
1 0 0 1 0 0
C2 ( 18 ) @ 2 1 9A C32 (9) @ 2 1 0A = N:
! 1 1 9 ! 1 1 0
Así, N es equivalente por columnas a M .
A la matriz transpuesta de una “matriz escalonada (reducida) por ren-
glones”se le llama “matriz escalonada (reducida) por columnas”.
P = M N = (pij )
con
X̀
pij = mir nrj :
r=1
De aquí,
!
X̀
(P T )ij = (M N )Tij = (pji ) = njr mri = NT MT :
r=1
M T (M 1 )T = (M 1 M )T = I T = I
(M 1 )T M T = (M M 1 )T = I T = I:
1.15. Ejercicios
1. Muestre que si una matriz es triangular superior (inferior), su matriz
transpuesta es triangular inferior (superior).
X
k
traza(M ) = m11 + m22 + + mkk = mii :
i=1
Pruebe que
c) traza(M N ) = traza(N M ).
d) traza(M ) = traza(M T ).
De…nición 1.16.1 Una matriz elemental del tipo Eij = Rij es llamada una
transposición. Cualquier producto …nito de transposiciones es llamada una
matriz de permutación.
0 1 0 1
0 1 0 0 0 1
Ejemplo 1.16.2 E12 = @1 0 0A y E13 = @0 1 0A son transposi-
0 0 1 1 0 0
ciones. 0 1
0 1 0
P = E12 E13 = @0 0 1A
1 0 0
es una matriz de permutación.
Cualquier matriz de permutación se obtiene de Im permutando sus ren-
glones. Permitimos i = j en Eij . De este modo, la matriz identidad Im es
una transposición y de aquí una matriz de permutación.
Cuando reducimos por renglones M a una matriz triangular superior,
necesitamos producir ceros debajo de una entrada distinta de cero en una
columna dada. En otras palabras multiplicamos M por la izquierda por una
sucesión de matrices elementales de la forma siguiente:
Lk Ek L1 E1 M
es triangular superior.
Demostración Podemos asumir que m > 1. Si M = 0, entonces M es
triangular superior y no hay nada que hacer. Podemos poner E1 = L1 = Im .
De aquí, podemos asumir que M 6= 0. Suponga que j es el número de
la primera columna de M que tiene una entrada distinta de cero. Entonces
después de efectuar un intercambio de renglones conveniente, i.e., después de
multiplicar por una transposición conveniente E1 , tenemos
0 1
0 : : : 0 a1j :::
B .. C :
E1 M = @ ... ..
.
..
. .A
0 : : : 0 amj :::
Entonces, 0 1
0 : : : 0 a1j :::
@
L1 E1 M = 0 : : : 0 0 M0 A
0 ::: 0 0
Si la submatriz M 0 es cero, entonces L1 E1 M es triangular superior y termi-
namos la prueba. Suponga que M 0 tiene una entrada distinta de cero. Sea
` el número de la primera columna de L1 E1 M en la cual M 0 tiene una en-
trada distinta de cero. Entonces j < ` y existe una transposición E2 tal que
E2 (L1 E1 M ) tiene la forma siguiente.
0 1
0 : : : 0 a1j ::: :::
B0 : : : 0 0 0 : : : 0 b2` ::: C
B C
E2 L1 E1 M = B .. .. .. .. .. .. .. .. C
@. . . . . . . .A
0 : : : 0 0 0 : : : 0 bm` :::
Entonces
0 1
0 : : : 0 a1j ::: :::
B0 ::: 0 0 0 ::: 0 b2` ::: C
B C
B C
L2 E2 L1 E1 M = B0 ::: 0 0 0 ::: 0 0 C
B .. .. .. .. .. .. C
@. . . . . . M0 A
0 ::: 0 0 0 ::: 0 0
angulares inferiores.
0 1
0 1 1 0 0 0 ::: 0
1 0 ::: ::: 0 0 B
B B0 1 0 0 : : : 0C
B `21 1 0 : : : 0 0C C B0
C
L 1 1 L2 1 Lm1 1 = B .. .. .. .. C B `32 1 0 : : : 0C C
@ . . . .A B @ ..
. .. .. .. C
. . .A
`m1 0 ::: ::: 0 1
0 `m2 0 : : : 0 1
0 1
1 0 0 0
B .. .. .. C
B. . .C
B C
@0 ::: ::: 1 0A
0 ::: ::: `m;m 1 1
0 1
1 0 ::: ::: 0 0
B `21 1 ::: ::: 0 0C
B C
B `31 `32 1 ::: 0 0C
= B C:
B .. .. .. .. C
@ . . . .A
`m1 `m2 : : : : : : `m;m 1 1
Entonces 0 1
1 4 0 0
@
L1 M = 0 7 1 1A :
0 7 2 3
Sea 0 1
1 0 0
@
L2 = 0 1 0A :
0 1 1
Entonces 0 1
1 4 0 0
@
L2 L1 M = 0 7 1 1A = U;
0 0 1 2
una matriz triangular superior. Entonces
0 10 1
1 0 0 1 4 0 0
1 1 @
L1 L2 U = 2 1 0 A @ 0 7 1 1A
3 1 1 0 0 1 2
es una factorización LU de M .
Hemos visto en la prueba del teorema 1.16.3 que a lo más necesitamos
m 1 transposiciones y matrices triangulares inferiores elementales para
reducir M a una matriz triangular superior U . En el ejemplo 1.16.5, el número
de renglones m = 3 y así m 1 = 2 y se requirieron dos Li para reducir M
a U . En nuestro próximo ejemplo m > n y requiere menos de (m 1) de las
Li para reducir M a una matriz triangular superior.
Entonces 0 1
1 2
B0 1C
L1 M = B
@0
C:
3A
0 2
Luego sea 0 1
1 0 0 0
B0 1 0 0C
L2 = B
@0
C:
3 1 0A
0 2 0 1
Entonces 0 1
1 2
B0 1C
L 2 L1 M = B C
@0 0A = U
0 0
una matriz triangular superior. Así, una factorización LU de M es como
sigue: 0 1 0 10 1
1 2 1 0 0 0 1 2
B1 3C B1 1 0 0C B0 1C
B C B CB C:
@2 1A = @2 3 1 0A @0 0A
1 4 1 2 0 1 0 0
En este ejemplo, m 1 = 3 y se necesitan dos Li para reducir M a una
matriz triangular superior U .
La siguiente pregunta para pensar es: ¿Qué sucede si las transposiciones
son necesarias para reducir por renglones M a una matriz triangular superior?
Resulta que todavía es posible obtener una factorización LU siempre que
estemos dispuestos a permutar los renglones de M primero. Necesitamos el
lema siguiente.
Lema 1.16.7 Sea L la matriz m m
0 1
1 0 ::: 0 0 ::: ::: 0
B .. .. .. C
B. . . C
B C
B0 : : : : : : 1 0 ::: ::: 0 renglón i C
B C
L = B0 : : : : : : ci+1 1 0 ::: 0 renglón i + 1C :
B. .. .. C
B .. . . C
B C
@0 : : : : : : cm 0 ::: ::: 1 A
columna i
66
Aquí 0 1
0 ::: 0 yi+1
0 B .. .. .. C :
Z = QZ = @ . . . A
0 ::: 0 ym
Por otra parte,
0 10 1
Ii j 0 Ii j 0
L0 E = @ j A@ j A
Z0 j Im i 0 j Q
0 1
Ii j 0
= @ j A:
Z0 j Q
De este modo, EL = L0 E.
Por lo tanto, si L es una matriz triangular inferior elemental y E es
una transposición, que intercambia dos renglones debajo del renglón i-ésimo,
entonces EL = L0 E donde L0 es otra matriz triangular inferior elemental.
Podemos usar esta idea para generalizar nuestra discusión acerca de las fac-
torizaciones LU .
Lm 1 Lm 2 L1 Em 1 Em 2 Em 1 M = U:
Lm 1 L m 2 L1 P M = U:
Lm 1 Lm 2 L1 P M = U;
P M = L1 1 Lm1 1 U
es una factorización LU de P M .
Si 0 1
1 0 0
L = @ 2 1 0A
1 0 1
entonces
0 1 0 1
1 0 1 2 1 0 1 2
LM = @0 0 1 1A y E23 (LM ) = @0 1 3 3 A:
0 1 3 3 0 0 1 1
69
Reduzca P M con
0 1
1 0 0
L = @ 1 1 0A
2 0 1
0 10 1 0 1
1 0 0 1 0 1 2 1 0 1 2
LP M = @ 1 1 0A @ 1 1 2 1A = @0 1 3 3 A = U:
2 0 1 2 0 1 3 0 0 1 1
Terminamos esta sección con una discusión sobre por qué las factoriza-
ciones LU son útiles en las aplicaciones. Supongamos que queremos resolver
una gran cantidad de problemas de la forma M x = b. Aquí M es una matriz
k ` …ja, la misma en todos los problemas, b es un vector columna de tamaño
k que varía de un problema a otro. En esta situación, no tiene sentido hacer
la reducción por renglones de (M j b) una y otra vez conforme b varía. Es
más e…ciente encontrar una factorización LU de alguna permutación de M ,
digamos P M y proceder de la siguiente manera.
Para resolver M x = b.
Los puntos importantes aquí son (c) y (d). Ya que ambas L y U son
matrices triangulares, las ecuaciones Ly = P b y U x = y se pueden resolver
fácilmente.
La factorización LU de M es
0 1 0 10 1
1 4 0 1 0 0 1 4 0
@2 1 1A = @2 1 0A @0 7 1A :
3 5 2 3 1 1 0 0 1
1.17. Ejercicios
1. Muestre que una matriz M de k ` puede tener dos factorizaciones LU
diferentes.
5. Encuente la factorización P M = LU de
0 1
0 7 4 1
B5 3 9 2C
M =B @2
C:
1 0 4A
16 5 11 8
Determinantes
ax + by = p
(2.2)
cx + dy = q;
72
73
MX = b
a b x p
con M = ;X = ;b = . El número ad bc = det(M ).
c d y q
En analogía con esto, y si consideramos la constante a in (2.1) como una
matriz cuadrada de 1 1, entonces el número a, es el determinante de la matriz
(a). Entonces, la ecuación (2.1) y el sistema (2.2) tienen soluciones únicas, es
decir, las matrices asociadas son invertibles, si y solo si sus determinantes no
son cero. Entonces, la pregunta natural es la siguiente: ¿podemos extender
esta condición para cualquier matriz cuadrada M en Mk k (K)? Es decir,
¿podemos mostrar que la matriz M es invertible si y solo si su determinante
no es cero? Antes de responder a esta pregunta, debemos explicar cómo
encontrar el determinante de una matriz cuadrada M en Mk k (K).
De acuerdo con las de…niciones anteriores, el determinante de la matriz
(a) de 1 1 es a, podemos escribir el determinante de la matriz 2 2 como
m11 m12
M=
m21 m22
y reescribir (2.3) como
m11 (m22 m33 m23 m32 ) m12 (m21 m33 m23 m31 )+m13 (m21 m32 m22 m31 ) 6= 0:
Entonces
m22 m23 m21 m23 m21 m22
det M = m11 det m12 det + m13 det
m32 m33 m31 m33 m31 m32
= m11 M11 m12 M12 + m13 M13 ;
y
C32 = ( 1)3+2 M32 = ( 15) = 15
C13 = ( 1)1+3 M13 = 2:
Usando la de…nición de arriba podemos escribir
0 1
m11 m12 m13
@
det m21 m22 m23 A = m11 C11 + m12 C12 + m13 C13 :
m31 m32 m33
Ahora, esta fórmula para el determinante puede ser generalizada a cualquier
matriz cuadrada como sigue.
0 1
m11 m12 m1k
Bm21 m22 m2k C
B C
De…nición 2.1.3 Sea M = B .. .. .. C una matriz de k k.
@ . . . A
mk1 mk2 mkk
Entonces el determinante de M , denotado por det(M ) (algunas veces sim-
plemente como jM j), está dado por
det(M ) = m11 C11 + m12 C12 + + m1k C1k
Xk
= m1j C1j ;
j=1
Ejemplo 2.2.2
0 1
2 3 4
det @0 2 1 A = (2)( 2)( 1) = 4:
0 0 1
para i = 1; 2; : : : ; k.
Demostración Por inducción sobre k. Para k = 2,
m11 m12
M =
m21 m22
det(M ) = m11 C11 + m12 C12 = m11 m22 m12 m21 :
78
j` jp
1
j j mip (cofactor de mip en S1` )(` 6= p) (2.5)
j i
j j
Este es el único lugar en la expansión del det(M ) a lo largo del primer renglón
en que aparece m1` mip .
Ahora si se expande por cofactores en el renglón i de M (donde i 6= 1) el
sumando general es
( 1)i+p mip Mip
79
Ejemplo 2.2.6 0 1
5 4 2
det @ 0 0 0 A = 0:
1 10 1000
Ahora veamos cómo afecta el cálculo del determinante, cuando realizamos
una operación elemental sobre la matriz.
81
0 1
2 4 6
@
Ejemplo 2.2.8 Sea M = 1 3 2A. Entonces
2 1 7
0 1
1 2 3
@
det(M ) = 2 det 1 3 2A = 2( 8) = 16:
2 1 7
82
# intercambios = (j i) + (j i 1)
= 2j 2i 1;
Ejemplo 2.2.12
0 1 0 1
0 a 0 0 b 0 0 0
Bb 0 0 0C B0 a 0 0C
det B
@0
C = det B C
0 0 cA @0 0 0 cA
0 0 d 0 0 0 d 0
0 1
b 0 0 0
B0 a 0 0C
= det B
@0 0
C
d 0A
0 0 0 c
= abcd:
85
Ejemplo 2.2.14 Si 0 1
5 3 p7
M = @4 2A ;
5 3 7
entonces det(M ) = 0.
Ejemplo 2.2.16 El
0 1
5 4 3
det @ 1 2 3 A = 0;
10 8 6
ya que el tercer renglón es igual a 2 veces el primero.
Demostración Sea
0 1
m11 m12 m1k
Bm21 m22 m2k C
B C
B .. .. .. C
B . . . C
B C
B mi1 mi2 mik C
N =B
B ... .. .. C :
B . . CC
Bm mi2 mik C
B i1 C renglón j
B . .. .. C
@ .. . . A
mk1 mk2 mkk
2 0 2 1
reduciéndola a su forma escalonada.
0 1 0 1
2 2 0 4 R21 ( 32 ) 2 2 0 4
B3 3 2 2C R41 ( 1) B0 0 2 4C
det B@0 1 3 2A
C = det B
@0
C
1 3 2A
2 0 2 1 0 2 2 3
0 1
2 2 0 4
R23 B 0 1 3 2C
= det B @0 0 2
C
4A
0 2 2 3
0 1
2 2 0 4
R42 (2) B0 1 3 2 C
= det B
@0 0 2
C
4A
0 0 8 1
0 1
2 2 0 4
R43 ( 4) B0 1 3 2 C
= det B@0 0 2
C
4A
0 0 0 17
= (2)(1)(2)(17) = 68:
Ejemplo 2.3.2
0 1 0 1
1 2 0 0 1 2 0 0
B3 C
2 0 0 C 21
R ( 3) B0 8 0 0C
det B
@0 = det B C
0 1 5A @0 0 1 5A
0 0 7 2 0 0 7 2
0 1
1 2 0 0
R43 ( 7) B0 8 0 0C
= det B @0 0 1
C
5A
0 0 0 37
= ( 8)(37) = 296:
89
Entonces det(U ) = u11 u22 unn . Así, det(U ) 6= 0 si y solo si todos los
elementos de la diagonal son distintos de cero.
Si det(U ) 6= 0, entonces U se puede reducir por renglones a la matriz
identidad I. Para i = 1; 2; : : : ; n, se divide el renglón i de U por uii 6= 0, para
obtener 0 1
1 u012 u01k
B0 1 u02k C
B C
B .. .. .. C
@. . . A
0 0 1
Esta es la forma escalonada por renglones. Multiplicando los pivotes por
constantes adecuadas, vemos que la ferr de U es I y por lo tanto, por el
teorema 1.12.4, U es una matriz invertible.
Supongamos ahora que U es una matriz invertible. Entonces U es equiva-
lente por renglones a la matriz identidad, esto es, existen matrices elementales
tal que
U = E1 E2 Em :
Por el lema 2.4.2, det(U ) = det(E1 E2 Em ) = det(E1 ) det(E2 ) det(Em ) 6=
0.
El teorema anterior es válido para cualquier matriz M .
M = E1 E2 Em U;
det(M N ) = det(E1 E2 Em N )
= det(E1 ) det(E2 ) det(Em ) det(N )
= det(E1 E2 Em ) det(N )
= det(M ) det(N ):
92
5 4 2 1
M= ;N = :
1 2 2 5
7 5
M +N =
3 7
P = Pn P n 1 P 2 P1 ;
1 1
det M = :
det M
93
det M = det U
det M T = det U T = det U:
det M = det M T :
7 2 4 2 4 7
det M = 3 det 5 det 1 det
6 9 8 9 8 6
= 3(75) 5(20) (80) = 405:
3 5 4 7 4 7
det M = 2 det det + 9 det
8 6 8 6 3 5
= 2( 22) 80 + 9( 41) = 405:
94
adj(M ) = C T :
Se tiene que
Así,
dij = mi1 Cj1 + mi2 Cj2 + + mik Cjm : (2.10)
Ahora si i = j, la suma en (2.10) es igual a mi1 Ci1 + mi2 Ci2 + + mik Cik
que es la expansión de det M a lo largo del renglón i. Por otro lado, si i 6= j,
entonces la suma en (2.10) es igual a cero. Por lo tanto
det M si i = j
dij =
0 si i 6= j:
1 1
M = adjM:
det M
96
1 1 1
(M ) adj M = [M (adj M )] = (det M )I = I:
det M det M det M
1 1
De aquí, M = adj M .
det M
Ejemplo 2.4.15 Sea 0 1
3 1 0
M = @1 1 2A :
1 1 1
Como det M = 8, la matriz M es invertible. Del ejemplo 2.4.12 anterior
0 1
3 1 2
adjM = @ 1 3 6A :
2 2 4
Así,
0 1
3 1 2
1@
M 1
= 1 3 6A
8
2 2 4
0 1
3=8 1=8 1=4
= @ 1=8 3=8 3=4 A
1=4 1=4 1=2
m11 m12
Ejemplo 2.4.16 Sea M = . Entonces la matriz de cofactores
m21 m22
m22 m21
de M; C = y por lo tanto
m12 m11
m22 m12
adjM = C T = :
m21 m11
1 1 m22 m12
M = :
det M m21 m11
97
M = LU
M (1) = det(1) = 1
1 2
M (2) = det =5
1 3
M (3) = det(M ) = 33:
M = LU (2.11)
M = L1 U1 = L2 U2 :
L2 1 L1 = U2 U1 1 :
donde c y d están en K k 1
y deben ser determinados. Ahora la fórmula
M = LU , da
Lk 1 Uk 1 Lk 1 c Mk 1 m 1
LU = = :
dT Uk 1 mkk mT2 mkk
Esto implica que
Lk 1 c = m1 y dT Uk 1 = mT2 :
Ya que Lk 1 y Uk 1 son matrices invertibles, entonces c y d están determi-
nados de manera única como
c = Lk 1 1 m1 y dT = mT2 Uk 11 :
Por lo tanto, hemos mostrado que M = LU con L y U únicos y dados como
en (2.12).
El recíproco es claro, ya que si M tiene la factorización (2.12), entonces
si M (`) es el menor principal líder de M de orden `, entonces
M (`) = L(`) U (`) ;
donde L(`) y U (`) son dos menores principales líderes de orden ` de L y U ,
respectivamente. Por consiguiente,
Y
M (`) = ujj
1 j m
2.7. Ejercicios
1. Consider la matriz 0 1
c 2 0
M = @1 c 2A ;
0 1 c
donde c es un número real. Encuentre todos los valores de c, si hay
alguno, para los cuales M es invertible.
2. Sean M y N dos matrices invertibles de k k. Muestre que si
MN = N M;
entonces k es par.
3. (Determinante de Vandermonde) De…nimos el determinante de Vander-
monde V (a1; a2 ; : : : ; ak ) como el determinante de la matriz de Vandermonde
0 1
1 a1 a21 a1n 1
B1 a2 a2 a2n 1 C
B 2 C
Vk = B .. .. .. C : (2.14)
@. . . A
1 ak a2k akn 1
a) Muestre que
det(An ) = an det(An 1 ) bn 1 c n 1 det(An 2 ); n 3:
b) La sucesión de Fibonacci es la sucesión de números 1; 2; 3; 5; 8; 13; : : :
generada por la relación Fn = Fn 1 + Fn 2 ; n 3, con F1 = 1 y
F2 = 2. Muestre que el determinante de la matriz de Fibonacci
0 1
1 1 0 ::: ::: 0
B .. C
B 1 1 1 .C
B C
B0 1 1 1 : : : 0C
Bn = BB ... . . . . . . .. C
B . . . .C C
B . ... ... ... C
@ .. 1A
0 ::: 0 1 1
es el n-ésimo número de Fibonacci Fn .
8. Sea M una matriz de n n y sean A; B; C y D matrices cuadradas de
p p con 2p = n.
a) Muestre que si
A 0p p
M=
0p p D
entonces
det M = det A det D = det(AD): (2.15)
b) Muestre que (2.15) permanece verdadero si M tiene una de las
formas
A 0p p A B
M= oM= :
C D 0p p D
c) Muestre que si M es la matriz escrita en bloques como
A B
M= ;
C D
entonces la fórmula
det M = det(AD BC)
no es verdadera en general.
d) (Fórmula de Schur) Muestre que si D es invertible, entonces
det M = det D det(A BD 1 C):
CAPÍTULO 3
Espacios vectoriales
G G ! G
(a; b) 7! ab
(ab)c = a(bc):
105
106
aa0 = a0 a = e:
ab = ba = e;
ab0 = b0 a = e;
entonces
b0 = b0 e
= b0 (ab)
= (b0 a) b
= (e) b
= b:
a 1 ab = a 1 ac
eb = ec
b = c.
Ejemplo 3.1.4 Uno de los grupos abelianos más simples es el grupo de en-
teros (Z; +) con la adición (+) como la operación binaria. La estructura del
grupo en este conjunto da signi…cado a los enteros negativos como los inver-
sos de los enteros positivos con respecto a la ley de suma (+).
es un grupo abeliano.
V V ! V : (v; w) 7! v + w
(x1 ; x2 ; : : : ; xn )T = ( x1 ; x2 ; : : : ; xn )T o
(x1 ; x2 ; : : : ; xn ) = ( x1 ; x2 ; : : : ; xn ):
Que esta adición y multiplicación escalar cumplen las condiciones 2-5 es fácil
de veri…car, usando las propiedades semejantes de la adición y multiplicación
de los elementos de K.
( A)ij = aij :
Obsérvese que K n 1
= K n.
x + y = (x1 + x2 ; y1 + y2 )
= (x1 + x2 ; m(x1 + x2 )) 2 V:
109
Ejemplo 3.1.12 Una recta que no pasa por el origen no constituye un es-
pacio vectorial. Por ejemplo,
V = (x; y) 2 R2 : y = 2x + 1
y la multiplicación escalar
( f )(s) = f (s); 2 K;
3.2. Ejercicios
1. Una función f de…nida sobre la línea real con valores reales es llamada
una función par (impar) si f ( t) = f (t) (f ( t) = f (t)) para cada
número real t. Pruebe que el conjunto de las funciones pares (impares)
de…nidas sobre la línea real con las operaciones de adición y multi-
plicación escalar de…nidas en el ejemplo 3.1.14 es un espacio vectorial
sobre R.
111
: R + R + ! R+
(x; y) !
7 x y 3
y multiplicación escalar
: R R+ ! R+
( ; x) !
7 x 3 +3
N (M ) = x 2 K ` : M x = 0
es un subespacio de K ` :
M 0 = 0, así 0 2 N (M ):
Si x; y 2 N (M ); M (x + y) = M x + M y = 0 + 0 = 0 y por lo tanto x + y 2 N (M ):
Para x 2 N (M ); M ( x) = M x = 0 = 0, que muestra que x 2 N (M ):
W1 = (x; y; z) 2 R3 : x + y 5z = 0
W2 = (x; y; z) 2 R3 : 5x + 3y + 2z = 0
entonces
W1 \ W2 = N (M );
115
1 1 5
donde M = . La forma escalonada reducida de la matriz aumen-
5 3 2
tada (M j 0) es
1 0 17=2 j 0
:
0 1 27=2 j 0
Si hacemos z = t;
17 27
x= t; y = t; z = t:
2 2
3.4. Ejercicios
1. Sea K un campo y k un entero positivo (k 2). Sea V el espacio
vectorial de todas las matrices k k sobre K. ¿Cuáles de los siguientes
conjuntos de matrices M de V son subespacios de V ?
1 v1 + 2 v2 + + n vn
(ii)
3 2 8 1 0 4 0 1 2
=3 +2 :
1 9 3 1 1 5 2 3 6
(iii) En K[t]n , todo polinomio puedes ser expresado como combinación
lineal de los monomios 1; t; t2 ; : : : ; tn .
v= 1 v1 + 2 v2 + + n vn
117
de vectores wj en S. Entonces
v + w = 1 v1 + 2 v2 + + n vn + 1 w1 + 2 v2 + + m wm
v = ( 1 v1 + 2 v2 + + n vn ) = 1 v1 + 2 v2 + + n vn
0 = 0v1 + 0v2 + + 0vn ;
pertenecen a L. Con lo que L es un subespacio de V .
Se ha demostrado que L es un subespacio de V que contiene a S y también
que todo subespacio que contiene a S contiene a L. Se sigue que L es la
intersección de todos los subespacios que contienen a S; es decir, que L es el
subespacio generado por el conjunto S.
Denotamos al subespacio generado por S como hSi.
1 0 x 1
Ejemplo 3.5.5 (i) i = ;j = generan K 2 , ya que =x +
0 1 0 1 y 0 10
1 0
0
y = xi+yj. Similarmente, K 3 es generado por i = @0A ; j = @1A ; k =
1
0 1 0 0
0
@0A.
1
(ii) K[t]n es generado por 1; t; : : : ; tn .
a b 1 0 0 1 0 0 0 0
(iii) = a +b +c +d , así que
c d 0 0 0 0 1 0 0 1
1 0 0 1 0 0 0 0
; ; y generan K 2 2 .
0 0 0 0 1 0 0 1
(iv) K[t] no es generado por ningún conjunto …nito de polinomios. Supon-
ga que p1 ; p2 ; : : : ; pm son polinomios y sea pk el polinomio de mayor grado
con N = grado pk . Entonces el polinomio p = tN +1 no puede ser escrito como
combinación lineal de p1 ; p2 ; : : : ; pm .
1 3 1 3
(v) R2 = ; . Tenemos que ; R2 . Para la otra
2 4 2 4
x
contención, sea 2 R2 arbitrario. ¿Existen escalares 1 ; 2 2 R tales que
y
x 1 3
= 1 + 2 ?
y 2 4
118
1+3 2 = x
2 1+4 2 = y:
Resolviendo el sistema de ecuaciones, formamos su matriz aumentada
1 3 jx
;
2 4 jy
cuya forma escalonada reducida por renglones es
0 1
3y 4x
B1 0 j 2 C
@ y + 2x A :
0 1 j
2
(vi) Sea W = h(1; 3; 2); (4; 1; 5)i R3 . Entonces (x; y; z) 2 W si y
solo si (x; y; z) = 1 (1; 3; 2) + 2 (4; 1; 5), esto es,
1 +4 2 = x
3 1 2 = y
2 1 5 2 = z:
Resolviendo el sistema de ecuaciones lineales,
0 1
1 4 j x
@3 1 j yA
2 5 j z
encontramos que su forma escalonada reducida por renglones es
0 1
x + 4y
B1 0 j 13 C
B 3x y C
B0 1 j C:
B 13 C
@ 17x + 3y + 13z A
0 0 j
13
17x + 3y + 13z
El sistema tiene solución si y solo si = 0, i.e., 17x + 3y +
13
13z = 0 que es la ecuación de un plano que pasa por el origen. En general,
el espacio generado por dos vectores diferentes de cero en R3 que no son
paralelos es un plano que pasa por el origen.
119
v = 1 v1 + 2 v2 + + n vn
= 1 v1 + 2 v2 + + n vn + 0 vn+1 :
v1 + v2 + + vk
W = W1 + W2 + + Wk
x y
z 0
x 0
0 y
x 0
:
0 0
3.6. Ejercicios
1. Sean v1 = (x1 ; y1 ; z1 ) y v2 = (x2 ; y2 ; z2 ) en R3 . Demuestre que si v2 =
v1 ; 2 R, entonces hv1 ; v2 i es una recta que pasa por el origen.
3. Muestre que si
1 0 0 0 0 1
M1 = ; M2 = y M3 = ;
0 0 0 1 1 0
2v1 v2 = 0:
1 v1 + 2 v2 = 0
2
v1 = v2
1
1 = 0
2 = 0
1 + 3 = 0
3 1 4 j0
2 10 5 j 0
1 sen x+ 2 cos x = 0
1 v1 + 2 v2 + + n vn + ( 1)v = 0:
Ya que v 6= vi para i = 1; 2; : : : ; n, el coe…ciente de v en esta combinación
lineal es distinto de cero y por lo tanto el conjunto fv1 ; v2 ; : : : ; vn ; vg es lin-
ealmente dependiente. Por lo tanto, S [ fvg es linealmente dependiente.
La teoría de sistemas homogéneos nos habla acerca de la dependencia o
independencia lineal de los vectores.
3.8. Ejercicios
1. ¿Para
0 1 qué
0 valores
1 0 de 1 y serán linealmente independientes los vectores
3 2
@2A ; @ 1A ; @ 5 A?
1 2
Ejemplo 3.9.3 (i) La base canónica de K[t] es f1; t; t2 ; : : :g. Este ejemplo
muestra que una base no es necesariamente …nita.
129
v= 1 v1 + 2 v2 + + n vn ;
Suponga que
v = 1 v1 + 2 v2 + + n vn
= 1 v1 + 2 v2 + + n vn + n+1 w1 + + m wm ;
n m; 1 ; 2 ; : : : ; n ; 1 ; 2 ; : : : ; m escalares y v1 ; v2 ; : : : ; vn ; w1 ; : : : ; wm vec-
tores distintos en B son dos representaciones de v. Entonces
1 w1 + + n wn = 1 (a11 v1
+ a21 v2 + + am1 vm ) + +
+ n (a1n v1 + a2n v2 + + amn vm )
= (a11 1 + + a1n n )v1 + + (am1 1 + + am1n n )vm
= 0v1 + + 0vm
= 0:
Corolario 3.9.7 Sea V un espacio vectorial teniendo una base …nita. En-
tonces cada base de B contiene el mismo número de vectores.
Demostración Suponga que B es una base …nita de V que contiene exacta-
mente m vectores. Por el teorema anterior toda base de V es …nita y contiene
no más de m elementos. Así si B 0 es una base con n elementos n m. Por
el mismo razonamiento, m n. Por lo tanto, n = m.
Esta propiedad hace posible las siguientes de…niciones.
S = f(2; 3; 5); (8; 12; 20); (1; 0; 2); (0; 2; 1); (7; 2; 0)g :
y por lo tanto, los vectores (2; 3; 5); (1; 0; 2); (0; 2; 1) son linealmente in-
dependientes, así que incluimos (0; 2; 1) en nuestra base. Para el vector …nal
en S;
vm+1 = 1 v1 + 2 v2 + + m vm + 1 w1 + 2 w2 + + n m wn m : (3.2)
fv1 ; v2 ; : : : ; vm ; w1 ; w2 ; : : : ; wn mg hL [ Hi
( 8a+5b+3c)(t2 +3t 2)+(4a 2b c)(2t2 +5t 3)+( a+b+c)( t2 4t+4) = at2 +bt+c:
Ahora S es linealmente dependiente, pues contiene más de tres vectores (dim R[t]2 =
3) y reducimos este conjunto a una base. Ya que
1 1
1 = (1 + t) + (1 t)
2 2
1 1
t = (1 + t) (1 t);
2 2
los descartamos y por lo tanto, f1 + t; 1 t; t2 g es una base de R[t]2 que
contiene a f1 + t; 1 tg.
x = sa1 + ta2
y = sb1 + tb2
z = sc1 + tc2 :
Sea w3 = ( ; ; ) = w1 w2 . De aquí,
w3 (x; y; z) = x + y + z
= (sa1 + ta2 ) + (sb1 + tb2 ) + (sc1 + tc2 )
= ( a1 + b1 + c1 )s + ( a2 + b2 + c21 )t
= (w3 w1 )s + (w3 w2 )t = 0:
Por lo tanto, W es un plano que pasa por el origen con vector normal w3 .
3.10. Ejercicios
1. Sea V el espacio de las matrices 2 2 sobre K. Hallar una base
fA1 ; A2 ; A3 ; A4 g de V , de matrices idempotentes, esto es A2j = Aj para
cada j.
137
1 1
Ejemplo 3.11.2 Los vectores v1 = ; v2 = forman una base de R2 ,
0 1
1 1 x
ya que det = 1 6= 0. Sea v 2 R2 ; v = . Entonces
0 1 y
1 1 x
1 + 2 =
0 1 y
o bien,
1 1 jx
0 1 jy
cuya forma escalonada reducida por renglones es
1 0 j x y
0 1 j y
de donde 1 =x y; 2 = y, i.e.,
x y
[v]B =
y
1 1 1 1
como por ejemplo = . Comprobación: = 1 +
2 B
2 2 0
1
2 .
1
Kn
[ ]B % j
V j !MB;B 0
[ ]B 0 & #
Kn
140
de modo tal que el diagrama sea conmutativo, esto es, MB;B 0 [v]B = [v]B 0 .
Para que esto último se cumpla, si v = vj entonces
0 1
0
B .. C
B.C
B C
MB;B 0 [vj ]B = MB;B 0 B1C
B.C renglón j
@ .. A
0
= columna j de MB;B 0
= [vj ]B 0 :
Así que si
X
n
vj = aij wi ; 1 j n
i=1
3 2 5
= a11 + a21
1 4 3
2 2 5
= a12 + a22 ;
1 4 3
esto es,
2a11 5a21 = 3
4a11 + 3a21 = 1
2a12 5a22 = 2
4a12 + 3a22 = 1:
141
2 5 j 3 2
;
4 3 j 1 1
1 0 j 7=13 1=26
:
0 1 j 5=13 5=13
Por lo tanto,
7=13 1=26
MB;B 0 = :
5=13 5=13
7
Por ejemplo sea v = . Entonces
4
7 3 2
= 1 + 2 ;
4 1 1
esto es,
3 1 +2 2 = 7
1 2 = 4:
7 7
= MB;B 0
4 B0
4 B
7=13 1=26 3
=
5=13 5=13 1
41=26
= :
20=26
7 41 2 20 5
Comprobación: = .
4 26 4 26 3
142
X
n
wj = pij vi ; j = 1; : : : ; n:
i=1
Entonces
!
X
n X
n X
n
ajk wj = ajk pij vi
j=1 j=1 i=1
Xn Xn
= pij ajk vi
j=1 i=1
!
X
n X
n
= pij ajk vi
i=1 j=1
X
n
= (In )ik vi
i=1
= vk :
144
B 0 = fw1 ; w2 ; : : : ; wn g
cos sen
A=
sen cos
1 cos sen
P =A = :
sen cos
es una base de R2 ; intuitivamente esta base puede ser descrita como la obteni-
x
da por rotación de un ángulo de la base canónica. Si 2 R2 ,
y
3.12. Ejercicios
1. Sea C la base canónica de K n y B = fv1 ; v2 ; : : : ; vn g cualquier otra
base. Sea A = [v1 j v2 j j vn ] la matriz cuyas columnas son los
vectores de B. Demuestre que la matriz de transición MC;B = A 1 .
Demostración Por el corolario 3.9.17, W1 \W2 tiene una base …nita fu1 ; : : : ; uk g
que es parte de la base
fu1 ; : : : ; uk ; v1 ; : : : ; vm g
para W1 y parte de la base
fu1 ; : : : ; uk ; w1 ; : : : ; wn g
para W2 . El subespacio W1 + W2 es generado por los vectores
u1 ; : : : ; uk ; v1 ; : : : ; vm ; w1 ; : : : ; wn
y estos vectores forman un conjunto independiente. En efecto, supóngase que
X X X
i ui + j vj + r wr = 0:
Entonces X X X
u
i i +r wr = j vj
P P
que muestra que r wr 2 W1 . Como r wr también pertenece a W2 , se
sigue que X X
w
r r = i ui
y como
fu1 ; : : : ; uk ; v1 ; : : : ; vm g
es también un conjunto independiente, cada i = 0 y cada j = 0. De este
modo,
fu1 ; : : : ; uk ; v1 ; : : : ; vm ; w1 ; : : : ; wn g
es una base para W1 + W2 . Finalmente,
dim W1 + dim W2 = (k + m) + (k + n)
= k + (m + k + n)
= dim(W1 \ W2 ) + dim(W1 + W2 ):
147
y n o
T
W2 = x y z 2 R3 : 2x y+z =0
w1 + + wk = 0; wi 2 Wi
implica que wi es 0.
El signi…cado de independencia es el siguiente.
= w1 + + wk ; wi 2 Wi
= w10 + + wk0 ; wi0 2 Wi
148
Wj \ (W1 + + Wj 1 ) = f0g :
w = w1 + + wj 1 :
Como
w1 + + wj 1 w+0+ +0=0
y W1 ; : : : ; Wk son independientes, debe tenerse que w1 = = wj 1 = w = 0.
Ahora (ii) implica (i). Supóngase que
0 = w1 + + wk ; wi 2 Wi :
0 = w1 + + wj ; wj 6= 0:
w1 + + wk = 0
que tenemos entre los vectores en B es la relación trivial. Suponga ahora (iii)
y que
w1 + + wk = 0; wi 2 Wi :
Entonces cada wi es una combinación lineal de los elementos de Bi y como
B es una base, wi = 0; 1 i n.
Si cualquiera (y, por lo tanto, todas) de las condiciones del último lema
se cumple, se dice que la suma W = W1 + + Wk es directa o que W es la
suma directa (interna) de W1 ; : : : ; Wk y se escribe
W = W1 Wk :
A = A1 + A 2
1
A1 = (A + AT )
2
1
A2 = (A AT ):
2
Ejemplo 3.13.8 Sea V = K[t] y sean
W1 = fp 2 V : p(1) = p( 1) = 0g = q(t2 1) : q 2 V
W2 = K[t]1 = fa + btg :
Entonces V = W1 W2 :
q
(t2 1) j p
r
2
p = (t 1)q + r, grado r < 2. Como el cociente y el residuo son únicos, la
descomposición es única y, por ello, la suma es directa.
150
3.14. Ejercicios
1. Sea W un subespacio de Rn y sea
W ? = v 2 Rn : v T w = 0 para todo w 2 W :
a a
b c
x y
:
x z
Hallar la dimensión de W1 ; W2 ; W1 \ W2 y W1 + W2 .
V =W Z:
b) De…na
V1 = V f0W g
W1 = f0V g W:
V W = V1 W1 :
CAPÍTULO 4
Transformaciones lineales
para todo a; b 2 G.
152
153
Finalmente, observe que esta fórmula es válida para (a1 ; a2 ) = (0; 0). La
cos sen
matriz es llamada matriz de rotación.
sen cos
T (A + B) = (A + B)T
= AT + B T
= T (A) + T (B) y
T ( A) = ( A)T
= AT
= T (A):
T ( 1 v1 + 2 v2 ) = T ( 1 v1 ) + T ( 2 v2 )
= 1 T (v1 ) + 2 T (v2 ):
Entonces T ( 1 v1 + + n 1 vn 1 + n vn ) = T ( 1 v1 + + n 1 vn 1 )+T ( n vn ).
Por hipótesis de inducción, T ( 1 v1 + + n 1 vn 1 ) = 1 T (v1 ) + +
n 1 T (v n 1 ). De aquí,
T ( 1 v1 + + n 1 vn 1 + n vn ) = 1 T (v1 ) + + n 1 T (vn 1 ) + T ( n vn )
= 1 T (v1 ) + + n 1 T (vn 1 ) + n T (vn ):
Xn X
n
T( i vi ) = i T (vi ) =0
i=1 i=1
que da una relación de dependencia lineal del conjunto fT (v1 ); T (v2 ); : : : ; T (vn )g.
4.2. Ejercicios
1. ¿Existe una transformación lineal T de R3 en R2 tal que T (1; 1; 1) =
(1; 0) y T (1; 1; 1) = (0; 1)?
2. Si
T (A) = AB BA
Para cada j,
X
m X
n
U (vj ) = apq E p;q (vj )
p=1 q=1
Xm X n
= apq jq wp
p=1 q=1
Xm
= apj wp
p=1
= T (vj )
X
m X
n
U= apq E p;q
p=1 q=1
X
m
apj wp = 0
p=1
Comentario 4.3.4 Así, por el teorema 4.3.2, el espacio L(V ) tiene una
“multiplicación” de…nida por composición. En este caso el operador T U
161
Tn = T T T (n veces),
T 0 = 1V si T 6= 0.
(U T )(x) = U (T (x))
= U (Ax)
= B(Ax)
= (BA)x:
4.4. Ejercicios
1. Encontrar dos operadores lineales T y U sobre R2 tales que T U = 0,
pero que U T 6= 0.
162
y es un subgrupo de G0 .
puede ser descrito también como la imagen inversa ' 1 (10 ) del elemento
identidad. El núcleo es un subgrupo de G, porque si a; b 2 ker ('),
de aquí ab 2 ker ('), etc. También ker ' 6= ; pues '(1) = 10 , esto es, 1 2 ker '.
i (T vi ) = 0:
i=k+1
Entonces !
X
n
T i vi =0
i=k+1
P
y en consecuencia, v = ni=k+1 i vi 2 ker T . Como fv1 ; : : : ; vk g es una base
de ker T , debe existir escalares 1 ; : : : ; k tales que
X
k
v= i vi :
i=1
164
De aquí,
X
k X
n
i vi i vi =0
i=1 i=k+1
1 = = k = k+1 = = n = 0:
4.6. Ejercicios
1. Sea V un espacio vectorial sobre un campo K. Sea T 2 L(V ) tal que
T 2 = T . Una transformación lineal satisfaciendo esta propiedad es lla-
mada una proyección. Muestre que
T (x1 ; x2 ; : : : ; xn ) = (x1 + xn ; x2 + xn 1 ; : : : ; xn + x1 ):
b) T 2 = 0L(V ) .
a) ker(T ) = Im(T ).
n
b) T 2 = 0L(E) y rango(T ) = .
2
6. Sean V y W dos espacios vectoriales de dimensión …nita sobre el mismo
campo K. Sean T y U 2 L(V; W ).
T :V !W
T (1; 0; 0) = (1; 1; 0; 1)
T (0; 1; 0) = (0; 1; 1; 1)
T (0; 0; 1) = (0; 0; 1; 1);
x
Ejemplo 4.7.6 La transformación lineal T : R2 ! R3 dada por T =
0 1 0 1 y
x 0
@y A no es sobre (3 > 2) y, e.g., @0A 2
= Im T .
0 1
Sean G y G0 dos grupos. Queremos decir que son isomorfos si todas las
propiedades de la estructura de grupo de G se sostienen para G0 también.
Por ejemplo, sea G el conjunto de las matrices reales de la forma
1 x
:
0 1
1 x 1 y 1 x+y
= :
0 1 0 1 0 1
G ! G0
T :V !W
[ ]B : V ! K n
que a cada vector le asocia sus coordenadas con respecto a la base ordenada
B, como vimos en la sección 3.11, es una transformación lineal inyectiva y
de aquí, por el teorema 4.7.13, una biyección.
Es frecuente considerar a los espacios vectoriales isomorfos como si fueran
“el mismo”, aunque los vectores y las operaciones en los espacios sean muy
diferentes; es decir, a menudo se identi…can espacios isomorfos.
4.8. Ejercicios
1. Sea T un operador lineal sobre el espacio V de dimensión …nita. Supon-
ga que existe un operador lineal U sobre V tal que U T = 1V . Demostrar
que T es invertible y que U = T 1 .
2. Demostrar que K m n
es isomorfo a K mn .
4.9. Rango
Recuerde que si A una matriz m n sobre el campo K, los vectores renglón
de A son los vectores de K n dados por A1 ; A2 ; : : : ; Am . El subespacio de
K n generado por los renglones de A es llamado el espacio de renglones de A.
El rango de renglones de A es la dimensión del espacio de renglones de A. Los
vectores columna de A son los vectores de K m dados por A 1 ; A 2 ; : : : ; A n .
El subespacio de K m generado por las columnas de A es llamado el espacio
de columnas de A. El rango de columnas de A es la dimensión del espacio de
columnas de A.
Si P es una matriz k m sobre K, entonces el producto B = P A es
una matriz k n cuyos vectores renglón B1 ; B2 ; : : : ; Bk son combinaciones
lineales
Bi = pi1 A1 + pi2 A2 + + pim Am
de los vectores renglón de A. Así el espacio de renglones de B es un subespacio
del espacio de renglones de A. Si P es una matriz invertible m m, entonces
B es equivalente por renglones a A, de modo que la igualdad A = P 1 B,
implica que el espacio de renglones de A es también un subespacio del espacio
de renglones de B.
De manera similar, si B es equivalente por columnas a A, esto es, existe
una matriz invertible Q tal que B = AQ, entonces B y A tienen el mismo
espacio de columnas.
Teorema 4.9.2 Sea R una matriz escalonada no nula reducida por ren-
glones. Entonces los vectores renglón no nulos de R forman una base del
espacio de renglones de R.
Demostración Sean R1 ; : : : ; Rr los vectores renglón no nulos de R
Ri = (ri1 ; : : : ; rin ):
= 1 R1 + + r Rr :
X
r
b kj = i ri;kj
i=1
Xr
= i ij
i=1
= j;
y 6= 0, podemos escribir
X
r
= bki Ri ; bks 6= 0:
i=s
= (0; : : : ; 0; bt ; : : : ; bn ); bt 6= 0:
Esto no es coincidencia.
177
Nj= 1 N i1 + 2 N i2 + + s N is ;
entonces
Mj= 1 M i1 + 2 M i2 + + s M is :
1
Demostración De la hipótesis se sigue que M = P N . Entonces
M j = columna j de la matriz P 1 N
= P 1N j
= P 1 ( 1 N i1 + 2 N i2 + + s N is )
1 1
= 1 P N i1 + 2 P N i2 + + sP 1N is
= 1 M i1 + 2 M i2 + + s M is :
Rj= 1 R i1 + 2 R i2 + + s R is ;
y claramente
0 1 0 1 0 1
1 0 0
B0C B1C B0C
B.C B.C B.C
B.C B.C B.C
B.C B.C B.C
B C B C B C
R i1 = B0C ; R i2 = B0C ; : : : ; R is = B1C :
B C B C B C
B0C B0C B0C
B.C B.C B.C
@ .. A @ .. A @ .. A
0 0 0
(ii) Como M y R son equivalentes por renglones, existe una matriz invertible
P tal que R = P M . El resultado se sigue aplicando el lema 4.9.8 anterior y
el inciso (i).
Entonces las columnas uno y tres de M son columnas básicas. Dado que
R 2 = 5R 1 y R 4 = 8R 1 + 3R 3 , se sigue que las columnas 2 y 4 de M
179
De este modo, 0 1
2 10 4 4
M= @ 3 15 2 30 A :
2 10 5 1
0 0 0 j d , con d 6= 0;
b = s1 M 1 + s2 M 2 + + s` M `
= M s;
T
donde s = s1 s2 s` . Eso muestra que s es una solucióndel sistema
M x = b y por lo tanto el sistema es consistente.
De acuerdo al teorema 4.9.11 anterior, el espacio generado por las colum-
nas de M es el mismo que el espacio generado por las columnas básicas de
M.
1 1 1
Ejemplo 4.9.12 Sea M = . Entonces su forma escalonada
1
1 1
1 1 1
reducida por renglones es R = . De aquí, rango(M ) = 1. Si
0 0 0
1 1 1 1 1
b= , la forma escalonada reducida de [M jb] es y así,
1 0 0 0 0
rango(M jb) = 1. De acuerdo con el teorema 4.9.11, el sistema M x = b tiene
2
solución. Por otro lado si tomamos b = ; [M jb] tiene rango dos y por lo
3
tanto, en este caso, el sistema M x = b no tiene solución.
Si b = 0, entonces claramente, rango([M jb]) = rango(M ) y por lo tanto,
el sistema de ecuaciones lineales homogéneo M x = 0, siempre tiene solución.
Desde luego, x = 0 es una solución, la trivial. Para sistemas de ecuaciones
homógeneos tenemos el criterio siguiente.
Ejemplo 4.9.15 Si 0 1
1 17 1
M= @ 0 1 1 A;
1 1 11
su forma escalonada reducida por renglones es
0 1
1 0 0
R = @0 1 0A :
0 0 1
Ax = x1 A 1 + x2 A 2 + + xn A n
Supóngase que los pivotes no nulos de los renglones no nulos están en las
columnas k1 ; : : : ; kr . Sea J el conjunto de los n r índices diferentes de
k1 ; : : : ; k r :
J = f1; : : : ; ng fk1 ; : : : ; kr g :
El sistema Rx = 0 tiene la forma
X
x k1 + c1j xj = 0
j2J
..
.
X
x kr + crj xj = 0
j2J
donde los cij 2 K son ciertos escalares. Todas las soluciones se obtienen
asignando (arbitrariamente) valores a aquellos xj con j 2 J y calculando los
valores correspondientes de xk1 ; : : : ; xkr . Para cada j 2 J, sea Ej la solución
obtenida al hacer xj = 1 y xi = 0 para todos los otros i de J. A…rmamos que
los n r vectores Ej ; j 2 J forman una base del espacio nulo de A.
Como el vector columna Ej tiene un 1 en el renglón j y ceros en los
renglones J fjg restantes, el conjunto de estos 0 vectores
1 es linealmente
x1
n B .. C
independiente. Si x 2 K es tal que Rx = 0; x = @ . A entonces
xn
X
y= xj Ej
x1 + 2x2 + 3x4 = 0
x3 + 4x4 = 0
x5 = 0:
También,
Ir 0
;
0 0
Ir J Ir J Ir 0
P M Q1 Q2 = = ;
0 0 0 I 0 0
1. det(M ) 6= 0.
2. rango(M ) = k.
B 0 = fM 1 ; M 2 ; : : : ; M r ; er+1 ; : : : ; ek g
Ya que MB 0 ;C es invertible,
0 1
m11 m12 m1r
Bm21 m22 m2r C
B C
det(MB 0 ;C ) = det B .. .. .. C 6= 0:
@ . . . A
mr1 mr2 mrr
Recíprocamente, asuma que existe un menor distinto de cero de orden r de
la matriz M y que el menor correspondiente a los renglones i1 ; i2 ; : : : ; ir es
distinto de cero, esto es el determinante de la matriz
0 1
mi1 1 mi1 2 mi1 r
Bm i 1 m i 2 mi2 r C
B 2 2 C
N = B .. .. .. C
@ . . . A
mir 1 mir 2 mir r
no es cero. Suponga que
1M 1 + 2M 2 + + rM r = 0: (4.3)
Ahora, como antes,
X
k
Mj= mij ei ; 1 j k: (4.4)
i=1
Entonces, teniendo en cuenta (4.4), tenemos que (4.3) puede ser expresado
como un sistema lineal de la forma
0 10 1
m11 m12 m1r 1
Bm21 m22 C B
m2r C B 2 C
B C
B .. .. .. C B .. C = 0:
@ . . . A@ . A
mk1 mk2 mkr r
4.10. Ejercicios
1. La forma escalonada reducida por renglones de una matriz M es
0 1
1 2 0 4 2 0 5 1 0
B0 0 1 5 3 0 4 1 2C
B C
R=B B0 0 0 0 0 1 1 1 4CC:
@0 0 0 0 0 0 0 0 0A
0 0 0 0 0 0 0 0 0
Encuentre la matriz M .
Nj= 1 N j1 + + s N js :
Pruebe que
(M N ) j = 1 (M N ) j1 + + s (M N ) js :
1. El espacio de columnas de A,
2. El espacio nulo de A,
N (A) = ker TA = fx 2 K n : Ax = 0g :
4. El espacio de renglones de A,
Teorema 4.11.1 Si A 2 Rm n
, entonces:
Rm = R(A) N (AT )
Rn = N (A) R(AT ):
xT x = (Az)T x = (z T AT )x = z T (AT x) = z T 0 = 0;
Ahora, como R(A) \ N (AT ) = f0g para cualquier matriz A, tenemos que
R(AT ) \ N (A) = f0g y, de manera análoga al caso anterior, se demuestra la
segunda igualdad.
Para obtener las bases del espacio de columnas de A y el espacio nulo
izquierdo de A, ya que los renglones de AT son las columnas de A, podemos
usar la forma escalonada reducida de AT y proceder de la misma manera en
que encontramos bases para el espacio de renglones de A y el espacio nulo de
A. Sin embargo, tenemos el teorema siguiente que permite encontrar estas
bases más rápidamente.
4.12. Ejercicios
1. Sea A 2 Rm n . Pruebe que N (AT ) R(A)? y R(A) N (AT )? (ver
ejercicio 1 de la sección 3.14).
i zi = i xi ;
i=1 i=1
es decir,
X
t X
s
i zi i xi = 0:
i=1 i=1
(ii) Hemos visto ya que R(AB) R(A) y por lo tanto R(AT A) R(AT ).
De acuerdo con el inciso anterior tenemos que
4.14. Ejercicios
1. Sean A; B 2 K m n
. Pruebe las siguientes desigualdades:
1. v v mod W , ya que v v = 0 2 W.
v + W:
: V ! V =W
v !
7 v + W:
W 0 ; en efecto, suponga que w10 y w20 son vectores de W 0 y que (w10 ) = (w20 ).
Entonces (w10 w20 ) = 0, con lo que w10 w20 está en W . Este vector también
está en W 0 ; pero W \ W 0 = f0g, luego w10 w20 = 0. La restricción de a
W 0 es por tanto, un isomor…smo de W 0 con V =W .
Ahora suponga que W 0 es un subespacio de V tal que sea inyectiva en
W 0 y que (W 0 ) = V =W . Sea v 2 V . Entonces existe un vector w0 de W 0 tal
que (w0 ) = (v); es decir, w0 + W = v + W . Esto quiere decir que v = w + w0
para algún w 2 W . Por lo tanto, V = W + W 0 . Para ver que W \ W 0 = f0g,
suponga que v 2 W \ W 0 :Como v 2 W , se tiene que (v) = 0. Pero es
inyectiva en W ’y entonces debemos tener que v = 0. Por lo tanto, tenemos
que V = W W 0 .
Lo que realmente dice este teorema es que W 0 es complementario de W
sy y solo si W 0 es un subespacio que contiene exactamente un elemento de
cada clase lateral de W . Muestra que cuando V = W W 0 , la transformación
cociente “identi…ca” W 0 con V =W . En resumen, W W 0 =W es isomorfo
de W 0 de un modo “natural”.
Debemos notar otro hecho obvio. Si W es un subespacio del espacio vec-
torial de dimensión …nita V , entonces
Se puede ver esto del teorema anterior. Tal vez es más fácil observar que lo
que esta fórmula dimensional dice es que
4.16. Ejercicios
1. Sea W un subespacio de un espacio vectorial V de dimensión …nita y
considere la base fw1 ; w2 ; : : : ; wk g de W . Si fw1 ; w2 ; : : : ; wk ; vk+1 ; : : : ; vn g
es una extensión de esta base a una base de V , pruebe que
fvk+1 + W; vk+2 + W; : : : ; vn + W g
es una base de V =W .
U=(U \ W ) = (U + W )=W:
(V =W ) = (U=W ) = V =U:
BIBLIOGRAFÍA
[2] Friedeberg S.H., Insel A.J., Spence L.A., Linear Algebra, Fifth Edition,
Pearson, 2019.
[3] Grossman S.I., Flores Godoy J.J., Álgebra Lineal, Séptima Edición,
McGraw-Hill, 2012.
[4] Ho¤man K., Kunze R., Linear Algebra, Second Edition, Pearson, 2018.
[6] Lara Rodríguez J.A., Rubio Barrios C.J., Álgebra Lineal, Ediciones de la
Universidad Autónoma de Yucatán, 2011.
204