Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Topicosenalgebralineal PDF
Topicosenalgebralineal PDF
en Álgebra Lineal
Departamento de Matemáticas
Universidad del Valle
Índice general
Introducción 1
Capítulo 1. Prerrequisitos 1
1.1. Matrices 1
1.2. Espacios vectoriales 7
1.3. Transformaciones lineales 16
1.4. Espacios fundamentales de una Matriz. Rango de una matriz.
Sistemas de ecuaciones lineales 20
Bibliografía 233
ii
Índice de guras
1.1. Transformación lineal 22
8.3. Gráca de una recta que pasa por los puntos P y Q. 218
iii
CAPÍTULO 1
Prerrequisitos
1.1. Matrices
Una matriz nula es una matriz cuyos elementos son todos nulos. Una
matriz nula será denotada por 0 (0m×n denotará la matriz nula m × n.)
hAiij = hBiij ; i = 1, 2, . . . , m, j = 1, 2, . . . , n.
La suma A+B de dos matrices A y B de tamaño m × n, es la matriz
m×n tal que:
−1
1. La matriz A−1 es invertible y A−1 = A.
2. La matriz AB es invertible y (AB)−1 = B −1 A−1 .
3. La matriz αA es invertible y (αA)−1 = α−1 A−1 .
det(A) = ad − bc.
4
Prerrequisitos 1.1. Matrices
1. |A| = |AT | .
2. Si A tiene una la nula, entonces |A| = 0.
3. Si las matrices A y B dieren únicamente en sus k-ésimas las
y si dichas las satisfacen la igualdad Ak = α · B k , entonces
|A| = α|B|.
4. Si α es un escalar, entonces |αA| = αn |A|.
5. Si A, B y C dieren únicamente en la k-ésima la y si Ck =
Ak + Bk , entonces |C| = |A| + |B|.
6. Si A tiene dos las iguales, entonces |A| = 0.
7. Si B se obtiene al intercambiar dos las de A, entonces |B| =
−|A|.
8. El determinante de una matriz no cambia si los elementos de la
i-ésima la son multiplicados por un escalar α y los resultados
son sumados a los correspondientes elementos de la k-ésima la,
parak 6= i.
9. |AB| = |A||B|.
Nota. Por (1), cualquier proposición sobre |A| que sea verdadera en las
las de A es también verdadera para las columnas de A.
5
1.1. Matrices Prerrequisitos
Una matriz elemental por las (columnas) es aquella que resulta de efec-
tuar una operación elemental sobre las las (columnas) de una matriz
identidad.
1.1.8. Teorema.
1. Cada matriz elemental es invertible. Además, la inversa de cada
matriz elemental es una matriz elemental.
2. Sea A una matriz m × n. Si B es una matriz que resulta al
efectuar una operación elemental sobre las las de A y si E es
la matriz elemental que resulta de efectuar la misma operación
elemental sobre las las de la matriz idéntica Im , entonces E·
A = B.
3. Sea A una matriz m × n. Si B es una matriz que resulta al
efectuar una operación elemental sobre las columnas de A y si E
es la matriz elemental que resulta de efectuar la misma operación
elemental sobre las columnas de la matriz idéntica In , entonces
A · E = B.
1.1.9. Denición (Forma escalonada reducida). Se dice que una matriz R
tiene la forma escalonada reducida, si satisface las siguientes condiciones:
6
Prerrequisitos 1.2. Espacios vectoriales
1.1.10. Teorema. Para toda matriz A existen: una única matriz R que
tiene la forma escalonada reducida y un número nito de matrices ele-
mentales por las E1 , E2 , . . . , Ek tales que:
Ek · · · E2 · E1 · A = R .
Los dos últimos teoremas dan lugar a un método para decidir cuándo una
matriz cuadrada A es invertible, y simultáneamente proveen un algoritmo
para calcular su inversa.
7
1.2. Espacios vectoriales Prerrequisitos
(i) Si u ∈ V y v ∈ V , entonces u + v ∈ V .
(ii) Si u ∈ V y v ∈ V , entonces u + v = v + u.
(iii) Si u ∈ V , v ∈ V y w ∈ V , entonces
(u + v) + w = u + (v + w) = u + v + w.
(iv) Existe un vector 0∈V tal que para todo u∈V , u+0 = 0+u =
u.
(v) Si u∈V, entonces existe un vector −u ∈ V tal que
u + (−u) = (−u) + u = 0.
(vi) Si u ∈ V y α es un escalar, αu ∈ V .
(vii) Si u ∈ V y α, β son escalares, entonces (αβ)u = α(βu) =
β(αu).
(viii) Si u ∈ V y α, β son escalares, entonces (α + β)u = αu + βu.
(ix) Si u ∈ V y v ∈ V y α es un escalar, entonces α(u+v) = αu+αv.
(x) Si u ∈ V , entonces 1u = u.
8
Prerrequisitos 1.2. Espacios vectoriales
1. Si u∈W y v ∈ W , entonces u + v ∈ W .
2. Si u∈W y α ∈ R, entonces αu ∈ W .
9
1.2. Espacios vectoriales Prerrequisitos
U + W = {v ∈ V : v = u + w, con u∈U y w ∈ W} ,
es un subespacio vectorial de V.
1.2.8. Teorema. Sea C un conjunto no vacío de vectores de un espacio
vectorial V . El conjunto de todas las combinaciones lineales de los vectores
de C;
( k
)
X
W = v∈V : v= αi vi ; k ∈ N, vi ∈ C y αi ∈ R, i = 1, 2, . . . , k
i=1
es un subespacio de V.
1.2.9. Denición .
(Independencia lineal) Sea C = {v1 , v2 , . . . , vn } un
conjunto C de vectores (distintos) de un espacio vectorial V . Se dice que
C es linealmente dependiente o que los vectores v1 , v2 , . . . , vn son lin-
ealmente dependientes, si existen escalares α1 , α2 , . . . , αn no todos nulos
tales que:
n
X
0 = α1 v1 + α2 v2 + · · · + αn vn = αi vi ,
i=1
en caso contrario, se dice que C es linealmente independiente o que los
vectores v1 , v2 , . . . , vn son linealmente independientes. Es decir, C es
10
Prerrequisitos 1.2. Espacios vectoriales
α1 = α2 = . . . , = αn = 0 .
1.2.10. Teorema. En un espacio vectorial V se tiene:
11
1.2. Espacios vectoriales Prerrequisitos
L = {v ∈ V : v = v0 + w, w ∈ W } ,
si dim W = k, se dice que la variedad lineal L tiene dimensión k.
12
Prerrequisitos 1.2. Espacios vectoriales
1.2.17. Denición .
(Base ordenada) Si v1 , v2 , . . . , vn es una sucesión
nita de vectores linealmente independientes de un espacio vectorial V,
que generan a V , entonces diremos que B = {v1 , v2 , . . . , vn } es una
base ordenada de V.
1.2.18. Teorema. Si B = {v1 , v2 , . . . , vn } es una base ordenada de V ,
entonces para cada vector v ∈ V existen escalares α1 , α2 , . . . , αn únicos
tales que
n
X
v = α1 v1 + α2 v2 + · · · + αn vn = α i vi ,
i=1
13
1.2. Espacios vectoriales Prerrequisitos
14
Prerrequisitos 1.2. Espacios vectoriales
T
hx; yi = [x]B [y]B = x1 y1 + x2 y2 + · · · + xn yn ,
vi
y donde vi∗ = para i = 1, 2, . . . , k.
kvi k
1.2.25. Teorema. Sean v1 , v2 , . . . , vk vectores no nulos de un espacio
vectorial V de dimensión n > k , con producto interno h·; ·i. Si C1 =
{v1 , v2 , . . . , vk } es un conjunto ortogonal (respectivamente ortonormal),
entonces existe un conjunto ortogonal (respectivamente ortonormal) C2 =
{w1 , w2 , . . . , wn−k } de vectores de V tal que B = C1 ∪ C2 es una base
ortogonal (ortonormal) de V. Más aún, si U = hv1 , v2 , . . . , vk i y si
W = hw1 , w2 , . . . , wn−k i entonces V = U ⊕ W y además, U y W son
ortogonales.
16
Prerrequisitos 1.3. Transformaciones lineales
N (T ) = {u ∈ U : T (u) = 0} .
2. La imagen de T se denota por Img(T ) y se dene así:
Img(T ) = {T (u) : u ∈ U } .
1.3.5. Denición. Sea T :U →V una transformación lineal.
17
1.3. Transformaciones lineales Prerrequisitos
1. N (T ) es un subespacio vectorial de U.
2. T es inyectiva sii N (T ) = {0} .
3. Img(T ) es un subespacio vectorial de V.
4. Si B es una base de U , entonces {T (u1 ), T (u2 ), . . . , T (un )} ge-
nera al espacio Img(T ).
5. Si T es inyectiva y B es linealmente independiente, entonces
{T (u1 ), T (u2 ), . . . , T (un )} es un subconjunto linealmente inde-
pendiente de vectores de V .
6. dim N (T ) + dim Img(T ) = dim U .
18
Prerrequisitos 1.3. Transformaciones lineales
19
1.4. Espacios fundamentales de matrices Prerrequisitos
N (A) = {x ∈ Rn : Ax = 0} .
De otro lado, el subespacio de Rn ;
Img(A) = {Ax : x ∈ Rn }
= {y ∈ Rm : y = Ax para algún x ∈ Rn } .
se denomina imagen de A.
1.4.1. Teorema. Para cualquier matriz A se tiene que
1. F(A) y N (A) son ortogonales. Ésto es, sus elementos son or-
togonales entre si.
t
2. C(A) y N (A ) son ortogonales. Ésto es, sus elementos son or-
togonales entre si.
Nota. Según el inciso 2(b) del teorema anterior y según el teorema 1.1.10,
siR es la forma escalonada reducida de la matriz A, entonces F(A) =
F(R).
1.4.4. Teorema. Sea A una matriz m×n. La imagen de la transformación
lineal A : Rn → Rm , x → y = Ax, es el espacio columna de A; esto es,
Img(A) = C(A) = {Ax : x ∈ Rn } .
21
1.4. Espacios fundamentales de matrices Prerrequisitos
Nota. De acuerdo con el inciso (3) del teorema 1.3.6 y de acuerdo con
los teoremas 1.4.1 y 1.4.4: si A es una matriz m × n, entonces
n m
IR IR
S = {xp + xh : xh ∈ N (A)} ,
donde xp es una solución particular del sistema; ésto es,
Axp = y, además, dim N (A) > 0.
c ) El sistema tiene una única solución. En este caso se tiene
que N (A) = {0 }
1. det(A) 6= 0.
2. A es invertible.
3. La forma escalonada de A en In .
23
1.4. Espacios fundamentales de matrices Prerrequisitos
Por último, consideramos un método para calcular una base de cada uno
de los espacios fundamentales de una matriz m×n arbitraria A. El método
consiste en efectuar los pasos siguientes:
T
Paso 1 Forme la matriz A | In .
24
CAPÍTULO 2
Este capítulo consta de tres secciones. Las dos primeras versan sobre ma-
trices particionadas. La tercera sección trata sobre la traza de una matriz.
Consignaremos aquí los principales resultados sobre la traza de una ma-
triz. Existen razones para querer particionar una matriz A, algunas de ellas
son: (i) La partición puede simplicar la escritura de A. (ii) La partición
puede exhibir detalles particulares e interesantes de A. (iii) La partición
puede permitir simplicar cálculos que involucran la matriz A.
25
2.1. Submatrices Matrices particionadas
1 2 3 4
S2 = (suprimiendo en A la la 3)
9 0 7 8
2 3
S3 = (suprimiendo en A la la 3 y las columnas 1 y 4).
6 7
. .
. .
a11 . a12 a13 . a14
. .
. .
a21 . a22 a23 . a24
. .
. .
A = a31 . a32 a33 . a34
··· ··· ··· ··· ··· ···
. .
. .
a41 . a42 a43 . a44
. .
. .
a51 . a52 a53 . a55
A11 A12 A13
A=
A21 A22 A23
donde
a11 a12 a13 a14
A11 = a21 , A12 = a22 a23 , A13 = a24 ,
a31 a32 a33 a34
a41 a42 a43 a44
A21 = , A22 = , A23 = .
a51 a52 a53 a55
Debe ser claro para el lector, que una matriz puede ser particionada de
diferentes maneras, por ejemplo:
26
Matrices particionadas 2.1. Submatrices
. .
1 2 3 4 5 . .
1 2 . 3 4 . 5
. .
. .
2 0 . 3 0 . 1
A = 2 0 3 0 1
= .
··· ··· ··· ··· ··· ··· ···
. .
−1 2 3 1 1 −1 2 .
. 3 1 .
. 1
.
.
1 . 2 3 4 5
.
.
2 . 0 3 0 1
A =
··· ··· ··· ··· ··· ···
.
.
−1 . 2 3 1 1
Tal vez, la principal conveniencia de particionar matrices, es que se puede
operar con matrices particionadas como si las submatrices fuesen elemen-
tos ordinarios, tal como se establece en el teorema siguiente.
2.1.3. Teorema.
Los incisos (1), (3) y (4) del teorema anterior son fáciles de vericar. La
demostración del inciso (2) es laboriosa y no la haremos. Sin embargo, el
lector interesado puede consultar una indicación de dicha demostración
en [ 10] página 19.
A continuación ilustraremos el inciso (2) de dicho teorema.
Si
. .
. .
1 . 0 0 . 0 3
. . A11 A12 A13
. .
A= 2
. 0 0 . 3 −4 =
··· ··· ··· ··· ··· ··· ··· A21 A23 A23
. .
. .
1 . 2 1 . 0 0
28
Matrices particionadas 2.2. Determinantes
y
1 2
··· ···
B11
0 0
B= 1 3 = B21
··· ···
B31
0 1
1 2
entonces
A11 B11 + A12 B21 + A13 B31 4 8
AB = = −2 −7
A21 B11 + A22 B21 + A23 B31 2 5
pues
1 1 2
A11 B11 = 1 2 = ,
2 2 4
0 0 0 0 0 0
A12 B21 = = ,
0 0 1 3 0 0
0 3 0 −1 3 6
A13 B31 = = ,
3 −4 1 2 −4 −1
A21 B11 = [1] 1 2 = 1 2
0 0
A22 B21 = 2 1 = 1 3 ,
1 3
0 −1
A23 B31 = 0 0 = 0 0 .
1 2
A B
1. Si M= , entonces |M | = |A||C|.
0 C
A 0
2. Si M= , entonces |M | = |A||C|.
B C
det(C) = cs1 (−1)s+1 |Ĉ 1 | + cs2 (−1)s+2 |Ĉ 2 | + . . . + css (−1)s+s |Ĉ s |.
30
Matrices particionadas 2.2. Determinantes
2(k+1)−s+1
A B̂ 1
det(M ) = cs1 (−1) 0 Ĉ 1 +
A B̂ 2
+cs2 (−1)2(k+1)−s+2
0 Ĉ 2
2(k+1)−s+s A
B̂ s
+ . . . + css (−1) 0 Ĉ s
Utilizando la hipótesis de inducción se obtiene:
det(M ) = (−1)2(k+1)−2s cs1 (−1)s+1 |A| |Ĉ 1 | + cs2 (−1)s+2 |A| |Ĉ 2 |
+ . . . + css (−1)s+s |A| |Ĉ s |
= |A| cs1 (−1)s+1 |Ĉ 1 | + cs2 (−1)s+2 |Ĉ 2 | + . . . +
+css (−1)s+s |Ĉ s |
= |A| |C| .
Lo que completa la demostración de (1).
La demostración de (2) se sigue del hecho de que |M | = M T (teore-
ma 1.1.6(1)) y del inciso (1). En efecto, se tiene:
det(M ) = det(M T )
A B
= det
0 C
= det(AT ) det(C T )
= det(A) det(C)
2.2.2. Ejemplo. Use partición de matrices y los resultados de la proposi-
ción anterior para calcular el determinante de cada una de las matrices
siguientes:
31
2.2. Determinantes Matrices particionadas
1 2 4 5
7 0 0 1 3 6 7
M = 4 5 6 y N =
0
,
0 2 3
3 7 9
0 0 3 5
las cuales se pueden particionar respectivamente como sigue:
.
.
7 . 0 0
.
.
··· ··· ···
M =
.
= A 0
. B C
.
4 . 5 6
.
.
3 . 7 9
y
.
.
1 2 . 4 5
.
.
1 3 . 6 7
.
N = ··· . .
··· . ··· ···
.
.
0 0 . 2 3
.
.
0 0 . 3 5
Entonces
5 6 1 2 2 3
|M | = |7| = 21 y |N | = = 1.
7 9 1 3 3 5
1. Si D es invertible, entonces |M | = |D| A − BD−1 C .
2. Si A es invertible, entonces |M | = |A| D − CA−1 B .
32
Matrices particionadas 2.2. Determinantes
A − BD−1 C
I 0 B
Sea S = . Entonces MS = .
−D−1 C I 0 D
Ahora por el teorema 1.1.6(9) y por la proposición anterior, se tiene :
.
.
1 2 . 4
.
. A B
1 3 . 5
Para M tomamos = , siendo D = [1].
C D
··· ··· ··· ···
.
.
1 1 . 1
Puesto que D es una matriz invertible entonces,
−1
−3 −2
|M | = |D| A − BD C = |1|
= −2 .
−4 −2
33
2.2. Determinantes Matrices particionadas
.
.
1 2 . 2 1
.
.
1 3 . 2 3
A B
Similarmente para N, N = ··· ··· ··· ··· ··· = ,
.
C 0
.
4 5 . 0 0
.
.
3 3 . 0 0
1 2
siendo A= . Dado que A es invertible tenemos que
1 3
A B
1. La matriz M= es invertible sii las matrices A y C
0 C
son invertibles. Además, si M es invertible entonces
A−1 −A−1 BC −1
M −1 = .
0 C −1
A 0
2. La matriz M= es invertible sii las matrices A y C
B C
son invertibles. Además, si M es invertible entonces
A−1
−1 0
M = .
−C BA−1
−1
C −1
34
Matrices particionadas 2.2. Determinantes
35
2.2. Determinantes Matrices particionadas
Demostración. De la igualdad
B11 B12 A11 A12 I 0
BB −1 = = =I
B21 B22 A21 A22 0 I
se obtienen las igualdades
−1
B11 − B12 B22 B21 A11 = I .
−1
Esto quiere decir que las matrices B11 − B12 B22 B21 y A11 son invertibles
y que una es la inversa de la otra.
−1
Premultiplicando ambos miembros de (2.1(c)) por B11 , se obtiene :
−1 −1
A12 + B11 B12 A22 = 0, o sea, A12 = −B11 B12 A22 .
−1
B22 − B21 B11 B12 A22 = I .
−1
Esto quiere decir que las matrices B22 − B21 B11 B12 y A22 son invertibles
y que una es la inversa de la otra.
Por lo anterior,
−1
−1 −1 −1
−1
A11 = B11 − B12 B22 B21 A12 = −B11 B12 B22 − B21 B11 B12
−1 −1
−1 −1
−1
A21 = −B22 B21 B11 − B12 B22 B21 A22 = B22 − B21 B11 B12
36
Matrices particionadas 2.3. Traza de una matriz
A11 A12
2.2.9. Teorema. Sea A = , donde A11 es una matriz in-
A21 A22
−1
vertible r × r. Si ρ(A) = ρ(A11 ), entonces A22 = A21 A11 A12 .
I 0 I −A−1
11 A12
Ahora, las matrices P = y PQ =
− A21 A−1
11 I 0 I
son invertibles, puesto que |P | = |Q| = 1 6= 0. En consecuencia, por el
teorema 1.4.5, la matriz A y la matriz
A11 0
P AQ =
0 A22 − A21 A−1
11 A12
Tr(A) = Tr(AT ) .
37
2.3. Traza de una matriz Matrices particionadas
n
X
Tr(αA + βB) = hαA + βBiss
s=1
Xn
= (α hAiss + β hBiss )
s=1
Xn n
X
= α hAiss + β hBiss
s=1 s=1
= α Tr(A) + β Tr(B) .
Tr(AB) = Tr(BA) .
n
X
Tr(AB) = hABiss
s=1
Xn m
X
= hAisk hBiks
s=1 k=1
Xm X n
= hBiks hAisk
k=1 s=1
Xm
= hBAikk = Tr(BA) .
k=1
38
Matrices particionadas 2.4. Ejercicios
2.4. Ejercicios
1. Utilice matrices particionadas para calcular el determinante y la
matriz inversa (si existe) de cada una de las matrices siguientes
:
5 3 0 0 3 1 1 −1
3 2 0 0 2 1 −1 1
M1 = M2 =
3 −2 2 1 0 0 1 1
2 1 5 3 0 0 4 5
2. Demuestre el inciso (2) del teorema 2.2.3.
3. Demuestre el corolario 2.2.4.
4. Demuestre la proposición 2.2.6.
39
2.4. Ejercicios Matrices particionadas
aIn bIn
M= .
cIn dIn
0 0 2 1 1 −1 1 1
0 0 5 3 −1 1 4 5
M1 = M2 = .
5 3 3 −2 3 1 0 0
3 2 2 1 2 1 0 0
40
Matrices particionadas 2.4. Ejercicios
41
2.4. Ejercicios Matrices particionadas
42
CAPÍTULO 3
43
3.1. Valores propios y vectores propios Diagonalización de matrices
T(u)= λ u u u u
u T(u)= λ u
T(u)= λ u
T(u)= 0
2x = λx
x + 3y = λy .
44
Diagonalización de matrices 3.1. Valores propios y vectores propios
,
T(u ) =3 (0, y)
,
u = (0, y)
x
u = (x, −x)
45
3.1. Valores propios y vectores propios Diagonalización de matrices
46
Diagonalización de matrices 3.1. Valores propios y vectores propios
Dicho teorema nos garatiza entonces, que el cálculo de los valores y vec-
tores propios de una transformación lineal se reduce al cálculo de los val-
ores y vectores propios de una cierta matriz A. En lo que sigue, veremos
cómo calcular los valores y vectores propios de una matriz.
= (1 − λ)(λ2 − 3λ + 2) − (1 − λ) − (−λ + 1)
= (1 − λ)(λ2 − 3λ + 2) = −(1 − λ)2 (λ − 2).
Las soluciones del sistema (A − 1 · I)x = 0 son, por lo tanto, los vectores
de la forma:
x1 x3 1
x = x2 = x3 = x3 1 , x3 ∈ R.
x3 x3 1
49
3.1. Valores propios y vectores propios Diagonalización de matrices
En consecuencia,
1
Uλ1 = U1 = 1
1
En consecuencia,
0
Uλ2 = U2 = 1
1
Sea B = 1, x, x2 la base canónica de P2 , se tiene entonces que:
1 1 −1
[T ]BB = A = −1 3 −1 .
−1 2 0
De acuerdo con el teorema 3.1.7(1); los valores propios de la transforma-
ción lineal T son los valores propios de la matriz A, los cuales son, según
el ejemplo 3.1.11 λ1 = 1 y λ2 = 2.
De otro lado, del ejemplo 3.1.11 se sabe que Uλ1 = {x1 } es una base
de S(λ1 ) y que Uλ2 = {x2 } es una base de S(λ2 ), donde
1 0
x1 = 1 y x2 = 1 .
1 1
Como se estableció en el teorema 3.1.7(2), éstos son respectivamente, los
vectores de coordenadas respecto a la base B (véase apartado 1.2.2) de los
vectores de P2 ;
u1 = 1 + x + x2
y u2 = x + x2 .
0
En consecuencia; Uλ
1
= {u1 } = 1 + x + x2 es una base del espa-
cio de vectores propios de T correspondientes al valor propio λ1 = 1 y
Uλ0 2 = {u2 } = x + x2 es una base del espacio de vectores propios de T
Terminamos esta sección con dos resultados que involucran matrices se-
mejantes. El primero de ellos relaciona los polimomios característicos de
matrices semenjantes y el segundo relaciona los vectores propios de dichas
matrices.
51
3.1. Valores propios y vectores propios Diagonalización de matrices
pB (λ) = |B − λI| = P −1 AP − λP −1 P
= P −1 (A − λI)P = |P −1 | |A − λI| |P |
= |P −1 | |P | |A − λI| = |A − λI|
= pA (λ).
3.1.15. Nota. El converso del teorema anterior no es cierto; o sea, si A y
B son matrices con el mismo polinomio característico, no necesariamente
A y B son matrices semejantes. Para mostrar esto, basta considerar el
siguiente ejemplo.
P −1 AP = P −1 IP = P −1 P = I 6= B.
3.1.17. Proposición. Si A B = P −1 AP son matrices semejantes, en-
y
−1
tonces x es un λ−vector propio de A sii P X es un λ−vector propio de
B.
Ax = λx ⇐⇒ AIx = λx
⇐⇒ AP P −1 x = λx
⇐⇒ P −1 AP P −1 x = λP −1 x
Tomando B = P −1 AP tenemos entonces que: x 6= 0 es un λ-vector propio
−1
de A si y sólo si P x 6= 0 es un λ-vector propio de B = P −1 AP.
52
Diagonalización de matrices 3.2. Diagonalización
3.2. Diagonalización
53
3.2. Diagonalización Diagonalización de matrices
Ahora,
AP = A x1 x2 ··· xn
= Ax1 Ax2 ··· Axn = λ1 x1 λ2 x2 · · · λn xn
λ1 0 ··· 0
0
λ2 ··· 0
= x1 x2 ··· xn
.. .
. .. .
.
. . . .
0 0 ··· λ3
= PD
Donde D es la matriz diagonal indicada arriba. Por lo tanto, P −1 AP = D,
y el teorema queda demostrado.
54
Diagonalización de matrices 3.2. Diagonalización
en consecuencia,
1 −1
Uλ1 = U2 = 2 , 0
0 1
En consecuencia,
−1
Uλ2 = U1 = 3
3
55
3.2. Diagonalización Diagonalización de matrices
son bases para los espacios propios asociados, respectivamente. Así que A
sólo tiene dos vectores propios linealmente independientes.
56
Diagonalización de matrices 3.2. Diagonalización
(3.1) α1 x1 + α2 x2 = 0,
premultiplicando (3.1) por el escalar λ2 se obtiene:
(3.2) λ2 α1 x1 + λ2 α2 x2 = 0.
De otra parte; premultiplicando (3.1) por la matriz A se llega a:
(3.3) λ1 α1 x1 + λ2 α2 x2 = 0.
Restando (3.3) de (3.2) se obtiene:
(λ2 − λ1 )α1 x1 = 0.
Puesto que x1 6= 0, entonces (λ2 − λ1 )α1 = 0. Dado que λ1 6= λ2 se tiene
entonces que α1 = 0. Reemplazando este valor de α1 en (3.1) se llega a
que α2 x2 = 0, pero x2 6= 0, entonces α2 = 0.
57
3.2. Diagonalización Diagonalización de matrices
Sea B1 = 1, x, x2 la llamada base canónica de P2 entonces:
4 −1 2
A = [T ]B1 B1 = −6 5 −6 ,
−6 3 −4
que es la matriz del ejemplo 3.2.4. De dicho ejemplo sabemos que
1 −1 −1
x1 = 2 , x2 = 0 y x3 = 3 ,
0 1 3
son vectores propios linealmente independientes de A, correspondientes
respectivamente a los valores propios 2, 2 y 1. Los vectores x1 , x2 y x3
son respectivamente, los vectores de coordenadas respecto a la base B1 de
los vectores de P2 :
u1 = 1 + 2x; u2 = −1 + x2 y u3 = −1 + 3x + 3x2 .
59
3.2. Diagonalización Diagonalización de matrices
Ahora, los valores propios de T son los valores propios de A (ver teorema
3.1.7), esto es, los diferentes valores propios de T son λ1 = 2 y λ2 = 1.
De otro lado, por lo establecido en el apartado 1.2.2, u1 , u2 y u3 son
vectores propios de T linealmente independientes, correspondientes a los
valores propios 2, 2 y 1, respectivamente. En consecuencia, de acuerdo con
el teorema anterior, B2 = {u1 , u2 , u3 } es una base para P2 tal que:
2 0 0
[T ]B2 B2 = D = 0 2 0 .
0 0 1
Como hemos visto, dada una matriz cuadrada A de orden n, existe una
matriz invertible P tal que P −1 AP = D es una matriz diagonal sii existen
n vectores propios de A linealmente independientes. En el caso en que A
no posea n vectores propios linealmente independientes, es posible, bajo
cierta condición, que A sea semejante a una matriz triangular superior
T ; es decir , que A sea semejante a una matriz T = [tij ]n×n para la cual
tij = 0 si i > j. El siguiente teorema explicita esta armación.
3.2.11. Teorema. Sea A una matriz cuadrada (real) de orden n. Todas
las soluciones de la ecuación característica de A son reales sii existe una
−1
matriz invertible P (real) tal que P AP = T es una matriz triangular
superior. Además, si existe una tal matriz P, entonces los elementos de
la diagonal de T son los valores propios de A.
60
Diagonalización de matrices 3.2. Diagonalización
62
Diagonalización de matrices 3.2. Diagonalización
superior. Ahora bien, hemos mencionado que uno puede estudiar espa-
cios vectoriales donde los escalares sean números complejos (ver pié de
página 2); en este caso, se pueden obtener resultados más amplios. En
particular, se tiene que para toda matriz cuadrada A (real o compleja)
existe una matriz invertible P (real o compleja) tal que P −1 AP = T
sea una matriz triangular superior. Este resultado se tiene, gracias a la
propiedad importante del sistema de los números complejos que establece,
que todo polinomio de grado n con coecientes reales o complejos tiene
exactamente n raíces reales o complejas, contadas sus multiplicidades. En
el teorema siguiente se establece este resultado sin demostración. Quien
desee estudiar sobre éste, puede consultar las secciones 5.5 y 5.6 de [ ]. 1
3.2.13. Teorema. Para toda matriz cuadrada A (real o compleja) existe
una matriz invertible P (real o compleja) tal que P −1 AP = T es una
matriz triangular superior. Además, los elementos de la diagonal de T
son las soluciones de la ecuación característica de A.
3.2.14. Ejemplo. Consideremos la matriz (real)
1 0 0
A= 0 0 1 .
0 −1 0
La ecuación característica de A es
En este caso no es posible que exista una matriz invertible P (real) tal
que P −1 AP = T sea una matriz triangular superior. Sin embargo, en el
contexto de los espacios vectoriales donde los escalares son números com-
plejos, podemos decir que A tiene tres valores propios complejos λ1 = 1,
λ2 = i y λ3 = −i . Efectuando, en este contexto, los cálculos pertinentes,
se encuentra que
1 0 0
x1 = 0 , x2 = −i y x3 = i
0 1 1
son tres vectores propios complejos de A linealmente independientes cor-
respondientes a los valores propios complejos λ1 = 1, λ2 = i y λ3 = −i
63
3.3. Matrices simétricas Diagonalización de matrices
(3.1) Ax = λx
de esto se sigue que, (ver (3) y (2)):
(3.2) Ax = λx .
Ahora, premultiplicando (3.1) por xT y (3.2) por xT se tiene
(3.3) x T Ax = λx T x y xT Ax = λxT x ,
puesto que x T Ax = (x T Ax)T = xT AT x = xT Ax, de (3.3) se sigue que:
(3.4) λx T x = λxT x .
De (4) se tiene que x T x = xT x, por lo tanto, de (3.4) se concluye que :
(λ − λ)x T x = 0.
Ya que x 6= 0, de (4) se tiene que
(λ − λ) = 0 o sea, λ = λ.
en consecuencia, por (2), λ es un número real.
El teorema 3.2.6 establece que, para cada matriz cuadrada A, los vectores
propios correspondientes a valores propios diferentes son linealmente in-
dependientes. Para matrices simétricas se tiene un resultado más fuerte.
Este resultado se establece en el teorema siguiente.
65
3.3. Matrices simétricas Diagonalización de matrices
(3.5) Axi = λi xi , y
(3.6) Axj = λj xj .
Ahora, premultiplicando (3.5) por xtj y a (3.6) por xi , se obtiene
(λi − λj )xTi xj = 0.
Puesto que por hipótesis, los valores propios son distintos, entonces xTi xj =
0, si i 6= j, i, j = 1, 2, . . . k .
3.3.3. Denición. Se dice que una matriz cuadrada P es ortogonal, si P
es invertible y P −1 = P T .
3.3.4. Ejemplo. La matriz
1 −2 2
1
P = 2 2 1
3
2 −1 −2
es ortogonal, pues:
1 2 −2 1 2 2 1 0 0
1 1
PPT =P = 2 1 −2 2 −1 = 0 1 0 = I.
2
3 3
2 −2 −1 2 1 −2 0 0 1
3.3.5. Proposición. Una matriz P =
x1 x2 · · · xn es ortogonal
sii el conjunto B = {x1 , x2 , . . . , xn } constituye una base ortonormal de
Mn×1 .
66
Diagonalización de matrices 3.3. Matrices simétricas
La matriz P = x1 x2 ··· xn es ortogonal sii P T P = I. Ahora
bien,
Demostración. Sea A λ∗ un
una matriz simétrica de orden n y sea
∗
valor propio de A. Supongamos que la multiplicidad geométrica de λ es
r. Por el teorema 1.2.24, existe una base ortonormal B = {x1 , x2 , . . . , xr }
∗ ∗
del espacio de vectores propios asociados a λ , S(λ ). Si r = n, la matriz
P = x1 x2 · · · xn es ortogonal (proposición 3.3.5), y de acuerdo
con el teorema 3.2.2,
P T AP = P −1 AP = D = λ∗ I .
XT
T = A X Y
YT
λ∗ I X T AY
=
0 Y T AY
λ∗ I
B
= .
0 C
Puesto que A es simétrica,T T = (P T AP )T = P T AT P = P T AP = T, o
sea ∗ ∗
λ I B λ I 0
= ,
0 C B CT
por lo tanto B=0 y
λ∗ I
0
T = .
0 C
Puesto que las matrices A y T son semejantes, entonces tienen el mismo
polinomio característico:
λ∗ I
∗
0 0 λ I 0 0
Au = P P tP =P
0 C w 0 C w
0 0
= P =P
Cw λ∗ w
0
= λ∗ P = λ∗ u .
w
Esto indica, que B = {x1 , x2 , . . . , xr , ur+1 } es un conjunto de r+1 vec-
tores propios linealmente independientes correspondientes al valor propio
λ∗ , lo cual contradice el hecho de que la multiplicidad geométrica de λ∗
sea r.
3.3.7. Teorema. Si A es una matriz simétrica de orden n, entonces A
tiene n vectores propios ortogonales, y por tanto, linealmente independi-
entes.
69
3.3. Matrices simétricas Diagonalización de matrices
λ1 0 ··· 0
0 λ2 ··· 0
P T AP = P −1 AP = D = . . .
. ..
.. .
. . .
.
0 0 ··· λn
El recíproco del teorema 3.3.10 también es válido y está dado por el sigu-
iente
A = P DP T = (P DT P T )T = (P DP T )T = AT ,
o sea, A es una matriz simétrica.
70
Diagonalización de matrices 3.3. Matrices simétricas
71
3.3. Matrices simétricas Diagonalización de matrices
En consecuencia,
2 2
U
bλ b6 = 1 , 0 ,
=U
2
0 1
1 2 2
√ √
−3 5 3 5
2 1 4
P =
3 √ − √
5 3 5
2 2
0 √
3 3 5
72
Diagonalización de matrices 3.3. Matrices simétricas
donde:
λ1 0 ··· 0 β1 0 ··· 0
0 λ2 ··· 0 0 β2 ··· 0
Dρ = . y Dη = . . .
. .. . . ..
.. .
. . .
. .. .
. . .
.
0 0 ··· λρ 0 0 ··· βη
Sea ahora D∗ la matriz diagonal:
Dρ∗
0 0
∗
D = 0 Dη∗ 0
0 0 Iγ
donde
1
√ 0 ··· 0
λ1
1
0 √ ··· 0
∗ λ2
Dρ =
.
y.
. .. .
.. .
. . .
.
1
0 0 ··· p
λρ
1
√ 0 ··· 0
−β1
1
0 √ ··· 0
Dη∗ =
−β2
. . .. .
. . . .
. . .
1
0 0 ··· p
−βη
La matriz D∗ es invertible y es tal que:
Dρ∗ Dρ Dρ∗
0 0
D∗ DD∗ ∗t t
= D M AM D =∗ 0 Dη∗ Dη Dη∗ 0
0 0 Iγ 0 Iγ
Iρ 0 0
= 0 −Iη 0 .
0 0 0
En consecuencia, la matriz invertible P = M D∗ es tal que:
Iρ 0 0
P t AP = 0 −Iη 0 .
0 0 0
74
Diagonalización de matrices 3.3. Matrices simétricas
λ1 x1 + . . . + λρ xρ + β1 yρ0 +1 + . . . + βn−ρ0 yn = 0
entonces el vector
U = λ1 x1 + λ2 x2 + . . . + λρ xρ
= −β1 yρ0 +1 − β2 yρ0 +2 − . . . − βn−ρ0 yn
es tal que:
U T AU = (λ1 x1 + . . . + λρ xρ )T A(λ1 x1 + . . . + λρ xρ )
= λ21 + λ22 + . . . + λ2ρ ≥ 0
y
ρ + (n − ρ0 ) ≤ n ,
o sea, ρ ≤ ρ0 . Argumentando en forma similar se demuestra que ρ0 ≤ ρ,
de donde ρ = ρ0 .
ρ(A) = ρ + η = ρ0 + η 0
por lo tanto η = η0 .
Nota. En la parte (1) del teorema anterior se tiene que P T AP es igual
a:
(i) In , si ρ = n.
(ii) −In , si η = n.
Iρ 0
(iii) , si 0 < p < n y η = 0.
0 0
−Iη 0
(iv) , si 0 < η < n y ρ = 0.
0 0
Iρ 0
(v) , si 0 < p < n y 0 < η < n y ρ + η = n.
0 −Iη
Iρ 0 0
(vi) 0 −Iη 0 , si 0 < p < n y 0 < η < n y ρ + η < n.
0 0 0
(vii) 0, sii A = 0.
3.3.14. Ejemplo. Para la matriz simétrica
1 −2 0
A = −2 0 −2
0 −2 −1
encontremos una matriz invertible P tal que P t AP sea una matriz diag-
onal con las características que se establecen en el teorema anterior.
76
Diagonalización de matrices 3.3. Matrices simétricas
D∗ DD∗ = D∗t M t AM D∗
1
1
3 0 0
√ 0 0 √ 0 0
3 3
1 1
= 0 −3 0
0 √ 0
0 √ 0
3 3
0 0 1 0 0 0 0 0 1
1 0 0
= 0 −1 0 ,
0 0 0
o sea, la matriz invertible P = M D∗ es tal que
I1 0 0
P t AP = 0 −I1 0 .
0 0 0
77
3.3. Matrices simétricas Diagonalización de matrices
Formemos la matriz
2 −3 | 1 0 0
1
A | I 5 −4 | 0 1 0 .
= 2
−4 −3 9 | 0 0 1
Efectuemos, en las las de la matriz A | I , las operaciones elemen-
T
tales; E1 ; multiplicar los elementos de la primera la por α = −2 y sumar
T
los resultados con los correspondientes elementos de la segunda la, E2 ;
multiplicar los elementos de la primera la por α = 3 y sumar los resulta-
dos con los correspondientes elementos de la tercera la. Así obtenemos
la matriz
y
| 1
1 0 0 0 0
0
A1 | B 1 | −2 1 0
= 0 1 2
| 0
3 0 1 2 0
0
Efectuemos, en las las de la matriz A1 | B1 , la operación elemen-
T
tal; E3 ; multiplicar los elementos de la segunda la por α = −2 y sumar
los resultados con los correspondientes elementos de la tercera la. Así
obtenemos la matriz
0
E4T E3T E2T E1T AE1 E2 E3 E4 | E4T E3T E2T E1T I
= A3 | B3 .
Se tiene:
| 1 0 0
1 0 0
−2 1 0
A3 | B3 = 0 1 0 |
7 1
0 0 −2 | −1
2 2
79
3.3. Matrices simétricas Diagonalización de matrices
y
| 1 0 0
0 1 0 0
−2 1 0 .
A2 | B2 = 0 1 0 |
7 1
0 0 −1 | −1
2 2
Así que la matriz invertible
1 0 0
−2 1 0
PT T T T T
= B3 = E4 E3 E2 E1 =
7 1
−1
2 2
es tal que
1 0
0 0
P T AP = D = A3 = 0 1 0 .
0 0 −1
Podemos decir entonces, que la matriz A tiene dos valores estrictamente
positivos y un valor propio estrictamente negativo.
Formemos la matriz:
0 1 | 1 0
A | I = .
1 0 | 0 1
Efectuemos, en las las de la matriz A | I la operación elemen-
tal MT ; sumar los elementos de la segunda la con los correspondientes
elementos de la primera la. Así obtenemos la matriz
MT A | MT I
,
80
Diagonalización de matrices 3.3. Matrices simétricas
M T AM | MT I A0 | MT
= ,
Se tiene:
T T
1 1 | 1 1
M A | M I = y
1 0 | 0 1
0 T
2 1 | 1 1
A | M =
1 0 | 0 1
A0 | MT
Efectuemos, en las las de la matriz , la operación elemen-
tal; E1T ; multiplicar los elementos de la primera la por α = − 21 y sumar
los resultados con los correspondientes elementos de la segunda la. Así
obtenemos la matriz
E1T A0 | E1T M T
= A1 | B1 ,
luego efectuamos la "misma" operación elemental en las columnas de la
matriz A1 , para obtener:
0
E1T A0 E1 | E1T M T
= A1 | B1 .
Se tiene:
2 1 | 1 1
A1 | B1 = | y
1
| −1 1
0 − −
2 2 2
| 1 1 2 0
0
A1 | B 1 = |
1
| −1− −1
0 −
2 2 2
0
Efectuemos en las las de la matriz A1 | B 1 las operaciones ele-
T
mentales; E2 ; multiplicar los elementos de la primera la por α = √1 ,
√ 2
T
y, E3 ; multiplicar los elementos de la segunda la por β = 2 . Así
obtenemos la matriz
Se tiene:
√ 1 1
2 0 | √ √
| 2 2
A2 | B2 = y
1 | 1 1
0 −√
2 | −√ √
2 2
1 1
| √ √
1 0 2 2
0 |
A2 | B2 = .
| 1 1
0 −1
| −√ √
2 2
Así que la matriz invertible
1 1
√ √
2 2
P T = B2 = E3T E2T E1T M T =
1 1
−√ √
2 2
es tal que
0
1 0
P T AP = D = A3 = .
0 −1
Podemos decir, que la matriz A tiene un valor estrictamente positivo y
un valor propio estrictamente negativo.
82
Diagonalización de matrices 3.4. Diagonalización simultánea
M T P T AP M = M T In M = M T M = In y M T P T BP M = M T CM = D ;
esto es, la matriz Q = PM es tal que QT AQ = In y QT BQ = D es una
matriz diagonal. De otro lado, como lo hemos expresado, los elementos de
la diagonal de D son los valores propios de C, los cuales según el teorema
3.3.1 son reales. Esto es, los elementos de la diagonal de D son la soluciones
de la ecuación |C − λI| = 0. En vista de que la matriz P es invertible se
tiene:
T
P BP − λP T AP
|C − λI| =
T sii |B − λA| = 0,
= P |B − λA| |P | = 0
es tal que
5 2 2
P T AP = I3 y C = P T BP = 2 2 −4 .
2 −4 2
83
3.4. Diagonalización simultánea Diagonalización de matrices
1 2 2
− √ √
3 5 3 5
2 1 4
M =
√ − √
3
5 3 5
2 2
0 √
3 3 5
es ortogonal y es tal que
−3 0 0
M T CM = D = 0 6 0 .
0 0 6
En consecuencia, la matriz invertible
1 2 2
− √ √
3 5 3 5
1 3
Q = PM =
0 √ − √
2 5 3 5
2 5
0 √
3 3 5
es tal que
−3 0 0
QT AQ = I3 y QT BQ = D = 0 6 0 .
0 0 6
3.4.3. Teorema (Diagonalización ortogonal simultánea). Sean AyB ma-
trices simétricas de orden n. AB = BA sii existe una matriz ortogonal P
T T
tal que P AP y P BP son matrices diagonales.
λ1 Ik1 0 ··· 0 C11 C12 · · · C1m
0 λ I
2 k2 · · · 0 C21 C22 · · · C2m
DC =
. . . . .. . .. .
. . .. . . .
. . . . . . .
0 0 · · · λm Ikm Cm1 Cm2 · · · Cmm
λ1 C11 λ1 C12 · · · λ1 C1m
λ2 C21 λ2 C22 · · · λ2 C2m
= ,
. . .. .
. . . .
. . .
λm Cm1 λm Cm2 · · · λm Cmm
C11 C12 · · · C1m λ1 Ik1 0 ··· 0
C21 C22 · · · C2m 0 λ I
2 k2 · · · 0
CD = .
. . . . . . .
.. . .. . . . .. .
. . . . .
Cm1 Cm2 · · · Cmm 0 0 · · · λm Ikm
λ1 C11 λ2 C12 · · · λm C1m
λ1 C21 λ2 C22 · · · λm C2m
= .
. . .. .
. . . .
. . .
λ1 Cm1 λ2 Cm2 · · · λm Cmm
Ya que DC = CD y λi 6= λj , si i 6= j , entonces se tiene que Cij = 0, si
i 6= j y por tanto
C11 0 ··· 0
0 C22 ··· 0
C= . .
. .. .
.. .
. . .
.
0 0 ······ Cmm
Como la matriz C es simétrica, cada una de las matrices Cii , i = 1, 2 . . . , m,
es simétrica, por tanto existe una matriz ortogonal Qi tal que QTi Cii Qi =
Di es una matriz diagonal. Sea a hora:
85
3.4. Diagonalización simultánea Diagonalización de matrices
Q1 0 ··· 0
0 Q2 ······ 0
Q= . .
. .. .
.. .
. . .
.
0 0 ······ Qm
La matriz Q es ortogonal (véase ejercicio 3.5(14)) y es tal que QT CQ = D∗
es una matriz diagonal. También se tiene que QT DQ = D; es decir,
QT RT ARQ = D y QT RT BRQ = D∗ .
Ya que las matrices R y Q son ortogonales, entonces la matriz P = RQ
es ortogonal (vea el ejercicio 3.5.2(13)) y es tal que P T AP y P T BP son
matrices diagonales.
P T AP P T BP = P T BP P T AP ,
de donde AB = BA.
86
Diagonalización de matrices 3.4. Diagonalización simultánea
es tal que:
. .
. .
0 . 0 0 . 0
··· ··· ··· ··· ··· ··· λ1 I 0 0
. .
. .
T
0 . 1 0 . 0
R AR = D = = 0 λ2 I 0
. .
. .
0 . 0 1 . 0
···
··· ··· ··· ··· ···
0 0 λ3 I
. .
. .
0 . 0 0 . 2
. .
. .
1 . 0 0 . 0
··· ··· ··· ··· ··· ··· C11 0 0
. .
. .
T
0 . 2 −2 . 0
= 0
R BR = C = . .
C22 0
. .
0
. −2 5 . 0
···
··· ··· ··· ··· ···
0 0 C33
. .
. .
0 . 0 0 . 1
La matriz ortogonal
. .
. .
1 . 0 0 . 0
··· ··· ··· ··· ··· ···
Q1 0 0
.
.
√ √ .
.
0 . 2/ 5 −1/ 5 . 0
Q= = 0 Q2 0
.
.
√ √ .
.
0 . 1/ 5 2/ 5 . 0
··· ··· ··· ··· ··· ···
0 0 Q3
. .
. .
0 . 0 0 . 1
es tal que
1 0 0 0
0 1 0 0
= QT RT BRQ = D∗
QT CQ =
0 0 6 0
0 0 0 1
87
3.4. Diagonalización simultánea Diagonalización de matrices
y
1 0 0 0
0 1 0 0
QT DQ = = QT RT ARQ = D .
0 0 1 0
0 0 0 2
En consecuencia, la matriz ortogonal
√
√
1/ 2 0 0 −1/ 2
√ √
1/ 2 0 0 1/ 2
P = RQ = √ √
0 2/ 5 −1/ 5 0
√ √
0 1/ 5 2/ 5 0
Ci D = RT Ai RRT A1 R = RT Ai A1 R = RT A1 Ai R
= RT A1 RRT Ai R = DCi ,
88
Diagonalización de matrices 3.4. Diagonalización simultánea
Ci Cj = RT Ai RRT Aj R = RT Ai Aj R
= RT Aj Ai R = RT Aj RRT Ai R = Cj Ci .
De esto se sigue que para cada τ, τ = 1, 2, . . . , m.
Ciτ Cjτ = Cjτ Ciτ .
De otra parte, como la matriz Ci es simétrica, entonces la matriz Ciτ
es simétrica para cada i = 2, 3 . . . , s + 1 y cada τ = 1, 2, . . . , m. Por lo
anterior y por la hipótesis de inducción; para cada τ , existe una matriz
ortogonal Qτ tal que
QTi Ciτ Qi = Dτ
es una matriz diagonal. Sea ahora:
Q1 0 ··· 0
0 Q2 ······ 0
Q= . .
. .. .
.. .
. . .
.
0 0 ······ Qm
La matriz Q es ortogonal y es tal que QT Ci Q = Di∗ es una matriz diagonal.
T
También se tiene que Q DQ = D . Así que:
QT RT Ai RQ = Di∗ , i = 2, 3 . . . , s + 1, y QT RT A1 RQ = D∗ .
Puesto que R y Q son matrices ortogonales, entonces la matriz P = RQ
es ortogonal. En consecuencia, la matriz ortogonal P es tal que P T Ai P
es una matriz diagonal para i = 2, 3 . . . , s + 1.
P T Ai P P T Aj P = P T Aj P P T Ai P,
de donde se tiene que Ai Aj = Aj Ai para todo i y todo j; i, j = 1, 2, . . . , k.
89
3.5. Ejercicios Diagonalización de matrices
La matriz ortogonal
1 1
1
R= √
2 −1 1
es tal que
1 0
R T A1 R = D1 =
0 3
T −1 0
R A2 R = D2 =
0 7
−1
R T A3 R = D3 = ,
11
es decir, la matriz ortogonal R diagonaliza de manera simultánea a las
matrices A1 , A 2 y A3 .
3.5. Ejercicios
90
Diagonalización de matrices 3.5. Ejercicios
1 1
13. La matriz P = es ortogonal.
−1 1
2
14. Si la matriz A satisface la igualdad: A = 3A − 2I, entonces los
posibles valores propios de A son λ1 = 1, λ2 = 2.
91
3.5. Ejercicios Diagonalización de matrices
de la forma
A C
M=
0 B
son λ 1 , λ 2 , . . . , λ n , β1 , β 2 , . . . , β m .
9. Si A es una matriz cuadrada de orden n, entonces pA (λ) =
|A − λI| es un polinomio de grado n en la variable λ que tiene
la forma:
pA (λ) = a0 + a1 λ + a2 λ2 + · · · + (−1)n λn .
92
Diagonalización de matrices 3.5. Ejercicios
n X
X n
pA (λ) = Tr A = (aij )2 .
i=1 i=1
ρ(ABA) = ρ(A) = Tr A
n
X
|aii | > |aij | ,
j6=i,j=1
n
X
|aii | > |aij |
j6=i,j=1
93
3.5. Ejercicios Diagonalización de matrices
Tr A = mρ(A).
(Sug.: considere (i) ρ(A) = 0, (ii) ρ(A) = n y (ii) 0 < ρ(A) < n.
3.5.3 Cálculos
1 2 1 0
(i) M = (ii) M =
2 1 2 2
1 1 0 2
(iii) M = (iv) M =
0 1 −2 0
1 −3 3 −3 1 −1
(v) M = 3 −5 3 (vi) M = −7 5 −1
6 −6 4 −6 6 −2
3 1 −1 2 1 0
(vii) M = 1 3 −1 (viii) M = 0 1 −1
3 1 −1 0 2 4
2 4 0 0 0 2 0 0
5 3 0 0 2 1 0 0
(ix) M =
0
(x) M =
0 1 2 0 0 1 1
0 0 2 −2 0 0 −2 4
2. Sea T : P2 → P2 la transformación lineal denida por
94
Diagonalización de matrices 3.5. Ejercicios
1 −1 0
1 −2
(i) M = (ii) M = −1 0 0
−2 5
0 0 1
2 1 1 1 −1 −1
(iii) M = 1 2 1 (iv) M = −1 1 −1
1 1 2 −1 −1 1
4 2 2 4 4 2
(v) M = 2 3 0 (vi) M = 4 4 2
2 0 5 2 2 1
4. Para cada una de las siguientes matrices encuentre una matriz
invertible Q, tal que Qt M Q sea de la forma
Iρ 0 0
0 −Iη 0 .
0 0 0
1 −1 0 0 1 1
(i) M = −1 1 0 (ii) M = 1 −2 2
0 0 1 1 2 −1
1 2 0 1 0 −1
(iii) M = 2 0 0 (iv) M = 0 2 1
0 0 1 −1 1 1
2 1 1 1 2 −1
(v) M = 1 1 −1 (vi) M = 2 4 −2
1 −1 5 −1 −2 8
5. Considere las matrices del ejercicio anterior:
a ) Si QT M Q = I , encuentre una matriz invertible P, tal que
M = P T P.
95
3.5. Ejercicios Diagonalización de matrices
T Iρ 0
b ) Si Q M Q = , encuentre una matriz no invertible
0 0
T
P, talque M = P P.
1 −2 −3 1 −4 −1
6. Sean A = −2 5 5 y B = −4 14 4
−3 5 11 −1 4 6
a ) Verique que todos los valores propios de A son positivos,
T
encontrando una matriz invertible P tal que P AP = I.
T T
b ) En una matriz invertible M tal que M AM = I y M BM =
D sea una matriz diagonal.
1 −2 0 2 −3 0
7. Considere la matrices S1 = −2 5 0 , S2 = −3 6 0
0 0 4 0 0 −4
3 −2 0
y S3 = −2 −2 0 .
0 0 8
a ) Verique que todos los valores propios de S1 son positivos,
T
encontrando una matriz invertible P tal que P S1 P = I.
T T
b ) Haga A = P S2 P y B = P S3 P .. Verique que AB = BA
T
y encuentre una matriz ortogonal Q tal que Q AQ = D1 y
T
Q BQ = D2 son matrices diagonales.
c ) Concluya que la matriz invertible M = P Q es tal que
M T S1 M = I y M T AM = D1 y M T BM = D2 son ma-
trices diagonales.
96
CAPÍTULO 4
Formas cuadráticas
97
4.1. Clasicación Formas cuadráticas
1
Ahora bien, puesto que para la matriz simétrica S, S = 2 (A + AT ), se
satisface
1 1
xT Sx = xT (A + AT )x = (xT Ax + xT AT x)
2 2
1 T 1
= x Ax + (x Ax)T = (xT Ax + xT Ax)
T
2 2
= xT Ax ,
en la denición anterior, (4.1) puede darse usando matrices simétricas así:
(4.3) q (x) = xT Sx .
Observamos entonces, que una forma cuadrática se puede expresar matri-
cialmente de varias maneras. Sin embargo, se puede demostrar (ejercicio
4.4.2(1)), que existe una única representación en términos de matrices
simétricas, S = 21 (A + AT ), para cada forma cuadrática q(x) = xT Ax.
Nota. Con respecto a las formas cuadráticas podemos anotar que:
T n
ImaS = x Sx : x ∈ R
r ∈ R : r = xT Sx x ∈ Rn
= para algún
99
4.1. Clasicación Formas cuadráticas
100
Formas cuadráticas 4.2. Cambios de variable y diagonalización
(4.2) xT Sx = yT P T SP y = yT By donde B = P T SP .
Podemos interpretar el cambio de variable x = P y (P invertible) como la
transformación lineal biyectiva:
P : Rn → Rn
y → x = Py .
así que (q ◦ P ) : Rn → R dene una nueva forma cuadrática
xT Sx = yT P T SP y = yT By donde
1 0 0 1 2 −3 1 −2 7
B = P T SP = −2 1 0 2 5 −4 0 1 −2
7 −2 1 −3 −4 8 0 0 1
1 0 0
= 0 1 0 .
0 0 −5
Por lo tanto,
1 0 0 y1
xt Sx = yt By
= y1 y2 y3 0 1 0 y2
0 0 −5 y3
= y12 + y22 − 5y32 ,
es decir,
102
Formas cuadráticas 4.2. Cambios de variable y diagonalización
4.2.3. Denición. T
Dada una forma cuadrática x Sx, si el cambio de
variables y = P −1 x T T T T
es tal que x Sx = y P SP y = y Dy, donde D es
−1
una matriz diagonal, entonces se dice que el cambio de variables y = P x
T
diagonaliza la forma cuadrática x Sx.
xT Sx = yT QT SQy = yT Dy
λ1 0 ··· 0 y1
0
λ2 ··· 0
y2
= y1 y2 ··· yn .. . .. . .
. . . . .
. . .
0 0 ··· λn yn
= λ1 y12 + λ2 y22 + . . . + λn yn2 ,
ortogonal:
√ √ √
−1/√2 −1/√5 1/√3
Q = 1/ 2 −1/√5 1/√3
0 2/ 5 1/ 3
es tal que
0 0 0
QT SQ = D = 0 0 0 .
0 0 3
Por lo tanto, el cambio de variables y = Q−1 x diagonaliza la forma
T
cuadrática x Sx, obteniéndose:
xT Sx = yT QT SQy = yT Dy
0 0 0 y1
0 y2 = 3y32 .
= y1 y2 y3 0 0
0 0 3 y3
xT Sx = yT P T SP y
= yT Dy
1 0 0 y1
0 y2 = y12 − y22 .
= y1 y2 y3 0 −1
0 0 0 y3
xT S2 x = yT QT S2 Qy
= yT Dy
λ1 0 ··· 0 y1
0
λ2 ··· 0
y2
= y1 y2 ··· yn .. . .. . .
. . . . .
. . .
0 0 ··· λn yn
= λ1 y12 + λ2 y22 + . . . + λn yn2 ,
105
4.2. Cambios de variable y diagonalización Formas cuadráticas
1 2 2
− √ √
3 5 3 5
1 3
Q=
0 √ − √
2 5 3 5
2 5
0 √
3 3 5
es tal que
−3 0 0
QT S1 Q = I3 y QT S2 Q = D = 0 6 0 .
0 0 6
xT S2 x = yT QT S2 Qy
= yT Dy
−3 0 0 y1
= y1 y2 y3 0 6 0 y2
0 0 6 y3
= −3y12 + 6y22 + 6y32 .
xT S2 x = yT P T S2 P y = yT D2 y
β1 0 ··· 0 y1
0
β2 ··· 0
y2
= y1 y2 ··· yn .. . .. . .
. . . . .
. . .
0 0 ··· βn yn
= β1 y12 + β2 y22 + . . . + βn yn2 ,
107
4.2. Cambios de variable y diagonalización Formas cuadráticas
q1 (x) = xT S1 x
1 −1 0 0 x1
−1 1 0 0 x2
= x1 x2 x3 x4 0
0 1 0 x3
0 0 0 1 x4
= x21 − 2x1 x2 + x22 + x23 + x24 ,
q2 (x) = xT S2 x
1 0 0 0 x1
0 1 0 0 x2
= x1 x2 x3 x4
0 0 2 −2 x3
0 0 −2 5 x4
= x21 + x22 + 2x23 − 4x3 x4 + 5x24 .
Del ejemplo 3.4.4 sabemos que, S1 S2 = S2 S1 y que la matriz ortogonal
√ √
1/ 2 0 0 −1/ 2
√ √
1/ 2 0 0 1/ 2
P = √ √
0 2/ 5 −1/ 5 0
√ √
0 1/ 5 2/ 5 0
es tal que
0 0 0 0 1 0 0 0
0 1 0 0 0 1 0 0
P t S1 P = D1 = P t S2 P = D2 =
, y
0 0 1 0 0 0 6 0
0 0 0 2 0 0 0 1
108
Formas cuadráticas 4.2. Cambios de variable y diagonalización
xT S1 x = yT P T S1 P y = yT D1 y
= y22 + y32 + y42 ,
xT S2 x = yT P T S2 P y = yT D2 y
= y12 + y22 + 6y32 + y42 .
109
4.3. Formas positivas denidas Formas cuadráticas
xT Sx : x ∈ Rn = yT By : y ∈ Rn .
110
Formas cuadráticas 4.3. Formas positivas denidas
5 0 √0 x1
= x1 x2 x3 0
√4 3 x2
0 3 6 x3
= xT Sx
112
Formas cuadráticas 4.3. Formas positivas denidas
1 1 1 1 1 1
Q= 0 0 0 , es tal que S= 1 1 1 = QT Q.
0 0 0 1 1 1
114
Formas cuadráticas 4.3. Formas positivas denidas
Entonces:
S s
|Sk+1 | = tk
s s(k+1)(k+1)
= |Sk | det s(k+1)(k+1) − st Sk−1 s
= |Sk | det(α̃k ).
Sea ahora
(Qtk )−1 s
Qk
Qk+1 =
0 α̃k
116
Formas cuadráticas 4.3. Formas positivas denidas
= QTk+1 · Qk+1 .
Por lo tanto, en virtud del teorema 4.3.4(1), la forma cuadrática xTk+1 Sk+1 xk+1 ,
k+1
denida sobre R es positivamente denida.
4.3.7. Ejemplo.
117
4.4. Ejercicios Formas cuadráticas
1 1 2
|S3 | = 1 1 2 = 0.
2 2 1
Sin embargo, la forma cuadrática xT Sx no es positivamente denida, pues
∗T ∗T
Sx∗ = −3 < 0.
el vector x = −2 0 1 es tal que x
4.4. Ejercicios
118
Formas cuadráticas 4.4. Ejercicios
a b
9. Sea S= . Si a > 0 y c > 0, entonces S es positivamente
b c
semidenida.
a b
10. La matriz S = es negativamente denida sii a<0 y
b c
ac − b2 > 0.
q [(x1 , x2 , . . . , xn )] = xT Sx, xT =
con x1 x2 ··· xn .
119
4.4. Ejercicios Formas cuadráticas
4.4.3 Cálculos
120
Formas cuadráticas 4.4. Ejercicios
121
CAPÍTULO 5
1. S es positivamente denida.
2. Para cada matriz invertible P de orden n, la matriz P T SP es
positivamente denida.
3. Todos los valores propios de S son estrictamente positivos.
4. Existe una matriz invertible P de orden n, tal que P T SP = In .
T
5. Existe una matriz invertible Q de orden n, tal que S = Q Q.
123
5.1. Matrices no negativas Anexo 1
1. ρ(S) = n.
2. sii > 0 para i = 1, 2, . . . , n.
5.1.5. Teorema. Sean S1 y S2 matrices simétricas de igual orden y sean
α1 , α2 números reales positivos. Si S1 y S2 son positivamente denidas,
entonces la matriz S = α1 S1 + α2 S2 es positivamente denida.
o sea:
5.1.11. Teorema. Sea S una matriz simétrica de orden n. Las arma-
ciones siguientes son equivalentes:
1. S es positivamente semidenida.
2. Para cada matriz P , n×n, P T SP es positivamente semidenida.
3. S tiene ρ (0 ≤ ρ < n) valores propios positivos (estrictamente) y
n − ρ valores propios nulos.
4. Existe una matriz invertible P de orden n, tal que
In 0
P T SP = ; 0 ≤ ρ < n.
0 0
5. Existe una matriz n×n no invertible Q, tal que S = QT Q.
5.1.12. Teorema. Sea S = [sij ]n×n una matriz simétrica de orden n. Si
S es positivamente semidenida, entonces
1. ρ(S) < n.
126
Anexo 1 5.1. Matrices no negativas
127
5.1. Matrices no negativas Anexo 1
P P
k k
a ) Tr i=1 Si = i=1 Tr (Si ) ≥ 0
k X
X k k
X k
X
b) Tr (Si Sj ) >0 y Tr (Si Sj ) > 0.
j=1 i=1 j=1 i=1, i6=j
5.1.18. Teorema. Sea S una matriz simétrica n×n tal que S2 = S. Sean
además S1 , S2 , . . . , Sk son matrices no negativas de orden n. Si
k
X
In = S + Si ,
i=1
entonces SSi = Si S = 0 para todo i = 1, 2, . . . , k .
k
X
In = S + Si ,
i=1
por la matriz S, se obtiene
k
X k
X
S = S2 + SSi = S + SSi .
i=1 i=1
De esto se sigue que:
k k
! k
X X X
SSi = 0 y Tr SSi = Tr (SSi ) = 0.
i=1 i=1 i=1
Puesto que:
P T S1 S2 (P T )−1 = P T S1 P P −1 S2 (P T )−1
Iρ 0 C11 C12
=
0 0 C21 C22
C11 C12
= ,
0 0
entonces
C11 − λIρ C12
P S1 S2 (P T )−1 − λIn =
T
0 −λI
= |C11 − λIρ | |−λI | .
De aquí que las soluciones de la ecuación |S1 S2 − λI| = 0, son las solu-
ciones de la ecuación |C11 − λI| |−λI | = 0, las cuales son reales .
1. Si r = n, entonces A = In .
2. Si A es simétrica y r < n, entonces A es positiva semidenida.
129
5.2. Matrices idempotentes Anexo 1
D2 = P T S 2 P = P T SP = D,
puesto que P es invertible, se tiene entones que S 2 = S.
5.2.6. Teorema. Si S una matriz simétrica idempotente n × n, entonces:
n X
X n
ρ(S) = Tr S = Tr S T S = s2ij .
i=1 j=1
130
Anexo 1 5.2. Matrices idempotentes
a) S2 = S.
b) Si = Si2 , i = 1, 2, . . . , k .
c) Si Sj = 0 si i 6= j; i, j = 1, 2, . . . , k .
Xk k
X k
X k
X
S2 = ( Si )2 = Si2 + Si Sj
i=1 i=1 j=1
i=1
i 6= j
k
X
= Si = S,
i=1
k
X k
X
Si2 = Si ,
i=1 i=1
y por lo tanto:
k
X k
X
Si Sj = 0.
j=1
i=1
i 6= j
k
X k
X
De aquí que Tr Si Sj = 0.
j=1 i=1, i6=j
Xk k
X
S = S2 = ( Si )2 = Si2 ,
i=1 i=1
o sea,
k
X k
X
Si = Si2 .
i=1 i=1
Sj Sj = Sj Sj2 ,
o sea:
Sj2 = Sj3 ,
pues Si Sj = 0 si i 6= j; i, j = 1, 2, . . . , k . Por el teorema 5.2.5, se con-
cluye que Sj es una matriz simétrica idempotente, j = 1, 2, . . . , k. Así, as
condiciones a) y c) implican la condición b).
Xk k
X k
X k
X
S2 = ( Si )2 = Si2 + Si Sj
i=1 i=1 j=1
i=1
i 6= j
k
X
= Si = S;
i=1
132
Anexo 1 5.2. Matrices idempotentes
k
X
2
Sk+1 = (I − Si )2
i=1
k
X k
X k
X k
X
= I −2 Si + Si2 + Si Sj
i=1 i=1 j=1
i=1
i 6= j
k
X k
X k
X
= I− Si + Si Sj
i=1 j=1
i=1
i 6= j
k
X k
X
= Sk+1 + Si Sj .
j=1
i=1
i 6= j
Pk
De otro lado, como Sk+1 = I − i=1 Si , entonces:
k
X
2
Sk+1 = Sk+1 − Si Sk+1 .
i=1
En consecuencia:
k
X k
X k
X
Sk+1 + Si Sj = Sk+1 − Si Sk+1 .
j=1 i=1
i=1
i 6= j
De esto se sigue:
k
X k
X k
X
Si Sj + Si Sk+1 = 0,
j=1 i=1
i=1
i 6= j
133
5.2. Matrices idempotentes Anexo 1
por lo tanto,
Xk k
X k
X
Tr Si Sj + Si Sk+1 = 0.
j=1 i=1, i6=j i=1
a) Si2 = Si para i = 1, 2, . . . , k .
b) Si Sj = 0 para i 6= j; i, j = 1, 2, . . . , k .
De aquí que:
!
Xk k
X k
X
Tr Si Sj = Tr S − Tr Si2 ≤ 0.
j=1 i=1, i6=j i=1
135
5.2. Matrices idempotentes Anexo 1
136
CAPÍTULO 6
Este capítulo consta de cuatro secciones. Las dos primeras versan sobre
la denición, propiedades y cálculo de la inversa generalizada de una ma-
triz. La tercera sección trata sobre la denición y el cálculo de inversas
condicionales de una matriz. En la última sección veremos aplicaciones
de la inversa generalizada y de la inversa condicional de una matriz a los
sistemas de ecuaciones lineales y a los mínimos cuadrados.
4. Ir si r = n = m.
137
6.1. G-Inversa y C-inversa Inversa generalizada e inversa condicional
0 ··· 0 1 a1k ··· 0 a1k0 ··· a1k00 0 a1k000 ···
0 ··· 0 0 0 ··· 1 a2k0 ··· a2k00 0 a2k000 ···
0 ··· 0 0 0 ··· 0 0 ··· 0 1 a3k000 ···
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
0 ··· 0 0 0 ··· 0 0 0 0 0 ···
ahora bien, efectuando las operaciones elementales sobre las columnas de
la matriz R podemos obtener
Ir 0
F =
0 0
Así que F = RQ, donde Q es un producto de marices elementales (por
columnas). Por lo tanto; F = RQ = P AQ, donde P y Q son matrices
invertibles.
1 2 1 3 | 1 0 0
A | I3 = −1 −2 0 −2 | 0 1 0
2 4 2 6 | 0 0 1
f ilas
1 2 1 3 | 1 0 0
' 0 0 1 1 | 1 1 0
0 0 0 0 | −2 0 1
f ilas
1 2 0 2 | 1 −1 0
' 0 0 1 1 | 1 1 0 = R | P .
0 0 0 0 | −2 0 1
I2 0
F = .
0 0
1 2 0 2 | 1 0 0 0
| 0 1 0 0
R | I4 = 0 0 1 1
| 0 0 1 0
0 0 0 0 | 0 0 0 1
1 0 2 2 | 1 0 0 0
| 0 0 1 0
Col
' 0 1 0 1
| 0 1 0 0
0 0 0 0 | 0 0 0 1
1 0 0 0 | 1 0 −2 −2
| 0 0 1 0
Col
' 0 1 0 1
| 0 1 0 0
0 0 0 0 | 0 0 0 1
1 0 0 0 | 1 0 −2 −2
| 0 0 1 0
Col
' 0 1 0 0
| 0 1 0 −1
0 0 0 0 | 0 0 0 1
= F | Q
139
6.1. G-Inversa y C-inversa Inversa generalizada e inversa condicional
1 0 −2 −2
1 −1 0 0 0 1 0
P = 1 1 0 y Q=
0 1 0 −1
−2 0 1
0 0 0 1
son tales que:
1 0 0 0
I2 0
P AQ = = 0 1 0 0 .
0 0
0 0 0 0
6.1.3. Teorema. Si A es una matriz m × n de rango r > 0, entonces
existen matrices Bm×r y Cr×n , de rango r, tales que A = B · C.
1. Si r = m, entonces A = BC , donde B = Ir y C = A.
2. Si r = n, entonces A = BC , donde B = A y C = Ir .
3. Si r < n y r < m, entonces por el teorema 6.1.1(1) existen
matrices invertibles P y Q tales que:
Ir 0
P AQ = .
0 0
De aquí que:
0−1 Ir
A = P Q−1
0 0
−1 Ir
Ir 0 Q−1
= P
0
= BC,
donde B ∈ Mm×r y C ∈ Mr×n son las matrices de rango r,
dadas por
Ir
B = P −1 Q−1 .
y C= Ir 0
0
P −1 =
B D ,
donde B es una matriz m×r de rango r y además,
−1
A = P R
C
= B D
0
= BC
1 2 1 3
A = −1 −2 0 −2
2 4 2 6
tiene rango2. Existen por lo tanto matrices B3×2 y C2×4 de rango 2 tales
que A = BC. Calculemos matrices B y C siguiendo los pasos indicados
anteriormente.
1 2 1 3 | 1 0 0
A | I3 = −1 −2 0 −2 | 0 1 0
2 4 2 6 | 0 0 1
1 2 1 3 | 1 0 0
→ 0 0 1 1 | −1 1 0
0 0 0 0 | 2 0 1
R | P −1 .
=
1 1
1 2 0 2
B = −1 0 y C= ,
0 0 1 1
2 2
142
Inversa generalizada e inversa condicional 6.1. G-Inversa y C-inversa
a) (A+ )+ = A.
b) (αA)+ = α−1 A+ , para todo escalar α 6= 0.
c) (AT )+ = (A+ )T
d) (AAT )+ = (AT )+ A+
e) (AT A)+ = A+ (AT )+
1. La matriz M = A+ (AT )+ satisface la igualdad
A T
A M =
A+ A y por lo tanto, la matriz AT A A+ (AT ) +
es simétrica.
En efecto:
AT A M AT A A+ (AT )+
=
(c)
= AT (AA+ )(A+ )T
def.
= AT (AA+ )T (A+ )T
T
= A+ AA+ A+
def. T
= A+ A = A+ A .
145
6.1. G-Inversa y C-inversa Inversa generalizada e inversa condicional
2. La matriz M = A+ (AT )+ satisface la igualdad
M A T
A =
A+ A y por lo tanto, la matriz A+ (AT )+ AT A es simétrica.
En efecto:
M AT A A+ (AT )+ AT A
=
(c)
= A+ (A+ )T AT A
def.
= A+ (AA+ )T A
def. def.
= A+ AA+ A = A+ A.
3. La matriz M = A+ (AT )+ satisface la igualdad (AT A)M (AT A) =
T
A A.
(AT A)M (AT A) AT A A+ (AT )+ AT A
=
(1)
A+ A AT A = (A+ A)T AT A
=
T def. T
= A(A+ A) A = AA+ A A = AT A.
4. La matriz M = A+ (AT )+ satisface la igualdad M (AT A)M =
M. En efecto
T
A+ (AT )+ AT A A+ (AT )+
M (A A)M = M =
(2)
A+ A A+ (AT )+
=
T +
= A+ AA+ AT
def.
= A+ (AT )+ .
146
Inversa generalizada e inversa condicional 6.2. Cálculo de la g-inversa
En esta sección veremos algunos teoremas que pueden ser utilizados para
calcular la g-inversa de una matriz. Empezamos con el siguiente resultado,
el cual se deduce de los teoremas 6.1.3, 6.1.9 y 6.1.10.
1. Si r = n = m, A es invertible y A+ = A−1 .
entonces
+ T
−1
2. Si r = m < n,entonces A = A AAT .
+ T
−1 T
3. Si r = n < m, entonces A = A A A .
4. Si r < n y r < m, entonces existen matrices B ∈ Mm×r y
C ∈ Mr×n de rango r tales que A = B · C y
−1 −1
A+ = C T CC T BT B BT .
−1 T
1. Si a ∈ M1×n , entonces a+ = aaT a .
+
T −1 T
2. Si a ∈ Mn×1 , entonces a = a a a .
1 2
1. La matriz A = es invertible, así que A+ = A−1 =
1 3
3 −2
.
−1 1
1 2 3
2. La matriz A= tiene rango 2, así que:
−1 −1 1
1 −1
T −1 1 3 0
A+ = AT AA
= 2 −1
42 0 14
3 1
3 −14
1
= 6 −14
42
9 14
147
6.2. Cálculo de la g-inversa Inversa generalizada e inversa condicional
1 2
3. La matriz A= 3 4 tiene rango 2, así que:
5 6
+ T
−1 T 1 56 −44 1 3 5
A = A A A =
24 −44 35 2 4 6
1 −32 −8 16
=
24 26 8 −10
4. La matriz A dada por
1 2 1 3
A = −1 −2 0 −2
2 4 2 6
Del ejemplo 6.1.5 se sabe ρ(A) = 2 y que las matrices
1 1
1 2 0 2
B = −1 0 y C=
0 0 1 1
2 2
son tales que A = BC. Luego
−1 −1
A+ = C T CC T BT B BT .
−2 −20 −4
1 −4 −40 −8
=
24 9 55 18
5 15 10
5. Para la matriz A = 1 2 3 = 6 0 se tiene que:
1
−1 T 1
a+ = aaT
a = 2
14
3
1
6. La matriz A = 1 6= 0 se tiene que,
1
−1 T 1
a+ aT a
= a = 1 1 1 .
3
6.2.4. Teorema. Sea A ∈ Mm×n una matriz de rango r > 0. Entonces la
g-inversa de A se puede calcular siguiendo los pasos dados a continuación:
1. Calcule M = AT A.
148
Inversa generalizada e inversa condicional 6.2. Cálculo de la g-inversa
2. Haga C1 = I .
1
3. Calcule Ci+1 = Tr(Ci M )I − Ci M, para i = 1, 2, . . . , r − 1.
i
r
4. Calcule Cr AT , ésta es la matriz A+ .
Tr (Cr M )
149
6.2. Cálculo de la g-inversa Inversa generalizada e inversa condicional
1. Forme la matriz A | Im .
2. Efectúe operaciones elementales en las las de la matriz anterior
hasta conseguir la forma escalonada reducida de A. Al nal de
este paso se obtiene una matriz que podemos describir por bloques
así:
Er×n | Pr×m
si r<m
0m−r×n | Pm−r×m
ó
Em×n | Pm×m si r = m.
Er×n AT
| Er×n
si r<m
Pm−r×m | 0m−r×m
Em×n AT
| Em×n si r = m.
| (A+ )T .
Im
1 2 1 3
A = −1 −2 0 −2 .
2 4 2 6
150
Inversa generalizada e inversa condicional 6.2. Cálculo de la g-inversa
0 0 0 0 | −2 0 1
E2×4 | P2×3
= .
01×4 | P1×3
E2×4 At | E2×4
Construyamos ahora la matriz de la forma y aplique-
P1×3 | 01×4
mos de nuevo operaciones elementales en las las, hasta obtener la matriz
identidad I3 en el lado izquierdo de este arreglo
11 −9 22 | 1 2 0 2
E2×4 At
| E2×4 4 −2 8 | 0 0 1 1
=
P1×3 | 01×4 ··· ··· ··· | ··· ··· ··· ···
−2 0 1 | 0 0 0 0
1 2 9 1
− −
1
0 0 | 35 35 70 14
|
2 4 11 3
→
0 1 0 | − −
| 7 7 14 14
0 0 1 | 2 4 9 1
− −
35 35 35 7
(A+ )t .
= I3 |
Así que
1 2 2
− − −
35 7 35
−2 4 4
−2 −20 −4
35 − −
7 35 1
−4 −40 −8
A+ = =
9 70 9 55 18
11 9
5 15 10
70 14 35
2 3 1
35 14 7
151
6.3. C-inversa Inversa generalizada e inversa condicional
T
−14 −6 | 1 0 −5
E2×4 A | E2×3 =
14 3 | 0 1 4
1 2 3
1 0 | 14 14 14
→ |
| −1 1 1
0 1 −
3 3 3
| (A+ )T
= I2 .
Así que
1 1
−
14
3
3 −14
+
2 1 1
A = − = 6 −14
14
3 42
3 1 9 14
14 3
152
Inversa generalizada e inversa condicional 6.3. C-inversa
4
(véase la sección 1.5 de [ ]) y en la caracterización del conjunto solución
de sistemas lineales de ecuaciones.
A(αN1 )A = αAN1 A = α0 = 0,
ésto implica que, αN1 ∈ W. Es decir, W es cerrado bajo la multiplicación
por un escalar. El conjunto W es entonces un subespacio vectorial de
Mn×m , lo que completa la demostración del inciso (1).
153
6.3. C-inversa Inversa generalizada e inversa condicional
Sea entonces A una matriz m×n de rango r, con 0 < r < mı́n {m, n}.
De acuerdo con el inciso (1) del teorema 6.1.1, existen matrices invertibles
P ∈ Mm×m y Q ∈ Mn×n tales que:
Ir 0 −1 Ir 0
(6.1) P AQ = o A=P Q−1 .
0 0 0 0
Consideremos ahora matrices arbitrarias X ∈ Mr×r , Y ∈ Mr×(m−r) , Z ∈
M(n−r)×r y W ∈ M(n−r)×(m−r) y la matriz N ∈ Mn×m dada por
X Y
N =Q P.
Z W
Ahora N ∈W siiAN A = 0. De (6.1) se sigue que
Ir 0 X Y Ir 0
AN A = P −1 Q−1 Q P P −1 Q−1
0 0 Z W 0 0
X 0
= P −1 Q−1 .
0 0
De aquí se deduce AN A = 0 X = 0. Esto es, N ∈ W
sii sii N es de la
forma:
0 Y
N =Q P.
Z W
Demostremos ahora que la dimensión de W es m · n − r2 . Para ello, us-
aremos el hecho de que dim Mk×j = k · j.
En efecto, consideremos los
espacios de matrices Mr×(m−r) , M(n−r)×r y M(n−r)×(m−r) con las bases
respectivas B1 = Y1 , Y 2 , . . . , Yr(m−r) , B1 = Z 1 , Z 2 , . . . , Z r(n−r) y
B3 = W1 , W2 , . . . , W(n−r)·(m−r) . Es fácil mostrar entonces que el con-
junto B = {N1 , N2 , . . . , Nm·n−r·r } con
0 Yi
Ni = Q P ; i = 1, 2, . . . , m · r − r2
0 0
0 0
Nr(m−r)+j = Q P ; j = 1, 2, . . . , n · r − r2
Zj 0
0 0
Nr(m+n−2r)+k = Q P ; k = 1, 2, . . . , (n − r) · (m − r),
0 Wk
es una base de W.
6.3.4. Teorema. Sea A una matriz m× n. El conjunto McA de todas las
c-inversas,
McA = {M ∈ Mn×m : AM A = A} ,
2
es una variedad lineal de dimensión m · n − r .
154
Inversa generalizada e inversa condicional 6.3. C-inversa
c
Demostración. Por el teorema 6.2.2 MA es no vacío, sea entonces
M0 un elemento de McA . Veriquemos entonces, que M ∈ McA si y sólo
si M se puede escribir como la suma de M0 y un elemento N ∈ W, ésto
es, sii M = M0 + N para algún N ∈ W , siendo W el conjunto dado en el
teorema 6.3.3.
M = M + M0 − M0
= M0 + (M − M0 ) = M0 + N ,
A(M − M0 )A = AM A − AM0 A = A − A = 0 ,
McA = {M + N, N ∈ W } .
3. Si r = m < n, entonces
c Ir
MA = Q P : Y ∈ M(n−r)×m .
Y
4. Si r = n < m, entonces
McA = Q Ir X P : X ∈ Mn×(m−r) .
155
6.3. C-inversa Inversa generalizada e inversa condicional
156
Inversa generalizada e inversa condicional 6.3. C-inversa
1. H es triangular superior.
2. hii = 0 ó hii = 1, i = 1, 2, . . . , n.
3. Si hii = 0, entonces la i-ésima la es nula, ésto es, hij = 0 para
todo j = 1, 2, . . . , n.
4. Si hii = 1, entonces el resto de los elementos de la i-ésima colum-
na son nulos. Ésto es, hji = 0 para todo j = 1, 2, . . . , n; (j 6= i).
1 2 0 0
0 0 0 0
H=
0
0 1 0
0 0 0 1
tiene la forma Hermite superior.
E1 E2 · · · Ek R = H
o sea:
E1 E2 · · · Ek P A = H.
En consecuencia, la matriz invertible B = E1 E2 · · · Ek P es tal que BA =
H tiene la forma Hermite superior.
157
6.3. C-inversa Inversa generalizada e inversa condicional
BABA = BA.
Premultiplicando los dos miembros de la última igualdad por la matriz
B −1 se obtiene:
ABA = A,
esto es, B es una c-inversa de A.
158
Inversa generalizada e inversa condicional 6.3. C-inversa
B∗ =
B B1 ,
donde B es una matriz n × m, entonces B es una c-inversa de
A.
159
6.4. Mínimos cuadrados Inversa generalizada e inversa condicional
es una c-inversa de A.
160
Inversa generalizada e inversa condicional 6.4. Mínimos cuadrados
Ax0 = y .
Premultiplicando los miembros de la última igualdad por Ac se obtiene
c c
A Ax0 = A y ,
161
6.4. Mínimos cuadrados Inversa generalizada e inversa condicional
de donde:
0 = Ac y − Ac Ax0 .
Sumando x0 a los dos lados de la última igualdad se llega a:
x0 = Ac y + x0 − Ac Ax0
= Ac y + (I − Ac A)x0
= Ac y + (I − Ac A)h,
donde h = x0 . Ésto es, x0 se puede expresar en la forma 6.1.
m y
IR
Ax
C (A)
0
.Ax
A x0
162
Inversa generalizada e inversa condicional 6.4. Mínimos cuadrados
y y y
x x x
(1) Aproximacion
´ lineal (2) Aproximacion
´ cuadratica
´ (3) Aproximacion
´ cubica
´
y1 = a + bx1
y2 = a + bx2
. . .
. . .
. . .
yn = a + bxn .
Estas igualdades se pueden escribir, utilizando notación matricial, así:
y1 1 x1
y2 1 x2 a
(6.3) y= . = . = Ax .
.
.. .. .
. b
yn 1 xn
Si los puntos que corresponden a los datos no son colineales, es imposible
encontrar coecientes a y b que satisfagan (6.3). En este caso, independi-
entemente de la forma en que se escojan a y b, la diferencia
Ax − y,
entre los dos miembros de (6.3) no será cero. Entonces, el objetivo es
a∗
encontrar un vector x= que minimice la longitud del vector Ax −
b∗
y, esto es, que minimice
k Ax − y k ,
2
lo que es equivalente a minimizar su cuadrado, k Ax − y k .
a∗
Si x0 = es un vector que minimiza tal longitud, a la línea recta
b∗
∗ ∗
y = a + b x se le denomina recta de ajuste por mínimos cuadrados de los
datos. La gura 6.3 ilustra la adaptación de una línea recta por el método
de los mínimos cuadrados. Se tiene que k Ax − y k , y
2 2 2
k Ax − y k = [(a∗ + b∗ x1 − y1 )] + [(a∗ + b∗ x2 − y2 )] +
2
· · · + [(a∗ + b∗ xn − yn )]
∗
a
son minimizados por el vector x0 = . En dicha gura se ve que
b∗
∗ ∗
|a + b xi − yi | corresponde a la distancia vertical, di , tomada desde el
164
Inversa generalizada e inversa condicional 6.4. Mínimos cuadrados
y
( x n , yn )
dn
(x2 , y2 )
( x1 , y1 )
d2 *
y=a+b *
x
d1
d3
( x3 , y3 )
k Ax0 − y k < k Ax − y k .
6.4.5. Denición (Mejor Solución Aproximada) . Se dice que el vector
x0 es una mejor solución aproximada (M.S.A.) del sistema de ecuaciones
lineales Ax = y, si:
k Ax0 − y k < k Ax − y k .
165
6.4. Mínimos cuadrados Inversa generalizada e inversa condicional
Por hipótesis AAc = (AAc )t . Así que para todo vector x se tiene que:
2 c c 2
k Ax − y k = k (Ax − AA y) + (AA y − y)k
2
= k Ax − AAc y k + 2(Ax − AAc y)T (AAc y − y)
2
+ k AAc y − y k
2
k Ax − AAc y k + 2 (x − Ac y)T AT ((AAc )T − I)y
=
2
+ k AAc y − y k
2
k Ax − AAc y k + 2 (x − Ac y)T (AT (AAc )T − AT )y
=
2
+ k AAc y − y k
2
= k Ax − AAc y k + 2 (x − Ac y)T ((AAc A)t − At )y
2
+ k AAc y − y k
2 2
= k Ax − AAc y k + 2 (x − Ac y)T (0)y + k AAc y − y k
2 2
= k Ax − AAc y k + k AAc y − y k .
6.4.7. Teorema. Sea A m c
una matriz m × n y sea y un vector R . Si A es
c c
una c-inversa de A tal que AA es simétrica, entonces x0 = A y es una
S.M.C. para el sistema Ax = y.
A y + (I − A+ A)x∗
2 =
A+ y + x∗ − A+ x∗
2 = k x∗ k2
+
2
2
=
A+ y
+
(I − A+ A)x∗
2 2
≥
A+ y
= k x 0 k ,
167
6.4. Mínimos cuadrados Inversa generalizada e inversa condicional
2
es decir, k x∗ k > k x0 k si x0 6= x∗ .
6.4.9. Observación. El teorema anterior establece que todo sistema de
ecuaciones lineales Ax = y tiene una única M.S.A. , x0 = A+ y. Por ésto
de aquí en adelante hablaremos de la mejor solución aproximada (M.S.A.)
de un sistema de ecuaciones lineales.
Ahora bien, puesto que la mejor solución aproximada del sistema de ecua-
ciones lineales Ax = y es una solución mínima cuadrada, se tiene el sigu-
iente teorema.
x0 = A+ y.
Demostración. Sea x∗
una S.M.C. del sistema de ecuaciones Ax =
y. Por denición se tiene para todo x ∈ Rn , entonces que k Ax∗ − y k ≤
k Ax − y k , en particular, para el vector x0 = A+ y se tiene:
k Ax∗ − y k ≤
AA+ y − y
.
(6.5)
168
Inversa generalizada e inversa condicional 6.4. Mínimos cuadrados
AA+ y − y
2
2
2
≤
Ax∗ − AA+ y
+
AA+ y − y
2
2
= k Ax∗ − y k ≤
AA+ y − y
6.4.13. Ejemplo. Encontremos una recta de ajuste, por mínimos cuadra-
dos (ver gura 6.4), que se adapte a los puntos:
Para ello debemos encontrar una S.M.C. del sistema de ecuaciones lineales
Ax = y, donde
1 x1 1 0 y1 1
1 x2 1 1 y2 3
A=
1
= , y=
y3 = 4
x3 1 2
1 x4 1 3 y4 4
y el vector incógnita x está dada por
a
x= .
b
169
6.4. Mínimos cuadrados Inversa generalizada e inversa condicional
y = a∗ + b∗ x = 1,5 + x.
y
y=1.5+x
(2,4)
(3,4)
(1,3)
(0,1)
170
Inversa generalizada e inversa condicional 6.4. Mínimos cuadrados
y
x=1 y
y=3/2x
(1,2) y=3/4+3/4x
(1,2)
(1,1) (1,1)
x x
a) Ajuste por una recta de pendiente infinita b) Ajuste por rectas de pendiente no infinita
a∗
+ 1 1 1 1 3/4
x0 = A y= = = .
4 1 1 2 3/4 b∗
Así que una recta de ajuste, por mínimos cuadrados, de los puntos dados
es:
3 3
y = a∗ + b∗ x = + x.
4 4
De otra parte, la matriz
0 0
Ac =
1/2 1/2
es una c-inversa de A, AAc es simétrica. En efecto,
171
6.4. Mínimos cuadrados Inversa generalizada e inversa condicional
c 1/2 1/2
AA = .
1/2 1/2
Por lo tanto, de acuerdo con el teorema 6.4.7,
0 â
x 0 = Ac y = =
3/2 b̂
es también una S.M.C. Así que otra recta de ajuste por mínimos cuadra-
dos, de los puntos dados es (ver gura 6.5(b)):
3
y = a∗ + b∗ x = x.
2
x21 xm
y1 1 x1 ··· 1 a0
y2 1 x2 x22 ··· xm
2 a1
.. = ..
. . .. . .
. . . .
. . . . . . .
yn 1 xn x2n ··· m
xn am
x0 = A+ y = (At A)−1 At y
0
3 11 9 −3
1 −2
= −1 3 7 1 −1
20
5 −5 −5 5
0
−31 −1,55
1
= −13 = −0,65
20
15 0,75
En consecuencia, existe un único polinomio de grado dos que se ajuste
por mínimos cuadrados de los datos dados. Este polinomio está dado por
(ver gura 6.6):
y
2
y=−1.55−0.65x+0.75x
(−1,0)
(2,0) x
(1,−1)
(0,−2)
173
6.5. Ejercicios Inversa generalizada e inversa condicional
6.5. Ejercicios
+ 1
y j = 1, 2, . . . , n, entonces A = A.
mn
12. Si P ∈ Mn×n y Q ∈ Mm×m son matices ortogonales, entonces
+ T + T
para cualquier matriz m×n, A, se tiene que (P AQ) = Q A P .
+
13. Si S es una matriz simétrica no negativa, entonces S es una
matriz no negativa.
14. Para cada matriz m × n, A; AB = AA+ sii B es tal que ABA =
A y AB es simétrica.
15. Sea A una m × n. ρ(A) = m sii AA+ = I sii AAc = I
matriz
para cada c-inversa Ac de A.
+ c
16. Sea A una matriz m × n. ρ(A) = n sii A A = I sii A A = I
c
para cada c-inversa A de A.
17. Si B es una c-inversa de A, entonces también lo es BAB .
c c
18. Si B y C son c-inversas de las matrices B y C respectivamente,
entonces una c-inversa de la matriz
Bc
B 0 c 0
A= es A = .
0 C 0 Cc
19. Si el sistema de ecuaciones lineales Ax = y tiene solución, en-
tonces la solución x = A+ y A+ A = I, y en este caso
es única sii
A+ y = Ac y para toda c-inversa c
A de A.
20. Si x1 , x2 , . . . , xn son soluciones del sistema de ecuaciones lineales
Pn
Ax = y, y si λ1 , λ2 , . . . , λn son escalares tales que i=1 λi = 1,
175
6.5. Ejercicios Inversa generalizada e inversa condicional
entonces
n
X
x= λi xi
i=1
y = a∗ + b∗ x
∆a ∆b
y que a∗ = y b∗ = , donde:
∆ ∆
Pn Pn Pn
n i=1 xi i=1 yi i=1 xi
∆ = det P ∆a = det P
n Pn 2 n Pn 2
i=1 xi i=1 xi i=1 xi yi i=1 xi
Pn
n i=1 yi
∆ = det P
n Pn
i=1 xi i=1 xi yi
6.5.3 Cálculos
1 2
(i) A1 = 0 0 0 (ii) A2 =
3 5
1
(iii) A1 = 1 2 3 (iv) A4 = 1
2
176
Inversa generalizada e inversa condicional 6.5. Ejercicios
7 7 7 1 0 0
(v) A5 = 7 7 7 (vi) A6 = 0 5 0
7 7 7 0 0 0
1 2 1 2 0 0
3 4 1 2 0 0
(vii) A7 =
0
(viii) A8 =
0 0 0 3 3
0 0 0 0 3 3
2 −1 −1
−3 1 2
(ix) A9 = 1
1 1
1 1 1
1 1 1
1 2 3
2. Para la matriz A = 2 5 3 ,dé dos c-inversa Ac1 y Ac2 tales
1 3 0
c c
que ρ(A1 ) > ρ(A) y ρ(A2 ) = ρ(A).
3. Determine el conjunto de todas las c-inversas de las matrices
1 1 1 2 3
A1 = , A2 = ,
1 1 1 3 3
1 2
1 2
A3 = 1 3 , A4 = .
1 3
2 5
4. Dé la M.S.A. del sistema de ecuaciones lineales Ax = y, donde:
2 2 2 1
2 2 2 2
A= y y=
3 .
1 −1 0
2 −2 0 4
5. Dé la ecuación de la recta que mejor se ajuste por mínimos
cuadrados a los puntos:
177
6.5. Ejercicios Inversa generalizada e inversa condicional
178
CAPÍTULO 7
Factorización de matrices
7.1. Descomposición LU
(7.1) A = LU
donde L es una matriz triangular inferior (del inglés lower) m×m y U es
una matriz escalonada m×n (del inglés upper). Entonces el sistema
(7.2) Ax = b
puede resolverse de la siguiente forma: Usando (7.1), el sistema (7.2) se
puede escribir en la forma
(7.3) L(U x) = b.
179
7.1. Descomposición LU Factorización de matrices
(7.4) Ly = b.
Resolvemos entonces dicho sistema para la variable y, mediante sustitu-
ción hacia adelante. Como paso nal, usamos sustitución hacia atrás para
resolver el sistema
(7.5) U x = y.
Es de anotar, que los sistemas (7.4) y (7.5) son relativamente fáciles de
resolver dado que se trata de matrices de coecientes triangulares inferi-
ores y superiores respectivamente. La factorización o descomposición LU
es particularmente útil cuando se requiere resolver de manera simultánea
varios sistemas de ecuaciones que dieren únicamente en la parte no ho-
mogénea.
Ek Ek−1 · · · E2 E1 A = U.
De aquí obtenemos A = E1−1 E2−1 · · · Ek−1 U.
180
Factorización de matrices 7.1. Descomposición LU
A = LU,
Consideremos ahora una matriz invertible A y demostremos la unicidad
de dicha factorización. Supongamos que tenemos dos factorizaciones LU
para A de la forma
A = L1 U1 = L2 U2 ,
con U1 , U2 matrices triangulares superiores y L1 , L2 matrices triangulares
inferiores con unos en su diagonal principal. Como A es invertible las
matrices U1 , U2 también lo son, más aún sus inversas son igualmente
triangulares superiores (ver ejercicio 2 de la sección 7.5.2). De esta última
igualdad obtenemos entonces
L−1 −1
2 L1 = U2 U1 .
U1 = U2 .
E3 E2 E1 A = U
A = (E3 E2 E1 )−1 U
2 3 2 4
(−2)F1 +F2
2 3 2 4
4 10 −4 0 (3/2)F1 +F3
2 4 −8 −8
−3 −2 −5 −2 −→
-3/2 5/2 −2 4
−2 4 4 −7 (1)F1 +F4
-1 7 6 −3
2 3 2 4
(−5/8)F2 +F3
(−7/4)F2 +F4
2 4 −8 −8
−→ -3/2 5/8 3 9
-1 7/4 20 11
2 3 2 4
(−20/3)F3 +F4
2 4 −8 −8
,
−→ 3/2 5/8 3 9
-1 7/4 20/3 −49
183
7.1. Descomposición LU Factorización de matrices
P A = LU .
7.1.6. Ejemplo. Hallemos la descomposición para la matriz
0 2 3
A= 2 −4 7 .
1 −2 5
En este caso, para reducir A a una matriz triangular superior U es nece-
sario primero una o varias operaciones elementales del tipo permutación
de las (también es posible usar operaciones del tipo αFi + Fj con i > j ).
Una de tales operaciones de intercambio puede ser F12 . Si llamamos P a
la correspondiente matriz permutación obtenemos entonces
2 −4 7
PA = 0 2 3 .
1 −2 5
184
Factorización de matrices 7.1. Descomposición LU
A esta nueva matriz le aplicamos los pasos descritos en los ejemplos an-
teriores y obtenemos
2 −4 7
2 −4 3 (1/2)F1 + F3
0 2 3 −→
0 2 3
1 −2 5 1/2 0 3/5
P A = LU . Λ
P A = LU
7.1.8. Teorema. Sea A una matriz rectangular m×n que se puede reducir
a una forma escalonada efectuando únicamente operaciones elementales
de eliminación (operaciones del tipo αFi + Fj con i < j ). Entonces existe
una matriz m × m triangular inferior L con unos en la diagonal principal
y una matriz m × n, U con uij = 0, si i > j tales que
A = LU.
0 U
A
= L 0
0 U
A =
L 0
U
0
A =
L
0
186
Factorización de matrices 7.1. Descomposición LU
x1 + 4x2 + 7x3 = 1
2x1 + 5x2 + 8x3 = 2
3x1 + 6x2 + 12x3 = 4
1 4 7 1 0 0 1 4 7
A= 2 5 8 = 2 1 0 0 −3 −6 = LU
3 6 12 3 2 1 0 0 3
cuya solución es
1
z = 0 .
1
Con esta solución planeamos el sistema U x = z, esto es el sistema
x1 + 4x2 + 7x3 = 1
−3x2 − 6x3 =0 ,
3x3 =1
y cuya solución es
187
7.2. Descomposición QR Factorización de matrices
7.2. Descomposición QR
A = QR
A1 A2 An
A= ··· ,
188
Factorización de matrices 7.2. Descomposición QR
v1 = A1
2
A ; v1
v2 = A2 − v1
hv1 ; v1 i
3
3
3 A ; v1 A ; v2
v3 = A − v1 − v2
hv1 ; v1 i hv2 ; v2 i
.
.
.
n−1
X hAn ; vi i
vn = An − vi .
i=1
hvi ; vi i
A1 = v1
2
2 A ; v1
A = v2 + v1
hv1 ; v1 i
3
3
A ; v1 A ; v2
A3 = v3 + v1 + v2
hv1 ; v1 i hv2 ; v2 i
.
.
.
n−1
n
X hAn ; vi i
A = vn + vi .
i=1
hvi ; vi i
189
7.2. Descomposición QR Factorización de matrices
A1 A2 An
A = ···
2
A ; v1 A3 ; v1 hAn ; v1 i
1 ···
hv1 ; v1 i hv1 ; v1 i hv1 ; v1 i
2
A ; v2 hAn ; v2 i
0 1 ···
hv2 ; v2 i hv2 ; v2 i
hAn ; v3 i
A = v1 v2 ··· vn
0 0 1 ···
hv3 ; v3 i
. . . .
. . . .
. . . ··· .
n
.. hA ; vn−1 i
0 0 0 .
hvn−1 ; vn−1 i
0 0 ··· 1
A = Q0 R0 ,
A = Q0 R0
= Q0 D−1 DR0
A2 ; v 1 hAn ; v1 i
kv1 k kv1 k
hv1 ; v1 i
··· kv1 k
hv1 ; v1 i
hAn ; v2 i
h i
= v1 v2
··· vn 0 kv2 k ··· kv2 k
kv1 k kv2 k kvn k
hv2 ; v2 i
. . .. .
.. . .
. . .
0 ··· ··· kvn k
= QR ,
1 2 −1
1 −1 2
= A1 A2 A3
A= .
1 −1 2
−1 1 1
1
1
v1 = A1 =
1 ;
−1
2 2 1 9
A ; v1 −1 1 1 1 −3
v2 = A2 − −1 + 4 1 = 4 −3 ;
v1 =
hv1 ; v1 i
1 −1 3
3
3
A ; v1 A ; v2
v3 = A3 − v1 − v2
hv1 ; v1 i hv2 ; v2 i
−1 1 9 0
2 1 1 2 −3 1
2 − 2 1 + 3 −3 = 1 .
=
1 −1 3 2
A1 = v1
2 1
A = − v1 + v2
4
1 2
A3 = v1 − v2 + v3 .
2 3
191
7.2. Descomposición QR Factorización de matrices
1 2 3 1 −1/4 1/2
A = A A A = [v1 v2 v3 ] 0 1 −2/3
0 0 1
1 9/4 0
1 −3/4 1 1 −1/4 1/2
= 1 −3/4 1 0
1 −2/3
0 0 1
−1 3/4 2
= Q0 R0 (Descomposicón no normalizada).
3
√ √
En este caso, la matriz D está dada por D = diag 2, 2 3, 6 . Entonces
podemos escribir
A A A = Q0 D−1 DR0
1 2 3
A =
√
1/2 3/2 3 0
√ √
2
−1/2 1
1/2 −1/2 3 1/ 6
√ √
=
√ √
0
3 3/2 − 3
1/2 −1/2 3 1/ 6
√
0 0 6
√ √
−1/2 1/2 3 2/ 6
= QR (Descomposición normalizada).
A = Q0 R0 .
En este caso sin embargo, Q0 tendrá r columnas ortogonales no nulas
y n−r columnas nulas. Ahora, para denir matriz diagonal D usamos
los módulos de la columnas no nulas Q0 respetando sus posiciones y unos
(1's) en el resto de componentes de la diagonal de D. La matriz Q buscada
corresponde entonces a la matriz formada por las columnas no nulas de
Q0 D−1 , igualmente Rr se obtiene eliminado de la matriz DR0 , las las
con índices iguales a las columnas nulas de Q0 .
193
7.2. Descomposición QR Factorización de matrices
0
A3 ; v 1 A3 ; v 2 9 0
v3 = A3 − v1 − v 2 = A3 − v 1 + v 2 =
0 ;
hv1 ; v1 i hv2 ; v2 i 4
0
0
4 1 2 1
v4 = A − v1 + v2 − 0v3 = 1 .
2 3
2
A1 A2 A3 A4
A =
1 9/4 0 0 1 −1/4 9/4 1/2
1 −3/4 0 1 0 1 −1 −2/3
=
1 −3/4 0 1 0 0 1 0
−1 3/4 0 2 0 0 0 1
= Q0 R0 .
A1 A2 A3 A4 = Q0 R0 = Q0 D−1 DR0
A =
√
1/2 3/2 3 0 0 2 −1/2 9/2 1
√ √ √ √
1/2 −1/2 3 0 1/ 6
0
3 3/2 −1 − 3
=
√ √
.
1/2 −1/2 3 0 0
1/ 6 0 1 0
√ √ √
−1/2 1/2 3 0 2/ 6 0 0 0 6
Esto es,
194
Factorización de matrices 7.2. Descomposición QR
√
1/2 3/2 0 0 2 −1/2 9/2 1
√ √ √ √
1/2 − 3/6 0 6/6 0 3 3/2
−1 − 3
A =
√ √
1/2 − 3/6 0 6/6 0 0 1 0
√ √ √
−1/2 3/6 0 6/3 0 0 0 6
√
1/2 3/2 0
√ √
2
−1/2 9/2 1
1/2 − 3/6 6/6
√ √
=
√ √
0 3 3/2
−1 − 3
1/2 − 3/6 6/6
√
0 0 0 6
√ √
−1/2 3/6 6/3
= QR .
La matriz Q se obtiene al eliminar la tercera columna (columna nula) de
Q0 D−1 , mientras que R se obtiene al eliminar la correspondiente tercera
la de DR0 .
A = QR,
además se tiene que
A+ = R−1 QT .
195
7.2. Descomposición QR Factorización de matrices
A = QR,
además se tiene que
A+ = RT (RRT )−1 QT .
A+ = (AT A)−1 AT
= (RT QT QR)−1 RT QT
= R−1 (RT )−1 RT QT
= R−1 QT .
196
Factorización de matrices 7.2. Descomposición QR
x∗ = A+ y.
x = A+ y + (I − A+ A)h; h ∈ Rn .
Rx = QT y .
√
1/2 3/2 0
√ √
2 −1/2 9/2 1
1/2 − 3/6 6/6
√ √
Q=
√ √
y
0
R= 3 3/2 −1 − 3
1/2 − 3/6 6/6
√
√ √
0 0 0 6
−1/2 3/6 6/3
A = QR .
197
7.3. Descomposición de Cholesky Factorización de matrices
√1/2
Rx = QT y = √3/2 ,
6/2
es decir por la expresión
1/6 −2
2/3 1
x 0 + h 1 ,
= h ∈ R.
1/2 0
En particular, si h = 1/18, obtenemos las M.S.A.
5
1
11 .
x ∗ = A+ y =
18 −1
9
198
Factorización de matrices 7.3. Descomposición de Cholesky
7.3.1. Teorema .
(Factorización de Cholesky) Si A ∈ Mn×n es una matriz
simétrica positiva denida, entonces existe una única matriz real T =
[tij ]n×n triangular superior con tii > 0 (i = 1, . . . , n), tal que
A = TTT .
Además,
2 2
|A| = |T | = [Πni=1 tii ] .
√ √ β
√
α 0 α
α
α β
= T T T,
A= = p
β θ β αθ − β 2 p
√ √ αθ − β 2
α α 0 √
α
además, se tiene que |A| = (t11 · t22 )2 .
199
7.3. Descomposición de Cholesky Factorización de matrices
|A| = |T |2 = |U |2 z 2
2 2
Πi=1 uii z 2 = Πk+1
k
= i=1 tii .
200
Factorización de matrices 7.3. Descomposición de Cholesky
a11 a12 a13 ··· a1n
a12 a22 a23 ··· a2n
A =
a13 a23 a33 ··· a3n
. . . .. .
. . . .
. . . . .
a1n a2n a3n ··· ann
t11 0 0 ··· 0 t11 t12 t13 ··· t1n
t12 t22 0 ··· 0
0 t22 t23 ··· t2n
=
t13 t23 t33 ··· 0 0
0 t33 ··· t3n .
. . . .. . . . . .. .
. . . . .. . . .
. . . . . . . . .
t1n t2n t3n ··· tnn 0 0 0 ··· tnn
Cálculos directos muestran entonces que se debe cumplir que:
√
1. t11 = a11 .
a1j a1j
2. t1j = = √ ; j = 1, . . . , n.
t11 a11
Pi−1 2 1/2
3. tii = aii − k=1 tki ; i = 2, . . . , n.
" i−1
#
1 X
4. tij = aij − tki tkj ; j > i, i = 2, . . . , n − 1.
tii
k=1
5. tij = 0; j < i, i = 2, . . . , n.
Observación. Con respecto a este método y al cálculo de los elementos
elementos no nulos tij de la matriz triangular T podemos decir que:
201
7.3. Descomposición de Cholesky Factorización de matrices
i−1
X
tij · tii = aij − tki tkj ; i, j = 1, . . . , n .
k=1
Es decir,
2 −1 0 1
0 1 3 −1
T =
0
,
0 3 1
0 0 0 1
√ a12 a13
1. t11 = a11 = 2; t12 = = 1; t13 = = −2.
t11 2
p √ a23 − t12 t13 4 − (1)(−2)
2. t22 = a22 − t212 = 10 − 1 = 3; t23 = = =
t22 3
2.
p p
3. t33 = a33 − t213 − t223 = 9 − (−2)2 − (2)2 = 1.
Es decir,
2 1 −2
T = 0 3 2 ,
0 0 1
es la matriz triangular superior tal que A = T T T.
203
7.3. Descomposición de Cholesky Factorización de matrices
Ahora bien, sea D = diag (t11 , t22 , . . . , tnn ) entonces se tiene que:
A = TTT
= T T D−1 DT
= (T T D−1 )(DT )
= LU.
7.3.4. Ejemplo. Consideremos la matriz simétrica positiva denida
4 2 −4
A= 2 10 4 .
−4 4 9
Del ejemplo 7.3.3 se tiene que
4 2 −4 2 0 0 2 1 −2
A= 2 10 4 = 1 3 2 0 3 2 = TTT .
−4 4 9 −2 2 1 0 0 1
2 0 0
Tomando D = 0 3 0 , se tiene que
0 0 1
2 0 0 2 1 −2
A = 1 3 2 0 3 2
−2 2 1 0 0 1
2 0 0 1/2 0 0 2 0 0 2 1 −2
= 1 3 2 0 1/3 0 0 3 0 0 3 2
−2 2 1 0 0 1 0 0 1 0 0 1
1 0 0 4 2 −4
= 1/2 1 0 0 9 6 = LU .
−1 2/3 1 0 0 1
Ax = y ⇐⇒ T T T x = y ⇐⇒ T x = (T T )−1 y := z,
es decir, si se conoce la factorización de Cholesky para una matriz A=
T T T , la solución del sistema Ax = y se reduce a encontrar la solución del
sistema triangular superior
T x = z, con z = (T T )−1 y.
204
Factorización de matrices 7.4. Descomposición en valores singulares
x3 = −3,
−2x3 6
x2 = = = 2,
3 3
6 + 2x3 + x2 6−2−6
x1 = = = −1.
2 2
· · · , σs2 son igualmente los valores propios de AAT (quizás agregando al-
gunos ceros) y los vectores propios asociados son las columnas de U =
u1 u2 ··· um . Además de tiene las siguientes relaciones entre
estos vectores
Avi = σi ui
i = 1, 2, . . . , s.
uTi A = σi viT
2
σ1 0 · · · 0
0 σ22 · · · 0
U T AAT U = D2 = .
. .. .
.. . .
. . .
2
0 0 · · · σm
U1T
U T AAT U AAT
= U1 U2
U2T
U1T AAT U1 U1T AAT U2
=
U2T AAT U1 U2T AAT U2
Dr2 0
=
0 0
es decir,
206
Factorización de matrices 7.4. Descomposición en valores singulares
σ12
0 ··· 0 | 0 ··· 0
0
σ22 ··· 0 | 0 ··· 0
.. .
. .. .
.
.
. .. .
.
.
. . . | . . .
t t
0 0 ··· σ22 | 0 ··· 0
U AA U =
−−
.
−− −− −− −− −− −− −−
0
0 ··· 0 | 0 ··· 0
. . .. . . .. .
.. . . . .
. . . | . . .
0 0 ··· 0 | 0 ··· 0
Esto implica que
V1 = AT U1 Dr−1 ∈ Mn×r
tiene columnas ortogonales (V1T V1 = I). Sea V2 ∈ Mn×(n−r) tal que la
matriz
V = V1 V2 ∈ Mn×n
es ortogonal. Veamos ahora que
t Dr 0
U AV = Σ = .
0 0
En efecto, de una parte:
U T AV =
A V1 V2 = ,
U2T U2T AV1 U2T AV2
y de otra parte, U2T A = 0. Así mismo,
T T
V1T V2
V1 V1 V1
V TV
= I= V1 V2 =
V2T V2T V1 V2T V2
I 0
= ,
0 I
207
7.4. Descomposición en valores singulares Factorización de matrices
U1T AV2 = 0.
y nalmente,
AT U1 = V1 Dr ⇒ AT ui = σi vi ⇒ uTi A = viT σi i = 1, 2, . . . , r.
208
Factorización de matrices 7.4. Descomposición en valores singulares
2 1 −2
7.4.3. Ejemplo. Considere la matriz A =
4 −4 2
; ρ(A) = 2,
calculemos la descomposición en valores singulares usando el proceso es-
bozado anteriormente.
9 0
Calculando directamente obtenemos la matriz S = AAT = ,
0 36
cuyos valores propios son: σ12 = 36 y σ22 = 9 (σ12 ≥ σ22 ).
−25 0 x1 0
= ,
0 0 x2 0
0
B= : x2 6= 0 .
x2
0
Como σ12 -vector propio podemos tomar entonces u1 = . Análoga-
1
1
mente podemos tomar a u2 = como σ22 -vector propio. Ahora con-
0
sideramos las matriz ortogonal
0 1
U= u1 u2 =
1 0
y la matriz diagonal
6 0
D = diag {σ1 , σ2 } = .
0 3
6 0
Puesto que r = ρ(A) = 2 tenemos que Dr = diag {σ1 , σ2 } = .
0 3
209
7.4. Descomposición en valores singulares Factorización de matrices
V1 = AT U1 Dr−1
2 4
0 1 1/6 0
= 1 −4
1 0 0 1/3
−2 2
2 4
0 1/3
= 1 −4
1/6 0
−2 2
2 2
1
= −2 1 Columnas ortonormales.
3
1 −2
Consideramos ahora la matriz ortogonal
2 2 1 1
1 1
V = −2 1 2 = V1 V2 con V2 = 2 .
3 3
1 −2 2 2
Nosotros tenemos entonces que:
T 6 0 0
U AV = = Σ. Λ
0 3 0
1 1 0
7.4.4. Ejemplo. Consideremos la matriz A= 0 1 1 ; ρ(A) = 3,
1 0 1
calculemos ahora la descomposición en valores singulares:
0 = |S − λI|
2−λ 1 1
= −(λ − 4)(λ − 1)2 .
= 1 2−λ 1
1 1 2−λ
210
Factorización de matrices 7.4. Descomposición en valores singulares
√ √
1/ 3 −2/ 6 0
√ √ √
U= u1 u2 u3 =
1/ 3 1/ 6 .
1/ 2
√ √ √
1/ 3 1/ 6 −1/ 2
211
7.5. Ejercicios Factorización de matrices
7.5. Ejercicios
7.5.5. Calcule
212
Factorización de matrices 7.5. Ejercicios
213
CAPÍTULO 8
215
8.1. Rectas y planos Hiperplanos
IR 3
x3 x3
P(x1 , x2 , x 3) P
p = 0P =(x1 , x2, x 3)
O(0, 0, 0)
x2 O(0, 0, 0) x2
x1 x1
216
Hiperplanos 8.1. Rectas y planos
y
2
IR
OX=OP+ λ d
P
λd
d
−−→
OX0 = (−1, −2, −7) = (1, 2, 3) + (−2)(1, 0, 5).
En consecuencia, podemos decir que la recta que pasa por los puntos P y
Q (P 6= Q) de Rn es el conjunto de puntos:
n −−→ −−→ −−→ o
(8.2) ` = X ∈ Rn : OX = OP + t P Q, t∈R .
y
2
IR
Q OX=OP+t PQ
P
PQ = 0Q − OP
t PQ
Figura 8.3. Gráca de una recta que pasa por los pun-
tos P y Q.
8.1.4. Denición (Segmento de recta). El segmento de recta que une los
puntos Q de Rn , se denota por P Q y se dene así:
P y
n −−→ −−→ −−→ o
PQ = X ∈ Rn : OX = OP + t P Q, para 0 ≤ t ≤ 1 .
n −−→ −−→ −−→ o
= X ∈ Rn : OX = tOP + (1 − t) OQ, para 0 ≤ t ≤ 1 .
218
Hiperplanos 8.1. Rectas y planos
IR 2
Q
P OX = OP + t 0 PQ
PQ = OQ − OP
t0 PQ
x
219
8.1. Rectas y planos Hiperplanos
n
H
3 x3
IR
X
P
x2
x1
8.1.8. Ejemplo. Dados los puntos Q(1, 1, 1), P (1, −1, 2) y el vector n =
(1, 2, 3), encuentre el punto de intersección, si lo hay, de la recta que pasa
por el punto P en la dirección del vector n y del hiperplano (plano) que
pasa por Q y es normal al vector n.
−→ −−→
OI · n = OP · n.
De esto se sigue que:
−−→ −−→
OP + λ∗ n = OQ · n .
Utilizando las propiedades del producto interno encontramos que:
−−→
PQ · n 1
λ∗ = 2 = .
k nk 14
En consecuencia, las coordenadas del punto buscado están dadas por:
−→ −−→ 1
OI = OP + λ∗ n = (1, −1, 2) + (1, 2, 3)
14
15 12 31
= ( ,− , ) .
14 14 14
221
8.1. Rectas y planos Hiperplanos
n P
x3
3
IR x
x2
x1
Los conjuntos
n −−→ o
S1 = X ∈ Rn : OX · n < c y
n −−→ o
S2 = X ∈ Rn : OX · n > c ,
se denominan semiespacios abiertos con frontera H.
222
Hiperplanos 8.2. Conjuntos convexos
IR
2 y
x. n. = c
x. n. > c
x.n. < c
y y
C1 C3
Q
P
Q
P
C2 C4
Q
P
P Q
x x
(a) (b)
224
Hiperplanos 8.2. Conjuntos convexos
m
"m m
#
−−→ ∗ X −−→ X −−→ X −−→
OX = αi OXi + t βi OXi − αi OXi
i=1 i=1 i=1
m
X −−→
= [(1 − t)αi + tβi ] OXi ,
i=1
m
X m
X m
X
[(1 − t)αi + tβi ] = (1 − t) αi + t βi
i=1 i=1 i=1
= (1 − t) + t = 1 ,
entonces X ∗ ∈ C. En consecuencia, C es un conjunto convexo.
8.3. Ejercicios
226
Hiperplanos 8.3. Ejercicios
8.3.2 Calcule
n −−→ o
1. Sea H = X ∈ Rn : OX · n = c un hiperplano de Rn .
a ) Muestre que si / H, entonces existe un vector n∗ 6= 0
X=0∈
tal que:
n −−→ o
H = X ∈ Rn : OX · n = 1 .
b ) Demuestre que si X = 0 ∈ / H, entonces existen n puntos
b1 , b2 , . . . , bn de H, que como vectores son linealmente in-
dependientes.
c ) Demuestre que si X=0∈
/ H, entonces
( n n
)
X X
H= X ∈ Rn : X = λi bi , λi = 1 ,.
i=1 i=1
donde b1 , b2 , . . . , bn son puntos de H, que como vectores
son linealmente independientes.
2. Encuentre b1 , b2 y b3 tales que
X ∈ R3 : X · (2, 1, 1) = 1
H =
( 3 3
)
X X
3
= X∈R : X= λi bi , λi = 1
i=1 i=1
227
8.3. Ejercicios Hiperplanos
4. Sea H = {X ∈ Rn : X · N = C} un hiperplano de Rn .
a ) Muestre que si X = 0 ∈ H sii C = 0.
b ) Demuestre que si X = 0 ∈ H, entonces existen n − 1 puntos
a1 , a2 , . . . , an−1 de H, que como vectores son linealmente
independientes.
c ) Demuestre que si X = 0 ∈ H, entonces
( n−1
)
n −−→ X
H= X ∈ R : OX = λi ai .
i=1
donde a1 , a2 , . . . , an−1 son n−1 puntos de H, que como
vectores son linealmente independientes.
5. Encuentre a1 y a2 tales que
n −−→ o
H = X ∈ R3 : OX · (2, 1, 1) = 0
n −−→ o
= X ∈ R3 : OX = λ1 a1 + λ2 a2
6. Sean a1 = (1, 1, 1) y a2 = (1, 0, 1).
a ) Muestre que a1 y a2 son linealmente independientes.
∗
b ) Encuentre un vector n 6= 0 tal que:
n −−→ o
H = X ∈ R3 : OX = λ1 a1 + λ2 a2
X ∈ R3 : v · N ∗ = 0 .
=
7. Demuestre que todo hiperplano de Rn es una variedad lineal de
dimensión n−1 (véase el apartado 1.2.1).
8. Demuestre que si T : R n → Rm es una transformación lineal,
entonces envía conjuntos convexos en conjuntos convexos.
9. Demuestre que si T : R2 → R2 es una transformación lineal
biyectiva, entonces T envía triángulos en triángulos.
228
Índice alfabético
Valor propio, 44
espacio asociado a un, 46
multiplicidad algebraica de un, 48
multiplicidad geométrica de un, 46
Valores (vectores) característicos; vea
valores (vectores) propios, 44
Valores singulares
descomposición, 205
Variedad lineal, 23
Vector propio, 44
Vectores, 8, 215
coordenadas resp. a una base, 13
linealmente dependientes, 10
linealmente independiente, 56
linealmente independientes, 10, 22,
24
ortogonales, 15
ortonormales, 15
proceso de Gram-Schmidt, 16
propios ortogonales, 66
231
Bibliografía
[1] ANTON, H. Introducción al álgebra lineal. Limusa, México, 1981,
[2] FLOREY, F.G. Fundamentos de álgebra lineal y aplicaciones. Prentice Hall inter-
nacional, Colombia, 1980.
[3] GRAYBILL, F.A. Introduction to matrices with applications in statistic.
Wadsworth Publishing Company. Inc. Belnont, California, 1969.
[4] GRAYBILL, F.A. Theory and applications of linear model. Duxbury Presss, Mas-
sachusetts, 1976.
[5] HADLEY, G. A. Álgebra lineal, Fondo Educativo Interamericano S.A., Estados
Unidos 1969.
[6] LIPSCHUTZ, S. Álgebra lineal, McGraw Hill, México, 1979.
[7] MARMOLEJO, M.A. Inversa condicional e inversa generalizada de una matriz:
esquema geométrico. Lecturas Matemáticas, Soc. Col. Matemat., Pág. 129-146,
Vol. IX, 1988.
[8] Nakos, G., Joyner, D., Álegebra lineal con aplicaciones, Thonsom editores, México,
1998.
[9] Nering, E.D. Álegebra lineal y teoría de matrices. Limusa, México, 1977.
[10] NOBLE, B. Applied linear algebra. Prentice Hall, Inc. London, 1969.
[11] RORRES , C y ANTON, H, Aplicaciones del álgebra lineal. Limusa, México 1979.
[12] STRANG, G, Álgebra lineal y sus aplicaciones. Fondo educativo interamericano,
1982.
233