Documentos de Académico
Documentos de Profesional
Documentos de Cultura
(Marmolejo & Villegas) Topicos en Algebra Lineal
(Marmolejo & Villegas) Topicos en Algebra Lineal
en lgebra Lineal
Miguel A. Marmolejo L.
Manuel M. Villegas L.
Departamento de Matemticas
Universidad del Valle
ndice general
Introduccin
ndice de guras
Captulo 1.
Prerrequisitos
1.1.
Matrices
1.2.
Espacios vectoriales
1.3.
Transformaciones lineales
1.4.
1
1
7
16
Captulo 2.
2.1.
iii
20
25
25
2.2.
29
2.3.
37
2.4.
Ejercicios
39
Captulo 3.
43
3.1.
44
3.2.
Diagonalizacin
53
3.3.
64
3.4.
82
3.5.
Ejercicios
90
Captulo 4.
Formas cuadrticas
4.1.
4.2.
97
97
cuadrticas
101
4.3.
110
4.4.
Ejercicios
118
ndice general
Captulo 5.
5.1.
Matrices no negativas
123
5.2.
Matrices idempotentes
129
Captulo 6.
6.1.
137
6.2.
147
6.3.
152
6.4.
6.5.
160
Ejercicios
174
Captulo 7.
Factorizacin de matrices
179
7.1.
Descomposicin
LU
179
7.2.
Descomposicin QR
188
7.3.
Descomposicin de Cholesky
198
7.4.
205
7.5.
Ejercicios
212
Captulo 8.
215
8.1.
215
8.2.
Conjuntos convexos
223
8.3.
Ejercicios
226
ndice alfabtico
229
Bibliografa
233
ii
ndice de guras
1.1. Transformacin lineal
22
44
45
162
163
165
170
171
173
186
R3 .
216
R .
217
R .
Q.
218
219
220
222
223
224
iii
CAPTULO 1
Prerrequisitos
El propsito de este captulo es hacer una recopilacin de algunas deniciones y de algunos resultados bsicos del lgebra lineal, los cuales nos
sern de gran utilidad en el desarrollo de los captulos siguientes. Trataremos aqu los aspectos relacionados con: matrices, espacios vectoriales y
transformaciones lineales, aunque aclaramos, que el orden en que se presentan los temas, no corresponde necesariamente al orden usual encontrado en la mayora de textos utilizados en el primer curso de lgebra lineal.
Al lector que desee estudiar ms sobre el contenido de este captulo se le
recomienda consultar [
1, 2, 12].
1.1. Matrices
Las matrices juegan un papel importante en las matemticas y sus aplicaciones. Una matriz
de tamao
mn
(o simplemente
Amn )
es un
hAiij
aij
to
(1.1)
a11
a21
A= .
..
am1
a12
a22
.
.
.
..
am2
a1n
a2n
.
.
.
.
amn
y se llama elemen-
1.1. Matrices
Si
Ai =
Prerrequisitos
ai1 ai2
a1j
a2j
Aj = .
..
amj
la
j -sima
ain
denota la
columna de
A,
i-sima
la de la matriz
A1
A2
A = . = A1
..
Am
A2
An
m n con elementos
Mmn . Los elementos de
Mnn se llaman matrices cuadradas de orden n; a la diagonal formada
por los elementos a11 , a22 , . . . , ann de una tal matriz A, se llama diagonal
principal de A.
A, B, C ,
Mmn (R)
o simplemente
I,
1,
n,
In
Una matriz nula es una matriz cuyos elementos son todos nulos. Una
matriz nula ser denotada por
Dos matrices
0 (0mn
de igual tamao
mn
m n.)
hAiij = hBiij ;
La suma
mn
A+B
i = 1, 2, . . . , m,
de dos matrices
j = 1, 2, . . . , n.
de tamao
m n,
es la matriz
tal que:
i = 1, 2, . . . , m,
la matriz
j = 1, 2, . . . , n.
de tamao
la matriz de tamao
hAiij = hAiij ;
i = 1, 2, . . . , m,
2
j = 1, 2, . . . , n.
m n,
es
Prerrequisitos
El producto
1.1. Matrices
AB
hABiij =
s
X
A Mms
de la matriz
m n,
matriz de tamao
por la matriz
B Msn ,
es la
tal que:
hAiik hBikj Ai B j ;
i = 1, 2, . . . , m,
j = 1, 2, . . . , n.
k=1
matriz
que
tal que
Sea
A Mnn .
Si existe una
BA = I
AB = I, a B se
AB = I
tal que
y se le denota por
A1 .
y
le
es no
invertible o singular.
En el siguiente teorema se establecen algunas propiedades de la inversa
de una matriz
Teorema.
1.1.1.
Si
A, B Mnn
es un
1
A1 es invertible y A1
= A.
AB es invertible y (AB)1 = B 1 A1 .
A es invertible y (A)1 = 1 A1 .
i-sima
es la matriz
i-sima
A es la matriz AT
j = 1, 2, . . . n.
la corresponde a la
la transpuesta de
1, 2, . . . m,
Sea
Sea
n m,
m n.
AT , cuya
una matriz
denotada por
A. Esto es,
T
A ij = hA iji , para i =
columna de la matriz
tal que
simtrica, y si
A = A,
se
Teorema.
Sean
A se verica (AT )T = A.
A = B.
A =B
s y slo si
1.1. Matrices
Prerrequisitos
3. Si
4. Si
5.
6.
cas.
7. Si
A es invertible, entonces AT
1.1.3. Determinantes.
es invertible y
(AT )1 = (A1 )T .
|A|
1.1.3.
o por
ser denotado
det(A).
Denicin
(Determinane de matrices
2 2.
2 2).
Sea
A=
a
c
El determinante de la matriz
b
d
A es
det(A) = ad bc.
1.1.4.
Denicin.
Sea
n n;
j-sima
columna de
nota por
mij .
hAiij
se denota por
hAiij y
Cij y se
el de-
y la
se dedene
como
C,
de cofactores
decir, adj(A)
Cij de A se denomina
cof(A). La matriz transpuesta de la matriz
A,
C , se denomina
= CT .
adjunta de
Prerrequisitos
1.1.5.
1.1. Matrices
Teorema.
1. Si
Cij
a)
Sea
hAiij Cij ,
det(A) =
hAiij ,
para cada
n.
entonces:
i = 1, 2, . . . , n.
j=1
n
X
det(A) =
es invertible sii
A
1.1.6.
Teorema.
1.
2.
Sean
= (det(A))
A, B
|A| = |AT | .
Si A tiene una
3. Si las matrices
|A| =
6 0,
adj(A) .
|A| = 0.
n, entonces:
k-simas
Ak = B k ,
las
entonces
|A| = |B|.
es un escalar, entonces |A| = n |A|.
Si A, B y C dieren nicamente en la k-sima la y si Ck =
Ak + Bk , entonces |C| = |A| + |B|.
Si A tiene dos las iguales, entonces |A| = 0.
Si B se obtiene al intercambiar dos las de A, entonces |B| =
|A|.
4. Si
5.
6.
7.
i-sima
y los resultados
k-sima la,
k 6= i.
|AB| = |A||B|.
para
9.
Nota.
las de
|A|
A.
En
1.1. Matrices
Prerrequisitos
triz
Denicin
A,
A.
A.
A,
Teorema.
1. Cada matriz elemental es invertible. Adems, la inversa de cada
una matriz
m n.
Si
y si
es
A = B.
Sea A una
matriz
m n.
Si
Im ,
entonces
y si
In ,
entonces
A E = B.
1.1.9.
i + 1 de R son
de la la i + 1 est a la
de la la i.
nulo
nulo
1.
no nulas, el primer elemento no
derecha del primer elemento no
Prerrequisitos
una la de
(iv) Si
R,
R.
Teorema.
1.1.10.
que
tiene la forma escalonada reducida y un nmero nito de matrices elementales por las
E1 , E2 , . . . , Ek
tales que:
Ek E2 E1 A = R .
La matriz
A.
escalonada reducida de
1.1.11.
Teorema.
1.
2.
A
A
Sea
es invertible
es invertible
n.
un
Los dos ltimos teoremas dan lugar a un mtodo para decidir cundo una
matriz cuadrada
[A | In ]. Seguidamente
[R | P ];
es invertible
donde
A.
A1 = P .
sii R = In . Si A
es invertible entonces
Ahora:
Prerrequisitos
Denicin.
V,
1.2.1.
cuyos
elementos son llamados vectores, junto con dos operaciones: suma de vec-
(+)
tores
(),
que satisfacen
u V y v V , entonces u + v V .
u V y v V , entonces u + v = v + u.
u V , v V y w V , entonces
(u + v) + w = u + (v + w) = u + v + w.
0V
uV
u+0 = 0+u =
u.
(v) Si
uV,
u V
tal que
u + (u) = (u) + u = 0.
u V y es un escalar, u V .
u V y , son escalares, entonces ()u = (u) =
(u).
Si u V y , son escalares, entonces ( + )u = u + u.
Si u V y v V y es un escalar, entonces (u+v) = u+v.
Si u V , entonces 1u = u.
(vi) Si
(vii) Si
(viii)
(ix)
(x)
1.2.2.
Ejemplo.
riales:
1.
V = Rn = {(x1 , x2 , . . . , xn ) : xi R, i = 1, 2, . . . , n}
con las
(x1 , x2 , . . . , xn ) = (x1 , x2 , . . . , xn ) .
V = Mmn , el conjunto de matrices m n con las
operaciones
V = F,
el conjunto de funciones de
en
denidas as:
t R.
t R.
o igual que
en (3).
Prerrequisitos
Como se establece en la denicin, un espacio vectorial (real) es un tripla
que consta de un conjunto
V.
V,
V,
son por s
V.
En
Denicin.
vaco de
V.
Sea
un espacio vectorial y
Diremos que un
es subespacio de
W
V,
un subconjunto no
si
W,
Denicin.
V,
Sean
es un subespacio de
L = {v V : v = v0 + w,
es denominado una variedad lineal de
para
de
w W} ,
V.
v = 1 v1 + 2 v2 + + n vn =
n
X
i vi .
i=1
1.2.6.
V. W
Teorema.
Sea
es un subespacio de
sii
uW
uW
y
y
v W , entonces u + v W .
R, entonces u W .
9
Teorema.
Si
Prerrequisitos
V,
entonces:
1. La interseccin de
de
con
W; U W
2. La suma de
con
W;
denida por
U + W = {v V : v = u + w,
es un subespacio vectorial de
1.2.8.
con
uU
w W} ,
V.
Teorema.
vectorial
de
es un subespacio vectorial
V.
C;
(
vV : v=
W =
k
X
)
i vi ; k N, vi C y i R, i = 1, 2, . . . , k
i=1
es un subespacio de
Sea
subespacio de
V.
V,
V.
El
Cuando
restantes vectores en
C.
Denicin
C
conjunto
0 = 1 v1 + 2 v2 + + n vn =
n
X
i vi ,
i=1
v1 , v2 , . . . , vn
es
Prerrequisitos
1 , 2 , . . . , n ;
si
0 =
1 = 2 = . . . , = n = 0 .
1.2.10.
Teorema.
En un espacio vectorial
se tiene:
0,
es linealmente
dependiente.
2. Todo conjunto que contenga un subconjunto linealmente depen-
linealmente independiente.
4. Un conjunto de vectores
C.
V.
de
B.
de V
en oca-
V,
de vectores linealmente
se pueda
Como veremos en
y de acuerdo con
V
V,
V.
de vectores de
C en
V con
R,
nomios con variable real. Nosotros sin embargo slo trataremos aqu con
espacios de dimensin nita.
1.2.11.
Denicin
vectorial
V.
(Base)
Se dice que
Sea
es una base de
ciones:
(i) El espacio generado por
(ii) El conjunto
es
V.
es linealmente independiente.
11
Prerrequisitos
Si un espacio vectorial
por
1.2.12.
Denicin.
un vector en
Sea
V, v0
la variedad
L = {v V : v = v0 + w, w W } ,
si
dim W = k,
tiene dimensin
k.
Teorema.
1. Si
Sea
B = {v1 , v2 , . . . , vn }
es un conjunto de
n.
vectores de
V,
entonces:
b)
2.
3.
4.
5.
6.
1.2.14.
Teorema.
Si
entonces
Prerrequisitos
Teorema.
Si
de
tal que
V,
en-
U W = V.
llamado complemento de
U.
son subespacios
complementarios.
1.2.2. Coordenadas.
V.
Denicin
que generan a
V , entonces
V.
diremos que
B = {v1 , v2 , . . . , vn }
es una
base ordenada de
1.2.18.
Teorema.
Si
v = 1 v1 + 2 v2 + + n vn =
n
X
i vi ,
i=1
Denicin.
Sea
V.
Sea
espacio vectorial
dene as:
1
2
[v]B = . .
.
.
n
13
Prerrequisitos
Si
y si
es un escalar, entonces
[u + v]B =
T
n1 (matriz n1) c = 1 2 n
vector v de V tal que [v]B = c, a saber v =
Pn
i=1
i vi .
v [v]B ,
de
Mn1 ,
vectores y la multiplicacin de un escalar por un vector. Ms an, preserva la independencia lineal; sto es, el conjunto
C = {u1 , u2 , . . . , uk } es
V sii el conjunto
C = {[u1 ]B , [u2 ]B , . . . , [ uk ]B }
independientes de Mn1 .
En el caso en que
con
x1
x2
x = (x1 , x2 , . . . , xn ) [x]B = . .
..
xn
En algunas situaciones resulta conveniente tener presente esta correspondencia, que utilizaremos identicando a
con
[x]B .
En este aparta-
do consideraremos los conceptos de producto interno y de bases ortonormales que nos ser particularmente tiles en el captulo 3 al tratar la
diagonalizacin de matrices simtricas.
1.2.20.
adems
u, v
ducto interno en
vectores arbitrarios de
es una funcin
propiedades:
(i)
(ii)
(iii)
(iv)
si
u = 0.
Prerrequisitos
Observacin.
donde
y = (y1 , y2 , . . . , yn ).
Rn con este producto interno (producto
x y o xT y para indicar a hx; yi.
h; i
V , la norma o
v de V se denota por kvk y se dene as: kvk =
kvk = 1, se dice que v es un vector unitario.
longitud de un vector
p
hv; vi.
1.2.21.
Cuando
Teorema
(Desigualdad de Schwarz)
h; i.
Sea
un espacio vectori-
de
se
satisface la desigualdad
1.2.22.
Denicin.
Sea
h; i:
o sea si:
(
1
hvi ; vj i = ij =
0
si i = j
; i, j = 1, 2, . . . , n .
si i =
6 j
C1 y C2 de vectores son
ortogonales, si para cada par de vectores u C1 y v C2 ,
hu; vi = 0.
15
Prerrequisitos
1.2.23.
Si
1.2.24.
Teorema
Sea
= w1
hw2 ; v1 i
v1
hv1 ; v1 i
hw3 ; v1 i
hw3 ; v2 i
= w3
v1
v2
hv1 ; v1 i
hv2 ; v2 i
= w2
.
.
.
vk
= wk
k1
X
i=1
y donde
vi =
vi
kvi k
para
hwk ; vi i
vi ,
hvi ; vi i
i = 1, 2, . . . , k.
Teorema.
vectorial
ortogonales.
U, V
denotarn espacios
vectoriales.
1.3.1.
Denicin.
Una funcin
16
Prerrequisitos
(i)
(ii)
1.3.2.
Ejemplo.
1. Para cada
U,
la funcin idntica
A Mmn ,
x y = Ax.
Teorema.
una base de
queda
I : U U, u I(u) = u.
A : Rn Rm , denida
la funcin
Sean
V;
V
U. En forma ms precisa
Denicin.
T :U V
Sea
1. El ncleo de
se denota por
N (T )
y se dene as:
N (T ) = {u U : T (u) = 0} .
2. La imagen de
se denota por
Img(T )
y se dene as:
Img(T ) = {T (u) : u U } .
1.3.5.
Denicin.
Sea
1. Diremos que
T :U V
mentos distintos
u1 , u2 U ,
y slo si
u1 6= u2
implica
2. Diremos que
T (u1 ) 6= T (u2 );
para todo
u1 , u2 U.
U.
Esto es si y slo si
Para todo
vV
existe un
uU
tal que
T (u) = v.
de
Teorema.
y sea
1.
2.
3.
4.
5.
6.
B = {u1 , u2 , . . . , un }
Sea
T :U V
un subconjunto de vectores
N (T ) es un subespacio vectorial de U.
T es inyectiva sii N (T ) = {0} .
Img(T ) es un subespacio vectorial de V.
Si B es una base de U , entonces {T (u1 ), T (u2 ), . . . , T (un )} genera al espacio Img(T ).
Si T es inyectiva y B es linealmente independiente, entonces
{T (u1 ), T (u2 ), . . . , T (un )} es un subconjunto linealmente independiente de vectores de V .
dim N (T ) + dim Img(T ) = dim U .
A la dimensin de
Img(T )
Prerrequisitos
N (T )
se llama rango de
se le llama nulidad de
y a la dimensin de
T.
A,
Denicin.
1.3.7.
Sean
dada por:
[T ]B1 B2 =
1.3.8.
Teorema.
[T (u1 )]B2
[T (u2 )]B2
[T (un )]B2
Sean
Nota.
cin lineal
las bases
18
por el conocimiento de
Prerrequisitos
U, V
denotan espacios
vectoriales.
1.3.9.
Teorema.
Sean
T : U V y S : U V transformaciones lineales
B1 y B2 bases ordenadas de U y V, respec-
tivamente:
1. La suma de
T (u) + S(u)
S ; (T + S) : U V,
denida por
(T + S)(u) =
(T )(u) = T (u)
T ; (T ) : U V,
denida por
[T ]B1 B2 = [T ]B1 B2 .
Nota.
L(U, V ),
en
V,
dim U = n
dim V = m
entonces
dim L(U, V ) = m n.
B1 de U determina la
correspondencia biunvoca entre los espacios vectoriales V y Mm1 , dada
Teorema.
T : U V y S : V W transformaciones
S T : U W es una transformaB1 , B2 y B3 representan bases ordenadas para los
Sean
U, V
Teorema.
1.3.11.
Si
Prerrequisitos
[T ]B1 B2
es invertible. Adems,
T 1
= [T ]B1 B2 .
B2 B1
Los conceptos
de orden
vertible
1.3.13.
B
B = P 1 AP.
se dice que
tal que
Denicin
Sean
U,
AyB
matrices cuadradas
Sean
I :U U
y sea
idntica. La matriz
de cambio de base de
la base
[u]B2
1.3.14.
Teorema.
Sean
bases ordenadas de
T :U U
B1
B2
U.
B1 a la base B2 , P =
es invertible y su inversa es la matriz de cambio de base
[I]B1 B2 ,
de la base
B2
2. Las matrices
a la base B1 .
A = [T ]B2 B2
B = [T ]B1 B1
una matriz
de la transformacin lineal
el
Prerrequisitos
Sea
una matriz
m n.
El subespacio de
Rn
A
F(A) =
y lo denotamos por
F(A);
esto es,
1 espacio
2
n
es, C(A) = A , A , . . . , A
. El espacio formado todas soluciones de un
sistema homogneo de ecuaciones lineales Ax = 0 se denomina espacio
nulo de una matriz, esto es, el espacio nulo es el conjunto
N (A) = {x Rn : Ax = 0} .
De otro lado, el subespacio de
Img(A)
Rn ;
= {Ax : x Rn }
= {y Rm : y = Ax para
se denomina imagen de
1.4.1.
Teorema.
algn
x Rn } .
A.
se tiene que
Teorema.
1.
F(A)
Sea
N (A)
Teorema.
Sean
2. Si
3.
4.
Nota.
R es
F(R).
si
1.4.4.
lineal
A,
entonces
Teorema.
F(A) =
Img(A) = C(A)
=
21
{Ax : x Rn } .
Nota.
Prerrequisitos
es una matriz
m n,
entonces
F(At ) = C(A),
Rn = F(A) N (A)
Rm = C(A) N (AT ),
As
IR
IR
F (A)
C (A)
x=f+n
y=c+u
Ax=Af
f
c
n
N (AT)
N (A)
Figura 1.1. Transformacin lineal
Nota.
y = Ax
es el espacio nulo de
x y = Ax,
1.4.5.
Teorema.
1.
(A)
(A)
una matriz
A, (A),
como el rango
A.
m n,
entonces:
entes de
2.
Sea
A.
A.
entes de
A.
22
Prerrequisitos
3.
(A)
ducida de
A.
Teorema.
Sea
una matriz
1. El sistema de ecuaciones
2. El sistema de ecuaciones
la matriz
[A | y],
A es
mn
y sea
un vector
m 1.
es decir sii
Ax = y
se da una y slo
y
/ C(A).
b ) El sistema tiene innitas soluciones, en cuyo caso su conjunto solucin es una variedad lineal de la forma
S = {xp + xh : xh N (A)} ,
xp
Axp = y,
donde
N (A) = {0 }
Teorema.
1.4.7.
Sean
1.4.8.
Teorema (Resumen).
Sea
det(A) 6= 0.
A es invertible.
3. La forma escalonada de
en
23
In .
n.
Las
Prerrequisitos
es
N (A) = {0}.
Ax = 0
x = 0.
11. Para todo
y Rn ,
Ax = y
tiene solucin.
Por ltimo, consideramos un mtodo para calcular una base de cada uno
de los espacios fundamentales de una matriz
mn arbitraria A. El mtodo
T
A | In .
Paso 1
Forme la matriz
Paso 2
Erm
0(nr)m
donde
.
.
.
.
.
.
Prn
P(nr)n
r = (A).
C(A)
base para
C(AT ) = F(A)
P(nr)n
conforman una
N (A).
Erm
N (AT ).
24
[A | Im ]
CAPTULO 2
A, algunas de ellas
A. (ii) La particin
exhibir detalles particulares e interesantes de A. (iii) La particin
permitir simplicar clculos que involucran la matriz A.
[aij ]mn
2.1.1.
aij
de una matriz
A =
Denicin.
Sea
es una matriz
A.
2.1.2.
Ejemplo.
Las matrices
S1 , S2
S3 dadas
a continuacin, sonson
submatrices de la matriz
1
A= 5
9
S1 =
1
9
2
0
4
2
2
6
0
3
7
1
4
8 .
2
(suprimiendo en
25
la la 2 y la columna 3)
2.1. Submatrices
S2 =
S3 =
1
9
2
0
2
6
3
7
Matrices particionadas
3
7
4
8
(suprimiendo en
la la 3)
A
(suprimiendo en
A = [aij ]mn ;
A,
como se
a11
a21
= a31
a41
.
.
.
a12
a13
.
.
.
.
.
.
a22
a23
.
.
.
a32
a33
.
.
.
a42
a43
.
.
.
.
.
.
a52
a53
.
.
.
.
.
.
a51
.
.
.
a14
a24
a34
a44
a55
A=
A11
A21
A12
A22
A13
A23
donde
A11
a11
= a21 ,
a31
A21 =
a41
a51
A12
a12
= a22
a32
,
A22 =
a42
a52
a13
a23 ,
a33
a43
a53
A13
a14
= a24 ,
a34
,
A23 =
a44
a55
.
Debe ser claro para el lector, que una matriz puede ser particionada de
diferentes maneras, por ejemplo:
26
Matrices particionadas
A =
.
.
.
A =
2.1. Submatrices
.
.
.
2
1
=
1
1
.
.
.
2
0
.
.
.
.
.
.
.
.
.
.
.
.
1
.
.
.
.
.
.
.
Teorema.
1. Si las matrices
A11
A21
A= .
..
Am1
A12
A22
.
.
.
..
Am2
A1n
B11
B21
A2n
y B = ..
.
.
.
.
Amn
Bm1
B12
B22
.
.
.
..
Bm2
B1n
B2n
.
.
.
Bmn
A11 + B11
A12 + B12
A1n + B1n
A21 + B21
A22 + B22
A2n + B2n
A+B =
.
.
.
.
..
.
.
.
.
.
.
.
Am1 + Bm1 Am2 + Bm2 Amn + Bmn
y si las sumas
A12
A22
.
.
.
..
Am2
A1n
B11
B21
A2n
y B = ..
.
.
.
.
Amn
Bn1
2. Si las matrices
A11
A21
A= .
..
Am1
27
B12
B22
.
.
.
..
Bn2
B1s
B2s
.
.
.
Bns
2.1. Submatrices
Matrices particionadas
Aik es igual al nmero
Bkj ; i = 1, 2, . . . , m, k = 1, 2, . . . , n, j =
1, 2, . . . , s,
entonces
C11
C21
AB = .
..
Cm1
n
X
Cij =
donde
C12
C22
.
.
.
..
Cm2
C1s
C2s
,
.
.
.
Cms
Aik Bkj .
k=1
3. Si la matriz A est particionada como en (1) y si
es un escalar,
entonces
A11
A21
A =
.
.
.
Am1
4. Si la matriz
.
.
.
..
Am2
A1n
A2n
.
.
.
.
Amn
AT11
AT21
ATn1
T
A12
=
..
.
AT1m
AT22
.
.
.
AT2m
..
ATn2
.
.
.
.
ATnm
AT
A12
A22
Los incisos (1), (3) y (4) del teorema anterior son fciles de vericar. La
demostracin del inciso (2) es laboriosa y no la haremos. Sin embargo, el
lector interesado puede consultar una indicacin de dicha demostracin
en [
A= 2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
28
A11
4
=
A21
A12
A13
A23
A23
Matrices particionadas
2.2. Determinantes
B=
0
1
0
1
0
3
1
2
B11
= B21
B31
entonces
AB
8
7
5
4
= 2
2
=
A21 B11 + A22 B21 + A23 B31
pues
A11 B11
=
A12 B21
=
1
2
0
0
0
0
0
3
3
4
A13 B31
A21 B11
[1]
A22 B21
A23 B31
0
1
0
1
0
3
0
1
1
2
,
0
0
=
2
0
0
=
1
2
0
1
2
4
0
3
1
2
,
3
4
6
1
,
3
0
2.2. Determinantes
Matrices particionadas
El lector recordar, que el determinante de una matriz triangular (superior o inferior) es justamente el producto de los elementos de la diagonal
principal. El siguiente teorema, por ejemplo, lo podramos ver como una
"generalizacin" de dicho resultado.
2.2.1.
Proposicin.
1. Si
M=
2. Si
M=
Sean
A
0
A
B
B
C
0
C
matrices cuadradas,
entonces
|M | = |A||C|.
entonces
|M | = |A||C|.
Si
n=2
de la matriz
M.
tenemos que
y demostremos que es
Sea
n=k
n = k + 1.
B = [bij ]rs
k+1
obtenemos:
30
Matrices particionadas
det(M )
2.2. Determinantes
1
A B
cs1 (1)
0 C 1 +
2
A B
+cs2 (1)2(k+1)s+2
0 C 2
s
B
2(k+1)s+s A
+ . . . + css (1)
0 C s
2(k+1)s+1
det(M )
(1)2(k+1)2s cs1 (1)s+1 |A| |C 1 | + cs2 (1)s+2 |A| |C 2 |
+ . . . + css (1)s+s |A| |C s |
= |A| cs1 (1)s+1 |C 1 | + cs2 (1)s+2 |C 2 | + . . . +
+css (1)s+s |C s |
= |A| |C| .
Lo que completa la demostracin de (1).
La demostracin de (2) se sigue del hecho de que
|M | = M T
(teore-
det(M )
det(M T )
det
det(AT ) det(C T )
det(A) det(C)
A
0
B
C
2.2.2.
Ejemplo.
2.2. Determinantes
Matrices particionadas
7
M = 4
3
1
1
N =
0
0
0
5
7
0
6
9
2
3
0
0
4
6
2
3
5
7
,
3
5
M =
.
.
.
.
.
.
.
.
.
.
.
.
0
= A
B
6
0
C
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
N =
Entonces
5
|M | = |7|
7
6
= 21
9
1
|N | =
1
2 2
3 3
3
= 1.
5
El siguiente teorema nos brinda una alternativa para calcular determinantes de matrices ms generales particionadas por bloques.
2.2.3.
Teorema.
1. Si
2. Si
Sean
M=
A
C
B
D
.
D es invertible, entonces |M | = |D| A BD1 C .
A es invertible, entonces |M | = |A| D CA1 B .
Matrices particionadas
Sea
S =
2.2. Determinantes
I
D1 C
0
I
.
Entonces
MS =
A BD1 C
0
B
D
.
|M | = |M | |I| |I| = |M | |S| = |M S| = |D| A BD1 C .
Corolario.
Sean
A, B, C
y sea
M=
1. Si
2. Si
3. Si
4. Si
2.2.5.
A
C
B
D
.
Ejemplo.
M yN
1 2
1 3
N =
4 5
3 3
1
M = 1
1
Particionemos entonces
2
3
1
4
5
1
Para
tomamos
Puesto que
dadas por:
2
2
0
0
1
3
.
0
0
B
D
de adecuadamente.
.
.
.
.
.
.
.
.
.
4
A
5
=
C
, siendo
3
1
|M | = |D| A BD C = |1|
4
33
2
= 2 .
2
D = [1].
2.2. Determinantes
Matrices particionadas
.
.
.
1
Similarmente para
N, N =
siendo
A=
1
1
2
3
.
.
.
.
.
.
4
3
.
.
.
3
A
=
B
0
,
A
. Dado que
Proposicin.
Sean
1. La matriz
M=
A
0
matrices cuadradas.
B
C
es invertible sii las matrices
M 1 =
2. La matriz
M=
A1
0
A
B
0
C
=
es invertible entonces
A1 BC 1
C 1
.
es invertible sii las matrices
es invertible entonces
A1
1
C BA1
0
C 1
.
La prueba de este resultado se propone como ejercicio. El ejemplo siguiente, nos ilustra el inciso (1) de la proposicin anterior.
2.2.7.
Ejemplo.
1
1
M =
0
0
2
3
0
0
1
1
2
5
1
1
1
3
Matrices particionadas
2.2. Determinantes
particin es: M =
.
.
.
.
.
.
las matrices
.
.
.
1
=
0
M 1 =
A1
0
A1 BC 1
C 1
. Puesto que
B
C
3
1
=
0
0
tambin lo es y adems,
2
2 1
3
0
0
.
0
3 1
0 5
2
El siguiente teorema presenta una frmula para calcular inversas de matrices ms generales
2.2.8.
Teorema.
B=
Si
B 1
Sea
B11
B21
B12
B22
,
con
B11
B22
matrices invertibles.
A12
A22
B 1 =
A11
A21
1. Las matrices
2. Las matrices
Bii
son inver-
tibles.
3. La matriz
B 1
1
B11 B12 B22
B21
1
1
1
B22
B21 B11 B12 B22
B21
1
1
B11
B12 B22 B21 B11
B12
1
35
1
B22 B21 B11
B12
1
1
2.2. Determinantes
Matrices particionadas
Demostracin. De la igualdad
BB 1 =
B11
B21
B12
B22
A11
A21
A12
A22
I
0
0
I
=I
(2.1)
=
=
=
=
I
0
0
I
1
B22
, se obtiene
1
B22
B21 A11 + A21 = 0,
Sustituyendo
A21
o sea,
1
A21 = B22
B21 A11 .
en (2.1(a)), se obtiene
1
B11 B12 B22
B21 A11 = I .
Esto quiere decir que las matrices
1
B11 B12 B22
B21
A11
son invertibles
1
A12 + B11
B12 A22 = 0,
Sustituyendo
A12
o sea,
1
B11
,
se obtiene :
1
A12 = B11
B12 A22 .
en (2.1(d)), se obtiene:
1
B22 B21 B11
B12 A22 = I .
Esto quiere decir que las matrices
1
B22 B21 B11
B12
A22
son invertibles
1
A11 = B11 B12 B22
B21
1
1
1
A12 = B11
B12 B22 B21 B11
B12
1
1
A21 = B22
B21 B11 B12 B22
B21
1
1
A22 = B22 B21 B11
B12
1
A continuacin enunciamos y demostramos un teorema que involucra matrices particionadas y el rango de una matriz.
36
1
Matrices particionadas
A11 A12
2.2.9. Teorema. Sea A =
, donde A11 es una
A21 A22
1
vertible r r. Si (A) = (A11 ), entonces A22 = A21 A11 A12 .
Demostracin. Puesto que
(A11 ) = r
A11
matriz in-
P =
A21 A1
11
PQ =
A1
11 A12
|P | = |Q| = 1 6= 0. En consecuencia,
A y la matriz
A11
0
P AQ =
0
A22 A21 A1
11 A12
por el
tienen rango
r.
3
4
Denicin.
ta por
Tr(A) =
n
X
de
se deno-
de la diagonal
hAiss .
s=1
2.3.2.
Nota.
Tr(A) = Tr(AT ) .
37
AT ,
son
entonces
Si
Teorema.
Sean
Matrices particionadas
y
Tr(A + B)
=
=
=
n
X
s=1
n
X
hA + Biss
( hAiss + hBiss )
s=1
n
X
hAiss +
hBiss
s=1
s=1
n
X
Tr(A) + Tr(B) .
2.3.4.
Teorema.
Si
es una matriz
mn
es una matriz
nm
entonces
Tr(AB) = Tr(BA) .
Tr(AB)
=
=
=
=
n
X
s=1
n
X
hABiss
m
X
s=1 k=1
m X
n
X
hAisk hBiks
hBiks hAisk
k=1 s=1
m
X
hBAikk = Tr(BA) .
k=1
38
Matrices particionadas
2.3.5.
2.4. Ejercicios
Corolario.
matriz invertible
cuadrada de orden
n.
Si
es una
Tr(A)
2.3.6.
Corolario.
m n, entonces
m
n X
X
2
hAisk .
Tr(AAT ) = Tr(AT A) =
Si
es una matriz
s=1 k=1
Adems,
Tr(AA ) = 0
sii
A = 0.
Tr(AAT )
=
=
m
X
s=1
m
X
AAT
ss
n
m X
n
X
X
2
A sk A ks =
A sk ;
s=1 k=1
Esto es,
Tr(AAT )
si y slo si
s=1 k=1
A. De
Tr(AAT ) = Tr(AT A) y adems que Tr(AAT ) =
A = 0.
2.4. Ejercicios
1. Utilice matrices particionadas para calcular el determinante y la
matriz inversa (si existe) de cada una de las matrices siguientes
:
5
3
M1 =
3
2
3 0 0
2 0 0
2 2 1
1 5 3
3 1
2 1
M2 =
0 0
0 0
1 1
1
1
1
1
4
5
2.4. Ejercicios
Matrices particionadas
a, b, c
5. Sean
n N.
Calcule el deter-
M=
bIn
dIn
6. Sean
da de orden
aIn
cIn
C
B
A
0
k.
, entonces
A
C
o si
M =
B ).
M =
Demuestre que si
0
B
matrices cuadradas.
M=
0
B
A
C
M es invertible,
A, B y C .
sea invertible. Si
de las matrices
exprese
M 1
en trminos
M=
C
B
A
0
M es invertible,
A, B y C .
sea invertible. Si
de las matrices
exprese
M 1
en trminos
0
0
M1 =
5
3
9. Sean
0
0
3
2
2
5
3
2
1
3
2
1
1 1 1
1 4 5
.
1 0 0
1 0 0
1
1
M2 =
3
2
a ) Si
b ) Si
AB
por las).
Matrices particionadas
2.4. Ejercicios
10. Sean
Demuestre que si
0
A22
A32
0
0
A33
1
A11
0
0
M 1 = 0
A1
0
22
0
0
A1
33
entonces
12. Sean
aR
en-
det
I
B
A
C
= det(C BA).
det
y concluya que
In
A
B
Im
= det
Im
B
A
In
15. Suponga que las matrices que abajo aparecen son de tamao
apropiado, donde
A11
I
X
Y
0 0
A11
I 0 A21
0 I
A32
A12
B11
A22 = 0
A33
0
B22 .
B12
B22
B32
es una matriz
2.4. Ejercicios
18. Sean
Matrices particionadas
A
n.
Demuestre que
la funcin traza)
20. Si
una matriz
de las matrices)
21. Calcule
22. Sean
a)
b)
42
CAPTULO 3
base ordenada
B = {u1 , u2 , . . . , un }
de
diagonal, es decir,
[T ]BB
1
0
=D= .
..
0
0
2
.
.
.
..
0
0
. ,
.
.
n
entonces
T (ui ) = i ui ;
esto es,
T (ui )
i = 1, 2, . . . , n ,
es un mltiplo escalar de
ui .
y el ncleo de
T.
ui
i 6= 0,
ui . En
B?
se reduce al clculo de
A.
Por
otro lado, en las secciones 3.3 y 3.4 consideraremos los conceptos de valor
propio, vector propio y diagonalizacin de matrices simtricas, los cuales
son particularmente importantes en la teora y en aplicaciones del lgebra
lineal.
43
Diagonalizacin de matrices
un problema de valores propios (la gura 3.1 nos ilustra las posibles situaciones). En esta seccin veremos cmo resolver dicho problema.
3.1.1. Denicin. Sean U un espacio vectorial y T : U U una transformacin lineal. Se dice que el escalar es un valor propio de T , si existe
un vector u 6= 0 de U tal que T (u) = u. A dicho vector no nulo u se le
llama un vector propio de T correspondiente al valor propio , o se dice
que es -vector de T .
Nota.
T(u)= u
T(u)= u
T(u)= u
>1
0<<1
<0
T(u)= 0
=0
3.1.2.
Ejemplo.
T : R2 R2 ,
dada por
(x, y),
u = (x, y) 6= 0
de
R2
tal que
satisfaga el sistema
2x
x + 3y
= x
= y .
44
Diagonalizacin de matrices
Ahora, si
x 6= 0,
=2
y por lo tanto
y = x.
Esto
T.
En efecto:
T.
En efecto:
y
,
T(u ) =3 (0, y)
,
u = (0, y)
x
u = (x, x)
T(u) =2 (x, x)
Figura 3.2. Vectores propios de
45
Diagonalizacin de matrices
le cor-
Proposicin.
formacin lineal y
-vectores
Sean
propios de
un espacio vectorial,
un valor propio de
T.
El conjunto
0,
es
u1 S()
u2 S()
entonces
Esto es,
2. Si
T (u) = T (u) = ( u) .
Esto es,
u S().
Denicin.
macin lineal y
Sean
un espacio vectorial,
un valor propio de
1. El subespacio de
U, S(),
T :U U
valor propio
S()
una transfor-
T.
3.1.5. Nota. Sean U un espacio vectorial, T : U U una transformacin lineal, B una base ordenada para U y A = [T ]BB , la matriz de la
transformacin T referida a la base B. Entonces para cada u U se tiene
[T (u)]B = A [u]B (ver teorema 1.3.8). En particular, u es un -vector propio de T si y slo si u 6= 0 y A [u]B = [T (u)]B = [u]B = [u]B . Esto es,
u es un -vector propio de T si y slo si u 6= 0 y A [u]B = [u]B . Por esta
razn, y porque resulta en otros contextos, consideramos a continuacin
los conceptos particulares de valor propio y vector propio de una matriz
cuadrada A.
46
Diagonalizacin de matrices
3.1.6.
Denicin.
1.
2.
Sea
Ax,
n.
A : Rn Rn ; x y =
1.
2.
Dicho teorema nos garatiza entonces, que el clculo de los valores y vectores propios de una transformacin lineal se reduce al clculo de los valores y vectores propios de una cierta matriz
A.
a1n
a21
a
a
22
23
2n
a31
a
a
a
32
33
3n
pA () = |A I| =
=0
.
.
.
.
.
.
.
.
..
.
.
.
.
.
an1
an2
an3
ann
Sea
de
47
pA () = |A I|
Diagonalizacin de matrices
es un polinomio en
de grado
n,
el cual
pA () = |A I| = a0 + a1 + a2 2 + + an1 n1 + (1)n n .
3.1.8.
Denicin.
Sea
pA () = |A I| se denomina polinomio
A.
La ecuacin pA () = |A I| = 0 se denomina ecuacin
terstica de A.
1. El polinomio
carac-
terstico de
2.
carac-
Teorema.
Sea
1. El escalar
de la ecuacin caracterstica de
2.
3.1.10.
A.
tiene a lo ms
Denicin.
Sea
sii
La multiplicidad algebraica de
caracterstico de
A
A.
es un valor propio de
de multiplicidad
es
k,
si
un valor propio de
k.
A.
pA () = |A I| .
pA () = |A I| = 0.
Las soluciones (reales) de sta, son los valores propios de A.
Diagonalizacin de matrices
3.1.11.
Ejemplo.
matriz
1
A = 1
1
1
3
2
1
1 .
0
A, pA () =
|A I| . Desarrollemos |A I| por cofactores por la primera la (vase
Determinemos inicialmente, el polinomio caracterstico de
el teorema 1.1.5)
1
1
3
pA () = |A I| = 1
1
2
3 1
1
= (1 )
2
1
1
1
1
1
1
1
1
(1 )(2 3 + 2) (1 ) ( + 1)
(1 )(2 3 + 2) = (1 )2 ( 2).
3
2
Resolvamos dicho sistema usando el mtodo de eliminacin de GaussJordan (vase el teorema 1.4.7 ).
0
A 1 I = 1
1
Donde
1
2
2
1
1
1
1
0
0
0
1
0
1
1 = R
0
A1I
(vase el
teorema 1.1.10).
(A 1 I)x = 0
de la forma:
x1
x3
1
x2 = x3 = x3 1 ,
x3
x3
1
49
x3 R.
Diagonalizacin de matrices
En consecuencia,
U1
1
= U1 = 1
S(1 ) = S(1)
1.
1 = 1
propio
es
2vectores
propios de
A2I =
Donde
1
1
1
1
1
2
1
1
2
1
0
0
0
1
0
0
1 = R
0
A 2 I.
(A 2 I)x = 0 son los vectores de la forma:
x1
0
0
= x2 = x3 = x3 1 ,
x3 R.
x3
x3
1
Las
En consecuencia,
U2
0
= U2 = 1
S(2 ) = S(2)
1.
2 = 2
es
1 = 1
es menor que su correspondiente multiplicidad algebraica y la multiplicidad geomtrica del valor propio
2 = 2
Ejemplo.
A=
0
1
1
0
.
A, pA () = |A I| .
1
= 2 + 1 ,
pA ()
= |A I| =
1
50
Diagonalizacin de matrices
A, pA () = |A I| = 0
pA () = 2 + 1 = ( + i)( i)
sii
=i
= i.
A no son reales,
Ejemplo.
3.1.13.
por:
B = 1, x, x2
la base cannica de
P2 ,
[T ]BB
1 1
3 1 .
2
0
1
= A = 1
1
el ejemplo 3.1.11
1 = 1
S(1 )
y que
U1 = {x1 }
S(2 ), donde
0
x2 = 1 .
1
A,
2 = 2.
U2 = {x2 } es una
1
x1 = 1
1
es una base
base de
P2 ;
u1 = 1 + x + x2
y
u2 = x + x2 .
0
En consecuencia; U
= {u1 } = 1 + x + x2 es una base del espa1
cio de vectores propios de T correspondientes al valor propio 1 = 1 y
U0 2 = {u2 } = x + x2 es una base del espacio de vectores propios de T
correspondientes al valor propio 2 = 2.
Terminamos esta seccin con dos resultados que involucran matrices semejantes. El primero de ellos relaciona los polimomios caractersticos de
matrices semenjantes y el segundo relaciona los vectores propios de dichas
matrices.
51
Teorema.
Si
nomios caractersticos de
trices
Diagonalizacin de matrices
B son matrices semejantes, entonces los poliA y B son iguales, y por consiguiente, las ma-
Demostracin. Si
B = P 1 AB. De aqu:
pB () = |B I| = P 1 AP P 1 P
= P 1 (A I)P = |P 1 | |A I| |P |
tal que
= |P 1 | |P | |A I| = |A I|
= pA ().
3.1.15.
B
A
Nota.
siguiente ejemplo.
3.1.16.
Ejemplo.
Las matrices
1
0
A=
0
1
y
B=
1
3
0
1
( 1)2 .
de orden
Sin embargo,
pA () = pB () =
se tiene que:
P 1 AP = P 1 IP = P 1 P = I 6= B.
3.1.17.
Proposicin.
tonces
es un
Si
vector
B.
Demostracin. Por denicin se tiene
Ax = x
Tomando
de
si y
AIx = x
AP P 1 x = x
P 1 AP P 1 x = P 1 x
Diagonalizacin de matrices
3.2. Diagonalizacin
3.2. Diagonalizacin
En esta seccin responderemos las preguntas siguientes: Dado un espacio
vectorial
de
tal que
[T ]BB
T :U U
B1
P = [I]B2 B1 , entonces
D son semejantes.
3.2.1.
Denicin.
nalizable si
3.2.2.
Sea
es diago-
Teorema.
Sea
n.
Si existen
vectores propios de
valores propios de
Demostracin. Sean
A.
1 , 2 , . . . ,n ,
los
valores propios de
x1 , x2 , . . . , xn ,
A,
vec-
Sea ahora
el vector propio
xj ,
3.2. Diagonalizacin
Diagonalizacin de matrices
Ahora,
AP
=
=
A
x1
Ax1
x1
x2
Ax2
x2
xn
Axn
xn
0
..
.
0
1 x1
0
2
.
.
.
..
2 x2
0
0
.
.
.
3
n xn
PD
Donde
y el
Teorema.
4 1 2
5 6 es
3.2.4. Ejemplo. Veriquemos que la matriz A = 6
6
3 4
1
diagonalizable y encontremos una matriz invertible P tal que P
AP = D
sea una matriz diagonal. Para tal n, veamos que A tiene 3 vectores
3.2.3.
Sea
4
pA () = |A I| = 6
6
A,
1
5
3
2
6
4
= ( 2)2 ( 1).
A, pA () = |A I| = 0 tiene entonces
= 1 (de multiplicidad
los valores propios de A.
La ecuacin caracterstica de
como solucin a
=2
(de multiplicidad 2) y a
54
Diagonalizacin de matrices
Los 2-vectores propios de
ecuaciones
(A 2I)x = 0,
3.2. Diagonalizacin
(A 1I)x = 0.
2
A 2I = 6
6
1
3
3
2
6
6
3
A 1I = 6
6
2
6 .
5
1
4
3
(A 2I)x = 0
1
x1
2 x2 x3
x2
= x2 =
x3
x3
1
1
1
x2 2 + x3 0
=
2
1
0
, x2 , x3 R,
en consecuencia,
U1
es una base para
1
1
= U2 = 2 , 0
1
0
S(1 ) = S(2).
(A 1I)x = 0
x1
1
3 x3
1
x = x2 = x3 = x3 3 , x3 R.
3
x3
3
x3
En consecuencia,
U2
es una base para
1
= U1 = 3
S(2 ) = S(1).
55
3.2. Diagonalizacin
Diagonalizacin de matrices
1
1
x1 = 2 , x2 = 0
0
1
son vectores propios de
1,
1
x3 = 3
3
2, 2
fcilmente.
De acuerdo con el teorema 3.2.2, la matriz
P =
x1
x2
x3
1
3
3
1
= 2
0
1
0
1
0
0 .
1
2
P 1 AP = D = 0
0
3.2.5.
Ejemplo.
0
2
0
1
A = 1
1
1
3
2
1
1
0
1 = 1 y 2 = 2, y
1
y
U1 = 1
tiene
que
0
U2 = 1
Teorema.
{x1 , , x2 , . . . , xk }
3.2.6.
una matriz
Si
y si
bre el nmero
56
C.
Diagonalizacin de matrices
Si
C = {x1 },
entonces
3.2. Diagonalizacin
x1 6= 0.
k = 2.
En efecto: Si
1 x1 + 2 x2 = 0,
(3.1)
se obtiene:
2 1 x1 + 2 2 x2 = 0.
(3.2)
se llega a:
1 1 x1 + 2 2 x2 = 0.
(3.3)
(2 1 )1 x1 = 0.
x1 6= 0, entonces (2 1 )1 = 0. Dado que 1 6= 2 se tiene
1 = 0. Reemplazando este valor de 1 en (3.1) se llega a
2 x2 = 0, pero x2 6= 0, entonces 2 = 0.
Puesto que
entonces que
que
k = j
y de-
Si
1 x1 + 2 x2 + . . . + j xj + j+1 xj+1 = 0,
(3.4)
k = j +1.
j+1
se obtiene:
se llega a:
(3.6)
La prueba del siguiente corolario es consecuencia inmediata de los teoremas 3.2.6 y 3.2.2.
57
3.2. Diagonalizacin
3.2.7.
Corolario.
Diagonalizacin de matrices
Sea
Ejemplo.
n.
Si
posee
es diagonalizable.
La matriz
1
A= 0
0
2
4
0
3
5
6 33
es:
2 = 4
3 = 6.
n;
tal que
P 1 AP = D
es una
A.
y los
Teorema.
Sea
un espacio de dimensin
y sea
[T ]B2 B2 = D
T : U U
U tal que
de
B2
tal que
[T ]B2 B2
1
0
=D= .
..
0
ui
0
2
.
.
.
..
es un
0
0
.
.
.
n
i -vector
propio de T, o sea
T (ui ) = i ui , i = 1, 2, . . . , n.
Demostracin. Puesto que las matrices asociadas a transforma-
B1
para
U.
Diagonalizacin de matrices
Sea pues
A = [T ]B1 B1 ,
B1 , Existe
1
[I]B2 B1 A [I]B2 B1
base
3.2. Diagonalizacin
la matriz de la transformacin
B2
de
U tal
A es
que
referida a dicha
D = [T ]B2 B2 =
A es semejante a una
A tiene n vectores propios linealmente independientes,
que T tenga n vectores propios linealmente independi-
1 0 0
0 1 0
[T ]B2 B2 = D = .
.
.
..
.
.
..
.
.
.
0
0 1
de
tal que
[T ]B2 B2 , T (ui ) = i ui
i = 1, 2, . . . , n .
triz
3.2.10.
Ejemplo.
; o sea,
ui
es un
i -vector
propio de
T,
T : P3 P3
denida por:
T a + bx + cx2 = (4a b + 2c) + (6a + 5b 6c)x + (6a + 3b 4c)x2 .
Encontremos una base ordenada
B2
U = P2
de
tal que
[T ]B2 B2 = D
es
B1 = 1, x, x2
P2 entonces:
2
6 ,
4
1
5
3
4
A = [T ]B1 B1 = 6
6
1
1
x1 = 2 , x2 = 0
0
1
1
x3 = 3 ,
3
2, 2
1.
A,
correspondientes
Los vectores
x1 , x2
P2 :
u1 = 1 + 2x;
u2 = 1 + x2
59
u3 = 1 + 3x + 3x2 .
x3
B1
de
3.2. Diagonalizacin
Diagonalizacin de matrices
A (ver teorema
1 = 2 y 2 = 1.
1.2.2, u1 , u2 y u3 son
son
2 0 0
[T ]B2 B2 = D = 0 2 0 .
0 0 1
vectores propios de
valores propios
el teorema
tal que
vectores propios de
no posea
3.2.11.
Teorema.
Sea
n.
Todas
P,
A.
Demostracin.
dos valores propios (reales) los cuales no son necesariamente distintos. Sea
P 1 AP =
y1
y2
A
x1
x2
=
y1 Ax2
y2 Ax2
=T
Diagonalizacin de matrices
3.2. Diagonalizacin
n = j, j 3.
n = j 1
A una
Sea
x1
x2
P 1
=
y1
N
xj
x1
as:
,
y1 M1j ,
N M(j1)(j1) .
Entonces se tiene
AP =
y1
N
A
x1
y1 AM
N AM
=
B
C
= T1
T1
rema 3.1.14):
pA () = pT1 () = (1 ) |C I| .
De sto se sigue, que todas las soluciones de la ecuacin caracterstica
P2 =
1
0
0
Q
,
P = P1 P2 es tal que
1
0
1 B
1 0
0 Q1
0 C
0 Q
1
BQ
1 BQ
=
=T
0 Q1 CQ
0
T2
=
=
3.2. Diagonalizacin
3.2.12.
Ejemplo.
Diagonalizacin de matrices
1
1
0 33
1 1
1
3
A=
1 2
son reales, pues:
pA () = ( 1)2 ( 2) = 0 sii
1 = 1
2 = 2 .
pendientes. En particular:
1
x1 = 1
1
0
x2 = 1
1
1 = 1
2 = 2,
respectivamente.
tal que
P 1 AP = T
P , demos
x3
tal que
B = {x1 , x2 , x3 }
M31 ,
el vector
0
x3 = 2
3
P =
x1
x2
x3
1
= 1
1
0
1
1
0
2
3
1
P 1 AP = T = 0
0
0
2
0
1
2
1
cuyos valores propios no son todos reales entonces, no puede existir una
matriz invertible
P 1 AP = T
62
Diagonalizacin de matrices
3.2. Diagonalizacin
superior. Ahora bien, hemos mencionado que uno puede estudiar espacios vectoriales donde los escalares sean nmeros complejos (ver pi de
pgina 2); en este caso, se pueden obtener resultados ms amplios. En
particular, se tiene que para toda matriz cuadrada
(real o compleja)
P 1 AP = T
desee estudiar sobre ste, puede consultar las secciones 5.5 y 5.6 de [ ].
3.2.13.
Teorema.
Ejemplo.
A.
1
A= 0
0
La ecuacin caracterstica de
0
0
1
0
1 .
0
es
pA () = |A I| = ( 1)(2 + 1)
= ( 1)( i)( + i) = 0 .
De esto se sigue que
P 1 AP = T
1 = 1.
(real) tal
contexto de los espacios vectoriales donde los escalares son nmeros complejos, podemos decir que
2 = i
3 = i
1 = 1,
se encuentra que
1
0
x1 = 0 , x2 = i
0
1
son tres vectores propios complejos de
0
x3 = i
1
1 = 1, 2 = i
3 = i
Diagonalizacin de matrices
P =
x1
x2
x3
1
= 0
0
0
i
1
0
i
1
P 1 AP
1
0
i/2
= 0
0 i/2
1 0 0
= 0 i 0
0 0 i
0
1
i/2 0
i/2
0
0
0
1
0
1
1 0
0
0
0
i
1
0
i
1
=D
z = a+bi, a, b R, se denota
z = a bi.
Un nmero complejo z es real sii z = z .
La matriz conjugada de la matriz compleja n n, A, se de nota
por A y cuyos componentes son A
= hAiij , i, j = 1, 2, . . . , n.
ij
y se dene as:
64
Diagonalizacin de matrices
xTx = 0
sii
n 1, x,
se tiene:
x T x = xx T y
x = 0.
3.3.1.
Teorema.
Sea
n.
Si
es
acterstica de
Demostracin. Si
un vector
x 6= 0
pA () = |A I| = 0,
tal que:
Ax = x
(3.1)
Ax = x .
(3.2)
x T Ax = x T x
(3.3)
puesto que
xT
y
y (3.2) por
xT
se tiene
xT Ax = xT x ,
x T Ax = (x T Ax)T = xT AT x = xT Ax,
x T x = xT x .
(3.4)
De (4) se tiene que
x T x = xT x,
( )x T x = 0.
Ya que
x 6= 0,
( ) = 0
en consecuencia, por (2),
o sea,
= .
es un nmero real.
A, los vectores
propios correspondientes a valores propios diferentes son linealmente independientes. Para matrices simtricas se tiene un resultado ms fuerte.
Este resultado se establece en el teorema siguiente.
65
Teorema.
Diagonalizacin de matrices
3.3.2.
Si
i 6= j,
para
hxi ; xj i = xTi xj = 0
si
i, j = 1, 2, . . . k
Axi
i xi ,
(3.6)
Axj
j xj .
xtj
xTj Axi = i xj T xi
(3.7)
puesto que
y a (3.6) por
xi ,
se obtiene
de (3.7) se sigue
que:
xTj xi = j xTi xj .
(3.8)
Ya que
xTj xi = xTi xj
(i j )xTi xj = 0.
Puesto que por hiptesis, los valores propios son distintos, entonces
0,
si
i 6= j, i, j = 1, 2, . . . k .
3.3.3.
Denicin.
es invertible y
3.3.4.
xTi xj =
es ortogonal, si
P 1 = P T .
Ejemplo.
La matriz
1
1
P = 2
3
2
2
2
1
2
1
2
es ortogonal, pues:
2
1 2 2
1 0 0
1
1 2 2 1 = 0 1 0 = I.
PPT
3
2
2 1 2
0 0 1
x1 x2 xn es ortogonal
3.3.5. Proposicin. Una matriz P =
sii el conjunto B = {x1 , x2 , . . . , xn } constituye una base ortonormal de
Mn1 .
1
1
=P = 2
3
2
2
2
1
66
Diagonalizacin de matrices
La matriz
P =
x1
x2
xn
es ortogonal sii
P T P = I.
Ahora
bien,
xT1
xT2
.. x1
.
xTn
PTP
x2
(
xTi xj =
1
0
xT1 x1
xT2 x1
=
.
.
.
T
xn x1
xn
PTP = I
i 6= j
;
i=j
si
si
xT1 x2
xT2 x2
.
.
.
..
xTn x2
xT1 xn
xT2 xn
.
.
.
xTn xn
i, j = 1, 2, . . . , n ,
B = {x1 , x2 , . . . , xn }
Mn1 .
Teorema.
3.3.6.
Si
un
y sea
P T AP = P 1 AP = D = I .
Ahora, las matrices
pA () = pD () = | I I| = ( )n .
De esto se sigue que
braica
es un valor propio de
r = n.
r < n, existen n r vectores y1 , y2 , . . . , ynr de Mn1
B = {x1 , . . . , xr , y1 , . . . , ynr } es una base ortonormal de Mn1
De otra parte, si
tales que
P =
x1
x2
xr
y1
y2
67
ynr
Diagonalizacin de matrices
T = P T AP = P 1 AP,
es
decir, la matriz:
T
I
0
X T AY
Y T AY
B
.
C
T T = (P T AP )T = P T AT P = P T AP = T,
I
0
I B
,
=
0
C
B
CT
es simtrica,
sea
por lo tanto
I
0
=
A
=
Puesto que
XT
YT
B=0
T =
Puesto que las matrices
I
0
0
C
.
polinomio caracterstico:
pA () = pT () = |T I| = ( )r |C I| .
es un valor propio de A con multiplicidad algek r. Veamos que k = r. Si k > r, entonces se debe tener que
|C I| = 0, y por lo tanto existe un vector (n r) 1, w 6= 0 tal que
Cw = w.
0
Consideremos ahora el vector no nulo u Mn1 dado por u = P
.
w
Es decir,
u=P
0
w
=
[x1 x2 xr y1 y2 ynr ]
0
0
.
.
.
0
w1
w2
.
.
.
wnr
= w1 y1 + w2 y2 + wnr ynr .
Esto es, el vector
u hy1 , y2 , . . . , ynr i
68
u
/ hx1 , x2 , . . . , xr i
Diagonalizacin de matrices
u,
Au
es un
B = {x1 , x2 , . . . , xr , ur+1 }
es un conjunto de
r+1
vec-
sea
r.
Teorema.
3.3.7.
tiene
Si
n,
entonces
A
entes.
de
m1 + m2 + + mk = n.
1, . . . , k.
es
mi , i =
Sean ahora:
U1 = x11 , . . . , x1m1 , , Uk = xk1 , . . . , xkmk
bases ortogonales de
Entonces por el
= U1 U2 Uk
1
=
x1 , . . . , x1m1 , x21 , . . . , x2m2 , . . . , xk1 , . . . , xkmk
es ortogonal.
La demostracin del siguiente corolario es consecuencia inmediata del teorema 3.3.7 y del teorema 3.2.2.
3.3.8.
Corolario.
Denicin.
Sea
Diagonalizacin de matrices
A
tal que
es ortogoT
P AP =
3.3.10.
Teorema.
Si
es ortogo-
nalmente diagonalizable; esto es, existe una matriz ortogonal P tal que
P T AP = D es una matriz diagonal. Ms an, las columnas de la matriz
son
A.
tiene
1
0
P T AP = P 1 AP = D = .
..
0
0
2
.
.
.
..
0
0
. .
.
.
n
El recproco del teorema 3.3.10 tambin es vlido y est dado por el siguiente
3.3.11.
Teorema.
tonces
Si una matriz
es simtrica.
P T AP = D
tal que
A = P DP T = (P DT P T )T = (P DP T )T = AT ,
o sea,
Diagonalizacin de matrices
3.3.12.
Ejemplo.
2
2
2 4
4
2 33
5
A= 2
2
encontremos una matriz ortogonal
tal que
P t AP = D
diagonal.
A ortonormales.
A, pA () = |A I| .
2
4 = ( + 3)( 6)2
2
5
pA () = |A I| = 2
2
2
2
4
pA () = ( + 3)( 6) = 0
A, pA () = |A I| = 0.
sii
son
=6
1 = 3
2 = 6.
1
2
2
8
2
2
5 4
y
A 6I = 2 4 4 .
A + 3I = 2
2 4 4
2 4
5
Por denicin, los
(3)-vectores
= 3
propios de
(A + 3I)x = 0
1
1
x1
2 x3
1
x = x2 = x3 = x3 2 ;
2
2
x3
x3
x3 R.
En consecuencia,
b = U
b3
U
1
es una base para
1
= 2 ,
b = U
b3
U
1
1 1
2 ,
=
3
2
71
Diagonalizacin de matrices
S(1 ) = S(3).
(A 6I)x = 0
x1
2x2 + 2x3
x2 =
x2
x3
x3
2
2
x2 1 +x3 0 ; x2 , x3 R.
0
1
=
En consecuencia,
b
U
2
es una base para
2
2
b6 = 1 , 0 ,
=U
1
0
S(2 ) = S(6).
b
U
2
2
2
1
1
b6 = 1 , 4 ,
=U
5
3 5
0
5
S(2 ) = S(6).
b U
b
U =U
1
2
2
2
1 1
1
1
2 , 1 , 4 ,
=
3
5 0
3 5
2
5
1
3
2
P =
3
2
3
5
1
5
0
72
3 5
4
3 5
2
3 5
A.
Ahora, segn la
Diagonalizacin de matrices
3
P T AP = P 1 AP = D = 0
0
3.3.13.
que
entes,
Teorema.
0
0 .
6
0
6
0
de orden
n.
Supongamos
tal que:
I
P T AP = 0
0
Si adems existe otra matriz invertible
I0
QT AQ = 0
0
entonces
= 0
0
0 .
0
0
I
0
Q
tal que
0
I0
0
0
0 ,
0
= 0 .
Demostracin. Sean
1 , 2 , . . . ,
A estricx1 , x2 , . . . , x
A asociados respectivamente a tales va1 , 2 , . . . , los valores propios de A estrictamente negativos (no necesariamente distintos) y y1 , y2 , . . . , y vectores
propios ortonormales de A asociados a dichos valores propios negativos y
sean z1 , z2 , . . . , z , = n ( + ), vectores propios ortonormales de
A asociados al valor propio nulo (0). Segn la demostracin del teorema
3.3.10, la matriz M , cuyas columnas son los correspondientes vectores
vectores propios ortonormales de
lores propios. Sean adems
M=
x1
x2
y1
y2
z1
M t AM = D
z2
D
M t AM = D = 0
0
73
0
D
0
0
0
0
Diagonalizacin de matrices
donde:
1
0
D = .
..
0
Sea ahora
0
2
.
.
.
..
0
0
.
.
.
1
0
D = .
..
0
D = 0
0
1
D =
.
..
D =
La matriz
.
.
.
..
0
0
. .
.
.
0
1
.
.
.
..
.
.
.
.
.
.
1
1
0
0
0
I
0
D
0
1
p
1
2
.
.
.
..
.
.
.
y.
1
p
D D D
t
t
0
= D M AM D =
0
I
0
0
= 0 I 0 .
0
0
0
D DD
la matriz diagonal:
donde
0
2
0
D D D
0
P = M D es
I
0
0
P t AP = 0 I 0 .
0
0
0
74
tal que:
0
I 0 I
Diagonalizacin de matrices
I
P t AP = 0
0
0
I
0
y demostremos que
Q =
x1
y
y
x2
y1
y2
0
0
0
= 0
I0
Qt AQ = 0
0
0
I0
0
0
0 .
0
= 0 .
Q
x
y0
x+1
y0 +1
xn
yn
T
xi Axi = 1
xT Ax = 0
j
i
T
yi Ayi 0
T
yi Ayj = 0
si i = 1, 2 . . . ,
si i =
6 j (i, j = 1, 2 . . . , n)
si i = 0 + 1, 0 + 2 . . . , n
si i 6= j (i, j = 1, 2 . . . , n).
Mn1 :
C = {x1 , x2 , . . . , x , y0 +1 , y0 +2 , . . . , yn }
es linealmente independiente. En efecto, si
1 x1 + . . . + x + 1 y0 +1 + . . . + n0 yn = 0
entonces el vector
1 x1 + 2 x2 + . . . + x
1 y0 +1 2 y0 +2 . . . n0 yn
(1 x1 + . . . + x )T A(1 x1 + . . . + x )
es tal que:
U T AU
= 21 + 22 + . . . + 2 0
y
U T AU
(1 y0 +1 + . . . + n0 yn )T A(1 y0 +1 + . . . + n0 yn )
2
T
12 yT0 +1 Ay0 +1 + 22 yT0 +2 Ay0 +2 + . . . + n
0 yn Ayn 0
Por lo tanto
U T AU = 0.
1 = 2 = . . . = = 0.
consecuencia,
1 y0 +1 + 2 y0 +2 + . . . + n0 yn = 0 .
75
En
Diagonalizacin de matrices
+ (n 0 )
Mn1
es
C es
Mn1 ,
vectores en
+ (n 0 ) n ,
0 . Argumentando
= 0 .
o sea,
0 ,
de donde
(A) = + = 0 + 0
por lo tanto
Nota.
= 0 .
P T AP
es igual
a:
(i)
(ii)
(iii)
(iv)
(v)
(vi)
(vii)
3.3.14.
In , si = n.
In , si = n.
I 0
, si 0 < p < n y = 0.
0 0
I 0
, si 0 < < n y = 0.
0
0
I
0
, si 0 < p < n y 0 < < n y + = n.
0 I
I
0
0
0 I 0 , si 0 < p < n y 0 < < n y + < n.
0
0
0
0,
sii
A = 0.
Ejemplo.
2
0
2
1
A = 2
0
encontremos una matriz invertible
0
2
1
tal que
P t AP
76
Diagonalizacin de matrices
son:
1 = 3, 2 = 3
3 = 0, y que la matriz
2 1 2
1
M = 2 2 1
3
1 2
2
y
ortogonal:
es tal que
3
M t AM = D = 0
0
0
0 .
0
0
3
0
D =
3
0
0
3
0
D DD
Dt M t AM D
1
3
0
0
1
0
0
3
0
0
1
0
1
0
0
0 1 0 ,
0
0
0
3
0
P = M D es tal
I1
0
P t AP = 0 I1
0
0
3
0
0
0
1
3
0
que
0
0 .
0
M que
A, y despus postmultiplicar a M por una ma
triz diagonal conveniente D . A continuacin damos otro mtodo para
t
calcular, simultneamente, una de tales matrices P y la matriz P AP.
El mtodo se basa en el hecho de que la matriz P es invertible y por
de tales matrices
diagonalice a la matriz
77
Diagonalizacin de matrices
P = E1 E2 Ek,
E1 , E2 , , Ek,
donde
la matriz
Ejemplo.
2 3
5 4
4
9
1
A= 2
3
encontremos una matriz invertible
tal que
P T AP
2 3 | 1 0 0
A | I
5 4 | 0 1 0 .
4
9 | 0 0 1
A | I , las operaciones elemenEfectuemos, en las las de la matriz
T
tales; E1 ; multiplicar los elementos de la primera la por = 2 y sumar
T
los resultados con los correspondientes elementos de la segunda la, E2 ;
multiplicar los elementos de la primera la por = 3 y sumar los resulta
1
= 2
3
E2T E1T A
| E2T E1T I
| B1
A1
A1 ,
para obtener:
E2T E1T A
E1 E2 | E2T E1T I
A1
| B1
Se tiene:
A1
| B1
1
= 0
0
2
1
2
78
3 |
1 0 0
2 | 2 1 0
0 |
3 0 1
Diagonalizacin de matrices
|
1 0 0
0
| 2 1 0
A1 | B 1
|
3 0 1
0
Efectuemos, en las las de la matriz
A1 | B1 , la operacin elemenT
tal; E3 ; multiplicar los elementos de la segunda la por = 2 y sumar
1
= 0
0
0
1
2
0
2
0
| B2
A2
A2 , para obtener:
T T T
0
E3 E2 E1 AE1 E2 E3 | E3T E2T E1T I = A2
| B2
Se tiene:
A2
| B2
| B2
1
= 0
0
0
1
0
0
1
0
0 |
1
2 | 2
4 |
7
0
1
2
0
0
1
A2
1
= 0
0
E4T ;
1 0 0
0 |
0 | 2 1 0 .
3 0 1
4 |
0
de la matriz
A2 | B 2
la op-
| B3
A3 ,
para obtener:
A3
| B3
Se tiene:
A3
1
| B3 = 0
0
0
1
0
79
0
0
2
1
|
2
|
7
|
2
0
1
1
0
0
1
2
Diagonalizacin de matrices
1
| B2 = 0
0
A2
0
1
0
1
|
2
|
7
|
2
0
0
1
0
1
1
0
0 .
1
2
PT
0
0
1
2
1
0
2 1
T T T T
= B3 = E4 E3 E2 E1 =
7
1
2
es tal que
1
P T AP = D = A3 = 0
0
Podemos decir entonces, que la matriz
0
0 .
1
0
1
0
Nota.
A=
[aij ]nn son nulos y si aij 6= 0, i 6= j , entonces sumando la la j a la
la i y la columna j a la columna i, obtendremos una matriz simtrica
A0 = M T AM con 2aij en el lugar isimo de la diagonal principal de A0 .
si todos los elementos de la diagonal principal de la matriz simtrica
Ejemplo.
A=
encontremos una matriz invertible
0
1
1
0
tal que
P T AP
| I
=
0
1
MT ;
1
0
| 1
| 0
A | I
0
1
.
la operacin elemen-
MT A
| MT I
80
Diagonalizacin de matrices
M T A,
M T AM
| MT I
A0
| MT
1
1
1
0
| 1
| 0
1
1
2
1
1
0
| 1
| 0
1
1
Se tiene:
M A
| M I
| M
=
=
tal;
E1T ;
A0
| MT
, la operacin elemen-
= 21
y sumar
E1T A0
| E1T M T
| B1
A1
A1 ,
para obtener:
E1T A0 E1
| E1T M T
| B1
A1
Se tiene:
A1
| B1
|
|
| 1
2
1
1
|
0
|
=
A1 | B 1
1
| 1 1
0
2
2
2
0
Efectuemos en las las de la matriz
las
operaciones
A1 | B 1
T
mentales; E2 ; multiplicar los elementos de la primera la por =
T
y, E3 ; multiplicar los elementos de la segunda la por =
2 .
2
ele-
1 ,
2
As
obtenemos la matriz
| B2
A2
A2 ,
para obtener:
A2
| B2
Diagonalizacin de matrices
Se tiene:
A2
| B2
=
0
0
1
A2
1
=
| B2
0
0
1
.
1
1
|
2
|
|
1
|
2
1
|
2
|
|
1
|
2
es tal que
P T AP = D = A3 =
.
0
Teorema
(Diagonalizacin simultnea)
mtricas de orden
n.
QT BQ = D
Diagonalizacin de matrices
son es-
trictamente positivos, se sigue del teorema 3.3.10, que existe una matriz
tal que
es simtrica pues,
M T P T AP M = M T In M = M T M = In
esto es, la matriz
Q = PM
es tal que
M T P T BP M = M T CM = D ;
QT AQ = In
QT BQ = D
es una
C,
|C I| = 0.
D son la soluciones
P es invertible se
tiene:
|C I| =
=
T
P BP P T AP
|B A| = 0,
sii
T
P |B A| |P | = 0
Ejemplo.
1
A= 0
0
0
4
2
0
2
2
5
B= 4
4
4
8
4
4
4 .
4
son:
1 = 1, 2 = 3 +
3 = 3
5,
P = 0
0
1
2
0
0
1
2
1
es tal que
P T AP = I3
5
C = P T BP = 2
2
83
2
2
2 4 .
4
2
Diagonalizacin de matrices
M =
1
3
2
3
2
3
3 5
3 5
3 5
3
M T CM = D = 0
0
0
0 .
6
0
6
0
Q = PM =
1
3
2 5
2
3
3 5
3 5
3 5
es tal que
QT AQ = I3
3.4.3.
3
QT BQ = D = 0
0
0
6
0
0
0 .
6
Sean
AyB
ma-
Demostracin.
triz ortogonal
(=)
tal que:
1 Ik1
0
RT AR = D =
.
.
.
0
0
2 Ik2
0
0
.
.
.
..
.
.
.
...
84
m Ikm
Diagonalizacin de matrices
donde los
Sea ahora
A y ki es la multiplicidad
i , i = 1, 2, . . . , m.
C = RT BR.
AB = BA,
entonces
DC
CD
1 Ik1
0
0
C11 C12 C1m
0
0
2 k2
.
.
.
.
.
.
.
0
0
m Ikm
Cm1 Cm2 Cmm
1 C11
1 C12
1 C1m
2 C21
2 C22
2 C2m
=
,
.
.
.
..
.
.
.
.
.
.
.
m Cm1 m Cm2 m Cmm
0
C21 C22 C2m 0
0
2 k2
= .
.
.
.
.
.
.
.
.
..
.
.
.
..
.
..
.
.
.
.
.
Cm1 Cm2 Cmm
0
0
m Ikm
=
.
.
.
.
..
.
.
.
.
.
.
.
1 Cm1 2 Cm2 m Cmm
Ya que
i 6= j
DC = CD
i 6= j ,
si
i 6= j ,
si
y por tanto
C11
0
C= .
..
0
Como la matriz
0
0
.
.
.
..
.
.
.
0
C22
Cmm
Di
Cij = 0,
Q1
0
Q= .
..
0
La matriz
Diagonalizacin de matrices
0
Q2
.
.
.
..
0
0
.
.
.
.
Qm
QT RT ARQ = D
Ya que las matrices
QT RT BRQ = D .
P = RQ
P T BP son
P T AP
matrices diagonales.
P T AP P T BP = P T BP P T AP ,
de donde
3.4.4.
AB = BA.
Ejemplo.
1
1
A=
0
0
son tales que
1
1
0
0
AB = BA.
0
0
1
0
0
0
0
1
3 = 2
de
0
1
0
0
0
0
2
2
0
0
2
5
A son 1 = 0
k1 = 1, 2 = 1 de multiplicidad algebraica
multiplicidad algebraica k3 = 1. La matriz ortogonal
1/ 2 0 0 1/ 2
1/ 2 0 0 1/ 2
R=
0
1 0
0
0
0 1
0
Los valores propios de la matriz
de multiplicidad algebraica
k2 = 2
1
0
B=
0
0
86
Diagonalizacin de matrices
es tal que:
.
.
.
0
T
R AR = D =
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
1 I
0
= 0
3 I
2 I
0
y
.
.
.
0
T
R BR = C =
.
.
.
.
.
.
.
.
.
.
.
.
0
C11
0
= 0
C33
C22
0
La matriz ortogonal
Q=
.
.
.
2/ 5
1/ 5
.
.
.
.
.
.
.
.
.
.
.
.
1/ 5
2/ 5
.
.
.
.
.
.
.
.
.
Q1
0
= 0
0
Q2
es tal que
0
QT CQ =
0
0
0
1
0
0
0
0
6
0
0
0
= QT RT BRQ = D
0
1
87
Q3
Diagonalizacin de matrices
0
QT DQ =
0
0
0
1
0
0
0
0
1
0
0
0
= QT RT ARQ = D .
0
2
1/ 2
1/ 2
P = RQ =
es tal que
P T AP = D
2/ 5
1/ 5
1/ 5
2/ 5
P T BP = D
1/ 2
1/ 2
0
0
Corolario.
3.4.5.
Ai Aj = Aj Ai
para cada
j; i, j = 1, 2, . . . , k .
k=2
k. Para
k = s y demostremos que
k = s + 1. Sean pues A1 , A2 , . . . , As+1
matrices simtricas de orden n tales que Ai Aj = Aj Ai para cada i y j;
i, j = 1, 2, . . . , s + 1. Por el teorema 3.3.10 existe una matriz ortogonal R
ahora que el corolario es cierto para cuando
tal que
donde los
1 Ik1
0
2
k
2
R T A1 R = D =
.
.
..
.
.
.
.
.
0
0
0
0
.
.
.
m Ikm
valores propios de
i, i = 2, 3, . . . , s + 1, tomemos la
hiptesis A1 Ai = Ai A1 , entonces
Ci D
matriz
C i = R T Ai R .
RT Ai RRT A1 R = RT Ai A1 R = RT A1 Ai R
RT A1 RRT Ai R = DCi ,
88
A1
Diagonalizacin de matrices
para
Ci1 0
0
0 Ci2
Ci = .
, i = 2, 3, . . . , s + 1 .
.
.
.
.
..
.
..
.
.
0
0 Cim
1,
Ai Aj = Aj Ai
para todo
i y todo j; i, j = 2, 3, . . . , s+
entonces:
Ci Cj
RT Ai RRT Aj R = RT Ai Aj R
RT Aj Ai R = RT Aj RRT Ai R = Cj Ci .
, = 1, 2, . . . , m.
Ci Cj = Cj Ci .
Ci es simtrica, entonces la matriz Ci
i = 2, 3 . . . , s + 1 y cada = 1, 2, . . . , m. Por lo
hiptesis de induccin; para cada , existe una matriz
tal que
QTi Ci Qi = D
es una matriz diagonal. Sea ahora:
Q1
0
Q= .
..
0
0
Q2
.
.
.
..
0
0
.
.
.
.
Qm
La matriz
Tambin
QT RT Ai RQ = Di , i = 2, 3 . . . , s + 1,
Puesto que
QT RT A1 RQ = D .
P = RQ
P T Ai P
es tal que
i = 2, 3 . . . , s + 1.
P tal
P T Ai P = Di es una matriz diagonal para cada i = 1, 2, . . . , k . Puesto
que Di Dj = Dj Di , para todo i y todo j , i, j = 1, 2, . . . , k , entonces
(Necesidad:) Supongamos ahora que existe una matriz ortogonal
que
P T Ai P P T Aj P = P T Aj P P T Ai P,
de donde se tiene que
Ai Aj = Aj Ai
para todo
89
i y todo j; i, j = 1, 2, . . . , k.
3.5. Ejercicios
3.4.6.
Diagonalizacin de matrices
Ejemplo.
A1 =
2
1
1
2
,
A2 =
3
4
4
3
A3 =
5
6
6
5
Ai Aj = Aj Ai , i = 1, 2.
La matriz ortogonal
1
1
R=
2 1
es tal que
R T A1 R
R A2 R
D2 =
R T A3 R
D3 =
A1 , A 2
1
0
1
0
D1 =
0
3
0
7
11
A3 .
3.5. Ejercicios
3.5.1 Responda verdadero o falso, justicando su respuesta:
1
3 1 1
x = 1 es un vector propio de M = 7 5 1
0
6 6 2
= 1 es un valor propio de la matriz M anterior.
Si una matriz cuadrada A es diagonalizable, entonces existen
1
innitas matrices invertibles P tales que P
AP = D es una
1. El Polinomio
2.
3.
4.
5.
matriz diagonal.
90
Diagonalizacin de matrices
6. Sea
3.5. Ejercicios
n. Si C es una matriz
n invertible, entonces las matrices A, C 1 AC
cuadrada de orden
7. Si
8.
9.
nal.
P T tambin es ortogonal.
es una matriz ortogonal, entonces |P | = 1.
Una matriz P de tamao n n es ortogonal sii los vectores la
n
de P conforman una base ortonormal de R .
1 1
La matriz P =
es ortogonal.
1 1
2
Si la matriz A satisface la igualdad: A = 3A 2I, entonces los
posibles valores propios de A son 1 = 1, 2 = 2.
P
Si P
10. Si
11.
12.
13.
14.
1. Si
2.
3.
4.
5.
6.
7.
8.
91
3.5. Ejercicios
Diagonalizacin de matrices
de la forma
M=
A
0
C
B
1 , 2 , . . . , n , 1 , 2 , . . . , m .
A es una matriz cuadrada de orden n, entonces pA () =
|A I| es un polinomio de grado n en la variable que tiene
son
9. Si
la forma:
pA () = a0 + a1 + a2 2 + + (1)n n .
n).
es un valor propio de una matriz A, entonces la multiplicidad
geomtrica de es menor o igual que la multiplicidad algebraica
de . (sugerencia: vea la demostracin del teorema 3.3.2).
n
Si A Mnn es tal que pA () = (1) (1 )(2 ) (n )
entonces: (i) |A| = 1 2 n y (ii) Tr A = 1 + 2 + + n .
A B
In
In
Sean A, B Mnn , M =
y P =
B A
In In
1
1
a ) Verique que P
= P.
2
1
b ) Calcule P
M P y concluya que det M = det(A + B)
det(A B).
11.
12.
PQ
es una matriz
ortogonal.
14. Si
Q1 0
0
0 Q2
0
Q= .
.
.
.
.
.
.
.
.
.
.
.
.
0
0 Qm
entonces la matriz
es tambin ortogonal .
15. Sea
16. Si
92
Diagonalizacin de matrices
17. Si
3.5. Ejercicios
pA () = Tr A =
n X
n
X
nn
entonces:
(aij )2 .
i=1 i=1
(Sugerencia: Utilice el teorema 3.3.13 y el corolario 2.3.5)
18. Sea
a Mn1 un
M
A = M T M. (Sugerencia: utilice el teorema 3.3.13(1))
Si A es una matriz simtrica tal que todos los valores
son positivos, entonces existe una matriz invertible
20.
es
tal que
propios
T,
sobre el orden
de
21. Si
A = T T A.
la matriz A).
tal que
pios positivos
(p < n)
22. Si
positivos, entonces:
(ABA) = (A) = Tr A
(sugerencia: Utilice (19) y (17)).
23. Sea
nn
n
X
|aii | >
tal que
|aij | ,
j6=i,j=1
A es invertible. (Sugerencia:
T
x1 x2 xn
suponga que existe un vector x =
6= 0 tal
que Ax = 0 y que |xi | = m
ax {|x1 | , |x2 | , . . . |xn |}. Despeje aii xi
en la i-sima ecuacin del sistema Ax = 0, tome valor absoluto
para todo
i = 1, 2, . . . n,
entonces
A = [aij ]nn
|aii | >
n
X
j6=i,j=1
93
|aij |
3.5. Ejercicios
Diagonalizacin de matrices
para todo
i = 1, 2, . . . n,
A
25. Si
es un valor propio de
26.
Tr A = m(A).
(Sug.: considere (i)
(A) = 0,
(ii)
(A) = n
y (ii)
3.5.3 Clculos
1
2
(i) M =
(iii) M =
2
1
1
0
3
(vii) M = 1
3
2
5
(ix) M =
0
0
2. Sea
T : P2 P2
P 1 M P
1
2
0
2
2
0
3
(vi) M = 7
6
1
5
6
1
1
2
1
1
2
0
1
4
(ii) M =
(iv) M =
3
5
6
1
(v) M = 3
6
tal que
1
1
1
3
1
4
3
0
0
3
3
4
1
1
1
0
0
1
2
0
0
2
2
0
2
2
(viii) M = 0
0
0
2
(x) M =
0
0
2
0
1
0
0
1
0 2
0
0
1
4
Diagonalizacin de matrices
3.5. Ejercicios
de
P2
tal que
[T ]CC
sea
Tr M
P , tal que P T M P
y (A).
1
2
(i) M =
2
5
1
(ii) M = 1
0
0
0
1
1
0
0
2 1 1
1 1 1
1 1
(iii) M = 1 2 1 (iv) M = 1
1 1 2
1 1
1
4 4 2
4 2 2
(v) M = 2 3 0 (vi) M = 4 4 2
2 2 1
2 0 5
4. Para cada una de las siguientes matrices encuentre una matriz
invertible
Q,
tal que
Qt M Q
1
(i) M = 1
0
1
(iii) M = 2
0
2
(v) M = 1
1
sea de la forma
I
0
0
0
I
0
1
1
0
0
0
1
2
0
0
0
0
1
0
0 .
0
0
(ii) M = 1
1
1
(iv) M = 0
1
1
1
1
1 1 (vi) M = 2
1
5
1
1
1
2
2
2 1
0 1
2
1
1
1
2 1
4 2
2
8
QT M Q = I ,
M = P T P.
a ) Si
95
P,
tal que
3.5. Ejercicios
Diagonalizacin de matrices
I 0
b ) Si Q M Q =
, encuentre una matriz no invertible
0 0
T
P, talque M = P P.
1 2 3
1 4 1
5
5
4
Sean A = 2
y
B = 4 14
3
5 11
1
4
6
a ) Verique que todos los valores propios de A son positivos,
T
encontrando una matriz invertible P tal que P AP = I.
T
T
b ) En una matriz invertible M tal que M AM = I y M BM =
D sea una matriz diagonal.
2 3
0
1 2 0
6
0
5 0 , S2 = 3
Considere la matrices S1 = 2
0
0 4
0
0 4
3 2 0
2 0 .
y S3 = 2
0
0 8
a ) Verique que todos los valores propios de S1 son positivos,
T
encontrando una matriz invertible P tal que P S1 P = I.
T
T
b ) Haga A = P S2 P y B = P S3 P .. Verique que AB = BA
T
y encuentre una matriz ortogonal Q tal que Q AQ = D1 y
T
Q BQ = D2 son matrices diagonales.
c ) Concluya que la matriz invertible M = P Q es tal que
M T S1 M = I y M T AM = D1 y M T BM = D2 son maT
6.
7.
trices diagonales.
96
CAPTULO 4
Formas cuadrticas
Este captulo consta de tres secciones. En la primera seccin introduciremos el concepto de Forma cuadrtica y sus respectivas clasicaciones
(segn el signo de los elementos del rango) en formas cuadrticas positivamente (negativamente) denidas, formas cuadrticas positivamente
(negativamente) semidenidas y formas cuadrticas indenidas. La segunda seccin versa sobre cambio de variables y diagonalizacin de formas cuadrticas. En esta seccin se utilizan los resultados de las secciones
3.3 y 3.4. En la tercera seccin damos algunos criterios para clasicar las
formas cuadrticas segn el signo de los valores propios.
Denicin.
Rn
es una funcin
q : Rn
de la forma
(4.1)
q [(x1 , x2 , . . . , xn )] =
n X
n
X
aij xi xj , donde
i=1 j=1
97
aij R,
i, j = 1, 2, . . . , n.
4.1. Clasicacin
Formas cuadrticas
q (x) = xT Ax,
(4.2)
siendo
x1
x2
x = . Rn .
..
xn
S, S =
1
2 (A
+ AT ),
se
satisface
xT Sx
=
=
=
1
1
xT (A + AT )x = (xT Ax + xT AT x)
2
2
1
1 T
T
x Ax + (x Ax)T = (xT Ax + xT Ax)
2
2
xT Ax ,
q (x) = xT Sx .
(4.3)
Observamos entonces, que una forma cuadrtica se puede expresar matricialmente de varias maneras. Sin embargo, se puede demostrar (ejercicio
4.4.2(1)), que existe una nica representacin en trminos de matrices
simtricas,
Nota.
S = 21 (A + AT ),
q(x) = xT Ax.
den
2)
de la forma
aij xi xj .
xT Sx,
siem-
4.1.2.
Ejemplo.
rido en
R,
solamente la primera,
q1 (x1 , x2 )
q2 (x1 , x2 )
q3 (x1 , x2 )
q1 ,
R3 y con recor-
Formas cuadrticas
4.1. Clasicacin
q1 (x1 , x2 ) = xT Ax =
x1
x2
x2
3
2
4
5
3
3
3
5
x1
x2
x1
x2
q1 (x1 , x2 ) = xT Sx =
4.1.3.
Denicin.
ImaS
Sea
xT Sx
x1
Rn .
El conjunto
x Sx : x R
r R : r = xT Sx
para algn
x Rn
xT Sx
xT Sx.
ImaS
Denicin.
xT Sx
es:
T
existe un x 6= 0 tal que x Sx = 0.
T
Negativamente semidenida, si x Sx 0 para todo x 6= 0, y
T
existe un x 6= 0 tal que x Sx = 0.
T
Indenida, si existen vectores no nulos x1 y x2 tales que x1 Sx1 >
T
0 y x2 Sx2 < 0, respectivamente.
1. Positivamente denida, si
2.
3.
4.
5.
da.
7. No positiva, si es negativamente denida o negativamente semideni-
da.
4.1.5.
Observacin.
La forma cuadrtica
q1 (x) = xT Sx es negativaT
cuadrtica q2 (x) = x (S)x
Denicin.
es positivamente
4.1. Clasicacin
Formas cuadrticas
Ejemplo.
4.1.7.
R3
q1 (x1 , x2 , x3 )
q2 (x1 , x2 , x3 )
q3 (x1 , x2 , x3 )
q1 (x1 , x2 , x3 )
q1 : R3 R
se tiene:
x1
x2
x3
1
0
0
0
2
0
0
x1
0 x2
3
x3
= xT S1 x.
Puesto que
xT S1 x > 0
para todo
x 6= 0,
entonces
q1
es positivamente
denida.
Para la forma cuadrtica
q2 (x1 , x2 , x3 )
=
=
=
q2 : R3 R
se tiene:
1
x1 x2 x3 1
0
= (x1 + x2 )2 + x23
x1
1 0
1 0 x2
x3
0 1
xt S2 x.
Puesto que
se tiene
q3 (x1 , x2 , x3 )
q3 : R3 R
se tiene:
xt S3 x.
x1 =
T
y x2 S3 x2
Dado que
4>0
x1
x2
x3
1
0
0
0
2
0
0
x1
0 x2
3
x3
Formas cuadrticas
Denicin
4.2.1.
(Cambio de variable)
Sea
q : Rn R
una forma
q(x) = xT Sx.
(4.1)
y sea
x Rn
x.
Observacin.
En la denicin anterior,
yx=P y
x Rn y viceversa.
yR
tonces la transformacin
determina un nico
se tiene:
xT Sx = yT P T SP y = yT By
(4.2)
donde
x = P y (P
B = P T SP .
invertible) como la
P : Rn
y
as que
(q P ) : Rn R
Rn
x = Py .
(4.2).
4.2.2.
Ejemplo.
Sea
q : R3 R
Formas cuadrticas
q [(x1 , x2 , x3 )] = xT Sx =
x1
x2
x3
1
2
3
2 3
x1
5 4 x2 .
4
8
x3
y1
y = y2 = P 1 x
y3
1 2 3
0 1
2
0 0
1
x1 + 2x2 3x3
x2 + 2x3
x3
x1
x2
x3
encontramos que:
xT Sx
yT P T SP y = yT By
B = P T SP
1
0
2
1
7 2
1 0
0
0 1
0
0 0 5
donde
0
1
0 2
1
3
2 3
1
5 4 0
4
8
0
2
7
1 2
0
1
Por lo tanto,
xt Sx = yt By
y1
y2
y3
1
0
0
y1
0
0
1
0 y2
0 5
y3
es decir,
xT Sx
donde
y1 = x1 + 2x2 3x3 ,
y2 = x2 + 2x3 ,
y3 = x3 .
Formas cuadrticas
y1 6= 0, y2 6= 0, y3 = 0,
T
la expresin x Sx.
y1 = 0, y2 = 0, y3 6= 0.
Denicin.
T
Dada una forma cuadrtica x Sx, si el cambio de
T
T T
T
es tal que x Sx = y P SP y = y Dy, donde D es
1
una matriz diagonal, entonces se dice que el cambio de variables y = P
x
T
diagonaliza la forma cuadrtica x Sx.
4.2.3.
y = P 1 x
variables
4.2.4.
Observacin.
Teorema.
xT Sx
yT QT SQy = yT Dy
=
donde los
4.2.6.
y1
y2
0
2
.
.
.
..
Sea
q : R3 R
= X t SX =
S.
q [(x1 , x2 , x3 )]
0
y1
0
y2
. .
. .
.
.
n
yn
i , i = 1, 2, . . . , n
Ejemplo.
yn
0
..
.
0
x1
x2
x3
1
1
1
1
1
1
1
x1
1 x2
1
x3
Q tal que QT SQ = D
S en la diagonal. Despus
son
1/2
Q = 1/ 2
0
1/5
1/5
2/ 5
Formas cuadrticas
1/3
1/3
1/ 3
es tal que
0
QT SQ = D = 0
0
Por lo tanto, el cambio de variables y
T
cuadrtica x Sx, obtenindose:
xT Sx = yT QT SQy
0
0
0
=
0
0 .
3
Q1 x diagonaliza
la forma
= yT Dy
y1
y2
y3
0
0
0
0
0
0
y1
0
0 y2 = 3y32 .
3
y3
Teorema.
Sea
xT Sx
yT P T SP y = yT Dy
4.2.8.
I
0
0
0
I
0
2
2
2
y12 + y22 + . . . + y2 y+1
y+2
. . . y+
.
Ejemplo.
q (x)
Sea
y1
y2
q : R3 R
yn
y1
0 y2
0 .
..
0
yn
x Sx
x1
x2
x3
104
1
1
1
1
0
2
1
x1
2 x2
0
x3
Formas cuadrticas
1
0 0
P T SP = D = 0 1 0 .
0
0 0
son
Por el teorema
1 2
1
1
0
1
1
P = 0
0
xT Sx
x Sx,
y = P 1 x
diago-
obtenindose:
= yT P T SP y
= yT Dy
y1
y2
y3
1
0
0
y1
0
0 y2 = y12 y22 .
y3
0
0
1
0
Teorema.
Sean
q1 (x) = xT S1 x
xT S2 x
= yT QT S2 Qy
= yT Dy
y1
y2
yn
0
..
.
0
0
2
.
.
.
..
0
y1
0
y2
. .
. .
.
.
n
yn
Formas cuadrticas
donde los
0,
|S2 S1 | =
Ejemplo.
Sean
q 1 : R3 R
q2 : R3 R
denidas por:
q1 (x)
= xT S1 x =
x1
x2
x3
1
0
0
0
4
2
0
x1
2 x2
2
x3
4
8
4
= xT S2 x =
=
x1
x2
x3
5
4
4
x1
4
4 x2
4
x3
2 = 3 +
3 = 3
5,
S1
son:
1 = 1,
la matriz invertible
Q=
1
3
2 5
2
3
3 5
3 5
3 5
es tal que
QT S1 Q = I3
3
QT S2 Q = D = 0
0
0
6
0
0
0 .
6
y = Q1 x diagonaliza
x S1 x y xt S2 x obtenindose:
simultnea-
Formas cuadrticas
xT S2 x
= yT QT S2 Qy
= yT Dy
y1
y2
y3
3
0
0
0
6
0
0
y1
0 y2
6
y3
Teorema
Considere en
= yT P T S1 P y = yT D1 y
y1
y2
yn
0
..
.
0
0
2
.
.
.
..
0
2
.
.
.
..
0
y1
0
y2
. .
. .
.
.
n
yn
xT S2 x
yT P T S2 P y = yT D2 y
y1
y2
yn
0
..
.
0
0
y1
0
y2
. .
. .
.
.
n
yn
i , i = 1, 2, . . . , n
1, 2, . . . , n
4.2.12.
en
Corolario.
Sean
Formas cuadrticas
S1
y los
i , i =
S2 .
xT S1 x, xT S2 x, . . . , xT Sk x
formas cuadrticas
R .
Ejemplo.
Sean
q 1 : R4 R
q2 : R4 R
denidas por:
q1 (x)
= xT S1 x
q2 (x)
xT S2 x
x1
x2
x3
1
0
x4
0
0
0
1
0
0
x1
x2
x3
1/ 2
1/ 2
P =
x1
0
x2
0
0 x3
1
x4
x1
0
0
x2
0
0
2 2 x3
2
5
x4
1
1
0
0
1
1
x4
0
0
S1 S2 = S2 S1
0
2/ 5
1/ 5
1/ 5
2/ 5
0
0
1
0
1/ 2
1/ 2
0
0
es tal que
0
P t S1 P = D1 =
0
0
0
1
0
0
0
0
1
0
0
0
,
0
2
108
0
P t S2 P = D2 =
0
0
0
1
0
0
0
0
6
0
0
0
0
1
Formas cuadrticas
xT S1 x
xT S1 x
xT S2 x
y = P 1 x diagonaliza
T
y x S2 x obtenindose:
yT P T S1 P y = yT D1 y
yT P T S2 P y = yT D2 y
simultnea-
Ejemplo.
q1 (x)
q2 (x)
q3 (x)
xT S1 x =
x S2 x =
x S3 x =
x1
x1
x1
x2
x2
x2
1
2
x1
x2
2
1
3
4
4
3
x1
x2
5
6
6
5
x1
x2
R2 :
Si Sj = Sj Si , i = 1, 2, 3
y que la matriz
ortogonal
1
1
P = 1/ 2
1
1
es tal que
P S1 P = D1 =
1
0
0
3
P S2 P = D2 =
P T S3 P = D3 =
1
0
0
11
1
0
0
7
,
.
y = P 1 x diagonaliza simultneaT
T
mente las formas cuadrticas x S1 x, x S2 x y x S3 x, obtenindose:
1 0
y1
T
T T
x S1 x = y P S1 P y = y1 y2
= y12 + 3y22
0 3
y2
1 0
y1
T
T T
x S2 x = y P S2 P y = y1 y2
= y12 + 7y22
0 7
y2
1
0
y1
T
T T
x S3 x = y P S3 P y = y1 y2
= y12 + 11y22
0 11
y2
Por lo tanto, el cambio de variables
109
Formas cuadrticas
P
Mnn , junto con el cambio de variables x = P y y = P 1 x (x, y Rn ),
t
nos permite reescribir la forma cuadrtica q(x) = x Sx en trminos de la
T
T
variable y, mediante la expresin q (y) = y By, donde B = P SP. Esto
q(x) = xT Sx = yT By = q (y),
De esto se sigue entonces, que
q()
con
y
q ()
x = P y,
invertible.
decir,
xT Sx : x Rn = yT By : y Rn .
El siguiente resultado relaciona las clasicaciones de dichas formas cuadrticas. La vericacin de ste se deja a cargo del lector.
Teorema.
t
T
una matriz invertible nn. Sea adems q (y) = y By, donde B = P SP ,
1
la forma cuadrtica generada por el cambio de variables y = P
x. En-
4.3.1.
Sea
tonces se tiene:
1.
2.
3.
Teorema.
1.
xT Sx
S son
Sea
xT Sx
Rn , S 6= 0.
Formas cuadrticas
2.
xT Sx
p (0 < p < n)
tiene
ca
y = Q1 x = Qt x,
y un cambio de variables
tal que
(4.1)
donde los
i , i = 1, 2, . . . , n
T
D = Q SQ = diag
1 ,
2 ,
...,
S,
tal que
q(x) = xT Sx
es positiva-
mente semidenida. Por el inciso (2) del teorema 4.3.1, la forma cuadrti-
de la forma cuadrtica,
0 < < n,
xT Sx,
(n )
Formas cuadrticas
y = P 1 x
tal que
xT Sx = yT P T SP y = yT Dy = y12 + y22 + . . . + y2 .
por hiptesis,
ver, que para
yT Dy 0
y Mn1
y Mn1 .
para todo
dado por
..
01
.
1
0
=
= .
,
..
1
.
1
..
n1
1 n1
q (y) = yT Dy es positivaT
mente semidenida y por consiguiente, q(x) = x Sx tambin lo es, lo que
demuestra el inciso (2) de nuestro teorema.
se tiene
yT Dy = 0.
Ejemplo.
xT Sx,
denidas en
q(x) = xT Sx denida
1. La forma cuadrtica
q(x)
q(x) =
R3 .
x1
x2
x3
5
0
0
0
4
3
por:
x1
0
3 x2
x3
6
= xT Sx
es positivamente denida, pues los valores propios de la matriz
son:
1 = 5, 2 = 3
3 = 7,
positivos.
112
Formas cuadrticas
2. La forma cuadrtica
q(x)
q(x) = xT Sx
denida por:
xT S x
x1
x2
x3
1
1
2
2
x1
2 x2
4
x3
1
2
2
son:
1 =
7+ 23
,
2
3. La forma cuadrtica
q(x)
x21
2 =
7 23
y
2
q(x) = xT Sx
4x1 x2 +
2x22
x1
x2
x3
denida por:
4x2 x3 + 3x23
3 = 0.
1
2
0
2
2
2
x1
0
2 x2
x3
3
= xT Sx
es indenida, pues los valores propios de
y
4.3.4.
Teorema.
1.
2.
son:
1 = 1, 2 = 2
3 = 5.
Sea
xT Sx
Rn .
xt Sx
Q = P 1 .
Supongamos ahora que existe una matriz invertible
113
tal que
S = QT Q.
Formas cuadrticas
Ejemplo.
1. La forma cuadrtica
q(x)
4x21
xT Sx
x1
q : R3 R
denida por:
x22
4x2 x3 + 5x23
4
0
x2 x3 0
1
0 2
x1
0
2 x2
x3
5
son
1 = 4, 2 = 3 +
3 = 3
5,
tamente positivos.
Efectuando los clculos pertinentes se encuentra que la matriz
invertible
2
Q= 0
0
0
2 ,
1
0
1
0
2. La forma cuadrtica
q(x)
es tal
4
que S = 0
0
q : R3 R
0
0
1 2 = QT Q.
2
5
denida por:
1 1 1
x1
x1 x2 x3 1 1 1 x2
=
1 1 1
x3
xT Sx
son
1 = 0, 2 = 0
3 = 3.
1
Q= 0
0
1
0
0
1
0 ,
0
es tal que
114
1
S= 1
1
1
1
1
1
1 = QT Q.
1
Formas cuadrticas
11(es
det() en lugar de || , para evitar la confusin
Teorema.
S de
s1n
s2n
.
.
.
.
snn
s11
s21
S= .
..
sn1
s12
s22
.
.
.
..
sn2
orden
n.
Sn = S, Sn1
S2 =
s11
s21
= .
..
sn1
s11
s21
s12
s22
s12
s22
.
.
.
..
sn2
s1(n1)
s2(n1)
, ...
.
.
.
sn(n1)
y
S1 = [s11 ] .
Entonces:
1. La forma cuadrtica
si
2.
si
denida sobre
R ,
para
la forma cuadrtica en
efecto,
xTj Sj xj
Formas cuadrticas
xTj Sj xj ,
denida sobre
Rj ( 2
xt Sx es positivamente
0, . . .|Sn | > 0.
denida entonces
(Condicin suciente) Haremos una demostracin de esta implicacin usando induccin sobre
n.
Cuando
sto,
n = k, y
n = k + 1. Sea pues S = Sn
una matriz simtrica de orden n = k + 1 tal que |Sn | = |Sk+1 | > 0,
|Sn1 | = |Sk | > 0, . . . |S2 | > 0 y |S1 | > 0. Por hiptesis de induccin,
t
k
la forma cuadrtica xk Sk xk en R es positivamente denida. Existe ent
tonces una matriz invertible Qk tal que Sk = Qk Qk (teorema 4.3.4(1)).
S
|Sk+1 | = tk
s
s
s(k+1)(k+1)
= |Sk | det s(k+1)(k+1) st Sk1 s
= |Sk | det(
k ).
|Sk+1 | > 0
|Sk | > 0.
.
Sea ahora
Qk
(Qtk )1 s
Qk+1 =
116
Formas cuadrticas
La matriz
Qk+1
Sk+1
Sk
sT
s
s(k+1)(k+1)
QTk
sT (Qk )1
Qk
(QTk )1 s
QTk+1 Qk+1 .
k+1
es positivamente denida.
Ejemplo.
xT Sx, donde :
4 2 2
S= 2 5 1
2 1 4
1. La forma cuadrtica
4 2
= 16 > 0
det(S1 ) = det(4) = 4 > 0, |S2 | =
2 5
4 2 2
|S3 | = 2 5 1 = 20 > 0.
2 1 4
xt Sx, donde :
3
2
0
2
S = 2 4
0
2 5
2. La forma cuadrtica
3
2
det(S1 ) = det(3) = 3 < 0, |S2 | =
=8>0
2 4
3
2
0
2 = 28 < 0.
|S3 | = 2 4
0
2 5
117
4.4. Ejercicios
4.3.8.
Nota.
Formas cuadrticas
Sea
S = [aij ]nn
S1 , S2 , . . . , Sn
las matrices que aparecen en el enunciado del teorema anterior. Las condiciones
1 1 2
S= 1 1 2
2 2 1
cuadrtica
es tal que
1
det(S1 ) = det(1) = 1, |S2 | =
1
1
=0
1
1
|S3 | = 1
2
1
1
2
2
2
1
= 0.
4.4. Ejercicios
4.4.1 Responda verdadero o falso justicando su respuesta.
1. Sea
2.
3.
negativa.
4. Si
S 3 = S,
entonces
es no
negativa.
5. Si
S1
S2
entonces la matriz
S=
S1
0
0
S2
S1
S2
entonces la matriz
S = S1 + S2
118
es positivamente denida.
Formas cuadrticas
7. Si
S1
4.4. Ejercicios
matriz
8.
vamente denida.
9. Sea
a
b
S=
b
c
semidenida.
S =
10. La matriz
. Si
a
b
b
c
es positivamente
es negativamente denida sii
a<0
ac b2 > 0.
4.4.2 Demuestre que:
simtrica
de orden
q [(x1 , x2 , . . . , xn )] = xT Sx,
q : Rn R
xT =
con
S2 = AAT
A,
x1
x2
las matrices
xn
S1 = AT A
son no negativas.
S = AT A
la matriz
tal que:
n n, A,
se tiene:
(A) = n
sii
es positivamente denida.
es positivamente denida.
6. Si la matriz
onal de
son no negativos.
7. Si la matriz
8.
j6=i
entonces
ma 3.5.2(23)).
119
4.4. Ejercicios
Formas cuadrticas
9. Si
10.
12.
13.
14.
15.
4.3.4(2)).
4.4.3 Clculos
xT Sx
siguientes:
tal que
S = Q Q.
Q tal que S = Q Q.
2
x
2x
xT Sx = x21 + 4x
1 2
2
120
Formas cuadrticas
4.4. Ejercicios
xT S1 x
T
x S2 x
x21
+ 2x1 x2 2x1 x3 +
x22
2x2 x3 + 2x23 .
y = M 1 x que
y = Q1 x, (Q
xT S1 x
T
4. Sea
x S2 x =
2 1
S=
.
1 2
2x21
+ 4x1 x2 .
S es positivamente denida.
a21 y un nmero , tales que la matriz
S a
S =
aT
121
CAPTULO 5
Denicin.
1.
2.
3.
Sea
S
S
es positivamente denida, si
mente semidenida.
5.1.2.
Teorema.
Sea
n n.
es positivamente denida.
de orden
n,
la matriz
P T SP
es
positivamente denida.
123
Anexo 1
5.1.3.
S = T T T.
S es invertible
n n, T ,
S 1 es positivamente denida.
s11 s12
s11 s12
det (s11 ) > 0, det
> 0, det s21 s22
s21 s22
s31 s32
0, . . . , det (S) = |S| > 0.
Teorema.
sii
Sea
n
X
>
tal que
|sij |,
para
n n.
s13
s23 >
s33
Si se cumple que
i = 1, 2 . . . , n,
j=1, j6=i
entonces
5.1.4.
es positivamente denida.
Teorema.
Sea
n n.
Si
es positivamente
denida, entonces,
1.
2.
5.1.5.
(S) = n.
sii > 0 para i = 1, 2, . . . , n.
Teorema.
1 , 2
entonces la matriz
S = 1 S1 + 2 S2
es positivamente denida.
Teorema.
5.1.6.
Sean S1 y S2 matrices simtricas de igual orden. Si S1
es positivamente denida, entonces existe una matriz invertible Q tal que
QT S1 Q = I y QT S2 Q = D, donde D es una matriz diagonal real, cuyos
elementos en la diagonal las soluciones de la ecuacin |S2 S1 | = 0.
Teorema.
5.1.8.
Sean S1 y S2 matrices simtricas de orden n. Si S1 es
positivamente denida, entonces existe un > 0 tal que S = S1 + S2 es
positivamente denida.
Demostracin. Si
que la matriz
tonces que
124
Anexo 1
QT S1 Q = In
tal que
QT S2 Q = D,
donde
0
d22
0
0
.
.
.
..
.
.
.
Digamos que
d11
0
D= .
..
0
Puesto que
S2 6= 0,
dnn
I + D
1 + dii > 0
para
i = 1, 2, . . . , n
y que la matriz
matriz
(Q1 )T [I + D]Q1 = S1 + S2 = S
es positivamente denida.
5.1.9.
Teorema.
Sea
n. Si S es posix, y Mn1 se
tiene
matriz invertible
tal que
S = QT Q.
De aqu que
S 1 = Q1 (QT )1 .
x, y Mn1 se tiene
Qx, (QT )1 y 2 kQ xk2
(QT )1 y
2 ,
o sea:
adems
Si
S1
Teorema.
Sean S1
1 2 n ,
x S2 x
n .
xT S1 x
125
x 6= 0
se tiene que
Anexo 1
triz invertible
Q,
tal que
|S2 S1 | = 0
1
0
QT S2 Q = D = .
..
0
1 2 n .
donde
0
2
.
.
.
..
Ahora, si hacemos
x S1 x = y Q S1 Qy = y In y =
tal que
0
0
. ,
.
.
n
y = Q1 x,
y12
y22
entonces:
+ + yn2 ,
Por
x 6= 0 :
xT S2 x
n .
xT S1 x
5.1.11.
Teorema.
Sea
n.
Las arma-
es positivamente semidenida.
P , nn, P T SP es positivamente semidenida.
S tiene (0 < n)
n valores propios
P
0
;
0
P T SP =
5. Existe una matriz
In
0
nn
de orden
tal que
0 < n.
no invertible
Teorema.
n,
Q,
tal que
S = QT Q.
5.1.12.
1.
(S) < n.
126
n.
Si
Anexo 1
2.
S2
Teorema.
5.1.13.
entonces la matriz
S = S1 S2
es positivamente semidenida.
Teorema.
1 , 2
5.1.15.
Teorema.
1.
2.
3.
5.1.16.
AT A
AT A
AT A
Sea
AAT
una matriz
nn
de rango
r,
entonces:
r = n.
r < n.
Teorema.
Sean
S1
S2
n.
1. Si
a)
2.
5.1.17.
Teorema.
Sean
S1 , S2 , . . . , Sk
entonces:
n.
1. Si
j=1 i=1
d)
k
X
k
X
Tr (Si Sj )
=0
sii
Si Sj = 0
para todo
i 6= j .
S1 , S2 , . . . , Sk
P
k
i=1
k X
k
X
b)
Anexo 1
P
k
Si = i=1 Tr (Si ) 0
Tr (Si Sj )
>0
j=1 i=1
5.1.18.
Teorema.
adems
Sea
S1 , S2 , . . . , Sk
k
X
k
X
Tr (Si Sj )
> 0.
nn
tal que
In = S +
k
X
S2 = S.
n. Si
Sean
Si ,
i=1
entonces
SSi = Si S = 0
i = 1, 2, . . . , k .
para todo
S = S 2 = S T S es
Tr (SSi ) 0 para i = 1, 2, . . . , k.
In = S +
k
X
Si ,
i=1
S,
por la matriz
se obtiene
S = S2 +
k
X
SSi = S +
i=1
k
X
SSi .
i=1
k
X
SSi = 0
Tr
i=1
k
X
!
SSi
i=1
En consecuencia, Tr (SSi )
=0
k
X
Tr (SSi )
= 0.
i=1
y por ende
S Si = 0, para i = 1, 2, . . . , k.
Si S = SiT S T =
(S Si ) = 0.
Teorema.
no negativa o
rango
n.
S1
P t S1 P =
I
0
128
0
0
.
tal que:
Anexo 1
Sea ahora
C=P
T 1
S2 (P )
Puesto que
=
C11
C21
C12
C22
,
donde
C11
es una matriz
|S1 S2 I| = 0 sii
T
P |S1 S2 In | (P T )1 = P T S1 S2 (P T )1 In = 0 .
Puesto que:
P T S1 S2 (P T )1
=
=
=
P T S1 P P 1 S2 (P T )1
I 0
C11 C12
0 0
C21 C22
C11 C12
,
0
0
entonces
T
P S1 S2 (P T )1 In =
C11 I
0
C12
I
= |C11 I | |I | .
De aqu que las soluciones de la ecuacin
ciones de la ecuacin
|C11 I| |I | = 0,
|S1 S2 I| = 0,
Denicin.
satisface que
5.2.2.
Teorema.
1. Si
2. Si
Una matriz
cuadrada de orden
es idempotente, si
A2 = A.
Sea
r = n, entonces A = In .
A es simtrica y r < n, entonces A
nn
de rango
r:
es positiva semidenida.
1. Si
129
los
Anexo 1
la matriz
5.2.3.
Teorema.
propio de
5.2.4.
A,
Sea
entonces
Teorema.
Si
Si
es un valor
Q,
la matriz
S = QT SQ
es una
n
2. La matriz S = S , n = 1, 2, . . . , es simtrica idempotente.
Teorema.
algn
n N,
Si
entonces
S n+1 = S n ,
D
n+1
para
Demostracin. Sea
Puesto que
S n+1 = S n
P T SP = D
es
en la diagonal.
entonces:
(P T SP )n+1 = P T S n+1 P
= P T S n P = Dn .
De esto se sigue, que cada elemento de la diagonal de
tanto,
D2 = D,
es
0.
Por lo
a sea:
D2 = P T S 2 P = P T SP = D,
puesto que
5.2.6.
Teorema.
Si
S 2 = S.
(S) = Tr S = Tr S T S =
n X
n
X
n n,
entonces:
s2ij .
i=1 j=1
Teorema.
Si S es
sii = 1, entonces
columna i de S es nulo.
5.2.7.
sii = 0
la
entonces:
sii =
n
X
n n.
Si
y cada elemento de
sik ski =
k=1
n
X
k=1
130
s2ik .
Anexo 1
Por lo tanto, si
sii = 0
o si
sii = 1,
n
X
se tiene
s2ik = 0 ,
k=1, k6=i
es decir,
5.2.8.
Teorema.
sea adems
S=
Sean
k
X
Si .
S1 , S2 , . . . , Sk
n,
i=1
can la tercera:
a)
b)
c)
S2 = S.
Si = Si2 , i = 1, 2, . . . , k .
Si Sj = 0 si i 6= j; i, j = 1, 2, . . . , k .
k
X
Si )2
S2 = (
k
X
Si2 +
i=1
i=1
k
X
k
X
k
X
j=1
i=1
i 6= j
Si Sj
Si = S,
i=1
y por la condicin b), se tiene:
k
X
Si2 =
i=1
k
X
Si ,
i=1
y por lo tanto:
De aqu que Tr
k
X
k
X
k
X
j=1
i=1
i 6= j
k
X
Si Sj = 0.
Si Sj = 0.
Si
Si ,
Anexo 1
para
que
k
X
S = S2 = (
Si )2
k
X
i=1
Si2 ,
i=1
o sea,
k
X
Si =
k
X
i=1
Si2 .
i=1
Sj , j = 1, 2, . . . , k,
se tiene que:
Sj Sj = Sj Sj2 ,
o sea:
Sj2 = Sj3 ,
pues
Si Sj = 0
Sj es
cluye que
si
i 6= j; i, j = 1, 2, . . . , k .
j = 1, 2, . . . , k.
As, as
k
X
Si )2
S2 = (
k
X
Si2 +
i=1
i=1
k
X
k
X
k
X
j=1
i=1
i 6= j
Si Sj
Si = S;
i=1
esto es, la condicin a) se satisface.
Teorema.
de orden
n,
132
Anexo 1
Si
para
i = 1, 2, . . . , k , son
idempotentes, entonces:
2
Sk+1
(I
k
X
Si )2
i=1
= I 2
k
X
Si +
i=1
= I
k
X
Si +
k
X
k
X
j=1
i=1
i 6= j
k
X
k
X
j=1
i=1
i 6= j
Sk+1 = I
Si2 +
i=1
i=1
= Sk+1 +
k
X
Pk
i=1
Si ,
k
X
j=1
i=1
i 6= j
Si Sj
Si Sj
Si Sj .
entonces:
k
X
2
Sk+1
= Sk+1
k
X
Si Sk+1 .
i=1
En consecuencia:
Sk+1 +
k
X
j=1
k
X
Si Sj = Sk+1
k
X
Si Sk+1 .
i=1
i=1
i 6= j
De esto se sigue:
k
X
j=1
k
X
Si Sj +
k
X
i=1
i=1
i 6= j
133
Si Sk+1 = 0,
Anexo 1
por lo tanto,
k
X
Tr
k
X
Si Sj +
k
X
Si Sk+1 = 0.
i=1
S1 , S2 , . . . , Sk
S1 , S2 , . . . , Sk son no negativas.
Sk+1 es no negativa. As que
i 6= j; i, j = 1, 2, . . . , k, k + 1 (teorema 5.1.17(1)).
Si Sj = 0
para
Pk+1
I 2 = I = i=1 Si , se sigue del teorema anterior
i = 1, 2, . . . , k + 1 y por lo tanto, Tr (Si ) = (Si ) (ver
Si2 = Si
para
"
(Si ) = Tr (Si )
Tr
k
X
#
Si
i=1
Tr (I )
k
X
Tr (Si )
i=1
= n
k
X
(Si )
i=1
= n
k
X
i .
i=1
y sea
Teorema.
S=
a)
b)
Pk
i=1
S1 , S2 , . . . , Sk matrices
de orden n,
hP no negativas
i
k
2
S = S y Tr S Tr
i=1 Si , entonces:
Sean
Si .
Si
Si2 = Si para i = 1, 2, . . . , k .
Si Sj = 0 para i 6= j; i, j = 1, 2, . . . , k .
S=
k
X
i=1
S = S2;
Si2 +
k
X
k
X
j=1
i=1
i 6= j
134
Si Sj .
Anexo 1
De aqu que:
k
X
Tr
k
X
k
X
Si Sj = Tr S Tr
!
Si2
0.
i=1
S1 , S 2 , . . . , S k
S2 = S
implican
Teorema.
5.2.11.
entonces
Sea
n.
Si
(S) = r,
S=
r
X
i Si ,
i=1
t
2
donde: Si = Si , Si = Si , Si Sj = 0 si i 6= j, (Si ) = 1 y los
valores propios no nulos de la matriz S; i, j = 1, 2, . . . , k.
0
0
QT SQ =
donde
nulos de la matriz
S
= Q
D
0
0
0
[Q1 Q2
r
X
D
0
tal que:
,
con los valores propios no
QT
1
0
..
.
Qn ]
0
0
.
..
0
0
r
0
0
0
0
.
.
.
..
.
.
.
.
.
.
0
0
r
0
0
0
.
.
.
.
.
.
.
.
.
.
.
.
..
i Qi QTi
i=1
r
X
son los
i Si ,
i=1
135
0 QT
1
0
.
.
QT2
.
0 ...
QTn
0
Anexo 1
Si = Qi QTi , i = 1, 2, . . . , r.
As:
SiT
SiT
Si Sj
(Si )
(Qi QTi )
si
i 6= j.
= (Qi ) = 1.
136
CAPTULO 6
Teorema.
Si
es una matriz
1.
2.
3.
4.
Ir
Ir
0
Ir
0
Ir
si
0
0
si
r<n
si
r = n < m.
si
r < m.
r=m<n
m n de rango r > 0,
P AQ es igual a:
tales que
r = n = m.
137
entonces
ada reducida de
A,
entonces
R = P A, P
R es la forma escalon-
mr
las de
R son nulas
0
0
0
.
.
.
0 1
0 0
0 0
a1k
0
0
.
.
.
.
.
.
.
.
.
0
1
0
a1k0
a2k0
0
.
.
.
.
.
.
a1k00
a2k00
0
0
0
1
a1k000
a2k000
a3k000
.
.
.
.
.
.
.
.
.
podemos obtener
F =
As que
F = RQ,
donde
Ejemplo.
Ir
0
0
0
Consideremos la matriz
1
A = 1
2
2
2
4
1
3
0 2
2
6
1 0 0 0
I2 0
P AQ =
= 0 1 0 0 .
0 0
0 0 0 0
2.
Por el
siguiendo las
P tal
A.
que
P A = R,
donde
| I3
f ilas
'
f ilas
'
1
2
1 2
2
4
1 2 1
0 0 1
0 0 0
1 2 0
0 0 1
0 0 0
| 1 0 0
| 0 1 0
| 0 0 1
|
1 0 0
|
1 1 0
| 2 0 1
|
1 1 0
|
1
1 0 = R
| 2
0 1
1
3
0 2
2
6
3
1
0
2
1
0
I2
0
F =
| I4
Col
'
Col
'
Col
'
0
0
0
F
0
| Q
tal que
| P
RQ = F,
donde
.
|
|
|
|
1
0
0
0
0
1
0
0
0
0
1
0
0
0
0
1
|
|
|
|
1
0
0
0
0
0
1
0
0
1
0
0
0
0
0
1
|
|
|
|
1
0
0
0
0 2
0
1
1
0
0
0
2
0
0
1
|
|
|
|
1
0
0
0
0 2
0
1
1
0
0
0
2
0
1
1
1
P = 1
2
0
0
1
1
1
0
1
0
Q=
0
0
2
1
0
0
0
0
1
0
2
0
1
1
P AQ =
6.1.3.
I2
0
0
0
1
= 0
0
0
1
0
0
0
0
0
0 .
0
Teorema.
existen matrices
Demostracin.
de la matriz
A, (A) = r.
r = m, entonces A = BC , donde B = Ir y C = A.
r = n, entonces A = BC , donde B = A y C = Ir .
Si r < n y r < m, entonces por el teorema 6.1.1(1)
matrices invertibles P y Q tales que:
Ir 0
P AQ =
.
0 0
1. Si
2. Si
3.
existen
De aqu que:
donde
0
= P
Q1
0
Ir
1
Ir 0 Q1
= P
0
= BC,
1
B Mmr
Ir
0
C Mrn
r,
dadas por
B = P 1
Ir
0
y
C=
Ir
Q1 .
B y C que
r < m, tal
r < n
aparecen en el teorema
como aparece en la de-
tales
que:
Ir
0
P AQ =
P 1
B = P 1
Ir
0
0
0
Q1 ,
C=
Ir
Q1 .
adecuadas.
r < m.
P A = R,
donde
r < m. Sea P
r < m, R
A es
m tal que
Suponga que
(vase apartado
R=
0
donde
es una matriz
rn
de rango
r.
Ahora, si escribimos
P 1
parti-
cionada adecuadamente
P 1 =
donde
es una matriz
mr
de rango
= P
D
r
y adems,
0
= BC
Presentamos a continuacin, un mtodo basado en esta demostracin para
calcular matrices
6.1.4.
Algoritmo.
C,
de rango
r,
tales que
A = BC .
de tamao
mn
| Im
Amn
hasta obtener
Im , siguiendo
iyj
de
i-sima
ii) Si se multiplica la
0,
de
A, entonces intercambie
Im .
entonces se multiplica la
la de
i-sima
por el nmero
columna de
Im
6=
por el
1 .
iii) Si a la j -sima la de A se le suma veces la i-sima la
de A ( 6= 0), entonces a la i-sima columna de Im se le
suma () veces la j -sima columna de Im .
1
R
|
P
Al nal de este paso se obtiene la matriz
B = Primeras r columnas de P 1 ,
C = [Primeras r las de R].
nmero
PASO III
6.1.5.
Ejemplo.
1
A = 1
2
1
3
0 2
2
6
2
2
4
2 tales
tiene rango
de rango
que
pasos indicados
anteriormente.
| I3
1
2 1
3
= 1 2 0 2
2
4 2
6
1 2 1 3 |
0 0 1 1 |
0 0 0 0 |
R | P 1 .
=
| 1
| 0
| 0
1
1
2
0
0
1
0
1
0
0
1
0
0
0
1
1
B = 1
2
1
0
2
C=
142
1
0
2
0
0
1
2
1
,
P 1
1
= 1
2
1
= 1
2
BC
6.1.6.
triz
2
2
4
2
0
0
1
2
1
1
3
0 2 = A .
2
6
m n.
1.
2.
3.
4.
Si
es una matriz
AM es una matriz
M A es una matriz
AM A = A .
M AM = M,
A,
1
1
0
0
2
nm
Sea
una ma-
tal que:
simtrica.
simtrica.
(pseudoinversa) de
o simplemente que
6.1.7.
Ejemplo.
Veriquemos que
g-inversa de la matriz
11
0
AM =
2.
10
1
3
MA =
11
1
4.
1
1
0
11
A=
1.
3.
6.1.8.
1
11
3
1
2
la matriz M =
11
3
1 2
. En efecto,
0 1
7
1
4
es una
3 1
2
3 es una matriz simtrica.
3 10
AM A = I2 A = A .
10
1
M AM = 2 3
11
1
M,
3 1
3
2
3 2
3 10
3
3
7
1
1 =
2
11
3
4
7
1 =
4
Observacin.
1. Si
es una g-inversa de
A.
2. Si
es una g-inversa de
A.
6.1.9.
mn
Toda matriz
de tamao
r > 0.
de tamao
Puesto que
tiene rango
r, las matrices B T B
CC T
son invertibles
M = C T CC T
y veriquemos que
1
BT B
es una g-inversa de
1
A.
BT ,
AM
MA
AM = BCC T CC T
1
BT B
1
BT = B BT B
1
BT
1 T
1
BT B
B BC = C T CC T
C
1 T
T
lado, AM A = B B B
B BC = BC = A, y
1 T 1 T
1
M AM = C T CC T
CC T CC T
B B
B
1
1
= C T CC T
BT B
B T = M.
M A = C T CC T
De otro
Es decir,
AM A = A
1
M AM = A,
por lo tanto,
es una g-inversa de
A.
6.1.10.
Teorema
(Unicidad de la g-inversa)
Toda matriz
tiene una
nica g-inversa.
una matriz
A.
M1
M2
AM2
144
Por lo tanto
M1
6.1.11.
Nota.
con el signo
A+ , B + denotarn
matrices A y B .
tiene que:
a)
b)
c)
d)
e)
(A+ )+ = A.
(A)+ = 1 A+ , para
(AT )+ = (A+ )T
(AAT )+ = (AT )+ A+
(AT A)+ = A+ (AT )+
todo escalar
6= 0.
ca g-inversa. Slo resta vericar en cada caso, que se satisfacen las condiciones de la denicin 6.1.6. Haremos la demostracin slo para el inciso
(e), para ello, supondremos vlidas las armaciones (a)-(d) (las vericaciones ) quedan a cargo del lector) y aplicaremos las propiedades de la
denicin 6.1.6:
1. La matriz
A+ A
M = A+ (AT )+
AT A
A+ (AT )
En efecto:
AT A M
=
(c)
def.
=
def.
T
A
A
M =
+
satisface la igualdad
AT A
A+ (AT )+
AT (AA+ )(A+ )T
AT (AA+ )T (A+ )T
T
A+ AA+ A+
T
A+ A = A+ A .
145
es simtrica.
M = A+ (AT )+
2. La matriz
A+ A
satisface la igualdad
A+ (AT )+
AT A
es simtrica.
En efecto:
M AT A
A+ (AT )+
=
(c)
AT A
A+ (A+ )T AT A
def.
A+ (AA+ )T A
def.
def.
A+ AA+ A = A+ A.
3. La matriz
A A.
(AT A)M (AT A)
AT A
A+ (AT )+ AT A
A+ A AT A = (A+ A)T AT A
T def.
T
A(A+ A) A = AA+ A A = AT A.
=
(1)
=
4. La matriz
M.
M = A+ (AT )+
satisface la igualdad
M (AT A)M =
En efecto
M (A A)M = M
A+ (AT )+ AT A A+ (AT )+
A+ A A+ (AT )+
T
+
A+ AA+
AT
=
(2)
=
def.
A+ (AT )+ .
6.1.13.
Observacin.
(AB)+ = B + A+ .
Para
Ejemplo.
Si
A=
y
B=
1
2
lo tanto
146
Teorema.
3.
4.
r = n = m,
r = m < n,
Corolario.
1. Si
2. Si
6.2.3.
de rango
r > 0.
entonces
A+ = C T CC T
6.2.2.
mn
una matriz
A es invertible y A+ = A1 .
1
+
T
Si
entonces A = A
AAT
.
1 T
+
T
Si r = n < m, entonces A = A A
A .
Si r < n y r < m, entonces existen matrices B Mmr
C Mrn de rango r tales que A = B C y
1. Si
2.
Sea
Sea
a M1n ,
a Mn1 ,
Ejemplo.
2
1
BT .
componentes.
1 T
a+ = aaT
a .
T 1 T
+
a = a a
a .
entonces
entonces
A =
1
1
2
3
es invertible, as que
A=
1
1
2
1
3
1
= AT AA
A+ = A1 =
2. La matriz
A+
1
1. La matriz
3
1
BT B
un vector no nulo de
1
3
1
6
42
9
T 1
1
= 2
3
14
14
14
147
tiene rango 2, as que:
1
1
3
1
42 0
1
0
14
3. La matriz
4.
1
A= 3
5
1
2
4
6
1
A =
24
T
56
44
A A
1
32 8
16
=
26
8
10
24
La matriz A dada por
1
2
A = 1 2
2
4
1
B = 1
2
1
0
2
A+
A = BC.
3
4
5
6
1
0
2
0
0
1
2
1
Luego
C T CC T
1
2
C=
1
3
0 2
2
6
(A) = 2
44
35
1
BT B
1
BT .
2 20 4
1
4 40 8
=
9
55
18
24
5
15 10
1 2 3 =
Para la matriz A =
6 0 se tiene
1
1
1 T
2
a =
a+ = aaT
14
3
1
La matriz A = 1 6= 0 se tiene que,
1
5.
6.
a+
6.2.4.
Teorema.
g-inversa de
1 T
1
1 1 1 .
aT a
a =
3
A Mmn una matriz de rango r > 0.
Sea
que:
Entonces la
1. Calcule
M = AT A.
148
C1 = I .
3. Calcule
4. Calcule
1
Ci+1 = Tr(Ci M )I Ci M, para i = 1, 2, . . . , r 1.
i
r
Cr AT , sta es la matriz A+ .
Tr (Cr M )
Cr+1 M = 0
Tr (Cr M ) 6= 0.
Cr+1 M = 0
A.
Ejemplo.
Consideremos la matriz
1
A = 1
2
del ejemplo 6.2.3(4). Calculemos
Para ello calculemos
y consideremos
nos permite
2
2
4
A+
3
2
6
M = At A. Esto es,
6 12
12 24
M =
5 10
17 34
C1 = I4 .
1
0
2
5
10
5
15
17
34
15
49
78 12
5 17
12
60 10 34
.
C2 = Tr (C1 M ) I C1 M =
5 10
79 15
17 34 15
35
Como
C3 M = 0,
entonces
(A) = 2,
y adems
2
2
2
+
T
4
A =
C2 A =
Tr (C2 M )
140 9
5
20
40
55
15
4
8
18
10
de
Teorema.
1. Forme la matriz
A | Im
r > 0.
La g-inversa
A.
Al nal de
este paso se obtiene una matriz que podemos describir por bloques
as:
Ern
0mrn
| Prm
| Pmrm
| Pmm
si
r<m
(Si
+
Emn
r = m = n,
entonces
r = m.
si
es invertible,
E =I
P = A1 =
).
3. Forme la matriz:
Ern AT
Pmrm
| Ern
| 0mrm
Emn AT
| Emn
si
r<m
si
r = m.
6.2.7.
Ejemplo.
Im
1
A = 1
2
Con el objeto de calcular
la matriz
| (A+ )T .
| I3
A+
2
2
4
1
0
2
3
2 .
6
1
2 1
0
A | I3
0
= 1 2 0
2
4 2
1
1
2
0
2 |
0 1
0
0
0
1
1 |
1
1
0
|
0
0
0
0 | 2
0
1
E24 | P23
=
.
014 | P13
E24 At | E24
Construyamos ahora la matriz de la forma
y apliqueP13
| 014
I3
E24 At
P13
| E24
| 014
=
0
=
I3
|
1
2
0
2
|
0
0
1
1
|
|
0
0
0
0
2
9
1
1
35
35
70
14
0 |
|
2
4
11
3
0 |
7
7
14
14
1 |
4
9
1
2
35
35
35
7
(A+ )t .
9
2
11
4
0
1
0
|
22
8
As que
1
35
2
35
A+ =
9
70
2
35
2
7
4
7
11
14
3
14
2
35
4
2
35
1
4
=
9
70
9
5
35
1
7
151
20 4
40 8
55 18
15 10
6.3. C-inversa
6.2.8.
Ejemplo.
Consideremos la matriz
1
1
A=
2
1
3
1
,
y sigamos los pasos del ejemplo anterior (teorema 6.2.6) para calcular
A | I2
1
1
1
0
E24
E24 A
| E23
2
1
0
1
E24 AT
=
| 1
| 0
3
1
5
4
| P23
| E23
0
I2
0
1
.
y reduzcmosla
5
4
0
1
2
14
1
14
|
|
| 1
3
| (A+ )T
2
1
14 6 | 1
14
3 | 0
0
1
| 1
|
1
A+ .
1
3
3
14
1
3
As que
1
14
2
+
A =
14
14
3
3
1
1
6
=
3 42
9
1
14
14
14
6.3. C-inversa
Denicin.
Sea
m n.
una matriz
Si
es una matriz
nm
tal que:
AM A = A,
M
6.3.2.
A+ .
A.
A1
Nota.
c-inversa.
es invertible, en cuyo
es la nica c-inversa.
condicionales de
6.3.3.
o simplemente,
A.
es una c-inversa de
Observacin.
Teorema.
1.
A.
Sea
A Mmn
r.
Entonces:
N1
N2
W,
entonces
N1 + N2 W.
sto es,
A(N1 )A = AN1 A = 0 = 0,
sto implica que,
N1 W.
Es decir,
Mnm ,
A Mmn
tenga rango
con
Las demostraciones
6.3. C-inversa
Sea entonces
una matriz
mn
de rango
r,
con
De acuerdo con el inciso (1) del teorema 6.1.1, existen matrices invertibles
P Mmm
(6.1)
A=P
Ir
0
0
0
Q1 .
X Mrr , Y Mr(mr) , Z
N Mnm dada por
Y
P.
W
M(nr)r
W M(nr)(mr)
y la matriz
N =Q
Ahora
N W
AN A =
=
X
Z
De aqu se deduce
X = 0. Esto es, N W
0 Y
N =Q
P.
Z W
AN A = 0
forma:
sii
W
= k j.
es
m n r2 .
0
0
sii
Q1
es de la
dim Mkj
En efecto, consideremos los
espacios de matrices Mr(mr) , M(nr)r y M(nr)(mr) con las bases
y
, B1 =
Z
,
Z
,
.
.
.
,
Z
respectivas B1 =
Y
,
Y
,
.
.
.
,
Y
1
2
1
2
r(nr)
r(mr)
B3 = W1 , W2 , . . . , W(nr)(mr) . Es fcil mostrar entonces que el conjunto B = {N1 , N2 , . . . , Nmnrr } con
0 Yi
Ni = Q
P ; i = 1, 2, . . . , m r r2
0 0
0 0
Nr(mr)+j = Q
P ; j = 1, 2, . . . , n r r2
Zj 0
0
0
Nr(m+n2r)+k = Q
P ; k = 1, 2, . . . , (n r) (m r),
0 Wk
aremos el hecho de que
es una base de
6.3.4.
W.
Teorema.
Sea
A
una matriz
c-inversas,
es una variedad
McA = {M Mnm : AM A = A} ,
2
lineal de dimensin m n r .
154
6.3. C-inversa
c
Demostracin. Por el teorema 6.2.2 MA es no vaco, sea entonces
M0 un elemento de McA . Veriquemos entonces, que M McA si y slo
si M se puede escribir como la suma de M0 y un elemento N W, sto
es, sii M = M0 + N para algn N W , siendo W el conjunto dado en el
teorema 6.3.3.
Si
A.
escribir
= M + M0 M0
= M0 + (M M0 ) = M0 + N ,
donde
N = M M0 .
Puesto que
A(M M0 )A = AM A AM0 A = A A = 0 ,
se tiene entonces que
N = M M0 W
McA = {M + N, N W } .
Teorema.
Q Mnn
Sea
una matriz
mn
de rango
r.
Sean
McA = Mnm .
1. Si
A = 0,
2. Si
r = n = m,
entonces
3. Si
r = m < n,
entonces
entonces
McA = {A+ } = A1
Ir
c
P : Y M(nr)m .
MA = Q
Y
4. Si
r = n < m, entonces
McA = Q Ir X P : X Mn(mr) .
155
McA .
P Mmm
6.3. C-inversa
5. Si
0<r<n
0 < r < m,
Ir
Q
Y
X
Z
McA de todas
est dado por
entonces el conjunto
P : Z M(nr)(mr) ,
Y M(nr)m , X Mn(mr)
McA
Ejemplo.
mn r2 . De
AM A = A.
McA , entonces
2
2
4
1
0
2
Sea
1
A = 1
2
3
2 ,
6
la matriz del ejemplo 6.1.2. De dicho ejemplo sabemos que las matrices
invertibles
1
P =
2
1
1
0
0
0
1
1
0
Q=
0
0
0
0
1
0
2
1
0
0
2
0
1
1
son
I2 0
tales que P AQ =
, (A) = r = 2. En este caso,
0 0
I2 X
McA = Q
P : X M21 , Y M22 , Z M21 ,
Y Z
X = 0, Y = 0
es:
M0 = Q
I2
0
Z = 0, se
0 1
0
0
0
P =
1
0
1
0
0
y
A,
En
0
0
.
0
0
En lo que resta de esta seccin veremos un mtodo alternativo para calcular una c-inversa de una matriz. Consideremos inicialmente el caso de
matrices cuadradas.
Denicin.
6.3.7.
Una matriz cuadrada H = [hij ]nn tiene la forma
Hermite superior, si satisface las condiciones siguientes:
156
H es triangular superior.
hii = 0 hii = 1, i = 1, 2, . . . , n.
Si hii = 0, entonces la i-sima la es nula, sto es, hij = 0 para
todo j = 1, 2, . . . , n.
Si hii = 1, entonces el resto de los elementos de la i-sima columna son nulos. sto es, hji = 0 para todo j = 1, 2, . . . , n; (j 6= i).
Ejemplo.
6.3.8.
6.3. C-inversa
La matriz
1
0
H=
0
0
2
0
0
0
0
0
1
0
0
0
0
1
El siguiente teorema establece que una matriz Hermite superior es idempotente. La demostracin de dicho resultado es consecuencia directa de la
denicin y se deja como un ejercicio para el lector.
Teorema.
6.3.9.
entonces
6.3.10.
ible
Si
H 2 = H.
Teorema.
tal que
BA = H
Demostracin. Sea
entonces la matriz
B =P
A.
Si
PA = R
es la
BA = R = H .
R
hasta que el primer elemento no nulo (de izquierda a derecha) de cada la
no nula de
R,
E1 , E2 , . . . , Ek
tales que
E1 E2 Ek R = H
o sea:
E1 E2 Ek P A = H.
En consecuencia, la matriz invertible
B = E1 E2 Ek P
es tal que
BA =
6.3. C-inversa
6.3.11.
Ejemplo.
1
A= 1
2
2
2
4
3
5 ,
10
la matriz invertible
5/2
P = 1/2
0
3/2
1/2
2
0
0
1
es tal que
1
PA = R = 0
0
donde
y 3 de
0
1 ,
0
2
0
0
1 2 0
H= 0 0 0
0 0 1
5/2
0
B=
1/2
es invertible y es tal que
6.3.12.
BA = H
Teorema.
Sea A una
BA = H tiene
de A.
3/2
2
1/2
matriz cuadrada. Si
Como
As
0
1
0
es
H 2 = H.
BABA = BA.
Premultiplicando los dos miembros de la ltima igualdad por la matriz
B 1
se obtiene:
ABA = A,
esto es,
es una c-inversa de
A.
158
Ejemplo.
6.3. C-inversa
A del
3
5 .
10
Consideremos la matriz
1
A= 1
2
2
2
4
ejemplo 6.3.11,
es tal que
0
1 ,
0
3/2
2
1/2
5/2
0
B=
1/2
teorema anterior,
Corolario.
Sea
mn
una matriz
m > n, sea A = A 0 , donde 0 es la matriz nula
m(mn). Sea adems B una matriz invertible tal que B A =
H tiene la forma Hermite superior. Si escribimos la matriz B
1. Si
B =
,
B1
Si n > m, sea A =
, donde 0 es la matriz nula (n m)
0
es una matriz
A.
2.
particionada as:
B =
donde
es una matriz
B1
n m,
entonces
es una c-inversa de
A.
Demostracin. Presentamos aqu la slo la demostracin del inciso
(1). Supongamos
matriz cuadrada
A es una
A = A
m n,
matriz
nn
159
con
m>n
y consideremos la
B , tal que B A =
H tiene la forma Hermite superior. Dicha matriz B es una c-inversa de
A (teorema 6.3.10), as que, A B A = A , o sea:
B
A 0
A 0
A B A =
B1
ABA 0 = A 0 = A .
=
Ejemplo.
ABA = A.
Es decir,
Sea
A.
1
1
.
1 32
1
A= 2
0
1
A = 2
0
es una c-inversa de
0
0
.
0 33
1
1
1
1
2
B =
2
es tal que
B A = H
1
1
0
B
=
B1
1
B=
es una c-inversa de
1
2
1
1
0
0
23
A.
Teorema.
6.4.1.
Ax = y
x0
tal
que:
Sea ahora
Ac
una c-inversa de
Ax0 = y .
A, entonces:
AAc y
= AAc Ax0
= Ax0
= y.
y.
Ac
, el vector
Ax = y.
consistente.
6.4.2.
Teorema.
Sea
una matriz
mn y
Ax = y
sea
Ac
una c-inversa de
A.
es consistente, entonces su
solucin general es
x = Ac y + (I Ac A)h,
(6.1)
h Mn1 .
lineales
y.
Ax = y
Ax
AAc y =
de la forma (6.1):
esto es,
De otro lado, si
x0
Ax0 = y .
Premultiplicando los miembros de la ltima igualdad por
A Ax0 = A y ,
161
Ac
se obtiene
de donde:
0 = Ac y Ac Ax0 .
Sumando
x0
= Ac y + x0 Ac Ax0
x0
= Ac y + (I Ac A)x0
= Ac y + (I Ac A)h,
donde
h = x0 .
Puesto que
6.4.3.
sto es,
A+
Ax = y
A,
es una c-inversa de
Corolario.
lineales
x0
Sea
una matriz
m n.
Si el sistema de ecuaciones
x = A+ y + (I A+ A)h,
(6.2)
h Mn1 .
Ax = y
A, (y
/ C(A))
mos si existe una solucin aproximada del sistema, para una denicin
conveniente de solucin aproximada. Un problema que se presenta con
frecuencia en el trabajo experimental es:
IR
C (A)
Ax
A x0
Ax
162
y = f (x)
y,
adaptando
y = f (x)
que
y = f (x) = a + bx; a, b R
y = f (x) = a + bx + cx2 ; a, b, c R.
2
3
Polinomios de grado tres: y = f (x) = a+bx+cx +dx ;
a, b, c, d
R.
(1) Aproximacion
lineal
(2) Aproximacion
(3) Aproximacion
cuadratica
cubica
igualdades:
y1
= a + bx1
y2
= a + bx2
.
.
.
.
.
.
yn
.
.
.
= a + bxn .
y1
1
y2 1
y= . = .
.. ..
yn
1
(6.3)
x1
a
x2
= Ax .
.
.
.
b
xn
b,
la diferencia
Ax y,
entre los dos miembros de (6.3) no ser cero. Entonces, el objetivo es
encontrar un vector
y,
x=
a
b
que minimice la longitud del vector
Ax
k Ax y k ,
lo que es equivalente a minimizar su cuadrado,
k Ax y k
a
es un vector que minimiza tal longitud, a la lnea recta
b
Si
x0 =
datos. La gura 6.3 ilustra la adaptacin de una lnea recta por el mtodo
de los mnimos cuadrados. Se tiene que
k Ax y k
k Ax y k ,
[(a + b x1 y1 )] + [(a + b x2 y2 )] +
2
|a + b xi yi |
+ [(a + b xn yn )]
a
el vector x0 =
. En
b
di ,
tomada desde el
(xi , yi )
hasta la recta
vertical en el punto
y
( x n , yn )
dn
(x2 , y2 )
( x1 , y1 )
d2
*
*
y=a+b
x
d1
d3
( x3 , y3 )
x
x0
y = a + bx
Denicin
puntos
lineales
Ax = y,
se tiene que:
k Ax0 y k < k Ax y k .
6.4.5.
x0
Denicin
lineales
Ax = y,
si:
se tiene que:
k Ax0 y k < k Ax y k .
165
tal que
k Ax0 y k < k Ax y k
se
tiene que
k x0 k < k x k .
Nota.
y
Ax =
6.4.6.
Teorema.
Sea
es una c-inversa de
x Rn
m
c
una matriz m n y sea y un vector R . Si A
c
tal que AA es simtrica, entonces para todo vector
se tiene que:
2
k Ax y k = k Ax AAc y k + k AAc y y k .
Por hiptesis
k Ax y k
AAc = (AAc )t .
se tiene que:
+ k AAc y y k
2
k Ax AAc y k + 2 (x Ac y)T AT ((AAc )T I)y
+ k AAc y y k
2
k Ax AAc y k + 2 (x Ac y)T (AT (AAc )T AT )y
+ k AAc y y k
2
= k Ax AAc y k + 2 (x Ac y)T ((AAc A)t At )y
+ k AAc y y k
2
2
= k Ax AAc y k + 2 (x Ac y)T (0)y + k AAc y y k
2
= k Ax AAc y k + k AAc y y k .
6.4.7.
Teorema.
una c-inversa de
m
c
una matriz m n y sea y un vector R . Si A es
c
c
tal que AA es simtrica, entonces x0 = A y es una
Sea
Ax = y.
x 0 = Ac y
es tal que:
k Ax0 y k k Ax y k ,
esto es,
6.4.8.
x0 = A y
Teorema.
Sea
Ax = y.
m
de ecuaciones lineales
x0 = A+ y.
Demostracin. Puesto que
A+
es una c-inversa de
tal que
AA+
x que:
2
2
2
k Ax y k =
Ax AA+ y
+
AA+ y y
AA+ y y
.
x:
AA+ y y
k Ax y k
x 0 = A+ y
AA y
se tiene que
Ax = y.
x 6= x0 = A+ y
tal que
Ax =
k x0 k < k x k .
+
A y + (I A+ A)x
2
=
=
x se tiene que:
+
2
A y
+ 2(A+ y)T (I A+ A)x +
(I A+ A)x
2
+
2
A y
+ 2yt (A+ )T (A+ )T (AA+ )T x +
(I A+ A)x
2
+
2
A y
+ 2yT (A+ )T (A+ AA+ )T x +
(I A+ A)x
2
+
2
A y
+ 2yt (0)x +
(I A+ A)x
2
+
2
A y
+
(I A+ A)x
2 ,
167
k x k > k x0 k
Observacin.
x0 6= x .
Ax = y
ecuaciones lineales
x0 = A+ y.
Por sto
Ahora bien, puesto que la mejor solucin aproximada del sistema de ecuaciones lineales
Ax = y
iente teorema.
6.4.10.
Corolario.
Ax = y
tiene al
Ejemplo.
1
x
1
=
y
1
1
1
1
1
x0 = A+ y =
1
6 1 1
1
Ax = 1
1
se tiene que
Adems:
k Ax0 y k =
as que para todo vector
y si existe un vector
(A) = n,
Sea
tal que
2;
2 k Ax y k ,
k x0 k =
Teorema.
es la M.S.A.
se tiene que:
que:
6.4.12.
1
2 = y,
3
1
1
2 =
1
3
k Ax y k =
2 < k x k .
una matriz
mn
2,
y sea
un vector
Ax = y
Rm .
Si
tiene una
x0 = A+ y.
x
168
A+
es una c-inversa de
tal que
AA+
es simtrica,
2
2
2
k Ax y k =
Ax AA+ y
+
AA+ y y
x Rn .
x se tiene:
Ax AA+ y
2 +
AA+ y y
2 .
k Ax y k
(6.6)
AA+ y y
2
2
2
Ax AA+ y
+
AA+ y y
2
2
= k Ax y k
AA+ y y
k Ax AA+ y k = 0
De aqu que
y por lo tanto:
Ax = AA+ y .
Puesto que
(A) = n,
entonces
A+ = AT A
consecuencia:
Ax = A AT A
AT
(teorema 6.2.1), en
1
AT y.
1 T
AT A
A ,
1
se obtiene:
AT A
1
AT A
1
AT A AT A
AT A
1
AT y = A+ y = x0 .
AT Ax
1
AT y
6.4.13.
Ejemplo.
Ax = y,
donde
1
1
A=
1
1
x1
1
1
x2
=
x3 1
x4
1
y el vector incgnita
0
1
,
2
3
y1
1
y2 3
y=
y3 = 4
y4
4
x=
a
b
169
.
x0
= A+ y = (AT A)1 AT y
7
3
1,5
1
1
10
=
4
1
a
b
1
1
2
3
1
3
4
4
y = a + b x = 1,5 + x.
y
y=1.5+x
(2,4)
(3,4)
(1,3)
(0,1)
x
6.4.14.
Ejemplo.
x = 1.(ver
gura 6.5(a))
170
y
x=1
y
y=3/2x
(1,2)
y=3/4+3/4x
(1,2)
(1,1)
(1,1)
x
x
a) Ajuste por una recta de pendiente infinita
y = a + bx,
innita, que se adapte por mnimos cuadrados, a los puntos dados, entonces debemos dar una S.M.C. del sistema de ecuaciones lineales (ver
gura 6.5(b))
Ax
=
=
1
1
1
2
x1
x2
y1
y2
a
b
=
1
1
1
1
3/4
3/4
a
b
= y.
x0
1
A y=
4
+
1
1
1
1
1
2
=
=
a
b
.
As que una recta de ajuste, por mnimos cuadrados, de los puntos dados
es:
y = a + b x =
3 3
+ x.
4 4
Ac =
es una c-inversa de
A, AAc
0
1/2
0
1/2
es simtrica. En efecto,
171
AA =
1/2
1/2
1/2
1/2
x 0 = Ac y =
0
3/2
es tambin una S.M.C. As que otra recta de ajuste por mnimos cuadrados, de los puntos dados es (ver gura 6.5(b)):
y = a + b x =
3
x.
2
puntos dados, se
generaliza fcilmente a la adaptacin, por mnimos cuadrados, de un polinomio de cualquier grado a un conjunto de puntos dados.
A continuacin se muestra cmo adaptar un polinomio de grado
y = a0 + a1 x + a2 x + . . . + am x
a un conjunto de
puntos
m,
mediante la
ecuaciones siguientes:
y1
1
y2 1
.. = ..
. .
yn
1
x1
x2
x21
x22
.
.
.
.
.
.
xn
x2n
..
xm
a0
1
xm
2 a1
.
.
.
.
.
.
m
xn
am
Ejemplo.
Ax = y.
Encontrar un polinomio de grado dos que mejor se
Ax
Puesto que
1
1
1
1
1
0
1
2
1
0
a
1
0
a2 = 2
1
1
a3
4
0
= y.
dada por:
x0
= A+ y = (At A)1 At y
3 11
9 3
1
1
3
7
1
=
20
5 5 5
5
1,55
31
1
13 = 0,65
=
20
0,75
15
2
1
0
y
y=1.550.65x+0.75x
(1,0)
(2,0)
(1,1)
(0,2)
173
6.5. Ejercicios
6.5. Ejercicios
6.5.1 Responda verdadero o falso justicando su respuesta.
1. Si las matrices
entonces
2.
ca.
S 2 = S, entonces S + = S .
3
+
Si
es una matriz simtrica tal que S = S, entonces S = S .
+
T
+ T
Para toda matriz A se tiene que A = (A A) A .
+
T
T +
Para toda matriz A se tiene que A = A (AA ) .
+ 2
+
+
2
Para toda matriz A se tiene que (AA ) = AA
y (A A) =
+
A A.
c
c 2
Para toda c-inversa A de A se tiene que (AA )
= AAc y
c
2
c
(A A) = A A.
c
c
Si A es una c-inversa de A, entonces A es una c-inversa de A .
c
c t
Si A es una c-inversa de A, entonces (A ) es una c-inversa de
At .
Si A Mmn tiene rango m, entonces el sistema de ecuaciones
lineales Ax = y tiene solucin para cualquier y Mm1 .
Si A Mmn tiene rango n y si el sistema de ecuaciones lineales
Ax = y tiene solucin, entonces el sistema tiene solucin nica.
3. Si
4.
5.
6.
7.
8.
9.
10.
11.
12.
S
S
(A A).
Ac es una c-inversa de A, entonces (Ac ) (A) = (AAc )=
(Ac A).
c
c
c
Si A es una c-inversa de A, entonces Tr(AA )= Tr(A A) =
(A). (sugerencia vase el ejercicio 3.5(26)).
t
+
Si BC = 0, entonces BC
= 0 y CB + = 0.
+
B
T
+
B
C+ .
Si A =
y BC = 0 entonces A =
C
2. Si
3.
4.
5.
174
la matriz
CT = 1
6.5. Ejercicios
m m y si C T B = 0, donde C T es
1 1m , entonces la g-inversa de
la matriz:
B
CT
A=
es
7. Si
A+ = B +
D = [dij ]nn
1/m C
D+ =[aij ]nn
8.
9.
10.
11.
12.
13.
(
1/dii ,
si
dii 6= 0
aij =
.
0
,
si dii = 0
+
B
0
B
0
+
Si A =
entonces A =
.
0 C
0 C+
+
+
Si S es una matriz simtrica, entonces SS = S S.
T
T
+
+
Si A es una matriz tal que A A = AA , entonces A A = AA .
Si A es una matriz m n, donde hAiij = 1 para i = 1, 2, . . . , m
1
+
A.
y j = 1, 2, . . . , n, entonces A =
mn
Si P Mnn y Q Mmm son matices ortogonales, entonces
+
T + T
para cualquier matriz mn, A, se tiene que (P AQ) = Q A P .
+
Si S es una matriz simtrica no negativa, entonces S
es una
matriz no negativa.
AB es
A una
m n, A; AB = AA+
sii
es tal que
ABA =
simtrica.
15. Sea
matriz
16.
17.
18.
A=
B
0
0
C
A =
es
Bc
0
0
Cc
.
x = A+ y
es nica sii
6.5. Ejercicios
entonces
n
X
x=
i xi
i=1
Ax = y.
y = a+bx una lnea recta que se quiere adaptar, por mnimos
cuadrados, a los puntos (x1 , y1 ); (x2 , y2 ); . . . ; (xn , yn ). Utilice el
j , xi 6= xj ,
y para algn
y = a + b x
y que
a =
b =
b
,
Pn
i=1
= det P
n
donde:
xi
Pn
2
i=1 xi
i=1 xi
= det P
n
i=1 xi
Pn
yi
Pn
i=1 xi yi
Pn
i=1
a = det P
n
Pn
i=1
yi
Pn
i=1 xi yi
6.5.3 Clculos
(i) A1 =
(ii) A2 =
(iii) A1 =
176
1
3
2
5
1
(iv) A4 = 1
2
i=1
xi
2
i=1 xi
7
(v) A5 = 7
7
7
7
7
7
7
7
1
(vi) A6 = 0
0
1
3
(vii) A7 =
0
0
0
0
0
0
5
0
2
4
0
0
6.5. Ejercicios
1
1
(viii) A8 =
0
0
2 1 1
3
1
2
1
1
(ix) A9 = 1
1
1
1
1 1
1
1 2 3
5 3 ,d dos c-inversa Ac1
Para la matriz A = 2
1 3 0
c
c
que (A1 ) > (A) y (A2 ) = (A).
2
2
0
0
0
0
3
3
0
0
3
3
2.
Ac2
tales
A1 =
1
1
1
A3 = 1
2
1
1
,
A2 =
2
3 ,
5
A4 =
1
1
2
3
1
1
2
3
3
3
,
.
2
2
A=
1
2
2
2
1
2
2
2
0
0
Ax = y,
donde:
1
2
y=
3 .
4
6.5. Ejercicios
Ax =
2
2
2
2
178
x
y
=
1
0
.
CAPTULO 7
Factorizacin de matrices
En este captulo estudiaremos algunas de las tcnicas ms utilizadas para
factorizar matrices, es decir, tcnicas que nos permiten escribir una matriz como producto de dos o tres matrices con una estructura especial.
La factorizacin de matrices es importante por ejemplo cuando se quiere
resolver sistemas de ecuaciones con un nmero muy grande tanto de variables como de ecuaciones. En la seccin 7.1 trataremos la descomposicin
LU ,
QR,
en la
7.1. Descomposicin
LU
En esta seccin estudiaremos, quizs la factorizacin de matrices ms sencilla pero igualmente muy til. Nos referimos a la factorizacin o descomposicin
LU ,
A, m n
en la forma
A = LU
(7.1)
donde
mn
(7.2)
mm
es
Ax = b
L(U x) = b.
179
7.1. Descomposicin LU
Factorizacin de matrices
y = U x,
Ly = b.
(7.4)
y,
mediante sustitu-
cin hacia adelante. Como paso nal, usamos sustitucin hacia atrs para
resolver el sistema
U x = y.
(7.5)
LU
LU
A.
Posteriormente lo
Teorema
Supongamos que
perior,
(Factorizacin
LU ).
Sea
n n.
Fi + Fj con i < j ). Entonces existe una matriz trique es invertible y posee unos en su diagonal principal,
tal que
A = LU.
Si
. . . , Ek
+ Fj , i > j )
y una matriz
E1 , E2 ,
(triangular superior)
tales que
Ek Ek1 E2 E1 A = U.
De aqu obtenemos
E1 , E2 , . . . , Ek
es
y la matriz
tam-
Factorizacin de matrices
7.1. Descomposicin LU
A,
es decir:
A = LU,
Consideremos ahora una matriz invertible
y demostremos la unicidad
de la forma
A = L1 U1 = L2 U2 ,
con
U1 , U2
L1 , L2
matrices triangulares
U1 , U2
es invertible las
1
L1
2 L1 = U2 U1 .
El lado izquierdo de esta lgualdad es producto de matrices triangulares
inferiores con unos en la diagonal, por tanto es riangular inferior y tiene
unos en la diagonal principal. Igualmente, el lado derecho es una triangulares superiores, pues es el producto de matrices triangulares superiores
(ver ejercicio 2 de la seccin 7.5.2). Entonces
que
L2 = L1
L1
2 L1 = I,
de esto se sigue
y por ende,
U1 = U2 .
7
8 . Aplique7.1.2. Ejemplo.
12
mos operaciones elementales, sin intercambio, para llevar a A a una forma
1
Considere la matriz 3 3, A = 2
3
4
5
6
escalonada.
1
2
3
4
5
6
7
8
12
2F1 +F2
3F1 +F3
2F2 +F3
181
1
0
0
1
0
0
4
7
3 6
6 9
4
7
3 6 = U
0
3
7.1. Descomposicin LU
Factorizacin de matrices
E1 , E2
E3 E2 E1 A =
A =
(E3 E2 E1 )1 U
1
2
0
1
2
3
0
0
1
0
0
1
0
1
0
0
1
2
0
1 0 0
0 0 1 0 U
1
0 2 1
4
7
3 6 = LU .
0
3
1
0
3
0
1
0
1
0
0
Observacin.
i < j , (Fi +
L se puede almacenar
U, simplemente
Fi + Fj
con
i < j.
1
2
3
7
8
12
4
5
6
2F1 +F2
3F1 +F3
2F2 +F3
4
7
3 6
6 9
4
7
3 6
2
3
1
L= 2
3
son tales que
0
1
2
0
0
1
A = LU .
182
1
U = 0
0
4
7
3 6
0
3
Factorizacin de matrices
7.1.4.
Ejemplo.
7.1. Descomposicin LU
Considere la matriz
3
2
4
10 4
0
.
2 5 2
4
4 7
2
4
A=
3
2
3
2
4
10 4
0
2 5 2
4
4 7
2
4
3
2
(2)F1 +F2
(3/2)F1 +F3
(1)F1 +F4
(20/3)F3 +F4
-1
2
8
2
4
8
4
6 3
3
4
-3/2
5/8
-1
7/4
3
4
3/2
5/8
2
8
3
-1
7/4
20/3
(5/8)F2 +F3
(7/4)F2 +F4
-3/2
3
4
5/2
2
4
8 8
3
9
20 11
4
8
9
49
1
0
2
1
L=
3/2 5/8
1 7/4
0
0
0
0
3
0
20/3 1
A = LU,
2 3
0 4
U =
0 0
0 0
7.1.5.
Ejemplo.
4
8
,
9
49
2
8
3
0
Considere la matriz
1
A = 1
2
2
3
2 3 .
4
6
Aplique-
7.1. Descomposicin LU
Factorizacin de matrices
2
3
2 3
4
6
1
1
2
(1)F1 + F2
(2)F1 + F3
-1
0 0
1 0
x 1
2 3
0 0
0 0
1
U = 0
0
En este caso
2
0
0
3
0
0
A = LU,
1
L = 1
2
donde
no es nica.
con
arbitrario.
LU ,
mutacin.
Como se recordar, el intercambio de dos las de una matriz
expresar como
las de
de
Pi A, siendo Pi
se puede
ducir as la matriz
aplicar la factorizacin
decir, nosotros
P A = LU .
7.1.6.
Ejemplo.
0
A= 2
1
En este caso, para reducir
2
4
2
3
7 .
5
es nece-
Fi + Fj con i > j ).
F12 . Si llamamos P a
2
PA = 0
1
4
2
2
184
7
3 .
5
Factorizacin de matrices
7.1. Descomposicin LU
A esta nueva matriz le aplicamos los pasos descritos en los ejemplos anteriores y obtenemos
2
0
1
3
3
5
4
2
2
(1/2)F1 + F3
7
3
3/5
4
2
0
2
0
1/2
0 0
1 0
0 1
1
L= 0
1/2
7
3
3/5
4
2
0
2
U = 0
0
P A = LU .
7.1.7.
Teorema.
Sea
A una matriz
P tal que
invertible
n n.
matriz de permutacin
P A = LU
donde
P, L
son nicas.
LU
para matrices
7.1.8.
Teorema.
Sea
rectangulares
m n.
A = LU.
7.1.9.
Ejemplo.
Encontremos la descomposicin
1
A= 2
3
4
5
6
7
8
12
185
LU
2
1
.
3 34
para la matriz
7.1. Descomposicin LU
Factorizacin de matrices
1
2
3
4
5
6
7
8
12
2
1
3
(2)F1 + F2
(3)F1 + F3
(2)F1 + F2
4
7
2
3 6 5
6 9 3
4
7
2
3 6 5
1
L= 2
3
son tales que
0
0
1
0
1
2
A = LU.
1
U = 0
0
4
7
2
3 6 5
0
3
7
LU
0
A
U
0
0
A
0
A
186
Factorizacin de matrices
7.1. Descomposicin LU
LU
Ejemplo.
x1 + 4x2 + 7x3
4
A
bT =
ejemplo se tiene
1
A= 2
3
4
5
6
7
1
8 = 2
12
3
0
1
2
0
1
0 0
1
0
4
7
3 6 = LU
0
3
Lz = b, esto es
=1
z1
2z1 + z2
=2 ,
3z1 + 2z2 + z3 = 4
cuya solucin es
1
z = 0 .
1
U x = z, esto
x1 + 4x2 + 7x3 = 1
3x2 6x3
=0 ,
3x3
=1
es el sistema
y cuya solucin es
x1 = 4/3;
x2 = 2/3
187
x3 = 1/3.
7.2. Descomposicin QR
Factorizacin de matrices
7.2. Descomposicin QR
Q es una matriz con columnas ortogonales (ortonormales) y R es una matriz triangular inferior. Dicha descomposicin es de gran importancia para
resolver problemas de mnimos cuadrados y tiene una estrecha relacin con
el clculo de la inversa generalizada de una matriz. En el caso de matrices
cuadradas, dicha descomposicin es la base de un algoritmo para determinar numricamente y de forma iterativa, los valores propios de la matriz
n.
Sea
R Mnn
triangular superior e
A = QR
A=
A1
A2
An
A).
Factorizacin de matrices
7.2. Descomposicin QR
v1
v2
v3
= A1
2
A ; v1
v1
hv1 ; v1 i
3
A ; v1
A ; v2
3
= A
v1
v2
hv1 ; v1 i
hv2 ; v2 i
= A2
.
.
.
vn
= An
n1
X
i=1
hAn ; vi i
vi .
hvi ; vi i
A1
A3
Aj
obtenemos:
v1
2
A ; v1
= v2 +
v1
hv1 ; v1 i
3
A ; v2
A ; v1
v1 +
v2
= v3 +
hv1 ; v1 i
hv2 ; v2 i
.
.
.
vn +
n1
X
i=1
hAn ; vi i
vi .
hvi ; vi i
7.2. Descomposicin QR
A =
A1
A2
Factorizacin de matrices
An
A =
A =
v1
v2
vn
2
A ; v1
hv1 ; v1 i
A3 ; v1
hv1 ; v1 i
2
A ; v2
hv2 ; v2 i
hAn ; v1 i
hv1 ; v1 i
.
.
.
.
.
.
.
.
.
..
hAn ; v2 i
hv2 ; v2 i
hAn ; v3 i
hv3 ; v3 i
.
.
n
hA ; vn1 i
hvn1 ; vn1 i
Q0 R0 ,
A.
Q0 para denir
D = diag(kv1 k , kv2 k , . . . , kvn k). De esta
igualdad A = Q0 R0 como sigue:
A =
=
Q0 R0
Q0 D1 DR0
v1
v2
kv1 k kv2 k
vn
kvn k
kv1 k
i
0
.
..
0
A2 ; v 1
kv1 k
hv1 ; v1 i
kv2 k
.
.
.
..
hAn ; v1 i
hv1 ; v1 i
hAn ; v2 i
kv2 k
hv2 ; v2 i
kv1 k
.
.
.
kvn k
QR ,
A.
Factorizacin de matrices
7.2.2.
Ejemplo.
7.2. Descomposicin QR
1
1
A=
1
1
2 1
1
2
= A1
1
2
1
1
A2
A3
1
1
= A1 =
1 ;
1
v1
v2
v3
2
1
9
2
1 1 1 1 3
A ; v1
v1 =
= A2
1 + 4 1 = 4 3 ;
hv1 ; v1 i
1
1
3
3
A ; v1
A ; v2
= A3
v1
v2
hv1 ; v1 i
hv2 ; v2 i
0
1
9
1
2 1 1 2 3 1
=
2 2 1 + 3 3 = 1 .
2
1
3
1
A1
A
A3
= v1
1
= v1 + v2
4
2
1
v1 v2 + v3 .
=
2
3
7.2. Descomposicin QR
Factorizacin de matrices
1 1/4 1/2
1 2 3
1
2/3
A A A = [v1 v2 v3 ] 0
0
0
1
1
9/4 0
1 3/4 1 1 1/4 1/2
1
2/3
1 3/4 1 0
0
0
1
1
3/4 2
A =
Q0 R0
(Descomposicn
no normalizada).
3
2
3,
6 . Entonces
podemos escribir
1 2 3
A A A = Q0 D1 DR0
1/2
3/2 3
0
1/2 1/2 3 1/ 6
1/2 1/2 3 1/ 6
1/2
1/2 3 2/ 6
= QR
1/2
3 3/2
(Descomposicin normalizada).
(A) = r
con
tal que
(A) = r
con
0 < r < n.
con
A = Q0 R0
La matriz
A Mmn
Q0 Mmn
matriz R0
Sea la matriz
(Descomposicin no normalizada) .
forma
A = QRr
192
Factorizacin de matrices
7.2. Descomposicin QR
donde
A.
sto
es,
A = Q0 R0 .
En este caso sin embargo,
y
nr
Q0
tendr
Q0
usamos
D. La matriz Q buscada
Q0 D1 ,
igualmente
Rr
DR0 ,
las las
Q0 .
Ejemplo.
2
0 1
1
3
2
= A1
1
3
2
1 3
1
1
1
A=
1
1
A2
A3
A4
A,
esto es:
1
1
;
1
1
v1
= A1 =
v2
9
A2 ; v 1
1
1 3
;
v 1 = A2 + v 1 =
= A2
hv1 ; v1 i
4
4 3
3
193
7.2. Descomposicin QR
Factorizacin de matrices
0
0
A3 ; v 2
A3 ; v 1
9
v1
v 2 = A3 v 1 + v 2 =
A3
0 ;
hv1 ; v1 i
hv2 ; v2 i
4
0
0
1
1
2
4
A v1 + v2 0v3 =
1 .
2
3
2
v3
v4
A1
A2
A3
A4
1
9/4 0 0
0
3/4 0 1
3/4 0 1 0
0
3/4 0 2
1
1
=
1
1
1/4
1
0
0
9/4
1
1
0
1/2
2/3
0
1
= Q0 R0 .
D, cuyos elementos hDiii corresponden
Q0 . TPara las
columnas nulas de Q0 tomamos hDiii = 1. En nuestro ejemplo, entonces
h
i
3
tenemos, D = diag 2,
6 . Ahora bien, escribimos
2 3, 1 ,
Tomamos ahora la matriz diagonal
A =
A1
A2
A3
A4
1/2
3/2 3
1/2
1/2 3
1/2
1/2 3
1/2
1/2 3
= Q0 R0 = Q0 D1 DR0
1/2
1/ 6
0
1/ 6
0
0
2/ 6
3 3/2
Esto es,
194
0
0
9/2
1 3
1
0
0
6
Factorizacin de matrices
1/2
3/2
1/2
3/6
1/2
3/6
1/2
1/2
1/2
3/6
0
6/6
1 3
0 3 3/2
0
1
0
0
6/6
0
0
0
0
6
0
6/3
2
1/2 9/2
1
6/6
0 3 3/2
1 3
6/6
0
0
0
6
6/3
1/2
9/2
3/2
3/6
3/6
1/2
1/2
7.2. Descomposicin QR
3/6
= QR .
Q se obtiene al eliminar la tercera columna (columna nula) de
Q0 D1 , mientras que R se obtiene al eliminar la correspondiente tercera
la de DR0 .
La matriz
Teorema.
1. Si
Sea
(A) = n
QR
A Mmn
Q, m n, con columnas
R triangular superior
nn
A.
tales que
A = QR,
adems se tiene que
A+ = R1 QT .
195
7.2. Descomposicin QR
Factorizacin de matrices
2. Si
primeras
A = QR,
adems se tiene que
A+ = RT (RRT )1 QT .
Demostracin. Supongamos que
es una matriz
mn
de rango
Q Mmn
R Mnn
A+ = (AT A)1 AT
A = QR.
(teorema 6.2.1(1)). De
A+
(AT A)1 AT
(RT QT QR)1 RT QT
= R1 (RT )1 RT QT
= R1 QT .
Lo que demuestra el inciso 1.
A+
RT (RRT )1 Q,
(porque (Q
Q)1 = Ir )
7.2.6.
Nota.
que:
1. Si
A Mmn
r<n
A+ A = RT RRT
196
1
R.
se tiene, usando la
Factorizacin de matrices
7.2. Descomposicin QR
Ax = y
x = A+ y.
Puesto que el conjunto de todas la soluciones mnimas cuadradas
del sistema
Ax = y
x = A+ y + (I A+ A)h;
h Rn .
h Rn ,
Ax = y
Rx = QT y .
Ejemplo.
7.2.7.
Ax = y,
siendo
1
1
A=
1
1
2
0 1
1
3
2
1
3
2
1 3
1
Q=
1/2
1/2
1/2
1/2
3/2
3/6
3/6
3/6
(A) = 2
1
1
y=
2 .
1
y las matrices
1/2
9/2
R=
0
3 3/2
6/6
6/6
6/3
A = QR .
197
6
0
Factorizacin de matrices
A+ = Rt (RRt )1 Q, (ver
2
A+
1
18
1
18
7
18
1
18
1
18
1
6
1
18
1
18
1
18
1
6
1
6
1
6
1
3
y el conjunto de todas las S.M.C. (ver nota 7.2.6) est dada por las soluciones del sistema
1/2
Rx = QT y = 3/2 ,
6/2
es decir por la expresin
2
1/6
1
2/3
=
0 + h 1 ,
0
1/2
En particular, si
h = 1/18,
h R.
1
11 .
x = A+ y =
1
18
9
Factorizacin de matrices
Teorema
7.3.1.
(Factorizacin de Cholesky) Si A Mnn es una matriz
simtrica positiva denida, entonces existe una nica matriz real T =
[tij ]nn
> 0 (i = 1, . . . , n),
tal que
A = TTT .
Adems,
2
n = 2:
A=
a2 =
de donde,
ab =
de donde,
b2 + c2 =
de donde,
(a > 0)
y
b=
p
2
c=
(c > 0).
a=
sto es,
A=
0
p
p
2
n = k,
2
|A| = |U | = ki=1 uii
2
= T T T,
B Mkk
U Mkk
tal que
(hiptesis de induccin).
199
A = UT U
y que
Factorizacin de matrices
La matriz
Mkk
tal que
A = U T U
(k + 1),
2
2
A = |U | = ki=1 uii .
T
de tamao
(k + 1)
bloques en la forma
T =
U
0
y
z
,
tales que,
U T y = a,
lo que implica
y = (U T )1 a
yT y + z 2 = ,
lo que implica
z = ( yT y)1/2 .
|A| =
=
|T |2 = |U |2 z 2
k
2
2
i=1 uii z 2 = k+1
.
i=1 tii
Factorizacin de matrices
TTT
nn
con
A =
a11
a12
a13
a12
a22
a23
a13
a23
a33
a1n
a2n
a3n
.
.
.
.
.
.
.
.
.
..
.
.
.
a1n
a2n
a3n
t11
t12
t13
0
t22
t23
0
0
t33
.
.
.
.
.
.
.
.
.
..
t1n
t2n
t3n
ann
t11
0
0
0
0
0
.
.
.
..
.
0
tnn
t12
t22
0
t13
t23
t33
t1n
t2n
t3n
.
.
.
.
.
.
..
.
.
.
tnn
3.
4.
t11 =
a11 .
a1j
a1j
= ; j = 1, . . . , n.
t11
a11
Pi1 2 1/2
tii = aii k=1 tki
; i = 2, . . . , n.
"
#
i1
X
1
aij
tki tkj ; j > i, i = 2, . . . , n 1.
tij =
tii
t1j =
k=1
5.
tij = 0; j < i, i = 2, . . . , n.
Observacin.
i1
X
t2ki ,
k=1
201
i = 1, . . . , n.
Factorizacin de matrices
2. El producto
de
T.
Es decir,
i1
X
tki tkj ;
i, j = 1, . . . , n .
k=1
7.3.2.
Ejemplo.
4
2
A=
0
2
2
2
3
2
0
2
3 2
.
18
0
0
4
1.
t11 =
2.
t22 =
t23
t24
3.
t33
a11 = 2; t12 =
a13
a14
a12
= 1; t13 =
= 0; t14 =
= 1.
2
2
2
a22 t212 = 2 1 = 1;
a23 t12 t13
3 (1) 0
=3
=
=
t22
1
a24 t12 t14
2 (1) 1
=
= 1.
=
t22
1
p
t34 =
4.
t44
Es decir,
2
0
T =
0
0
1
1
0
0
0
3
3
0
1
1
,
1
1
A = T T T.
Factorizacin de matrices
7.3.3.
Ejemplo.
4
A= 2
4
2 4
10
4 ,
4
9
1.
t11 =
2.
t22 =
p
a22 t212
2.
3.
t33 =
a12
a13
= 2.
= 1; t13 =
t11
2
a11 = 2; t12 =
p
p
a33 t213 t223 = 9 (2)2 (2)2 = 1.
Es decir,
2
T = 0
0
1
3
0
2
2 ,
1
A = T T T.
P,
A,
tal que
P T AP = I
que
A = (P T )1 P 1 = (P 1 )T P 1 .
As las cosas, nosotros podemos encontrar la matriz
PT
| I
A y en las las de I
de las).
Nota.
A es simtriA = T T T con
principal.
203
7.3.4.
Ejemplo.
Factorizacin de matrices
entonces se tiene que:
TTT
T T D1 DT
(T T D1 )(DT )
LU.
4
A= 2
4
2
10
4
4
4 .
9
2 4
2 0 0
2 1 2
10
4 = 1 3 2 0 3
2 = TTT .
4
9
2 2 1
0 0
1
2 0 0
3 0 , se tiene que
Tomando D = 0
0 0 1
2 1 2
2 0 0
2
A = 1 3 2 0 3
0 0
1
2 2 1
2 1 2
2 0 0
1/2
0
0
2 0 0
2
1/3 0 0 3 0 0 3
= 1 3 2 0
0 0
1
0 0 1
0
0
1
2 2 1
4 2 4
1
0
0
6 = LU .
1
0 0 9
= 1/2
1 2/3 1
0 0
1
4
A= 2
4
Ax = y,
siendo
A = TTT,
entonces
Ax = y T T T x = y T x = (T T )1 y := z,
es decir, si se conoce la factorizacin de Cholesky para una matriz
T x = z,
A=
con
204
z = (T T )1 y.
Factorizacin de matrices
7.3.5.
Ejemplo.
12
= 3 .
| y
T T
4
2 4
4
= 2 10
4
4
9
2 1 2 |
2 |
= 0 3
0 0
1 |
12
6
15
6
0 = T
3
|
|
|
| z
x3
x2
x1
= 3,
6
2x3
=
= = 2,
3
3
6 + 2x3 + x2
626
=
=
= 1.
2
2
rectangular
simtricas
Teorema.
A Mmn se tiene que existen maU Mmm y V Mnn y una matriz diagonal
Mmn , con elementos hiij = 0, si i 6= j y hiii =: i 0, y
1 2 s , en donde s = mn {m, n} tales que
7.4.1.
trices ortogonales
T
Amn = Umm mn Vnn
.
Los nmeros
12 , 22 , , s2
AT A
(quizs agre-
gando algunos ceros) y los vectores propios asociados son las columnas
v1 v2 vn . Adems, lo nmeros 12 , 22 ,
de la matriz V =
205
Factorizacin de matrices
, s2 son igualmente los valores propios de AAT (quizs agregando algunos ceros) y los vectores propios asociados son las columnas de U =
u1
u2
um
estos vectores
Avi
i ui
uTi A =
i viT
i = 1, 2, . . . , s.
1 0
0
0 22
0
U T AAT U = D2 = .
.
.
..
.
.
..
.
.
.
2
0
0 m
r < s.
La matriz simtrica
existe una
2
0 son los valores propios de S = AAT y las
12 22 m
columnas de U = [u1 u2 um ] son vectores propios de S correpondidonde
AAT ui = Sui = i2 ui ;
i = 1, 2, . . . , m.
Como
Luego
U T AAT U
=
=
U1T
U2T
AAT
U1
U2
U1T AAT U1
U1T AAT U2
U2T AAT U1
Dr2 0
U2T AAT U2
es decir,
206
Factorizacin de matrices
12
0
..
.
0
=
.
..
0
U AA U
0
22
0
0
.
.
.
..
.
.
.
22
.
.
.
..
.
.
.
|
|
|
|
|
|
|
0
0
.
.
.
..
.
.
.
..
0
0
0
.
.
.
.
0
.
.
.
U2T A = 0
AT U2 = 0.
o sea:
V1 = AT U1 Dr1 Mnr
tiene columnas ortogonales
(V1T V1 = I).
V2 Mn(nr)
Sea
tal que la
matriz
V =
V1
V2
Mnn
U AV = =
Dr
0
0
0
.
U T AV =
U1T
U2T
V1
V2
U1T AV1
U1T AV2
U2T AV1
U2T AV2
U2T A = 0. As mismo,
T
T
V1
V1 V1
V1
V2 =
= I=
V2T V1
V2T
I 0
=
,
0 I
y de otra parte,
V TV
207
V1T V2
V2T V2
Factorizacin de matrices
de donde
U1T AV2 = 0.
y nalmente,
U1T AV1
Dr2 Dr1 = Dr
1 0
0 2
..
.
..
.
.
.
.
0
0
0
0
.
.
.
.
m
En consecuencia,
U AV = =
Dr
0
0
0
.
Nota.
Observe que
Avi = i ui
i = 1, 2, . . . , r.
igualmente,
AT U1 = V1 Dr
AT ui = i vi
uTi A = viT i
i = 1, 2, . . . , r.
A Mmn .
m n.
7.4.2.
Algoritmo.
1. Formule
S = AAT Mmm .
2
S : 12 22 m
0.
Encuentre un conjunto ortonormal u1 , u2 , . . . , um de vectores
u1 u2 um (orpropios de S y construya la matriz U =
togonal) y la matriz diagonal D = diag {1 , 2 , , m }.
Si r = (A); Dr = diag {1 , 2 , , r }
T
1
u1 u2 ur , las
Haga V1 = A U1 Dr , siendo U1 =
primeras r columnas de U. Encuentre una matriz V2 Mn(nr)
V1 V2 Mnn sea ortogonal.
tal que la matriz V =
T
Otra forma de (5) es trabajar con la matriz A A.
4.
5.
5*.
208
Factorizacin de matrices
Ejemplo.
7.4.3.
Considere la matriz
2
4
1 2
4
2
; (A) = 2,
12 = 36
S = AAT =
9
0
0
36
,
22 = 9 (12 22 ).
Para
12 = 36
(S 36 I)X = 0,
0
x1
0
=
,
0
x2
0
tenemos el sistema
25
0
es decir el sistema
B=
Como
12 -vector
0
x2
: x2 6= 0 .
mente podemos tomar a
u2 =
1
0
como
u1 =
22 -vector
0
1
. Anloga-
U=
u1
u2
0
1
1
0
6
0
0
3
y la matriz diagonal
D = diag {1 , 2 } =
Puesto que
r = (A) = 2
tenemos que
209
Dr = diag {1 , 2 } =
6
0
0
3
.
Factorizacin de matrices
V1
AT U1 Dr1
2
4
0 1
1/6 0
= 1 4
1 0
0 1/3
2
2
2
4
0
1/3
= 1 4
1/6 0
2
2
2
2
1
2
1
=
Columnas ortonormales.
3
1 2
=
2
1
2
V =
3
1
1
2 = V1
2
2
1
2
V2
0
0
1
1
2 .
con V2 =
3
2
U AV =
6
0
0
3
= .
7.4.4.
Ejemplo.
Consideremos la matriz
1
A= 0
1
1
1
0
0
1 ; (A) = 3,
1
S = AAT
2 1
S = AAT = 1 2
1 1
1
1 .
2
|S I| = 0,
esto es,
= |S I|
2
1
1
2
1
= 1
1
1
2
210
= ( 4)( 1)2 .
Factorizacin de matrices
Los valores propios de
son entonces
12 = 4, 22 = 1
32 = 1.
Algunos
1
1
1 ;
u1 =
3 1
2
1
1
u2 =
6
1
0
1
1 ,
u3 =
2 1
12 , 22
32
respectiva-
1/ 3
2/ 6
=
1/ 3
1/ 3
1/ 6
U=
u1
u2
u3
1/ 6
1/ 2
.
1/ 2
= 3)
2
D = diag {1 , 2 , 3 } = 0
0
0
1
0
0
0 = Dr .
1
1/3 2/6
0
1
1/2
0 1/3
1/6
1/2 0
1
0
1/ 6 1/ 2
1/ 3
1/23 2/6
0
1
0 1/23
1/6
1/2
1
1/ 6 1/ 2
1/2 3
1/6 1/2
1/6
1/ 2 = V
2/ 6
0
V1
1 0
= 1 1
0 1
1 0
= 1 1
0 1
1/3
= 1/3
1/ 3
4
U T AV = 0
0
0
1
0
211
0
0 = .
1
0 0
1 0
0 1
7.5. Ejercicios
Factorizacin de matrices
7.5. Ejercicios
7.5.1
i < j,
Fi + Fj
con
Ci + Cj
i < j , producen matrices elementales triangulares inferiores.
A es nica.
Q es una matriz rectangular cuyas columnas son orgonormales
T
entre, entonces Q Q = I.
1. Suponga que
ferior.
b ) Mueste que si
L1 es
L1
1
es
L1 y
L2 son tosdo iguales a 1 (uno), entonces las matrices L1 L2 ,
1
L1
y L2
tambin tienen unos en su diagonal principal.
1
A Mmn
7.5.5. Calcule
212
Factorizacin de matrices
7.5. Ejercicios
c)
1 0
3
1
1 0
4 1
2 3
4
1
11
x=
0 1
32
0
2 2
1
2
0 0 3
1 x = 7
1
0 0 2
3
1
5
b)
d)
1
4
7
0
1
0
1
3
2
1
x=
0 7
0
1 2
0 0 3
1
0 0
1
A= 2
1
3.
1 2
1 1 .
17 3
3
7
2
T
para resolver el sistema Ax = y, y =
Use dicha descomposicin
5 18 14 .
Encuentre la matriz triangular R tal que A = QR en cada uno
de los siguientes casos
a)
A=
1
1
1
Q=
1
,
3
1
3
1
b)
4.
A=
4
Considere la matriz simtrica positiva denida S = 2
0
2
9
8
0
8
5
A=
2
1
1
4
2
1
.
1
0
A=
1
0
0
1
1
0
213
0
1
1
1
1
, Q =
CAPTULO 8
Este captulo consta de dos secciones. En la primera daremos las deniciones de recta, segmento de recta e hiperplanos en
Rn .
En la segunda
veremos algunos resultados sobre conjuntos convexos. Quien desee estudiar un poco ms sobre estos tpicos puede consultar el captulo 6 de
[ ].
10]).
Rn
son tiles
Antes de proseguir
en el espacio
Rn
y el
P.
OP
y como extremo
o simplemente
p.
215
Hiperplanos
IR 3
x3
x3
P(x1 , x2 , x 3)
p = 0P =(x1 , x2, x 3)
x2
O(0, 0, 0)
x1
x1
Figura 8.1. Puntos y vectores en
Nota.
x2
O(0, 0, 0)
R3 .
=
escribiremos
8.1.1.
Denicin
En
(Rectas)
d 6= 0
Rn ,
n
` = X Rn : OX = OP + d,
en
0 R
tal
216
X0 Rn pertenece a
que OX0 = OP + 0 d.
`.
la recta
Hiperplanos
OX=OP+ d
P
d
d
x
8.1.2.
Ejemplo.
R2 .
En
` = X(x1 , x2 , x3 ) R3 : (x1 , x2 , x3 ) = (1, 2, 3) + (1, 0, 5),
El punto
X0 (1, 2, 7)
en la
R .
tal que :
lo tanto:
n
o
X Rn : OX = OP + d, R
n
=
X R : OX = OP +
P Q, R .
0
` =
217
Hiperplanos
En consecuencia, podemos decir que la recta que pasa por los puntos
Q (P 6= Q)
de
Rn
` = X Rn : OX = OP + t P Q,
(8.2)
es el conjunto de puntos:
o
tR .
y
IR
OX=OP+t PQ
P
PQ = 0Q OP
t PQ
Figura 8.3. Grca de una recta que pasa por los pun-
tos
Q.
8.1.3.
8.1.4.
PQ =
X Rn : OX = OP + t P Q, para 0 t 1 .
n
o
=
X Rn : OX = tOP + (1 t) OQ, para 0 t 1 .
puntos
X0 Rn
OX0 = OP + t0 P Q.
0 t0 1
tal que
218
pertenece a
PQ
sii existe
Hiperplanos
OX = OP + t 0 PQ
PQ = OQ OP
t0 PQ
8.1.5.
Ejemplo.
el punto
PQ =
P (1, 2, 3, 4) con
X(x1 , x2 , x3 , x4 ) R4 :
Q(0, 1, 0, 2),
es el conjunto de puntos
X R4 : (x1 , x2 , x3 , x4 ) = (1, 2, 3, 4) + t(1, 1, 3, 2) ,
1
X0 ( ,
2
1
( ,
2
3
, 3) pertenece a P Q, pues
2
3
1
, 3) = (1, 2, 3, 4) + (1, 1, 3, 2).
2
2
3
,
2
3
,
2
(1, 0, 3, 0)
8.1.6.
Denicin
punto
puntos:
(1, 2, 3, 4) + t (1, 1, 3, 2)
(1 t , 2 t , 3 3t , 4 2t ) .
(Hiperplano)
Rn , el hiperplano que
n 6= 0, se dene como el
En
n
o
H = X Rn : (OX OP ) n = 0 ,
o lo que es lo mismo,
n
o
H = X Rn : OX n = OP n = cte. ,
219
pasa por el
conjunto de
Hiperplanos
n
IR
x3
X
P
x2
x1
Figura 8.5. Grca de un plano en
8.1.7.
Observacin.
En
R2
y en
R3
Rn
R3 .
R2 ,
n = (5, 2),
P (4, 3)
es el conjunto de puntos
y que es normal
X(x1 , x2 )
de
R2
OX n = 5x1 + 2x2 = 20 6 = 26 = OP n,
o sea,
n = (1, 1, 3),
P (2, 1, 1)
y que es normal al
X(x1 , x2 , x3 )
R3 que satisfacen la ecuacin:
OX n = x1 + x2 + 3x3 = 2 1 + 3 = 0 = OP n,
vector
es el conjunto de puntos
o sea,
x1 + x2 + 3x3 = 0 .
220
de
Hiperplanos
8.1.8.
el conjunto de
puntos de
R.
OX n = x1 + 2x2 + 3x3 = 6 = OQ n .
para algn
R,
OI = OP + n
y tambin
OI n = OP n.
De esto se sigue que:
OP + n = OQ n .
PQ n
2
k nk
1
.
14
OI =
=
1
OP + n = (1, 1, 2) + (1, 2, 3)
14
15 12 31
) .
( , ,
14 14 14
221
Hiperplanos
n
x3
IR
x
Q
x2
x1
Figura 8.6. Grcas de un plano y una recta en
8.1.9.
Denicin.
Sea
el hiperplano de
Rn
R3
OX n = OP n = c
Los conjuntos
n
o
S1 = X Rn : OX n c
n
o
S2 = X Rn : OX n c
H.
Los conjuntos
n
o
S1 = X Rn : OX n < c
n
o
S2 = X Rn : OX n > c
Nota.
H.
H,
mientras que
Hiperplanos
x. n. = c
x. n. > c
x
x.n. < c
10]).
8.2.1.
Denicin.
Sea
un subconjunto de
8.2.2.
C3
C4
Teorema.
Q1
de
C,
Se dice que
es convexo,
el segmento de recta
PQ
est
Q2
C1
C2
Rn
es un conjunto convexo.
no son convexos.
Todo hiperplano de
Demostracin. Sea
y sean
C.
Rn .
H el hiperplano de Rn
OX n = OP n = c
puntos de
H.
Ahora, si
es un punto de
coordenadas satisfacen:
OX = OQ1 + t(Q2 Q1 ),
223
0 t 1,
R3
cuyas
Hiperplanos
y
C3
C1
P
Q
P
C2
C4
Q
P
P
(a)
(b)
entonces
Q1 Q2 y se
h
i
OQ1 + t(Q2 Q1 ) n
h
i
OQ1 + t(0Q2 OQ1 ) n
(1 t)OQ1 n + t OQ2 n
(1 t)c + t c
c,
OX n =
=
=
es decir,
8.2.3.
X H.
Teorema.
Por lo tanto
es un conjunto convexo.
H el hiperplano de Rn . Todo
H es un conjunto convexo.
Sea
tiene que:
H el hiperplano de Rn
OX n = OP n = c .
Demostracin. Sea
semiespacio cerrado o
n
o
S = X Rn : OX n < c
es un conjunto convexo. En el caso de semiespacio cerrados con frontera
Hiperplanos
= (1 t)OQ1 n + t OQ2 n
Sean pues
(1 t)c + t c = c ,
<
esto es,
X S.
Por lo tanto
es un conjunto convexo.
Teorema.
Demostracin. Sean
C3 = C1 C2 .
Si
C3
C1
C2
Rn
es un
Rn y sea
C3 es automticaS3 , ya que C1 y C2
Q1
Q2 dos puntos
Rn , entonces:
OQ1 + t(OQ2 OQ1 ) C1
distintos de
Para todo
tal que
0 t 1.
OQ1 + t(OQ2 OQ1 ) C2
Para todo t tal que
0 t 1.
En consecuencia. OQ1 + t(OQ2 OQ1 ) C3 = C1 C2 para todo t tal que
0 t 1 y por lo tanto C3 es un conjunto convexo de Rn .
La prueba del siguiente corolario se puede obtener aplicando el principio
de induccin matemtica y se propone como un ejercicio.
8.2.5.
Corolario.
vexos de
8.2.6.
Rn .
Rn
es un conjunto conexo de
Teorema
(Envolvente convexa)
R .
Sean
X1 , X2 , . . . , Xm
puntos de
El conjunto:
(
C=
)
m
m
X
X
X R : OX =
i OXi ; i 0, i = 1, . . . , m,
i = 1
n
i=1
i=1
X1 , X2 , . . . , Xm .
225
8.3. Ejercicios
Hiperplanos
P y Q dos puntos de C; entonces existen
1 , 2 , . . . , m no negativos, tales que:
Demostracin. Sean
calares
1 , 2 , . . . , m
m
X
i=1
i=1
m
X
i=1
i=1
X
OP =
i OXi ,
es-
i = 1
X
OQ =
i OXi ,
Sea ahora
i = 1 .
P Q,
esto es, un
para
el cual se satisface
OX = OP + t(OQ OP ), 0 t 1.
Puesto que:
OX
m
X
"m
#
m
X X
i OXi + t
i OXi
i OXi
i=1
m
X
i=1
i=1
i=1
donde
(1 t)i + ti 0
m
X
para
i = 1, . . . , m,
[(1 t)i + ti ]
(1 t)
i=1
X C.
m
X
i + t
i=1
En consecuencia,
m
X
i=1
(1 t) + t = 1 ,
=
entonces
es un conjunto convexo.
8.3. Ejercicios
8.3.1 Responda verdadero o falso, justicando su respuesta.
1. El punto
punto
2.
une a
226
Hiperplanos
8.3. Ejercicios
Q (1, 2, 3) , P (0, 1, 2)
3. Sean
M (2, 0, 1).
4. La unin de dos conjuntos convexos de
vexo de
i = 1, . . . , n
8.3.2
Rn
es un conjunto con-
t
x = x1 x2 xn
Ax = y, tales que xi 0 ,
es un conjunto convexo.
Calcule
1. Sea
n
o
H = X Rn : OX n = c
a ) Muestre que si
un hiperplano de
Rn .
X=0
/ H, entonces existe un vector n 6= 0
tal que:
n
o
H = X Rn : OX n = 1 .
X = 0
/ H, entonces existen n puntos
H, que como vectores son linealmente in-
b ) Demuestre que si
b1 , b2 , . . . , bn
de
dependientes.
c ) Demuestre que si
X=0
/ H,
(
H=
X Rn : X =
n
X
entonces
i bi ,
b1 , b2 , . . . , bn
)
i = 1
,.
i=1
i=1
donde
n
X
son puntos de
H,
=
=
b1 , b2 y b3 tales que
X R3 : X (2, 1, 1) = 1
(
)
3
3
X
X
3
XR : X=
i bi ,
i = 1
i=1
i=1
3. Sean
(
H
=
=
3
X
i=1
i=1
X
X R : OX =
i bi ,
3
n
o
X R3 : OX n = 1 .
227
)
i = 1
8.3. Ejercicios
Hiperplanos
H = {X Rn : X N = C} un hiperplano de Rn .
X = 0 H sii C = 0.
b ) Demuestre que si X = 0 H, entonces existen n 1 puntos
a1 , a2 , . . . , an1 de H, que como vectores son linealmente
4. Sea
a ) Muestre que si
independientes.
c ) Demuestre que si
X = 0 H,
entonces
n1
X
X R : OX =
i ai
H=
i=1
donde
a1 , a2 , . . . , an1
son
n1
puntos de
H,
que como
a1
=
=
a2 tales que
n
o
X R3 : OX (2, 1, 1) = 0
n
o
X R3 : OX = 1 a1 + 2 a2
6. Sean
n
o
X R3 : OX = 1 a1 + 2 a2
=
X R3 : v N = 0 .
n1
Rn
8. Demuestre que si
T : R n Rm
T : R2 R2 es una transformacin
entonces T enva tringulos en tringulos.
9. Demuestre que si
biyectiva,
228
lineal
ndice alfabtico
Base, 11
cambio de, 20
cannica de Rn , 14
ortogonal, 16, 66
ortonormal, 16
Espacio generado, 10
Espacio nulo, matriz, 21
Espacio vectorial, 8
base, 11
base ordenada, 13
de transformaciones lineales, 19
dimensin, 11
subespacio, 9
suma directa, 13
Espacios fundamentales, matriz, 20
Descomposicin
de Cholesky, 198
en valores singulares, 205
LU, 179
QR, 188
Desigualdad de Schwarz, 15
Determinante, matriz, 4
Diagonal principal, matriz, 2
Diagonal, matriz, 2
Diagonalizacin
de matrices simtricas, 64
de una forma cuadrtica, 103
ortogonal, 70
simultnea
de formas cuadrticas, 105
de matrices, 82
Diagonalizacin de matrices, 53
Hermite
229
ndice alfabtico
particionada, 26
determinante, 30, 32, 33
inversas, 34, 35
operaciones con, 27
polinomio caracterstico de una, 48
rango de una, 20, 22
semejante, 20
submatriz, 25
transpuesta, 3
propiedades, 3
traza de una, 37
valor propio de una, 47
vector propio de una, 47
Mejor solucin aproximada, 165
ndice alfabtico
Valor propio, 44
espacio asociado a un, 46
multiplicidad algebraica de un, 48
multiplicidad geomtrica de un, 46
Valores (vectores) caractersticos; vea
valores (vectores) propios, 44
Valores singulares
descomposicin, 205
Variedad lineal, 23
Vector propio, 44
Vectores, 8, 215
coordenadas resp. a una base, 13
linealmente dependientes, 10
linealmente independiente, 56
linealmente independientes, 10, 22,
24
ortogonales, 15
ortonormales, 15
proceso de Gram-Schmidt, 16
propios ortogonales, 66
231
Bibliografa
[1] ANTON, H. Introduccin al lgebra lineal. Limusa, Mxico, 1981,
[2] FLOREY, F.G. Fundamentos de lgebra lineal y aplicaciones. Prentice Hall internacional, Colombia, 1980.
[3] GRAYBILL, F.A. Introduction to matrices with applications in statistic.
Wadsworth Publishing Company. Inc. Belnont, California, 1969.
[4] GRAYBILL, F.A. Theory and applications of linear model. Duxbury Presss, Massachusetts, 1976.
[5] HADLEY, G. A. lgebra lineal, Fondo Educativo Interamericano S.A., Estados
Unidos 1969.
[6] LIPSCHUTZ, S. lgebra lineal, McGraw Hill, Mxico, 1979.
[7] MARMOLEJO, M.A. Inversa condicional e inversa generalizada de una matriz:
esquema geomtrico. Lecturas Matemticas, Soc. Col. Matemat., Pg. 129-146,
Vol. IX, 1988.
[8] Nakos, G., Joyner, D., legebra lineal con aplicaciones, Thonsom editores, Mxico,
1998.
[9] Nering, E.D. legebra lineal y teora de matrices. Limusa, Mxico, 1977.
[10] NOBLE, B. Applied linear algebra. Prentice Hall, Inc. London, 1969.
[11] RORRES , C y ANTON, H, Aplicaciones del lgebra lineal. Limusa, Mxico 1979.
[12] STRANG, G, lgebra lineal y sus aplicaciones. Fondo educativo interamericano,
1982.
233