Está en la página 1de 237

Tpicos

en lgebra Lineal

Miguel A. Marmolejo L.

Manuel M. Villegas L.

Departamento de Matemticas
Universidad del Valle

ndice general
Introduccin

ndice de guras
Captulo 1.

Prerrequisitos

1.1.

Matrices

1.2.

Espacios vectoriales

1.3.

Transformaciones lineales

1.4.

1
1
7
16

Espacios fundamentales de una Matriz. Rango de una matriz.


Sistemas de ecuaciones lineales

Captulo 2.
2.1.

iii

Matrices particionadas. Traza de una matriz

20
25

Submatrices. Operaciones con matrices


particionadas

25

2.2.

Determinantes e inversas de algunas matrices especiales

29

2.3.

Traza de una matriz

37

2.4.

Ejercicios

39

Captulo 3.

Valores propios y vectores propios. Diagonalizacin

43

3.1.

Valores propios y vectores propios

44

3.2.

Diagonalizacin

53

3.3.

Diagonalizacin de matrices simtricas

64

3.4.

Diagonalizacin simultnea de matrices simtricas

82

3.5.

Ejercicios

90

Captulo 4.

Formas cuadrticas

4.1.

Clasicacin de las formas cuadrticas.

4.2.

Cambio de variables. Diagonalizacin simultnea de formas

97
97

cuadrticas

101

4.3.

Formas cuadrticas positivas, negativas e indenidas.

110

4.4.

Ejercicios

118

ndice general
Captulo 5.

Anexo 1: Matrices no negativas. Matrices idempotentes 123

5.1.

Matrices no negativas

123

5.2.

Matrices idempotentes

129

Captulo 6.

Inversa generalizada e inversa condicional de matrices. 137

6.1.

Inversa generalizada de una matriz

137

6.2.

Clculo de la g-inversa de una matriz

147

6.3.

Inversa condicional de una matriz

152

6.4.

Sistemas de ecuaciones lineales: g-inversa y c-inversa de una

6.5.

matriz. mnimos cuadrados.

160

Ejercicios

174

Captulo 7.

Factorizacin de matrices

179

7.1.

Descomposicin

LU

179

7.2.

Descomposicin QR

188

7.3.

Descomposicin de Cholesky

198

7.4.

Descomposicin en valores singulares (SVD)

205

7.5.

Ejercicios

212

Captulo 8.

Rectas e hiperplanos. Conjuntos convexos.

215

8.1.

Rectas. Segmentos de recta. Hiperplanos

215

8.2.

Conjuntos convexos

223

8.3.

Ejercicios

226

ndice alfabtico

229

Bibliografa

233

ii

ndice de guras
1.1. Transformacin lineal

22

3.1. Interpretacin geomtrica de vector propio

44

3.2. Vectores propios de

T (x, y) = (2x, x + 3y)

45

6.1. Problema de los mnimos cuadrados

162

6.2. Ajuste por mnimos cuadrados

163

6.3. Ajuste lineal por mnimos cuadrados

165

6.4. Ajuste lineal ejemplo 6.4.13

170

6.5. Ajuste lineal ejemplo 6.4.14

171

6.6. Ajuste cuadrtico ejemplo 6.4.15

173

7.1. Esquema de la factorizacin LU

186

8.1. Puntos y vectores en


8.2. Una recta en

R3 .

216

R .

217

8.3. Grca de una recta que pasa por los puntos


8.4. Segmento de recta que une los puntos
8.5. Grca de un plano en

R .

Q.

218
219
220

8.6. Grcas de un plano y una recta en

222

8.7. Ilustracin de semiespacios abiertos

223

8.1. Conjuntos convexos y no convexos

224

iii

CAPTULO 1

Prerrequisitos
El propsito de este captulo es hacer una recopilacin de algunas deniciones y de algunos resultados bsicos del lgebra lineal, los cuales nos
sern de gran utilidad en el desarrollo de los captulos siguientes. Trataremos aqu los aspectos relacionados con: matrices, espacios vectoriales y
transformaciones lineales, aunque aclaramos, que el orden en que se presentan los temas, no corresponde necesariamente al orden usual encontrado en la mayora de textos utilizados en el primer curso de lgebra lineal.
Al lector que desee estudiar ms sobre el contenido de este captulo se le
recomienda consultar [

1, 2, 12].

1.1. Matrices
Las matrices juegan un papel importante en las matemticas y sus aplicaciones. Una matriz

de tamao

mn

(o simplemente

arreglo rectangular de nmeros dispuestos en


tales) y

Amn )

es un

las (lneas horizon-

columnas (lneas verticales); el nmero que est en la i-sima

hAiij

la y en la j-sima columna se denota por

aij

ij de la matriz A. Para indicar dicho


A = [aij ]mn , o en forma expandida

arreglo usualmente se escribe

to

(1.1)

a11
a21

A= .
..
am1

a12
a22

.
.
.

..

am2

a1n
a2n

.
.
.

.
amn

y se llama elemen-

1.1. Matrices
Si

Ai =

Prerrequisitos

ai1 ai2

a1j
a2j

Aj = .
..
amj

la

j -sima

ain

denota la

columna de

A,

i-sima

la de la matriz

el arreglo (1.1) puede represen-

tarse por las o columnas como aparece a continuacin

A1
A2 

A = . = A1
..
Am

A2

An

Las matrices se denotan, como lo hemos sugerido, con letras maysculas

m n con elementos
Mmn . Los elementos de
Mnn se llaman matrices cuadradas de orden n; a la diagonal formada
por los elementos a11 , a22 , . . . , ann de una tal matriz A, se llama diagonal
principal de A.
A, B, C ,

etc. El conjunto de todas las matrices

reales se denotar por

Mmn (R)

o simplemente

A de orden n, cuyos elementos fuera de la diagonal


= 0 para i 6= j, i, j = 1, 2, . . . , n), se denomina
denota por A = diag(a11 , a22 , . . . , ann ).

Toda matriz cuadrada

principal son nulos (aij


matriz diagonal y se

La matriz diagonal de orden


pal son todos iguales a
simplemente

I,

1,

n,

cuyos elementos en su diagonal princi-

se llama matriz idntica y se denota por

In

cuando no sea necesario especicar el orden.

Una matriz nula es una matriz cuyos elementos son todos nulos. Una
matriz nula ser denotada por
Dos matrices

0 (0mn

de igual tamao

denotar la matriz nula

mn

m n.)

son iguales si y slo si sus

componentes correspondientes son iguales. Esto es,

hAiij = hBiij ;
La suma

mn

A+B

i = 1, 2, . . . , m,

de dos matrices

j = 1, 2, . . . , n.

de tamao

m n,

es la matriz

tal que:

hA + Biij = hAiij + hBiij ;


La multiplicacin

i = 1, 2, . . . , m,

A del nmero por


m n, tal que:

la matriz

j = 1, 2, . . . , n.
de tamao

la matriz de tamao

hAiij = hAiij ;

i = 1, 2, . . . , m,
2

j = 1, 2, . . . , n.

m n,

es

Prerrequisitos
El producto

1.1. Matrices

AB

hABiij =

s
X

A Mms

de la matriz

m n,

matriz de tamao

por la matriz

B Msn ,

es la

tal que:

hAiik hBikj Ai B j ;

i = 1, 2, . . . , m,

j = 1, 2, . . . , n.

k=1

1.1.1. Inversa de una matriz.


B Mnn

matriz
que

tal que

Sea

A Mnn .

Si existe una

BA = I
AB = I, a B se

se puede demostrar que

es nica. Cuando existe una matriz

llama la matriz inversa de


que

AB = I

tal que

y se le denota por

A1 .

y
le

Es este caso se dice

es no singular o invertible; en caso contrario, se dice que

es no

invertible o singular.
En el siguiente teorema se establecen algunas propiedades de la inversa
de una matriz

Teorema.

1.1.1.

Si

A, B Mnn

son matrices invertibles y si

es un

nmero no nulo, entonces:


1. La matriz
2. La matriz
3. La matriz

1
A1 es invertible y A1
= A.
AB es invertible y (AB)1 = B 1 A1 .
A es invertible y (A)1 = 1 A1 .

1.1.2. Transpuesta de una matriz.


La matriz transpuesta de

i-sima

es la matriz

i-sima
A es la matriz AT
j = 1, 2, . . . n.

la corresponde a la

la transpuesta de

1, 2, . . . m,
Sea

Sea

n m,

m n.
AT , cuya

una matriz

denotada por

A. Esto es,

T
A ij = hA iji , para i =

columna de la matriz
tal que

AT = A, se dice que A es una matriz


dice que A es una matriz antisimtrica. En

una matriz cuadrada. Si

simtrica, y si

A = A,

se

particular, las matrices diagonales son simtricas.


Las propiedades ms relevantes de la transpocisin se dan en el siguiente
teorema
1.1.2.

Teorema.

Sean

matrices de tamao apropiado, tales que las

operaciones siguientes estn bien denidas. Entonces:

A se verica (AT )T = A.
A = B.

1. Para cualquier matriz


2.

A =B

s y slo si

1.1. Matrices

Prerrequisitos

A es una matriz diagonal, entonces AT = A.


, son nmeros, entonces (A + B)T = AT + B T .
T
T T
Si AB est denido, entonces (AB) = B A .
T
T
Para cualquier matriz A, las matrices A A y AA son simtri-

3. Si
4. Si
5.
6.

cas.
7. Si

A es invertible, entonces AT

1.1.3. Determinantes.

es invertible y

(AT )1 = (A1 )T .

Recordamos en este apartado las nociones

de menor, cofactor, matriz de cofactores, matriz adjunta y determinante


de matrices cuadradas y resumimos algunos de los resultados ms importantes relacionados con el clculo propiedades del determinante. El lector
recordar, que el concepto de determinante es de gran importancia no
slo en el contexto del lgebra lineal, sino en otras reas como el clculo
integral. En lo sucesivo, el determinante de una matriz
por

|A|

1.1.3.

o por

ser denotado

det(A).

Denicin

(Determinane de matrices

una matriz cuadrada de tamao

2 2.

2 2).


Sea

A=

a
c

El determinante de la matriz


b
d
A es

el nmero real dado por

det(A) = ad bc.
1.1.4.

Denicin.

Sea

una matriz cuadrada de tamao

n n;

terminante de la matriz que resulta al suprimir la i-sima la de

j-sima

columna de

nota por

mij .

es denominado menor del elemento

El cofactor del elemento

hAiij

se denota por

hAiij y
Cij y se

el de-

y la

se dedene

como

Cij = (1)i+j mij .


La matriz

C,

de cofactores
decir, adj(A)

Cij de A se denomina
cof(A). La matriz transpuesta de la matriz

cuyos elementos son los cofactores

matriz de los cofactores de

A,

C , se denomina
= CT .

adjunta de

y se denota por adj(A), es

El siguiente teorema nos muestra, cmo calcular el determinante de una


matriz (cuadrada) en trminos de sus cofactores. Adems muestra, que el
valor del determinante no depende de la la o columna a lo largo de la
cual se haga la expansin. Dicho teorema presenta tambin, una forma
alternativa para calcular inversas de matriz en trminos del determinante
de dicha matriz y su adjunta.
4

Prerrequisitos
1.1.5.

1.1. Matrices

Teorema.
1. Si

Cij

a)

Sea

una matriz cuadrada de orden

denota el cofactor del elemento


n
X

hAiij Cij ,

det(A) =

hAiij ,

para cada

n.
entonces:

i = 1, 2, . . . , n.

j=1
n
X

hAiij Cij , para cada j = 1, 2, . . . , n.


i=1
2. Para cualquier matriz cuadrada A, se tiene que
b)

det(A) =

A adj(A) = adj(A) A = det(A)I .


3. La matriz

es invertible sii

A
1.1.6.

Teorema.
1.
2.

Sean

= (det(A))

A, B

|A| = |AT | .
Si A tiene una

3. Si las matrices

|A| =
6 0,

adj(A) .

matrices cuadradas de orden

la nula, entonces

en este caso se tiene que

|A| = 0.

dieren nicamente en sus

y si dichas las satisfacen la igualdad

n, entonces:

k-simas

Ak = B k ,

las

entonces

|A| = |B|.
es un escalar, entonces |A| = n |A|.
Si A, B y C dieren nicamente en la k-sima la y si Ck =
Ak + Bk , entonces |C| = |A| + |B|.
Si A tiene dos las iguales, entonces |A| = 0.
Si B se obtiene al intercambiar dos las de A, entonces |B| =
|A|.

4. Si
5.
6.
7.

8. El determinante de una matriz no cambia si los elementos de la

i-sima

la son multiplicados por un escalar

y los resultados

son sumados a los correspondientes elementos de la

k-sima la,

k 6= i.
|AB| = |A||B|.
para

9.

Nota.

Por (1), cualquier proposicin sobre

las de

|A|

que sea verdadera en las

es tambin verdadera para las columnas de

A.

1.1.4. Operaciones elementales. Matrices elementales.

En

este apartado recopilamos algunas deniciones y resultados relacionados


con las operaciones que se pueden hacer en las las (respectivamente
columnas) de una matriz, las cuales realizadas de manera apropiada nos
5

1.1. Matrices

Prerrequisitos

permiten obtener nuevas matrices con estructuras ms adecuadas, por


ejemplo cuando se quiere resolver sistemas de ecuaciones. Dichas operaciones son las operaciones elementales y estn resumidas en la siguiente
denicin.
1.1.7.

triz

Denicin

A,

(Operaciones y matrices elementales)

Dada una ma-

cada una de las siguientes operaciones es llamada una operacin

A.

elemental en las las (columnas) de

(i) El intercambio de dos las (columnas) de

A.

(ii) La multiplicacin de los elementos de una la (columna) de

por un escalar no nulo.


(iii) Reemplazar una la (columna) de

A,

por la suma de ella y un

mltiplo escalar no nulo de otra la (columna) de dicha matriz.


Una matriz elemental por las (columnas) es aquella que resulta de efectuar una operacin elemental sobre las las (columnas) de una matriz
identidad.
1.1.8.

Teorema.
1. Cada matriz elemental es invertible. Adems, la inversa de cada

matriz elemental es una matriz elemental.


2. Sea

una matriz

m n.

Si

es una matriz que resulta al

efectuar una operacin elemental sobre las las de

y si

es

la matriz elemental que resulta de efectuar la misma operacin


elemental sobre las las de la matriz idntica
3.

A = B.
Sea A una

matriz

m n.

Si

Im ,

entonces

es una matriz que resulta al

efectuar una operacin elemental sobre las columnas de

y si

es la matriz elemental que resulta de efectuar la misma operacin


elemental sobre las columnas de la matriz idntica

In ,

entonces

A E = B.
1.1.9.

Denicin (Forma escalonada reducida).

Se dice que una matriz

tiene la forma escalonada reducida, si satisface las siguientes condiciones:


(i) Si una la de

es no nula, el primer elemento no nulo de dicha

la, de izquierda a derecha, es

i + 1 de R son
de la la i + 1 est a la
de la la i.

(ii) Si las las

nulo
nulo

1.
no nulas, el primer elemento no
derecha del primer elemento no

Prerrequisitos

1.2. Espacios vectoriales

(iii) Si una columna de

una la de

(iv) Si

R,

contiene el primer elemento no nulo de

los dems elementos de dicha columna son nulos.

tiene las nulas, stas aparecen en la parte inferior de

R.

El siguiente teorema nos relaciona los conceptos de matrices elementales


y forma escalonada reducida para una matriz arbitraria.

Teorema.

1.1.10.

Para toda matriz

existen: una nica matriz

que

tiene la forma escalonada reducida y un nmero nito de matrices elementales por las

E1 , E2 , . . . , Ek

tales que:

Ek E2 E1 A = R .
La matriz

mencionada en el teorema anterior se denomina la forma

A.

escalonada reducida de
1.1.11.

Teorema.

1.
2.

A
A

Sea

es invertible
es invertible

una matriz cuadrada de orden

n.

sii la forma escalonada reducida de A es In .


sii A se puede expresar como el producto de

un

nmero nito de matrices elementales.

Los dos ltimos teoremas dan lugar a un mtodo para decidir cundo una
matriz cuadrada

A es invertible, y simultneamente proveen un algoritmo

para calcular su inversa.


El mtodo consiste en lo siguiente: Forme la matriz

[A | In ]. Seguidamente

efecte operaciones elementales sobre la las de esta matriz hasta obtener


su forma escalonada reducida; al nal se obtiene una matriz que describiremos as

[R | P ];

es invertible

donde

A.
A1 = P .

es la forma escalonada reducida de

sii R = In . Si A

es invertible entonces

Ahora:

1.2. Espacios vectoriales


El conjunto de matrices

m n, junto con las dos operaciones suma de ma-

trices y multiplicacin de un escalar por una matriz, denidas al principio


de la seccin 1.1, tiene una estructura algebraica denominada espacio vectorial. Esta estructura es importante porque incluye otros conjuntos que
se presentan frecuentemente en las matemticas y sus aplicaciones.
7

1.2. Espacios vectoriales

Prerrequisitos

Denicin.

V,

1.2.1.

Un espacio vectorial (real) es un conjunto

cuyos

elementos son llamados vectores, junto con dos operaciones: suma de vec-

(+)

tores

y multiplicacin de un escalar por un vector

(),

que satisfacen

las propiedades siguientes:


(i) Si
(ii) Si
(iii) Si

u V y v V , entonces u + v V .
u V y v V , entonces u + v = v + u.
u V , v V y w V , entonces
(u + v) + w = u + (v + w) = u + v + w.

(iv) Existe un vector

0V

tal que para todo

uV

u+0 = 0+u =

u.
(v) Si

uV,

entonces existe un vector

u V

tal que

u + (u) = (u) + u = 0.
u V y es un escalar, u V .
u V y , son escalares, entonces ()u = (u) =
(u).
Si u V y , son escalares, entonces ( + )u = u + u.
Si u V y v V y es un escalar, entonces (u+v) = u+v.
Si u V , entonces 1u = u.

(vi) Si
(vii) Si
(viii)
(ix)
(x)
1.2.2.

Ejemplo.

Los siguientes conjuntos son ejemplos de espacios vecto-

riales:
1.

V = Rn = {(x1 , x2 , . . . , xn ) : xi R, i = 1, 2, . . . , n}

con las

operaciones denidas as:

(x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn )


2.

(x1 , x2 , . . . , xn ) = (x1 , x2 , . . . , xn ) .
V = Mmn , el conjunto de matrices m n con las

operaciones

denidas usualmente (ver seccin 1.1).


3.

V = F,

el conjunto de funciones de

en

con las operaciones

denidas as:

(f + g)(t) = f (t) + g(t) ,


(f )(t) = f (t) ,
4.

t R.
t R.

V = Pn , el conjunto de las funciones polinmicas de grado menor


n, con coecientes reales con las operaciones denidas

o igual que
en (3).

Prerrequisitos

1.2. Espacios vectoriales


Como se establece en la denicin, un espacio vectorial (real) es un tripla
que consta de un conjunto

y de dos operaciones con ciertas propiedades.

Cuando no haya lugar a confusin o cuando no sea necesario explicar


las operaciones mencionadas, se har referencia simplemente al espacio
vectorial

V.

Con frecuencia es necesario considerar subconjuntos de un espacio vectorial

V,

tales que; junto con las operaciones denidas en

V,

son por s

mismo espacios vectoriales. Estos son denominados subespacios de

V.

En

forma ms precisa tenemos la siguiente


1.2.3.

Denicin.

vaco de

V.

Sea

un espacio vectorial y

Diremos que un

es subespacio de

W
V,

un subconjunto no
si

W,

junto con las

operaciones de suma de vectores y la multiplicacin de un escalar por un


vector denidas en
1.2.4.

Denicin.

V,

es en s mismo un espacio vectorial.

V un espacio vectorial, v0 un elemento


V . El subconjunto determinado as:

Sean

es un subespacio de

L = {v V : v = v0 + w,
es denominado una variedad lineal de

para

de

w W} ,

V.

El siguiente concepto es bsico en el estudio de los espacios vectoriales.


En particular, servir para caracterizar ciertos espacios de un espacio
vectorial.
1.2.5. Denicin. Sean v1 , v2 , . . . , vn vectores de un espacio vectorial
V . Se dice que un vector v V es combinacin lineal de los vectores
v1 , v2 , . . . , vn si existen escalares 1 , 2 , . . . , n tales que:

v = 1 v1 + 2 v2 + + n vn =

n
X

i vi .

i=1
1.2.6.

V. W

Teorema.

Sea

un subconjunto no vaco de un espacio vectorial

es un subespacio de

sii

es cerrado bajo la operacin suma de

vectores y la multiplicacin por un escalar, esto es, sii


1. Si
2. Si

uW
uW

y
y

v W , entonces u + v W .
R, entonces u W .
9

1.2. Espacios vectoriales


1.2.7.

Teorema.

Si

Prerrequisitos

son subespacios de un espacio vectorial

V,

entonces:
1. La interseccin de

de

con

W; U W

2. La suma de

con

W;

denida por

U + W = {v V : v = u + w,
es un subespacio vectorial de
1.2.8.

con

uU

w W} ,

V.

Teorema.

vectorial
de

es un subespacio vectorial

V.

Sea C un conjunto no vaco de vectores de un espacio


V . El conjunto de todas las combinaciones lineales de los vectores

C;
(
vV : v=

W =

k
X

)
i vi ; k N, vi C y i R, i = 1, 2, . . . , k

i=1

es un subespacio de
Sea

un conjunto no vaco de vectores de un espacio vectorial

subespacio de

V.

V,

V.

El

de todas las combinaciones lineales de los vectores de

mencionado en el teorema anterior, es denominado el espacio gen-

C o simplemente, espacio generado por C.


C = {v1 , v2 , . . . , vn } (es nito), este espacio ser denotado por
hv1 , v2 , . . . , vn i o por gen {v1 , v2 , . . . , vn }.
erado por los vectores de

Cuando

Cuando consideramos un conjunto

de vectores de un espacio vectori-

al, es a veces importante determinar cundo algn vector o algunos de


los vectores de

se pueden expresar como combinaciones lineales de los

restantes vectores en

C.

Para ello, necesitamos de la denicin de de-

pendencia lineal de un conjunto de vectores y algunos resultados sobre


ella.
1.2.9.

Denicin
C

conjunto

(Independencia lineal) Sea C = {v1 , v2 , . . . , vn } un


de vectores (distintos) de un espacio vectorial V . Se dice que

v1 , v2 , . . . , vn son lin1 , 2 , . . . , n no todos nulos

es linealmente dependiente o que los vectores

ealmente dependientes, si existen escalares


tales que:

0 = 1 v1 + 2 v2 + + n vn =

n
X

i vi ,

i=1

en caso contrario, se dice que


vectores

v1 , v2 , . . . , vn

es linealmente independiente o que los

son linealmente independientes. Es decir,


10

es

Prerrequisitos

1.2. Espacios vectoriales

linealmente independiente si para los escalares


Pn
i=1 i vi , entonces

1 , 2 , . . . , n ;

si

0 =

1 = 2 = . . . , = n = 0 .
1.2.10.

Teorema.

En un espacio vectorial

se tiene:

1. Todo conjunto que contenga el vector nulo,

0,

es linealmente

dependiente.
2. Todo conjunto que contenga un subconjunto linealmente depen-

diente es linealmente dependiente.


3. Todo subconjunto de un conjunto linealmente independiente, es

linealmente independiente.

C = {v1 , v2 , . . . , vn }, n 2, es linealmente dependiente sii uno de los vectores de C es combinacin

4. Un conjunto de vectores

lineal de los restantes vectores de

1.2.1. Bases y dimensin.

C.

Dado un espacio vectorial

siones es til determinar un subconjunto


independientes que genere al espacio

V.

de

B.
de V

expresar como combinacin lineal de los vectores de

en oca-

Esto es, un conjunto de vectores

linealmente independientes mediante los cuales, cada vector de


esta seccin, tal conjunto

V,

de vectores linealmente

se llamar una base

se pueda

Como veremos en
y de acuerdo con

el nmero de elementos que contenga, tal base hablaremos de dimensin

nita o innita del espacio vectorial.

V
V,

Se dice que un espacio vectorial


conjunto nito

V.

de vectores de

es de dimensin nita, si existe un

C en
V con

tal que el espacio generado por

Por el contrario, si no es posible generar un espacio vectorial

un ningn subconjunto nito de vectores, diremos que dicho espacio tiene


dimensin innita. Ejemplos de stos ltimos espacios son: el conjunto
de funciones continuas denidas sobre

R,

o el conjunto de todos los poli-

nomios con variable real. Nosotros sin embargo slo trataremos aqu con
espacios de dimensin nita.
1.2.11.

Denicin

vectorial

V.

(Base)

Se dice que

Sea

un conjunto de vectores de un espacio

es una base de

si se tienen las dos condi-

ciones:
(i) El espacio generado por
(ii) El conjunto

es

V.

es linealmente independiente.
11

1.2. Espacios vectoriales

Prerrequisitos

V tiene una base B = {v1 , v2 , . . . , vn } compuesta


n vectores, entonces se puede demostrar que el nmero de vectores de
cualquier otra base de V es tambin n. Es decir, si un espacio vectorial
V tiene una base B con un nmero nito, n, de elementos, cualquier otra
base de dicho espacio vectorial, tiene exactamente n elementos. A dicho
nmero comn se le llama dimensin del espacio V y se dice que V es de
dimensin nita n y se escribe dim V = n.

Si un espacio vectorial
por

1.2.12.

Denicin.

un vector en

Sea

un subespacio de un espacio vectorial

V, v0

la variedad

L = {v V : v = v0 + w, w W } ,
si

dim W = k,

se dice que la variedad lineal

tiene dimensin

k.

El siguiente teorema resume algunos aspectos importante sobre bases de


espacios vectoriales, independencia lineal y conjuntos generadores.
1.2.13.

Teorema.

1. Si

Sea

un espacio vectorial de dimensin

B = {v1 , v2 , . . . , vn }

es un conjunto de

n.

vectores de

V,

entonces:

B es una base de V sii B es linealmente independiente.


B es una base de V sii B genera a V .
Si C = {u1 , u2 , . . . , ur } es un conjunto linealmente independiente, entonces r n.
Si C = {u1 , u2 , . . . , ur } es un conjunto linealmente independiente, con r < n, entonces existen n r vectores de V ; w1 , w2 ,
. . . , wnr , tales que B = {u1 , u2 , . . . , ur , w1 , . . . , wnr } es
una base de V.
Si C = {u1 , u2 , . . . , ur } genera a V entonces r n.
Si el conjunto C = {u1 , u2 , . . . , ur } genera a V y r > n, entonces existen n r vectores de C; w1 , w2 , . . . , wnr , tales que
B = C \ {w1 , w2 , . . . , wnr } es una base de V.
Si W es un subespacio de V entonces dim W n. Si dim W = n,
entonces W = V.
a)

b)

2.
3.

4.
5.

6.

1.2.14.

Teorema.

Si

son subespacios de un espacio vectorial

entonces

dim(U + W ) = dim U + dim V dim(U W ) .


12

Prerrequisitos

1.2. Espacios vectoriales

1.2.15. Nota. En el teorema anterior: U W = {0} sii dim(U + W ) =


dim U +dim V . Cuando U W = {0} al espacio U +W de V se le denomina
suma directa de U con W y se escribe U W en lugar de U + W . Adems,
en este caso para cada vector v U W , existen vectores nicos u U
y w W tales que v = u + w.
1.2.16.

Teorema.

Si

es un subespacio de un espacio vectorial

tonces existe un subespacio


El subespacio

de

tal que

V,

en-

U W = V.

del teorema anterior no es necesariamente nico y es

llamado complemento de

U.

Tambin se dice que

son subespacios

complementarios.

1.2.2. Coordenadas.

El conjunto de coordenadas de un espacio

respecto de una base es til en el estudio de las transformaciones lineales.


Para introducir este concepto es necesario denir primero lo que es una
base ordenada de un espacio vectorial

V.

En la denicin 1.2.11 era irre-

levante en qu orden apareciera los elementos de una base. Sin embargo,


a partir de ahora el orden ser importante. En tal sentido, nosotros consideramos la siguiente denicin.

Denicin

(Base ordenada) Si v1 , v2 , . . . , vn es una sucesin


nita de vectores linealmente independientes de un espacio vectorial V,
1.2.17.

que generan a

V , entonces
V.

diremos que

B = {v1 , v2 , . . . , vn }

es una

base ordenada de
1.2.18.

Teorema.

Si

B = {v1 , v2 , . . . , vn } es una base ordenada de V ,


v V existen escalares 1 , 2 , . . . , n nicos

entonces para cada vector


tales que

v = 1 v1 + 2 v2 + + n vn =

n
X

i vi ,

i=1

Denicin.

Sea

V.

Sea

B = {v1 , v2 , . . . , vn } una base ordenada de un


v un P
vector de V y sean 1 , 2 , . . . , n los esn
calares nicos tales que v =
i=1 i vi , el vector (vector columna) de
coordenadas de v respecto de la base ordenada B se denota por [v]B y se
1.2.19.

espacio vectorial

dene as:

1
2

[v]B = . .
.
.
n
13

1.2. Espacios vectoriales

Prerrequisitos

u y v son dos vectores de V


[u]B + [v]B y [u]B = [u]B .

Si

y si

es un escalar, entonces

[u + v]B =


T
n1 (matriz n1) c = 1 2 n
vector v de V tal que [v]B = c, a saber v =

De otro lado, a cada vector


le corresponde un nico

Pn

i=1

i vi .

As, cada base ordenada


ca,

v [v]B ,

de

determina una correspondencia biunvo-

entre los espacios

Mn1 ,

que preserva las suma de

vectores y la multiplicacin de un escalar por un vector. Ms an, preserva la independencia lineal; sto es, el conjunto

C = {u1 , u2 , . . . , uk } es
V sii el conjunto

un conjunto de vectores linealmente independientes de

C = {[u1 ]B , [u2 ]B , . . . , [ uk ]B }
independientes de Mn1 .

es un conjunto de vectores linealmente

V = Rn y B = {e1 , e2 , . . . , en } sea la base cannica,


e1 = (1, 0, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0),. . . , en = (0, 0, 0, . . . , 1),

En el caso en que
con

la mencionada correspondencia est dada por

x1
x2

x = (x1 , x2 , . . . , xn ) [x]B = . .
..
xn
En algunas situaciones resulta conveniente tener presente esta correspondencia, que utilizaremos identicando a

con

[x]B .

1.2.3. Producto interno. Bases ortonormales.

En este aparta-

do consideraremos los conceptos de producto interno y de bases ortonormales que nos ser particularmente tiles en el captulo 3 al tratar la
diagonalizacin de matrices simtricas.
1.2.20.

Denicin (Producto interno).

adems

u, v

ducto interno en

V un espacio vectorial. Sean


V y un escalar real. Un proh; i : V V R que satisface las
Sea

vectores arbitrarios de

es una funcin

propiedades:
(i)
(ii)
(iii)
(iv)

hu; vi = hv; ui.


hu; ui 0 y hu; ui = 0 si y slo
hu; vi = hu; vi.
hu + v; wi = hu; wi + hv; wi.
14

si

u = 0.

Prerrequisitos

Observacin.

1.2. Espacios vectoriales

B es una base ordenada de un espacio vectorial V ,


T
entonces la funcin h; i : V V R denida por hu; vi = [u]B [v]B es
n
un producto interno. En particular, si V = R y B es la base cannica de
n
R , se tiene que
Si

hx; yi = [x]B [y]B = x1 y1 + x2 y2 + + xn yn ,


x = (x1 , x2 , . . . , xn )

donde

y = (y1 , y2 , . . . , yn ).
Rn con este producto interno (producto
x y o xT y para indicar a hx; yi.

En lo que sigue consideraremos a


escalar) y a veces escribiremos
Si

h; i

V , la norma o
v de V se denota por kvk y se dene as: kvk =
kvk = 1, se dice que v es un vector unitario.

es un producto interno sobre un espacio vectorial

longitud de un vector

p
hv; vi.
1.2.21.

Cuando

Teorema

(Desigualdad de Schwarz)

al con producto interno

h; i.

Sea

un espacio vectori-

Para cada par de vectores

de

se

satisface la desigualdad

|hu; vi| kuk kvk .


Sean
si

u y v vectores de un espacio vectorial V con producto interno h; i,


v no son nulos, la medida del ngulo entre ellos se dene como
|hu; vi|
= arc cos
.
kuk kvk

1.2.22.

Denicin.

Sea

un espacio vectorial con producto interno

h; i:

u y v de V son ortogonales si hu; vi = 0.


C = {v1 , v2 , . . . , vn } de vectores de V
es ortogonal si hvi ; vj i = 0 para i 6= j,
i, j = 1, 2, . . . , n.
Se dice que un conjunto C = {v1 , v2 , . . . , vn } de vectores de V
es ortonormal si C es ortogonal y cada vector de C es unitario,

1. Se dice que dos vectores

2. Se dice que un conjunto


3.

o sea si:

(
1
hvi ; vj i = ij =
0

si i = j
; i, j = 1, 2, . . . , n .
si i =
6 j

C1 y C2 de vectores son
ortogonales, si para cada par de vectores u C1 y v C2 ,
hu; vi = 0.

4. Se dice que dos conjuntos no vacos,

15

1.3. Transformaciones lineales

Prerrequisitos

Teorema. Sea V un espacio vectorial con producto interno h; i.


C = {v1 , v2 , . . . , vn } es un conjunto ortogonal que no contiene al
vector 0, entonces C es linealmente independiente.

1.2.23.

Si

1.2.24.

Teorema

(Proceso de ortogonalizacin de Gram-Schmidt)

Sea

W un subespacio no nulo de un espacio vectorial V de dimensin nita


k con producto interno h; i y sea B = {w1 , w2 , . . . , wk } una base de
W. Entonces C = {v1 , v2 , . . . , vk } es una base ortogonal de W y C =
{v1 , v2 , . . . , vk } es una base ortonormal de W , donde:
v1
v2
v3

= w1
hw2 ; v1 i
v1
hv1 ; v1 i
hw3 ; v1 i
hw3 ; v2 i
= w3
v1
v2
hv1 ; v1 i
hv2 ; v2 i
= w2

.
.
.

vk

= wk

k1
X
i=1

y donde

vi =

vi
kvi k

para

hwk ; vi i
vi ,
hvi ; vi i

i = 1, 2, . . . , k.

Teorema.

Sean v1 , v2 , . . . , vk vectores no nulos de un espacio


V de dimensin n > k , con producto interno h; i. Si C1 =
{v1 , v2 , . . . , vk } es un conjunto ortogonal (respectivamente ortonormal),
entonces existe un conjunto ortogonal (respectivamente ortonormal) C2 =
{w1 , w2 , . . . , wnk } de vectores de V tal que B = C1 C2 es una base
ortogonal (ortonormal) de V. Ms an, si U = hv1 , v2 , . . . , vk i y si
W = hw1 , w2 , . . . , wnk i entonces V = U W y adems, U y W son
1.2.25.

vectorial

ortogonales.

1.3. Transformaciones lineales


En esta seccin consideraremos los aspectos ms importantes sobre las
transformaciones lineales. En lo que sigue;

U, V

denotarn espacios

vectoriales.
1.3.1.

Denicin.

Una funcin

T : U V es una transformacin lineal,


u1 , u2 en U y todo escalar , se tiene

si para cualquier para de vectores


que:

16

Prerrequisitos
(i)
(ii)
1.3.2.

1.3. Transformaciones lineales

T (u1 + u2 ) = T (u1 ) + T (u2 )


T (u1 ) = T (u1 ).

Ejemplo.

Algunos ejemplos de transformaciones lineales son:

1. Para cada

U,

la funcin idntica

A Mmn ,
x y = Ax. 

2. Para cada matriz


por
1.3.3.

Teorema.

U y V espacios vectoriales, B = {u1 , u2 , . . . , un }


T : U V es una transformacin lineal. Entonces T
determinada por los vectores T (u1 ), T (u2 ), . . . , T (un ).

una base de
queda

I : U U, u I(u) = u.
A : Rn Rm , denida

la funcin

Sean

Asociados a toda transformacin lineal hay dos subespacios importantes


a saber; su ncleo y su imagen. El primero de ellos corresponde a todos

lo elementos del espacio


espacio

V;

que son transformados en el elemento nulo del

V
U. En forma ms precisa

el segundo, corresponde a todos los elementos del espacio

que tienen al menos una preimagen en el espacio


tenemos
1.3.4.

Denicin.

T :U V

Sea

1. El ncleo de

es una transformacin lineal.

se denota por

N (T )

y se dene as:

N (T ) = {u U : T (u) = 0} .
2. La imagen de

se denota por

Img(T )

y se dene as:

Img(T ) = {T (u) : u U } .
1.3.5.

Denicin.

Sea

1. Diremos que

T :U V

una transformacin lineal.

es inyectiva (biunvoca o uno a uno), si dos ele-

mentos distintos

u1 , u2 U ,

tienen imagen distinta. Esto es si

y slo si

u1 6= u2

implica

2. Diremos que

T (u1 ) 6= T (u2 );

para todo

u1 , u2 U.

es sobreyectiva (o simplemente sobre), si cada

elemento de del espacio

posee al menos una preimagen en

U.

Esto es si y slo si
Para todo

vV

existe un

uU

tal que

T (u) = v.

El siguiente teorema resume algunos aspectos bsicos de las transformaciones lineales.


17

1.3. Transformaciones lineales


1.3.6.

de

Teorema.
y sea
1.
2.
3.
4.
5.

6.

B = {u1 , u2 , . . . , un }

Sea

T :U V

un subconjunto de vectores

una transformacin lineal y .

N (T ) es un subespacio vectorial de U.
T es inyectiva sii N (T ) = {0} .
Img(T ) es un subespacio vectorial de V.
Si B es una base de U , entonces {T (u1 ), T (u2 ), . . . , T (un )} genera al espacio Img(T ).
Si T es inyectiva y B es linealmente independiente, entonces
{T (u1 ), T (u2 ), . . . , T (un )} es un subconjunto linealmente independiente de vectores de V .
dim N (T ) + dim Img(T ) = dim U .

A la dimensin de

Img(T )

Prerrequisitos

N (T )

se llama rango de

se le llama nulidad de

y a la dimensin de

T.

1.3.1. Matriz de una transformacin lineal referida a un par


de bases ordenadas. A cada transformacin lineal se le puede asignar
una matriz

A,

la cual est determinada por las bases de los espacios vec-

toriales involucrados en dicha transformacin. Veremos en esta seccin,


que una tal asignacin simplicar muchos clculos. Es decir, ser ms
conveniente trabajar con la matriz asociada a una transformacin lineal
(referida a ciertas bases), que con la transformacin lineal misma.

Denicin.

U y V espacios vectoriales, T : U V una transB1 = {u1 , u2 , . . . , un } y B2 = {v1 , v2 , . . . , vm }


bases ordenadas de U y de V respectivamente. La matriz de T referida a
las bases B1 y B2 se denotar por [T ]B B y corresponde a la matriz mn
1 2

1.3.7.

Sean

formacin lineal y sean

dada por:

[T ]B1 B2 =
1.3.8.

Teorema.

[T (u1 )]B2

[T (u2 )]B2

[T (un )]B2

U y V espacios vectoriales, T : U V una transB1 = {u1 , u2 , . . . , un } y B2 = {v1 , v2 , . . . , vm }


U y de V respectivamente. Para cada u U se tiene

Sean

formacin lineal y sean


bases ordenadas de
que:

[T (u)]B2 = [T ]B1 B2 [u]B1 .

Nota.

Por el teorema anterior y por el teorema 1.3.3, la transforma-

T queda completamente determinada


B1 y B2 , y de la matriz [T ]B1 B2 .

cin lineal
las bases

18

por el conocimiento de

Prerrequisitos

1.3. Transformaciones lineales

1.3.2. lgebra de transformaciones lineales. Inversa de una


transformacin lineal. En esta seccin consideraremos las operaciones
de suma, multiplicacin por un escalar y composicin entre transformaciones lineales. As mismo veremos la relacin existente entre las matrices
asociadas correspondientes. En este apartado

U, V

denotan espacios

vectoriales.
1.3.9.

Teorema.

Sean

T : U V y S : U V transformaciones lineales
B1 y B2 bases ordenadas de U y V, respec-

un escalar. Sean adems

tivamente:

1. La suma de

T (u) + S(u)

S ; (T + S) : U V,

denida por

(T + S)(u) =

es una transformacin lineal. Ms an

[T + S]B1 B2 = [T ]B1 B2 + [S]B1 B2 .


2. La funcin mltiplo escalar de

(T )(u) = T (u)

T ; (T ) : U V,

denida por

es una transformacin lineal. Ms an

[T ]B1 B2 = [T ]B1 B2 .

Nota.

El conjunto de todas las transformaciones lineales de

L(U, V ),

en

V,

junto con las operaciones mencionadas en el teorema anterior

es un espacio vectorial. adems, si

dim U = n

dim V = m

entonces

dim L(U, V ) = m n.
B1 de U determina la
correspondencia biunvoca entre los espacios vectoriales V y Mm1 , dada

De otro lado, de la misma forma como una base

por , v [v]B ; las bases B1 y B2 de U y V , determinan la corresponden2


cia biunvoca entre los espacios L(U, V ) y Mmn , la cual est dada por
T [T ]B B . Esta correspondencia preserva la suma de vectores y la mul1

tiplicacin de un escalar por un vector, tal como se establece en el teorema


anterior. En otras palabras, esta correspondencia es una transformacin
lineal.
1.3.10.

Teorema.

T : U V y S : V W transformaciones
S T : U W es una transformaB1 , B2 y B3 representan bases ordenadas para los

Sean

lineales. Entonces, la composicin


cin lineal. Si adems,
espacios

U, V

respectivamente, entonces se tiene que:

[S T ]B1 B3 = [S]B2 B3 [T ]B1 B2 .


19

1.4. Espacios fundamentales de matrices

Teorema.

1.3.11.

Si

Prerrequisitos

T : U V es una transformacin lineal biyectiva,


T , T 1 : V U es una transformacin

entonces la funcin inversa de


lineal y la matriz

[T ]B1 B2

es invertible. Adems,

T 1

= [T ]B1 B2 .

B2 B1

1.3.3. Matrices semejantes. Cambio de base.

Los conceptos

de matrices semejantes y cambio de base nos sern particularmente tiles


en el captulo 4 para el estudio de los valores propios y los vectores propios
de una transformacin lineal.
1.3.12.

Denicin (Matrices semejantes).


n,

de orden
vertible
1.3.13.

B
B = P 1 AP.

se dice que

tal que

Denicin

Sean

(Matriz cambio de base)

nadas del espacio vectorial

U,

AyB

matrices cuadradas

son semejantes, si existe una matriz in-

B1 y B2 bases ordela transformacin lineal

Sean

I :U U

y sea

P = [I]B1 B2 se denomina matriz


B1 a la base B2 , (sto debido a lo enunciado
= [T ]B1 B2 [u]B1 ).

idntica. La matriz

de cambio de base de

la base

por el teorema 1.3.8,

[u]B2

1.3.14.

Teorema.

Sean

bases ordenadas de

T :U U

una transformacin lineal y

B1

B2

U.

B1 a la base B2 , P =
es invertible y su inversa es la matriz de cambio de base

1. La matriz de cambio de base de la base

[I]B1 B2 ,

de la base

B2

2. Las matrices

a la base B1 .
A = [T ]B2 B2

B = [T ]B1 B1

son matrices seme-

jantes, adems se tiene


1

[T ]B1 B1 = [I]B1 B2 [T ]B2 B2 [I]B1 B2 = P 1 [T ]B2 B2 P .

1.4. Espacios fundamentales de una Matriz. Rango de una


matriz. Sistemas de ecuaciones lineales
En esta seccin consideraremos los llamados espacios fundamentales de

A. Dos de estos espacios son precisamente el ncleo y la imagen


x y = Ax, los cuales estn relacionados con
conjunto solucin de un sistema de ecuaciones lineales Ax = y. El

una matriz

de la transformacin lineal
el

lector recordar de los resultados de un primer curso de lgebra lineal,


que el espacio la y es espacio columna de
ese nmero comn se le denomina rango de
20

A tienen igual dimensin.


A y se denota por (A).

Prerrequisitos
Sea

1.4. Espacios fundamentales de matrices

una matriz

m n.

El subespacio de

se denomina espacio la de

Rn

A
F(A) =

generado por las las de

y lo denotamos por

F(A);

esto es,

hA1 , A2 , . . . , Am i . El subespacio de Rm generado por las columnas de


A se denomina
columna de A y lo denotamos por C(A); esto

1 espacio

2
n
es, C(A) = A , A , . . . , A
. El espacio formado todas soluciones de un
sistema homogneo de ecuaciones lineales Ax = 0 se denomina espacio
nulo de una matriz, esto es, el espacio nulo es el conjunto

N (A) = {x Rn : Ax = 0} .
De otro lado, el subespacio de

Img(A)

Rn ;

= {Ax : x Rn }
= {y Rm : y = Ax para

se denomina imagen de
1.4.1.

Teorema.

algn

x Rn } .

A.

Para cualquier matriz

se tiene que

dim F(A) = dim C(A) .


1.4.2.

Teorema.
1.

F(A)

Sea

N (A)

una matriz arbitraria entonces:


son ortogonales. sto es, sus elementos son or-

togonales entre si.


t
2. C(A) y N (A ) son ortogonales. sto es, sus elementos son ortogonales entre si.
1.4.3.

Teorema.

Sean

matrices de tamao adecuado, tales que las

operaciones siguientes estn denidas.


1.

C(AB) C(A) y F(AB) F(B).


P y Q son matrices invertibles de tamao apropiado
a ) C(A) = C(AQ).
b ) F(A) = F(P A).
C(A + B) C(A) + C(B) y F(A + B) F(A) + F(B).
T
Para cualquier matriz A se tiene que: N (A) = N (A A).

2. Si

3.
4.

Nota.
R es
F(R).
si

1.4.4.

lineal

Segn el inciso 2(b) del teorema anterior y segn el teorema 1.1.10,


la forma escalonada reducida de la matriz

A,

entonces

Teorema.

F(A) =

Sea A una matriz mn. La imagen de la transformacin


A : Rn Rm , x y = Ax, es el espacio columna de A; esto es,

Img(A) = C(A)

=
21

{Ax : x Rn } .

1.4. Espacios fundamentales de matrices

Nota.

Prerrequisitos

De acuerdo con el inciso (3) del teorema 1.3.6 y de acuerdo con

los teoremas 1.4.1 y 1.4.4: si

es una matriz

m n,

entonces

dim N (A) + dim F(A) = n.


Anlogamente, puesto que

F(At ) = C(A),

dim N (AT ) + dim C(A) = m.


De otra parte, con base en la nota 1.2.15,

Rn = F(A) N (A)

Rm = C(A) N (AT ),

F(A) y N (A) de Rn son complementarios.


C(A) y N (At ) de Rm son complementarios.

es decir, los subespacios


mismo, los subespacios

As

x Rn y cada y Rm se pueden expresar


en forma nica as: x = f + n y y = c + u, donde f , n, c y u pertenecen
T
a F(A), N (A), C(A) y N (A ), respectivamente (ver gura 1.1).
Esto implica entonces, que cada

IR

IR

F (A)

C (A)

x=f+n

y=c+u

Ax=Af
f

c
n

N (AT)

N (A)
Figura 1.1. Transformacin lineal

Nota.

Segn las deniciones, el ncleo de la transformacin lineal

y = Ax

es el espacio nulo de

De otro lado, si denimos el rango de la matriz


de la transformacin lineal

x y = Ax,

es la dimensin del espacio columna de

1.4.5.

Teorema.
1.

(A)
(A)

una matriz

A, (A),

como el rango

entonces tenemos que rango de

A.

m n,

entonces:

es igual al nmero mximo de las linealmente independi-

entes de
2.

Sea

A.

A.

es el nmero mximo de columnas linealmente independi-

entes de

A.
22

Prerrequisitos
3.

(A)

1.4. Espacios fundamentales de matrices


es el nmero de las no nulas de la forma escalonada re-

ducida de

A.

A, (A) = (AT ) = (AAT ) = (AT A).


A es una matriz m n y B es una matriz n k , entonces
(AB) (A) y (AB) (B).
Si P es una matriz invertible mm y Q es una matriz invertible
n n, entonces (A) = (P A) = (AQ) = (P AQ).
Si A y B son matrices m n, entonces (A + B) (A) + (B).

4. Para cualquier matriz


5. Si
6.
7.
1.4.6.

Teorema.

Sea

una matriz

1. El sistema de ecuaciones
2. El sistema de ecuaciones

la matriz

[A | y],

A es

mn

y sea

un vector

m 1.

Ax = y tiene solucin sii y C(A).


Ax = y tiene solucin sii el rango de

igual al rango de la matriz aumentada del sistema

es decir sii

(A) = ([A| y]).

3. Para el sistema de ecuaciones lineales

Ax = y

se da una y slo

una de las opciones siguientes:


a ) El sistema no tiene solucin, en cuyo caso

y
/ C(A).

b ) El sistema tiene innitas soluciones, en cuyo caso su conjunto solucin es una variedad lineal de la forma

S = {xp + xh : xh N (A)} ,
xp
Axp = y,
donde

es una solucin particular del sistema; sto es,


adems,

dim N (A) > 0.

c ) El sistema tiene una nica solucin. En este caso se tiene


que

N (A) = {0 }

El teorema siguiente recoge, tericamente, el mtodo de Gauss-Jordan


para resolver sistemas de ecuaciones lineales.

Teorema.

A una matriz m n y y un vector n 1. Si P


m m tal que P A = R, donde R es la forma
escalonada reducida de A, entonces Ax = y sii Rx = P y; esto es, los
sistemas de ecuaciones lineales Ax = y y Rx = P y tienen el mismo
conjunto solucin. En particular, si y = 0; Ax = 0 sii Rx = 0.

1.4.7.

Sean

es una matriz invertible

1.4.8.

Teorema (Resumen).

Sea

una matriz cuadrada de orden

armaciones siguientes son equivalentes:


1.
2.

det(A) 6= 0.
A es invertible.

3. La forma escalonada de

en

23

In .

n.

Las

1.4. Espacios fundamentales de matrices


A

4. Los vectores la de


5. El espacio la de

Prerrequisitos

son linealmente independientes.


Rn , es decir, F(A) = Rn .

es

A son linealmente independientes.


A es Rn , es decir, C(A) = Rn .
A es n.

6. Los vectores columna de


7. El espacio columna de
8. El rango de la matriz
9.

N (A) = {0}.

10. El sistema de ecuaciones lineales

Ax = 0

tiene la nica solucin

x = 0.
11. Para todo

y Rn ,

El sistema de ecuaciones lineales

Ax = y

tiene solucin.
Por ltimo, consideramos un mtodo para calcular una base de cada uno
de los espacios fundamentales de una matriz

mn arbitraria A. El mtodo

consiste en efectuar los pasos siguientes:

 T

A | In .

Paso 1

Forme la matriz

Paso 2

Efecte operaciones elementales sobre las las de la matriz


anterior hasta obtener la forma escalonada reducida. Al nal
se obtiene la matriz que podemos describir por bloques as:

Erm
0(nr)m
donde

.
.
.
.
.
.

Prn

P(nr)n

r = (A).

Los vectores la de la matriz

C(A)

base para

conforman una base para

C(AT ) = F(A)

P(nr)n

conforman una

N (A).

Al llevar a cabo el paso 2 con la matriz


para

Erm

y los vectores la de la matriz

N (AT ).

24

[A | Im ]

se obtienen sendas bases

CAPTULO 2

Matrices particionadas. Traza de una matriz


Este captulo consta de tres secciones. Las dos primeras versan sobre matrices particionadas. La tercera seccin trata sobre la traza de una matriz.
Consignaremos aqu los principales resultados sobre la traza de una ma-

A, algunas de ellas
A. (ii) La particin
exhibir detalles particulares e interesantes de A. (iii) La particin
permitir simplicar clculos que involucran la matriz A.

triz. Existen razones para querer particionar una matriz


son: (i) La particin puede simplicar la escritura de
puede
puede

2.1. Submatrices. Operaciones con matrices


particionadas
A veces es necesario considerar matrices que resultan de eliminar algunas
las y/o columnas de alguna matriz dada, como se hizo por ejemplo,
al denir el menor correspondiente al elemento

[aij ]mn
2.1.1.

aij

de una matriz

A =

(vase el apartado 1.1.3 del captulo 1).

Denicin.

Sea

una matriz. Una submatriz de

es una matriz

que se puede obtener al suprimir algunas las y/o columnas de la matriz

A.
2.1.2.

Ejemplo.

Las matrices

S1 , S2

S3 dadas

a continuacin, sonson

submatrices de la matriz

1
A= 5
9

S1 =

1
9

2
0

4
2

2
6
0

3
7
1

4
8 .
2


(suprimiendo en

25

la la 2 y la columna 3)

2.1. Submatrices

S2 =

S3 =

1
9

2
0

2
6

3
7

Matrices particionadas

3
7

4
8


(suprimiendo en

la la 3)


A

(suprimiendo en

A = [aij ]mn ;

Dada una matriz

la la 3 y las columnas 1 y 4).

mediante un sistema de rectas horizon-

tales o verticales podemos particionarla en submatrices de

A,

como se

ilustra en el siguiente ejemplo:

a11

a21

= a31

a41

.
.
.

a12

a13

.
.
.

.
.
.

a22

a23

.
.
.

a32

a33

.
.
.

a42

a43

.
.
.

.
.
.

a52

a53

.
.
.

.
.
.

a51

.
.
.

a14

a24

a34

a44

a55

Hecho esto, podemos escribir, usando una notacin obvia:


A=

A11
A21

A12
A22

A13
A23

donde

A11

a11
= a21 ,
a31


A21 =

a41
a51

A12

a12
= a22
a32


,

A22 =

a42
a52

a13
a23 ,
a33

a43
a53

A13

a14
= a24 ,
a34


,

A23 =

a44
a55


.

Debe ser claro para el lector, que una matriz puede ser particionada de
diferentes maneras, por ejemplo:
26

Matrices particionadas

A =

.
.
.

A =

2.1. Submatrices

.
.
.



2
1
=


1
1

.
.
.

2
0

.
.
.
.
.
.

.
.
.

.
.
.

1
.

.
.
.

.
.
.

Tal vez, la principal conveniencia de particionar matrices, es que se puede


operar con matrices particionadas como si las submatrices fuesen elementos ordinarios, tal como se establece en el teorema siguiente.
2.1.3.

Teorema.
1. Si las matrices

A11
A21

A= .
..
Am1

A12
A22

.
.
.

..

Am2

estn particionadas as:

A1n
B11
B21
A2n

y B = ..
.
.
.

.
Amn
Bm1

B12
B22

.
.
.

..

Bm2

B1n
B2n

.
.

.
Bmn

Aij +Bij estn denidas para i = 1, 2, . . . , m, j =


1, 2, . . . , n, entonces

A11 + B11
A12 + B12
A1n + B1n
A21 + B21
A22 + B22
A2n + B2n

A+B =
.
.
.
.
..
.
.
.

.
.
.
.
Am1 + Bm1 Am2 + Bm2 Amn + Bmn
y si las sumas

estn particionadas as:

A12
A22

.
.
.

..

Am2

A1n
B11
B21
A2n

y B = ..
.
.

.
.
Amn
Bn1

2. Si las matrices

A11
A21

A= .
..
Am1

27

B12
B22

.
.
.

..

Bn2

B1s
B2s

.
.

.
Bns

2.1. Submatrices

Matrices particionadas
Aik es igual al nmero
Bkj ; i = 1, 2, . . . , m, k = 1, 2, . . . , n, j =

y si el nmero de columnas de cada bloque


de las de cada bloque

1, 2, . . . , s,

entonces

C11
C21

AB = .
..
Cm1
n
X

Cij =

donde

C12
C22

.
.
.

..

Cm2

C1s
C2s

,
.
.

.
Cms

Aik Bkj .

k=1
3. Si la matriz A est particionada como en (1) y si

es un escalar,

entonces

A11
A21

A =
.
.

.
Am1
4. Si la matriz

.
.
.

..

Am2

A1n
A2n

.
.
.

.
Amn

est particionada como en (1) , entonces

AT11

AT21

ATn1

T
A12
=
..
.
AT1m

AT22

.
.
.
AT2m

..

ATn2
.

.
.

.
ATnm

AT

A12
A22

Los incisos (1), (3) y (4) del teorema anterior son fciles de vericar. La
demostracin del inciso (2) es laboriosa y no la haremos. Sin embargo, el
lector interesado puede consultar una indicacin de dicha demostracin
en [

10] pgina 19.

A continuacin ilustraremos el inciso (2) de dicho teorema.


Si

A= 2

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.

.
.
.

0
28

A11
4
=
A21

A12

A13

A23

A23

Matrices particionadas

2.2. Determinantes

B=

0
1

0
1

0
3

1
2

B11

= B21

B31

entonces

AB

A11 B11 + A12 B21 + A13 B31

8
7
5

4
= 2
2

=
A21 B11 + A22 B21 + A23 B31

pues


A11 B11

=


A12 B21

=


1
2

0
0

0
0



0
3

3
4

A13 B31

A21 B11

[1]

A22 B21

A23 B31

0
1


0
1

0
3

0
1

1
2

,
0
0


=
2

0
0

=
1
2

0
1

2
4

0
3

1
2


,

3
4

6
1


,

3
0

2.2. Determinantes e inversas de algunas matrices especiales


En algunas situaciones es conveniente utilizar matrices particionadas para
describir determinantes e inversas de ciertas matrices en trminos de las
submatrices. En particular, los teoremas 2.2.3 y 2.2.8, son usados en la
deduccin de las distribuciones condicionales de un vector aleatorio con

distribucin normal multivariante (vase el Teorema 3.6.1 de [ ])


29

2.2. Determinantes

Matrices particionadas

El lector recordar, que el determinante de una matriz triangular (superior o inferior) es justamente el producto de los elementos de la diagonal
principal. El siguiente teorema, por ejemplo, lo podramos ver como una
"generalizacin" de dicho resultado.
2.2.1.

Proposicin.

1. Si

M=


2. Si

M=

Sean

A
0
A
B

B
C

0
C

matrices cuadradas,

entonces

|M | = |A||C|.

entonces

|M | = |A||C|.

Demostracin. Para la demostracin del literal (1) usamos induc-

cin sobre el orden

Si

n=2

de la matriz

M.

|M | = ac = |A| |C| donde



 

A B
a b
M=
=
.
0 C
0 c

tenemos que

Supongamos ahora que (1) es vlida para


vlida para

y demostremos que es

n = k + 1 particionada como en (1).


j a la
C = [cij ]ss . Denotemos por B
j
submatriz de B que se obtiene suprimiendo en B la columna j y por C
a la submatriz de C que se obtiene suprimiendo en C la columna j y la
la s, j = 1, 2, . . . , s.

Sea

n=k

n = k + 1.

una matriz cuadrada de orden

Suponga adems que

B = [bij ]rs

Ahora, desarrollando el determinante de

por los cofactores de la la

(vase el Teorema 1.1.5(1)), obtenemos:

det(C) = cs1 (1)s+1 |C 1 | + cs2 (1)s+2 |C 2 | + . . . + css (1)s+s |C s |.

As mismo, desarrollando el determinante de


la

k+1

obtenemos:
30

por los cofactores de la

Matrices particionadas

det(M )

2.2. Determinantes



1
A B


cs1 (1)
0 C 1 +


2
A B

+cs2 (1)2(k+1)s+2
0 C 2

s

B
2(k+1)s+s A
+ . . . + css (1)
0 C s
2(k+1)s+1

Utilizando la hiptesis de induccin se obtiene:

det(M )


(1)2(k+1)2s cs1 (1)s+1 |A| |C 1 | + cs2 (1)s+2 |A| |C 2 |

+ . . . + css (1)s+s |A| |C s |


= |A| cs1 (1)s+1 |C 1 | + cs2 (1)s+2 |C 2 | + . . . +

+css (1)s+s |C s |
= |A| |C| .
Lo que completa la demostracin de (1).
La demostracin de (2) se sigue del hecho de que



|M | = M T

(teore-

ma 1.1.6(1)) y del inciso (1). En efecto, se tiene:

det(M )

det(M T )

det

det(AT ) det(C T )

det(A) det(C)

A
0

B
C


2.2.2.

Ejemplo.

Use particin de matrices y los resultados de la proposi-

cin anterior para calcular el determinante de cada una de las matrices


siguientes:
31

2.2. Determinantes

Matrices particionadas

7
M = 4
3

1
1
N =
0
0

0
5
7

0
6
9

2
3
0
0

4
6
2
3

5
7
,
3
5

las cuales se pueden particionar respectivamente como sigue:


M =

.
.
.

.
.
.

.
.
.

.
.
.

0


= A

B
6

0
C

.
.
.

.
.
.

.
.
.

.
.
.

.
.
.

N =

Entonces


5
|M | = |7|
7


6
= 21
9


1
|N | =
1


2 2
3 3


3
= 1. 
5

El siguiente teorema nos brinda una alternativa para calcular determinantes de matrices ms generales particionadas por bloques.
2.2.3.

Teorema.
1. Si
2. Si


Sean

matrices cuadradas y sea

M=

A
C

B
D


.



D es invertible, entonces |M | = |D| A BD1 C .
A es invertible, entonces |M | = |A| D CA1 B .

Demostracin. Haremos slo la demostracin del literal (1), el se-

gundo resultado se verica de manera anloga y se deja como ejercicio al


lector.
32

Matrices particionadas

Sea

S =

2.2. Determinantes

I
D1 C

0
I


.

Entonces

MS =

A BD1 C
0

B
D


.

Ahora por el teorema 1.1.6(9) y por la proposicin anterior, se tiene :



|M | = |M | |I| |I| = |M | |S| = |M S| = |D| A BD1 C .


Los siguientes resultados son consecuencia inmediata de este teorema y


sus vericaciones se dejan como ejercicio.
2.2.4.

Corolario.

Sean

A, B, C

matrices cuadradas de orden

y sea

la matriz dada por


M=

1. Si
2. Si
3. Si
4. Si
2.2.5.

A
C

B
D


.

D es invertible y si DB = BD, entonces |M | = |DA BC|.


A es invertible y si AC = CA, entonces |M | = |AD CB|.
D = 0 y A es invertible, entonces |M | = (1)n |B| |C|.
A = 0 y D es invertible, entonces |M | = (1)n |B| |C|.

Ejemplo.

Utilizando los resultados del corolario anterior encon-

M yN

1 2
1 3
N =
4 5
3 3

tremos los determinantes para las matrices

1
M = 1
1
Particionemos entonces

2
3
1

4
5
1

Para

tomamos

Puesto que

dadas por:

2
2
0
0

1
3
.
0
0

B
D

de adecuadamente.
.
.
.
.
.
.

.
.
.

4

A
5
=
C

, siendo

es una matriz invertible entonces,




3
1

|M | = |D| A BD C = |1|
4
33


2
= 2 .
2

D = [1].

2.2. Determinantes

Matrices particionadas
.
.
.

1
Similarmente para

N, N =

siendo

A=

1
1

2
3

.
.
.

.
.
.

4
3

.
.
.


3

A

=

B
0


,


A

. Dado que

es invertible tenemos que

|M | = (1)2 |B| |C| = 12 .


2.2.6.

Proposicin.

Sean


1. La matriz

M=

A
0

matrices cuadradas.

B
C


es invertible sii las matrices

son invertibles. Adems, si

M 1 =

2. La matriz

M=

A1
0

A
B

0
C


=

es invertible entonces

A1 BC 1
C 1


.


es invertible sii las matrices

son invertibles. Adems, si

es invertible entonces

A1
1
C BA1

0
C 1


.

La prueba de este resultado se propone como ejercicio. El ejemplo siguiente, nos ilustra el inciso (1) de la proposicin anterior.
2.2.7.

Ejemplo.

Verique que la matriz

1
1
M =
0
0

2
3
0
0

es invertible y calcule su matriz inversa.


34

1
1
2
5

1
1

1
3

Matrices particionadas

2.2. Determinantes

Observando la estructura de la matriz


.
.
.

particin es: M =

.
.
.

.
.
.

las matrices

.
.
.

podemos ver que una buena


1

=
0

M 1 =

A1
0

A1 BC 1
C 1


. Puesto que

son invertibles, entonces

B
C

3
1
=
0
0

tambin lo es y adems,

2
2 1
3
0
0
.
0
3 1
0 5
2


El siguiente teorema presenta una frmula para calcular inversas de matrices ms generales
2.2.8.

Teorema.

B=

Si

B 1

Sea

B11
B21

B12
B22

una matriz invertible particionada as:


,

con

B11

B22

matrices invertibles.

A12
A22

est particionada as:

B 1 =

A11
A21

donde Aii (i = 1, 2), matrices cuadradas de igual orden que la matriz


respectivamente entonces:

1. Las matrices
2. Las matrices

A11 y A22 son invertibles.


1
1
B11 B12 B22
B21 y B22 B21 B11
B12

Bii

son inver-

tibles.
3. La matriz

B 1

est dada por

1
B11 B12 B22
B21

1

1
1
B22
B21 B11 B12 B22
B21

1
1
B11
B12 B22 B21 B11
B12

1
35

1
B22 B21 B11
B12

1

1

2.2. Determinantes

Matrices particionadas

Demostracin. De la igualdad

BB 1 =

B11
B21

B12
B22



A11
A21

A12
A22

I
0

0
I

=I

se obtienen las igualdades

B11 A11 + B12 A21


B21 A11 + B22 A21
B11 A12 + B12 A22
B21 A12 + B22 A22

(2.1)

=
=
=
=

I
0
0
I

Ahora, premultiplicando ambos miembros de (2.1(b)) por

1
B22
, se obtiene

1
B22
B21 A11 + A21 = 0,
Sustituyendo

A21

o sea,

1
A21 = B22
B21 A11 .

en (2.1(a)), se obtiene


1
B11 B12 B22
B21 A11 = I .
Esto quiere decir que las matrices

1
B11 B12 B22
B21

A11

son invertibles

y que una es la inversa de la otra.


Premultiplicando ambos miembros de (2.1(c)) por

1
A12 + B11
B12 A22 = 0,

Sustituyendo

A12

o sea,

1
B11
,

se obtiene :

1
A12 = B11
B12 A22 .

en (2.1(d)), se obtiene:


1
B22 B21 B11
B12 A22 = I .
Esto quiere decir que las matrices

1
B22 B21 B11
B12

A22

son invertibles

y que una es la inversa de la otra.


Por lo anterior,

1
A11 = B11 B12 B22
B21

1

1
1
A12 = B11
B12 B22 B21 B11
B12

1
1
A21 = B22
B21 B11 B12 B22
B21

1

1
A22 = B22 B21 B11
B12

1


A continuacin enunciamos y demostramos un teorema que involucra matrices particionadas y el rango de una matriz.
36

1

Matrices particionadas

2.3. Traza de una matriz





A11 A12
2.2.9. Teorema. Sea A =
, donde A11 es una
A21 A22
1
vertible r r. Si (A) = (A11 ), entonces A22 = A21 A11 A12 .
Demostracin. Puesto que

(A11 ) = r

A11

matriz in-

es una matriz invertible, entonces

(ver teorema 1.4.8).

Ahora, las matrices

P =

A21 A1
11

PQ =

A1
11 A12

|P | = |Q| = 1 6= 0. En consecuencia,
A y la matriz


A11
0
P AQ =
0
A22 A21 A1
11 A12

son invertibles, puesto que

por el

teorema 1.4.5, la matriz

tienen rango

r.

Puesto que el nmero mximo de las linealmente inde-

P AQ y A11 es r (vase el teorema 1.4.5(2)), en1


A22 A21 A1
11 A12 = 0, o sea A22 = A21 A11 A12 . 

pendientes de las matrices


tonces necesariamente

2.3. Traza de una matriz


En ciertos contextos, la suma de los elementos de la diagonal de una matriz
juega un papel importante. Por ejemplo, la traza de una matriz aparece en
la evaluacin de las integrales requeridas en el estudio de la distribucin

3
4

normal multivariante (vase el teorema 1.10.1 de [ ]) y el valor esperado


de formas cuadrticas (vase el teorema 4.6.1 de [ ]).

Denicin.

Sea A una matriz cuadrada. La traza


Tr(A) y se dene como la suma de los elementos
principal de A. sto es,
2.3.1.

ta por

Tr(A) =

n
X

de

se deno-

de la diagonal

hAiss .

s=1
2.3.2.

Nota.

Puesto que los elementos de la diagonal principal de

los mismos que los elementos de la diagonal principal de

Tr(A) = Tr(AT ) .
37

AT ,

son

entonces

2.3. Traza de una matriz


2.3.3.

Si

Teorema.

Sean

Matrices particionadas
y

son matrices cuadradas del mismo orden.

son escalares, entonces

Tr(A + B) = Tr(A) + Tr(B) .

Demostracin. Usando la estructura de espacio vectorial de las ma-

trices, as como la denicin de traza se tiene:

Tr(A + B)

=
=
=

n
X
s=1
n
X

hA + Biss
( hAiss + hBiss )

s=1
n
X

hAiss +

hBiss

s=1

s=1

n
X

Tr(A) + Tr(B) .


2.3.4.

Teorema.

Si

es una matriz

mn

es una matriz

nm

entonces

Tr(AB) = Tr(BA) .

Demostracin. Usando la denicin de traza y la denicin de pro-

ducto de matrices obtenemos,

Tr(AB)

=
=
=
=

n
X
s=1
n
X

hABiss
m
X

s=1 k=1
m X
n
X

hAisk hBiks
hBiks hAisk

k=1 s=1
m
X

hBAikk = Tr(BA) .

k=1


38

Matrices particionadas
2.3.5.

2.4. Ejercicios

Corolario.

matriz invertible

Sea A una matriz


n n, entonces

cuadrada de orden

n.

Si

es una

Tr(A) = Tr(P 1 AP ) = Tr(P AP 1 ).


Demostracin. Por el teorema anterior,

Tr(A)

Tr(AI) = Tr(AP P 1 ) = Tr(P 1 AP )

Tr(P P 1 A) = Tr(P 1 P A) = Tr(P AP 1 ).




2.3.6.

Corolario.

m n, entonces
m
n X
X
2
hAisk .
Tr(AAT ) = Tr(AT A) =
Si

es una matriz

s=1 k=1

Adems,

Tr(AA ) = 0

sii

A = 0.

Demostracin. Por denicin de traza y por el teorema 2.3.4,

Tr(AAT )

=
=

m
X

s=1
m
X

AAT


ss

n
m X
n
X
X

2
A sk A ks =
A sk ;

s=1 k=1
Esto es,

Tr(AAT )

esto se sigue entonces que,

si y slo si

s=1 k=1

A. De
Tr(AAT ) = Tr(AT A) y adems que Tr(AAT ) =


es la suma de los cuadrados de los elementos de

A = 0.

2.4. Ejercicios
1. Utilice matrices particionadas para calcular el determinante y la
matriz inversa (si existe) de cada una de las matrices siguientes
:

5
3
M1 =
3
2

3 0 0
2 0 0

2 2 1
1 5 3

3 1
2 1
M2 =
0 0
0 0

2. Demuestre el inciso (2) del teorema 2.2.3.


3. Demuestre el corolario 2.2.4.
4. Demuestre la proposicin 2.2.6.
39

1 1
1
1

1
1
4
5

2.4. Ejercicios

Matrices particionadas
a, b, c

5. Sean

escalares no nulos y sea

n N.

Calcule el deter-

minante y la matriz inversa, cuando exista, de la matriz


M=

bIn
dIn

A una matriz cuadrada de orden n y B

6. Sean

da de orden

aIn
cIn

C
B

A
0

k.

, entonces

|M | = (1)nk |A| |B|.

A
C


o si

M =

(Sug.: Utilice induc-

B ).

cin sobre el orden de la matriz


7. Sean

M =

Demuestre que si

una matriz cuadra-

0
B

matrices cuadradas.

a ) Dar condiciones necesarias y sucientes para que la matriz


M=

0
B

A
C

M es invertible,
A, B y C .

sea invertible. Si
de las matrices

exprese

M 1

en trminos

b ) Dar condiciones necesarias y sucientes para que la matriz


M=

C
B

A
0

M es invertible,
A, B y C .

sea invertible. Si
de las matrices

exprese

M 1

en trminos

8. Utilice los resultados que obtuvo en el problema anterior para


calcular la matriz inversa de cada una de las matrices siguientes:

0
0
M1 =
5
3
9. Sean

0
0
3
2

2
5
3
2

1
3

2
1

1 1 1
1 4 5
.
1 0 0
1 0 0

1
1
M2 =
3
2

A = [aij ]mn y B = [bij ]nk . Utilice matrices particionadas

para demostrar que:

a ) Si

tiene una la nula, entonces

(Sug.: Particione la matriz

b ) Si

AB

tiene una la nula.

por las).

tiene una columna nula, entonces

AB tiene una columB por columnas).

na nula. (Sugerencia: Particione la matriz


40

Matrices particionadas

2.4. Ejercicios

A11 , A22 y A33 matrices cuadradas.

A11 A12 A13


A11
A22 A23 M = A21
M = 0
0
0
A33
A31

10. Sean

Demuestre que si

0
A22
A32

0
0
A33

|M | = |A11 | |A22 | |A33 |.


A11 , A22 y A33 son matrices invertibles,
la matriz M = diag (A11 , A22 , A33 ) es invertible y

1
A11
0
0
M 1 = 0
A1
0
22
0
0
A1
33

entonces

11. Demuestre que si


tonces

12. Sean

aR

en-

Ann una matriz invertible, entonces




a x
det
= |A| (a xA1 y).
y A
y

(Sugerencia: Use el teorema 2.2.3)


13. Verique que


det

I
B

A
C


= det(C BA).

(Sugerencia: Use el corolario 2.2.4)


14. Muestre que


det
y concluya que

In
A

B
Im


= det

Im
B

A
In

|Im AB| = |In BA|.

15. Suponga que las matrices que abajo aparecen son de tamao
apropiado, donde

es la matriz identica y que

invertible. Encuentre matrices

A11

sige tiene la forma indicada. Encuentre adems

I
X
Y

0 0
A11
I 0 A21
0 I
A32

A12
B11
A22 = 0
A33
0

B22 .

B12
B22
B32

A es una matriz invertible 2 2, entonces


Tr(A) = det(A) Tr(A1 ).
Sea V el espacio vectorial de las matrices n n; (V = Mnn )
. Demuestre que la funcin h ; i : V V M denida por
hA; Bi = Tr(AB T ) es un producto interno en V . (Vea el apartado

16. Demuestre que si


17.

es una matriz

tales que el producto que

1.2.3 del captulo 1).


41

2.4. Ejercicios
18. Sean

Matrices particionadas
A

matrices cuadradas de orden

n.

Demuestre que

Tr(AB T ) (Tr(AAT ) Tr(BB T ))1/2 .


19. Si

A, B Mnn , muestre que ABBA 6= I . (Sugerencia: Utilice

la funcin traza)

T : Mnn R es una transformacin lineal, entonces existe


A tal que T (M ) = Tr(AM). (Escriba T (M ) en trminos de T (Eij ), siendo Eij los elementos de la base estndar

20. Si

una matriz

de las matrices)

dim W , donde W = {A : Tr(A) = 0}.


B matrices cuadradas del mismo orden
k
k
Muestre que Tr((AB) ) = Tr((BA) ).
k
k k
Muestre con un ejemplo que Tr((AB) ) 6= Tr(A B ).

21. Calcule
22. Sean

a)
b)

42

CAPTULO 3

Valores propios y vectores propios.


Diagonalizacin
Este captulo consta de cuatro secciones. Con el n de dar una idea de
lo que haremos en las dos primeras secciones, consideraremos un espacio
vectorial

y una transformacin lineal

base ordenada

B = {u1 , u2 , . . . , un }

de

T : U U. Ahora; si existe una


U tal que [T ]BB es una matriz

diagonal, es decir,

[T ]BB

1
0

=D= .
..
0

0
2

.
.
.

..

0
0

. ,
.
.
n

entonces

T (ui ) = i ui ;
esto es,

T (ui )

i = 1, 2, . . . , n ,

es un mltiplo escalar de

ui .

inmediata acerca de la transformacin lineal


de

es el espacio generado por los vectores

y el ncleo de

Este hecho da informacin

T.
ui

Por ejemplo, la imagen


para los cuales

i 6= 0,
ui . En

es el espacio generado por los restantes vectores

la seccin 3.2 responderemos las preguntas: Para qu transformaciones


lineales

existe una tal base

B?

y si existe, Cmo encontrarla?. Las

respuestas a estas preguntas estn directamente ligadas a los conceptos


de valor propio y vector propio, los cuales sern abordados en la seccin
3.1. Veremos en esta seccin, que el clculo de los valores propios y los
vectores propios de una transformacin lineal

se reduce al clculo de

los valores propios y los vectores propios de una cierta matriz

A.

Por

otro lado, en las secciones 3.3 y 3.4 consideraremos los conceptos de valor
propio, vector propio y diagonalizacin de matrices simtricas, los cuales
son particularmente importantes en la teora y en aplicaciones del lgebra
lineal.

43

3.1. Valores propios y vectores propios

Diagonalizacin de matrices

3.1. Valores propios y vectores propios


Un problema que se presenta con frecuencia en el lgebra lineal y sus apli-

U y dada una transforT : U U , encontrar valores de un escalar para los cuales


vectores u 6= 0 tales que T (u) = u. Tal problema se denomina

caciones es el siguiente: Dado un espacio vectorial


macin lineal
existan

un problema de valores propios (la gura 3.1 nos ilustra las posibles situaciones). En esta seccin veremos cmo resolver dicho problema.
3.1.1. Denicin. Sean U un espacio vectorial y T : U U una transformacin lineal. Se dice que el escalar es un valor propio de T , si existe
un vector u 6= 0 de U tal que T (u) = u. A dicho vector no nulo u se le
llama un vector propio de T correspondiente al valor propio , o se dice
que es -vector de T .

Nota.

Los valores propios se denominan tambin eigenvalores o valores

caractersticos y los vectores propios se denominan tambin eigenvectores.

T(u)= u

T(u)= u

T(u)= u
>1

0<<1

<0

T(u)= 0
=0

Figura 3.1. Interpretacin geomtrica de vector propio

3.1.2.

Ejemplo.

T : R2 R2 ,

Calcule los valores propios de la transformacin lineal

dada por

T (x, y) = (2x, x + 3y).


es un vector propio T sii
T [(x, y)] = (2x, x + 3y) =
2
vector u = (x, y) 6= 0 de R que

De acuerdo con la denicin anterior; el escalar


existe un vector

(x, y),

u = (x, y) 6= 0

de

R2

tal que

lo que equivale a que exista un

satisfaga el sistema

2x
x + 3y

= x
= y .
44

Diagonalizacin de matrices
Ahora, si

x 6= 0,

3.1. Valores propios y vectores propios

entonces se tiene que

=2

y por lo tanto

y = x.

Esto

quiere decir que todos los vectores de la forma

u = (x, y) = (x, x); x R, x 6= 0


son 2-vectores propios de

T.

En efecto:

T [(x, x)] = (2x, 2x) = 2(x, x) .


De otro lado, si

x = 0 y y 6= 0 entonces = 3. Esto quiere decir que todos

los vectores de la forma

u = (x, y) = (0, y); y R, y 6= 0


son 3-vectores propios de

T.

En efecto:

T [(0, y)] = (0, 3y) = 3(0, y) .

La gura 3.2 nos ilustra el ejemplo anterior.

y
,
T(u ) =3 (0, y)

,
u = (0, y)

x
u = (x, x)
T(u) =2 (x, x)
Figura 3.2. Vectores propios de

45

T (x, y) = (2x, x + 3y)

3.1. Valores propios y vectores propios

Diagonalizacin de matrices

En el ejemplo anterior observamos que a cada vector propio de

le cor-

responde un nmero innito de vectores propios (todo un subespacio de

U R2 , sin el vector nulo). Esto es vlido en general, tal como se establece


en la proposicin siguiente.
3.1.3.

Proposicin.

formacin lineal y

-vectores

Sean

propios de

T : U U una transS() de todos los


un subespacio de U.

un espacio vectorial,

un valor propio de

T.

El conjunto

junto con el vector

0,

es

Demostracin. De acuerdo con la denicin de transformacin lin-

eal, as como de vector y valor propio se tiene:


1. Si

u1 S()

u2 S()

entonces

T (u1 + u2 ) = T (u1 ) + T (u2 ) = (u1 + u2 ) .


u1 + u2 S().
u S() y R entonces

Esto es,
2. Si

T (u) = T (u) = ( u) .
Esto es,

u S().

De acuerdo con el teorema 1.2.6,


3.1.4.

Denicin.

macin lineal y

Sean

S() es un subespacio vectorial de U. 

un espacio vectorial,

un valor propio de

1. El subespacio de

U, S(),

T :U U

mencionado en el teorema anterior, se

denomina espacio propio asociado al valor propio


2. La dimensin de

valor propio

S()

una transfor-

T.

se denomina multiplicidad geomtrica del

3.1.5. Nota. Sean U un espacio vectorial, T : U U una transformacin lineal, B una base ordenada para U y A = [T ]BB , la matriz de la
transformacin T referida a la base B. Entonces para cada u U se tiene
[T (u)]B = A [u]B (ver teorema 1.3.8). En particular, u es un -vector propio de T si y slo si u 6= 0 y A [u]B = [T (u)]B = [u]B = [u]B . Esto es,
u es un -vector propio de T si y slo si u 6= 0 y A [u]B = [u]B . Por esta
razn, y porque resulta en otros contextos, consideramos a continuacin
los conceptos particulares de valor propio y vector propio de una matriz
cuadrada A.

46

Diagonalizacin de matrices
3.1.6.

Denicin.
1.
2.

Sea

3.1. Valores propios y vectores propios

una matriz cuadrada de orden

Se dice que el escalar es un valor propio de A, si existe un


vector n 1, x 6= 0 tal que Ax = x.
Si es un valor propio de A y si el vector n 1, x 6= 0 es tal
que Ax = x. Entonces se dice que x es un vector propio de A
correspondiente al valor propio , o que x es un -vector de A.

En el caso especial de la transformacin lineal;

Ax,

n.

A : Rn Rn ; x y =

esta la denicin anterior concuerda con la denicin 3.1.1 (vase la

seccin 1.3). De otro lado, segn la denicin anterior y la nota 3.1.5,


odemos enunciar el siguiente teorema.
3.1.7. Teorema. Sean U un espacio vectorial, T : U U una transformacin lineal, B una base ordenada para U y A = [T ]BB .

1.
2.

es un valor propio de T sii es un valor propio de A.


u U es un -vector propio de T sii x = [u]BB es un -vector
propio de A.

Dicho teorema nos garatiza entonces, que el clculo de los valores y vectores propios de una transformacin lineal se reduce al clculo de los valores y vectores propios de una cierta matriz

A.

En lo que sigue, veremos

cmo calcular los valores y vectores propios de una matriz.

A una matriz n n. Por denicin, el escalar es un valor propio


A sii existe un vector n 1, x 6= 0 tal que Ax = x, lo cual equivale
a que el sistema homogneo de ecuaciones lineales (A I)x = 0 tenga
una solucin no trivial x 6= 0. Ahora por el teorema 1.4.8 del captulo 1,
el sistema de ecuaciones lineales (A I)x = 0 tiene una solucin x 6= 0
sii |A I| =
6 0. En consecuencia, el escalar es un valor propio de A sii


a11

a12
a13

a1n


a21

a

a
22
23
2n


a31

a
a

a
32
33
3n
pA () = |A I| =
=0


.
.
.
.
.
.
.
.
..
.


.
.
.
.


an1
an2
an3

ann
Sea
de

47

3.1. Valores propios y vectores propios


La expresin

pA () = |A I|

Diagonalizacin de matrices

es un polinomio en

de grado

n,

el cual

puede expresarse as (ver ejercicio 3.5(9)).

pA () = |A I| = a0 + a1 + a2 2 + + an1 n1 + (1)n n .
3.1.8.

Denicin.

Sea

una matriz cuadrada

pA () = |A I| se denomina polinomio
A.
La ecuacin pA () = |A I| = 0 se denomina ecuacin
terstica de A.

1. El polinomio

carac-

terstico de

2.

carac-

El siguiente teorema resume buena parte de la discusin anterior.


3.1.9.

Teorema.

Sea

1. El escalar

una matriz cuadrada de orden

de la ecuacin caracterstica de
2.
3.1.10.

A.

tiene a lo ms

Denicin.

Sea

sii

es una solucin (real)

valores propios (reales) .

una matriz cuadrada y

La multiplicidad algebraica de

caracterstico de

A
A.

es un valor propio de

de multiplicidad

es

k,

si

un valor propio de

es una raz del polinomio

k.

El siguiente algoritmo, recoge entonces el esquema para calcular los valores


propios y los vectores propios de una matriz
Paso 1
Paso 2
Paso 3

A.

pA () = |A I| .
pA () = |A I| = 0.
Las soluciones (reales) de sta, son los valores propios de A.

Para cada valor propio de la matriz A, se resuelve el sistema

de ecuaciones (A I)x = 0. Las soluciones no nulas de este

sistema son los vectores propios de A.


Se determina el polinomio caracterstico
Se resuelve la ecuacin caracterstica

1Un valor propio de A es un escalar, y, como hemos establecido, en estas notas


los escalares sern nmeros reales a menos que se exprese lo contrario. De hecho, uno
puede estudiar espacios vectoriales donde los escalares son nmeros complejos. No sobra
mencionar que en cursos avanzados de espacios vectoriales, la nica restriccin para los
escalares es que sean elementos de un sistema matemtico llamado cuerpo o campo.
2El teorema fundamental del lgebra establece que toda ecuacin polinmica de
grado n, con coecientes complejos, tiene exactamente n races complejas, contadas
con sus multiplicidades.
48

Diagonalizacin de matrices
3.1.11.

Ejemplo.

3.1. Valores propios y vectores propios

Determine los valores propios y vectores propios de la

matriz

1
A = 1
1

1
3
2

1
1 .
0

A, pA () =
|A I| . Desarrollemos |A I| por cofactores por la primera la (vase
Determinemos inicialmente, el polinomio caracterstico de
el teorema 1.1.5)


1
1

3
pA () = |A I| = 1
1
2




3 1


1
= (1 )
2

1
1









1
1
1
1

1
1

(1 )(2 3 + 2) (1 ) ( + 1)

(1 )(2 3 + 2) = (1 )2 ( 2).


3
2

= 1 = 2 son las soluciones de la ecuacin caracpA () = |A I| = 0. = 1 y = 2 so pues los valores propios


A, con multiplicidades algebraicas k = 2 y k = 1 respectivamente.

De aqu se tiene, que


terstica
de

Determinemos los vectores propios de

A. Los 1vectores propios de A son


(A 1 I)x = 0.

las soluciones no nulas del sistema de ecuaciones lineales

Resolvamos dicho sistema usando el mtodo de eliminacin de GaussJordan (vase el teorema 1.4.7 ).

0
A 1 I = 1
1
Donde

1
2
2


1
1
1

1
0
0

0
1
0

es la forma escalonada reducida de la matriz

1
1 = R
0
A1I

(vase el

teorema 1.1.10).

Las soluciones del sistema

(A 1 I)x = 0

son, por lo tanto, los vectores

de la forma:

x1
x3
1
x2 = x3 = x3 1 ,
x3
x3
1
49

x3 R.

3.1. Valores propios y vectores propios

Diagonalizacin de matrices

En consecuencia,

U1


1
= U1 = 1

S(1 ) = S(1)
1.

es una base para

1 = 1

propio

es

De otro lado, los

2vectores

y la multiplicidad geomtrica del valor

A son las soluciones no nulas


(A 2 I)x = 0. Procediendo como en

propios de

del sistema de ecuaciones lineales


el clculo anterior, se tiene:

A2I =
Donde

1
1
1


1
1
2

1
1
2

1
0
0

0
1
0

0
1 = R
0

A 2 I.
(A 2 I)x = 0 son los vectores de la forma:

x1
0
0
= x2 = x3 = x3 1 ,
x3 R.
x3
x3
1

es la forma escalonada reducida de la matriz

Las

soluciones del sistema

En consecuencia,

U2


0
= U2 = 1

S(2 ) = S(2)
1.

es una base para


propio

2 = 2

es

y la multiplicidad geomtrica del valor

En el ejemplo anterior, la multiplicidad geomtrica del valor propio

1 = 1

es menor que su correspondiente multiplicidad algebraica y la multiplicidad geomtrica del valor propio

2 = 2

es igual que su correspondiente

multiplicidad algebraica (ver el ejercicio 3.5.2(10)).


3.1.12.

Ejemplo.

Calculemos los valores y vectores propios de la matriz


A=

0
1

1
0


.
A, pA () = |A I| .

1
= 2 + 1 ,

Para ello calculemos el polinomio caracterstico de

pA ()



= |A I| =
1
50

Diagonalizacin de matrices

3.1. Valores propios y vectores propios

y resolvemos la ecuacin caracterstica de

A, pA () = |A I| = 0

pA () = 2 + 1 = ( + i)( i)

sii

=i

Puesto que las soluciones de la ecuacin caracterstica de


entonces

= i.

A no son reales,

no tiene valores propios y por lo tanto no tiene vectores pro-

pios, en el sentido considerado en este texto.

Ejemplo.

Sea T : P2 P2 la transformacin lineal denida




T a + bx + cx2 = (a + b c) + (a + 3b c)x + (a + 2b)x2

3.1.13.

por:

Determine los valores y los vectores propios de la transformacin.


Sea



B = 1, x, x2

la base cannica de

P2 ,

[T ]BB

se tiene entonces que:

1 1
3 1 .
2
0

1
= A = 1
1

De acuerdo con el teorema 3.1.7(1); los valores propios de la transformacin lineal

son los valores propios de la matriz

el ejemplo 3.1.11

1 = 1

S(1 )

y que

los cuales son, segn

U1 = {x1 }
S(2 ), donde

0
x2 = 1 .
1

De otro lado, del ejemplo 3.1.11 se sabe que


de

A,

2 = 2.

U2 = {x2 } es una

1
x1 = 1
1

es una base

base de

Como se estableci en el teorema 3.1.7(2), stos son respectivamente, los


vectores de coordenadas respecto a la base
vectores de

(vase apartado 1.2.2) de los

P2 ;
u1 = 1 + x + x2

y
u2 = x + x2 .


0
En consecuencia; U
= {u1 } = 1 + x + x2 es una base del espa1
cio de vectores propios de T correspondientes al valor propio 1 = 1 y


U0 2 = {u2 } = x + x2 es una base del espacio de vectores propios de T
correspondientes al valor propio 2 = 2.

Terminamos esta seccin con dos resultados que involucran matrices semejantes. El primero de ellos relaciona los polimomios caractersticos de
matrices semenjantes y el segundo relaciona los vectores propios de dichas
matrices.
51

3.1. Valores propios y vectores propios


3.1.14.

Teorema.

Si

nomios caractersticos de

trices

Diagonalizacin de matrices

B son matrices semejantes, entonces los poliA y B son iguales, y por consiguiente, las ma-

tienen los mismos valores propios.

Demostracin. Si

son matrices semejantes, entonces existe

B = P 1 AB. De aqu:


pB () = |B I| = P 1 AP P 1 P


= P 1 (A I)P = |P 1 | |A I| |P |

una matriz invertible

tal que

= |P 1 | |P | |A I| = |A I|
= pA ().

3.1.15.

B
A

Nota.

El converso del teorema anterior no es cierto; o sea, si

son matrices con el mismo polinomio caracterstico, no necesariamente

son matrices semejantes. Para mostrar esto, basta considerar el

siguiente ejemplo.
3.1.16.

Ejemplo.

Las matrices

1
0

A=

0
1


y

B=

1
3

0
1

tienen el mismo polinomio caracterstico; explcitamente

( 1)2 .

cualquier matriz invertible

de orden

Sin embargo,

pA () = pB () =

no son matrices semejantes, pues para

se tiene que:

P 1 AP = P 1 IP = P 1 P = I 6= B.
3.1.17.

Proposicin.

tonces

es un

Si

vector

B = P 1 AP son matrices semejantes, en1


propio de A sii P
X es un vector propio de
A

B.
Demostracin. Por denicin se tiene

Ax = x

Tomando
de

si y

AIx = x

AP P 1 x = x

P 1 AP P 1 x = P 1 x

B = P 1 AP tenemos entonces que: x 6= 0 es un -vector propio


1
slo si P
x 6= 0 es un -vector propio de B = P 1 AP.

52

Diagonalizacin de matrices

3.2. Diagonalizacin

3.2. Diagonalizacin
En esta seccin responderemos las preguntas siguientes: Dado un espacio
vectorial

de

y dada una transformacin lineal

tal que

[T ]BB

T :U U

Existe una base

es una matriz diagonal? y si existe cmo encontrar

una tal base?

T : U U es una transB2 son bases ordenadas de U, A = [T ]B1 B1 y


D = [T ]B2 B2 = P 1 AP, esto es, las matrices A

Como se estableci en el teorema 1.3.14(2), si


formacin lineal,

B1

P = [I]B2 B1 , entonces
D son semejantes.

Esta consideracin nos permite formular las preguntas anteriores en tr-

A, Existe una matriz


D semejante a la matriz?, en otros trminos, existir una matriz
1
invertible P tal que P
AP = D sea una matriz diagonal? y si existe
cmo encontrar una tal matriz P ?
minos de matrices, as: Dada una matriz cuadrada
diagonal

3.2.1.

Denicin.

nalizable si
3.2.2.

Sea

una matriz cuadrada. Diremos que

es diago-

es semejante a una matriz diagonal.

Teorema.

Sea

una matriz cuadrada de orden

n.

Si existen

linealmente independientes, entonces A es diago1


nalizable; esto es, existe una matriz invertible P tal que P
AP = D es

vectores propios de

una matriz diagonal. Adems, los vectores columna de


propios de

y los elementos de la diagonal de

valores propios de

Demostracin. Sean

son los vectores

A.

1 , 2 , . . . ,n ,

los

valores propios de

los cuales no son necesariamente diferentes y sean


tores propios de

son los correspondientes

x1 , x2 , . . . , xn ,

A,

vec-

linealmente independientes, correspondientes respecti-

vamente a cada uno de dichos valores propios.

P la matriz cuya jsima columna es


j = 1, 2, . . . , n, la cual particionamos como sigue:


P = x1 x2 xn .

Sea ahora

Puesto que las columnas de

el vector propio

xj ,

son linealmente independientes, entonces

es invertible (teorema 1.4.8).


53

3.2. Diagonalizacin

Diagonalizacin de matrices

Ahora,

AP

=
=

A


x1

Ax1

x1

x2
Ax2

x2

xn

Axn

xn

 0
..
.
0

1 x1

0
2

.
.
.

..

2 x2

0
0

.
.
.
3

n xn

PD

D es la matriz diagonal indicada arriba. Por lo tanto, P 1 AP = D,


teorema queda demostrado.


Donde
y el

El recproco de este resultado tambin es vlido y est dado por el siguiente


teorema. La demostracin se deja como ejercicio.

Teorema.

A una matriz cuadrada de orden n. Si A es diagonaP tal que P 1 AP = D es


una matriz diagonal, entonces existen n vectores propios de A linealmente
independientes. Adems, los vectores columna de P son vectores propios
de A y los elementos de la diagonal de D son los correspondientes valores
propios de A.

4 1 2
5 6 es
3.2.4. Ejemplo. Veriquemos que la matriz A = 6
6
3 4
1
diagonalizable y encontremos una matriz invertible P tal que P
AP = D
sea una matriz diagonal. Para tal n, veamos que A tiene 3 vectores
3.2.3.

Sea

lizable, es decir, si existe una matriz invertible

propios linealmente independientes. En efecto:


El polinomio caracterstico de


4

pA () = |A I| = 6
6

A,

est dado por

1
5
3

2
6
4




= ( 2)2 ( 1).

A, pA () = |A I| = 0 tiene entonces
= 1 (de multiplicidad
los valores propios de A.

La ecuacin caracterstica de
como solucin a

=2

(de multiplicidad 2) y a

1). Estos escalares son pues,

Determinemos ahora los vectores propios asociados:

54

Diagonalizacin de matrices
Los 2-vectores propios de
ecuaciones

(A 2I)x = 0,

3.2. Diagonalizacin

son las soluciones no nulas del sistema de

y los 1-vectores propios de

no nulas del sistema de ecuaciones

(A 1I)x = 0.

son las soluciones

Es decir, debemos re-

solver sistemas homogneos de ecuaciones cuyas matrices de coecientes


son respectivamente:

2
A 2I = 6
6

1
3
3

2
6
6

3
A 1I = 6
6

2
6 .
5

1
4
3

Es fcil vericar que las soluciones del sistema homogneo

(A 2I)x = 0

son los vectores de la forma

1
x1
2 x2 x3
x2
= x2 =
x3
x3

1
1
1
x2 2 + x3 0
=
2
1
0

, x2 , x3 R,

en consecuencia,

U1
es una base para


1
1
= U2 = 2 , 0

1
0

S(1 ) = S(2).

De otra parte, se encuentra que las soluciones del sistema

(A 1I)x = 0

son los vectores de la forma

x1
1
3 x3
1
x = x2 = x3 = x3 3 , x3 R.
3
x3
3
x3

En consecuencia,

U2
es una base para

1
= U1 = 3

S(2 ) = S(1).
55

3.2. Diagonalizacin

Diagonalizacin de matrices

Ahora, los vectores

1
1
x1 = 2 , x2 = 0
0
1
son vectores propios de

1,

1
x3 = 3
3

correspondientes a los valores propios

2, 2

respectivamente, y son linealmente independientes como se comprueba

fcilmente.
De acuerdo con el teorema 3.2.2, la matriz

es diagonalizable. Por otro

lado, segn la demostracin del teorema, la matriz

P =

x1

x2

x3

1
3
3

1
= 2
0

1
0
1

0
0 .
1

es invertible y es tal que:

2
P 1 AP = D = 0
0
3.2.5.

Ejemplo.

0
2
0

La matriz del ejemplo 3.1.11,

1
A = 1
1

1
3
2

1
1
0

no es diagonalizable, pues vimos en dicho ejemplo, que la matriz

1 = 1 y 2 = 2, y

1
y
U1 = 1

dos valores propios:

tiene

que

0
U2 = 1

son bases para los espacios propios asociados, respectivamente. As que

slo tiene dos vectores propios linealmente independientes.

Teorema.

entes a los valores

1 , 2 , . . . , k son los valores propios diferentes de


x1 , x2 , . . . , xk son vectores propios de A correspondipropios 1 , 2 , . . . , k , respectivamente, entonces C =

{x1 , , x2 , . . . , xk }

es un conjunto linealmente independiente.

3.2.6.

una matriz

Si

y si

Demostracin. Haremos la demostracin utilizando induccin so-

bre el nmero

de vectores del conjunto

56

C.

Diagonalizacin de matrices
Si

C = {x1 },

entonces

3.2. Diagonalizacin
x1 6= 0.

es linealmente independiente, pues

El teorema es cierto para cuando

k = 2.

En efecto: Si

1 x1 + 2 x2 = 0,

(3.1)

premultiplicando (3.1) por el escalar

se obtiene:

2 1 x1 + 2 2 x2 = 0.

(3.2)

De otra parte; premultiplicando (3.1) por la matriz

se llega a:

1 1 x1 + 2 2 x2 = 0.

(3.3)

Restando (3.3) de (3.2) se obtiene:

(2 1 )1 x1 = 0.
x1 6= 0, entonces (2 1 )1 = 0. Dado que 1 6= 2 se tiene
1 = 0. Reemplazando este valor de 1 en (3.1) se llega a
2 x2 = 0, pero x2 6= 0, entonces 2 = 0.

Puesto que

entonces que
que

Supongamos ahora que el teorema es cierto para cuando


mostremos que el teorema es cierto para cuando

k = j

y de-

Si

1 x1 + 2 x2 + . . . + j xj + j+1 xj+1 = 0,

(3.4)

premultiplicando (3.4) por el escalar


(3.5)

k = j +1.

j+1

se obtiene:

j+1 1 x1 + j+1 2 x2 + . . . + j+1 j xj + j+1 j+1 xj+1 = 0,

De otra parte; premultiplicando (3.4) por la matriz

se llega a:

1 1 x1 + 2 2 x2 + . . . + j j xj + j+1 j+1 xj+1 = 0.

(3.6)

Restando (3.6) de (3.5) se obtiene:

(j+1 1 )1 x1 + (j+1 2 )2 x2 + . . . + (j+1 j )j xj = 0.


Por hiptesis de induccin se tiene

(j+1 1 )1 = (j+1 2 )2 = . . . = (j+1 j )j = 0 .


1 , . . . , j , j+1 son
1 = 2 = . . . = j = 0. Reemplazanvalores en 3.4 se llega a que j+1 xj+1 = 0, pero xj+1 6= 0,
j+1 = 0. El teorema queda entonces demostrado.


De otro lado, por hiptesis del teorema los escalares


diferentes, entonces se obtiene que
do estos
entonces

La prueba del siguiente corolario es consecuencia inmediata de los teoremas 3.2.6 y 3.2.2.
57

3.2. Diagonalizacin
3.2.7.

Corolario.

Diagonalizacin de matrices

Sea

una matriz cuadrada de orden

valores propios distintos, entonces


3.2.8.

Ejemplo.

n.

Si

posee

es diagonalizable.

La matriz

1
A= 0
0

2
4
0

3
5
6 33

es diagonalizable. En efecto, la ecuacin caracterstica de

es:

pA () = |A I| = (1) ( 1)( 4)( 6) = 0.


De esto se sigue que

2 = 4

A tiene tres valores propios distintos, a saber: 1 = 1,

3 = 6.

De acuerdo con los teoremas 3.2.2 y 3.2.3, dada la matriz cuadrada


de orden

n;

existe una matriz invertible

matriz diagonal sii

tal que

P 1 AP = D

es una

A tiene n vectores propios linealmente independientes.


P , los vectores columna de P son vectores
elementos de la diagonal de D son los valores propios

Adems, si existe una tal matriz


propios de
de

A.

y los

Quedan as contestadas las preguntas propuestas al comienzo de

esta seccin sobre la diagonalizacin de matrices. El siguiente teorema


responde a las preguntas sobre diagonalizacin pero formuladas en el contexto de las transformaciones lineales.
3.2.9.

Teorema.

Sea

un espacio de dimensin

y sea

una transformacin lineal. Existe una base ordenada

[T ]B2 B2 = D

T : U U
U tal que

de

T tiene n vectores propios linB2 = { u1 , u2 , . . . , un } es un base

es una matriz diagonal sii

ealmente independientes. Adems, si


ordenada de

B2

tal que

[T ]B2 B2

1
0

=D= .
..
0

es una matriz diagonal, entonces

ui

0
2

.
.
.

..

es un

0
0

.
.
.
n

i -vector

propio de T, o sea

T (ui ) = i ui , i = 1, 2, . . . , n.
Demostracin. Puesto que las matrices asociadas a transforma-

ciones lineales y referidas a bases arbitrarias son semejantes, y puesto


que el polinomio caracterstico de matrices semejantes es el mismo (ver
teorema 3.1.14), podemos considerar una base arbitraria
58

B1

para

U.

Diagonalizacin de matrices
Sea pues

A = [T ]B1 B1 ,

B1 , Existe
1
[I]B2 B1 A [I]B2 B1

base

3.2. Diagonalizacin

la matriz de la transformacin

B2

una base ordenada

de

es una matriz diagonal sii

U tal
A es

que

referida a dicha

D = [T ]B2 B2 =

semejante a una ma-

A es semejante a una
A tiene n vectores propios linealmente independientes,
que T tenga n vectores propios linealmente independi-

triz diagonal. Ahora por los teoremas 3.2.2 y 3.2.3;


matriz diagonal sii
lo cual equivale a

entes (ver el apartado 1.2.2)


Adems, si

B2 = {u1 , u2 , . . . , un } es una base ordenada

1 0 0
0 1 0

[T ]B2 B2 = D = .
.
.
..
.
.
..
.
.
.
0
0 1

de

tal que

es una matriz diagonal, entonces, de acuerdo con la denicin de la ma-

[T ]B2 B2 , T (ui ) = i ui
i = 1, 2, . . . , n .

triz

3.2.10.

Ejemplo.

; o sea,

ui

es un

i -vector

Consideremos la transformacin lineal

propio de

T,


T : P3 P3

denida por:



T a + bx + cx2 = (4a b + 2c) + (6a + 5b 6c)x + (6a + 3b 4c)x2 .
Encontremos una base ordenada

B2

U = P2

de

tal que

[T ]B2 B2 = D

es

una matriz diagonal.


Sea



B1 = 1, x, x2

la llamada base cannica de

P2 entonces:

2
6 ,
4

1
5
3

4
A = [T ]B1 B1 = 6
6

que es la matriz del ejemplo 3.2.4. De dicho ejemplo sabemos que

1
1
x1 = 2 , x2 = 0
0
1

1
x3 = 3 ,
3

son vectores propios linealmente independientes de


respectivamente a los valores propios

2, 2

1.

A,

correspondientes

Los vectores

x1 , x2

son respectivamente, los vectores de coordenadas respecto a la base


los vectores de

P2 :

u1 = 1 + 2x;

u2 = 1 + x2
59

u3 = 1 + 3x + 3x2 .

x3

B1

de

3.2. Diagonalizacin

Diagonalizacin de matrices

Ahora, los valores propios de

A (ver teorema
1 = 2 y 2 = 1.
1.2.2, u1 , u2 y u3 son

son los valores propios de

3.1.7), esto es, los diferentes valores propios de

De otro lado, por lo establecido en el apartado

son

T linealmente independientes, correspondientes a los


2, 2 y 1, respectivamente. En consecuencia, de acuerdo con
anterior, B2 = {u1 , u2 , u3 } es una base para P2 tal que:

2 0 0
[T ]B2 B2 = D = 0 2 0 .
0 0 1

vectores propios de
valores propios
el teorema

A de orden n, existe una


P 1 AP = D es una matriz diagonal sii existen
A linealmente independientes. En el caso en que A

Como hemos visto, dada una matriz cuadrada


matriz invertible

tal que

vectores propios de

no posea

vectores propios linealmente independientes, es posible, bajo

A sea semejante a una matriz triangular superior


T ; es decir , que A sea semejante a una matriz T = [tij ]nn para la cual
tij = 0 si i > j. El siguiente teorema explicita esta armacin.
cierta condicin, que

3.2.11.

Teorema.

Sea

una matriz cuadrada (real) de orden

n.

Todas

las soluciones de la ecuacin caracterstica de A son reales sii existe una


1
matriz invertible P (real) tal que P
AP = T es una matriz triangular
superior. Adems, si existe una tal matriz
la diagonal de

son los valores propios de

P,
A.

entonces los elementos de

(=) Haremos la demostracin en este sentido, utin de la matriz A. Para cuando n = 2, la


verdadera. En efecto, de la hiptesis se sigue que A tiene

Demostracin.

lizando induccin sobre el orden


implicacin es

dos valores propios (reales) los cuales no son necesariamente distintos. Sea

un valor propio de A. Existe por lo tanto un vector 2 1, x1 6= 0 tal que


Ax1 = x1 . Por el teorema1.2.13(3), existe un vector 21, x2 6= 0 tal que
B = {x1 , x2 } es una base para M21 . Ahora, la matriz P = x1 x2
1
es invertible; escribamos a P
particionada por las as:


y1
P 1 =
, y1 , y2 M12 ,
y2
entonces se tiene que

P 1 AP =

y1
y2


A

x1

x2

es una matriz triangular superior.


60


=

y1 Ax2
y2 Ax2


=T

Diagonalizacin de matrices

3.2. Diagonalizacin

Supongamos ahora que la implicacin es verdadera para cuando


y demostremos que sta es verdadera cuando

n = j, j 3.

n = j 1
A una

Sea

j para la cual todas las soluciones de su ecuacin


A tiene j valores propios
(reales) los cuales no son necesariamente distintos. Sea un valor propio
de A. Existe por lo tanto un vector j 1, x1 6= 0 tal que Ax1 = x1 .
Por el teorema 1.2.13(3), existen j 1 vectores x2 , x3 , . . . , xj de Mj1
tales que B = {x1 , x2 , x3 , . . . , xj } es una base para Mj1 . Ahora por el

matriz cuadrada de orden

caracterstica son reales. De sto se sigue que

teorema 1.4.8, la matriz

x1

x2

P 1

es invertible. Escribamos la inversa


=

y1
N

xj

x1

as:


,

y1 M1j ,

N M(j1)(j1) .

Entonces se tiene


AP =

y1
N


A

x1

y1 AM
N AM


=

B
C


= T1

es una matriz triangular superior por bloques.


Ahora, las matrices

T1

tienen el mismo polinomio caracterstico (teo-

rema 3.1.14):

pA () = pT1 () = (1 ) |C I| .
De sto se sigue, que todas las soluciones de la ecuacin caracterstica

j 1, C , son reales. Por hiptesis de


Q tal que Q1 CQ = T1 es una

de la matriz cuadrada de orden

induccin, existe una matriz invertible


matriz triangular superior. Sea ahora:


P2 =

1
0

0
Q


,

P = P1 P2 es tal que



1
0
1 B
1 0
0 Q1
0 C
0 Q

 

1
BQ
1 BQ
=
=T
0 Q1 CQ
0
T2

entonces se tiene que la matriz invertible

P 1 AP = P21 P11 AP1 P2


=
=

es una matriz triangular superior.


La demostracin de la otra implicacin y de la segunda armacin del
teorema quedan como ejercicio para el lector.
61

3.2. Diagonalizacin
3.2.12.

Ejemplo.

Diagonalizacin de matrices

Todas las soluciones de la ecuacin caracterstica de la

matriz del ejemplo 3.2.5

1
1
0 33

1 1

1
3
A=
1 2
son reales, pues:

pA () = ( 1)2 ( 2) = 0 sii

1 = 1

2 = 2 .

De otro lado, como lo establecimos en el ejemplo 3.2.5, la matriz A no es


diagonalizable, pues

slo posee dos vectores propios linealmente inde-

pendientes. En particular:

1
x1 = 1
1

0
x2 = 1
1

son vectores propios linealmente independientes correspondientes a los


valores propios

1 = 1

2 = 2,

respectivamente.

Por el teorema anterior, existe una matriz invertible

tal que

P 1 AP = T
P , demos

es una matriz triangular superior. Para encontrar una tal matriz


un vector

x3

tal que

B = {x1 , x2 , x3 }

sea una base para

M31 ,

el vector

0
x3 = 2
3

sirve para tal efecto. Ahora bien, la matriz

P =

x1

x2

x3

1
= 1
1

0
1
1

0
2
3

es invertible y es tal que

1
P 1 AP = T = 0
0

0
2
0

1
2
1

es una matriz triangular superior.

De acuerdo con el teorema anterior, si

es una matriz cuadrada (real)

cuyos valores propios no son todos reales entonces, no puede existir una
matriz invertible

(real) tal que

P 1 AP = T
62

sea una matriz triangular

Diagonalizacin de matrices

3.2. Diagonalizacin

superior. Ahora bien, hemos mencionado que uno puede estudiar espacios vectoriales donde los escalares sean nmeros complejos (ver pi de
pgina 2); en este caso, se pueden obtener resultados ms amplios. En
particular, se tiene que para toda matriz cuadrada

existe una matriz invertible

(real o compleja)

(real o compleja) tal que

P 1 AP = T

sea una matriz triangular superior. Este resultado se tiene, gracias a la


propiedad importante del sistema de los nmeros complejos que establece,

n con coecientes reales o complejos tiene


n races reales o complejas, contadas sus multiplicidades. En

que todo polinomio de grado


exactamente

el teorema siguiente se establece este resultado sin demostracin. Quien

desee estudiar sobre ste, puede consultar las secciones 5.5 y 5.6 de [ ].
3.2.13.

Teorema.

Para toda matriz cuadrada

una matriz invertible

(real o compleja) existe


P 1 AP = T es una

(real o compleja) tal que

matriz triangular superior. Adems, los elementos de la diagonal de


son las soluciones de la ecuacin caracterstica de
3.2.14.

Ejemplo.

A.

Consideremos la matriz (real)

1
A= 0
0
La ecuacin caracterstica de

0
0
1

0
1 .
0

es

pA () = |A I| = ( 1)(2 + 1)
= ( 1)( i)( + i) = 0 .
De esto se sigue que

slo tiene un valor propio real, a saber,

En este caso no es posible que exista una matriz invertible


que

P 1 AP = T

1 = 1.

(real) tal

sea una matriz triangular superior. Sin embargo, en el

contexto de los espacios vectoriales donde los escalares son nmeros complejos, podemos decir que

2 = i

3 = i

tiene tres valores propios complejos

1 = 1,

. Efectuando, en este contexto, los clculos pertinentes,

se encuentra que

1
0
x1 = 0 , x2 = i
0
1
son tres vectores propios complejos de

linealmente independientes cor-

respondientes a los valores propios complejos


63

0
x3 = i
1
1 = 1, 2 = i

3 = i

3.3. Matrices simtricas

Diagonalizacin de matrices

respectivamente. As que la matriz compleja:

P =

x1

x2

x3

1
= 0
0

0
i
1

0
i
1

es invertible y es tal que

P 1 AP

1
0
i/2
= 0
0 i/2

1 0 0
= 0 i 0
0 0 i

0
1
i/2 0
i/2
0

0
0
1

0
1
1 0
0
0

0
i
1

0
i
1

=D

es una matriz diagonal, y por lo tanto, es una matriz triangular superior.

3.3. Diagonalizacin de matrices simtricas


En esta seccin limitaremos el estudio de los conceptos de valor propio,
vector propio y diagonalizacin a matrices simtricas. Dos resultados importantes que veremos es esta seccin son los siguientes: (i) Todas las
soluciones de la ecuacin caracterstica de toda matriz simtrica (real)
son reales, y (ii) Toda matriz simtrica (real) es diagonalizable, y ms
an, diagonalizable en una forma especial.
Como veremos en el captulo 4, los valores propios de una matriz simtrica se utilizan como criterio para decidir cundo una forma cuadrtica es
positivamente (negativamente) denida (semidenida) o indenida.
Como se estableci al nal de la seccin anterior, uno puede estudiar espacios vectoriales donde los escalares son nmeros complejos. nicamente
en la demostracin del teorema 3.3.1, utilizaremos los hechos siguientes
que involucran nmeros complejos.

z = a+bi, a, b R, se denota
z = a bi.
Un nmero complejo z es real sii z = z .
La matriz conjugada de la matriz compleja n n, A, se de nota


por A y cuyos componentes son A
= hAiij , i, j = 1, 2, . . . , n.
ij

1. El conjugado del nmero complejo


por
2.
3.

y se dene as:

64

Diagonalizacin de matrices

3.3. Matrices simtricas

4. Para todo vector complejo

xTx = 0

sii

n 1, x,

se tiene:

x T x = xx T y

x = 0.

A con componentes complejas; |A| =


0 sii existe un vector x 6= 0, con componentes complejas, tal que
Ax = 0.

5. Para toda matriz cuadrada

3.3.1.

Teorema.

Sea

una matriz (real) cuadrada de orden

n.

Si

es

una matriz simtrica, entonces todas las soluciones de la ecuacin car-

A: pA () = |A I| = 0, son reales. Esto es, A tiene


valores propios (reales) los cuales no son necesariamente diferentes.

acterstica de

Demostracin. Si

un vector

x 6= 0

pA () = |A I| = 0,

entonces por (5), existe

tal que:

Ax = x

(3.1)

de esto se sigue que, (ver (3) y (2)):

Ax = x .

(3.2)

Ahora, premultiplicando (3.1) por

x T Ax = x T x

(3.3)
puesto que

xT
y

y (3.2) por

xT

se tiene

xT Ax = xT x ,

x T Ax = (x T Ax)T = xT AT x = xT Ax,

de (3.3) se sigue que:

x T x = xT x .

(3.4)
De (4) se tiene que

x T x = xT x,

por lo tanto, de (3.4) se concluye que :

( )x T x = 0.
Ya que

x 6= 0,

de (4) se tiene que

( ) = 0
en consecuencia, por (2),

o sea,

= .

es un nmero real.

En lo que resta de estas notas, no haremos ms referencia al sistema de


nmeros complejos.
El teorema 3.2.6 establece que, para cada matriz cuadrada

A, los vectores

propios correspondientes a valores propios diferentes son linealmente independientes. Para matrices simtricas se tiene un resultado ms fuerte.
Este resultado se establece en el teorema siguiente.
65

3.3. Matrices simtricas

Teorema.

Diagonalizacin de matrices

1 , 2 , . . . , k son los valores propios diferentes de


A y si x1 , x2 , . . . , xk son vectores propios de A correspondientes a los valores propios 1 , 2 , . . . , k , respectivamente, entonces
el conjunto de vectores C = {x1 , x2 , . . . , xk } es ortogonal.

3.3.2.

Si

una matriz simtrica

Demostracin. Debemos demostrar que

i 6= j,

para

hxi ; xj i = xTi xj = 0

si

i, j = 1, 2, . . . k

Por la hiptesis se tiene que:


(3.5)

Axi

i xi ,

(3.6)

Axj

j xj .

Ahora, premultiplicando (3.5) por

xtj

xTj Axi = i xj T xi

(3.7)
puesto que

y a (3.6) por

xi ,

se obtiene

xTi Axj = j xTi xj ,

xTj Axi = (xTj Axi )T = xTi AT xj = xTi Axj ,

de (3.7) se sigue

que:

xTj xi = j xTi xj .

(3.8)
Ya que

xTj xi = xTi xj

de (3.8) se concluye que :

(i j )xTi xj = 0.
Puesto que por hiptesis, los valores propios son distintos, entonces

0,

si

i 6= j, i, j = 1, 2, . . . k .

3.3.3.

Denicin.

es invertible y
3.3.4.

Se dice que una matriz cuadrada

xTi xj =


es ortogonal, si

P 1 = P T .

Ejemplo.

La matriz

1
1
P = 2
3
2

2
2
1

2
1
2

es ortogonal, pues:

2
1 2 2
1 0 0
1
1 2 2 1 = 0 1 0 = I.
PPT
3
2
2 1 2
0 0 1


x1 x2 xn es ortogonal
3.3.5. Proposicin. Una matriz P =
sii el conjunto B = {x1 , x2 , . . . , xn } constituye una base ortonormal de
Mn1 .
1
1
=P = 2
3
2

2
2
1

66

Diagonalizacin de matrices
La matriz

P =

x1

3.3. Matrices simtricas

x2

xn

es ortogonal sii

P T P = I.

Ahora

bien,

xT1
xT2 

.. x1
.
xTn

PTP

x2

Es fcil entonces observar, que

(
xTi xj =

1
0

lo cual equivale a que

xT1 x1

 xT2 x1
=
.
.

.
T
xn x1

xn

PTP = I
i 6= j
;
i=j

si
si

xT1 x2
xT2 x2

.
.
.

..

xTn x2

xT1 xn
xT2 xn

.
.

.
xTn xn

si y slo si se cumple que:

i, j = 1, 2, . . . , n ,

B = {x1 , x2 , . . . , xn }

es una base ortonormal de

Mn1 .

Teorema.

3.3.6.

Si

es un valor propio de una matriz simtrica, en son iguales.

tonces las multiplicidades algebraica y geomtrica de

un

valor propio de A. Supongamos que la multiplicidad geomtrica de es


r. Por el teorema 1.2.24, existe una base ortonormal B = {x1 , x2 , . . . , xr }

del espacio de vectores propios asociados a , S( ). Si r = n, la matriz




P = x1 x2 xn es ortogonal (proposicin 3.3.5), y de acuerdo
Demostracin. Sea

una matriz simtrica de orden

y sea

con el teorema 3.2.2,

P T AP = P 1 AP = D = I .
Ahora, las matrices

tienen igual polinomio caracterstico:

pA () = pD () = | I I| = ( )n .
De esto se sigue que
braica

es un valor propio de

con multiplicidad alge-

r = n.
r < n, existen n r vectores y1 , y2 , . . . , ynr de Mn1
B = {x1 , . . . , xr , y1 , . . . , ynr } es una base ortonormal de Mn1

De otra parte, si
tales que

(teorema 1.2.25). Por la proposicin 3.3.5, la matriz

P =

x1

x2

xr

y1

y2
67

ynr

3.3. Matrices simtricas

Diagonalizacin de matrices

es ortogonal. Consideremos ahora la matriz

T = P T AP = P 1 AP,

es

decir, la matriz:


T

I
0

X T AY
Y T AY

B
.
C

T T = (P T AP )T = P T AT P = P T AP = T,


 
I
0
I B
,
=
0
C
B
CT

es simtrica,

sea

por lo tanto

I
0

=
A


=

Puesto que

XT
YT

B=0


T =
Puesto que las matrices

I
0

0
C


.

son semejantes, entonces tienen el mismo

polinomio caracterstico:

pA () = pT () = |T I| = ( )r |C I| .

es un valor propio de A con multiplicidad algek r. Veamos que k = r. Si k > r, entonces se debe tener que
|C I| = 0, y por lo tanto existe un vector (n r) 1, w 6= 0 tal que
Cw = w.


0
Consideremos ahora el vector no nulo u Mn1 dado por u = P
.
w

De sto se sigue, que


braica

Es decir,


u=P

0
w


=

[x1 x2 xr y1 y2 ynr ]

0
0
.
.
.

0
w1
w2
.
.
.

wnr
= w1 y1 + w2 y2 + wnr ynr .
Esto es, el vector

u hy1 , y2 , . . . , ynr i
68

u
/ hx1 , x2 , . . . , xr i

Diagonalizacin de matrices

-vector propio de A. En efecto,







I
0
0
I
0
0
= P
P tP
=P
0
C
w
0
C
w




0
0
= P
=P
Cw
w


0
= P
= u .
w

De otro do, el vector

u,

Au

3.3. Matrices simtricas

Esto indica, que

es un

B = {x1 , x2 , . . . , xr , ur+1 }

es un conjunto de

r+1

vec-

tores propios linealmente independientes correspondientes al valor propio

lo cual contradice el hecho de que la multiplicidad geomtrica de

sea

r.

Teorema.

3.3.7.

tiene

Si

es una matriz simtrica de orden

n,

entonces


A

vectores propios ortogonales, y por tanto, linealmente independi-

entes.

Demostracin. Sean 1 , 2 , . . . , k los diferentes valores propios


A. Supongamos que la multiplicidad algebraica de i es mi, mi =
1, 2, . . . , k; esto es, supongamos que

de

pA () = (1)n ( 1 )m1 ( 2 )m2 ( k )mk ,


donde

m1 + m2 + + mk = n.

Por el teorema anterior, la multiplicidad geomtrica de

1, . . . , k.

es

mi , i =

Sean ahora:





U1 = x11 , . . . , x1m1 , , Uk = xk1 , . . . , xkmk
bases ortogonales de

S(1 ), , S(k ) respectivamente.


n vectores propios de A :

Entonces por el

teorema 3.3.2, el conjunto de

= U1 U2 Uk
 1

=
x1 , . . . , x1m1 , x21 , . . . , x2m2 , . . . , xk1 , . . . , xkmk


es ortogonal.

La demostracin del siguiente corolario es consecuencia inmediata del teorema 3.3.7 y del teorema 3.2.2.
3.3.8.

Corolario.

Toda matriz simtrica es diagonalizable.


69

3.3. Matrices simtricas


3.3.9.

Denicin.

Sea

Diagonalizacin de matrices
A

una matriz cuadrada. Se dice que

nalmente diagonalizable si existe un matriz ortogonal

tal que

es ortogoT

P AP =

es una matriz diagonal.

3.3.10.

Teorema.

Si

es una matriz simtrica, entonces

es ortogo-

nalmente diagonalizable; esto es, existe una matriz ortogonal P tal que
P T AP = D es una matriz diagonal. Ms an, las columnas de la matriz

son los vectores propios de

los valores propios de

y los elementos de la diagonal de

son

A.

A es una matriz simtrica de orden n, entonces


x1 , x2 , . . . , xn (teorema 3.3.7).
Supongamos que stos corresponden a los valores propios 1 , 2 , . . . , n ,


x1 x2 xn es ortogonal (prorespectivamente. La matriz P =
Demostracin. Sea

tiene

vectores propios ortonormales

posicin 3.3.5), y de acuerdo con la demostracin del teorema 3.2.2, se


tiene que

1
0

P T AP = P 1 AP = D = .
..
0

0
2

.
.
.

..

0
0

. .
.
.
n


El recproco del teorema 3.3.10 tambin es vlido y est dado por el siguiente
3.3.11.

Teorema.

tonces

Si una matriz

es ortogonalmente diagonalizable, en-

es simtrica.

Demostracin. Por hiptesis existe una matriz ortogonal

P T AP = D

tal que

es una matriz diagonal. De aqu que:

A = P DP T = (P DT P T )T = (P DP T )T = AT ,
o sea,

es una matriz simtrica.


70

Diagonalizacin de matrices
3.3.12.

Ejemplo.

3.3. Matrices simtricas

Para la matriz simtrica:

2
2
2 4
4
2 33

5
A= 2
2
encontremos una matriz ortogonal

tal que

P t AP = D

sea una matriz

diagonal.

A ortonormales.
A, pA () = |A I| .

2
4 = ( + 3)( 6)2
2

Para ello debemos encontrar tres vectores propios de


Determinemos el polinomio caracterstico de


5

pA () = |A I| = 2
2

2
2
4

Resolvamos la ecuacin caracterstica de

pA () = ( + 3)( 6) = 0

A, pA () = |A I| = 0.
sii

de aqu que los diferentes valores propios de

son

=6

1 = 3

2 = 6.

A son las soluciones no nulas


(A+3I) x = 0 y los 6-vectores propios de
A son las soluciones no nulas del sistema de ecuaciones lineales (A6I)x =
0. Se tiene entonces:

1
2
2
8
2
2
5 4
y
A 6I = 2 4 4 .
A + 3I = 2
2 4 4
2 4
5
Por denicin, los

(3)-vectores

= 3

propios de

del sistema de ecuaciones lineales

Es fcil vericar, que las soluciones del sistema homogneo

(A + 3I)x = 0

son los vectores de la forma:

1
1
x1
2 x3
1
x = x2 = x3 = x3 2 ;
2
2
x3
x3

x3 R.

En consecuencia,

b = U
b3
U
1
es una base para

1
= 2 ,

S(1 ) = S(3). Aplicando el proceso de ortogonalizacin

de Gram-Scmidt a esta base (vea el teorema 1.2.24), se llega a que:

b = U
b3
U
1

1 1
2 ,
=

3
2
71

3.3. Matrices simtricas

Diagonalizacin de matrices

es una base ortonormal de

S(1 ) = S(3).

De otra parte, se encuentra que las soluciones del sistema homogneo

(A 6I)x = 0

son los vectores de la forma:

x1
2x2 + 2x3
x2 =

x2
x3
x3

2
2
x2 1 +x3 0 ; x2 , x3 R.
0
1

=
En consecuencia,

b
U
2
es una base para


2
2
b6 = 1 , 0 ,
=U

1
0

S(2 ) = S(6).

Aplicando el proceso de ortogonalizacin

de Gram-Schmidt a esta base se llega a que:

b
U
2

2
2

1
1
b6 = 1 , 4 ,
=U

5
3 5
0
5

es una base ortonormal de

S(2 ) = S(6).

Segn la demostracin del teorema 3.3.7,

b U
b
U =U
1
2

2
2
1 1

1
1
2 , 1 , 4 ,
=
3

5 0
3 5
2
5

es un conjunto ortonormal de vectores propios de


demostracin del teorema 3.3.10, la matriz,

1
3

2
P =
3

2
3

5
1

5
0
72

3 5
4

3 5
2

3 5

A.

Ahora, segn la

Diagonalizacin de matrices

3.3. Matrices simtricas

es ortogonal tal que

3
P T AP = P 1 AP = D = 0
0
3.3.13.

que

entes,

Teorema.

Sea A una matriz simtrica


(0 n) valores propios,
estrictamente positivos y (0 n)
que tiene

0
0 .
6

0
6
0

de orden

n.

Supongamos

no necesariamente difervalores propios, no nece-

sariamente diferentes, estrictamente negativos. Entonces existe una matriz invertible

tal que:

I
P T AP = 0
0
Si adems existe otra matriz invertible

I0
QT AQ = 0
0
entonces

= 0

0
0 .
0

0
I
0
Q

tal que

0
I0
0

0
0 ,
0

= 0 .

Demostracin. Sean

1 , 2 , . . . ,

A estricx1 , x2 , . . . , x

los valores propios de

tamente positivos (no necesariamente distintos) y sean

A asociados respectivamente a tales va1 , 2 , . . . , los valores propios de A estrictamente negativos (no necesariamente distintos) y y1 , y2 , . . . , y vectores
propios ortonormales de A asociados a dichos valores propios negativos y
sean z1 , z2 , . . . , z , = n ( + ), vectores propios ortonormales de
A asociados al valor propio nulo (0). Segn la demostracin del teorema
3.3.10, la matriz M , cuyas columnas son los correspondientes vectores
vectores propios ortonormales de
lores propios. Sean adems

propios organizados adecuadamente, es ortogonal. Es decir, la matriz

M=

x1

x2

y1

y2

es ortogonal. De otro lado, se tiene que

z1

M t AM = D

z2

D
M t AM = D = 0
0
73

0
D
0

0
0
0

es una matriz diag-

onal con los valores propios en su diagonal y dispuestos as:

3.3. Matrices simtricas

Diagonalizacin de matrices

donde:

1
0

D = .
..
0
Sea ahora

0
2

.
.
.

..

0
0

.
.
.

1
0

D = .
..
0

D = 0
0
1

D =
.
..

D =

La matriz

.
.
.

..

0
0

. .
.
.

0
1

.
.
.

..

.
.
.

.
.
.

1
1
0

0
0
I

0
D
0

1
p

1
2

.
.
.

..

.
.
.

y.

1
p

es invertible y es tal que:

D D D
t
t

0
= D M AM D =
0

I
0
0
= 0 I 0 .
0
0
0

D DD

la matriz diagonal:

donde

0
2

0
D D D
0

P = M D es

I
0
0
P t AP = 0 I 0 .
0
0
0

En consecuencia, la matriz invertible

74

tal que:

0
I 0 I

Diagonalizacin de matrices

3.3. Matrices simtricas

Supongamos ahora que las matrices invertibles

I
P t AP = 0
0

0
I
0

y demostremos que

Q =

x1

y
y

x2

y1

y2

son tales que:

0
0
0

= 0

Escribamos las matrices

I0
Qt AQ = 0
0

0
I0
0

0
0 .
0

= 0 .
Q

particionadas por columnas as:

x
y0

x+1
y0 +1

xn

yn

Por hiptesis se tiene que:

T
xi Axi = 1

xT Ax = 0
j
i
T

yi Ayi 0

T
yi Ayj = 0

si i = 1, 2 . . . ,
si i =
6 j (i, j = 1, 2 . . . , n)
si i = 0 + 1, 0 + 2 . . . , n
si i 6= j (i, j = 1, 2 . . . , n).

Ahora, el conjunto de vectores de

Mn1 :

C = {x1 , x2 , . . . , x , y0 +1 , y0 +2 , . . . , yn }
es linealmente independiente. En efecto, si

1 x1 + . . . + x + 1 y0 +1 + . . . + n0 yn = 0
entonces el vector

1 x1 + 2 x2 + . . . + x

1 y0 +1 2 y0 +2 . . . n0 yn

(1 x1 + . . . + x )T A(1 x1 + . . . + x )

es tal que:

U T AU

= 21 + 22 + . . . + 2 0
y

U T AU

(1 y0 +1 + . . . + n0 yn )T A(1 y0 +1 + . . . + n0 yn )

2
T
12 yT0 +1 Ay0 +1 + 22 yT0 +2 Ay0 +2 + . . . + n
0 yn Ayn 0

Por lo tanto

U T AU = 0.

De esto se sigue que

1 = 2 = . . . = = 0.

consecuencia,

1 y0 +1 + 2 y0 +2 + . . . + n0 yn = 0 .
75

En

3.3. Matrices simtricas


Puesto que la matriz

Diagonalizacin de matrices

Q es invertible, los vectores y0 +1 , y0 +2 , . . . , yn son


1 = 2 = . . . = n0 = 0.

linealmente independientes, y por lo tanto,

Ahora bien, como la dimensin del espacio vectorial


un conjunto linealmente independiente de

+ (n 0 )

Mn1

es

C es
Mn1 ,

vectores en

entonces por el teorema 1.3.8(2) :

+ (n 0 ) n ,
0 . Argumentando
= 0 .

o sea,

en forma similar se demuestra que

0 ,

de donde

De otro lado, de la hiptesis, se tiene que

(A) = + = 0 + 0
por lo tanto

Nota.

= 0 .

En la parte (1) del teorema anterior se tiene que

P T AP

es igual

a:
(i)
(ii)

(iii)

(iv)

(v)

(vi)

(vii)
3.3.14.

In , si = n.
In , si = n.


I 0
, si 0 < p < n y = 0.
0 0


I 0
, si 0 < < n y = 0.
0
0


I
0
, si 0 < p < n y 0 < < n y + = n.
0 I

I
0
0
0 I 0 , si 0 < p < n y 0 < < n y + < n.
0
0
0
0,

sii

A = 0.

Ejemplo.

Para la matriz simtrica

2
0
2

1
A = 2
0
encontremos una matriz invertible

0
2
1

tal que

P t AP

sea una matriz diag-

onal con las caractersticas que se establecen en el teorema anterior.

76

Diagonalizacin de matrices

3.3. Matrices simtricas

Efectuando los clculos pertinentes se encuentra que los valores propios


de

son:

1 = 3, 2 = 3

3 = 0, y que la matriz

2 1 2
1
M = 2 2 1
3
1 2
2
y

ortogonal:

es tal que

3
M t AM = D = 0
0

0
0 .
0

0
3
0

Ahora, la matriz diagonal

D =

3
0
0

3
0

es invertible y es tal que:

D DD

Dt M t AM D

1
3

0
0

1
0
0

3
0
0
1
0

1
0
0
0 1 0 ,
0
0
0

3
0

P = M D es tal

I1
0
P t AP = 0 I1
0
0

o sea, la matriz invertible

3
0
0

0
1

3
0

que

0
0 .
0

En relacin con la primera parte del teorema 3.3.13 (ver su demostracin)


y tal como aparece en el ejemplo anterior, un mtodo para calcular una

M que
A, y despus postmultiplicar a M por una ma
triz diagonal conveniente D . A continuacin damos otro mtodo para
t
calcular, simultneamente, una de tales matrices P y la matriz P AP.
El mtodo se basa en el hecho de que la matriz P es invertible y por
de tales matrices

consiste en encontrar una matriz ortogonal

diagonalice a la matriz

77

3.3. Matrices simtricas

Diagonalizacin de matrices

ende se puede expresar como producto de un nmero nito de matrices

P = E1 E2 Ek,

elementales (vase teorema 1.1.11(2)); sto es,

E1 , E2 , , Ek,

donde

son matrices elementales. As que una forma de calcular

la matriz

P t AP = Ekt E2t E1t A E1 E2 Ek,


consiste en efectuar una sucesin de operaciones elementales en las las
de
de
de

A y la "misma" sucesin de operaciones elementales en las columnas


A (vase teorema 1.1.8), hasta lograr lo deseado. Esta misma sucesin
t
operaciones elementales en las las de la matriz identidad I da P .

Ilustraremos este mtodo con el ejemplo siguiente.


3.3.15.

Ejemplo.

Para la matriz simtrica

2 3
5 4
4
9

1
A= 2
3
encontremos una matriz invertible

tal que

P T AP

sea una matriz diag-

onal con las caractersticas que se establecen en el teorema 3.3.13.


Formemos la matriz

2 3 | 1 0 0
A | I
5 4 | 0 1 0 .
4
9 | 0 0 1


A | I , las operaciones elemenEfectuemos, en las las de la matriz
T
tales; E1 ; multiplicar los elementos de la primera la por = 2 y sumar
T
los resultados con los correspondientes elementos de la segunda la, E2 ;
multiplicar los elementos de la primera la por = 3 y sumar los resulta

1
= 2
3

dos con los correspondientes elementos de la tercera la. As obtenemos


la matriz

E2T E1T A

| E2T E1T I

| B1

A1

luego efectuamos las "mismas" operaciones elementales en las columnas


de la matriz

A1 ,

para obtener:

E2T E1T A

E1 E2 | E2T E1T I

A1

| B1

Se tiene:

A1

| B1

1
= 0
0

2
1
2
78

3 |
1 0 0
2 | 2 1 0
0 |
3 0 1

Diagonalizacin de matrices

3.3. Matrices simtricas

|
1 0 0
0
| 2 1 0
A1 | B 1
|
3 0 1
 0

Efectuemos, en las las de la matriz
A1 | B1 , la operacin elemenT
tal; E3 ; multiplicar los elementos de la segunda la por = 2 y sumar


1
= 0
0

0
1
2

0
2
0

los resultados con los correspondientes elementos de la tercera la. As


obtenemos la matriz

E3T E2T E1T AE1 E2

| E3T E2T E1T I

| B2

A2

luego efectuamos la "misma" operacin elemental en las columnas de la


matriz

A2 , para obtener:
 T T T
  0
E3 E2 E1 AE1 E2 E3 | E3T E2T E1T I = A2

| B2

Se tiene:

A2

| B2

| B2

1
= 0
0

0
1
0

0
1
0

0 |
1
2 | 2
4 |
7

0
1
2

0
0
1

A2

1
= 0
0

Finalmente, efectuemos en las las


eracin elemental;

E4T ;

1 0 0
0 |
0 | 2 1 0 .
3 0 1
4 |
 0

de la matriz
A2 | B 2

la op-

multiplicar los elementos de la tercera la por

= 1/2. As obtenemos la matriz


 
 T T T T
E4 E3 E2 E1 AE1 E2 E3 | E4T E3T E2T E1T I = A3

| B3

luego efectuamos la "misma" operacin elemental en las columnas de la


matriz

A3 ,

para obtener:

E4T E3T E2T E1T AE1 E2 E3 E4 |

E4T E3T E2T E1T I

A3

| B3

Se tiene:

A3

 1
| B3 = 0
0

0
1
0
79

0
0
2

1
|
2
|
7
|
2

0
1
1

0
0

1
2

3.3. Matrices simtricas

Diagonalizacin de matrices

 1
| B2 = 0
0

A2

0
1
0

1
|
2
|
7
|
2

0
0
1

0
1
1

0
0 .

1
2

As que la matriz invertible

PT

0
0

1
2

1
0
2 1
T T T T
= B3 = E4 E3 E2 E1 =
7
1
2

es tal que

1
P T AP = D = A3 = 0
0
Podemos decir entonces, que la matriz

0
0 .
1

0
1
0

tiene dos valores estrictamente

positivos y un valor propio estrictamente negativo.


3.3.16.

Nota.

En relacin con el mtodo ilustrado en el ejemplo anterior,

A=
[aij ]nn son nulos y si aij 6= 0, i 6= j , entonces sumando la la j a la
la i y la columna j a la columna i, obtendremos una matriz simtrica
A0 = M T AM con 2aij en el lugar isimo de la diagonal principal de A0 .
si todos los elementos de la diagonal principal de la matriz simtrica

Una vez hecho sto, se sigue el proceso descrito en el ejemplo anterior.


3.3.17.

Ejemplo.

Para la matriz simtrica


A=
encontremos una matriz invertible

0
1

1
0

tal que

P T AP

sea una matriz diag-

onal con las caractersticas que se establecen en el teorema 3.3.13.


Formemos la matriz:

| I


=

0
1

Efectuemos, en las las de la matriz


tal

MT ;

1
0


| 1
| 0

A | I

0
1



.
la operacin elemen-

sumar los elementos de la segunda la con los correspondientes

elementos de la primera la. As obtenemos la matriz

MT A

| MT I
80

Diagonalizacin de matrices

3.3. Matrices simtricas

luego efectuamos la "misma" operacin elemental en las columnas de la


matriz

M T A,

para obtener la matriz:

M T AM

| MT I

A0

| MT

1
1

1
0

| 1
| 0

1
1

2
1

1
0

| 1
| 0

1
1

Se tiene:

M A


| M I

| M

=

=

tal;

E1T ;

A0

Efectuemos, en las las de la matriz

| MT

, la operacin elemen-

= 21

multiplicar los elementos de la primera la por

y sumar

los resultados con los correspondientes elementos de la segunda la. As


obtenemos la matriz

E1T A0

| E1T M T

| B1

A1

luego efectuamos la "misma" operacin elemental en las columnas de la


matriz

A1 ,

para obtener:

E1T A0 E1

| E1T M T

| B1

A1

Se tiene:

A1

| B1

|
|
| 1
2

1
1
|

 0


|
=
A1 | B 1

1
| 1 1
0
2
2
2
 0

Efectuemos en las las de la matriz
las
operaciones
A1 | B 1
T
mentales; E2 ; multiplicar los elementos de la primera la por =

T
y, E3 ; multiplicar los elementos de la segunda la por =
2 .
2

ele-

1 ,
2
As

obtenemos la matriz

E3T E2T E1T A0 E1

| E3T E2T E1T M T

| B2

A2

luego efectuamos las "mismas" operaciones elementales en las columnas


de la matriz

A2 ,

para obtener:

E3T E2T E1T A0 E1 E2 E3

| E3T E2T E1T M T


81

A2

| B2

3.4. Diagonalizacin simultnea

Diagonalizacin de matrices

Se tiene:

A2

| B2
=
0

0
1

A2

1


=
| B2
0

0
1

.
1

1
|

2
|
|
1
|
2

1
|

2
|
|
1
|
2

As que la matriz invertible

P T = B2 = E3T E2T E1T M T =

es tal que

P T AP = D = A3 =

.
0

Podemos decir, que la matriz

tiene un valor estrictamente positivo y

un valor propio estrictamente negativo.

3.4. Diagonalizacin simultnea de matrices simtricas


En esta seccin veremos un par de teoremas sobre diagonalizacin simultnea de matrices simtricas, los cuales son tiles en estadstica. En
particular el teorema 3.4.3 es utilizado en la demostracin de la indepen-

dencia de dos ciertas formas cuadrticas (ver teorema 4.5.3 de [ ]).


3.4.1.

Teorema

(Diagonalizacin simultnea)

mtricas de orden

n.

positivos, entonces existe una matriz invertible

QT BQ = D

A y B matrices siA son estrictamente


Q tal que QT AQ = In y
Sean

Si todos los valores propios de

es una matriz diagonal. Adems, los elementos de la diagonal

de D, son las soluciones de la ecuacin


82

|B A| = 0, las cuales son reales.

Diagonalizacin de matrices

3.4. Diagonalizacin simultnea

Demostracin. Puesto que todos los valores propios de

son es-

trictamente positivos, se sigue del teorema 3.3.10, que existe una matriz

P T AP = In . Sea ahora C = P T BP. La matriz C


C T = (P T BP )T = P T B T P = P T BP = C . Ahora bien, en virtud del teorema 3.3.1, existe una matriz ortogonal M tal que
M T CM = D es una matriz diagonal con los valores propios de C en su
invertible

tal que

es simtrica pues,

diagonal principal. En consecuencia:

M T P T AP M = M T In M = M T M = In
esto es, la matriz

Q = PM

es tal que

M T P T BP M = M T CM = D ;

QT AQ = In

QT BQ = D

es una

matriz diagonal. De otro lado, como lo hemos expresado, los elementos de


la diagonal de

son los valores propios de

C,

los cuales segn el teorema

3.3.1 son reales. Esto es, los elementos de la diagonal de


de la ecuacin

|C I| = 0.

D son la soluciones
P es invertible se

En vista de que la matriz

tiene:

|C I| =
=


T
P BP P T AP

|B A| = 0,

sii

T
P |B A| |P | = 0


lo cual termina la demostracin del teorema.


3.4.2.

Ejemplo.

Consideremos las matrices simtricas

1
A= 0
0

0
4
2

0
2
2

5
B= 4
4

4
8
4

4
4 .
4

Efectuando los clculos correspondientes se encuentra que los valores propios de

son:

1 = 1, 2 = 3 +

3 = 3

5,

los cuales son

estrictamente positivos y que la matriz invertible

P = 0

0
1
2
0

0
1

2
1

es tal que

P T AP = I3

5
C = P T BP = 2
2
83

2
2
2 4 .
4
2

3.4. Diagonalizacin simultnea

Diagonalizacin de matrices

Por el ejemplo 3.3.12 se sabe que

M =

1
3

2
3

2
3

3 5

3 5

3 5

es ortogonal y es tal que

3
M T CM = D = 0
0

0
0 .
6

0
6
0

En consecuencia, la matriz invertible

Q = PM =

1
3

2 5

2
3

3 5

3 5

3 5

es tal que

QT AQ = I3
3.4.3.

3
QT BQ = D = 0
0

0
6
0

Teorema (Diagonalizacin ortogonal simultnea).

0
0 .
6
Sean

AyB

ma-

trices simtricas de orden n. AB = BA sii existe una matriz ortogonal


T
T
tal que P AP y P BP son matrices diagonales.

Demostracin.

triz ortogonal

(=)

En virtud del teorema 3.3.10, existe una ma-

tal que:

1 Ik1
0

RT AR = D =
.
.

.
0

0
2 Ik2

0
0

.
.
.

..

.
.
.

...

84

m Ikm

Diagonalizacin de matrices
donde los

3.4. Diagonalizacin simultnea

Sea ahora

A y ki es la multiplicidad
i , i = 1, 2, . . . , m.

son los diferentes valores propios de

geomtrica (algebraica) del valor propio

C = RT BR.

Puesto que por hiptesis

AB = BA,

entonces

DC = RT ARRT BR = RT BAR = RT BRRT AR = CD.


Particionando la matriz

convenientemente podemos escribir:

DC

CD

1 Ik1
0

0
C11 C12 C1m
0

0
2 k2

C21 C22 C2m


=
..
.
.
.
.
.
.
..
.
.
..
.
.
.

.
.
.
.
.
.
.
0
0
m Ikm
Cm1 Cm2 Cmm

1 C11
1 C12
1 C1m
2 C21
2 C22
2 C2m

=
,
.
.
.
..
.
.
.

.
.
.
.
m Cm1 m Cm2 m Cmm

C11 C12 C1m


1 Ik1
0

0
C21 C22 C2m 0

0
2 k2

= .

.
.
.
.
.
.
.
.
..
.
.
.
..
.
..

.
.
.
.
.
Cm1 Cm2 Cmm
0
0
m Ikm

1 C11 2 C12 m C1m


1 C21 2 C22 m C2m

=
.
.
.
.
..
.
.
.

.
.
.
.
1 Cm1 2 Cm2 m Cmm

Ya que

i 6= j

DC = CD

i 6= j ,

si

i 6= j ,

entonces se tiene que

si

y por tanto

C11
0

C= .
..
0
Como la matriz

0
0

.
.
.

..

.
.
.

0
C22

Cmm

C es simtrica, cada una de las matrices Cii , i = 1, 2 . . . , m,


Qi tal que QTi Cii Qi =

es simtrica, por tanto existe una matriz ortogonal

Di

Cij = 0,

es una matriz diagonal. Sea a hora:


85

3.4. Diagonalizacin simultnea

Q1
0

Q= .
..
0
La matriz

Diagonalizacin de matrices

0
Q2

.
.
.

..

0
0

.
.
.

.
Qm

Q es ortogonal (vase ejercicio 3.5(14)) y es tal que QT CQ = D


QT DQ = D; es decir,

es una matriz diagonal. Tambin se tiene que

QT RT ARQ = D
Ya que las matrices

QT RT BRQ = D .

P = RQ
P T BP son

son ortogonales, entonces la matriz

P T AP

es ortogonal (vea el ejercicio 3.5.2(13)) y es tal que

matrices diagonales.

(=) Supongamos que existe una matriz ortogonal P tal que P T AP = D1


T
y P BP = D2 son matrices diagonales. Puesto que D1 D2 = D2 D1 , entonces :

P T AP P T BP = P T BP P T AP ,
de donde
3.4.4.

AB = BA.

Ejemplo.

En este ejemplo seguiremos los pasos hechos en la de-

mostracin del teorema anterior en el sentido

(=). La vericacin de los

clculos numricos queda a cargo del lector.


Las matrices simtricas:

1
1
A=
0
0
son tales que

1
1
0
0

AB = BA.

0
0
1
0

0
0

0
1

3 = 2

de

0
1
0
0

0
0
2
2

0
0

2
5

A son 1 = 0
k1 = 1, 2 = 1 de multiplicidad algebraica
multiplicidad algebraica k3 = 1. La matriz ortogonal

1/ 2 0 0 1/ 2

1/ 2 0 0 1/ 2

R=

0
1 0
0

0
0 1
0
Los valores propios de la matriz

de multiplicidad algebraica

k2 = 2

1
0
B=
0
0

86

Diagonalizacin de matrices

3.4. Diagonalizacin simultnea

es tal que:
.
.
.

0
T
R AR = D =

.
.
.

.
.
.

.
.
.

.
.
.

.
.
.

.
.
.

.
.
.

.
.
.

.
.
.

.
.
.

0

1 I

0
= 0

3 I

2 I
0

y
.
.
.

0
T
R BR = C =

.
.
.

.
.
.

.
.
.

.
.
.

0

C11

0
= 0

C33

C22
0

La matriz ortogonal

Q=

.
.
.

2/ 5

1/ 5

.
.
.

.
.
.

.
.
.

.
.
.

1/ 5

2/ 5

.
.
.

.
.
.
.
.
.

Q1


0
= 0

0
Q2

es tal que

0
QT CQ =
0
0

0
1
0
0

0
0
6
0

0
0
= QT RT BRQ = D
0
1
87

Q3

3.4. Diagonalizacin simultnea

Diagonalizacin de matrices

0
QT DQ =
0
0

0
1
0
0

0
0
1
0

0
0
= QT RT ARQ = D .
0
2

En consecuencia, la matriz ortogonal

1/ 2

1/ 2
P = RQ =

es tal que

P T AP = D

2/ 5

1/ 5

1/ 5

2/ 5

P T BP = D

1/ 2

1/ 2
0
0

son matrices diagonales.

Corolario.

Sean A1 , A2 , . . . , Ak matrices simtricas de orden n.


Una condicin necesaria y suciente para que exista una matriz ortogonal
P tal que P T Ai P sea una matriz diagonal para cada i = 1, 2, . . . , k es que

3.4.5.

Ai Aj = Aj Ai

para cada

j; i, j = 1, 2, . . . , k .

Demostracin. (Suciencia:) La demostracin de esta parte del teo-

rema la haremos utilizando induccin sobre el nmero de matrices


cuando

k=2

k. Para

el corolario es cierto por el teorema anterior. Supongamos

k = s y demostremos que
k = s + 1. Sean pues A1 , A2 , . . . , As+1
matrices simtricas de orden n tales que Ai Aj = Aj Ai para cada i y j;
i, j = 1, 2, . . . , s + 1. Por el teorema 3.3.10 existe una matriz ortogonal R
ahora que el corolario es cierto para cuando

el corolario es cierto para cuando

tal que

donde los

1 Ik1
0

2
k
2

R T A1 R = D =
.
.
..
.
.

.
.
.
0
0

, = 1, 2, . . . , m, son los diferentes

0
0
.
.
.

m Ikm
valores propios de

es la multiplicidad geomtrica (algebraica) del valor propio

i, i = 2, 3, . . . , s + 1, tomemos la
hiptesis A1 Ai = Ai A1 , entonces

Ahora, para cada


Puesto que por

Ci D

matriz

C i = R T Ai R .

RT Ai RRT A1 R = RT Ai A1 R = RT A1 Ai R

RT A1 RRT Ai R = DCi ,
88

A1

Diagonalizacin de matrices
para

i = 2, 3, . . . , s + 1. De sto se sigue que:

Ci1 0

0
0 Ci2

Ci = .
, i = 2, 3, . . . , s + 1 .
.
.
.
.
..
.
..

.
.
0
0 Cim

De otra parte, como

1,

3.4. Diagonalizacin simultnea

Ai Aj = Aj Ai

para todo

i y todo j; i, j = 2, 3, . . . , s+

entonces:

Ci Cj

RT Ai RRT Aj R = RT Ai Aj R

RT Aj Ai R = RT Aj RRT Ai R = Cj Ci .

De esto se sigue que para cada

, = 1, 2, . . . , m.

Ci Cj = Cj Ci .
Ci es simtrica, entonces la matriz Ci
i = 2, 3 . . . , s + 1 y cada = 1, 2, . . . , m. Por lo
hiptesis de induccin; para cada , existe una matriz

De otra parte, como la matriz


es simtrica para cada
anterior y por la
ortogonal

tal que

QTi Ci Qi = D
es una matriz diagonal. Sea ahora:

Q1
0

Q= .
..
0

0
Q2

.
.
.

..

0
0

.
.
.

.
Qm

Q es ortogonal y es tal que QT Ci Q = Di es una matriz diagonal.


T
se tiene que Q DQ = D . As que:

La matriz
Tambin

QT RT Ai RQ = Di , i = 2, 3 . . . , s + 1,
Puesto que

QT RT A1 RQ = D .

son matrices ortogonales, entonces la matriz

es ortogonal. En consecuencia, la matriz ortogonal


es una matriz diagonal para

P = RQ
P T Ai P

es tal que

i = 2, 3 . . . , s + 1.

P tal
P T Ai P = Di es una matriz diagonal para cada i = 1, 2, . . . , k . Puesto
que Di Dj = Dj Di , para todo i y todo j , i, j = 1, 2, . . . , k , entonces
(Necesidad:) Supongamos ahora que existe una matriz ortogonal

que

P T Ai P P T Aj P = P T Aj P P T Ai P,
de donde se tiene que

Ai Aj = Aj Ai

para todo

89

i y todo j; i, j = 1, 2, . . . , k.


3.5. Ejercicios
3.4.6.

Diagonalizacin de matrices

Ejemplo.

A1 =

son tales que

Las matrices simtricas

2
1

1
2


,

A2 =

3
4

4
3


A3 =

5
6

6
5

Ai Aj = Aj Ai , i = 1, 2.

La matriz ortogonal

1
1
R=
2 1

es tal que

R T A1 R

R A2 R

D2 =

R T A3 R

D3 =

es decir, la matriz ortogonal


matrices

A1 , A 2

1
0

1
0

D1 =

0
3

0
7


11

diagonaliza de manera simultnea a las

A3 .

3.5. Ejercicios
3.5.1 Responda verdadero o falso, justicando su respuesta:

p() = 3 + 2 2 + 43 puede ser el polinomio


caracterstico de una matriz A M33 .
3
2
Si p() = + 4 5 + 2 es el polinomio caracterstico de
una matriz A M33 , entonces |A| = 2.

1
3 1 1
x = 1 es un vector propio de M = 7 5 1
0
6 6 2
= 1 es un valor propio de la matriz M anterior.
Si una matriz cuadrada A es diagonalizable, entonces existen
1
innitas matrices invertibles P tales que P
AP = D es una

1. El Polinomio
2.

3.
4.
5.

matriz diagonal.
90

Diagonalizacin de matrices
6. Sea

3.5. Ejercicios
n. Si C es una matriz
n invertible, entonces las matrices A, C 1 AC

una matriz cuadrada de orden

cuadrada de orden

CAC 1 , tienen el mismo polinomio caracterstico.


A y B son matrices simtricas de orden n, entonces la matriz
AB es simtrica.
Sean A y B matrices simtricas de orden n. AB es simtrica sii
AB = BA.
1
Si P es una matriz ortogonal, entonces P
tambin es ortogo-

7. Si
8.
9.

nal.

P T tambin es ortogonal.
es una matriz ortogonal, entonces |P | = 1.
Una matriz P de tamao n n es ortogonal sii los vectores la
n
de P conforman una base ortonormal de R .


1 1
La matriz P =
es ortogonal.
1 1
2
Si la matriz A satisface la igualdad: A = 3A 2I, entonces los
posibles valores propios de A son 1 = 1, 2 = 2.
P
Si P

10. Si
11.
12.

13.
14.

es una matriz ortogonal, entonces

3.5.2 Demuestre que:

es un valor propio de A, entonces n es un valor propio de


A , n = 1, 2, 3, . . ..
Si x es un vector propio de A, entonces x es un vector propio de
An , n = 1, 2, 3, . . ..
= 0 es un valor propio de una matriz A sii |A| = 0.
Si A es una matriz invertible y es un valor propio de A, entonces
1 es un valor propio de A1 .
Si A y C son matrices cuadradas de orden n y si C es invertT
1
ible entonces las matrices A, A , C
AC , CAC 1 , C 1 AT C y
T 1
CA C tienen el mismo polinomio caracterstico.
Si T es una matriz triangular superior, entonces los valores propios de T son los elementos de la diagonal principal de T.
Si A y B son matrices cuadradas del mismo orden, entonces AB
y BA tienen los mismos valores propios (sugerencia: Analice los
casos = 0 es un valor propio de AB y 6= 0 es un valor propio
de AB ).
Sean 1 , 2 , . . . , n los diferentes valores propios de una matriz
A y sean 1 , 2 , . . . , m son los diferentes valores propios de una
matriz B , entonces los diferentes valores propios de una matriz

1. Si

2.
3.
4.
5.

6.
7.

8.

91

3.5. Ejercicios

Diagonalizacin de matrices

de la forma


M=

A
0

C
B

1 , 2 , . . . , n , 1 , 2 , . . . , m .
A es una matriz cuadrada de orden n, entonces pA () =
|A I| es un polinomio de grado n en la variable que tiene

son
9. Si

la forma:

pA () = a0 + a1 + a2 2 + + (1)n n .
n).
es un valor propio de una matriz A, entonces la multiplicidad
geomtrica de es menor o igual que la multiplicidad algebraica
de . (sugerencia: vea la demostracin del teorema 3.3.2).
n
Si A Mnn es tal que pA () = (1) (1 )(2 ) (n )
entonces: (i) |A| = 1 2 n y (ii) Tr A = 1 + 2 + + n .




A B
In
In
Sean A, B Mnn , M =
y P =
B A
In In
1
1
a ) Verique que P
= P.
2
1
b ) Calcule P
M P y concluya que det M = det(A + B)
det(A B).

(sugerencia: usar induccin sobre


10. Si

11.

12.

c ) Use (b) para mostrar que

pM () = det(M I) = det((A + B) I) det((A B) I) .


13. Si

son matrices ortogonales, entonces

PQ

es una matriz

ortogonal.
14. Si

Q1 , Q2 , . . . , Qm son matrices ortogonales,

Q1 0

0
0 Q2
0

Q= .
.
.
.
.
.
.
.
.

.
.
.
.
0
0 Qm

entonces la matriz

es tambin ortogonal .

x un -vector propio de A y sea y un -vector propio de AT ,


donde 6= , entonces x, y son vectores ortogonales (sugerencia:

15. Sea

vea la demostracin del teorema 3.3.2).

A es una matriz idempotente; esto es, tal que A2 = A, entonces


los posibles valores propios de A son 1 = 0, 2 = 1.

16. Si

92

Diagonalizacin de matrices
17. Si

3.5. Ejercicios

es una matriz simtrica idempotente

pA () = Tr A =

n X
n
X

nn

entonces:

(aij )2 .

i=1 i=1
(Sugerencia: Utilice el teorema 3.3.13 y el corolario 2.3.5)
18. Sea

a Mn1 un

una matriz simtrica de rango 1 y es tal


19. Si

A = (aT a)1 aaT


2
que A = A.

vector no nulo. Entonces

es una matriz simtrica tal que todos los valores propios

M
A = M T M. (Sugerencia: utilice el teorema 3.3.13(1))
Si A es una matriz simtrica tal que todos los valores
son positivos, entonces existe una matriz invertible

20.

es

tal que
propios

son positivos, entonces existe una matriz triangular superior e


invertible,

T,

sobre el orden

de

(Sugerencia: utilice induccin

n que tiene p valores pron p valores propios nulos, entonces


T
existe una matriz no invertible M tal que A = M M. (Sugeren-

21. Si

A = T T A.
la matriz A).

tal que

es una matriz simtrica de orden

pios positivos

(p < n)

cia: utilice el teorema 3.3.13(1)).

A es una matriz simtrica tal que A2 = A y si B es una matriz


simtrica, del mismo orden de A, que tiene sus valores propios

22. Si

positivos, entonces:

(ABA) = (A) = Tr A
(sugerencia: Utilice (19) y (17)).
23. Sea

una matriz cuadrada

nn

n
X

|aii | >

tal que

|aij | ,

j6=i,j=1

A es invertible. (Sugerencia:
T
x1 x2 xn
suponga que existe un vector x =
6= 0 tal
que Ax = 0 y que |xi | = m
ax {|x1 | , |x2 | , . . . |xn |}. Despeje aii xi
en la i-sima ecuacin del sistema Ax = 0, tome valor absoluto
para todo

i = 1, 2, . . . n,

entonces

y llegue a una contradiccin).


24. Si

A = [aij ]nn

es una matriz simtrica tal que

|aii | >

n
X
j6=i,j=1
93

|aij |

3.5. Ejercicios

Diagonalizacin de matrices

para todo

i = 1, 2, . . . n,

entonces todos los valores propios de

son positivos. (Sugerencia: suponga

A
25. Si

es un valor propio de

y utilice (23) para llegar a una contradiccin).

son dos matrices simtricas invertibles de igual or-

AB = BA, entonces existe una matriz ortogonal


P tal que P T AP, P T BP, P T ABP, P T AB 1 P, P T A1 BP y
P T A1 B 1 P son matrices diagonales.
2
Si A es una matriz n n tal que A = mA, entonces
den tales que

26.

Tr A = m(A).
(Sug.: considere (i)

(A) = 0,

(ii)

(A) = n

y (ii)

0 < (A) < n.

3.5.3 Clculos

1. Para cada una de las siguientes matrices: encuentre, si es posible,


una matriz invertible

1
2

(i) M =


(iii) M =

2
1
1
0

3
(vii) M = 1
3

2
5
(ix) M =
0
0
2. Sea

T : P2 P2

P 1 M P

sea una matriz diagonal

1
2

0
2

2
0

3
(vi) M = 7
6

1
5
6

1
1
2

1
1
2

0
1
4

(ii) M =

(iv) M =

3
5
6

1
(v) M = 3
6

tal que

1
1

1
3
1
4
3
0
0

3
3
4

1
1
1
0
0
1
2

0
0

2
2

0
2

2
(viii) M = 0
0

0
2
(x) M =
0
0

2
0
1
0
0
1
0 2

la transformacin lineal denida por

T [a + bx + cx ] = (a b + 4c) + (3a + 2b c)x + (2a + b c)x2 .


a ) Calcule los valores propios y los vectores propios.
94

0
0

1
4

Diagonalizacin de matrices

3.5. Ejercicios

b ) D, si existe, una base ordenada

de

P2

tal que

[T ]CC

sea

una matriz diagonal.


3. Para cada una de las siguientes matrices encuentre una matriz
ortogonal
caso

Tr M

P , tal que P T M P
y (A).

1
2

(i) M =

2
5

sea una matriz diagonal. D en cada

1
(ii) M = 1
0

0
0
1

1
0
0

2 1 1
1 1 1
1 1
(iii) M = 1 2 1 (iv) M = 1
1 1 2
1 1
1

4 4 2
4 2 2
(v) M = 2 3 0 (vi) M = 4 4 2
2 2 1
2 0 5
4. Para cada una de las siguientes matrices encuentre una matriz
invertible

Q,

tal que

Qt M Q

1
(i) M = 1
0

1
(iii) M = 2
0

2
(v) M = 1
1

sea de la forma

I
0
0

0
I
0

1
1
0

0
0
1

2
0
0

0
0
1

0
0 .
0

0
(ii) M = 1
1

1
(iv) M = 0
1

1
1
1
1 1 (vi) M = 2
1
5
1

1
1
2
2
2 1

0 1
2
1
1
1

2 1
4 2
2
8

5. Considere las matrices del ejercicio anterior:

QT M Q = I ,
M = P T P.

a ) Si

encuentre una matriz invertible

95

P,

tal que

3.5. Ejercicios

Diagonalizacin de matrices


I 0
b ) Si Q M Q =
, encuentre una matriz no invertible
0 0
T
P, talque M = P P.

1 2 3
1 4 1
5
5
4
Sean A = 2
y
B = 4 14
3
5 11
1
4
6
a ) Verique que todos los valores propios de A son positivos,
T
encontrando una matriz invertible P tal que P AP = I.
T
T
b ) En una matriz invertible M tal que M AM = I y M BM =
D sea una matriz diagonal.

2 3
0
1 2 0
6
0
5 0 , S2 = 3
Considere la matrices S1 = 2
0
0 4
0
0 4

3 2 0
2 0 .
y S3 = 2
0
0 8
a ) Verique que todos los valores propios de S1 son positivos,
T
encontrando una matriz invertible P tal que P S1 P = I.
T
T
b ) Haga A = P S2 P y B = P S3 P .. Verique que AB = BA
T
y encuentre una matriz ortogonal Q tal que Q AQ = D1 y
T
Q BQ = D2 son matrices diagonales.
c ) Concluya que la matriz invertible M = P Q es tal que
M T S1 M = I y M T AM = D1 y M T BM = D2 son maT

6.

7.

trices diagonales.

96

CAPTULO 4

Formas cuadrticas

Este captulo consta de tres secciones. En la primera seccin introduciremos el concepto de Forma cuadrtica y sus respectivas clasicaciones
(segn el signo de los elementos del rango) en formas cuadrticas positivamente (negativamente) denidas, formas cuadrticas positivamente
(negativamente) semidenidas y formas cuadrticas indenidas. La segunda seccin versa sobre cambio de variables y diagonalizacin de formas cuadrticas. En esta seccin se utilizan los resultados de las secciones
3.3 y 3.4. En la tercera seccin damos algunos criterios para clasicar las
formas cuadrticas segn el signo de los valores propios.

4.1. Clasicacin de las formas cuadrticas.


Las formas cuadrticas juegan un papel importante en las aplicaciones del
lgebra lineal, particularmente, en la teora de modelos lineales (vase el

captulo 4 de [ ]). Ellas se clasican de acuerdo al signo que tomen sus


respectivas imgenes en: positivas, no negativas, negativas, no positivas e
indenidas como veremos ms adelante.
4.1.1.

Denicin.

Una forma cuadrtica en

Rn

es una funcin

q : Rn

de la forma

(4.1)

q [(x1 , x2 , . . . , xn )] =

n X
n
X

aij xi xj , donde

i=1 j=1

97

aij R,

i, j = 1, 2, . . . , n.

4.1. Clasicacin

Formas cuadrticas

En trminos matriciales, dicha forma cuadrtica se puede expresar mediante

q (x) = xT Ax,

(4.2)

siendo

x1
x2

x = . Rn .
..
xn

Ahora bien, puesto que para la matriz simtrica

S, S =

1
2 (A

+ AT ),

se

satisface

xT Sx

=
=
=

1
1
xT (A + AT )x = (xT Ax + xT AT x)
2
2
 1
1 T
T
x Ax + (x Ax)T = (xT Ax + xT Ax)
2
2
xT Ax ,

en la denicin anterior, (4.1) puede darse usando matrices simtricas as:

q (x) = xT Sx .

(4.3)

Observamos entonces, que una forma cuadrtica se puede expresar matricialmente de varias maneras. Sin embargo, se puede demostrar (ejercicio
4.4.2(1)), que existe una nica representacin en trminos de matrices
simtricas,

Nota.

S = 21 (A + AT ),

para cada forma cuadrtica

q(x) = xT Ax.

Con respecto a las formas cuadrticas podemos anotar que:

1. En la denicin 4.1.1 slo aparecen trminos cuadrticos (de or-

den

2)

de la forma

aij xi xj .

De aqu el calicativo de cuadrtica.

2. Podemos considerar slo matrices simtricas. En este sentido, en

lo que sigue, al referirnos a una forma cuadrtica


pre

xT Sx,

siem-

denotar una matriz simtrica. Dicha matriz simtrica se

denomina, matriz de la forma cuadrtica.

4.1.2.

Ejemplo.

rido en

R,

De las siguientes funciones denidas sobre

solamente la primera,

q1 (x1 , x2 )

q2 (x1 , x2 )

q3 (x1 , x2 )

q1 ,

R3 y con recor-

representa a una forma cuadrtica

3x1 x1 + 4x1 x2 + 2x2 x1 + 5x2 x2 ,

3x1 x1 + 4x21 x2 + 2x2 x1 + 5x2 x2 ,

= 3x1 x1 + 4 x1 x2 + 2x2 x1 + 5x2 x2 .


98

Formas cuadrticas

4.1. Clasicacin

Dicha forma cuadrtica la podemos representar matricialmente como

q1 (x1 , x2 ) = xT Ax =

x1

x2

x2

3
2

4
5



3
3

3
5



x1
x2

x1
x2

o en trminos de matrices simtricas

q1 (x1 , x2 ) = xT Sx =
4.1.3.

Denicin.
ImaS

Sea

xT Sx

x1

Rn .

una forma cuadrtica en

El conjunto

x Sx : x R

r R : r = xT Sx

para algn

x Rn

se denomina recorrido o conjunto imagen de la forma cuadrtica

Una forma cuadrtica

xT Sx

xT Sx.

se puede clasicar segn su recorrido

ImaS

de acuerdo con la denicin siguiente.


4.1.4.

Denicin.

Se dice que una forma cuadrtica

xT Sx

es:

xT Sx > 0 para todo x 6= 0.


T
Negativamente denida, si x Sx < 0 para todo x 6= 0.
T
Positivamente semidenida, si x Sx 0 para todo x 6= 0, y

T
existe un x 6= 0 tal que x Sx = 0.
T
Negativamente semidenida, si x Sx 0 para todo x 6= 0, y

T
existe un x 6= 0 tal que x Sx = 0.
T
Indenida, si existen vectores no nulos x1 y x2 tales que x1 Sx1 >
T
0 y x2 Sx2 < 0, respectivamente.

1. Positivamente denida, si
2.
3.
4.
5.

6. No negativa, si es positivamente denida o positivamente semideni-

da.
7. No positiva, si es negativamente denida o negativamente semideni-

da.
4.1.5.

Observacin.

La forma cuadrtica

mente denida (semidenida) sii la forma

q1 (x) = xT Sx es negativaT
cuadrtica q2 (x) = x (S)x

es positivamente denida (semidenida).


4.1.6.

Denicin.

Se dice que una matriz simtrica

es positivamente

(negativamente) denida (semidenida), indenida o no negativa, si la


T
forma cuadrtica q(x) = x Sx lo es.
99

4.1. Clasicacin

Formas cuadrticas

Ejemplo.

Consideremos las siguientes tres formas cuadrticas en

4.1.7.

R3

q1 (x1 , x2 , x3 )

x21 + 2x22 + 3x23

q2 (x1 , x2 , x3 )

x21 + 2x1 x2 + x22 + x23

q3 (x1 , x2 , x3 )

x21 2x22 + 3x23

Para la forma cuadrtica

q1 (x1 , x2 , x3 )

q1 : R3 R

se tiene:

= x21 + 2x22 + 3x23

x1

x2

x3

1
0
0

0
2
0

0
x1
0 x2
3
x3

= xT S1 x.
Puesto que

xT S1 x > 0

para todo

x 6= 0,

entonces

q1

es positivamente

denida.
Para la forma cuadrtica

q2 (x1 , x2 , x3 )

=
=
=

q2 : R3 R

se tiene:

x21 + 2x1 x2 + x22 + x23

1


x1 x2 x3 1
0

= (x1 + x2 )2 + x23

x1
1 0
1 0 x2
x3
0 1

xt S2 x.

xT S2 x 0 para todo x 6= 0, y dado que para x = [1 1 0]


T
que x
S2 x = 0, entonces q2 es positivamente semidenida.

Puesto que
se tiene

Para la forma cuadrtica

q3 (x1 , x2 , x3 )

q3 : R3 R

se tiene:

x21 2x22 + 3x23

xt S3 x.

x1 =
T
y x2 S3 x2

Dado que

4>0

x1

x2

x3

1
0
0

0
2
0

0
x1
0 x2
3
x3

[1 0 1] y x2 = [0 2 1] son vectores tales que xT1 S3 x1 =


= 5 < 0, entonces q3 es una forma cuadrtica indenida.
100

Formas cuadrticas

4.2. Cambios de variable y diagonalizacin

4.2. Cambio de variables. Diagonalizacin simultnea de


formas cuadrticas
El objetivo de esta seccin es continuar la discusin sobre la clasicacin
de formas cuadrticas pero mediante la introduccin de cambios de variables adecuados. Se pretende con dichos cambios de variables, que la nueva
representacin de las formas cuadrticas tengan una estructura ms sencilla, en algn sentido. Los resultados de esta seccin, son corolarios de
aquellos obtenidos en las secciones 3.3 y 3.4. En tal sentido, omitiremos
sus demostraciones y nos limitaremos a dar la referencia del resultado
correspondiente en dichas secciones.

Denicin

4.2.1.

(Cambio de variable)

Sea

q : Rn R

una forma

cuadrtica una denida por

q(x) = xT Sx.

(4.1)

y sea

una matriz invertible

x Rn

n n. Entenderemos como un cambio de


q, a la transformacin x = P y o y =

variable para la forma cuadrtica


1

x.

Observacin.

En la denicin anterior,

yx=P y
x Rn y viceversa.

es una matriz invertible, enn

yR

tonces la transformacin

es biunvoca. Esto es, un

determina un nico

Hecho un tal cambio de variables,

se tiene:

xT Sx = yT P T SP y = yT By

(4.2)

Podemos interpretar el cambio de variable

donde

x = P y (P

B = P T SP .
invertible) como la

transformacin lineal biyectiva:

P : Rn
y
as que

(q P ) : Rn R

Rn
x = Py .

dene una nueva forma cuadrtica

q (y) = (q P )(y) = q(P y) = yT P T SP y = yT By,


que se relaciona con la forma cuadrtica

por medio de las igualdades

(4.2).
4.2.2.

Ejemplo.

Sea

q : R3 R

la forma cuadrtica denida por

q [(x1 , x2 , x3 )] = x21 + 4x1 x2 6x1 x3 + 5x22 8x2 x3 + 8x23 .


101

4.2. Cambios de variable y diagonalizacin

Formas cuadrticas

Para esta forma cuadrtica podemos escribir

q [(x1 , x2 , x3 )] = xT Sx =

x1

x2

x3

1
2
3

2 3
x1
5 4 x2 .
4
8
x3

Ahora, si hacemos el cambio de variables:

y1
y = y2 = P 1 x
y3

1 2 3
0 1
2
0 0
1

x1 + 2x2 3x3

x2 + 2x3
x3

x1
x2
x3

encontramos que:

xT Sx

yT P T SP y = yT By

B = P T SP

1
0
2
1
7 2

1 0
0
0 1
0
0 0 5

donde

0
1
0 2
1
3

2 3
1
5 4 0
4
8
0

2
7
1 2
0
1

Por lo tanto,

xt Sx = yt By

y12 + y22 5y32 ,

y1

y2

y3

1
0
0

y1
0
0
1
0 y2
0 5
y3

es decir,

xT Sx

= x21 + x1 x2 6x1 x3 + 5x22 8x2 x3 + 8x23


= y12 + y22 5y32

donde

y1 = x1 + 2x2 3x3 ,

y2 = x2 + 2x3 ,

y3 = x3 .

y By = y12 +y22 5y32 , que la


2
2
2
expresin x Sx = x1 +x1 x2 6x1 x3 +5x2 8x2 x3 +8x3 . Por ejemplo, una
2
T
2
2
simple inspeccin nos permite ver, que la expresin y By = y1 + y2 5y3

Claramente es ms fcil estudiar la expresin

toma valores tanto positivos como negativos, tomando respectivamente


102

Formas cuadrticas

4.2. Cambios de variable y diagonalizacin

y1 6= 0, y2 6= 0, y3 = 0,
T
la expresin x Sx.

y1 = 0, y2 = 0, y3 6= 0.

Lo que no es claro para

Denicin.

T
Dada una forma cuadrtica x Sx, si el cambio de
T
T T
T
es tal que x Sx = y P SP y = y Dy, donde D es
1
una matriz diagonal, entonces se dice que el cambio de variables y = P
x
T
diagonaliza la forma cuadrtica x Sx.

4.2.3.

y = P 1 x

variables

4.2.4.

Observacin.

El problema de encontrar un cambio de variables

y = P 1 x que diagonalice la forma cuadrtica xT Sx se reduce a encontrar


T
una matriz invertible P tal que P SP = D sea una matriz diagonal.

La demostracin del siguiente resultado, es una consecuencia del teorema


3.3.10.

Teorema.

xT Sx existe una matriz or1


T
togonal Q tal, que el cambio de variables y = Q x = Q x la diagonaliza.
Adems Q tiene como columnas un conjunto ortonormal de vectores propios de la matriz S y
4.2.5.

xT Sx

Para toda forma cuadrtica

yT QT SQy = yT Dy

=
donde los
4.2.6.

y1

y2

0
2

.
.
.

..

Sea

son los valores propios de la matriz

q : R3 R

= X t SX =

S.

la forma cuadrtica denida por:

q [(x1 , x2 , x3 )]

0
y1

0
y2
. .
. .
.
.
n
yn

1 y12 + 2 y22 + . . . + n yn2 ,

i , i = 1, 2, . . . , n

Ejemplo.

yn

 0
..
.
0

x1

x2

x3

1
1
1

1
1
1

1
x1
1 x2
1
x3

= x21 + 2x1 x2 + 2x1 x3 + x22 + 2x2 x3 + x23 .


Segn el teorema 3.3.10, existe una matriz ortogonal
es una matriz diagonal con los valores propios de

Q tal que QT SQ = D

S en la diagonal. Despus

de efectuar los clculos pertinentes, se encuentra, que los valores propios


de

son

0 (con multiplicidad 2) y 3 (con multiplicidad 1), y que la matriz


103

4.2. Cambios de variable y diagonalizacin


ortogonal:

1/2
Q = 1/ 2
0

1/5
1/5
2/ 5

Formas cuadrticas

1/3
1/3
1/ 3

es tal que

0
QT SQ = D = 0
0
Por lo tanto, el cambio de variables y
T
cuadrtica x Sx, obtenindose:
xT Sx = yT QT SQy

0
0
0
=

0
0 .
3
Q1 x diagonaliza

la forma

= yT Dy

y1

y2

y3

0
0
0

0
0
0

y1
0
0 y2 = 3y32 .
3
y3

El siguiente teorema est estrechamente relacionado con el literal (1) del


teorema 3.3.13 y plantea la existencia de un cambio de variable ligado al
signo de los valores propios de la matriz de la forma cuadrtica.

Teorema.

xT Sx una forma cuadrtica sobre Rn . Si la matriz


S tiene (0 n) valores propios, no necesariamente diferentes,
estrictamente positivos y (0 n) valores propios, no necesariamente
4.2.7.

Sea

diferentes, estrictamente negativos, entonces existe un cambio de variables


y = P 1 x que diagonaliza la forma cuadrtica xT Sx, obtenindose:

xT Sx

yT P T SP y = yT Dy

4.2.8.

I
0
0

0
I
0

2
2
2
y12 + y22 + . . . + y2 y+1
y+2
. . . y+
.

Ejemplo.
q (x)

Sea

y1

y2

q : R3 R

yn

y1
0 y2

0 .
..
0
yn

la forma cuadrtica denida por:

x Sx

x21 + 2x1 x2 + 2x1 x3 + 4x2 x3 .

x1

x2

x3

104

1
1
1

1
0
2

1
x1
2 x2
0
x3

Formas cuadrticas

4.2. Cambios de variable y diagonalizacin


1 = 3, 2 = 2 y 3 = 0.
P tal que:

1
0 0
P T SP = D = 0 1 0 .
0
0 0

Los valores propios de

son

Por el teorema

3.3.13(1) , existe una matriz invertible

Efectuando los clculos del caso se encuentra que la matriz invertible

1 2
1
1
0
1

1
P = 0
0

sirve par tal efecto. Por lo tanto, el cambio de variables


naliza la forma cuadrtica

xT Sx

x Sx,

y = P 1 x

diago-

obtenindose:

= yT P T SP y
= yT Dy

y1

y2

y3

1
0
0

y1
0
0 y2 = y12 y22 .
y3
0

0
1
0

El teorema siguiente, plantea un criterio para la existencia de un cambio


de variables que diagonalice simultneamente a dos formas cuadrticas.
Su demostracin se obtiene de la diagonalizacin simultnea de matrices
simtricas (teorema 3.4.1).

Teorema.

q2 (x) = xT S2 x dos formas


cuadrticas en R . Si todos los valores propios de S1 son estrictamente
1
positivos, entonces existe un cambio de variables y = Q x que diagoT
naliza simultneamente las formas cuadrticas q1 (x) = x S1 x y q2 (x) =
xT S2 x obtenindose:
4.2.9.

Sean

q1 (x) = xT S1 x

xT S1 x = yT QT S1 Qy = yT Iy = y12 + y22 + . . . + yn2


y

xT S2 x

= yT QT S2 Qy
= yT Dy

y1

y2

yn

 0
..
.
0

= 1 y12 + 2 y22 + . . . + n yn2 ,


105

0
2

.
.
.

..

0
y1

0
y2
. .
. .
.
.
n
yn

4.2. Cambios de variable y diagonalizacin

Formas cuadrticas

i , i = 1, 2, . . . , n son las soluciones de la ecuacin


las cuales son reales.

donde los

0,

|S2 S1 | =

Ilustremos dicho resultado con el siguiente ejemplo.


4.2.10.

Ejemplo.

Sean

q 1 : R3 R

q2 : R3 R

las formas cuadrtica

denidas por:

q1 (x)

= xT S1 x =

x1

x2

x3

1
0
0

0
4
2

0
x1
2 x2
2
x3

4
8
4

= x21 + 4x22 + 4x2 x3 + 2x23 ,


q2 (x)

= xT S2 x =
=

x1

x2

x3

5
4
4

x1
4
4 x2
4
x3

5x21 + 8x1 x2 + 8x1 x3 + 8x22 8x2 x3 4x23 .

Por el ejemplo 3.4.2 sabemos que los valores propios de

2 = 3 +

3 = 3

5,

S1

son:

1 = 1,

los cuales son estrictamente positivos y que

la matriz invertible

Q=

1
3

2 5

2
3

3 5

3 5

3 5

es tal que

QT S1 Q = I3

3
QT S2 Q = D = 0
0

0
6
0

0
0 .
6

y = Q1 x diagonaliza
x S1 x y xt S2 x obtenindose:

Por lo tanto, el cambio de variables


mente las formas cuadrticas

xT S1 x = yT QT S1 Qy = yT I3 y = y12 + y22 + y32


106

simultnea-

Formas cuadrticas

4.2. Cambios de variable y diagonalizacin

xT S2 x

= yT QT S2 Qy
= yT Dy

y1

y2

y3

3
0
0

0
6
0

0
y1
0 y2
6
y3

= 3y12 + 6y22 + 6y32 .


Los siguientes dos resultados estn relacionados de manera muy cercana
con el teorema 3.4.3 y el corolario 3.4.5 respectivamente. Ellos nos brindan
condiciones necesarias y sucientes bajo las cuales podemos hablar de
diagonalizacin ortogonal simultnea de dos o ms formas cuadrticas.
En forma ms precisa tenemos:
4.2.11.

Teorema

(Diagonalizacin ortogonal simultnea)

Considere en

Rn las dos formas cuadrticas q1 (x) = xT S1 x y q2 (x) = xT S2 x. S1 S2 =


S2 S1 sii existe una matriz ortogonal P tal que el cambio de variables
y = P 1 x = P T x diagonaliza simultneamente las formas cuadrticas
xT S1 x y xT S2 x obtenindose:
xT S1 x

= yT P T S1 P y = yT D1 y

y1

y2

yn

 0
..
.
0

0
2

.
.
.

..

0
2

.
.
.

..

0
y1

0
y2
. .
. .
.
.
n
yn

= 1 y12 + 2 y22 + . . . + n yn2 ,


y

xT S2 x

yT P T S2 P y = yT D2 y

y1

y2

yn

 0
..
.
0

1 y12 + 2 y22 + . . . + n yn2 ,


107

0
y1

0
y2
. .
. .
.
.
n
yn

4.2. Cambios de variable y diagonalizacin


donde los

i , i = 1, 2, . . . , n

1, 2, . . . , n

son los valores propios de

4.2.12.

en

Corolario.

Sean

Formas cuadrticas

son los valores propios de

S1

y los

i , i =

S2 .

xT S1 x, xT S2 x, . . . , xT Sk x

formas cuadrticas

R .

Una condicin necesaria y suciente para que exista una matriz


1
ortogonal P tal que el cambio de variables y = P
x = P T x diagonalice
T
T
T
simultneamente las formas cuadrticas x S1 x, x S2 x, . . . , x Sk x es que
Si Sj = Sj Si para todo i y todo j; i, j = 1, 2, . . . , k .
4.2.13.

Ejemplo.

Sean

q 1 : R4 R

q2 : R4 R

las formas cuadrtica

denidas por:

q1 (x)

= xT S1 x

q2 (x)

x21 2x1 x2 + x22 + x23 + x24 ,

xT S2 x

x1

x2

x3

1
 0
x4
0
0

0
1
0
0

x21 + x22 + 2x23 4x3 x4 + 5x24 .

x1

x2

x3

Del ejemplo 3.4.4 sabemos que,

1/ 2

1/ 2
P =

x1
0
x2
0

0 x3
1
x4

x1
0
0
x2
0
0

2 2 x3
2
5
x4

1
1
0
0

1
 1
x4
0
0

S1 S2 = S2 S1
0

2/ 5

1/ 5

1/ 5

2/ 5

0
0
1
0

y que la matriz ortogonal

1/ 2

1/ 2
0
0

es tal que

0
P t S1 P = D1 =
0
0

0
1
0
0

0
0
1
0

0
0
,
0
2

108

0
P t S2 P = D2 =
0
0

0
1
0
0

0
0
6
0

0
0

0
1

Formas cuadrticas

4.2. Cambios de variable y diagonalizacin

Por lo tanto, el cambio de variables

xT S1 x

mente las formas cuadrticas

xT S1 x

xT S2 x

y = P 1 x diagonaliza
T
y x S2 x obtenindose:

yT P T S1 P y = yT D1 y

y22 + y32 + y42 ,

yT P T S2 P y = yT D2 y

simultnea-

= y12 + y22 + 6y32 + y42 .


4.2.14.

Ejemplo.

q1 (x)

q2 (x)

q3 (x)

Consideremos las formas cuadrticas en

xT S1 x =

x S2 x =
x S3 x =

x1
x1
x1

x2

x2

x2

Del ejemplo 3.4.6 sabemos, que

1
2



x1
x2

2
1

3
4

4
3



x1
x2

5
6

6
5



x1
x2

R2 :

= 2x21 + 2x1 x2 + 2x22


= 3x21 + 8x1 x2 + 3x22
= 5x21 + 12x1 x2 + 5x22 .

Si Sj = Sj Si , i = 1, 2, 3

y que la matriz

ortogonal

1
1

P = 1/ 2

1
1

es tal que

P S1 P = D1 =

1
0

0
3

P S2 P = D2 =

P T S3 P = D3 =

1
0

0
11

1
0

0
7


,


.

y = P 1 x diagonaliza simultneaT
T
mente las formas cuadrticas x S1 x, x S2 x y x S3 x, obtenindose:




 1 0
y1
T
T T
x S1 x = y P S1 P y = y1 y2
= y12 + 3y22
0 3
y2




 1 0
y1
T
T T
x S2 x = y P S2 P y = y1 y2
= y12 + 7y22
0 7
y2




 1
0
y1
T
T T
x S3 x = y P S3 P y = y1 y2
= y12 + 11y22
0 11
y2
Por lo tanto, el cambio de variables

109

4.3. Formas positivas denidas

Formas cuadrticas

4.3. Formas cuadrticas positivas, negativas e indenidas.


En esta seccin utilizaremos la discusin previa sobre cambios de variables
con el objeto de introducir algunos criterios de clasicacin de formas
cuadrticas. Tales criterios estarn dados en trminos de los signos de
valores propios de la matriz de la forma cuadrtica.

P
Mnn , junto con el cambio de variables x = P y y = P 1 x (x, y Rn ),
t
nos permite reescribir la forma cuadrtica q(x) = x Sx en trminos de la

T
T
variable y, mediante la expresin q (y) = y By, donde B = P SP. Esto

Como se recordar de la seccin anterior, toda matriz invertible

es, para dicho cambio de variable se tiene

q(x) = xT Sx = yT By = q (y),
De esto se sigue entonces, que

q()

con
y

q ()

x = P y,

invertible.

tienen la misma imagen, es

decir,



xT Sx : x Rn = yT By : y Rn .

El siguiente resultado relaciona las clasicaciones de dichas formas cuadrticas. La vericacin de ste se deja a cargo del lector.

Teorema.

q(x) = xT Sx una forma cuadrtica en Rn y sea P

t
T
una matriz invertible nn. Sea adems q (y) = y By, donde B = P SP ,
1
la forma cuadrtica generada por el cambio de variables y = P
x. En-

4.3.1.

Sea

tonces se tiene:
1.
2.
3.

q(x) = xt Sx es positivamente (negativamente) denida sii q (y) =


yt By es positivamente (negativamente) denida.
q(x) = xT Sx es positivamente (negativamente) semidenida sii
q (y) = yT By es positivamente (negativamente) semidenida.
q(x) = xT Sx es indenida sii q (y) = yT By es indenida.

El siguiente teorema relaciona el signo de las formas cuadrticas con el


signo de los valores propios de la matriz simtrica que dene dicha forma
cuadrtica.
4.3.2.

Teorema.
1.

xT Sx
S son

Sea

xT Sx

una forma cuadrtica en

Rn , S 6= 0.

es positivamente denida sii todos los valores propios de


estrictamente positivos.
110

Formas cuadrticas
2.

xT Sx

4.3. Formas positivas denidas

es positivamente semidenida sii

p (0 < p < n)

tiene

valores propios estrictamente positivos y el resto de valores pro3.

pios de S son nulos.


xT Sx es indenida sii S

tiene valores propios estrictamente pos-

itivos y valores propios estrictamente negativos.

Demostracin. De acuerdo con el teorema 4.2.5, la forma cuadrti-

ca

q(x) = xT Sx, con S

una matriz simtrica, es ortogonalmente diagonal-

izable. Es decir, existe una matriz ortogonal

y = Q1 x = Qt x,

y un cambio de variables

tal que

xT Sx = yT QT SQy = yT Dy = 1 y12 + 2 y22 + . . . + n yn2 ,

(4.1)
donde los

i , i = 1, 2, . . . , n
T

son los valores propios de la matriz

D = Q SQ = diag

1 ,

2 ,

...,

S,

q(x) = x Sx es positivaq (y) = yT Dy es tam


T
bin positivamente denida, sto es, q (y) = y Dy > 0 para todo y 6= 0.
De (4.1) se tiene entonces que 1 > 0, 2 > 0, . . . , 2 > 0. Es decir, todos
los valores propios de S son estrictamente positivos.

Supongamos ahora, que la forma cuadrtica

mente denida. Entonces por el teorema 4.3.1(1),

De otro lado, si todos los valores propios de


tivos, entonces existe un cambio de variables

S son estrictamente posiy = P 1 x (teorema 4.2.7),

tal que

xT Sx = yT P T SP y = yT y = y12 + y22 + . . . + yn2 .


T
T
Puesto que y y > 0 para todo y 6= 0, entonces x Sx > 0, para todo
T
x 6= 0. Esto es, la forma cuadrtica x Sx, es positivamente denida, lo
que demuestra el inciso (1) de nuestro teorema.
Supongamos ahora, que la forma cuadrtica

q(x) = xT Sx

es positiva-

mente semidenida. Por el inciso (2) del teorema 4.3.1, la forma cuadrti-

q (y) = yT Dy es tambin positivamente semidenida. Esto es, se tiene

que q (y) = y Dy 0 para todo y Mn1 y existe un y 6= 0 tal que


T

y Dy = 0. Usando (4.1) se tiene entonces, que los valores propios de


S son no negativos y que por lo menos uno de ellos es nulo. Es decir, S
tiene (0 < < n) valores propios estrictamente positivos y el resto de
valores propios de S son nulos.
ca

Finalmente, supongamos que la matriz


tiene

de la forma cuadrtica,

valores propios estrictamente positivos, con


111

0 < < n,

xT Sx,
(n )

4.3. Formas positivas denidas

Formas cuadrticas

valores propios nulos. Por el teorema 4.2.7 existe un cambio de variables

y = P 1 x

tal que

xT Sx = yT P T SP y = yT Dy = y12 + y22 + . . . + y2 .
por hiptesis,
ver, que para

yT Dy 0
y Mn1

y Mn1 .

para todo

No es difcil sin embargo

dado por

..
01
.

1
0

=
= .
,

..
1
.
1
..
n1
1 n1

q (y) = yT Dy es positivaT
mente semidenida y por consiguiente, q(x) = x Sx tambin lo es, lo que
demuestra el inciso (2) de nuestro teorema.


se tiene

yT Dy = 0.

sto quiere decir, que

El resultado correspondiente a formas indenidas se plantea como un ejercicio para el lector.


4.3.3.

Ejemplo.

xT Sx,

Ilustremos el teorema 4.3.2 con formas cuadrticas

denidas en

q(x) = xT Sx denida

5x21 + 4x22 + 2 3x2 x3 + 6x23

1. La forma cuadrtica

q(x)

q(x) =

R3 .

x1

x2

x3

5
0
0

0
4
3

por:

x1
0
3 x2
x3
6

= xT Sx
es positivamente denida, pues los valores propios de la matriz

son:

1 = 5, 2 = 3

3 = 7,

positivos.

112

los cuales son estrictamente

Formas cuadrticas

4.3. Formas positivas denidas

2. La forma cuadrtica

q(x)

q(x) = xT Sx

denida por:

x21 + 2x1 x2 4x1 x3 + 2x22 4x2 x3 + 4x23

xT S x

x1

x2

x3

1
1
2

2
x1
2 x2
4
x3

1
2
2

es positivamente semidenida, pues los valores propios de la matriz

son:

1 =

7+ 23
,
2

3. La forma cuadrtica

q(x)

x21

2 =

7 23
y
2

q(x) = xT Sx

4x1 x2 +

2x22

x1

x2

x3

denida por:

4x2 x3 + 3x23

3 = 0.

1
2
0

2
2
2

x1
0
2 x2
x3
3

= xT Sx
es indenida, pues los valores propios de
y
4.3.4.

Teorema.
1.
2.

son:

1 = 1, 2 = 2

3 = 5.
Sea

xT Sx

una forma cuadrtica en

Rn .

xT Sx es positivamente denida sii existe una matriz invertible


Q tal que S = Qt Q.
xT Sx es positivamente semidenida sii existe una matriz no inT
vertible Q tal que S = Q Q.

Demostracin. Demostraremos slo el inciso (1), el otro se verica

anlogamente y se deja como ejercicio.


Supongamos que la forma cuadrtica
tonces todos los valores propios de

xt Sx

es positivamente denida, en-

son estrictamente positivos (teorema

P tal que P T SP = I (teoS = (P T )1 P 1 = QT Q, donde

4.3.2(1)), adems, existe una matriz invertible


rema 3.3.13(1)). De sto se sigue, que

Q = P 1 .
Supongamos ahora que existe una matriz invertible
113

tal que

S = QT Q.

4.3. Formas positivas denidas

Formas cuadrticas

Puesto que Q es invertible, entonces Qx 6= 0 para todo vector no nulo


x. De sto se sigue, que xT Sx = xT QT Qx = (Qx)T (Qx) > 0, para todo
x 6= 0. sto es, la forma cuadrtica xT Sx es positivamente denida. 
4.3.5.

Ejemplo.
1. La forma cuadrtica

q(x)

4x21

xT Sx

x1

q : R3 R

denida por:

x22

4x2 x3 + 5x23

4
0

x2 x3 0
1
0 2

x1
0
2 x2
x3
5

es positivamente denida, pues los valores propios de la matriz

son

1 = 4, 2 = 3 +

3 = 3

5,

los cuales son estric-

tamente positivos.
Efectuando los clculos pertinentes se encuentra que la matriz
invertible

2
Q= 0
0

0
2 ,
1

0
1
0

2. La forma cuadrtica

q(x)

es tal

4
que S = 0
0

q : R3 R

0
0
1 2 = QT Q.
2
5

denida por:

= x21 + 2x1 x2 + 2x1 x3 + x22 + 2x2 x3 + x23

1 1 1
x1


x1 x2 x3 1 1 1 x2
=
1 1 1
x3
xT Sx

es positivamente semidenida, pues los valores propios de la matriz

son

1 = 0, 2 = 0

3 = 3.

Efectuando los clculos pertinentes se encuentra que la matriz


no invertible

1
Q= 0
0

1
0
0

1
0 ,
0

es tal que

114

1
S= 1
1

1
1
1

1
1 = QT Q.
1

Formas cuadrticas

4.3. Formas positivas denidas

El siguiente teorema nos da un criterio para clasicar matrices simtricas


como positivamente denidas o negativamente te denidas, en trminos
de los determinantes de la propia matriz y de algunas de sus submatrices.

11(es
det() en lugar de || , para evitar la confusin

Aqu hacemos la salvedad, de que en el caso de matrices de tamao


decir escalares), escribiremos
con el valor absoluto.
4.3.6.

Teorema.

S de

s1n
s2n

.
.
.

.
snn

Considere una matriz simtrica

s11
s21

S= .
..
sn1

s12
s22

.
.
.

..

sn2

orden

n.

Dena ahora la secuencia de matrices

Sn = S, Sn1


S2 =

s11
s21

= .
..
sn1
s11
s21

s12
s22

s12
s22

.
.
.

..

sn2

s1(n1)
s2(n1)

, ...
.
.

.
sn(n1)


y

S1 = [s11 ] .

Entonces:

q(x) = xT Sx es positivamente denida


y slo si det(S1 ) > 0, |S2 | > 0, |S3 | > 0, . . .|Sn | > 0.
T
La forma cuadrtica q(x) = x Sx es negativamente denida
n
y slo si det(S1 ) < 0, |S2 | > 0, |S3 | < 0, . . .(1) |Sn | > 0.

1. La forma cuadrtica

si

2.

si

Demostracin. Presentaremos aqu slo la demostracin de la parte

(1), la otra se deja como ejercicio:


(Condicin necesaria) En primer lugar, si la forma cuadrtica

2 j n, es positivamente denida, entonces


Rj1 xTj1 Sj1 xj1 es positivamente denida. En
para todo xj1 6= 0 se tiene que:



 T
 Sj1 s
xj1
xj1 0
xTj Sj xj =
st
sjj
0

denida sobre

R ,

para

la forma cuadrtica en
efecto,

xTj Sj xj

xTj1 Sj1 xj1 > 0.


115

4.3. Formas positivas denidas

Formas cuadrticas

En segundo lugar, si la forma cuadrtica

xTj Sj xj ,

denida sobre

Rj ( 2

j n), es positivamente denida, entonces


una matriz invertible

existe
2
Qj tal que Sj = QTj Qj , de donde |Sj | = Qtj |Qj | = |Qj | > 0 (teorema
4.3.4(1))
Estas dos observaciones nos permiten concluir que si la forma cuadrtica

xt Sx es positivamente
0, . . .|Sn | > 0.

denida entonces

det(S1 ) > 0, |S2 | > 0, |S3 | >

(Condicin suciente) Haremos una demostracin de esta implicacin usando induccin sobre

n.

n = 1, S1 = [s11 ]. Ahora, por hiptesis det(S1 ) = s11 > 0. Por


xt S1 x = s11 x2 > 0 para todo x 6= 0; esto es, la forma cuadrtica
xt S1 x es positivamente denida.

Cuando
sto,

n = k, y
n = k + 1. Sea pues S = Sn
una matriz simtrica de orden n = k + 1 tal que |Sn | = |Sk+1 | > 0,
|Sn1 | = |Sk | > 0, . . . |S2 | > 0 y |S1 | > 0. Por hiptesis de induccin,
t
k
la forma cuadrtica xk Sk xk en R es positivamente denida. Existe ent
tonces una matriz invertible Qk tal que Sk = Qk Qk (teorema 4.3.4(1)).

Supongamos ahora que la implicacin es vlida para cuando


veriquemos que la implicacin es vlida para

Ahora, por el teorema 2.2.3(2) se tiene que:


S
|Sk+1 | = tk
s

s
s(k+1)(k+1)


= |Sk | det s(k+1)(k+1) st Sk1 s
= |Sk | det(
k ).

k = s(k+1)(k+1) st Sk1 s para


adems se tiene que det(
k ) > 0, puesto

Aqu hemos introducido la sustitucin


simplicar un poco la escritura,
que

|Sk+1 | > 0

|Sk | > 0.
.

Sea ahora

Qk

(Qtk )1 s

Qk+1 =

116

Formas cuadrticas
La matriz

Qk+1

4.3. Formas positivas denidas

es invertible y es tal que:


Sk+1

Sk
sT

s
s(k+1)(k+1)
QTk

sT (Qk )1

Qk

(QTk )1 s

QTk+1 Qk+1 .

Por lo tanto, en virtud del teorema 4.3.4(1), la forma cuadrtica


denida sobre
4.3.7.

k+1

es positivamente denida.

xTk+1 Sk+1 xk+1 ,




Ejemplo.
xT Sx, donde :

4 2 2
S= 2 5 1
2 1 4

1. La forma cuadrtica

es positivamente denida, pues:



4 2
= 16 > 0

det(S1 ) = det(4) = 4 > 0, |S2 | =
2 5


4 2 2


|S3 | = 2 5 1 = 20 > 0.
2 1 4

xt Sx, donde :

3
2
0
2
S = 2 4
0
2 5

2. La forma cuadrtica

es negativamente denida, pues:



3
2
det(S1 ) = det(3) = 3 < 0, |S2 | =
=8>0
2 4


3
2
0

2 = 28 < 0.
|S3 | = 2 4
0
2 5
117

4.4. Ejercicios
4.3.8.

Nota.

Formas cuadrticas

Sea

S = [aij ]nn

una matriz simtrica y sean

S1 , S2 , . . . , Sn

las matrices que aparecen en el enunciado del teorema anterior. Las condiciones

det(S1 ) 0, |S2 | 0, |S3 | 0, . . .|Sn | 0 no implican que la forma


xt Sx sea positivamente semidenida. Por ejemplo, la matriz

1 1 2
S= 1 1 2
2 2 1

cuadrtica

es tal que


1
det(S1 ) = det(1) = 1, |S2 | =
1


1
=0
1


1

|S3 | = 1
2

1
1
2

2
2
1




= 0.

xT Sx no es positivamente denida, pues


T
es tal que x
Sx = 3 < 0.

Sin embargo, la forma cuadrtica


el vector

4.4. Ejercicios
4.4.1 Responda verdadero o falso justicando su respuesta.

M una matriz cuadrada de orden n. Si xT M x = 0 para todo


x Rn entonces M = 0.
Si la matriz S es indenida, entonces la matriz S es indenida.
2
Si S es una matriz simtrica tal que S = S, entonces S es no

1. Sea
2.
3.

negativa.
4. Si

es una matriz simtrica tal que

S 3 = S,

entonces

es no

negativa.
5. Si

S1

S2

son matrices positivamente denidas (semidenidas)

entonces la matriz


S=

S1
0

0
S2

es positivamente denidas (semidenidas).


6. Si

S1

S2

son matrices positivamente denidas de igual orden,

entonces la matriz

S = S1 + S2
118

es positivamente denida.

Formas cuadrticas

S2 son matrices indenidas de igual orden, entonces la


S = S1 + S2 es indenida.
Si S1 y S2 son matrices positivamente denidas de igual orden
tales que S1 S2 = S2 S1 , entonces la matriz S = S1 S2 es positi-

7. Si

S1

4.4. Ejercicios

matriz

8.

vamente denida.


9. Sea

a
b

S=

b
c

semidenida.

S =

10. La matriz


. Si

a > 0 y c > 0, entonces S

a
b

b
c

es positivamente


es negativamente denida sii

a<0

ac b2 > 0.
4.4.2 Demuestre que:

1. Para cada forma cuadrtica

simtrica

de orden

q [(x1 , x2 , . . . , xn )] = xT Sx,

q : Rn R
xT =

con

2. Para cualquier matriz cuadrada

S2 = AAT

A,

x1

x2

las matrices

xn

S1 = AT A

son no negativas.

3. Para cualquier matriz cuadrada

S = AT A

la matriz

existe una nica matriz

tal que:

n n, A,

se tiene:

(A) = n

sii

es positivamente denida.

n n, A, se tiene: (A) < n sii


S = AT A es positivamente semidenida.
1
matriz S es positivamente denida entonces la matriz S

4. Para cualquier matriz cuadrada


la matriz
5. Si la

es positivamente denida.
6. Si la matriz
onal de

es no negativa, entonces los elementos de la diag-

son no negativos.

S = [sij ]nn es positivamente semidenida y si


sii = 0, entonces cada elemento de la la i de S y cada elemento
de la columna i de S es nulo.
Si S = [sij ]
nn es una matriz simtrica tal que:
X
n
sii >
para
i = 1, 2 . . . , n,
j=1 |sij | ,

7. Si la matriz

8.

j6=i
entonces

es positivamente denida (sugerencia: vea el proble-

ma 3.5.2(23)).
119

4.4. Ejercicios

Formas cuadrticas

S1 y S2 son matrices simtricas de igual orden tales S12 + S22 =


0 entonces S1 = S2 = 0. (sugerencia: considere la expresin
xT (S12 + S22 )x).
Si S es positivamente denida de orden n, a un vector n 1 y
un nmero real tal que > aT Sa, entonces la matriz


S a
S =
aT

9. Si

10.

es positivamente denida (Sugerencia: utilice el teorema 4.3.6(1)).


11. Si

es una matriz positivamente denida, entonces existe una

S = T T T (Sugerencia: utilice induccin sobre el orden n, de la matriz S ).


Si S es una matriz positivamente, entonces Tr S > 0.
Si S es una matriz positivamente, entonces Tr S 0.
Si S1 y S2 son matrices positivamente denidas de igual orden,
entonces Tr(S1 S2 ) > 0 (Sugerencia: utilice el teorema 4.3.4(1)).
Si S1 y S2 son matrices positivamente semidenidas de igual
orden, entonces Tr(S1 S2 ) > 0 (Sugerencia: utilice el teorema
matriz invertible

12.
13.
14.
15.

triangular superior tal que

4.3.4(2)).

4.4.3 Clculos

1. Para cada una de las formas cuadrticas

xT Sx

siguientes:

a ) Haga un cambio de variables que las diagonalice.


b ) Clasifquela como positivamente denida (semidenida), negativamente denida (semidenida) o indenida.

c ) Para aquellas que sean positivamente denidas, encuentre


T
una matriz invertible

tal que

S = Q Q.

d ) Para aquellas que sean positivamente semidenidas, encuenT

Q tal que S = Q Q.
2
x

2x
xT Sx = x21 + 4x
1 2
2

xT Sx = x21 + 2 2x1 x2 + 4x22 + x23


xT Sx = x21 + 4x1 x2 2x1 x3 + 4x22 4x2 x3 + 8x23
xT Sx = x21 + 4x1
x2 + 6x1 x3 2x2 x3 + x23
2
1
2
xT Sx = x21 + 2
x1 x3 + x22 + x23
3
3
3
xT Sx = x21 2x1 x3 + 2x22 + 2x2 x3 + 2x23

tre una matriz no invertible


1)
2)
3)
4)
5)
6)

120

Formas cuadrticas

4.4. Ejercicios

2. Considere las formas cuadrticas:

xT S1 x
T

x S2 x

x21 + 4x1 x2 + 5x22 + 2x2 x3 + 2x23 ,

x21

+ 2x1 x2 2x1 x3 +

x22

2x2 x3 + 2x23 .

a ) Encuentre, si existe, un cambio de variables

y = M 1 x que

diagonalice simultneamente las dos formas cuadrticas.

b ) Encuentre, si existe, un cambio de variables

y = Q1 x, (Q

una matriz ortogonal), que diagonalice simultneamente las


dos formas cuadrticas.
3. Resuelva el problema (2) para cuando:

xT S1 x
T

4. Sea

= x21 2x1 x2 + 2x22 ,

x S2 x =


2 1
S=
.
1 2

2x21

+ 4x1 x2 .

S es positivamente denida.
a21 y un nmero , tales que la matriz


S a
S =
aT

a ) Verique que la matriz


b ) Encuentre un vector

sea positivamente denida.

121

CAPTULO 5

Anexo 1: Matrices no negativas. Matrices


idempotentes
Las matrices no negativas, y, en particular, las matrices idempotentes,
aparecen con frecuencia en la teora y en las aplicaciones de los modelos lineales. El propsito de este anexo es el recopilar los aspectos ms
importantes de este tipo de matrices.
No daremos las demostraciones de aquellos resultados que ya han sido
demostrados en los captulos anteriores o que fueron propuestos como
ejercicios.

5.1. Matrices no negativas


5.1.1.

Denicin.
1.
2.
3.

Sea

una matriz simtrica:

xT Sx > 0 para todo x 6= 0.


T
es positivamente semidenida, si x Sx 0 para todo x 6= 0,

y existe un x 6= 0 tal que x Sx = 0.


S es no negativa, si S es positivamente denida o si S positiva-

S
S

es positivamente denida, si

mente semidenida.
5.1.2.

Teorema.

Sea

una matriz simtrica

n n.

Las siguientes ar-

maciones son equivalentes:


1.

es positivamente denida.

2. Para cada matriz invertible

de orden

n,

la matriz

P T SP

es

positivamente denida.

S son estrictamente positivos.


P de orden n, tal que P T SP = In
T
invertible Q de orden n, tal que S = Q Q.

3. Todos los valores propios de


4. Existe una matriz invertible
5. Existe una matriz

123

5.1. Matrices no negativas

Anexo 1

6. Existe una matriz invertible triangular superior


7.
8.

5.1.3.

S = T T T.
S es invertible

n n, T ,

S 1 es positivamente denida.



s11 s12
s11 s12
det (s11 ) > 0, det
> 0, det s21 s22
s21 s22
s31 s32
0, . . . , det (S) = |S| > 0.

Teorema.
sii

Sea

una matriz simtrica

n
X

>

tal que

|sij |,

para

n n.

s13
s23 >
s33

Si se cumple que

i = 1, 2 . . . , n,

j=1, j6=i

entonces
5.1.4.

es positivamente denida.

Teorema.

Sea

una matriz simtrica

n n.

Si

es positivamente

denida, entonces,

1.
2.
5.1.5.

(S) = n.
sii > 0 para i = 1, 2, . . . , n.

Teorema.

1 , 2

Sean S1 y S2 matrices simtricas de igual orden y sean


nmeros reales positivos. Si S1 y S2 son positivamente denidas,

entonces la matriz

S = 1 S1 + 2 S2

es positivamente denida.

Teorema.

5.1.6.
Sean S1 y S2 matrices simtricas de igual orden. Si S1
es positivamente denida, entonces existe una matriz invertible Q tal que
QT S1 Q = I y QT S2 Q = D, donde D es una matriz diagonal real, cuyos
elementos en la diagonal las soluciones de la ecuacin |S2 S1 | = 0.

Teorema. Sean S1 y S2 matrices simtricas de igual orden. Si S1


S2 son positivamente denidas y si S1 S2 = S2 S1 , entonces la matriz
S = S1 S2 es positivamente denida.
5.1.7.

Teorema.

5.1.8.
Sean S1 y S2 matrices simtricas de orden n. Si S1 es
positivamente denida, entonces existe un > 0 tal que S = S1 + S2 es

positivamente denida.

S2 = 0 entonces para cualquier > 0 se tiene


S = S1 + S2 es positivamente denida. Supongamos enS2 6= 0. Por el teorema 5.1.6, existe una matriz invertible Q

Demostracin. Si

que la matriz
tonces que

124

Anexo 1

5.1. Matrices no negativas

QT S1 Q = In

tal que

QT S2 Q = D,

donde

es una matriz diagonal.

0
d22

0
0

.
.
.

..

.
.
.

Digamos que

d11
0

D= .
..
0
Puesto que

S2 6= 0,

dnn

entonces al menos un elemento de la diagonal de

es diferente de cero. Sea ahora

un nmero tal que:

0 < < mn {1/dii } .


dii 6=0

De esto se sigue que:

I + D

1 + dii > 0

para

i = 1, 2, . . . , n

y que la matriz

es positiva denida. En consecuencia, por el teorema 5.1.2, la

matriz

(Q1 )T [I + D]Q1 = S1 + S2 = S


es positivamente denida.
5.1.9.

Teorema.

Sea

una matriz simtrica de orden

tivamente denida, entonces para cada par de vectores

n. Si S es posix, y Mn1 se

tiene

(xT y)2 (xT Sx)(yT S 1 y) .


Puesto que

es positivamente denida, por el teorema 5.1.2, existe una

matriz invertible

tal que

S = QT Q.

De aqu que

S 1 = Q1 (QT )1 .

Ahora, por la desigualdad de Schwarz (ver el teorema 1.2.21) para cada


par de vectores

x, y Mn1 se tiene




Qx, (QT )1 y 2 kQ xk2 (QT )1 y 2 ,

o sea:

(xT QT (QT )1 y)2 (xT QT Qx) (yT Q1 (Q1 )T y) ,


esto es,

(xT y)2 (xT Sx) (yT S 1 y).


5.1.10.

adems
Si

S1

Teorema.

Sean S1
1 2 n ,

y S2 matrices simtricas de orden n. Sean


las soluciones de la ecuacin |S2 S1 | = 0.

es positiva denida, entonces para cada


T

x S2 x
n .
xT S1 x
125

x 6= 0

se tiene que

5.1. Matrices no negativas

Anexo 1

S1 es positiva denida, existe una maQT S1 Q = In y QT S2 Q = D es una matriz diag-

Demostracin. Puesto que

triz invertible

Q,

tal que

onal real, cuyos elementos en la diagonal son las soluciones de la ecuacin

|S2 S1 | = 0

(ver teorema 5.1.6). Ms an, podemos escoger

1
0

QT S2 Q = D = .
..
0
1 2 n .

donde

0
2

.
.
.

..

Ahora, si hacemos

x S1 x = y Q S1 Qy = y In y =

tal que

0
0

. ,
.
.
n

y = Q1 x,

y12

y22

entonces:

+ + yn2 ,

Por

xT S2 x = yT QT S2 Qy = yT Dy = 1 y12 + 2 y22 + + n yn2 .


lo tanto, para cada x 6= 0:
xT S2 x
1 y12 + 2 y22 + + n yn2
=
.
xT S1 x
y12 + y22 + + yn2

De esto se sigue que para cada

x 6= 0 :

xT S2 x
n .
xT S1 x


5.1.11.

Teorema.

Sea

una matriz simtrica de orden

n.

Las arma-

ciones siguientes son equivalentes:


1.

es positivamente semidenida.
P , nn, P T SP es positivamente semidenida.

2. Para cada matriz


3.

S tiene (0 < n)
n valores propios

valores propios positivos (estrictamente) y


nulos.

P

0
;
0

4. Existe una matriz invertible

P T SP =
5. Existe una matriz

In
0

nn

de orden

tal que

0 < n.

no invertible

Teorema.

n,

Q,

tal que

S = QT Q.

Sea S = [sij ]nn una matriz simtrica de orden


es positivamente semidenida, entonces

5.1.12.

1.

(S) < n.
126

n.

Si

Anexo 1

5.1. Matrices no negativas

2.

sii 0 para i = 1, 2, . . . , n. Adems, si sii = 0, entonces cada


elemento de la la i y cada elemento de la columna j de S es
nulo.

S2

Teorema.

Sean S1 y S2 matrices simtricas de igual orden. Si S1


son positivamente semidenidas, S2 es no negativa y S1 S2 = S2 S1 ,

5.1.13.

entonces la matriz

S = S1 S2

es positivamente semidenida.

Teorema.

Sean S1 y S2 matrices simtricas de igual orden y sean


nmeros reales positivos. Si S1 y S2 son positivamente semidenidas,
entonces la matriz S = 1 S1 + 2 S2 es positivamente semidenida.
5.1.14.

1 , 2

5.1.15.

Teorema.

1.
2.
3.
5.1.16.

AT A
AT A
AT A

Sea

AAT

una matriz

nn

de rango

r,

entonces:

son matrices no negativas.

es positivamente denida sii

r = n.
r < n.

es positivamente semidenida sii

Teorema.

Sean

S1

S2

matrices simtricas de orden

S1 y S2 son matrices no negativas, entonces:


Tr S1 0
b ) Tr S1 = 0 sii S1 = 0
c ) Tr (S1 S2 ) 0
d ) Tr (S1 S2 ) = 0 sii S1 S2 = 0
Si S1 y S2 son matrices positivamente denidas,
a ) Tr S1 > 0
b ) Tr (S1 S2 ) > 0.

n.

1. Si

a)

2.

5.1.17.

Teorema.

Sean

S1 , S2 , . . . , Sk

entonces:

matrices simtricas de orden

n.

S1 , S2 , . . . , Sk son no negativas, entonces:


Pk
Pk
a ) Tr
Tr (Si ) 0
i=1 Si =
P
 Pi=1
k
k
b ) Tr
i=1 Si =
i=1 Tr (Si ) = 0 sii S1 = S2 = . . . = Sk =
0.
k X
k
k
k
X
X
X
c)
Tr (Si Sj ) 0, y
Tr (Si Sj ) 0.

1. Si

j=1 i=1

d)

k
X

k
X

j=1 i=1, i6=j

Tr (Si Sj )

=0

sii

Si Sj = 0

para todo

i 6= j .

j=1 i=1, i6=j


2. Si

S1 , S2 , . . . , Sk

son matrices positivamente denidas, entonces:


127

5.1. Matrices no negativas


a ) Tr

P

k
i=1

k X
k
X

b)

Anexo 1

 P
k
Si = i=1 Tr (Si ) 0

Tr (Si Sj )

>0

j=1 i=1
5.1.18.

Teorema.

adems

Sea

S1 , S2 , . . . , Sk

k
X

k
X

Tr (Si Sj )

> 0.

j=1 i=1, i6=j

una matriz simtrica

nn

tal que

son matrices no negativas de orden

In = S +

k
X

S2 = S.
n. Si

Sean

Si ,

i=1

entonces

SSi = Si S = 0

i = 1, 2, . . . , k .

para todo

S = S 2 = S T S es
Tr (SSi ) 0 para i = 1, 2, . . . , k.

Demostracin. Por el teorema 5.1.15(1) la matriz

no negativa, y por el teorema 5.1.16(1)

Ahora; premultiplicando los dos miembros de la igualdad:

In = S +

k
X

Si ,

i=1

S,

por la matriz

se obtiene

S = S2 +

k
X

SSi = S +

i=1

k
X

SSi .

i=1

De esto se sigue que:

k
X

SSi = 0

Tr

i=1

k
X

!
SSi

i=1

En consecuencia, Tr (SSi )

=0

k
X

Tr (SSi )

= 0.

i=1

y por ende

S Si = 0, para i = 1, 2, . . . , k.
Si S = SiT S T =


(ver teorema 5.1.16(1)). Adems se se tiene que

(S Si ) = 0.

Teorema.

Sean S1 y S2 matrices simtricas de orden n. Si S1 es


S2 es no negativa, entonces las soluciones de la ecuacin
|S1 S2 I| = 0 son reales.
5.1.19.

no negativa o

Demostracin. Supongamos que

rango

n.

S1

es una matriz no negativa de

Entonces existe una matriz invertible

P t S1 P =

I
0

128

0
0


.

tal que:

Anexo 1

5.2. Matrices idempotentes

Sea ahora

C=P

T 1

S2 (P )

Puesto que


=

C11
C21

C12
C22


,

donde

C11

es una matriz

C11 es una matriz


|C11 I | = 0 son

es una matriz simtrica, entonces

simtrica y por lo tanto las soluciones de la ecuacin


reales.
Ahora;

|S1 S2 I| = 0 sii
T



P |S1 S2 In | (P T )1 = P T S1 S2 (P T )1 In = 0 .

Puesto que:

P T S1 S2 (P T )1

=
=
=

P T S1 P P 1 S2 (P T )1



I 0
C11 C12
0 0
C21 C22


C11 C12
,
0
0

entonces

T

P S1 S2 (P T )1 In =


C11 I




0


C12


I

= |C11 I | |I | .
De aqu que las soluciones de la ecuacin
ciones de la ecuacin

|C11 I| |I | = 0,

|S1 S2 I| = 0,

son las solu-

las cuales son reales .

5.2. Matrices idempotentes


5.2.1.

Denicin.

satisface que
5.2.2.

Teorema.
1. Si
2. Si

Una matriz

cuadrada de orden

es idempotente, si

A2 = A.
Sea

una matriz idempotente

r = n, entonces A = In .
A es simtrica y r < n, entonces A

nn

de rango

r:

es positiva semidenida.

r = n, entonces A es invertible. Premultiplicando por A1


2
dos miembros de la igualdad A = A, se obtiene A = In .

1. Si

129

los

5.2. Matrices idempotentes


a ) Si

Anexo 1

A es simtrica y r < n, entonces por el teorema 5.1.15(3),


A = A2 = AT A es positivamente semidenida.

la matriz
5.2.3.

Teorema.

propio de
5.2.4.

A,

A una matriz idempotente n n.


= 0 = 1.

Sea

entonces

Teorema.

Si

Si

es un valor

es una matriz simtrica idempotente, entonces:

1. Para cada matriz ortogonal

Q,

la matriz

S = QT SQ

es una

matriz simtrica idempotente.

n
2. La matriz S = S , n = 1, 2, . . . , es simtrica idempotente.

3. La matriz S = I 2S, es una matriz simtrica ortogonal.


5.2.5.

Teorema.

algn

n N,

Si

entonces

es una matriz simtrica tal que

una matriz ortogonal tal que

una matriz diagonal con los valores propios de

S n+1 = S n ,
D

n+1

para

es una matriz idempotente.

Demostracin. Sea

Puesto que

S n+1 = S n

P T SP = D

es

en la diagonal.

entonces:

(P T SP )n+1 = P T S n+1 P

= P T S n P = Dn .
De esto se sigue, que cada elemento de la diagonal de
tanto,

D2 = D,

es

0.

Por lo

a sea:

D2 = P T S 2 P = P T SP = D,
puesto que
5.2.6.

es invertible, se tiene entones que

Teorema.

Si

S 2 = S.

una matriz simtrica idempotente


(S) = Tr S = Tr S T S =

n X
n
X


n n,

entonces:

s2ij .

i=1 j=1

Teorema.

Si S es
sii = 1, entonces
columna i de S es nulo.

5.2.7.

sii = 0
la

una matriz simtrica idempotente


cada elemento de la la

Demostracin. Puesto que

entonces:

sii =

n
X

n n.

Si

y cada elemento de

es una matriz simtrica idempotente,

sik ski =

k=1

n
X
k=1

130

s2ik .

Anexo 1

5.2. Matrices idempotentes

Por lo tanto, si

sii = 0

o si

sii = 1,
n
X

se tiene

s2ik = 0 ,

k=1, k6=i
es decir,
5.2.8.

si1 = si2 = = si(i1) = si(i+1) = sin = 0.

Teorema.

sea adems

S=

Sean

k
X

Si .

S1 , S2 , . . . , Sk

matrices simtricas de orden

n,

Entonces dos de las condiciones siguientes impli-

i=1

can la tercera:
a)
b)
c)

S2 = S.
Si = Si2 , i = 1, 2, . . . , k .
Si Sj = 0 si i 6= j; i, j = 1, 2, . . . , k .

Demostracin. Supongamos que las condiciones a) y b) se satis-

facen. Por la condicin a) se tiene:

k
X
Si )2
S2 = (

k
X

Si2 +

i=1

i=1

k
X

k
X

k
X

j=1

i=1
i 6= j

Si Sj

Si = S,

i=1
y por la condicin b), se tiene:

k
X

Si2 =

i=1

k
X

Si ,

i=1

y por lo tanto:

De aqu que Tr

k
X

k
X

k
X

j=1

i=1
i 6= j

k
X

Si Sj = 0.

Si Sj = 0.

j=1 i=1, i6=j


Puesto que cada

Si

es una matriz simtrica idempotente, entonces


131

Si ,

5.2. Matrices idempotentes

Anexo 1

i = 1, 2, . . . , k, es no negativa (teorema 5.2.2), adems se tiene que


Si Sj = 0 si i 6= j; i, j = 1, 2, . . . , k (ver teorema 5.1.17). De manera

para
que

que las condiciones a) y b) implican la condicin c).

Supongamos ahora que las condiciones a) y c) se satisfacen. Se tiene entonces que:

k
X
S = S2 = (
Si )2

k
X

i=1

Si2 ,

i=1

o sea,

k
X

Si =

k
X

i=1

Si2 .

i=1

Premultiplicando cada miembro de la ltima igualdad por

Sj , j = 1, 2, . . . , k,

se tiene que:

Sj Sj = Sj Sj2 ,
o sea:

Sj2 = Sj3 ,
pues

Si Sj = 0
Sj es

cluye que

si

i 6= j; i, j = 1, 2, . . . , k .

Por el teorema 5.2.5, se con-

una matriz simtrica idempotente,

j = 1, 2, . . . , k.

As, as

condiciones a) y c) implican la condicin b).


Por ltimo, si las condiciones b) y c) se satisfacen, entonces

k
X
Si )2
S2 = (

k
X

Si2 +

i=1

i=1

k
X

k
X

k
X

j=1

i=1
i 6= j

Si Sj

Si = S;

i=1
esto es, la condicin a) se satisface.

Teorema.

Sean S1 , S2 , . . . , Sk matrices simtricas idempotentes


de rangos 1 , 2 , . . . , k . Sea Sk+1 una matriz no negativa de
Pk+1
orden n. Si I =
S , entonces Sk+1 es una matriz simtrica idempoi=1
Pk i
tente de orden n
i=1 i , y Si Sj = 0 para i 6= j; i, j = 1, 2, . . . , k .
5.2.9.

de orden

n,

132

Anexo 1

5.2. Matrices idempotentes

Demostracin. Puesto que las matrices

Si

para

i = 1, 2, . . . , k , son

idempotentes, entonces:

2
Sk+1

(I

k
X

Si )2

i=1

= I 2

k
X

Si +

i=1

= I

k
X

De otro lado, como

Si +

k
X

k
X

j=1

i=1
i 6= j

k
X

k
X

j=1

i=1
i 6= j

Sk+1 = I

Si2 +

i=1

i=1

= Sk+1 +

k
X

Pk

i=1

Si ,

k
X

j=1

i=1
i 6= j

Si Sj

Si Sj

Si Sj .

entonces:

k
X

2
Sk+1
= Sk+1

k
X

Si Sk+1 .

i=1
En consecuencia:

Sk+1 +

k
X
j=1

k
X

Si Sj = Sk+1

k
X

Si Sk+1 .

i=1

i=1
i 6= j

De esto se sigue:

k
X
j=1

k
X

Si Sj +

k
X
i=1

i=1
i 6= j
133

Si Sk+1 = 0,

5.2. Matrices idempotentes

Anexo 1

por lo tanto,

k
X
Tr

k
X

Si Sj +

j=1 i=1, i6=j


Puesto que las matrices

k
X

Si Sk+1 = 0.

i=1

S1 , S2 , . . . , Sk

son simtricas idempotentes, en-

S1 , S2 , . . . , Sk son no negativas.
Sk+1 es no negativa. As que
i 6= j; i, j = 1, 2, . . . , k, k + 1 (teorema 5.1.17(1)).

tonces por el teorema 5.2.2, las matrices

Por hiptesis se tiene que tambin la matriz

Si Sj = 0

para

Pk+1
I 2 = I = i=1 Si , se sigue del teorema anterior
i = 1, 2, . . . , k + 1 y por lo tanto, Tr (Si ) = (Si ) (ver

Ahora bien, puesto que


que,

Si2 = Si

para

teorema 5.2.6). As:

"
(Si ) = Tr (Si )

Tr

k
X

#
Si

i=1

Tr (I )

k
X

Tr (Si )

i=1

= n

k
X

(Si )

i=1

= n

k
X

i .

i=1

que es lo que se quera demostrar.


5.2.10.

y sea

Teorema.

S=
a)
b)

Pk

i=1

S1 , S2 , . . . , Sk matrices
de orden n,
hP no negativas
i
k
2
S = S y Tr S Tr
i=1 Si , entonces:

Sean

Si .

Si

Si2 = Si para i = 1, 2, . . . , k .
Si Sj = 0 para i 6= j; i, j = 1, 2, . . . , k .

Demostracin. Puesto que

S=

k
X
i=1

S = S2;

Si2 +

k
X

k
X

j=1

i=1
i 6= j

134

Si Sj .

Anexo 1

5.2. Matrices idempotentes

De aqu que:

k
X
Tr

k
X

k
X

Si Sj = Tr S Tr

j=1 i=1, i6=j


Ya que las matrices

!
Si2

0.

i=1

S1 , S 2 , . . . , S k

son no negativas, entonces b) se sat-

isface. Esta condicin, junto con la hiptesis de que

S2 = S

implican

entonces la validez de la condicin a), (ver teorema 5.2.8).

Teorema.

5.2.11.

entonces

Sea

una matriz simtrica de orden

n.

Si

(S) = r,

puede escribirse en la forma:

S=

r
X

i Si ,

i=1
t
2
donde: Si = Si , Si = Si , Si Sj = 0 si i 6= j, (Si ) = 1 y los
valores propios no nulos de la matriz S; i, j = 1, 2, . . . , k.

Demostracin. Existe una matriz ortogonal

0
0

es una matriz diagonal de orden

QT SQ =
donde

nulos de la matriz


S

= Q

D
0

0
0

[Q1 Q2

r
X

D
0

tal que:

,
con los valores propios no

QT

1
0

..
.

Qn ]
0
0

.
..
0

0
r

0
0

0
0

.
.
.

..

.
.
.

.
.
.

0
0

r
0

0
0

.
.
.

.
.
.

.
.
.

.
.
.

..

i Qi QTi

i=1
r
X

son los

en su diagonal. De aqu que:

i Si ,

i=1
135

0 QT
1
0

.
.
QT2
.

0 ...

QTn
0

5.2. Matrices idempotentes


donde

Anexo 1

Si = Qi QTi , i = 1, 2, . . . , r.

As:

SiT

SiT

= Qi QTi Qi QTi = Qi I QTi = Qi QTi = Si

Si Sj
(Si )

(Qi QTi )T = (QTi )T QTi = Qi QTi = Si

= Qi QTi Qj QTj = Qi 0 QTj = 0,


=

(Qi QTi )

si

i 6= j.

= (Qi ) = 1.

El teorema queda entonces demostrado.

136

CAPTULO 6

Inversa generalizada e inversa condicional de


matrices.
Este captulo consta de cuatro secciones. Las dos primeras versan sobre
la denicin, propiedades y clculo de la inversa generalizada de una matriz. La tercera seccin trata sobre la denicin y el clculo de inversas
condicionales de una matriz. En la ltima seccin veremos aplicaciones
de la inversa generalizada y de la inversa condicional de una matriz a los
sistemas de ecuaciones lineales y a los mnimos cuadrados.

6.1. Inversa generalizada de una matriz


La inversa generalizada de una matriz es una herramienta de gran utilidad

en los cursos de modelos lineales (vase la seccin 1.5 de [ ]).


Antes de dar la denicin de inversas generalizada de una matriz, veamos
un par de teoremas que nos sern tiles en el desarrollo del resto del
captulo.
6.1.1.

Teorema.

Si

es una matriz

existen matrices invertibles


1.


2.
3.

4.

Ir

Ir
0
Ir
0
Ir
si

0
0



si

r<n

si

r = n < m.

si

r < m.

r=m<n

m n de rango r > 0,
P AQ es igual a:

tales que

r = n = m.
137

entonces

6.1. G-Inversa y C-inversa

Inversa generalizada e inversa condicional

Demostracin. Demostremos nicamente (1). Si

ada reducida de

A,

entonces

R = P A, P

mentales, (vase el apartado 1.1.9). Las ltimas


y

R es la forma escalon-

es un producto de matrices ele-

mr

las de

R son nulas

tienen la estructura siguiente:

0
0
0
.
.
.

0 1
0 0
0 0

a1k
0
0

.
.
.

.
.
.

.
.
.

0
1
0

a1k0
a2k0
0

.
.
.

.
.
.

a1k00
a2k00
0

0
0
1

a1k000
a2k000
a3k000

.
.
.

.
.
.

.
.
.

ahora bien, efectuando las operaciones elementales sobre las columnas de


la matriz

podemos obtener


F =
As que

F = RQ,

donde

columnas). Por lo tanto;


invertibles.
6.1.2.

Ejemplo.

Ir
0

0
0

Q es un producto de marices elementales (por


F = RQ = P AQ, donde P y Q son matrices


Consideremos la matriz

1
A = 1
2

2
2
4

1
3
0 2
2
6

claramente las dos primeras las son linealmente independientes, y la ter-

A. por lo tanto, el nmero


A es 2; o sea, A tiene rango
teorema anterior existen matrices invertibles P y Q tales que



1 0 0 0
I2 0
P AQ =
= 0 1 0 0 .
0 0
0 0 0 0

cera es un mltiplo escalar de la primera la de


mximo de las linealmente independientes de

2.

Por el

Procedemos ahora a calcular las matrices invertibles

siguiendo las

pautas de la demostracin del teorema anterior.

PASO I: Encontremos una matriz invertible


es la forma escalonada reducida de
138

P tal
A.

que

P A = R,

donde

Inversa generalizada e inversa condicional

| I3

f ilas

'

f ilas

'

1
2
1 2
2
4

1 2 1
0 0 1
0 0 0

1 2 0
0 0 1
0 0 0

6.1. G-Inversa y C-inversa

| 1 0 0
| 0 1 0
| 0 0 1

|
1 0 0
|
1 1 0
| 2 0 1

|
1 1 0

|
1
1 0 = R
| 2
0 1

1
3
0 2
2
6
3
1
0
2
1
0

PASO II: Encontremos una matriz invertible

I2
0

F =

| I4

Col

'

Col

'

Col

'

0
0

0

F

0


| Q

Luego las matrices invertibles


139

tal que

| P

RQ = F,

donde


.

|
|
|
|

1
0
0
0

0
1
0
0

0
0
1
0

0
0
0
1

|
|
|
|

1
0
0
0

0
0
1
0

0
1
0
0

0
0
0
1

|
|
|
|

1
0
0
0

0 2
0
1
1
0
0
0

2
0
0
1

|
|
|
|

1
0
0
0

0 2
0
1
1
0
0
0

2
0
1
1

6.1. G-Inversa y C-inversa

1
P = 1
2

Inversa generalizada e inversa condicional

0
0
1

1
1
0

1
0
Q=
0
0

2
1
0
0

0
0
1
0

2
0

1
1

son tales que:


P AQ =
6.1.3.

I2
0

0
0

1
= 0
0

0
1
0

0
0
0

0
0 .
0

Teorema.

existen matrices

Si A es una matriz m n de rango r > 0, entonces


Bmr y Crn , de rango r, tales que A = B C.

Demostracin.

de la matriz

Consideremos distintas posibilidades para rango

A, (A) = r.

r = m, entonces A = BC , donde B = Ir y C = A.
r = n, entonces A = BC , donde B = A y C = Ir .
Si r < n y r < m, entonces por el teorema 6.1.1(1)
matrices invertibles P y Q tales que:


Ir 0
P AQ =
.
0 0

1. Si

2. Si
3.

existen

De aqu que:

donde


0
= P
Q1
0



Ir 
1
Ir 0 Q1
= P
0
= BC,
1

B Mmr

Ir
0

C Mrn

son las matrices de rango

r,

dadas por

B = P 1

Ir
0


y

C=

El teorema queda entonces demostrado.


140

Ir

Q1 .

Inversa generalizada e inversa condicional

B y C que
r < m, tal

Una forma de calcular las matrices

r < n

anterior, en el caso en que

6.1. G-Inversa y C-inversa

aparecen en el teorema
como aparece en la de-

mostracin, es calculando primero las matrices invertibles

tales

que:

Ir
0

P AQ =
P 1

despus calcular las matrices

B = P 1

Ir
0

0
0

Q1 ,

y por ltimo obtener:


C=

Para el caso en que la matriz

Ir

Q1 .

no sea de rango la completo, existe

una demostracin alternativa, la cual presentamos a continuacin. Como


veremos, esta demostracin nos facilitar un algoritmo ms econmico

para calcular matrices

adecuadas.

r < m.

Otra prueba del teorema 6.1.3 para

una matriz de rango

P A = R,

donde

1.1.9). Puesto que

r < m. Sea P

es la forma escalonada reducida de

r < m, R

A es
m tal que

Suponga que

una matriz invertible de orden

(vase apartado

tiene la estructura siguiente:

R=

0
donde

es una matriz

rn

de rango

r.

Ahora, si escribimos

P 1

parti-

cionada adecuadamente

P 1 =
donde

es una matriz

mr

de rango

= P

D
r

y adems,

0
= BC

Presentamos a continuacin, un mtodo basado en esta demostracin para
calcular matrices
6.1.4.

Algoritmo.

C,

de rango

r,

tales que

Considere una matriz


141

A = BC .

de tamao

mn

6.1. G-Inversa y C-inversa


PASO I Forme la matriz

Inversa generalizada e inversa condicional




| Im

Amn

PASO II Efecte operaciones elementales en las las de

su forma escalonada reducida, y en las columnas de

hasta obtener

Im , siguiendo

las siguientes pautas:

iyj

i) Si se intercambian las las


las columnas

de

i-sima

ii) Si se multiplica la

0,

de

A, entonces intercambie

Im .

entonces se multiplica la

la de

i-sima

por el nmero

columna de

Im

6=

por el

1 .
iii) Si a la j -sima la de A se le suma veces la i-sima la
de A ( 6= 0), entonces a la i-sima columna de Im se le
suma () veces la j -sima columna de Im .


1
R
|
P
Al nal de este paso se obtiene la matriz


B = Primeras r columnas de P 1 ,
C = [Primeras r las de R].
nmero

PASO III

6.1.5.

Ejemplo.

La matriz del ejemplo 6.1.2

1
A = 1
2

1
3
0 2
2
6

2
2
4

2. Existen por lo tanto matrices B32 y C24


A = BC. Calculemos matrices B y C siguiendo los

2 tales

tiene rango

de rango

que

pasos indicados

anteriormente.

| I3

1
2 1
3
= 1 2 0 2
2
4 2
6

1 2 1 3 |
0 0 1 1 |
0 0 0 0 |


R | P 1 .
=

As, tomando las primeras 2 columnas de

| 1
| 0
| 0
1
1
2

0
0
1

0
1
0
0
1
0

0
0
1

y las 2 primeras las de

obtenemos respectivamente las matrices

1
B = 1
2

1
0
2


C=

142

1
0

2
0

0
1

2
1


,

P 1

Inversa generalizada e inversa condicional

6.1. G-Inversa y C-inversa

las cuales tienen rango 2 y son tales que:

1
= 1
2

1
= 1
2

BC

6.1.6.

triz

2
2
4

2
0

0
1

2
1

1
3
0 2 = A .
2
6

Denicin (Inversa generalizada o pseudoinversa).

m n.
1.
2.
3.
4.

Si

es una matriz

AM es una matriz
M A es una matriz
AM A = A .
M AM = M,

entonces se dice que

A,

1 
1
0
0
2

nm

Sea

una ma-

tal que:

simtrica.
simtrica.

M es una inversa generalizada


M es una g-inversa de A.

(pseudoinversa) de

o simplemente que

6.1.7.

Ejemplo.

Veriquemos que

g-inversa de la matriz

11
0

AM =

2.

10
1
3
MA =
11
1

4.

1
1

0
11

A=

1.

3.

6.1.8.

1
11

3
1
2
la matriz M =
11
3

1 2
. En efecto,
0 1

7
1
4

es una

= I2 es una matriz simtrica.

3 1
2
3 es una matriz simtrica.
3 10

AM A = I2 A = A .

10
1
M AM = 2 3
11
1
M,

3 1
3
2
3 2
3 10
3

3
7
1
1 =
2
11
3
4

7
1 =
4

Observacin.
1. Si

A es invertible, entonces la matriz A1


143

es una g-inversa de

A.

6.1. G-Inversa y C-inversa

Inversa generalizada e inversa condicional

A = 0mn , entonces la matriz M = 0nm

2. Si

es una g-inversa de

A.
6.1.9.

Teorema (Existencia de una g-inversa).

mn

Toda matriz

de tamao

tiene una inversa generalizada.

Demostracin. De acuerdo con la observacin 6.1.8(2), la demostracin

A = 0. Supongamos ahora que que A 6= 0 tiene


B de tamao m r y
r n, ambas de rango r tales que A = BC.

es trivial en el caso en que


rango

r > 0.

Por el teorema 6.1.3, existen matrices

de tamao

Puesto que

tiene rango

r, las matrices B T B

CC T

son invertibles

(vase el teorema 1.4.8). Consideremos ahora la matriz

M = C T CC T
y veriquemos que

1

BT B

es una g-inversa de

1

A.

BT ,

Es decir, veriquemos que

las condiciones de la denicin 6.1.6 se satisfacen. En efecto:


Las matrices

AM

MA

son simtricas puesto que

AM = BCC T CC T

1

BT B

1

BT = B BT B

1

BT

1 T
1
BT B
B BC = C T CC T
C
1 T
T
lado, AM A = B B B
B BC = BC = A, y

1 T 1 T
1
M AM = C T CC T
CC T CC T
B B
B


1
1
= C T CC T
BT B
B T = M.

M A = C T CC T
De otro

Es decir,

AM A = A

1

M AM = A,

por lo tanto,

es una g-inversa de

A.

6.1.10.

Teorema

(Unicidad de la g-inversa)

Toda matriz

tiene una

nica g-inversa.

Demostracin. Supongamos que

una matriz

A.

M1

M2

son dos g-inversas de

Utilizando la denicin de g-inversa de una matriz se ob-

tiene la cadena siguiente de igualdades:

AM2

(AM1 A)M2 = (AM1 )(AM2 ) = (AM1 )T (AM2 )T

((AM2 )(AM1 )) = ((AM2 A)M1 ) = (AM1 ) = AM1 .

144

Inversa generalizada e inversa condicional


De aqu que

6.1. G-Inversa y C-inversa

AM2 = AM1 . En forma anloga se obtiene que M2 A = M1 A.

Por lo tanto

M1

= M1 AM1 = (M1 A)M1 = (M2 A)M1 = M2 (AM1 )


= M2 (AM2 ) = M2 AM2 = M2 .


6.1.11.

Nota.

con el signo

En lo sucesivo, la g-inversa de una matriz la denotaremos

respectivamente las inversas generalizadas de las


6.1.12.

A+ , B + denotarn
matrices A y B .

como exponente. Por ejemplo, por

Teorema (Propiedades de la g-inversa).

Para cualquier matriz

tiene que:
a)
b)
c)
d)
e)

(A+ )+ = A.
(A)+ = 1 A+ , para
(AT )+ = (A+ )T
(AAT )+ = (AT )+ A+
(AT A)+ = A+ (AT )+

todo escalar

6= 0.

Demostracin. Por el teorema anterior, toda matriz tiene una ni-

ca g-inversa. Slo resta vericar en cada caso, que se satisfacen las condiciones de la denicin 6.1.6. Haremos la demostracin slo para el inciso
(e), para ello, supondremos vlidas las armaciones (a)-(d) (las vericaciones ) quedan a cargo del lector) y aplicaremos las propiedades de la
denicin 6.1.6:

1. La matriz

A+ A

M = A+ (AT )+

y por lo tanto, la matriz

AT A

A+ (AT )

En efecto:


AT A M

=
(c)

def.

=
def.


T
A
A
M =

+

satisface la igualdad

AT A

A+ (AT )+

AT (AA+ )(A+ )T
AT (AA+ )T (A+ )T
T
A+ AA+ A+
T
A+ A = A+ A .
145

es simtrica.

6.1. G-Inversa y C-inversa

M = A+ (AT )+

2. La matriz

A+ A

Inversa generalizada e inversa condicional



T
M
A
A
=


satisface la igualdad

y por lo tanto, la matriz

A+ (AT )+

AT A

es simtrica.

En efecto:

M AT A

A+ (AT )+

=
(c)

AT A

A+ (A+ )T AT A

def.

A+ (AA+ )T A

def.

def.

A+ AA+ A = A+ A.

3. La matriz

M = A+ (AT )+ satisface la igualdad (AT A)M (AT A) =

A A.
(AT A)M (AT A)

AT A



A+ (AT )+ AT A


A+ A AT A = (A+ A)T AT A
T def.
T
A(A+ A) A = AA+ A A = AT A.

=
(1)

=
4. La matriz

M.

M = A+ (AT )+

satisface la igualdad

M (AT A)M =

En efecto

M (A A)M = M




A+ (AT )+ AT A A+ (AT )+


A+ A A+ (AT )+
T
+
A+ AA+
AT

=
(2)

=
def.

A+ (AT )+ .


6.1.13.

Observacin.

No siempre es cierto que

(AB)+ = B + A+ .

Para

mostrar este hecho consideremos el siguiente ejemplo.


6.1.14.

Ejemplo.

Si

A=


y

B=

1
2

, entonces AB = [3]. Por


 
1
1
+
y
corolario 6.2.2, A =
2
1

(AB)+ = 1/3. De acuerdo con el




B + = 51 1 2 , de donde se tiene que
 
1 1
1
1
+ +
1 2
B A =
=
[3] = [3/10] 6= [3] = (AB)+ .
5
2 1
10

lo tanto

146

Inversa generalizada e inversa condicional

6.2. Clculo de la g-inversa

6.2. Clculo de la g-inversa de una matriz


En esta seccin veremos algunos teoremas que pueden ser utilizados para
calcular la g-inversa de una matriz. Empezamos con el siguiente resultado,
el cual se deduce de los teoremas 6.1.3, 6.1.9 y 6.1.10.
6.2.1.

Teorema.

3.
4.

r = n = m,
r = m < n,

Corolario.
1. Si
2. Si

6.2.3.

de rango

r > 0.

entonces

A+ = C T CC T
6.2.2.

mn

una matriz

A es invertible y A+ = A1 .
1
+
T
Si
entonces A = A
AAT
.
1 T
+
T
Si r = n < m, entonces A = A A
A .
Si r < n y r < m, entonces existen matrices B Mmr
C Mrn de rango r tales que A = B C y

1. Si
2.

Sea

Sea

a M1n ,
a Mn1 ,

Ejemplo.

2
1

BT .

componentes.

1 T
a+ = aaT
a .
 T 1 T
+
a = a a
a .

entonces

entonces

A =


1
1

2
3


es invertible, as que

A=

1
1

2
1

3
1

= AT AA

A+ = A1 =


2. La matriz

A+

1

Ilustremos el teorema 6.2.1 con alguna matrices sencillas.

1. La matriz

3
1

BT B

un vector no nulo de




1

3
1
6
42
9


T 1

1
= 2
3

14
14
14

147


tiene rango 2, as que:


1
1
3
1
42 0
1

0
14

6.2. Clculo de la g-inversa

Inversa generalizada e inversa condicional

3. La matriz

4.

1
A= 3
5
1

2
4
6

1
A =
24
T

tiene rango 2, as que:

56
44


A A

1
32 8
16
=
26
8
10
24
La matriz A dada por

1
2
A = 1 2
2
4

1
B = 1
2

1
0
2

son tales que

A+

A = BC.

3
4

5
6

1
0

2
0

0
1

2
1

Luego

C T CC T

1
2

y que las matrices


C=



1
3
0 2
2
6

(A) = 2

Del ejemplo 6.1.5 se sabe

44
35

1

BT B

1

BT .

2 20 4

1
4 40 8
=

9
55
18
24
5
15 10


1 2 3 =
Para la matriz A =
6 0 se tiene

1

1
1 T
2
a =
a+ = aaT
14
3

1
La matriz A = 1 6= 0 se tiene que,
1

5.

6.

a+
6.2.4.

Teorema.

g-inversa de

1 T

1
1 1 1 .
aT a
a =
3
A Mmn una matriz de rango r > 0.

Sea

que:

Entonces la

A se puede calcular siguiendo los pasos dados a continuacin:

1. Calcule

M = AT A.
148

Inversa generalizada e inversa condicional


2. Haga

6.2. Clculo de la g-inversa

C1 = I .

3. Calcule
4. Calcule

1
Ci+1 = Tr(Ci M )I Ci M, para i = 1, 2, . . . , r 1.
i
r
Cr AT , sta es la matriz A+ .
Tr (Cr M )

Adems, se tiene que

Cr+1 M = 0

Tr (Cr M ) 6= 0.

Para la demostracin de este teorema, remitimos al lector a [ ] (teore-

Cr+1 M = 0
A.

ma 6.5.8). Obsrvese adems, que la condicin


proceder sin conocer de antemano el rango de
6.2.5.

Ejemplo.

Consideremos la matriz

1
A = 1
2
del ejemplo 6.2.3(4). Calculemos
Para ello calculemos

y consideremos

nos permite

2
2
4
A+

3
2
6

utilizando el teorema anterior.

M = At A. Esto es,

6 12
12 24
M =
5 10
17 34

C1 = I4 .

1
0
2

5
10
5
15

17
34

15
49

Entonces tenemos que:

78 12
5 17
12
60 10 34
.
C2 = Tr (C1 M ) I C1 M =
5 10
79 15
17 34 15
35
Como

C3 M = 0,

entonces

(A) = 2,

y adems

2
2
2
+
T
4
A =
C2 A =
Tr (C2 M )
140 9
5

20
40
55
15

4
8

18
10

El siguiente teorema nos presenta una forma alternativa para calcular la

g-inversa de una matriz. Para su demostracin, remitimos a [ ] (vase


pginas. 14-15).
149

6.2. Clculo de la g-inversa


6.2.6.

de

Inversa generalizada e inversa condicional

Teorema.

Sea A Mmn una matriz de rango


se puede calcular mediante los siguientes pasos:

1. Forme la matriz

A | Im

r > 0.

La g-inversa

2. Efecte operaciones elementales en las las de la matriz anterior

hasta conseguir la forma escalonada reducida de

A.

Al nal de

este paso se obtiene una matriz que podemos describir por bloques
as:

Ern
0mrn

| Prm
| Pmrm

| Pmm


si

r<m

(Si
+

Emn

r = m = n,

entonces

r = m.

si

es invertible,

E =I

P = A1 =

).

3. Forme la matriz:

Ern AT
Pmrm

| Ern
| 0mrm

Emn AT

| Emn


si

r<m

si

r = m.

4. Efecte operaciones elementales en las las de la matriz anterior

hasta conseguir la forma escalonada reducida. Al nal de este


paso se obtiene la matriz


6.2.7.

Ejemplo.

Im

Consideremos de nuevo la matriz

1
A = 1
2
Con el objeto de calcular
la matriz


| (A+ )T .

| I3

A+

2
2
4

1
0
2

del ejemplo 6.2.5

3
2 .
6

utilizando el teorema anterior, formemos

y apliquemos operaciones elementales en las las


150

Inversa generalizada e inversa condicional

6.2. Clculo de la g-inversa


A.
3 | 1 0
2 | 0 1
6 | 0 0

hasta encontrar la forma escalonada reducida de

1
2 1
0
A | I3
0
= 1 2 0
2
4 2
1

1
2
0
2 |
0 1
0
0
0
1
1 |
1
1
0


|
0
0
0
0 | 2
0
1


E24 | P23
=
.
014 | P13


E24 At | E24
Construyamos ahora la matriz de la forma
y apliqueP13
| 014


mos de nuevo operaciones elementales en las las, hasta obtener la matriz


identidad

I3

en el lado izquierdo de este arreglo

E24 At
P13

| E24
| 014


=

0
=

I3

|
1
2
0
2
|
0
0
1
1

|
|
0
0
0
0

2
9
1
1

35
35
70
14
0 |

|
2
4
11
3

0 |

7
7
14
14

1 |
4
9
1
2

35
35
35
7

(A+ )t .

9
2

11
4

0
1
0
|

22
8

As que

1
35

2
35

A+ =
9

70

2
35

2
7

4
7

11
14
3
14

2
35

4
2

35
1
4
=
9

70
9
5

35

1
7

151

20 4
40 8

55 18
15 10

6.3. C-inversa
6.2.8.

Inversa generalizada e inversa condicional

Ejemplo.

Consideremos la matriz

1
1

A=

2
1

del ejemplo 6.2.3(2)

3
1


,

y sigamos los pasos del ejemplo anterior (teorema 6.2.6) para calcular

A | I2

1
1

1
0

E24

Construyamos ahora la matriz

E24 A

| E23

2
1
0
1

E24 AT


=

| 1
| 0

3
1

5
4

| P23

| E23

0


I2

0
1

.


y reduzcmosla

5
4

0
1

2
14

1
14

|
|
| 1
3

| (A+ )T

2
1

14 6 | 1
14
3 | 0

0
1

| 1
|
1

A+ .

1
3

3
14

1
3

As que

1
14

2
+
A =
14

14

3
3

1
1
6
=

3 42

9
1

14

14

14

6.3. Inversa condicional de una matriz


Al igual que el concepto de inversa generalizada de una matriz, el concepto
de inversa condicional es de gran utilidad en los cursos de modelos lineales
152

Inversa generalizada e inversa condicional

6.3. C-inversa

(vase la seccin 1.5 de [ ]) y en la caracterizacin del conjunto solucin


de sistemas lineales de ecuaciones.
6.3.1.

Denicin.

Sea

m n.

una matriz

Si

es una matriz

nm

tal que:

AM A = A,
M

entonces se dice que


que

6.3.2.

De acuerdo con el teorema 6.1.10, toda matriz

A+ .

tiene una nica inversa generalizada


una c-inversa de

A.

As que, toda matriz

Veremos aqu, que una matriz

A1

Nota.

tiene al menos una

c-inversa.

puede tener varias (incluso innitas)

es invertible, en cuyo

es la nica c-inversa.

El teorema 6.3.5 caracteriza el conjunto de todas las inversas

condicionales de
6.3.3.

sta es a su vez por denicin

inversas condicionales, salvo cuando la matriz


caso

o simplemente,

A.

es una c-inversa de

Observacin.

es una inversa condicional de

Teorema.
1.

A.
Sea

A Mmn

una matriz de rango

r.

Entonces:

W = {N Mnm : AN A = 0} es un subespacio de Mnm .


W mencionado en (1) es m n r2 .

2. La dimensin del espacio

Demostracin. Para demostrar el inciso (1) basta demostrar, segn

el teorema 1.2.6, que el conjunto

es cerrado bajo la suma y la multi-

plicacin por un escalar. En efecto,


Sean

N1

N2

dos elementos (matrices) del conjunto

W,

entonces

A(N1 + N2 )A = AN1 A + AN2 A = 0 + 0 = 0,


esto implica que

N1 + N2 W.

sto es,

De otro lado, para cualquier escalar

es cerrado bajo la suma.


se tiene que

A(N1 )A = AN1 A = 0 = 0,
sto implica que,

N1 W.

Es decir,

por un escalar. El conjunto

Mnm ,

es cerrado bajo la multiplicacin

es entonces un subespacio vectorial de

lo que completa la demostracin del inciso (1).

Hagamos ahora la demostracin del inciso (2) en el caso en la matriz

A Mmn

tenga rango

con

0 < r < mn {m, n}.

en los dems casos son similares.


153

Las demostraciones

6.3. C-inversa
Sea entonces

Inversa generalizada e inversa condicional

una matriz

mn

de rango

r,

con

0 < r < mn {m, n}.

De acuerdo con el inciso (1) del teorema 6.1.1, existen matrices invertibles

P Mmm
(6.1)

Q Mnn tales que:




Ir 0
P AQ =
o
0 0
y

A=P

Ir
0

0
0

Q1 .

X Mrr , Y Mr(mr) , Z
N Mnm dada por

Y
P.
W

Consideremos ahora matrices arbitrarias

M(nr)r

W M(nr)(mr)

y la matriz


N =Q
Ahora

N W

AN A =
=

X
Z

AN A = 0. De (6.1) se sigue que







Ir 0
X Y
Ir
P 1
Q1 Q
P P 1
0 0
Z W
0


X 0
P 1
Q1 .
0 0
sii

De aqu se deduce

X = 0. Esto es, N W


0 Y
N =Q
P.
Z W

AN A = 0

forma:

sii

W
= k j.

Demostremos ahora que la dimensin de

es

m n r2 .

0
0

sii

Q1

es de la

Para ello, us-

dim Mkj
En efecto, consideremos los
espacios de matrices Mr(mr) , M(nr)r y M(nr)(mr) con las bases




y
, B1 =
Z
,
Z
,
.
.
.
,
Z
respectivas B1 =
Y
,
Y
,
.
.
.
,
Y
1
2
1
2
r(nr)
r(mr)


B3 = W1 , W2 , . . . , W(nr)(mr) . Es fcil mostrar entonces que el conjunto B = {N1 , N2 , . . . , Nmnrr } con


0 Yi
Ni = Q
P ; i = 1, 2, . . . , m r r2
0 0


0 0
Nr(mr)+j = Q
P ; j = 1, 2, . . . , n r r2
Zj 0


0
0
Nr(m+n2r)+k = Q
P ; k = 1, 2, . . . , (n r) (m r),
0 Wk
aremos el hecho de que

es una base de
6.3.4.

W.

Teorema.

Sea


A

una matriz

n. El conjunto McA de todas las

c-inversas,
es una variedad

McA = {M Mnm : AM A = A} ,
2
lineal de dimensin m n r .
154

Inversa generalizada e inversa condicional

6.3. C-inversa

c
Demostracin. Por el teorema 6.2.2 MA es no vaco, sea entonces
M0 un elemento de McA . Veriquemos entonces, que M McA si y slo
si M se puede escribir como la suma de M0 y un elemento N W, sto
es, sii M = M0 + N para algn N W , siendo W el conjunto dado en el
teorema 6.3.3.

Si

A.

M = M0 + N, con N W , entonces AM A = AM0 A + AN A = A + 0 =


c
c
sto es, M MA . De otra parte, si M MA , entonces podemos

escribir

= M + M0 M0
= M0 + (M M0 ) = M0 + N ,

donde

N = M M0 .

Puesto que

A(M M0 )A = AM A AM0 A = A A = 0 ,
se tiene entonces que

N = M M0 W

y de aqu se sigue que:

McA = {M + N, N W } .


El teorema siguiente establece cmo determinar los elementos de


6.3.5.

Teorema.

Q Mnn

Sea

una matriz

mn

de rango

r.

Sean

matrices invertibles como en el teorema 6.1.1.

McA = Mnm .

1. Si

A = 0,

2. Si

r = n = m,

entonces

3. Si

r = m < n,

entonces

entonces



McA = {A+ } = A1

 


Ir
c
P : Y M(nr)m .
MA = Q
Y
4. Si

r = n < m, entonces
 


McA = Q Ir X P : X Mn(mr) .
155

McA .

P Mmm

6.3. C-inversa
5. Si

Inversa generalizada e inversa condicional

0<r<n

0 < r < m,

 
Ir
Q
Y

X
Z

McA de todas
est dado por

entonces el conjunto

las inversas condicionales de la matriz


P : Z M(nr)(mr) ,

Y M(nr)m , X Mn(mr)

Demostracin. De acuerdo con los teoremas 6.2.4 y 6.3.4, se tiene

que en cada caso

McA

otro lado, se puede vericar que si


6.3.6.

Ejemplo.

mn r2 . De
AM A = A.


es una variedad lineal de dimensin

McA , entonces

2
2
4

1
0
2

Sea

1
A = 1
2

3
2 ,
6

la matriz del ejemplo 6.1.2. De dicho ejemplo sabemos que las matrices
invertibles

1
P =
2

1
1
0

0
0
1

1
0
Q=
0
0

0
0
1
0

2
1
0
0

2
0

1
1

son


I2 0
tales que P AQ =
, (A) = r = 2. En este caso,
0 0
 


I2 X
McA = Q
P : X M21 , Y M22 , Z M21 ,
Y Z

representar, el conjunto de todas las inversas condicionales de


particular, si tomamos
de

X = 0, Y = 0

es:


M0 = Q

I2
0

Z = 0, se

0 1

0
0
0
P =
1
0
1
0
0
y

A,

En

tiene que una c-inversa

0
0
.
0
0

En lo que resta de esta seccin veremos un mtodo alternativo para calcular una c-inversa de una matriz. Consideremos inicialmente el caso de
matrices cuadradas.

Denicin.

6.3.7.
Una matriz cuadrada H = [hij ]nn tiene la forma
Hermite superior, si satisface las condiciones siguientes:
156

Inversa generalizada e inversa condicional


1.
2.
3.
4.

H es triangular superior.
hii = 0 hii = 1, i = 1, 2, . . . , n.
Si hii = 0, entonces la i-sima la es nula, sto es, hij = 0 para
todo j = 1, 2, . . . , n.
Si hii = 1, entonces el resto de los elementos de la i-sima columna son nulos. sto es, hji = 0 para todo j = 1, 2, . . . , n; (j 6= i).

Ejemplo.

6.3.8.

6.3. C-inversa

La matriz

1
0
H=
0
0

2
0
0
0


tiene la forma Hermite superior.

0
0
1
0

0
0

0
1

El siguiente teorema establece que una matriz Hermite superior es idempotente. La demostracin de dicho resultado es consecuencia directa de la
denicin y se deja como un ejercicio para el lector.

Teorema.

6.3.9.

entonces
6.3.10.

ible

Si

es una matriz que tiene la forma Hermite superior,

H 2 = H.

Teorema.
tal que

Para toda matriz cuadrada

BA = H

Demostracin. Sea

entonces la matriz

existe una matriz invert-

una matriz invertible tal que

forma escalonada reducida de


Si

tiene la forma Hermite superior.

B =P

A.

Si

PA = R

es la

tiene la forma Hermite superior,

satisface la condicin de que

BA = R = H .
R

no tiene la forma Hermite superior, intercambiamos las las de

hasta que el primer elemento no nulo (de izquierda a derecha) de cada la
no nula de

R,

sea un elemento de la diagonal. As tenemos una matriz

que tiene la forma Hermite superior. As que existen matrices elementales


(por las)

E1 , E2 , . . . , Ek

tales que

E1 E2 Ek R = H
o sea:

E1 E2 Ek P A = H.
En consecuencia, la matriz invertible

B = E1 E2 Ek P

tiene la forma Hermite superior.


157

es tal que

BA =


6.3. C-inversa
6.3.11.

Inversa generalizada e inversa condicional

Ejemplo.

Para la matriz cuadrada:

1
A= 1
2

2
2
4

3
5 ,
10

la matriz invertible

5/2
P = 1/2
0

3/2
1/2
2

0
0
1

es tal que

1
PA = R = 0
0
donde
y 3 de

0
1 ,
0

2
0
0

R es la forma escalonada resucida de A.


R obtemos la matriz:

1 2 0
H= 0 0 0
0 0 1

Intercambiando las las

tiene la forma Hermite superior. Adems,

5/2
0
B=
1/2
es invertible y es tal que
6.3.12.

BA = H

Teorema.

Sea A una
BA = H tiene
de A.

vertible tal que


una c-inversa

3/2
2
1/2


matriz cuadrada. Si

es una matriz in-

la forma Hermite superior, entonces

H tiene la forma Hermite superior,


2
que BABA = H = H = BA, o sea:

Como
As

0
1
0

por el teorema 6.3.9,

es

H 2 = H.

BABA = BA.
Premultiplicando los dos miembros de la ltima igualdad por la matriz

B 1

se obtiene:

ABA = A,
esto es,

es una c-inversa de

A.
158

Inversa generalizada e inversa condicional


6.3.13.

Ejemplo.

6.3. C-inversa

A del

3
5 .
10

Consideremos la matriz

1
A= 1
2

2
2
4

ejemplo 6.3.11,

Se sabe de dicho ejemplo, que la matriz invertible

es tal que

0
1 ,
0

3/2
2
1/2

5/2
0
B=
1/2

BA = H tiene la forma Hermite superior.


B es una c-inversa de A. 

Por lo tanto, por

teorema anterior,

El siguiente corolario presenta una forma de calcular una c-inversa para


el caso de matrices rectangulares.
6.3.14.

Corolario.

Sea

mn

una matriz



m > n, sea A = A 0 , donde 0 es la matriz nula
m(mn). Sea adems B una matriz invertible tal que B A =
H tiene la forma Hermite superior. Si escribimos la matriz B

1. Si

entonces particionada as:

B =

,
B1

n m, entonces B es una c-inversa de




A

Si n > m, sea A =
, donde 0 es la matriz nula (n m)
0

m. Sea adems B una matriz invertible tal que B A = H tiene

la forma Hermite superior. Si escribimos la matriz B entonces


donde

es una matriz

A.

2.

particionada as:

B =
donde

es una matriz

B1

n m,

entonces

es una c-inversa de

A.
Demostracin. Presentamos aqu la slo la demostracin del inciso

(1). Supongamos
matriz cuadrada

A es una
A = A

 m n,

matriz

nn

159

con

m>n

y consideremos la

6.4. Mnimos cuadrados

Inversa generalizada e inversa condicional

B , tal que B A =
H tiene la forma Hermite superior. Dicha matriz B es una c-inversa de
A (teorema 6.3.10), as que, A B A = A , o sea:

B




A 0
A 0
A B A =
B1

 

ABA 0 = A 0 = A .
=

Segn el teorema 6.3.10, existe una matriz invertible

De sto se sigue que


6.3.15.

Ejemplo.

ABA = A.

Es decir,

Sea

A.

1
1
.
1 32

1
A= 2
0
1
A = 2
0

es una c-inversa de

Encontremos una c-inversa para la matriz:

0
0
.
0 33

1
1
1

Efectuando los clculos pertinentes se encuentra que la matriz invertible:

1
2

B =

2
es tal que

B A = H

1
1

0
B

=

B1
1

tiene la forma Hermite superior. Por lo tanto, por

el corolario anterior, la matriz


B=
es una c-inversa de

1
2

1
1

0
0


23

A. 

6.4. Sistemas de ecuaciones lineales: g-inversa y c-inversa de


una matriz. mnimos cuadrados.
En esta seccin veremos aplicaciones de la g-inversa y la c-inversa de una
matriz a los sistemas de ecuaciones lineales y al problema de los mnimos
cuadrados.
160

Inversa generalizada e inversa condicional

6.4. Mnimos cuadrados

Teorema.

Sea A Mmn una matriz y sea y Mm1 un vector.


c
El sistema de ecuaciones lineales Ax = y es consistente sii AA y = y
c
para cada c-inversa A de A.

6.4.1.

Demostracin. Supongamos que el sistema de ecuaciones lineales

Ax = y

es consistente. Esto quiere decir, que existe al menos un

x0

tal

que:

Sea ahora

Ac

una c-inversa de

Ax0 = y .
A, entonces:

AAc y

= AAc Ax0
= Ax0
= y.

Supongamos ahora, que para cada c-inversa

y.

Entonces para cada c-inversa

del sistema de ecuaciones lineales

Ac

, el vector

Ax = y.

A, se tiene que AAc y =


x0 = Ac y es una solucin
de

Por lo tanto, el sistema es

consistente.
6.4.2.

Teorema.

Sea

una matriz

Si el sistema de ecuaciones lineales

mn y
Ax = y

sea

Ac

una c-inversa de

A.

es consistente, entonces su

solucin general es

x = Ac y + (I Ac A)h,

(6.1)

h Mn1 .

Demostracin. Puesto que por hiptesis el sistema de ecuaciones

lineales

y.

Ax = y

es consistente, entonces por el teorema anterior,

En consecuencia, para cada

Ax

AAc y =

de la forma (6.1):

= AAc y + A(I Ac A)h


= y + (A A)h
= y + 0h
= y,

esto es,

es una solucin del sistema dado.

De otro lado, si

x0

es solucin del sistema dado, entonces

Ax0 = y .
Premultiplicando los miembros de la ltima igualdad por

A Ax0 = A y ,
161

Ac

se obtiene

6.4. Mnimos cuadrados

Inversa generalizada e inversa condicional

de donde:

0 = Ac y Ac Ax0 .
Sumando

x0

a los dos lados de la ltima igualdad se llega a:

= Ac y + x0 Ac Ax0

x0

= Ac y + (I Ac A)x0
= Ac y + (I Ac A)h,
donde

h = x0 .

Puesto que
6.4.3.

sto es,

A+

Ax = y

se puede expresar en la forma 6.1.

A,

es una c-inversa de

Corolario.

lineales

x0

Sea

una matriz

se tiene el siguiente corolario.

m n.

Si el sistema de ecuaciones

es consistente, entones su solucin general es

x = A+ y + (I A+ A)h,

(6.2)

h Mn1 .

PROBLEMA DE LOS MNIMOS CUADRADOS


Como se estableci en el teorema 1.4.3(3), para un sistema de ecuaciones

Ax = y

se presenta una y slo una de las opciones siguientes:

(i) El sistema tiene innitas soluciones.


(ii) El sistema tiene solucin nica.
(iii) El sistema no tiene solucin.
En el trabajo experimental generalmente se da generalmente la opcin
(iii), es decir, que el vector
la matriz

A, (y
/ C(A))

no es un elemento del espacio columna de

(vase gura 6.1). En este caso, nos pregunta-

mos si existe una solucin aproximada del sistema, para una denicin
conveniente de solucin aproximada. Un problema que se presenta con
frecuencia en el trabajo experimental es:

IR

C (A)

Ax
A x0

Ax

Figura 6.1. Problema de los mnimos cuadrados

162

Inversa generalizada e inversa condicional

6.4. Mnimos cuadrados

Dado una serie de puntos

(x1 , y1 ); (x2 , y2 ); . . . ; (xn , yn ).


obtener una relacin

y = f (x)

entre las dos variables

y,

adaptando

(en algn sentido) una curva a dicho conjunto de puntos.


Como los datos se obtienen experimentalmente, generalmente existe un
error en ellos (errores de aproximacin), lo que hace prcticamente imposible encontrar una curva de la forma deseada que pase por todos los
puntos. Por medio de consideraciones tericas o simplemente por acomodo de los puntos, se decide la forma general de la curva

y = f (x)

que

mejor se adapte. Algunas posibilidades son (ver gura 6.2):

y = f (x) = a + bx; a, b R
y = f (x) = a + bx + cx2 ; a, b, c R.
2
3
Polinomios de grado tres: y = f (x) = a+bx+cx +dx ;
a, b, c, d
R.

1. Funciones lineales (rectas):


2. Polinomios de grado dos:
3.

(1) Aproximacion
lineal

(2) Aproximacion
(3) Aproximacion
cuadratica

cubica

Figura 6.2. Ajuste por mnimos cuadrados

A. Adaptacin de puntos por mnimos cuadrados a una lnea


recta
Considere los puntos

(x1 , y1 ); (x2 , y2 ); . . . ; (xn , yn ), los cuales se pretende


y = f (x) = a + bx. Si los

ajustar mediante la grca de la lnea recta


163

6.4. Mnimos cuadrados

Inversa generalizada e inversa condicional

puntos correspondientes a los datos fuesen colineales, la recta pasara por


todos los

puntos y, en consecuencia, los coecientes desconocidos

satisfaran la ecuacin de la recta. sto es, se tendran las siguientes

igualdades:

y1

= a + bx1

y2

= a + bx2

.
.
.

.
.
.

yn

.
.
.

= a + bxn .

Estas igualdades se pueden escribir, utilizando notacin matricial, as:


y1
1
y2 1


y= . = .
.. ..
yn
1

(6.3)

x1

a
x2

= Ax .
.
.
.
b
xn

Si los puntos que corresponden a los datos no son colineales, es imposible


encontrar coecientes

que satisfagan (6.3). En este caso, independi-

entemente de la forma en que se escojan

b,

la diferencia

Ax y,
entre los dos miembros de (6.3) no ser cero. Entonces, el objetivo es


encontrar un vector

y,

x=

a
b


que minimice la longitud del vector

Ax

esto es, que minimice

k Ax y k ,
lo que es equivalente a minimizar su cuadrado,

k Ax y k

a
es un vector que minimiza tal longitud, a la lnea recta
b

y = a + b x se le denomina recta de ajuste por mnimos cuadrados de los




Si

x0 =

datos. La gura 6.3 ilustra la adaptacin de una lnea recta por el mtodo
de los mnimos cuadrados. Se tiene que

k Ax y k

k Ax y k ,

[(a + b x1 y1 )] + [(a + b x2 y2 )] +
2

son minimizados por

|a + b xi yi |

+ [(a + b xn yn )]
 
a
el vector x0 =
. En
b

dicha gura se ve que

corresponde a la distancia vertical,


164

di ,

tomada desde el

Inversa generalizada e inversa condicional


punto

(xi , yi )

6.4. Mnimos cuadrados

y = a + b x . Si se toma a di como el error


(xi , yi ), la recta de ajuste minimiza la cantidad:

hasta la recta

vertical en el punto

d21 + d22 + + d2n ,


que es la suma de los cuadrados de los errores verticales. De all el nombre
de mtodo de los mnimos cuadrados.

y
( x n , yn )
dn
(x2 , y2 )
( x1 , y1 )
d2

*
*
y=a+b
x

d1

d3
( x3 , y3 )
x

Figura 6.3. Ajuste lineal por mnimos cuadrados

Damos a continuacin dos deniciones motivadas por la discusin anterior.


En el ejemplo 6.4.13 veremos cmo se adapta, por mnimos cuadrados, una
lnea recta
6.4.4.

x0

y = a + bx

Denicin

puntos

(x1 , y1 ); (x2 , y2 ); . . . ; (xn , yn ).

(Solucin Mnima Cuadrada)

Se dice que el vector

es una solucin mnima cuadrada (S.M.C.) del sistema de ecuaciones

lineales

Ax = y,

si para todo vector

se tiene que:

k Ax0 y k < k Ax y k .
6.4.5.

x0

Denicin

(Mejor Solucin Aproximada)

Se dice que el vector

es una mejor solucin aproximada (M.S.A.) del sistema de ecuaciones

lineales

Ax = y,

si:

1. Para todo vector

se tiene que:

k Ax0 y k < k Ax y k .
165

6.4. Mnimos cuadrados


2. Para todo vector

Inversa generalizada e inversa condicional


x 6= x0

tal que

k Ax0 y k < k Ax y k

se

tiene que

k x0 k < k x k .

Nota.
y

Observe que una M.S.A de un sistema de ecuaciones lineales

Ax =

es una S.M.C. del mismo.

6.4.6.

Teorema.

Sea

es una c-inversa de

x Rn

m
c
una matriz m n y sea y un vector R . Si A
c
tal que AA es simtrica, entonces para todo vector

se tiene que:
2

k Ax y k = k Ax AAc y k + k AAc y y k .
Por hiptesis

k Ax y k

AAc = (AAc )t .

As que para todo vector

se tiene que:

k (Ax AA y) + (AA y y)k

k Ax AAc y k + 2(Ax AAc y)T (AAc y y)

+ k AAc y y k



2
k Ax AAc y k + 2 (x Ac y)T AT ((AAc )T I)y

+ k AAc y y k



2
k Ax AAc y k + 2 (x Ac y)T (AT (AAc )T AT )y

+ k AAc y y k



2
= k Ax AAc y k + 2 (x Ac y)T ((AAc A)t At )y
+ k AAc y y k



2
2
= k Ax AAc y k + 2 (x Ac y)T (0)y + k AAc y y k
2

= k Ax AAc y k + k AAc y y k .
6.4.7.

Teorema.

una c-inversa de

m
c
una matriz m n y sea y un vector R . Si A es
c
c
tal que AA es simtrica, entonces x0 = A y es una

Sea

S.M.C. para el sistema

Ax = y.

Demostracin. Por hiptesis y por el teorema anterior se tiene que

x 0 = Ac y

es tal que:

k Ax y k = k Ax Ax0 k + k Ax0 y k k Ax0 y k .


166

Inversa generalizada e inversa condicional


x.

Para todo vector

6.4. Mnimos cuadrados


x:

De aqu que para todo vector

k Ax0 y k k Ax y k ,
esto es,
6.4.8.

x0 = A y

Teorema.

es una S.M.C. para el sistema

Sea

Ax = y.


m

A una matriz mn y sea y un vector R . El sistema


Ax = y tiene una nica M.S.A., a saber

de ecuaciones lineales

x0 = A+ y.
Demostracin. Puesto que

A+

es una c-inversa de

tal que

AA+

x que:
2





2
2
k Ax y k = Ax AA+ y + AA+ y y AA+ y y .

es simtrica, entonces por el teorema 6.4.6 se tiene para todo

x:


AA+ y y k Ax y k

De aqu que para todo vector


(6.4)
Esto es,

x 0 = A+ y

es una S.M.C. para el sistema

Mostraremos ahora que para todo vector

AA y

se tiene que

Ax = y.

x 6= x0 = A+ y

tal que

Ax =

k x0 k < k x k .

Puesto que para todo vector

+

A y + (I A+ A)x 2

=
=

x se tiene que:
+ 2
A y + 2(A+ y)T (I A+ A)x +


(I A+ A)x 2
+ 2


A y + 2yt (A+ )T (A+ )T (AA+ )T x +


(I A+ A)x 2
+ 2


A y + 2yT (A+ )T (A+ AA+ )T x +


(I A+ A)x 2
+ 2


A y + 2yt (0)x + (I A+ A)x 2
+ 2

A y + (I A+ A)x 2 ,

x tales que Ax = AA+ y o, equivalentemente, tales que A Ax = A y, se tiene que:


+



A y + (I A+ A)x 2 = A+ y + x A+ x 2 = k x k2

2
2
= A+ y + (I A+ A)x

2
2
A+ y = k x 0 k ,

entonces para todos los vectores

167

6.4. Mnimos cuadrados


es decir,
6.4.9.

k x k > k x0 k

Observacin.

Inversa generalizada e inversa condicional


si

x0 6= x .

El teorema anterior establece que todo sistema de

Ax = y

ecuaciones lineales

tiene una nica M.S.A. ,

x0 = A+ y.

Por sto

de aqu en adelante hablaremos de la mejor solucin aproximada (M.S.A.)


de un sistema de ecuaciones lineales.

Ahora bien, puesto que la mejor solucin aproximada del sistema de ecuaciones lineales

Ax = y

es una solucin mnima cuadrada, se tiene el sigu-

iente teorema.
6.4.10.

Corolario.

Todo sistema de ecuaciones lineales

Ax = y

tiene al

menos una S.M.C.


6.4.11.

Ejemplo.

Para el sistema de ecuaciones lineales


1 
x
1
=
y
1



1
1
1
1

x0 = A+ y =
1
6 1 1
1

Ax = 1
1

se tiene que
Adems:

k Ax0 y k =
as que para todo vector

y si existe un vector

(A) = n,

Sea

tal que

2;

2 k Ax y k ,

k x0 k =

Teorema.

es la M.S.A.

se tiene que:

que:

6.4.12.

1
2 = y,
3



1
1

2 =
1
3

k Ax y k =

2 < k x k .

una matriz

mn

2,

entonces se debe tener


y sea

entonces el sistema de ecuaciones lineales

un vector

Ax = y

Rm .

Si

tiene una

nica S.M.C. que es justamente la M.S.A. dada por:

x0 = A+ y.
x

una S.M.C. del sistema de ecuaciones Ax =


y. Por denicin se tiene para todo x Rn , entonces que k Ax y k
k Ax y k , en particular, para el vector x0 = A+ y se tiene:


(6.5)
k Ax y k AA+ y y .
Demostracin. Sea

168

Inversa generalizada e inversa condicional


De otra parte, como

A+

6.4. Mnimos cuadrados

es una c-inversa de

tal que

AA+

es simtrica,

entonces se tiene (ver teorema 6.4.6)

2
2

2
k Ax y k = Ax AA+ y + AA+ y y

x Rn .

x se tiene:




Ax AA+ y 2 + AA+ y y 2 .

En particular, para el vector

k Ax y k

(6.6)

De (6.5) y (6.6) se sigue que:



AA+ y y 2


2
2
Ax AA+ y + AA+ y y

2
2
= k Ax y k AA+ y y

k Ax AA+ y k = 0

De aqu que

y por lo tanto:

Ax = AA+ y .
Puesto que

(A) = n,

entonces

A+ = AT A

consecuencia:

Ax = A AT A

AT

(teorema 6.2.1), en

1

AT y.

1 T
AT A
A ,

Premultiplicando esta igualdad por

1

se obtiene:

AT A

1

AT A

1

AT A AT A

AT A

1

AT y = A+ y = x0 .

AT Ax
1

AT y


6.4.13.

Ejemplo.

Encontremos una recta de ajuste, por mnimos cuadra-

dos (ver gura 6.4), que se adapte a los puntos:

(0, 1); (1, 3); (2, 4); (3, 4) .


Para ello debemos encontrar una S.M.C. del sistema de ecuaciones lineales

Ax = y,

donde

1
1
A=
1
1


x1
1
1
x2
=
x3 1
x4
1

y el vector incgnita

0
1
,
2
3


y1
1
y2 3

y=
y3 = 4
y4
4

est dada por


x=

a
b

169


.

6.4. Mnimos cuadrados


Puesto que

Inversa generalizada e inversa condicional

(A) = 2, entonces por


S.M.C., a saber:

el teorema anterior, el sistema dado

tiene una nica

x0

= A+ y = (AT A)1 AT y

7
3

1,5
1

1
10


=

4
1


a
b

1
1

2
3

1
3

4
4

En consecuencia, la recta de ajuste, por mnimos cuadrados, de los datos


dados es:

y = a + b x = 1,5 + x.

y
y=1.5+x
(2,4)
(3,4)

(1,3)

(0,1)
x

Figura 6.4. Ajuste lineal ejemplo 6.4.13

6.4.14.

Ejemplo.

Encontremos una recta de ajuste, por mnimos cuadra-

dos, que se adapte a los puntos:

(1, 1); (1, 2) .


Observe que en este caso los puntos dados pertenecen a la recta, de pendiente innita,

x = 1.(ver

gura 6.5(a))
170

Inversa generalizada e inversa condicional

6.4. Mnimos cuadrados

y
x=1

y
y=3/2x

(1,2)

y=3/4+3/4x

(1,2)

(1,1)

(1,1)
x

x
a) Ajuste por una recta de pendiente infinita

b) Ajuste por rectas de pendiente no infinita

Figura 6.5. Ajuste lineal ejemplo 6.4.14

Ahora bien, si buscamos una recta

y = a + bx,

que no tenga pendiente

innita, que se adapte por mnimos cuadrados, a los puntos dados, entonces debemos dar una S.M.C. del sistema de ecuaciones lineales (ver
gura 6.5(b))


Ax

=

=

1
1
1
2

x1
x2





y1
y2

a
b



=

1
1

1
1



3/4
3/4

a
b

= y.

Una S.M.C. del sistema dado es:

x0

1
A y=
4
+

1
1

1
1



1
2


=


=

a
b


.

As que una recta de ajuste, por mnimos cuadrados, de los puntos dados
es:

y = a + b x =

3 3
+ x.
4 4

De otra parte, la matriz

Ac =
es una c-inversa de

A, AAc

0
1/2

0
1/2

es simtrica. En efecto,
171

6.4. Mnimos cuadrados

Inversa generalizada e inversa condicional

AA =

1/2
1/2

1/2
1/2

Por lo tanto, de acuerdo con el teorema 6.4.7,

x 0 = Ac y =

0
3/2

es tambin una S.M.C. As que otra recta de ajuste por mnimos cuadrados, de los puntos dados es (ver gura 6.5(b)):

y = a + b x =

3
x.
2

B. Adaptacin a polinomios de grado n.


La tcnica descrita antes para adaptar una recta a

puntos dados, se

generaliza fcilmente a la adaptacin, por mnimos cuadrados, de un polinomio de cualquier grado a un conjunto de puntos dados.
A continuacin se muestra cmo adaptar un polinomio de grado

y = a0 + a1 x + a2 x + . . . + am x
a un conjunto de

puntos

m,

(x1 , y1 ); (x2 , y2 ); . . . ; (xn , yn ),

mediante la

tcnica de los mnimos cuadrados.


Sustituyendo estos
las

n valores de x y y en la ecuacin polinmica se obtienen

ecuaciones siguientes:


y1
1
y2 1


.. = ..
. .
yn
1

x1
x2

x21
x22

.
.
.

.
.
.

xn

x2n

..

xm
a0
1

xm
2 a1
.
.
.
.
.
.
m
xn
am

De lo que se trata nuevamente, es de encontrar una S.M.C. del sistema de


ecuaciones lineales
6.4.15.

Ejemplo.

Ax = y.
Encontrar un polinomio de grado dos que mejor se

ajuste, por mnimos cuadrados, a los puntos:

(1, 0); (0, 2); (1, 1); (2, 0) .


172

Inversa generalizada e inversa condicional

6.4. Mnimos cuadrados

Debemos encontrar una S.M.C. del sistema de ecuaciones lineales:

Ax

Puesto que

1
1

1
1

1
0
1
2

1
0
a
1

0
a2 = 2
1
1
a3
4
0

= y.

(A) = 3, el sistema dado tiene una nica S.M.C., la cual est

dada por:

x0

= A+ y = (At A)1 At y

3 11
9 3
1
1
3
7
1
=
20
5 5 5
5

1,55
31
1
13 = 0,65
=
20
0,75
15

2
1
0

En consecuencia, existe un nico polinomio de grado dos que se ajuste


por mnimos cuadrados de los datos dados. Este polinomio est dado por
(ver gura 6.6):

y = 1,55 0,65x + 0,75x2 .

y
y=1.550.65x+0.75x

(1,0)
(2,0)

(1,1)

(0,2)

Figura 6.6. Ajuste cuadrtico ejemplo 6.4.15

173

6.5. Ejercicios

Inversa generalizada e inversa condicional

6.5. Ejercicios
6.5.1 Responda verdadero o falso justicando su respuesta.

B Mmr y C Mmr tienen el mismo rango,


(BC)+ = C + B + .
+
Si S es una matriz simtrica, entonces S
es una matriz simtri-

1. Si las matrices
entonces
2.

ca.

S 2 = S, entonces S + = S .
3
+
Si
es una matriz simtrica tal que S = S, entonces S = S .
+
T
+ T
Para toda matriz A se tiene que A = (A A) A .
+
T
T +
Para toda matriz A se tiene que A = A (AA ) .
+ 2
+
+
2
Para toda matriz A se tiene que (AA ) = AA
y (A A) =
+
A A.
c
c 2
Para toda c-inversa A de A se tiene que (AA )
= AAc y
c
2
c
(A A) = A A.
c
c
Si A es una c-inversa de A, entonces A es una c-inversa de A .
c
c t
Si A es una c-inversa de A, entonces (A ) es una c-inversa de
At .
Si A Mmn tiene rango m, entonces el sistema de ecuaciones
lineales Ax = y tiene solucin para cualquier y Mm1 .
Si A Mmn tiene rango n y si el sistema de ecuaciones lineales
Ax = y tiene solucin, entonces el sistema tiene solucin nica.

3. Si
4.
5.
6.
7.
8.
9.
10.
11.
12.

S
S

es una matriz simtrica tal que

6.5.2 Demuestre que

1. Para cualquier matriz

A se tiene que: (A) = (A+ ) = (AA+ )=

(A A).
Ac es una c-inversa de A, entonces (Ac ) (A) = (AAc )=
(Ac A).
c
c
c
Si A es una c-inversa de A, entonces Tr(AA )= Tr(A A) =
(A). (sugerencia vase el ejercicio 3.5(26)).
t
+
Si BC = 0, entonces BC
= 0 y CB + = 0.


 +

B
T
+
B
C+ .
Si A =
y BC = 0 entonces A =
C

2. Si
3.
4.
5.

174

Inversa generalizada e inversa condicional


6. Si

es una matriz simtrica

la matriz


CT = 1

6.5. Ejercicios

m m y si C T B = 0, donde C T es
1 1m , entonces la g-inversa de

la matriz:

B
CT

A=
es
7. Si


A+ = B +
D = [dij ]nn

1/m C

es una matriz diagonal, entonces

D+ =[aij ]nn

es una matriz diagonal, donde

8.
9.
10.
11.

12.
13.

(
1/dii ,
si
dii 6= 0
aij =
.
0
,
si dii = 0


 +

B
0
B
0
+
Si A =
entonces A =
.
0 C
0 C+
+
+
Si S es una matriz simtrica, entonces SS = S S.
T
T
+
+
Si A es una matriz tal que A A = AA , entonces A A = AA .
Si A es una matriz m n, donde hAiij = 1 para i = 1, 2, . . . , m
1
+
A.
y j = 1, 2, . . . , n, entonces A =
mn
Si P Mnn y Q Mmm son matices ortogonales, entonces
+
T + T
para cualquier matriz mn, A, se tiene que (P AQ) = Q A P .
+
Si S es una matriz simtrica no negativa, entonces S
es una
matriz no negativa.

14. Para cada matriz

AB es
A una

m n, A; AB = AA+

sii

es tal que

ABA =

simtrica.

m n. (A) = m sii AA+ = I sii AAc = I


Ac de A.
+
c
Sea A una matriz m n. (A) = n sii A A = I sii A A = I
c
para cada c-inversa A de A.
Si B es una c-inversa de A, entonces tambin lo es BAB .
c
c
Si B y C son c-inversas de las matrices B y C respectivamente,

15. Sea

matriz

para cada c-inversa

16.
17.
18.

entonces una c-inversa de la matriz


A=

B
0

0
C

A =

es

Bc
0

0
Cc


.

Ax = y tiene solucin, enA+ A = I, y en este caso


c
A de A.

19. Si el sistema de ecuaciones lineales


tonces la solucin
20.

x = A+ y

es nica sii

A+ y = Ac y para toda c-inversa


Si x1 , x2 , . . . , xn son soluciones del sistema de ecuaciones lineales
Pn
Ax = y, y si 1 , 2 , . . . , n son escalares tales que i=1 i = 1,
175

6.5. Ejercicios

Inversa generalizada e inversa condicional

entonces

n
X

x=

i xi

i=1

Ax = y.
y = a+bx una lnea recta que se quiere adaptar, por mnimos
cuadrados, a los puntos (x1 , y1 ); (x2 , y2 ); . . . ; (xn , yn ). Utilice el

es una solucin del sistema


21. Sea

teorema 6.4.2 y la regla de Cramer para demostrar que si para


algn

j , xi 6= xj ,

y para algn

entonces existe una nica recta

de ajuste, por mnimos cuadrados, a los puntos dados:

y = a + b x
y que

a =

b =

b
,

Pn

i=1

= det P
n

donde:

xi

Pn

2
i=1 xi

i=1 xi

= det P
n

i=1 xi

Pn

yi

Pn

i=1 xi yi

Pn

i=1

a = det P
n

Pn

i=1

yi

Pn

i=1 xi yi

6.5.3 Clculos

1. Calcule la g-inversa de cada una de las matrices siguientes:

(i) A1 =

(ii) A2 =

(iii) A1 =

176

1
3

2
5

1
(iv) A4 = 1
2

i=1

xi

2
i=1 xi

Inversa generalizada e inversa condicional

7
(v) A5 = 7
7

7
7
7

7
7
7

1
(vi) A6 = 0
0

1
3
(vii) A7 =
0
0

0
0
0

0
5
0

2
4

0
0

6.5. Ejercicios

1
1
(viii) A8 =
0
0

2 1 1
3
1
2

1
1
(ix) A9 = 1

1
1
1
1 1
1
1 2 3
5 3 ,d dos c-inversa Ac1
Para la matriz A = 2
1 3 0
c
c
que (A1 ) > (A) y (A2 ) = (A).

2
2
0
0

0
0
3
3

0
0

3
3

2.

Ac2

tales

3. Determine el conjunto de todas las c-inversas de las matrices


A1 =

1
1

1
A3 = 1
2

1
1


,

A2 =

2
3 ,
5


A4 =

1
1

2
3

1
1

2
3

3
3


,


.

4. D la M.S.A. del sistema de ecuaciones lineales

2
2
A=
1
2

2
2
1
2

2
2

0
0

Ax = y,

donde:

1
2

y=
3 .
4

5. D la ecuacin de la recta que mejor se ajuste por mnimos


cuadrados a los puntos:

(0, 1); (1, 3); (2, 2); (3, 4).


6. Obtenga la ecuacin del polinomio de grado dos que mejor se
adapte, por mnimos cuadrados, a los puntos:

(1, 4); (0, 2); (1, 0); (2, 1).


177

6.5. Ejercicios

Inversa generalizada e inversa condicional

7. D, si las hay, dos S.M.C. diferentes del sistema de ecuaciones


lineales:


Ax =

2
2

2
2



178

x
y


=

1
0


.

CAPTULO 7

Factorizacin de matrices
En este captulo estudiaremos algunas de las tcnicas ms utilizadas para
factorizar matrices, es decir, tcnicas que nos permiten escribir una matriz como producto de dos o tres matrices con una estructura especial.
La factorizacin de matrices es importante por ejemplo cuando se quiere
resolver sistemas de ecuaciones con un nmero muy grande tanto de variables como de ecuaciones. En la seccin 7.1 trataremos la descomposicin

LU ,

en la seccin 7.2 nos ocuparemos de la descomposicin

QR,

en la

seccin 7.3 trataremos la descomposicin de Cholesky y en la seccin 7.4


trataremos la descomposicin en valores singulares.

7.1. Descomposicin

LU

En esta seccin estudiaremos, quizs la factorizacin de matrices ms sencilla pero igualmente muy til. Nos referimos a la factorizacin o descomposicin

LU ,

la cual est directamente relacionada con las operaciones

elementales aplicadas a una matriz, para llevarla a una forma triangular


inferior. Como una motivacin, supongamos que se conoce cmo factorizar
una matriz

A, m n

en la forma

A = LU

(7.1)
donde

es una matriz triangular inferior (del ingls lower)

una matriz escalonada

mn

(7.2)

mm

es

(del ingls upper). Entonces el sistema

Ax = b

puede resolverse de la siguiente forma: Usando (7.1), el sistema (7.2) se


puede escribir en la forma
(7.3)

L(U x) = b.
179

7.1. Descomposicin LU

Factorizacin de matrices

En este punto introducimos una nueva variable (por sustitucin)

y = U x,

obteniendo as el nuevo sistema

Ly = b.

(7.4)

Resolvemos entonces dicho sistema para la variable

y,

mediante sustitu-

cin hacia adelante. Como paso nal, usamos sustitucin hacia atrs para
resolver el sistema

U x = y.

(7.5)

Es de anotar, que los sistemas (7.4) y (7.5) son relativamente fciles de


resolver dado que se trata de matrices de coecientes triangulares inferiores y superiores respectivamente. La factorizacin o descomposicin

LU

es particularmente til cuando se requiere resolver de manera simultnea


varios sistemas de ecuaciones que dieren nicamente en la parte no homognea.
El siguiente resultado nos da condiciones sucientes para la existencia de
una tal factorizacin

LU

para una matriz cuadrada

A.

Posteriormente lo

extenderemos a matrices rectangulares.


7.1.1.

Teorema

Supongamos que
perior,

(Factorizacin

LU ).

Sea

una matriz cuadrada

n n.

se puede reducir por las a una matriz triangular su-

aplicando nicamente operaciones elementales de eliminacin

Fi + Fj con i < j ). Entonces existe una matriz trique es invertible y posee unos en su diagonal principal,

(operaciones del tipo


angular inferior

tal que

A = LU.
Si

es invertible, entonces esta descomposicin es nica.

Demostracin. Por hiptesis, existen matrices elementales

. . . , Ek

del tipo (Fi

+ Fj , i > j )

y una matriz

E1 , E2 ,

(triangular superior)

tales que

Ek Ek1 E2 E1 A = U.
De aqu obtenemos

A = E11 E21 Ek1 U.

Ahora bien, por construccin, cada matriz elemental

E1 , E2 , . . . , Ek

es

triangular inferior y tiene unos en su diagonal principal, por consiguiente


sus inversas

E11 , E21 , , Ek1

y la matriz

L = E11 E21 Ek1

tam-

bin tienen las mismas caractersticas (ver ejercicio 1, de la seccin 7.5.2).


180

Factorizacin de matrices

7.1. Descomposicin LU

Lo que implica que hemos obtenido la factorizacin LU buscada para la


matriz

A,

es decir:

A = LU,
Consideremos ahora una matriz invertible

y demostremos la unicidad

de dicha factorizacin. Supongamos que tenemos dos factorizaciones LU


para

de la forma

A = L1 U1 = L2 U2 ,
con

U1 , U2

matrices triangulares superiores y

L1 , L2

matrices triangulares

inferiores con unos en su diagonal principal. Como


matrices

U1 , U2

es invertible las

tambin lo son, ms an sus inversas son igualmente

triangulares superiores (ver ejercicio 2 de la seccin 7.5.2). De esta ltima


igualdad obtenemos entonces

1
L1
2 L1 = U2 U1 .
El lado izquierdo de esta lgualdad es producto de matrices triangulares
inferiores con unos en la diagonal, por tanto es riangular inferior y tiene
unos en la diagonal principal. Igualmente, el lado derecho es una triangulares superiores, pues es el producto de matrices triangulares superiores
(ver ejercicio 2 de la seccin 7.5.2). Entonces
que

L2 = L1

L1
2 L1 = I,

de esto se sigue

y por ende,

U1 = U2 .


En el ejemplo 7.1.5 consideramos una matriz no invertible, que posee


innitas descomposiciones LU.

7
8 . Aplique7.1.2. Ejemplo.
12
mos operaciones elementales, sin intercambio, para llevar a A a una forma
1
Considere la matriz 3 3, A = 2
3

4
5
6

escalonada.

1
2
3

4
5
6

7
8
12

2F1 +F2

3F1 +F3

2F2 +F3

181

1
0
0

1
0
0

4
7
3 6
6 9

4
7
3 6 = U
0
3

7.1. Descomposicin LU

Factorizacin de matrices

Si denotamos entonces con

E1 , E2

nientes de las operaciones elementales

E3 las matrices elementales prove2F1 + F2 , 3F1 + F3 y 2F2 + F3

respectivamente, entonces obtenemos

E3 E2 E1 A =

A =

(E3 E2 E1 )1 U

E11 E21 E31 U

1
2
0

1
2
3

0
0
1

0
0
1

0
1
0
0
1
2

0
1 0 0
0 0 1 0 U
1
0 2 1

4
7
3 6 = LU .
0
3

1
0
3

0
1
0

1
0
0

En este caso esta factorizacin es nica.


7.1.3.
con

Observacin.

i < j , (Fi +

Como slo efectuamos operaciones del tipo Fi + Fj


1
Fj ) = ()Fi + Fj y L es triangular inferior con unos

(1's) en su diagonal principal. La informacin sobre

L se puede almacenar
U, simplemente

en aquellas posiciones donde se obtienen los ceros (0's) de


colocando los opuestos de los multiplicadores
tales aplicadas del tipo

Fi + Fj

con

en las operaciones elemen-

i < j.

En nuestro ejemplo anterior

1
2
3

7
8
12

4
5
6

2F1 +F2

3F1 +F3

2F2 +F3

4
7
3 6
6 9

4
7
3 6
2
3

de donde obtenemos que

1
L= 2
3
son tales que

0
1
2

0
0
1

A = LU .
182

1
U = 0
0

4
7
3 6
0
3

Factorizacin de matrices
7.1.4.

Ejemplo.

7.1. Descomposicin LU

Considere la matriz

3
2
4
10 4
0
.
2 5 2
4
4 7

2
4
A=
3
2

Apliquemos operaciones elementales, sin intercambio, para llevar la matriz

a una forma escalonada

3
2
4
10 4
0

2 5 2
4
4 7

2
4

3
2

(2)F1 +F2
(3/2)F1 +F3

(1)F1 +F4

(20/3)F3 +F4

-1

2
8
2

4
8
4

6 3

3
4

-3/2

5/8

-1

7/4

3
4

3/2

5/8

2
8
3

-1

7/4

20/3

(5/8)F2 +F3
(7/4)F2 +F4

-3/2

3
4
5/2

2
4
8 8

3
9

20 11
4
8
9
49

de donde obtenemos que

1
0
2
1
L=
3/2 5/8
1 7/4

0
0
0
0

3
0
20/3 1

son matrices tales que

A = LU,

2 3
0 4
U =
0 0
0 0

siendo esta factorizacin nica.

7.1.5.

Ejemplo.

4
8
,
9
49

2
8
3
0

Considere la matriz

1
A = 1
2

2
3
2 3 .
4
6

Aplique-

mos operaciones elementales, sin intercambio, para llevar la matriz


183

7.1. Descomposicin LU

Factorizacin de matrices

una forma escalonada

2
3
2 3
4
6

1
1
2

(1)F1 + F2

(2)F1 + F3

-1

0 0
1 0
x 1

2 3
0 0
0 0

de donde obtenemos que

1
U = 0
0
En este caso

2
0
0

3
0
0

A = LU,

1
L = 1
2

donde

no es nica.

con

arbitrario.

Consideremos ahora el caso en que se necesitan intercambio de las para


poder reducir una matriz. Existe en este caso un procedimiento que per-

LU ,

mite extender la factorizacin

el cual hace uso de matrices per-

mutacin.
Como se recordar, el intercambio de dos las de una matriz
expresar como
las de
de

Pi A, siendo Pi

se puede

la matriz permutacin correspondiente a las

A que deseamos intercambiar. Ahora bien. Si durante la reduccin


P1 , . . . , Pk permutaciones

a una forma escaln necesitamos realizar

de las, stas puede hacerse al comienzo de todo el procedimiento y pro-

P = P1 Pk . El paso siguiente consiste entonces en


LU a la matriz P A en lugar de la matriz A. Es
buscamos ahora matrices L (triangular inferior) y U (tri-

ducir as la matriz

aplicar la factorizacin
decir, nosotros

angular superior) tales que

P A = LU .
7.1.6.

Ejemplo.

Hallemos la descomposicin para la matriz

0
A= 2
1
En este caso, para reducir

2
4
2

3
7 .
5

a una matriz triangular superior

es nece-

sario primero una o varias operaciones elementales del tipo permutacin

Fi + Fj con i > j ).
F12 . Si llamamos P a

de las (tambin es posible usar operaciones del tipo


Una de tales operaciones de intercambio puede ser

la correspondiente matriz permutacin obtenemos entonces

2
PA = 0
1

4
2
2

184

7
3 .
5

Factorizacin de matrices

7.1. Descomposicin LU

A esta nueva matriz le aplicamos los pasos descritos en los ejemplos anteriores y obtenemos

2
0
1

3
3
5

4
2
2

(1/2)F1 + F3

7
3

3/5

4
2
0

2
0
1/2

de donde obtenemos que

0 0
1 0
0 1

1
L= 0
1/2

7
3
3/5

4
2
0

2
U = 0
0

son matrices tales que

P A = LU .
7.1.7.

Teorema.

Sea

A una matriz
P tal que

invertible

n n.

Entonces existe una

matriz de permutacin

P A = LU
donde

es una matriz triangular inferior y

superior. Se tiene adems, que para cada matriz

es una matriz triangular

P, L

son nicas.

El siguiente teorema recoge ahora la formulacin para la descomposicin

LU

para matrices

7.1.8.

Teorema.

Sea

rectangulares

m n.

A una matriz rectangular mn que se puede reducir

a una forma escalonada efectuando nicamente operaciones elementales

Fi + Fj con i < j ). Entonces existe


m m triangular inferior L con unos en la diagonal principal
matriz m n, U con uij = 0, si i > j tales que

de eliminacin (operaciones del tipo


una matriz
y una

A = LU.
7.1.9.

Ejemplo.

Encontremos la descomposicin

1
A= 2
3

4
5
6

7
8
12
185

LU

2
1
.
3 34

para la matriz

7.1. Descomposicin LU

Factorizacin de matrices

Apliquemos para ello, operaciones elementales, sin intercambio, para llevar


a la matriz

1
2
3

a una forma escalonada

4
5
6

7
8
12

2
1
3

(2)F1 + F2

(3)F1 + F3

(2)F1 + F2

4
7
2
3 6 5
6 9 3

4
7
2
3 6 5

de donde obtenemos que

1
L= 2
3
son tales que

0
0
1

0
1
2

A = LU.

1
U = 0
0

4
7
2
3 6 5
0
3
7

En general, el esquema para una factorizacin

LU

para una matriz que

se puede reducir a una forma escalonada nicamente usando operaciones


elementales de eliminacin est dado por la grca 7.1.

0
A

U
0

0
A

0
A

Figura 7.1. Esquema de la factorizacin LU

186

Factorizacin de matrices

7.1. Descomposicin LU

El siguiente ejemplo, nos ilustra cmo hacer uso de la descomposicin

LU

en el proceso de resolver resolver sistemas lineales de ecuaciones.


7.1.10.

Ejemplo.

Considere el sistema de ecuaciones

x1 + 4x2 + 7x3

2x1 + 5x2 + 8x3

3x1 + 6x2 + 12x3

4
 A

cuya matriz de coecientes corresponde a la matriz


cuyo trmino independiente es

bT =

del ejemplo 7.1.2 y

. De acuerdo con dicho

ejemplo se tiene

1
A= 2
3

4
5
6


7
1
8 = 2
12
3

0
1
2

0
1
0 0
1
0

4
7
3 6 = LU
0
3

Lz = b, esto es

=1
z1
2z1 + z2
=2 ,

3z1 + 2z2 + z3 = 4

Ahora bien planteamos el sistema

cuya solucin es

1
z = 0 .
1
U x = z, esto

x1 + 4x2 + 7x3 = 1
3x2 6x3
=0 ,

3x3
=1

Con esta solucin planeamos el sistema

es el sistema

y cuya solucin es

x1 = 4/3;

x2 = 2/3
187

x3 = 1/3. 

7.2. Descomposicin QR

Factorizacin de matrices

7.2. Descomposicin QR

En esta seccin hablaremos de la descomposicin QR de una matriz, donde

Q es una matriz con columnas ortogonales (ortonormales) y R es una matriz triangular inferior. Dicha descomposicin es de gran importancia para
resolver problemas de mnimos cuadrados y tiene una estrecha relacin con
el clculo de la inversa generalizada de una matriz. En el caso de matrices
cuadradas, dicha descomposicin es la base de un algoritmo para determinar numricamente y de forma iterativa, los valores propios de la matriz

(ver captulo 8 de [ ]).

En primer lugar haremos aqu la discusin de la descomposicin QR para


una matriz

de rango columna completo. En este caso, la factorizacin

se basa en el proceso de ortogonalizacin de Gram-Schmidt descrito en


teorema 1.2.24. El siguiente teorema nos garantiza la existencia de una
tal factorizacin en dicho caso y su demostracin resume el proceso para
encontrarla.
7.2.1.

Teorema (Factorizacin QR (Parte I)).

de rango columna completo

n.

Sea

A Mmn una matriz


Q Mmn con

Entonces existen matrices

columnas ortogonales (ortonormales) y

R Mnn

triangular superior e

invertible tales que

A = QR

Demostracin. Consideremos la matriz

A particionada por sus colum-

nas, sto es,

A=

A1

A2

An

n. De aqu se tiene que




B = A1 , A2 , . . . , An es una base de C(A) (el espacio colum-

la cual por hiptesis es de rango columna completo


el conjunto
na de

A).

Aplicando el proceso de ortogonalizacin de Gram-Schmidt


188

Factorizacin de matrices

7.2. Descomposicin QR

(teorema 1.2.24) a esta base se obtiene

v1

v2

v3

= A1

2

A ; v1
v1
hv1 ; v1 i

3

A ; v1
A ; v2
3
= A
v1
v2
hv1 ; v1 i
hv2 ; v2 i
= A2

.
.
.

vn

= An

n1
X
i=1

hAn ; vi i
vi .
hvi ; vi i

Despejando de aqu cada vector columna

A1

A3

Aj

obtenemos:

v1

2

A ; v1
= v2 +
v1
hv1 ; v1 i

3

A ; v2
A ; v1
v1 +
v2
= v3 +
hv1 ; v1 i
hv2 ; v2 i
.
.
.

vn +

n1
X
i=1

hAn ; vi i
vi .
hvi ; vi i

As que podemos escribir:


189

7.2. Descomposicin QR

A =

A1

A2

Factorizacin de matrices

An

A =

A =

v1

v2

vn

2

A ; v1
hv1 ; v1 i


A3 ; v1
hv1 ; v1 i

2

A ; v2
hv2 ; v2 i

hAn ; v1 i
hv1 ; v1 i

.
.
.

.
.
.

.
.
.

..

hAn ; v2 i

hv2 ; v2 i

hAn ; v3 i

hv3 ; v3 i

.
.

n
hA ; vn1 i

hvn1 ; vn1 i

Q0 R0 ,
A.

que corresponde a la descomposicin QR no normalizada de la matriz

Q0 para denir
D = diag(kv1 k , kv2 k , . . . , kvn k). De esta
igualdad A = Q0 R0 como sigue:

Usamos ahora los mdulos de las columnas de la matriz


la matriz diagonal invertible
forma, podemos reescribir la

A =
=

Q0 R0
Q0 D1 DR0

v1
v2
kv1 k kv2 k

vn
kvn k

kv1 k

i
0

.
..
0


A2 ; v 1
kv1 k
hv1 ; v1 i

kv2 k

.
.
.

..

hAn ; v1 i
hv1 ; v1 i
hAn ; v2 i
kv2 k
hv2 ; v2 i

kv1 k

.
.
.

kvn k

QR ,

que corresponde a la descomposicin QR normalizada de la matriz


190

A. 

Factorizacin de matrices
7.2.2.

Ejemplo.

7.2. Descomposicin QR

Encontremos la descomposicin QR para la matriz

1
1
A=
1
1

2 1

1
2
= A1
1
2
1
1

A2

A3

Aplicando el proceso de ortogonalizacin de Gram-Schmidt obtenemos

1
1

= A1 =
1 ;
1

v1

v2

v3

2
1
9

2

1 1 1 1 3
A ; v1

v1 =
= A2
1 + 4 1 = 4 3 ;
hv1 ; v1 i
1
1
3

3

A ; v1
A ; v2
= A3
v1
v2
hv1 ; v1 i
hv2 ; v2 i

0
1
9
1
2 1 1 2 3 1

=
2 2 1 + 3 3 = 1 .
2
1
3
1

De aqu se tiene que

A1
A

A3

= v1
1
= v1 + v2
4
2
1
v1 v2 + v3 .
=
2
3

Siguiendo ahora los delineamientos de la demostracin del teorema anterior obtenemos:


191

7.2. Descomposicin QR

Factorizacin de matrices

1 1/4 1/2
 1 2 3
1
2/3
A A A = [v1 v2 v3 ] 0
0
0
1

1
9/4 0
1 3/4 1 1 1/4 1/2

1
2/3
1 3/4 1 0
0
0
1
1
3/4 2

A =

Q0 R0

En este caso, la matriz

(Descomposicn

no normalizada).

D est dada por D = diag 2,

3
2

3,


6 . Entonces

podemos escribir

 1 2 3
A A A = Q0 D1 DR0

1/2
3/2 3
0

1/2 1/2 3 1/ 6

1/2 1/2 3 1/ 6

1/2
1/2 3 2/ 6

= QR

1/2

3 3/2

(Descomposicin normalizada).

m n, A no tiene rango columna no


0 < r < n. En este caso se tiene, que tamdescomposicin QR pero la matriz Q en la factorizacin

Supongamos ahora que la matriz


completo, esto es,
bin existe una

(A) = r

con

no normalizada contiene columnas nulas, como lo establece el siguiente


corolario.
7.2.3.

Teorema (Factorizacin QR (Parte II)).

tal que

(A) = r

con

0 < r < n.

r columnas ortogonales no nulas y el resto


Mnn triangular superior invertible tales que

con

A = Q0 R0
La matriz

A Mmn
Q0 Mmn
matriz R0

Sea la matriz

Entonces existen una matriz


nulas, y una

(Descomposicin no normalizada) .

tambin se puede descomponer de manera normalizada en la

forma

A = QRr
192

Factorizacin de matrices

7.2. Descomposicin QR

Q Mmr tiene columnas ortogonales (ortonormales) no nulas y


Rr Mrn es "triangular" superior de orden r. Las r columnas no nulas
de Q0 , respectivamente las r columnas de Q, conforman una base para
C(A).

donde

Demostracin. Si seguimos los pasos de la demostracin del teore-

ma 7.2.1 obtenemos la descomposicin QR no normalizada para

A.

sto

es,

A = Q0 R0 .
En este caso sin embargo,
y

nr

Q0

tendr

columnas ortogonales no nulas

columnas nulas. Ahora, para denir matriz diagonal

los mdulos de la columnas no nulas

Q0

usamos

respetando sus posiciones y unos

(1's) en el resto de componentes de la diagonal de

D. La matriz Q buscada

corresponde entonces a la matriz formada por las columnas no nulas de

Q0 D1 ,

igualmente

Rr

se obtiene eliminado de la matriz

con ndices iguales a las columnas nulas de

DR0 ,

las las

Q0 .

El siguiente ejemplo nos ilustra el proceso para calcular la descomposicin


QR en el caso de matrices que no son de rango columna completo.
7.2.4.

Ejemplo.

Encontrar la descomposicin QR para la matriz

2
0 1

1
3
2
= A1
1
3
2
1 3
1

1
1
A=
1
1

A2

A3

A4

Procedamos ahora a aplicar los pasos del mtodo de ortogonalizacin de


Gram-Schmidt con las columnas de

A,

esto es:

1
1
;
1
1

v1

= A1 =

v2

9
A2 ; v 1
1
1 3
;
v 1 = A2 + v 1 =
= A2
hv1 ; v1 i
4
4 3
3

193

7.2. Descomposicin QR

Factorizacin de matrices

0
0
A3 ; v 2
A3 ; v 1
9

v1
v 2 = A3 v 1 + v 2 =
A3
0 ;
hv1 ; v1 i
hv2 ; v2 i
4
0

0
1
1
2
4

A v1 + v2 0v3 =
1 .
2
3
2

v3

v4

Despejando los vectores

Aj 's, en trminos de los vectores vj 's, como en el

ejemplo 7.2.2 obtenemos entonces

A1

A2

A3

A4

1
9/4 0 0
0
3/4 0 1

3/4 0 1 0
0
3/4 0 2

1
1
=
1
1

1/4
1
0
0

9/4
1
1
0

1/2
2/3

0
1

= Q0 R0 .
D, cuyos elementos hDiii corresponden
Q0 . TPara las
columnas nulas de Q0 tomamos hDiii = 1. En nuestro ejemplo, entonces
h
i

3
tenemos, D = diag 2,
6 . Ahora bien, escribimos
2 3, 1 ,
Tomamos ahora la matriz diagonal

a los a los mdulos de las i-simas columnas no nulas de

A =

A1

A2

A3

A4

1/2

3/2 3

1/2

1/2 3

1/2

1/2 3

1/2

1/2 3

= Q0 R0 = Q0 D1 DR0

1/2

1/ 6
0

1/ 6
0

0
2/ 6

3 3/2

Esto es,
194

0
0

9/2


1 3

1
0

0
6

Factorizacin de matrices

1/2

3/2

1/2

3/6

1/2

3/6

1/2

1/2

1/2

3/6

0
6/6
1 3
0 3 3/2

0
1
0
0
6/6
0

0
0
0
6
0
6/3

2
1/2 9/2
1

6/6


0 3 3/2
1 3

6/6

0
0
0
6

6/3

1/2

9/2

3/2

3/6

3/6

1/2

1/2

7.2. Descomposicin QR

3/6

= QR .
Q se obtiene al eliminar la tercera columna (columna nula) de
Q0 D1 , mientras que R se obtiene al eliminar la correspondiente tercera
la de DR0 .


La matriz

En este punto de la discusin, invitamos al lector a recordar los concep-

tos dados en el captulo 6 sobre inversas condicionales (A ), inversa gen-

eralizada (A ), mejor solucin aproximada (M.S.A.) y solucin mnima


cuadrada (S.M.C.). El siguiente resultado presenta la relacin existente
entre la descomposicin
7.2.5.

Teorema.
1. Si

Sea

(A) = n

QR

y la inversa generalizada de una matriz

A Mmn

una matriz real.

entonces existe una matriz

Q, m n, con columnas
R triangular superior

ortogonales (ortonormales) y una matriz


e invertible

nn

A.

tales que

A = QR,
adems se tiene que

A+ = R1 QT .
195

7.2. Descomposicin QR

Factorizacin de matrices

(A) = r < n entonces existe una matriz Q, m n, con las


r columnas no nulas ortogonales (ortonormales) y una
matriz R triangular superior n n, ambas de rango r tales que

2. Si

primeras

A = QR,
adems se tiene que

A+ = RT (RRT )1 QT .
Demostracin. Supongamos que

es una matriz

mn

de rango

columna completo. Segn lo establece el teorema 7.2.1, existen matrices

Q Mmn

R Mnn

con las condiciones citadas tales que

De otra parte, sabemos que

A+ = (AT A)1 AT

A = QR.

(teorema 6.2.1(1)). De

aqu se sigue que:

A+

(AT A)1 AT

(RT QT QR)1 RT QT

= R1 (RT )1 RT QT
= R1 QT .
Lo que demuestra el inciso 1.

A no tiene rango columna completo, es decir,


(A) = r; 0 < r < n. Segn el teorema 7.2.3 existen
matrices Q Mrn y R Mrn con las condiciones requeridas tales que
A = QR. Ahora, aplicando el teorema 6.2.1 (con B = Q y C = R), as
Supongamos ahora, que
supongamos, que

como el literal (iv) del teorema 6.2.1, obtenemos entonces

A+

RT (RRT )1 (QT Q)1 QT

RT (RRT )1 Q,

(porque (Q

Q)1 = Ir )


7.2.6.

Nota.

Con respecto a los resultados anteriores podemos anotar

que:

1. Si

A Mmn

es una matriz de rango

r<n

notacin del teorema anterior, que

A+ A = RT RRT
196

1

R.

se tiene, usando la

Factorizacin de matrices

7.2. Descomposicin QR

2. De acuerdo con el teorema 6.4.8, todo sistema de ecuaciones

Ax = y

tiene una nica M.S.A. dada por

x = A+ y.
Puesto que el conjunto de todas la soluciones mnimas cuadradas
del sistema

Ax = y

estn dadas por (ver captulo 6)

x = A+ y + (I A+ A)h;

h Rn .

Del literal anterior se sigue:

x = RT (RRT )1 QT y + (I RT (RRT )1 R)h;

h Rn ,

y de aqu, que el conjunto de todas la soluciones mnimas cuadradas


del sistema

Ax = y

est dada por las soluciones

Rx = QT y .

Ejemplo.

7.2.7.

Considere el sistema de ecuaciones lineales

Ax = y,

siendo

1
1
A=
1
1

2
0 1
1
3
2

1
3
2
1 3
1

De acuerdo con el ejemplo 7.2.4

Q=

1/2
1/2
1/2
1/2

3/2

3/6

3/6

3/6

(A) = 2

1
1

y=
2 .
1

y las matrices

1/2

9/2

R=
0

3 3/2

6/6

6/6

6/3

son tales que

A = QR .
197

6
0

7.3. Descomposicin de Cholesky


Entonces

Factorizacin de matrices

A+ = Rt (RRt )1 Q, (ver
2

A+

teorema 7.2.5), es decir,

1
18

1
18

7
18

1
18

1
18

1
6

1
18

1
18

1
18

1
6

1
6

1
6
1
3

y el conjunto de todas las S.M.C. (ver nota 7.2.6) est dada por las soluciones del sistema

1/2

Rx = QT y = 3/2 ,
6/2
es decir por la expresin

2
1/6
1
2/3

=
0 + h 1 ,
0
1/2

En particular, si

h = 1/18,

h R.

obtenemos las M.S.A.

1
11 .
x = A+ y =

1
18
9

7.3. Descomposicin de Cholesky


A diferencia de las factorizaciones vistas hasta ahora, la factorizacin o
descomposicin de Cholesky se aplica slo a matrices simtricas positivas
denidas y sta consiste en expresar una tal matriz como producto de una
matriz triangular superior y por su transpuesta. En forma ms precisa
tenemos
198

Factorizacin de matrices

7.3. Descomposicin de Cholesky

Teorema

7.3.1.
(Factorizacin de Cholesky) Si A Mnn es una matriz
simtrica positiva denida, entonces existe una nica matriz real T =

[tij ]nn

triangular superior con tii

> 0 (i = 1, . . . , n),

tal que

A = TTT .
Adems,
2

|A| = |T | = [ni=1 tii ] .


Demostracin. La demostracin la haremos haciendo induccin so-

bre el orden de la matriz. Primero lo demostraremos para

n = 2:

una matriz 2 2 simtrica positiva denida, entonces

se tiene que > 0 y |A| = > 0 (teorema 4.3.6). Necesitamos




a b
mostrar que existe una nica matriz triangular superior T =
,
0 c
T
con elementos de la diagonal positivos, tal que A = T T, esto es:




  2


a 0
a b
a
ab
=
=
.

b c
0 c
ab b2 + c2
Sea

A=

De sto se tiene que

a2 =

de donde,

ab =

de donde,

b2 + c2 =

de donde,

(a > 0)

y
b=

p
2

c=
(c > 0).

a=

sto es,



A=

adems, se tiene que

0
p

p
2

n = k,

sto es, sea

una simtrica positiva denida. Supongamos que existe una

nica matriz triangular superior


2
|A| = |U | = ki=1 uii
2

= T T T,

|A| = (t11 t22 )2 .

Supongamos ahora que la armacin es cierta para

B Mkk

U Mkk

tal que

(hiptesis de induccin).
199

A = UT U

y que

7.3. Descomposicin de Cholesky

Factorizacin de matrices

n = k + 1. ConsiderA M(k+1)(k+1) simtrica positiva denida.


Podemos escribir la matriz A por bloques en la forma


A a
Mkk , a Mk1 y R
A=
,
con A
at

Demostremos ahora que la armacin es cierta para


emos entonces una matriz

La matriz

es simtrica positiva denida (teorema 4.3.6), entonces por

hiptesis de induccin, existe


una nica matriz triangular superior

Mkk

tal que

A = U T U

Consideremos ahora la matriz triangular superior

(k + 1),


2

2
A = |U | = ki=1 uii .
T

de tamao

(k + 1)

con elementos de la diagonal principal positivos y escrita por

bloques en la forma


T =

U
0

y
z


,

y Mk1 y z R+ deben ser escogidos adecuadamente


A = T T ; sto es, tales que:

 T



U
0
U y
A a
=
A=
0 z
yT z
aT
 T

U U
Uy
=
.
yT U yT y + z 2
donde

tales que,

Igualando trmino a trmino debemos tener que

U T y = a,

lo que implica

y = (U T )1 a

yT y + z 2 = ,

lo que implica

z = ( yT y)1/2 .

Adems se tiene que

|A| =
=

|T |2 = |U |2 z 2
 k
2

2
i=1 uii z 2 = k+1
.
i=1 tii


Veremos a continuacin dos procesos para calcular la factorizacin de


Cholesky. El primero se basa en la denicin propia de la factorizacin
de Cholesky, mientras que el segundo usa resultados del captulo sobre
diagonalizacin de matrices positivas denidas.
200

Factorizacin de matrices

7.3. Descomposicin de Cholesky

Proceso A (clculo de la factorizacin de Cholesky):


Sea

TTT

nn

una matriz simtrica

con

A =

positiva denida. Puesto que

una matriz triangular superior con elementos positivos en su

diagonal principal, se debe tener que:

a11
a12
a13

a12
a22
a23

a13
a23
a33

a1n
a2n
a3n

.
.
.

.
.
.

.
.
.

..

.
.
.

a1n

a2n

a3n

t11
t12
t13

0
t22
t23

0
0
t33

.
.
.

.
.
.

.
.
.

..

t1n

t2n

t3n

ann

t11
0
0
0

0
0

.
.
.
..
.
0
tnn

t12
t22
0

t13
t23
t33

t1n
t2n
t3n

.
.
.

.
.
.

..

.
.
.

tnn

Clculos directos muestran entonces que se debe cumplir que:


1.
2.

3.

4.

t11 =

a11 .

a1j
a1j
= ; j = 1, . . . , n.
t11
a11

Pi1 2 1/2
tii = aii k=1 tki
; i = 2, . . . , n.
"
#
i1
X
1
aij
tki tkj ; j > i, i = 2, . . . , n 1.
tij =
tii
t1j =

k=1

5.

tij = 0; j < i, i = 2, . . . , n.

Observacin.

Con respecto a este mtodo y al clculo de los elementos

elementos no nulos tij de la matriz triangular


1.

podemos decir que:

t2ii es igual al elemento aii menos la suma de los cuadrados de los


elementos ya calculados de la i-sima columna de T . Es decir,
t2ii = aii

i1
X

t2ki ,

k=1
201

i = 1, . . . , n.

7.3. Descomposicin de Cholesky

Factorizacin de matrices

tii tij es igual a aij menos la suma del producto de


los elementos ya calculados de las i-sima y j -sima columnas

2. El producto

de

T.

Es decir,

tij tii = aij

i1
X

tki tkj ;

i, j = 1, . . . , n .

k=1
7.3.2.

Ejemplo.

Siguiendo el esquema anterior, encuentre la descomposi-

cin de Cholesky para la matriz simtrica positiva denida

4
2
A=
0
2

2
2
3
2

0
2
3 2
.
18
0
0
4

Clculos directos muestran que:

1.

t11 =

2.

t22 =
t23
t24

3.

t33

a11 = 2; t12 =

a13
a14
a12
= 1; t13 =
= 0; t14 =
= 1.
2
2
2

a22 t212 = 2 1 = 1;
a23 t12 t13
3 (1) 0
=3
=
=
t22
1
a24 t12 t14
2 (1) 1
=
= 1.
=
t22
1
p

= a33 t213 t223 = 18 32 02 = 3;


p

a33 t13 t14 t23 t24


0 0 1 3(1)
=
=1
t33
3
p
p
= a44 t214 t224 t234 = 4 12 (1)2 12 = 1

t34 =
4.

t44

Es decir,

2
0
T =
0
0

1
1
0
0

es la matriz triangular superior tal que


202

0
3
3
0

1
1
,
1
1

A = T T T.

Factorizacin de matrices
7.3.3.

Ejemplo.

7.3. Descomposicin de Cholesky

Siguiendo con el esquema anterior, encuentre la descom-

posicin de Cholesky para la matriz simtrica positiva denida

4
A= 2
4

2 4
10
4 ,
4
9

Clculos directos muestran que:

1.

t11 =

2.

t22 =

p
a22 t212

2.
3.

t33 =

a12
a13
= 2.
= 1; t13 =
t11
2

a23 t12 t13


4 (1)(2)
=
= 10 1 = 3; t23 =
=
t22
3

a11 = 2; t12 =

p
p
a33 t213 t223 = 9 (2)2 (2)2 = 1.

Es decir,

2
T = 0
0

1
3
0

es la matriz triangular superior tal que

2
2 ,
1
A = T T T. 

Proceso B (clculo de la factorizacin de Cholesky):


De acuerdo con los resultados presentados en el captulo 4 se tiene que una
matriz simtrica
superior

P,

A,

tal que

es positiva denida, si existe una matriz triangular

P T AP = I

(ver tambin el teorema 5.1.2). De aqu

que

A = (P T )1 P 1 = (P 1 )T P 1 .
As las cosas, nosotros podemos encontrar la matriz

PT

usando los pasos

ilustrados en el ejemplo 3.3.15, es decir, planteando la matriz

| I

y realizando de manera adecuada y simultneamente operaciones elementales en las las y columnas de

A y en las las de I

(sin hacer intercambios

de las).

Nota.

Existe una relacin entre la factorizacin LU para matrices positi-

vas denidas y la descomposicin de Cholesky. En efecto, si


ca positiva denida entonces

se puede expresar mediante

A es simtriA = T T T con

una matriz triangular superior con elementos positivos en la diagonal

principal.
203

7.3. Descomposicin de Cholesky


Ahora bien, sea

D = diag (t11 , t22 , . . . , tnn )


A =

7.3.4.

Ejemplo.

Factorizacin de matrices
entonces se tiene que:

TTT

T T D1 DT

(T T D1 )(DT )

LU.

Consideremos la matriz simtrica positiva denida

4
A= 2
4

2
10
4

4
4 .
9

Del ejemplo 7.3.3 se tiene que

2 4
2 0 0
2 1 2
10
4 = 1 3 2 0 3
2 = TTT .
4
9
2 2 1
0 0
1

2 0 0
3 0 , se tiene que
Tomando D = 0
0 0 1

2 1 2
2 0 0
2
A = 1 3 2 0 3
0 0
1
2 2 1

2 1 2
2 0 0
1/2
0
0
2 0 0
2
1/3 0 0 3 0 0 3
= 1 3 2 0
0 0
1
0 0 1
0
0
1
2 2 1

4 2 4
1
0
0
6 = LU . 
1
0 0 9
= 1/2
1 2/3 1
0 0
1
4
A= 2
4

Ahora bien, supongamos que deseamos resolver el sistema de ecuaciones


lineales

Ax = y,

siendo

triangular positiva tal que

una matriz simtrica y positiva denida. Sea

A = TTT,

entonces

Ax = y T T T x = y T x = (T T )1 y := z,
es decir, si se conoce la factorizacin de Cholesky para una matriz

T T T , la solucin del sistema Ax = y


sistema triangular superior

T x = z,

A=

se reduce a encontrar la solucin del

con
204

z = (T T )1 y.

Factorizacin de matrices
7.3.5.

Ejemplo.

7.4. Descomposicin en valores singulares

Consideremos el sistema de ecuaciones lineales

4x1 + 2x2 4x3

12

2x1 + 10x2 + 4x3

4x1 + 4x2 + 9x3

= 3 .

Puesto que la matriz de coecientes es justo la matriz del ejemplo 7.3.3, la


matriz aumentada del sistema se puede reducir mediante multiplicacin
del sistema por la matriz

| y

T T

(ver ejemplo), para obtener:

4
2 4
4
= 2 10
4
4
9

2 1 2 |

2 |
= 0 3
0 0
1 |

12
6
15

6

0 = T
3

|
|
|

| z

De esto ltimo se sigue que

x3
x2
x1

= 3,
6
2x3
=
= = 2,
3
3
6 + 2x3 + x2
626
=
=
= 1. 
2
2

7.4. Descomposicin en valores singulares (SVD)


En esta seccin abordaremos el estudio de la descomposicin de una matriz

A la cual involucra los valores y vectores propios de la matrices


AAT y AT A. Como se recordar dichas matrices son positivas

rectangular
simtricas

semidenidas y por ello sus valores propios son no negativos.

Teorema.

A Mmn se tiene que existen maU Mmm y V Mnn y una matriz diagonal
Mmn , con elementos hiij = 0, si i 6= j y hiii =: i 0, y
1 2 s , en donde s = mn {m, n} tales que
7.4.1.

Para toda matriz

trices ortogonales

T
Amn = Umm mn Vnn
.

Los nmeros

12 , 22 , , s2

son los valores propios de

AT A

(quizs agre-

gando algunos ceros) y los vectores propios asociados son las columnas


v1 v2 vn . Adems, lo nmeros 12 , 22 ,
de la matriz V =
205

7.4. Descomposicin en valores singulares

Factorizacin de matrices

, s2 son igualmente los valores propios de AAT (quizs agregando algunos ceros) y los vectores propios asociados son las columnas de U =


u1

u2

um

Adems de tiene las siguientes relaciones entre

estos vectores

Avi

i ui

uTi A =

i viT

i = 1, 2, . . . , s.

A Mmn tiene rango r con 0 <


S = AAT Mmm es no negativa y por tanto
matriz ortogonal U Mmm tal que
2

1 0
0
0 22
0

U T AAT U = D2 = .

.
.
..
.
.

..
.
.
.
2
0
0 m

Demostracin. Supongamos que

r < s.

La matriz simtrica

existe una

2
0 son los valores propios de S = AAT y las
12 22 m
columnas de U = [u1 u2 um ] son vectores propios de S correpondidonde

entes a dichos valores propios:

AAT ui = Sui = i2 ui ;

i = 1, 2, . . . , m.

r = (A) = (AAT ), entonces 12  22  r2 > 0. ParU1 U2 con U1 Mmr .


ticionemos ahora la matriz U como U =

Como

Luego

U T AAT U

=

=

U1T
U2T

AAT

U1

U2

U1T AAT U1

U1T AAT U2

U2T AAT U1

Dr2 0

U2T AAT U2

es decir,
206

Factorizacin de matrices

12
0

..
.

0
=

.
..
0

7.4. Descomposicin en valores singulares

U AA U

0
22

0
0

.
.
.

..

.
.
.

22

.
.
.

..

.
.
.

|
|
|
|

|
|
|

0
0

.
.
.

..

.
.
.

..

0
0

0
.

.
.

.
0
.
.
.

Esto implica que

U2T AAT U2 = (AT U2 )T (AT U2 ) = 0,


de donde

U2T A = 0

AT U2 = 0.

Tambin se tiene que

U1T AAT U1 = Dr2 ,

o sea:

Dr1 U1T AAT U1 Dr1 = I = (AT U1 Dr1 )T (AT U1 Dr1 ).


sto signica que la matriz

V1 = AT U1 Dr1 Mnr
tiene columnas ortogonales

(V1T V1 = I).

V2 Mn(nr)

Sea

tal que la

matriz

V =

V1

V2

Mnn

es ortogonal. Veamos ahora que

U AV = =

Dr
0

0
0


.

En efecto, de una parte:

U T AV =

U1T
U2T

V1

V2

U1T AV1

U1T AV2

U2T AV1

U2T AV2

U2T A = 0. As mismo,
T
T
V1
V1 V1


V1
V2 =
= I=
V2T V1
V2T


I 0
=
,
0 I

y de otra parte,

V TV

207

V1T V2
V2T V2

7.4. Descomposicin en valores singulares


lo que implica que

Factorizacin de matrices

V1T V2 = 0 = (AT U1 Dr1 )T V2

de donde

U1T AV2 = 0.
y nalmente,

U1T AV1

U1T AAT U1 Dr1

Dr2 Dr1 = Dr

1 0
0 2

..
.
..
.
.
.
.
0
0

0
0

.
.
.

.
m

En consecuencia,

U AV = =

Dr
0

0
0


.


Nota.

Observe que

AV1 = AAT U1 Dr1

Avi = i ui

i = 1, 2, . . . , r.

igualmente,

AT U1 = V1 Dr

AT ui = i vi

uTi A = viT i

i = 1, 2, . . . , r.

El siguiente proceso nos ilustra cmo calcular la descomposicin en valores


singulares de una matriz

A Mmn .

Supondremos en este caso, que

m n.
7.4.2.

Algoritmo.
1. Formule

S = AAT Mmm .

2
S : 12 22 m
0.
Encuentre un conjunto ortonormal u1 , u2 , . . . , um de vectores


u1 u2 um (orpropios de S y construya la matriz U =
togonal) y la matriz diagonal D = diag {1 , 2 , , m }.
Si r = (A); Dr = diag {1 , 2 , , r }


T
1
u1 u2 ur , las
Haga V1 = A U1 Dr , siendo U1 =
primeras r columnas de U. Encuentre una matriz V2 Mn(nr)


V1 V2 Mnn sea ortogonal.
tal que la matriz V =
T
Otra forma de (5) es trabajar con la matriz A A.

2. Encuentre los valores propios de


3.

4.
5.

5*.

208

Factorizacin de matrices

Ejemplo.

7.4.3.

7.4. Descomposicin en valores singulares



A =

Considere la matriz

2
4

1 2
4
2


; (A) = 2,

calculemos la descomposicin en valores singulares usando el proceso esbozado anteriormente.

Calculando directamente obtenemos la matriz


cuyos valores propios son:

12 = 36

S = AAT =

9
0

0
36


,

22 = 9 (12 22 ).

Calculemos ahora los vectores propios asociados a estos valores propios:

Para

12 = 36

(S 36 I)X = 0,

 

0
x1
0
=
,
0
x2
0

tenemos el sistema

25
0

es decir el sistema

cuyo conjunto solucin es de la forma


B=

Como

12 -vector

0
x2


: x2 6= 0 .


propio podemos tomar entonces


mente podemos tomar a

u2 =

1
0


como

u1 =

22 -vector

0
1


. Anloga-

propio. Ahora con-

sideramos las matriz ortogonal

U=

u1

u2

0
1

1
0

6
0

0
3

y la matriz diagonal

D = diag {1 , 2 } =


Puesto que

r = (A) = 2

tenemos que
209

Dr = diag {1 , 2 } =

6
0

0
3


.

7.4. Descomposicin en valores singulares

Factorizacin de matrices

Con las matrices denidas hasta ahora se tiene que

V1

AT U1 Dr1



2
4 
0 1
1/6 0
= 1 4
1 0
0 1/3
2
2


2
4 
0
1/3
= 1 4
1/6 0
2
2

2
2
1
2
1
=
Columnas ortonormales.
3
1 2
=

Consideramos ahora la matriz ortogonal

2
1
2
V =
3
1

1

2 = V1
2

2
1
2

V2

0
0

1
1
2 .
con V2 =
3
2

Nosotros tenemos entonces que:

U AV =

6
0

0
3

= .

7.4.4.

Ejemplo.

Consideremos la matriz

1
A= 0
1

1
1
0

0
1 ; (A) = 3,
1

calculemos ahora la descomposicin en valores singulares:

S = AAT

2 1
S = AAT = 1 2
1 1

De nuevo calculamos la matriz

1
1 .
2

cuyos valores propios los calculamos de manera usual, es decir, resolviendo


la ecuacin

|S I| = 0,

esto es,

= |S I|

2
1
1

2
1
= 1
1
1
2
210




= ( 4)( 1)2 .

Factorizacin de matrices
Los valores propios de

7.4. Descomposicin en valores singulares

son entonces

12 = 4, 22 = 1

32 = 1.

Algunos

clculos usuales nos permiten elegir a los vectores

1
1
1 ;
u1 =
3 1

2
1
1
u2 =
6
1

0
1
1 ,
u3 =
2 1

como vectores propios ortonormales asociados a

12 , 22

32

respectiva-

mente. Consideramos ahora la matriz ortogonal

1/ 3

2/ 6


=
1/ 3

1/ 3

1/ 6

U=

u1

u2

u3

y las matrices diagonales ((A)

1/ 6


1/ 2
.

1/ 2

= 3)

2
D = diag {1 , 2 , 3 } = 0
0

0
1
0

0
0 = Dr .
1

V1 = AT U1 Dr1 , esto es,

1/3 2/6
0
1
1/2

0 1/3
1/6
1/2 0
1
0
1/ 6 1/ 2
1/ 3

1/23 2/6
0
1

0 1/23
1/6
1/2
1
1/ 6 1/ 2
1/2 3


1/6 1/2
1/6
1/ 2 = V
2/ 6
0

Denimos ahora la matriz

V1

1 0
= 1 1
0 1

1 0
= 1 1
0 1

1/3
= 1/3
1/ 3

Nosotros tenemos entonces que:

4
U T AV = 0
0

0
1
0
211

0
0 = .
1

0 0
1 0
0 1

7.5. Ejercicios

Factorizacin de matrices

7.5. Ejercicios
7.5.1

Responda falso o verdadero justicando su respuesta

1. Las operaciones elementales en las las del tipo

i < j,

Fi + Fj

con

producen matrices elementales triangulares inferiores.

Ci + Cj
i < j , producen matrices elementales triangulares inferiores.

2. Las operaciones elementales en las columnas del tipo


con

3. El producto de dos matrices elementales del mismo tamao, es


una matriz elemental.

A es nica.
Q es una matriz rectangular cuyas columnas son orgonormales
T
entre, entonces Q Q = I.

4. La descomposicin LU para cualquier matriz


5. Si

7.5.2. Demuestre que:

Li , (i = 1, 2), son matrices triangulares inferiores:


a ) Muestre que el producto L1 L2 es una matriz triangular in-

1. Suponga que
ferior.

b ) Mueste que si

L1 es

invertible, entonces su inversa

L1
1

es

tambin una matriz triangular inferior (Sug.: use induccin


matemtica)

L1 y
L2 son tosdo iguales a 1 (uno), entonces las matrices L1 L2 ,
1
L1
y L2
tambin tienen unos en su diagonal principal.
1

c ) Muestre que si los elementos de la diagonal principal de

(Sug.: use induccin matemtica)


2. Use el ejercicio anterior para demostrar que las armaciones son
igualmente vlidas para matrices triangulares superiores.
3. Demuestre que si

A Mmn

tiene rango n y A = QR, donde Q


Res una matriz triangular superior
principal, entonces Q y R son nicas.

tiene columnas ortogonales y


con unos en su diagonal

7.5.5. Calcule
212

Factorizacin de matrices

7.5. Ejercicios

1. Use la factorizacin LU dada para resolver el sistema de ecuaciones lineales


a)

c)

1 0
3
1

1 0
4 1
2 3






4
1
11
x=
0 1

32

0
2 2
1
2
0 0 3
1 x = 7
1
0 0 2
3

1
5

b)

d)

1
4
7

0
1


0
1
3


2
1
x=
0 7

0
1 2
0 0 3
1
0 0

2. Calcule la descomposicin LU de la matriz

1
A= 2
1

3.

1 2
1 1 .
17 3

3
7
2

T
para resolver el sistema Ax = y, y =
Use dicha descomposicin

5 18 14 .
Encuentre la matriz triangular R tal que A = QR en cada uno
de los siguientes casos

a)

A=

1
1
1

Q=

1
,

3
1

3
1

b)

4.

A=

4
Considere la matriz simtrica positiva denida S = 2
0

2
9
8

0
8
5

a ) Calcule su descomposicin LU.


b ) Calcule sus descomposicin de Cholesky.
5. Calcule la descomposicin en valores singulares de la matriz


A=

2
1

1
4

2
1


.

6. Calcule la descomposicin QR de la matriz

1
0
A=
1
0

0
1
1
0

213

0
1

1
1

1
, Q =

CAPTULO 8

Rectas e hiperplanos. Conjuntos convexos.

Este captulo consta de dos secciones. En la primera daremos las deniciones de recta, segmento de recta e hiperplanos en

Rn .

En la segunda

veremos algunos resultados sobre conjuntos convexos. Quien desee estudiar un poco ms sobre estos tpicos puede consultar el captulo 6 de

[ ].

8.1. Rectas. Segmentos de recta. Hiperplanos

Los conceptos de recta, segmento de recta e hiperplanos en

10]).

en programacin lineal (vase el captulo 6 de [

Rn

son tiles

Antes de proseguir

con nuestra discusin, haremos una pequea aclaracin sobre la notacin


y haremos una diferencia entre lo que es un punto

en el espacio

Rn

y el

segmento de recta dirigido (vector coordenado o simplemente vector), que


tiene como extremo inicial el origen de coordenadas
nal al punto

P.

ste lo denotaremos por

OP

y como extremo

o simplemente

p.

P Rn le asignaremos las coordenadas (x1 , x2 , . . . , xn ) y

escribiremos P (x1 , x2 , . . . , xn ), mientras que al vector OP tambin le

asignaremos las coordenadas (x1 , x2 , . . . , xn ), pero escribiremos OP =


(x1 , x2 , . . . , x3 ) o simplemente, p = (x1 , x2 , . . . , x3 ) (ver gura 8.1 en el
3
caso de R ).
Al punto

215

8.1. Rectas y planos

Hiperplanos
IR 3

x3

x3

P(x1 , x2 , x 3)

p = 0P =(x1 , x2, x 3)
x2

O(0, 0, 0)

x1

x1
Figura 8.1. Puntos y vectores en

Nota.

x2

O(0, 0, 0)

R3 .

P (x1 , x2 , . . . , xn ) y Q(x01 , x02 , . . . , x0n ) en Rn , el


segmento de recta dirigido o vector, que tiene como punto inicial a P y co
mo punto nal Q, lo denotaremos por P Q y le asignamos las coordenadas
(x01 x1 , x02 x2 , . . . , x0n xn ). En tal sentido, y dado que

OQ OP = (x01 , x02 , . . . , x0n ) (x1 , x2 , . . . , xn )
Dados dos puntos

(x01 x1 , x02 x2 , . . . , x0n xn ),

=
escribiremos
8.1.1.

P Q = (x01 x1 , x02 x2 , . . . , x0n xn ).

Denicin

la direccin del vector


(8.1)

En

(Rectas)

d 6= 0

Rn ,

la recta que pasa por el punto

n

` = X Rn : OX = OP + d,

Se dice adems, que el vector

en

es un vector director de la recta

Segn la denicin anterior, un punto


dada por (8.1) sii existe un

se dene como el conjunto de puntos:

0 R

tal

216

X0 Rn pertenece a

que OX0 = OP + 0 d.

`.

la recta

Hiperplanos

8.1. Rectas y planos


y
IR

OX=OP+ d
P
d
d
x

Figura 8.2. Una recta en

8.1.2.

Ejemplo.

R2 .

R3 , la recta que pasa por el punto P (1, 2, 3)


d = (1, 0, 5), es el conjunto de puntos:

En

direccin del vector


` = X(x1 , x2 , x3 ) R3 : (x1 , x2 , x3 ) = (1, 2, 3) + (1, 0, 5),
El punto

X0 (1, 2, 7)

en la


R .

pertenece a dicha recta, pues:

OX0 = (1, 2, 7) = (1, 2, 3) + (2)(1, 0, 5).


Sin embargo, el punto

X (2, 3, 2) no pertenece a la recta `, pues no existe

tal que :

(2, 3, 2) = (1, 2, 3) + (1, 0, 5) = (1 + , 2, 3 + 5 ).

Q de Rn est sobre la recta (8.1) y Q 6= P, entonces



1
existe un 0 R tal que OQ = OP + 0 d. De aqu que d =
P Q, y por
0
Ahora bien, si el punto

lo tanto:

n
o

X Rn : OX = OP + d, R




n
=
X R : OX = OP +
P Q, R .
0

` =

217

8.1. Rectas y planos

Hiperplanos

En consecuencia, podemos decir que la recta que pasa por los puntos

Q (P 6= Q)

de

Rn

` = X Rn : OX = OP + t P Q,

(8.2)

es el conjunto de puntos:

o
tR .

y
IR

OX=OP+t PQ

P
PQ = 0Q OP
t PQ

Figura 8.3. Grca de una recta que pasa por los pun-

tos

Q.

Ejemplo. La recta que pasa por los puntos P = (1, 2, 3) y Q =


(4, 1, 1) de R3 , es el conjunto de puntos:


` = X(x1 , x2 , x3 ) R3 : (x1 , x2 , x3 ) = (1, 2, 3) + t(3, 1, 2), t R .

8.1.3.


8.1.4.

Denicin (Segmento de recta).

El segmento de recta que une los

Q de Rn , se denota por P Q y se dene as:


n
o

PQ =
X Rn : OX = OP + t P Q, para 0 t 1 .
n
o

=
X Rn : OX = tOP + (1 t) OQ, para 0 t 1 .

puntos

X0 Rn

OX0 = OP + t0 P Q.

Segn la denicin anterior, un punto

0 t0 1

tal que

218

pertenece a

PQ

sii existe

Hiperplanos

8.1. Rectas y planos


y
IR 2
Q

OX = OP + t 0 PQ

PQ = OQ OP
t0 PQ

Figura 8.4. Segmento de recta que une los puntos

8.1.5.

Ejemplo.

el punto

PQ =

P (1, 2, 3, 4) con
X(x1 , x2 , x3 , x4 ) R4 :

El segmento de recta que un al punto

Q(0, 1, 0, 2),

es el conjunto de puntos



X R4 : (x1 , x2 , x3 , x4 ) = (1, 2, 3, 4) + t(1, 1, 3, 2) ,
1
X0 ( ,
2
1
( ,
2

3
, 3) pertenece a P Q, pues
2
3
1
, 3) = (1, 2, 3, 4) + (1, 1, 3, 2).
2
2

Sin embargo, el punto X (1, 0, 3, 0) no pertenece a P Q, pues no existe


t con 0 t 1 tal que
El punto

3
,
2
3
,
2

(1, 0, 3, 0)

8.1.6.

Denicin

punto

puntos:

(1, 2, 3, 4) + t (1, 1, 3, 2)

(1 t , 2 t , 3 3t , 4 2t ) .

(Hiperplano)

Rn , el hiperplano que
n 6= 0, se dene como el

En

y que es normal al vector

n
o

H = X Rn : (OX OP ) n = 0 ,

o lo que es lo mismo,

n
o

H = X Rn : OX n = OP n = cte. ,
219

pasa por el
conjunto de

8.1. Rectas y planos

Hiperplanos
n

IR

x3

X
P

x2

x1
Figura 8.5. Grca de un plano en

donde   es el producto interno usual en

8.1.7.

Observacin.

En

R2

y en

R3

Rn

R3 .

(vase apartado 1.2.3 1).

los hiperplanos tienen una estructura

muy particular. En efecto,


1. En

R2 ,

un hiperplano es una recta. As por ejemplo, el hiper-

plano (recta) que pasa por el punto


al vector

n = (5, 2),

P (4, 3)

es el conjunto de puntos

y que es normal

X(x1 , x2 )

de

R2

que satisfacen la ecuacin:

OX n = 5x1 + 2x2 = 20 6 = 26 = OP n,
o sea,

5x1 + 2x2 = 26.


2. En

, un hiperplano es un plano. As por ejemplo, el hiperplano

(plano) que pasa por el punto

n = (1, 1, 3),

P (2, 1, 1)

y que es normal al

X(x1 , x2 , x3 )
R3 que satisfacen la ecuacin:

OX n = x1 + x2 + 3x3 = 2 1 + 3 = 0 = OP n,

vector

es el conjunto de puntos

o sea,

x1 + x2 + 3x3 = 0 .
220

de

Hiperplanos

8.1. Rectas y planos

Ejemplo. Dados los puntos Q(1, 1, 1), P (1, 1, 2) y el vector n =


(1, 2, 3), encuentre el punto de interseccin, si lo hay, de la recta que pasa
por el punto P en la direccin del vector n y del hiperplano (plano) que
pasa por Q y es normal al vector n.

8.1.8.

P en la direccin del vector n, es


X(x1 , x2 , x3 ) de R3 tales que:

(x1 , x2 , x3 ) = 0X = 0P + n = (1, 1, 2) + (1, 2, 3).

La recta que pasa por

el conjunto de

puntos de

R.

Q y que es normal al vector n, es el


X(x1 , x2 , x3 ) de R3 para los cuales se satisfacen

El hiperplano (plano) que pasa por


conjunto de puntos de
la ecuacin:

OX n = x1 + 2x2 + 3x3 = 6 = OQ n .

Ahora bien, si denotamos por


el plano, entonces:

para algn

R,

al punto de interseccin entre la recta y


OI = OP + n
y tambin

OI n = OP n.
De esto se sigue que:

OP + n = OQ n .

Utilizando las propiedades del producto interno encontramos que:

PQ n
2

k nk

1
.
14

En consecuencia, las coordenadas del punto buscado estn dadas por:

OI =
=

1
OP + n = (1, 1, 2) + (1, 2, 3)
14
15 12 31
) .
( , ,
14 14 14

La gura 8.6 ilustra la situacin de la interseccin entre una recta y un


plano.

221

8.1. Rectas y planos

Hiperplanos
n

x3
IR

x
Q

x2

x1
Figura 8.6. Grcas de un plano y una recta en

8.1.9.

Denicin.

Sea

el hiperplano de

Rn

R3

descrito por la ecuacin

OX n = OP n = c
Los conjuntos

n
o

S1 = X Rn : OX n c

n
o

S2 = X Rn : OX n c

se denominan los semiespacios cerrados con frontera

H.

Los conjuntos

n
o

S1 = X Rn : OX n < c

n
o

S2 = X Rn : OX n > c

se denominan semiespacios abiertos con frontera

Nota.

H.

Los semiespacios abiertos no incluyen la frontera

los semiespacios cerrados si la incluyen.


222

H,

mientras que

Hiperplanos

8.2. Conjuntos convexos


IR

x. n. = c

x. n. > c

x
x.n. < c

Figura 8.7. Ilustracin de semiespacios abiertos

8.2. Conjuntos convexos


Los conjuntos convexos juegan un papel importante en la programacin
lineal. En particular se tiene que la llamada regin factible de un problema
de programacin lineal es un conjunto convexo (vea el teorema 6.6(iii) de

10]).

8.2.1.

Denicin.

Sea

un subconjunto de

si para dos puntos cualesquiera


contenido en

8.2.2.

C3

C4

Teorema.

Q1

de

C,

Se dice que

es convexo,

el segmento de recta

PQ

est

Q2

C1

C2

son convexos, mientras que los

Rn

es un conjunto convexo.

no son convexos.

Todo hiperplano de

Demostracin. Sea

y sean

C.

En la gura 8.1 los conjuntos


conjuntos

Rn .

H el hiperplano de Rn

OX n = OP n = c

puntos de

H.

Ahora, si

descrito por la ecuacin

es un punto de

coordenadas satisfacen:

OX = OQ1 + t(Q2 Q1 ),
223

0 t 1,

R3

cuyas

8.2. Conjuntos convexos

Hiperplanos
y

C3

C1

P
Q
P
C2

C4

Q
P
P

(a)

(b)

Figura 8.1. Conjuntos convexos y no convexos

entonces

Q1 Q2 y se
h
i

OQ1 + t(Q2 Q1 ) n
h
i
OQ1 + t(0Q2 OQ1 ) n

OQ1 + t 0Q2 n t OQ1 n

(1 t)OQ1 n + t OQ2 n

(1 t)c + t c

c,

es un punto del segmento de recta


OX n =
=
=

es decir,
8.2.3.

X H.

Teorema.

Por lo tanto

es un conjunto convexo.

H el hiperplano de Rn . Todo
H es un conjunto convexo.

Sea

abierto con frontera

tiene que:

H el hiperplano de Rn

OX n = OP n = c .

Demostracin. Sea

semiespacio cerrado o

descrito por la ecuacin

Demostremos nicamente que el semiespacio abierto con frontera

n
o

S = X Rn : OX n < c
es un conjunto convexo. En el caso de semiespacio cerrados con frontera

se procede de manera anloga.


224

Hiperplanos

8.2. Conjuntos convexos

Q1 y Q2 puntos del conjunto S y sea X un punto del segmento

de recta Q1 Q2 . Puesto que Q1 S y Q2 S , entonces OQ1 n < c y

OQ2 n < c, de aqu que:


h

i
OX n = OQ1 + t(Q2 Q1 ) n
h
i
= OQ1 + t(0Q2 OQ1 ) n

= OQ1 + t 0Q2 n t OQ1 n

= (1 t)OQ1 n + t OQ2 n

Sean pues

(1 t)c + t c = c ,

<
esto es,

X S.

Por lo tanto

es un conjunto convexo.

Teorema.

La interseccin de dos conjuntos convexos de


n
conjunto convexo de R .
8.2.4.

Demostracin. Sean

C3 = C1 C2 .

Si

C3

C1

C2

Rn

es un

Rn y sea
C3 es automticaS3 , ya que C1 y C2

dos conjuntos convexos de

tiene solamente un punto, entonces

mente convexo. Sean

Q1

son conjuntos convexos de

Q2 dos puntos
Rn , entonces:


OQ1 + t(OQ2 OQ1 ) C1

distintos de

Para todo

tal que

0 t 1.


OQ1 + t(OQ2 OQ1 ) C2
Para todo t tal que
0 t 1.


En consecuencia. OQ1 + t(OQ2 OQ1 ) C3 = C1 C2 para todo t tal que
0 t 1 y por lo tanto C3 es un conjunto convexo de Rn .

La prueba del siguiente corolario se puede obtener aplicando el principio
de induccin matemtica y se propone como un ejercicio.
8.2.5.

Corolario.

vexos de
8.2.6.

Rn .

Rn

La interseccin de un nmero nito de conjuntos conn

es un conjunto conexo de

Teorema

(Envolvente convexa)

R .

Sean

X1 , X2 , . . . , Xm

puntos de

El conjunto:

(
C=

)
m
m
X
X
X R : OX =
i OXi ; i 0, i = 1, . . . , m,
i = 1
n

i=1

i=1

es un conjunto convexo y es llamado la Envolvente convexa de los puntos

X1 , X2 , . . . , Xm .
225

8.3. Ejercicios

Hiperplanos
P y Q dos puntos de C; entonces existen
1 , 2 , . . . , m no negativos, tales que:

Demostracin. Sean

calares

1 , 2 , . . . , m

m
X

i=1

i=1

m
X

i=1

i=1

X
OP =
i OXi ,

es-

i = 1

X
OQ =
i OXi ,
Sea ahora

i = 1 .

un punto en el segmento de recta

P Q,

esto es, un

para

el cual se satisface



OX = OP + t(OQ OP ), 0 t 1.
Puesto que:


OX

m
X

"m
#
m
X X

i OXi + t
i OXi
i OXi

i=1

m
X

i=1

i=1

[(1 t)i + ti ] OXi ,

i=1
donde

(1 t)i + ti 0
m
X

para

i = 1, . . . , m,

[(1 t)i + ti ]

(1 t)

i=1

X C.

m
X

i + t

i=1

En consecuencia,

m
X

i=1

(1 t) + t = 1 ,

=
entonces

es un conjunto convexo.

8.3. Ejercicios
8.3.1 Responda verdadero o falso, justicando su respuesta.

X (4, 5, 0) pertenece a la recta que pasa por el


P (1, 2, 3) en la direccin del vector d = (1, 1, 1).
El punto X (0, 1, 2) pertenece al segmento de recta que
los puntos P (1, 2, 3) y Q (4, 5, 6).

1. El punto

punto

2.

une a

226

Hiperplanos

8.3. Ejercicios
Q (1, 2, 3) , P (0, 1, 2)

3. Sean

n = (1, 1, 1). El punto de interP en la direccin del vector n


Q y que es normal al vector n, es

seccin de la recta que pasa por


y de hiperplano que pasa por

M (2, 0, 1).
4. La unin de dos conjuntos convexos de
vexo de

5. El conjunto de todas las soluciones


de un sistema de ecuaciones lineales

i = 1, . . . , n
8.3.2

Rn

es un conjunto con-


t
x = x1 x2 xn
Ax = y, tales que xi 0 ,

es un conjunto convexo.

Calcule
1. Sea

n
o

H = X Rn : OX n = c

a ) Muestre que si

un hiperplano de

Rn .

X=0
/ H, entonces existe un vector n 6= 0

tal que:

n
o

H = X Rn : OX n = 1 .
X = 0
/ H, entonces existen n puntos
H, que como vectores son linealmente in-

b ) Demuestre que si

b1 , b2 , . . . , bn

de

dependientes.

c ) Demuestre que si

X=0
/ H,

(
H=

X Rn : X =

n
X

entonces

i bi ,

b1 , b2 , . . . , bn

)
i = 1

,.

i=1

i=1
donde

n
X

son puntos de

H,

que como vectores

son linealmente independientes.


2. Encuentre

=
=

b1 , b2 y b3 tales que


X R3 : X (2, 1, 1) = 1
(
)
3
3
X
X
3
XR : X=
i bi ,
i = 1
i=1

i=1

b1 = (1, 0, 0), b2 = (1, 1, 0) y b3 = (1, 1, 1).


a ) Demuestre que b1 , b2 y b3 son linealmente independientes.

b ) Encuentre un vector n 6= 0 tal que:

3. Sean

(
H

=
=

3
X

i=1

i=1

X
X R : OX =
i bi ,
3

n
o

X R3 : OX n = 1 .
227

)
i = 1

8.3. Ejercicios

Hiperplanos

H = {X Rn : X N = C} un hiperplano de Rn .
X = 0 H sii C = 0.
b ) Demuestre que si X = 0 H, entonces existen n 1 puntos
a1 , a2 , . . . , an1 de H, que como vectores son linealmente

4. Sea

a ) Muestre que si

independientes.

c ) Demuestre que si

X = 0 H,

entonces

n1
X
X R : OX =
i ai

H=

i=1
donde

a1 , a2 , . . . , an1

son

n1

puntos de

H,

que como

vectores son linealmente independientes.


5. Encuentre

a1
=
=

a2 tales que
n
o

X R3 : OX (2, 1, 1) = 0
n
o

X R3 : OX = 1 a1 + 2 a2

a1 = (1, 1, 1) y a2 = (1, 0, 1).


a ) Muestre que a1 y a2 son linealmente independientes.

b ) Encuentre un vector n 6= 0 tal que:

6. Sean

n
o

X R3 : OX = 1 a1 + 2 a2


=
X R3 : v N = 0 .

7. Demuestre que todo hiperplano de


dimensin

n1

Rn

es una variedad lineal de

(vase el apartado 1.2.1).

8. Demuestre que si

T : R n Rm

es una transformacin lineal,

entonces enva conjuntos convexos en conjuntos convexos.

T : R2 R2 es una transformacin
entonces T enva tringulos en tringulos.

9. Demuestre que si
biyectiva,

228

lineal

ndice alfabtico

Base, 11
cambio de, 20
cannica de Rn , 14
ortogonal, 16, 66
ortonormal, 16

Espacio generado, 10
Espacio nulo, matriz, 21
Espacio vectorial, 8
base, 11
base ordenada, 13
de transformaciones lineales, 19
dimensin, 11
subespacio, 9
suma directa, 13
Espacios fundamentales, matriz, 20

c-inversa de una matriz, 152


Cholesky
descomposicin, 198
Conjuntos
convexos, 223

Factorizacin de matrices; ver


descompisicin de matrices, 179
Forma cuadrtica, 97
cambio de variables, 101
clasicacin, 99
diagonalizacin de una, 103
indenida, 99, 110
negaitivamente denida, 110
negativamente denida, 99
negativamente semidenida, 110
negitivamente semidenida, 99
no negaitiva, 99
no posiitiva, 99
positivamente denida, 99, 110
positivamente semidenida, 99, 110
Forma escalonada reducuda, 6

Descomposicin
de Cholesky, 198
en valores singulares, 205
LU, 179
QR, 188
Desigualdad de Schwarz, 15
Determinante, matriz, 4
Diagonal principal, matriz, 2
Diagonal, matriz, 2
Diagonalizacin
de matrices simtricas, 64
de una forma cuadrtica, 103
ortogonal, 70
simultnea
de formas cuadrticas, 105
de matrices, 82
Diagonalizacin de matrices, 53

g-inversa de una matriz, 137, 143


Gauss-Jordan, mtodo, 23
Gram-Schmidt, proceso, 191
Gram-Schmidt, proceso de, 16

Eigenvalores, eigenvectores; vea


valores (vectores) propios, 44
Espacio columna, matriz, 21
Espacio la, matriz, 21

Hermite
229

ndice alfabtico
particionada, 26
determinante, 30, 32, 33
inversas, 34, 35
operaciones con, 27
polinomio caracterstico de una, 48
rango de una, 20, 22
semejante, 20
submatriz, 25
transpuesta, 3
propiedades, 3
traza de una, 37
valor propio de una, 47
vector propio de una, 47
Mejor solucin aproximada, 165

matriz superior, 156


Idntica, matriz, 2
Identidad, matriz, 2
Imagen de una transformacin lineal,
17
Inversa
condicional, 152
generalizada, 137, 143, 195
clculo de, 147
propiedades, 145
LU
descomposicin, 179
Mnimos cuadrados, 162
Matrices
Diagonalizacin de, 53
factorizacin, 179
no negativas, 123
semejantes
polinomios caractersticos de, 52
simtricas
diagonalizacin, 64
Matrices elementales, 6
Matriz, 1
adjunta, 4
cambio de base, 20
cofactor ij , 4
de cofactores, 4
de una forma cuadrtica, 98
de una transformacin lineal, 18
determinante, 4, 5
propiedades, 5
diagonal, 2
ecuacin caracterstica de una, 48
espacio columna de una, 21
espacio la de una, 21
espacio nulo de una, 21
espacios fundamentales de una, 20
forma escalonada reducida, 6
hermite superior, 156
idntica, 2
idempotente, 129
inversa, 3, 23
propiedades, 3
menor ij , 4
operaciones elmentales, 5

Ncleo de una transformacin lineal,


17
Operaciones elmentales en una
matriz, 5
Producto interno, 14
QR
descomposicin, 188
Rango de una matriz, 20
Rectas, planos e hiperplanos, 215
Sistemas de ecuaciones, 23
c-inversas,g-inversa, 160
Gauss-Jordan, 23
mnimos cuadrados, 160
mejor solucin aproximada, 165
solucin mnima cuadrada, 165
Solucin mnima cuadrada, 165
Transformacin lineal
lgebra de, 19
imagen, 17
inversa de una, 20
matriz de una, 18
ncleo, 17
transformacin inyectica, 17
transformacin sobreyectiva, 17
valores propios, 44
vectores propios, 44
Transformaciones lineales, 16
Transpuesta, matriz, 3
230

ndice alfabtico
Valor propio, 44
espacio asociado a un, 46
multiplicidad algebraica de un, 48
multiplicidad geomtrica de un, 46
Valores (vectores) caractersticos; vea
valores (vectores) propios, 44
Valores singulares
descomposicin, 205
Variedad lineal, 23
Vector propio, 44
Vectores, 8, 215
coordenadas resp. a una base, 13
linealmente dependientes, 10
linealmente independiente, 56
linealmente independientes, 10, 22,
24
ortogonales, 15
ortonormales, 15
proceso de Gram-Schmidt, 16
propios ortogonales, 66

231

Bibliografa
[1] ANTON, H. Introduccin al lgebra lineal. Limusa, Mxico, 1981,
[2] FLOREY, F.G. Fundamentos de lgebra lineal y aplicaciones. Prentice Hall internacional, Colombia, 1980.
[3] GRAYBILL, F.A. Introduction to matrices with applications in statistic.
Wadsworth Publishing Company. Inc. Belnont, California, 1969.
[4] GRAYBILL, F.A. Theory and applications of linear model. Duxbury Presss, Massachusetts, 1976.
[5] HADLEY, G. A. lgebra lineal, Fondo Educativo Interamericano S.A., Estados
Unidos 1969.
[6] LIPSCHUTZ, S. lgebra lineal, McGraw Hill, Mxico, 1979.
[7] MARMOLEJO, M.A. Inversa condicional e inversa generalizada de una matriz:
esquema geomtrico. Lecturas Matemticas, Soc. Col. Matemat., Pg. 129-146,
Vol. IX, 1988.
[8] Nakos, G., Joyner, D., legebra lineal con aplicaciones, Thonsom editores, Mxico,
1998.
[9] Nering, E.D. legebra lineal y teora de matrices. Limusa, Mxico, 1977.
[10] NOBLE, B. Applied linear algebra. Prentice Hall, Inc. London, 1969.
[11] RORRES , C y ANTON, H, Aplicaciones del lgebra lineal. Limusa, Mxico 1979.
[12] STRANG, G, lgebra lineal y sus aplicaciones. Fondo educativo interamericano,
1982.

233

También podría gustarte