Documentos de Académico
Documentos de Profesional
Documentos de Cultura
9 de enero de 2018
No se permite la reproducción total o parcial de este libro, ni su incorporación
a un sistema informático, ni su transmisión en cualquier forma o por cualquier
medio, sea este electrónico, mecánico, reprográfico, gramofónico u otro, sin el
permiso previo y por escrito de los titulares del copyright.
Impreso en España
Printed in Spain
3
4 ÍNDICE GENERAL
Matrices. Sistemas de
ecuaciones lineales
1
2CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES
será denotado por Mmˆn pKq y para los elementos de este conjunto utilizaremos la
notación abreviada A “ paij q. Dos matrices A “ paij q y B “ pbij q pertenecientes
a Mmˆn pKq son iguales, si aij “ bij para todos i P t1, . . . , mu y j P t1, . . . , nu.
En el caso de que m “ n, la matriz se llamará cuadrada de orden n.
La matriz ¨ ˛
0 1 1
˚ 1 0 1 ‹
C“˚
˝ 1
‹
1 1 ‚
3 1 1
pertenece al conjunto M4ˆ3 pRq. Si eliminamos las dos últimas columnas y la
tercera fila obtenemos la submatriz de C dada por
¨ ˛
0
C“˝ 1 ‚
3
Definición 1.1.3 Dada una matriz cuadrada A “ paij q P Mnˆn pKq, los coeficientes
de la forma aii constituyen la diagonal principal de la matriz. A este conjunto
1.1. MATRICES. OPERACIONES CON MATRICES 3
Cuando una matriz A diagonal cumple que aii “ a para todo i P t1, . . . nu
se llamará escalar. Dentro de las matrices escalares debemos resaltar el caso
particular de a “ 1. Esta matriz será llamada matriz identidad de orden n y se
representará como In . Así pues,
¨ ˛
1 0 ¨¨¨ 0
˚ 0 1 ¨¨¨ 0 ‹
In “ ˚ .. .. .. ..
˚ ‹
.
‹
˝ . . . ‚
0 0 ¨¨¨ 1
Definición 1.1.4 Una matriz A “ paij q P Mmˆn pKq es triangular superior si aij “ 0
para todo i ą j. En el caso de que aij “ 0 para todo i ă j la matriz es triangular
inferior.
es triangular inferior.
4CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES
Definición 1.1.6 Una matriz A P M1ˆn pKq se llama matriz fila y una matriz en
B P Mmˆ1 pKq se llama matriz columna. Así pues, estas matrices son de la forma
¨ ˛
a11
` ˘ ˚ a21 ‹
A “ a11 a12 ¨ ¨ ¨ a1n B“˚ . ‹
˚ ‹
.
˝ . ‚
am1
respectivamente.
Definición 1.1.7 Dadas dos matrices A “ paij q P Mmˆn pKq y B “ pbij q P Mmˆn pKq,
se define su suma A ` B como la matriz perteneciente a Mmˆn pKq dada por
A ` B “ paij ` bij q.
Por lo tanto,
¨ ˛
a11 ` b11 a12 ` b12 ¨¨¨ a1n ` b1n
˚ a21 ` b21 a22 ` b22 ¨¨¨ a2n ` b2n ‹
A`B “˚ .. .. .. ..
˚ ‹
.
‹
˝ . . . ‚
am1 ` bm1 am2 ` bm2 ¨¨¨ amn ` bmn
Obsérvese que la suma de matrices sólo está definida para matrices de igual
orden. Es relativamente sencillo comprobar que el conjunto Mmˆn pKq junto con
la operación suma de matrices es un grupo conmutativo. Esto es, la suma de
matrices verifica las siguientes propiedades
Obviamente la matriz Θm,n que juega el papel del elemento neutro es la matriz
¨ ˛
0 0 ¨¨¨ 0
˚ 0 0 ¨¨¨ 0 ‹
Θm,n “ ˚ . . .
. . ...
˚ ‹
˝ .. ..
‹
‚
0 0 ¨¨¨ 0
y si A “ paij q P Mmˆn pKq
¨ ˛
´a11 ´a12 ¨¨¨ ´a1n
˚ ´a21 ´a22 ¨¨¨ ´a2n ‹
.. .. .. ..
˚ ‹
´A “ ˚
.
‹
˝ . . . ‚
´am1 ´am2 ¨¨¨ ´amn
Por lo tanto, ¨ ˛
αa11 αa12 ¨¨¨ αa1n
˚ αa21 αa22 ¨¨¨ αa2n ‹
αA “ ˚ .. .. .. ..
˚ ‹
.
‹
˝ . . . ‚
αam1 αam2 ¨¨¨ αamn
De la misma forma que con la suma de matrices, no es difícil comprobar que el
conjunto Mmˆn pKq junto con la operación producto por escalares verifica las
siguientes propiedades:
Nota 1.1.12 Se debe resaltar también que, cuando se tiene que dos productos de
matrices AB y AC coinciden, esto no implica que B “ C. Por ejemplo, si
ˆ ˙ ˆ ˙ ˆ ˙
1 1 2 2 1 1
A“ , B“ , C“
1 1 2 2 3 3
se tiene que ˆ ˙
4 4
AB “ “ AC.
4 4
Nota 1.1.13 Es interesante ver que en caso particular de multipicar una matriz
A “ paij q P Mmˆn pKq por una matriz columna b “ pbj1 q P Mnˆ1 pKq tenemos
que Ab P Mmˆ1 pKq y además es combinación lineal de las columnas de A ya
que:
¨ ˛¨ ˛
a11 a12 ¨ ¨ ¨ a1n b11
˚ a21 a22 ¨ ¨ ¨ a2n ‹ ˚ b21 ‹
Ab “ ˚ . .. .. .. ‹ ˚ .. ‹
˚ ‹˚ ‹
˝ .. . . . ‚˝ . ‚
am1 am2 ¨¨¨ amn bn1
¨ ˛ ¨ ˛ ¨ ˛
a11 a12 a1n
˚ a21 ‹ ˚ a22 ‹ ˚ a2n ‹
b11 ˚ .. ‹ ` b21 ˚ .. ‹ ` ¨ ¨ ¨ ` bn1 ˚ ..
˚ ‹ ˚ ‹ ˚ ‹
“ ‹
˝ . ‚ ˝ . ‚ ˝ . ‚
am1 am2 amn
Por otro lado, si A “ paij q P Mmˆn pKq y B “ pbjl q P Mnˆp pKq, entonces
denotando la columna l-ésima de B por
¨ ˛
b1l
˚ b2l ‹
bl “ ˚ . ‹
˚ ‹
˝ .. ‚
bnl
1.1. MATRICES. OPERACIONES CON MATRICES 9
Definición 1.1.14 Dada una matriz A “ paij q P Mmˆn pKq, una descomposición por
bloques de A está dada por dos conjuntos de números naturales
tm1 , ¨ ¨ ¨ mM u, tn1 , ¨ ¨ ¨ nN u,
cumpliendo las igualdades
M
ÿ N
ÿ
mI “ m, nJ “ n,
I“1 J“1
Filas:
I “ 1: Desde la fila 1 hasta la fila m1 .
I ą 1: Desde la fila m1 ` ¨ ¨ ¨ ` mI´1 ` 1 hasta la fila m1 ` ¨ ¨ ¨ ` mI´1 ` mI .
Columnas:
J “ 1: Desde la columna 1 hasta la columna n1 .
J ą 1: Desde la columna n1 ` ¨ ¨ ¨ ` nJ´1 ` 1 hasta la columna n1 ` ¨ ¨ ¨ `
nJ´1 ` nJ .
m1 “ 2, m2 “ 1, ; m3 “ 1, n1 “ 2, n2 “ 1, n3 “ 1.
Finalmente, si tomamos
m1 “ 2, m2 “ 2, n1 “ 2, n2 “ 2
1.1.16 Dadas dos matrices A “ paij q P Mmˆn pKq y B “ pbjl q P Mnˆp pKq,
con descomposiciones por bloques
M
ÿ N
ÿ
tm1 , ¨ ¨ ¨ mM u, tn1 , ¨ ¨ ¨ nN u, mI “ m, nJ “ n
I“1 J“1
y
N
ÿ P
ÿ
tn1 , ¨ ¨ ¨ nN u, tp1 , ¨ ¨ ¨ pP u, nJ “ n, pL “ p
J“1 L“1
donde
N
ÿ
AB “ pCIL q, CIL “ AIJ BJL “ AI1 B1L ` AI2 B2L ` ¨ ¨ ¨ ` AIN BN L .
J“1
m1 “ 2, m2 “ 1, n1 “ 2, n2 “ 1.
Sea la matriz ¨ ˛
1 2
B“˝ 2 3 ‚
1 0
y descomposición dada por
n1 “ 2, n2 “ 1, p1 “ 1, p2 “ 1.
12CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES
Definición 1.1.18 Dada una matriz cuadrada A se define para cada k P N como
Ak “ AAk´1 siendo A1 “ A.
De forma directa se deducen las siguientes propiedades para toda matriz cuadrada
A:
Ap Aq “ Ap`q ; @ p, q P N.
pAp qq “ Apq ; @ p, q P N.
Definición 1.1.20 Dada una matriz A “ paij q P Mmˆn pKq, se define su matriz
traspuesta, denotada como At , como la que se obtiene intercambiando en A filas
y columnas. Así pues, At P Mnˆm pKq y
es la matriz ¨ ˛
3´i 3
˚
˚ 1 5 ‹
‹
t ‹ P M5ˆ2 pCq
A “˚
˚ 5`i 3 ‹
˝ 1 ?3 ‚
0 2
De forma inmediata (salvo la relativa al producto) se pueden probar las siguientes
propiedades:
Definición 1.1.21 Una matriz cuadrada A “ paij q P Mnˆn pKq se dice que es simé-
trica si A “ At . Por lo tanto, A es simétrica, si, y sólo si, aij “ aji para todo
i ‰ j.
t
Con A˚ denotaremos a la matriz A P Mnˆm pCq. Para el operador ˚ tenemos
las siguientes propiedades:
tenemos que
¨ ˛
1`i 1 1
A “ ˝ ´1 0 i ‚
´1 ´i 0
y que
¨ ˛
1`i ´1 ´1
A˚ “ ˝ 1 0 ´i ‚
1 i 0
Definición 1.1.26 Una matriz cuadrada A “ paij q P Mnˆn pCq se dice que es her-
mitiana si A “ A˚ . Por lo tanto, A es hermitiana, si, y sólo si, aij “ aji . En
particular esto implica que aii “ aii o, lo que es lo mismo, todos los elementos
de la diagonal principal son números reales.
Definición 1.1.28 Sea A una matriz cuadrada de orden n. Diremos que A es una
matriz inversible, o que tiene inversa, si existe otra matriz B del mismo orden,
tal que
AB “ BA “ In .
Generalmente, la matriz B se conoce con el nombre de inversa de A y se
denota como A´1 . Las matrices inversible también se llaman matrices regulares
o matrices no singulares.
Cuando una matriz cuadrada tiene inversa su inversa única. En efecto, sea A
una matriz inversible y supongamos que existen B y C tales que
AB “ BA “ AC “ CA “ In .
Entonces,
B “ BIn “ BpACq “ pBAqC “ In C “ C.
Utilizando unicidad de la inversa se pueden probar de forma inmediata las
siguientes propiedades:
pA´1 q´1 “ A.
1.1. MATRICES. OPERACIONES CON MATRICES 17
Ejemplo 1.1.29 Sea A una matriz cuadrada de orden dos dada por
ˆ ˙
a11 a12
A“
a21 a22
y tal que a11 a22 ´ a12 a21 ‰ 0. Entonces, A es inversible y su inversa está dada
por
a22
¨ ˛
´a12
A´1 “ ˝ a11 a22´a ´ a12 a21 a11 a22 ´ a12 a21
˚ ‹
21 a11 ‚
a11 a22 ´ a12 a21 a11 a22 ´ a12 a21
Esta fórmula es un caso particular de las que podemos obtener de forma más
general siguiendo el método de Cramer. Tiene el grave defecto de que, cuando
la matriz A es grande, el número de operaciones necesarias para el cálculo de
la inversa lo convierten en inviable, incluso disponiendo de grandes recursos
computacionales.
Nota 1.1.30 Es importante resaltar que toda matriz que tenga una columna o una
fila de ceros no puede ser inversible. En efecto, si A P Mnˆn pKq tiene una
columna de ceros, entonces @ B P Mnˆn pKq se tiene que BA tiene una columna
de ceros y no puede ser la identidad. Si A tiene una fila de ceros, su traspuesta
tiene una columna de ceros y, por lo tanto, no tiene inversa. Si la traspuesta no
es inversible, A tampoco lo es.
18CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES
La matriz ˆ ˙
1 0
A“
0 i
es unitaria ya que AA˚ “ A˚ A “ I2 .
Existen unos tipos especiales de matrices que serán de gran utilidad a la hora de
calcular inversas y rangos. Estas matrices permitirán interpretar desde un punto
de vista matricial las operaciones elementales sobre las filas o las columnas de
una matriz A cualquiera.
Definición 1.2.2 Toda matriz obtenida después de hacer una operación elemental
en una matriz identidad se llamará matriz elemental.
0 0 0 1
que resulta ser triangular inferior.
4) Con Cij denotamos la matriz resultante de permutar en una matriz identi-
dad la columna i y la columna j.
Por ejemplo, para n “ 3
¨ ˛
0 1 0
C12 “˝ 1 0 0 ‚
0 0 1
es el resultado de intercambiar en I3 las columnas primera y segunda.
5) Con Ci pαq denotamos la matriz obtenida al multiplicar la columna i de
una matriz identidad por un escalar α no nulo.
Por ejemplo, para n “ 4
¨ ˛
1 0 0 0
˚ 0 1 0 0 ‹
C3 p4q “ ˚
˝ 0
‹
0 4 0 ‚
0 0 0 1
1.2. MATRICES ELEMENTALES Y APLICACIONES. 21
0 0 0 1
que resulta ser triangular superior.
entonces
¨ ˛ ¨ ˛ ¨ ˛
3 1 1 6 2 2 6 2 2
F13 A “ ˝ 6 1 3 ‚, F2 p3qA “ ˝ 18 3 9 ‚, F32 p´1qA “ ˝ 6 1 3 ‚
6 2 2 3 1 1 ´3 0 ´2
y
¨ ˛ ¨ ˛ ¨ ˛
2 6 1 ´6 2 2 6 0 2
AC12 “˝ 1 6 3 ‚, AC1 p´1q “ ˝ ´6 1 3 ‚, AC23 p´1q “ ˝ 6 ´2 3 ‚
1 3 2 ´3 1 1 3 0 1
Proposición 1.2.4 Las matrices elementales son todas inversibles y se cumple que
Definición 1.2.7 Sea A P Mmˆn pKq. Se dice que la matriz A está en forma escalo-
nada reducida por filas si se cumplen las siguientes condiciones:
Definición 1.2.9 Diremos que dos matrices A, B P Mmˆn pKq son equivalentes por
filas, y lo denotaremos como A „f B, si se puede pasar de una a la otra mediante
una sucesión de operaciones elementales por filas. Esto es, existen matrices
M1 , ¨ ¨ ¨ , Mr P Mmˆm pKq de operaciones elementales tales que
B “ Mr ¨ ¨ ¨ M1 A.
` ˘ O.E.F ` ˘
A | Im ùñ B | P
¨ ˛ ¨ ˛
4 4 2 2 3 2
A“˝ 6 1 ´2 ‚; B “ ˝ 0 ´2 ´2 ‚
2 3 2 0 0 0
1.2. MATRICES ELEMENTALES Y APLICACIONES. 25
tenemos que
¨ ˛
F13
2 3 2 | 0 0 1 F p´2q, F p´3q
` ˘ 31 21
A | I3 ùñ ˝ 6 1 ´2 | 0 1 0 ‚ ùñ
4 4 2 | 1 0 0
¨ ˛
2 3 2 | 0 0 1 F23
˝ 0 ´8 ´8 | 0 1 ´3 ‚ ùñ
0 ´2 ´2 | 1 0 ´2
¨ ˛ ¨ ˛
2 3 2 | 0 0 1 F p´4q 2 3 2 | 0 0 1
32
˝ 0 ´2 ´2 | 1 0 ´2 ‚ ùñ ˝ 0 ´2 ´2 | 1 0 ´2 ‚
0 ´8 ´8 | 0 1 ´3 0 0 0 | ´4 1 5
Por lo tanto, P “ F32 p´4qF23 F31 p´2qF21 p´3qF13 es tal que P A “ B. Nótese
que
´1 ´1
P ´1 “ pF32 p´4qF23 F31 p´2qF21 p´3qF13 q´1 “ F13 F21 p´3q´1 F31 p´2q´1 F23 F32 p´4q´1
Proposición 1.2.11 Cada matriz A “ paij q P Mmˆn pKq es equivalente por filas a
una matriz escalonada reducida por filas. Esto es, existe una matriz P cuadrada
de orden n que es inversible y producto de matrices de operaciones elementales
por filas, tal que P A es escalonada reducida por filas.
1) Se pone como primera fila una que tenga el primer coeficiente no nulo. Si
todos fuesen ceros, pasamos al segundo coeficiente y seguiríamos así de
forma sucesiva.
2) Si la entrada principal de la primera fila es a, la multiplicamos por a´1
para obener una entrada principal igual a 1.
3) Convertimos en cero los coeficientes que están por debajo del uno del
paso anterior sumándole a cada fila la primera multiplicada por el escalar
adecuado.
26CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES
4) Repetimos los pasos anteriores con las restantes filas hasta conseguir una
matriz escalonada.
\
[
calculamos una matriz escalonada reducida por filas equivalente por filas a A
siguiendo el método propuesto en la proposición anterior.
¨ ˛
˘ F31 p´3q, F21 p´1q 1 1 1 1 1 0 0 F p1{2q
` 2
A | I3 ùñ ˝ 0 2 3 1 ´1 1 0 ‚ ùñ
0 ´2 ´2 0 ´3 0 1
¨ ˛ ¨ ˛
1 1 1 1 1 0 0 F p2q 1 1 1 1 1 0 0
32
˝ 0 1 3{2 1{2 ´1{2 1{2 0 ‚ ùñ ˝ 0 1 3{2 1{2 ´1{2 1{2 0 ‚
0 ´2 ´2 0 ´3 0 1 0 0 1 1 ´4 1 1
¨ ˛
F13 p´1q, F23 p´3{2q
1 1 0 0 5 ´1 ´1 F p´1q
12
ùñ ˝ 0 1 0 ´1 11{2 ´1 ´3{2 ‚ ùñ
0 0 1 1 ´4 1 1
¨ ˛
1 0 0 1 ´1{2 0 1{2
˝ 0 1 0 ´1 11{2 ´1 ´3{2 ‚
0 0 1 1 ´4 1 1
1.2. MATRICES ELEMENTALES Y APLICACIONES. 27
Ejemplo 1.2.14 Supongamos que tenemos una matriz cuadrada A de orden n con
la siguiente descomposición por bloques
¨ ˛
H | Θr,n´r
A “ ˝ ´´ | ´ ´ ´ ‚.
C | D
Entonces, A es inversible, si, y sólo si, lo son H y D. Además se cumple que, en
caso de tener inversa, esta es
¨ ˛
H ´1 | Θr,n´r
´1
A “ ˝ ´ ´ ´ ´ ´´ | ´ ´ ´ ‚.
´D´1 CH ´1 | D´1
En efecto, si H y D tienen inversa, multiplicando por bloques tenemos que
¨ ˛¨ ˛
H | Θr,n´r H ´1 | Θr,n´r
˝ ´´ | ´ ´ ´ ‚˝ ´ ´ ´ ´ ´´ | ´ ´ ´ ‚
C | D ´D´1 CH ´1 | D´1
¨ ˛ ¨ ˛
HH ´1 | Θr,n´r Ir | Θr,n´r
“ ˝ ´ ´ ´ ´ ´ ´ ´ ´ ´ ´ ´ | ´ ´ ´ ‚ “ ˝ ´ ´ ´ | ´ ´ ´ ‚ “ In
CH ´1 ´ DD´1 CH ´1 | DD´1 Θn´r,r | In´r
Así pues, hemos encontrado una matriz que multiplicada por A da la identi-
dad. Aplicando ahora la propiedad 2) del anterior resultado tenemos que A es
inversible.
Inversamente, si A tiene inversa existe una matriz A´1 tal que AA´1 “ In .
Supongamos que descomponemos ambas por bloques y hacemos su producto.
Tenemos que
¨ ˛¨ ˛ ¨ ˛
H | Θr,n´r X11 | X12 Ir | Θr,n´r
˝ ´´ | ´ ´ ´ ‚˝ ´´ | ´ ´ ´ ‚ “ ˝ ´ ´ ´ | ´ ´ ´ ‚ “ In .
C | D X21 | X22 Θn´r,r | In´r
Por lo tanto,
De esto deducimos, otra vez por el segundo apartado del anterior resultado, que
H es inversible, lo que implica que X12 “ Θr,n´r y que X11 “ H ´1 . De esto se
sigue que DX22 “ In´r , lo que implica también que D es inversible. Finalmente,
obsérvese que
Proposición 1.2.15 Sea A “ paij q P Mmˆn pKq tal que tiene una forma escalonada
reducida por filas B con r entradas principales. Entonces, existen matrices
P P Mmˆm pKq y Q P Mnˆn pKq tales que
2) Se verifica que
¨ ˛
Ir | Θr,n´r
P AQ “ ˝ ´ ´ ´ | ´ ´ ´ ´ ´ ‚.
Θm´r,r | Θm´r,n´r
\
[
30CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES
tenemos que
` ˘
A | I3
¨ ˛
F31 p´1q, F21 p´1q
1 1 1 1 | 1 0 0
ùñ ˝ 0 0 3 1 | ´1 1 0 ‚
0 0 0 2 | ´1 0 1
¨ ˛
F3 p1{2q, F2 p1{3q
1 1 1 1 | 1 0 0
ùñ ˝ 0 0 1 1{3 | ´1{3 1{3 0 ‚
0 0 0 1 | ´1{2 0 1{2
¨ ˛
F13 p´1q, F23 p´1{3q
1 1 1 0 | 3{2 0 ´1{2
ùñ ˝ 0 0 1 0 | ´1{6 1{3 ´1{6 ‚
0 0 0 1 | ´1{2 0 1{2
¨ ˛
1 1 0 0
F12 p´1q
| 5{3 ´1{3 ´1{3
ùñ ˝ 0 0 1 0 | ´1{6 1{3 ´1{6 ‚
0 0 0 1 | ´1{2 0 1{2
Así pues, tomando
Definición 1.2.18 Sean A, B P Mmˆn pKq. Diremos que A y B son matrices equi-
valentes si existen matrices P P Mmˆm pKq y Q P Mnˆn pKq tales que
Proposición 1.2.19 Toda matriz A “ paij q P Mmˆn pKq es equivalente a una única
matriz de la forma Irmˆn .
Entonces,
A „ Irmˆn .
Si existiese un natural s ą r tal que A „ Ismˆn , obtendríamos que Irmˆn „ Ismˆn .
Por lo tanto, existen matrices T P Mmˆm pKq y H P Mnˆn pKq tales que
Ismˆn R “
¨ ˛¨ ˛
Ir | Θr,s´r | Θr,n´s R11 | R12 | R13
˚
˚ ´´´ | ´´´ | ´´´´´ ‹˚
‹˚ ´´´ | ´´´ | ´´´ ‹
‹
˚
˚ Θs´r,r | Is´r | Θs´r,n´s ‹˚
‹˚ R21 | R22 | R23 ‹
‹
˝ ´´´ | ´´´´´ | ´´´´´ ‚˝ ´´´ | ´´´ | ´´´ ‚
Θn´s,r | Θn´s,s´r | Θn´s,n´s R31 | R32 | R33
1.2. MATRICES ELEMENTALES Y APLICACIONES. 33
¨ ˛
R11 | R12 | R13
˚
˚ ´´´ | ´´´ | ´´´ ‹
‹
“˚
˚ R21 | R22 | R23 ‹
‹
˝ ´´´ | ´´´´´ | ´´´´´ ‚
Θn´s,r | Θn´s,s´r | Θn´s,n´s
y que
T Irmˆn “
¨ ˛¨ ˛ ¨ ˛
T11 | T12 Ir | Θr,n´r T11 | Θr,n´r
˝ ´´´ | ´ ´ ´ ‚˝ ´ ´ ´ | ´ ´ ´ ´ ´ ‚“ ˝ ´ ´ ´ | ´ ´ ´ ´ ´ ‚.
T21 | T22 Θn´r,r | Θn´r,n´r T12 | Θn´r,n´r
Así pues, ¨ ˛
R11 | Θr,s´r | Θr,n´s
˚
˚ ´´´ | ´´´´´ | ´´´´´ ‹
‹
R“˚
˚ R12 | Θs´r,s´r | Θs´r,n´s ‹
‹
˝ ´´´ | ´´´´´ | ´´´´´ ‚
R31 | R32 | R33
y entonces, aplicando lo visto en el ejercicio 1.2.14, tenemos que R no es inversible.
Esto es un absurdo y, por lo tanto, la matriz Ismˆn es única. \
[
Definición 1.2.20 Dada una matriz A “ paij q P Mmˆn pKq llamaremos forma redu-
cida completa (forma normal) de A a la única matriz Irmˆn que es equivalente
con A.
rangpAq
Obsérvese que ese número r coincide con el número de filas no nulas de la forma
escalonada reducida de A a partir de la cual se calcula Irmˆn , y equivalentemente,
con el número de entradas principales de esa forma. Así pues, si existiesen
dos formas escalonadas reducidas de A distintas tendrían el mismo número de
entradas principales. De hecho, se puede probar, mediante una demostración
34CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES
Teorema 1.2.21 Dos matrices A, B P Mmˆn pKq son equivalentes, si, y sólo si,
tienen el mismo rango.
\
[
1) A es inversible.
2) A „f In .
3) A „ In .
5) El rango A es n.
Veamos un ejemplo.
Obsérvese que también podemos combinar operaciones con filas con operaciones
con columnas. En los cálculos anteriores hemos visto que existe una matriz
P “ F43 p´1qF42 p´1qF32 p´1qF41 p´1qF31 p´1qF21 p´1q,
tal que ¨ ˛
1 1 1 1
˚ 0 1 1 1 ‹
PA “ ˚
˝ 0
‹.
0 1 1 ‚
0 0 0 1
Hagamos a continuación operaciones por columnas para convertir la matriz P A
en la matriz identidad. ¨ ˛
PA
˝ ´ ‚
I4
¨ ˛ ¨ ˛
1 0 0 0 1 0 0 0
˚ 0 1 1 1 ‹ ˚ 0 1 0 0 ‹
˚ ‹ ˚ ‹
˚ 0 0 1 1 ‹ ˚ 0 0 1 1 ‹
‹ ˚
˚ ‹
˚ 0 0 0 1 ‹
‹ C32 p´1q, C42 p´1q ˚ 0 0 0 1 ‹
˚
C21 p´1q, C31 p´1q, C41 p´1q ˚ ‹
ùñ ˚ ´ ´ ´ ´ ‹ ùñ ˚ ´ ´ ´ ´ ‹
˚ ‹ ˚ ‹
˚ 1 ´1 ´1 ´1 ‹ ˚ 1 ´1 0 0 ‹
˚ ‹ ˚ ‹
˚ 0 1 0 0 ‹ ˚ 0 1 ´1 ´1 ‹
˚ ‹ ˚ ‹
˝ 0 0 1 0 ‚ ˝ 0 0 1 0 ‚
0 0 0 1 0 0 0 1
¨ ˛
1 0 0 0
˚ 0 1 0 0 ‹
˚ ‹
˚ 0 0 1 0 ‹
˚ ‹
˚ 0 0 0 1 ‹
C43 p´1q ˚ ‹
ùñ ˚ ˚ ´ ´ ´ ´ ‹ ‹.
˚ 1 ´1 0 0 ‹
˚ ‹
˚ 0 1 ´1 0 ‹
˚ ‹
˝ 0 0 1 ´1 ‚
0 0 0 1
Por lo tanto, P AQ “ In , donde
¨ ˛
1 ´1 0 0
˚ 0 1 ´1 0 ‹
Q “ C21 p´1qC31 p´1qC41 p´1qC32 p´1qC42 p´1qC43 p´1q “ ˚
˝ 0
‹
0 1 ´1 ‚
0 0 0 1
38CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES
Nota 1.3.3 Es muy importante que, en el caso de usar operaciones por filas y opera-
ciones por columnas, no las mezclemos. Para las primeras utilizaremos la matriz
P y para las segundas, la matriz Q.
detpAq “ a11 .
Ejemplo 1.4.2 Para una matriz A “ paij q cuadrada de orden dos tenemos que
ˇ ˇ
ˇ a a12 ˇˇ
detpAq “ det ˇˇ 11 “ a11 A11 ` a21 A21 “ a11 a22 ´ a12 a21 .
a21 a22 ˇ
De esta forma, como sabemos calcular determinantes de matrices cuadradas de
orden dos, podemos calcular determinantes de matrices cuadradas de orden tres
de la siguiente forma:
ˇ ˇ
ˇ a11 a12 a13 ˇ
ˇ ˇ
detpAq “ ˇˇ a21 a22 a23 ˇˇ “ a11 A11 ` a21 A21 ` a31 A31 “
ˇ a31 a32 a33 ˇ
ˇ ˇ ˇ ˇ ˇ ˇ
ˇ a22 a23 ˇ ˇ a12 a13 ˇ ˇ a12 a13 ˇ
a11 ˇ
ˇ ˇ ´ a21 ˇ
ˇ ˇ ` a31 ˇ
ˇ ˇ“
a32 a33 ˇ a32 a33 ˇ a22 a23 ˇ
a11 pa22 a33 ´ a23 a32 q ´ a21 pa12 a33 ´ a32 a13 q ` a31 pa12 a23 ´ a22 a13 q “
a11 a22 a33 ` a12 a23 a31 ` a13 a21 a32 ´ a13 a22 a31 ´ a11 a23 a32 ´ a12 a21 a33
obteniendo la regla de Sarrus. A continuación calcularíamos determinantes de
orden cuatro y así, sucesivamente.
Proposición 1.4.3 Sean tres matrices cuadradas del mismo orden, A, A1 y A2 , tales
que tienen todas las filas iguales, salvo la fila i. Si la fila i de A es la suma de la
filas i de A1 y A2 , entonces
detpAq “ a11 p´1q1`1 detpM11 q`¨ ¨ ¨`ai1 p´1q1`i detpMi1 q`¨ ¨ ¨`a1n p´1q1`n detpM1n q “
Proposición 1.4.4 Si una matriz cuadrada tiene dos filas consecutivas iguales, su
determinante vale cero. Como consecuencia de esto, si se intercambian dos filas
de una matriz cuadrada A, su determinante cambia de signo.
Demostración. Veamos en primer lugar que, si una matriz cuadrada tiene dos
filas consecutivas iguales, su determinante vale cero. Lo haremos otra vez por
inducción sobre el número de filas n. Para n “ 2 es evidente. Supongamos que
es cierto para n ´ 1 y probémoslo para n. Si las filas consecutivas son la fila i y
la fila i ` 1, tenemos que:
y, como Mi1 “ Mi`1,1 , se obtiene que Ai1 “ ´Ai`1,1 y esto implica que detpAq “
0.
ˇ¨ ˛ˇ ˇ ¨ ˛ˇ ˇ¨ ˛ˇ ˇ ¨ ˛ˇ
ˇ
ˇ A1 ˇ ˇ
ˇ ˇ A1 ˇ ˇ
ˇ ˇ A1 ˇ ˇ
ˇ ˇ A1 ˇ
ˇ
ˇ˚
ˇ˚ ... ‹ˇ ˇ ˚
‹ˇ ˇ ˚ ... ‹ˇ ˇ˚
‹ˇ ˇ˚ ... ‹ˇ ˇ ˚ . . .
‹ˇ ˇ ˚
‹ˇ
‹ˇ
ˇ˚
ˇ˚ Ai ‹ˇ ˇ ˚
‹ˇ ` ˇ ˚ Ai ‹ˇ ˇ˚
‹ˇ ` ˇ˚ Ai`1 ‹ˇ ˇ˚ Ai`1
‹ˇ ` ˇ ˚
‹ˇ
‹ˇ “
ˇ˚
ˇ˚ Ai ‹ˇ ˇ ˚
‹ˇ ˇ ˚ Ai`1 ‹ˇ ˇ˚
‹ˇ ˇ˚ Ai ‹ˇ ˇ˚ Ai`1
‹ˇ ˇ ˚
‹ˇ
‹ˇ
ˇ˝
ˇ ... ‚ˇ ˇ˝
ˇ ˇ ... ‚ˇ ˇ˝
ˇ ˇ ... ‚ˇ ˇ˝ . . .
ˇ ˇ
‚ˇ
ˇ
ˇ An ˇ ˇ An ˇ ˇ An ˇ ˇ An ˇ
42CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES
ˇ¨ ˛ˇ ˇ ¨ ˛ˇ
ˇ
ˇ A1 ˇ ˇ
ˇ ˇ A1 ˇ
ˇ
ˇ˚
ˇ˚ ... ‹ˇ ˇ ˚
‹ˇ ˇ ˚ ... ‹ˇ
‹ˇ
ˇ˚
ˇ˚ Ai ‹ˇ ˇ ˚
‹ˇ ` ˇ ˚ Ai`1 ‹ˇ
‹ˇ .
ˇ˚
ˇ˚ Ai`1 ‹ˇ ˇ ˚
‹ˇ ˇ ˚ Ai ‹ˇ
‹ˇ
ˇ˝
ˇ ... ‚ˇ ˇ˝
ˇ ˇ ... ‚ˇ
ˇ
ˇ An ˇ ˇ An ˇ
Por lo tanto, ˇ¨ ˛ˇ ˇ¨ ˛ˇ
ˇ
ˇ A1 ˇ
ˇ
ˇ
ˇ A1 ˇ
ˇ
ˇ˚
ˇ˚ ... ‹ˇ
‹ˇ
ˇ˚
ˇ˚ ... ‹ˇ
‹ˇ
ˇ˚
ˇ˚ Ai ‹ˇ ˇ˚
‹ˇ “ ´ ˇ ˚ Ai`1 ‹ˇ
‹ˇ .
ˇ˚
ˇ˚ Ai`1 ‹ˇ
‹ˇ
ˇ˚
ˇ˚ Ai ‹ˇ
‹ˇ
ˇ˝
ˇ ... ‚ˇ
ˇ
ˇ˝
ˇ ... ‚ˇ
ˇ
ˇ An ˇ ˇ An ˇ
\
[
Proposición 1.4.5 Si una matriz cuadrada tiene dos filas iguales, su determinante
vale cero.
\
[
Proposición 1.4.6 Si una matriz cuadrada tiene una fila de ceros su determinante
es nulo.
detpAq “ 0. \
[
Proposición 1.4.7 Si se multiplica una fila de una matriz cuadrada A por un escalar,
el determinante queda multiplicado por ese escalar.
\
[
Demostración. Aplicando que una matriz con dos filas iguales tiene determi-
nante nulo y las Proposiciones 1.4.3 y 1.4.7, se tiene que
ˇ¨ ˛ˇ ˇ ¨ ˛ˇ ˇ¨ ˛ˇ
ˇ
ˇ A1 ˇ ˇ A1 ˇ
ˇ ˇ ˇ
ˇ A1 ˇ
ˇ ˇ
ˇ˚
ˇ˚ ... ‹ˇ ˇ ˚ . . . ‹ ˇ
‹ˇ ˇ ˚ ‹ˇ
ˇ ˚ . . . ‹ˇ
ˇ˚ ‹ˇ
ˇ˚
ˇ˚ Ai ‹ ˇ ˇ ˚ Ai ‹ ˇ
‹ˇ ˇ ˚ ‹ˇ
ˇ ˚ Ai ‹ ˇ
ˇ˚ ‹ˇ
ˇ˚
ˇ˚ ... ‹ˇ “ ˇ˚ . . . ‹ˇ ` α ˇ˚ . . . ‹ˇ “ detpAq.
‹ ˇ ˇ ˚ ‹ ˇ ˇ˚ ‹ˇ
ˇ˚ Aj ` αAi ‹ˇ ˇ˚ Aj ‹ˇ ˇ ˚ Ai ‹ ˇ
ˇ˚ ‹ˇ ˇ ˚ ‹ˇ ˇ˚ ‹ˇ
ˇ˝
ˇ ... ‚ˇ ˇ˝ . . . ‚ˇ
ˇ ˇ ˇ
ˇ˝ . . . ‚ˇ
ˇ ˇ
ˇ An ˇ ˇ An ˇ ˇ An ˇ
\
[
44CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES
Fs Fs´1 ¨ ¨ ¨ F1 A “ HA
Así pues,
detpAt q “ detpF1t q ¨ ¨ ¨ detpFr´2
t t
qdetpFr´1 qdetpFrt q “
detpF1 q ¨ ¨ ¨ detpFr´2 qdetpFr´1 qdetpFr q “
detpFr qdetpFr´1 qdetpFr´2 q ¨ ¨ ¨ detpF1 q “ detpAq.
\
[
\
[
1
detpA´1 q “ “ ´1.
´1
48CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES
donde los ai son elementos conocidos del cuerpo que llamaremos coeficientes,
las xi son símbolos que llamaremos incógnitas y b es otro escalar conocido que
llamaremos término independiente. Es importante resaltar que en una ecuación
lineal no pueden aparecer las incógnitas elevadas al cuadrado, ni productos de
incógnitas, ni funciones de tipo trigonométrico o logarítmico.
x2 ` 3y ` 4z “ 6, xyz ` 3t “ 9, senpxq ` 4t ` 5r “ ex
no lo son.
1.5. SISTEMAS HOMOGÉNEOS Y NO HOMOGÉNEOS. 49
Definición 1.5.8 Diremos que dos sistemas de ecuaciones lineales con el mismo
número de incógnitas son equivalentes, si tienen el mismo conjunto de soluciones.
Proposición 1.5.9 Sea P P Mmˆm pRq una matriz inversible. Se tiene que todo
sistema de m ecuaciones lineales con n incógnitas Ax “ b es equivalente a
P Ax “ P b.
Av “ P ´1 P Av “ P ´1 P b “ b.
\
[
Llegados a este punto no tenemos que hacer nada más, ya que se ve claramente
que tenemos una ecuación 0 “ ´26. El sistema es incompatible y rangpAq “
2 ă 3 “ rangpA|bq.
Ejemplo 1.5.15 Por ejemplo, en un caso del ejemplo anterior estudiamos el sistema
$ ¨ ˛¨ ˛ ¨ ˛
& x`y`z “1 1 1 1 x 1
x ` 2y “ 1 ô˝ 1 2 0 ‚˝ y ‚ “ ˝ 1 ‚
x ` 2z “ 1 1 0 2 z 1
%
que resultó ser compatible indeterminado. Tiene como soluciones a los u, tales
que ¨ ˛
1 ´ 2α
u“˝ α ‚, α P R.
α
Si tomamos ¨ ˛
1
v“˝ 0 ‚
0
tenemos que v es una solución del sistema Ax “ b (es una solución particular) y
que $ ¨ ˛ ,
& ´2α .
v ` ˝ α ‚, α P R
α
% -
1.6. ELIMINACIÓN GAUSSIANA. FACTORIZACIÓN LU 57
Definición 1.6.1 Sea A P Mnˆn pRq. Diremos que A admite una factorización LU
si A se puede factorizar como producto de dos matrices L y U donde L es una
matriz triangular inferior con unos en la diagonal principal y U es una matriz
triangular superior.
A “ LU
¨ ˛¨ ˛
1 0 ¨¨¨ 0 0 u11 u12 ¨ ¨ ¨ u1 n´1 unn
˚ l21 1 0 0 ‹
¨¨¨ ‹ ˚ 0 u22 ¨ ¨ ¨ u2 n´1 u2n ‹
˚
. . . . . . . . . ..
˚ ‹
“˚
˚ .. .. .. .. .. ‹ ˚ ..
‹ ˚ .. .. .. .
‹
‹
˚ ‹˚ ‹
˝ ln´1 1 ln´1 2 ¨ ¨ ¨ 1 0 ‚˝ 0 0 ¨ ¨ ¨ un´1 n´1 un´1 n ‚
ln1 ln2 ¨ ¨ ¨ ln n´1 1 0 0 ¨¨¨ 0 unn
Si existe tal descomposición, tenemos que
detpAq “ detpLU q “ detpLqdetpU q “ detpU q “ u11 u22 ¨ ¨ ¨ un´1 n´1 unn .
58CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES
En la primera etapa del método se harán ceros por debajo del primer elemento
de la diagonal principal de A. Para ello distinguimos dos pasos:
Paso II: Se anulan todos los elementos colocados en la primera columna debajo
del que ocupa la primera posición de la diagonal principal.
Paso II: Sea P1 A “ B1 “ pb1ij q. Si debajo del elemento b111 todos los b1i1 son nulos
tomamos E1 “ In . En caso contrario, multiplicamos B1 por la izquierda por las
matrices:
b1j1
Fj1 p´ 1 q j P t2, ¨ ¨ ¨ , nu
b11
para anularlos y tomamos
b1n1 b1 1 b1
E1 “ Fn1 p´ 1 qFn´1 1 p´ n´1
1 q ¨ ¨ ¨ F21 p´ 21 q
b11 b11 b111
1.6. ELIMINACIÓN GAUSSIANA. FACTORIZACIÓN LU 59
Paso II: Se anulan todos los elementos colocados en la columna r-ésima debajo
del que ocupa la posición r de la diagonal principal.
Paso II: Sea Pr Ar´1 “ Br “ pbrij q. Si debajo del elemento brrr todos los brir son
nulos tomamos Er “ In . En caso contrario, multiplicamos Br por la izquierda
por las matrices:
brjr
Fjr p´ q j P tr ` 1, ¨ ¨ ¨ , nu
brrr
brnr br r br 1
Er “ Fnr p´ r
qFn´1 r p´ n´1
r
q ¨ ¨ ¨ Fr`1 r p´ r`1 q
brr brr brrr
n´1
an´1 an´1 an´1 an´1 an´1
¨ ˛
a11 12 ¨¨¨ 1r 1 r`1 ¨¨¨ 1 n´1 1n
˚ 0 an´1
22 ¨¨¨ an´1
2r an´1
2 r`1 ¨¨¨ an´1
2 n´1 an´1
2n
‹
.. .. .. .. .. .. .. ..
˚ ‹
. . . . . . . .
˚ ‹
˚ ‹
˚ ‹
˚ 0 0 ¨¨¨ an´1
rr an´1
r r`1 ¨¨¨ an´1
r n´1 an´1
rn
‹
.. .. .. .. .. .. ..
˚ ‹
˚ ‹
˚ . . . . an´1
r`1 r`1 . . . ‹
.. .. .. .. .. .. ..
˚ ‹
˚ .. ‹
˚
˚ . . . . . . . . ‹
‹
˝ 0 0 ¨¨¨ 0 0 ¨¨¨ an´1
n´1 n´1 an´1
n´1 n
‚
0 0 ¨¨¨ 0 0 ¨¨¨ 0 an´1
nn
es triangular superior. Por lo tanto, si llamamos P “ En´1 Pn´1 ¨ ¨ ¨ E1 P1 , tenemos
que
P A “ U, U “ An´1 .
Paso II: B1 “ P1 A “ A.
Paso II: B2 “ P2 A1 .
Nota 1.6.3 De los tres tipos de matrices de operaciones elementales sólo las matrices
Fij pαq con i ą j son triangulares inferiores con unos en la diagonal principal. Las
matrices Fij no son triangulares inferiores ni superiores y las matrices Fi pαq son
diagonales, pero el elemento colocado en la posición i de la diagonal principal es
α. Por lo tanto, si en el proceso de Gauss no tenemos necesidad de intercambiar
1.6. ELIMINACIÓN GAUSSIANA. FACTORIZACIÓN LU 63
filas o de multiplicar una fila por un escalar no nulo (obviamente también distinto
de uno), la matriz P es igual a
P “ En´1 En´2 ¨ ¨ ¨ E1
0 0 0 1
De esta forma, tenemos que
¨ ˛
1 1 1 1
˚ 0 1 1 1 ‹
U “˚
˝ 0
‹
0 1 1 ‚
0 0 0 1
64CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES
y
P “ F43 p´1qF42 p´1qF32 p´1qF41 p´1qF31 p´1qF21 p´1q
que es un producto de matrices triangulares inferiores con unos en la diagonal
principal. Nótese que en ningún momento del proceso tuvimos necesidad de
intercambiar dos filas o de multiplicar una fila por un escalar no nulo distinto de
uno.
Entonces
L “ P ´1
“ pF43 p´1qF42 p´1qF32 p´1qF41 p´1qF31 p´1qF21 p´1qq´1 “
F21 p´1q´1 F31 p´1q´1 F41 p´1q´1 F32 p´1q´1 F42 p´1q´1 F43 p´1q´1 “
¨ ˛
1 0 0 0
˚ 1 1 0 0 ‹
F21 p1qF31 p1qF41 p1qF32 p1qF42 p1qF43 p1q “ ˚
˝ 1 1 1 0 ‚
‹
1 1 1 1
si sale una matriz triangular inferior con unos en la diagonal principal tal que
A “ LU.
Teorema 1.6.5 Sea A “ paij q P Mnˆn pRq y supongamos que sus submatrices diago-
nales ¨ ˛
a11 ¨ ¨ ¨ a1r
Apr, rq “ ˝
˚ .. . . .. ‹
. . . ‚
ar1 ¨¨¨ arr
son inversibles para todo r P t1, ¨ ¨ ¨ , nu. Entonces A admite una única factoriza-
ción LU con L una matriz triangular inferior con unos en la diagonal principal
y U una matriz triangular superior inversible.
Ar “ Er Er´1 ¨ ¨ ¨ E1 A
66CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES
ar1 ;1 ar1 2 ar1 r ar1 r`1 ar1 r`2 ar1 n´1 ar1n
¨ ˛
¨¨¨ | ¨¨¨
˚ 0 ar2 2 ¨¨¨ ar2 r ar2 r`1 | ar2 r`2 ¨¨¨ ar2 n´1 ar2 n ‹
.. .. .. .. .. .. .. .. ..
˚ ‹
. . . . . . . . .
˚ ‹
˚
˚ | ‹
‹
˚ 0
˚ 0 ¨¨¨ arr r arr r`1 | arr r`2 ¨¨¨ arr n´1 arr n ‹
‹
˚ 0
˚ 0 ¨¨¨ 0 arr`1 r`1 | arr`1 r`2 ¨¨¨ arr`1 n´1 arr`1 n ‹
‹“
˚ ´ ´ ´ ´ ´ ´ ´ ´ ´ ´ ‹
˚ ‹
˚ 0 0 ¨¨¨ 0 arr`2 r`1 | arr`2 r`2 ¨¨¨ arr`2 n´1 arr`2 n ‹
˚ .. .. .. .. .. .. .. .. ..
˚ ‹
. .
‹
˚ . . . . | . . . ‹
˚ ‹
˝ 0 0 ¨¨¨ 0 arn´1 r`1 | arn´1,r`2 ¨¨¨ arn´1 n´1 arn´1 n ‚
0 0 ¨¨¨ 0 arn r`1 | arn,r`2 ¨¨¨ arn n´1 arn n
¨ ˛
1 0 ¨¨¨ 0 0 | 0 ¨¨¨ 0 0
˚ c2 1 1 ¨¨¨ 0 0 | 0 ¨¨¨ 0 0 ‹
.. .. .. .. .. .. .. .. ..
˚ ‹
. . . . . . . . .
˚ ‹
˚
˚ | ‹
‹
˚ cr 1 cr 2 ¨¨¨ 1 0 | 0 ¨¨¨ 0 0 ‹
˚ ‹
˚ cr`1 1 cr`1 2 ¨¨¨ cr`1 r 1 | 0 ¨¨¨ 0 0 ‹
˚ ‹ˆ
˚ ´ ´ ´ ´ ´ | ´ ´ ´ ´ ‹
˚ ‹
˚ cr`2 1 cr`2 2 ¨¨¨ cr`2 r cr`2;r`1 | 1 ¨¨¨ 0 0 ‹
.. .. .. .. .. .. .. .. ..
˚ ‹
. .
˚ ‹
˚
˚ . . . . | . . . ‹
‹
˝ cn`1 1 cn`1 2 ¨¨¨ cn´1 r cn´1 r`1 | cn´1 r`2 ¨¨¨ 1 0 ‚
cn 1 cn 2 ¨¨¨ cnr cn r`1 | cn r`2 ¨¨¨ cn n´1 1
¨ ˛
a1 1 a1 2 ¨¨¨ a1 r a1 r`1 | a1 r`2 ¨¨¨ a1 n´1 a1 n
˚
˚ a2 1 a2 2 ¨¨¨ a2 r a2 r`1 | a2 r`2 ¨¨¨ a2 n´1 a2 n ‹
‹
˚ ar 1 ar 2 ¨¨¨ ar r ar r`1 | ar r`2 ¨¨¨ ar n´1 ar n ‹
.. .. .. .. .. .. .. .. ..
˚ ‹
. . . . . . . . .
˚ ‹
˚
˚ | ‹
‹
˚ ar 1 ar 2 ¨¨¨ ar r ar r`1 | ar r`2 ¨¨¨ ar n´1 ar n ‹
˚ ‹
˚ ´ ´ ´ ´ ´ ´ ´ ´ ´ ´ ‹
˚ ‹
˚ ar`1 1 ar`1 2 ¨¨¨ ar`1 r ar`1 r`1 | ar`1 r`2 ¨¨¨ ar`1 n´1 ar`1 n ‹
.. .. .. .. .. .. .. .. ..
˚ ‹
. .
˚ ‹
˚
˚ . . . . | . . . ‹
‹
˝ an´1 1 an´1 2 ¨¨¨ an´1 r an´1 r`1 | an´1 r`2 ¨¨¨ an´1 n´1 an´1 n ‚
an 1 an 2 ¨¨¨ an r an r`1 | an r`2 ¨¨¨ an n´1 an n
1.6. ELIMINACIÓN GAUSSIANA. FACTORIZACIÓN LU 67
y, por lo tanto, ¨ ˛
ar1 1 ar1 2 ¨¨¨ ar1 r a1 r`1
˚ 0 ar2 2 ¨¨¨ ar2 r ar2 r`1 ‹
.. .. .. .. ..
˚ ‹
.
˚ ‹
˚
˚ . . . . ‹“
‹
˝ 0 0 ¨ ¨ ¨ arr r arr r`1 ‚
0 0 ¨¨¨ 0 ar`1 r`1
¨ ˛¨ ˛
1 0 ¨¨¨ 0 0 a1 1 a1 2 ¨¨¨ a1 r a1 r`1
˚ c2 1 1 ¨¨¨ 0 0 ‹˚ a 2 1 a 22 ¨¨¨ a2 r a2 r`1 ‹
.. .. .. .. .. .. .. .. .. ..
˚ ‹˚ ‹
. .
˚ ‹˚ ‹
˚
˚ . . . . ‹˚
‹˚ . . . . ‹
‹
˝ cr 1 cr 2 ¨¨¨ 1 0 ‚˝ ar 1 ar 2 ¨¨¨ ar r ar r`1 ‚
cr`1 1 cr`1 2 ¨¨¨ cr`1 r 1 ar`1 1 ar`1 2 ¨¨¨ ar`1 r ar`1 r`1
Aplicando determinantes a la anterior igualdad, obtenemos que
ˇ r ˇ
ˇ a1 1 ar1 2 ¨ ¨ ¨ ar1 r a1 r`1 ˇˇ
ˇ
ˇ 0 ar2 2 ¨ ¨ ¨ ar2 r ar2 r`1 ˇˇ
.. .. . . .. .. ˇ “
ˇ
.
ˇ
ˇ
ˇ . . . . ˇˇ
r r
ˇ
ˇ 0 0 ¨ ¨ ¨ a rr a r r`1 ˇ
ˇ
ˇ 0 0 ¨¨¨ 0 ar`1 r`1 ˇ
ˇ ˇˇ ˇ
ˇ
ˇ 1 0 ¨¨¨ 0 0 ˇˇ ˇˇ a1 1 a1 2 ¨ ¨ ¨ a1 r a1 r`1 ˇ
ˇ
ˇ c21 1 ¨ ¨ ¨ 0 0 ˇ ˇ a 21 a 22 ¨ ¨ ¨ a2r a2 r`1
ˇ
.. .. . . .. .. ˇ ˇ .. .. . . .. ..
ˇ ˇˇ ˇ
. .
ˇ ˇ
ˇ
ˇ . . . . ˇˇ ˇ ˇ . . . . ˇ
ˇ
ˇ
ˇ c r 1 cr 2 ¨ ¨ ¨ 1 0 ˇˇ
ˇˇ a r 1 a r 2 ¨ ¨ ¨ a r r a r r`1
ˇ
ˇ
ˇ cr`1 1 cr`1 2 ¨ ¨ ¨ cr`1 r 1 ˇ ˇ ar`1 1 ar`1 2 ¨ ¨ ¨ ar`1 r ar`1 r`1 ˇ
y, entonces,
ar1 1 ar2 2 ¨ ¨ ¨ arr r arr`1 r`1 ‰ 0
ya que por hipótesis la submatriz diagonal Apr, rq es inversible. Lo verdadera-
mente importante de que el producto anterior sea no nulo es que esto implica
que
arr`1 r`1 ‰ 0
y, entonces, no tenemos necesidad de intercambiar filas en la etapa r ` 1 del
método de Gauss.
L´1 ´1
2 L1 “ U2 U1 .
Ahora bien, como L´12 L1 es triangular inferior con unos en la diagonal principal
y U2 U1´1 es triangular superior inversible, tenemos que
L´1 ´1
2 L1 “ U2 U1 “ In
o, lo que es lo mismo,
L1 “ L2 , U1 “ U2 .
\
[
y
P “ F43 p´2qF42 p2qF41 p1qF31 p1qF21 p´2q
es un producto de matrices triangulares inferiores con unos en la diagonal
principal. Nótese que en ningún momento del proceso tuvimos necesidad de
intercambiar dos filas o de multiplicar una fila por un escalar no nulo distinto de
uno, lo que garantiza la existencia y unicidad de una factorización LU como la
citada en el teorema anterior.
Entonces,
L “ P ´1 “
pF43 p´2qF42 p2qF41 p1qF31 p1qF21 p´2qq´1 “
F21 p´2q´1 F31 p1q´1 F41 p1q´1 F42 p2q´1 F43 p´2q´1 “
¨ ˛
1 0 0 0
˚ 2 1 0 0 ‹
F21 p2qF31 p´1qF41 p´1qF42 p´2qF43 p2q “ ˚ ‹.
˝ ´1 0 1 0 ‚
´1 ´2 2 1
70CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES
Capítulo 2
Espacios vectoriales y
aplicaciones lineales
V ˆV Ñ V , KˆV Ñ V ,
pu, vq ÞÑ u ` v pα, vq ÞÑ α.v
71
72CAPÍTULO 2. ESPACIOS VECTORIALES Y APLICACIONES LINEALES
xn
2.1. ESPACIOS Y SUBESPACIOS VECTORIALES. 73
xn αxn
En este espacio vectorial θKn es el vector que tiene todas sus componentes
nulas. Así pues, Rn es un R-espacio vectorial y Cn es un C-espacio vectorial.
También se cumple que Cn es un R-espacio vectorial.
ppxq “ a0 ` a1 x ` ¨ ¨ ¨ ` an xn ,
se define la suma
En este espacio el vector cero θΠn pKq es el polinomio con todos los coefi-
cientes nulos.
74CAPÍTULO 2. ESPACIOS VECTORIALES Y APLICACIONES LINEALES
1) El vector θV es único.
4) Para todo v P V , 0v “ θV .
5) Si αv “ θV , entonces α “ 0 o v “ θV .
7) Si αv “ αu y α ‰ 0, entonces v “ u.
8) Si αu “ βu y u ‰ θV , entonces α “ β.
son vectores de U y
¨ ˛ ¨ ˛ ¨ ˛
0 1 1
˝ 1 ‚` ˝ 0 ‚ “ ˝ 1 ‚ R U.
0 0 0
4) Tomemos V “ C2 y K “ R.
ˆ ˙
z
El conjunto U “ t P V { Impzq “ Impz 1 qu es un subespacio de V .
z1
5) Tomemos V “ C2 y K “ C.
ˆ ˙
z
El conjunto U “ t P V { Impzq “ Impz 1 qu no es un subespacio de
z1
V , ya que ˆ ˙
1`i
PU
3`i
y ˆ ˙ ˆ ˙
1`i ´1 ` i
i “ R U.
3`i ´1 ` 3i
6) Tomemos V “ R4 y K “ R.
¨ ˛
x
˚ y ‹
El conjunto U “ t˚
˝ z ‚ P V { x ` 3y ` z ` t “ 0u es un subespacio de V .
‹
son elementos de V y A ` B “ I2 R V .
De la misma forma, H “ tA P V { rangpAq “ 1u no es un subespacio
de V , ya que para las matrices anteriores tenemos que rangpA ` Bq “
rangpI2 q “ 2 y rangpAq “ rangpBq “ 1.
El conjunto D “ tA P V { detpAq ‰ 0u tampoco es un subespacio de V ,
ya que θV “ Θ2,2 R D.
2.1. ESPACIOS Y SUBESPACIOS VECTORIALES. 77
α1 v1 ` ¨ ¨ ¨ ` αs vs
Entonces, ¨ ˛ ¨ ˛ ¨ ˛
1 6 ´3
v “ 3 ˝ 6 ‚` p´1q ˝ 4 ‚ “ ˝ 14 ‚
´1 2 ´5
es una combinación lineal vectores de T .
2.1. ESPACIOS Y SUBESPACIOS VECTORIALES. 79
y, equivalentemente, el sistema
¨ ˛ ¨ ˛
1 6 ˆ ˙ 4
˝ 6 4 ‚ x “ ˝ ´1 ‚
y
´1 2 8
tiene solución.
Nota 2.1.14 En primer lugar, debemos aclarar que por subespacio más pequeño de
V que contiene a T entendemos lo siguiente:
se tiene que ă T ą“ R3 .
En este mismo espacio, si tomamos
¨ ˛ ¨ ˛
1 0
S “ te1 “ ˝ 0 ‚, e3 “ ˝ 0 ‚u,
0 1
tenemos que
¨ ˛ ¨ ˛
x x
ă S ą“ t˝ y ‚ P V { ˝ y ‚ “ αe1 ` βe3 , α, β P Ru “
z z
¨ ˛ ¨ ˛ ¨ ˛ ¨ ˛
x x α x
t˝ y ‚ P V { ˝ y ‚ “ ˝ 0 ‚, α, β P Ru “ t˝ y ‚ P V { y “ 0u.
z z β z
3) Tomemos V “ Π3 pRq y K “ R.
Sea el subespacio
U “ tppxq P V { pp1q “ p2 p´1q “ 0u.
Si tomamos un polinomio genérico ppxq de grado menor o igual que tres,
será de la forma
ppxq “ a0 ` a1 x ` a2 x2 ` a3 x3 .
Entonces,
pp1q “ 0 ô a0 ` a1 ` a2 ` a3 “ 0
y
p2 p´1q “ 0 ô 2a2 ´ 6a3 “ 0 ô a2 “ 3a3 .
Esta última igualdad, si la aplicamos en a0 ` a1 ` a2 ` a3 “ 0, implica que
a0 “ ´a1 ´ 4a3 .
Por lo tanto,
ppxq P U ô ppxq “ ´a1 ´4a3 `a1 x`3a3 x2 `a3 x3 “ a1 p´1`xq`a3 p´4`3x2 `x3 q
y esto garantiza que
U “ă ´1 ` x, ´4 ` 3x2 ` x3 ą .
α1 v1 ` ¨ ¨ ¨ ` αs vs “ θV ,
se cumple que α1 “ ¨ ¨ ¨ “ αs “ 0.
α1 v1 ` ¨ ¨ ¨ ` αs vs “ θV .
Esto último implica que al menos uno de los vectores de S es combinación lineal
de los restantes.
84CAPÍTULO 2. ESPACIOS VECTORIALES Y APLICACIONES LINEALES
Se tiene que
¨ ˛ ¨ ˛ ¨ ˛ ¨ ˛
1 1 5 0
α1 v1 `α2 v2 `α3 v3 “ θV ô α1 ˝ 2 ‚`α2 ˝ 0 ‚`α3 ˝ 6 ‚ “ ˝ 0 ‚ ô
1 2 7 0
$ ¨ ˛¨ ˛ ¨ ˛
& α1 ` α2 ` 5α3 “ 0 1 1 5 α1 0
2α1 ` 6α3 “ 0 ô ˝ 2 0 6 ‚˝ α2 ‚ “ ˝ 0 ‚
α1 ` 2α2 ` 7α3 “ 0 1 2 7 α3 0
%
α1 A1 ` α2 A2 ` α3 A3 ` α4 A4 “ θV ô
2.2. INDEPENDENCIA LINEAL. BASES Y DIMENSIÓN 85
ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙
1 0 1 1 1 1 1 1 0 0
α1 `α2 `α3 `α4 “ ô
0 0 0 0 1 0 1 1 0 0
$ ¨ ˛¨ ˛ ¨ ˛
’
’ α1 ` α2 ` α3 ` α4 “ 0 1 1 1 1 α1 0
α2 ` α3 ` α4 “ 0 ˚ 0 1 1 1 ‹ ˚ α2 ‹ ˚ 0 ‹
&
ô˚ ‹˚ ‹“˚ ‹.
’
’ α3 ` α4 “ 0 ˝ 0 0 1 1 ‚˝ α3 ‚ ˝ 0 ‚
α4 “ 0 0 0 0 1 α4 0
%
Como la matriz ¨ ˛
1 1 1 1
˚ 0 1 1 1 ‹
A“˚
˝ 0
‹
0 1 1 ‚
0 0 0 1
del sistema anterior tiene rango máximo, este resulta compatible determi-
nado y, como consecuencia, S es libre.
Tomemos la matriz ¨ ˛
1 0 1
˚ ´1
˚ 2 3 ‹
‹
˝ 0 1 2 ‚
1 1 3
y hagamos operaciones elementales para calcular su rango. Se tiene que
¨ ˛ ¨ ˛ ¨ ˛
1 0 1 1 0 1 1 0 1
˚ ´1 2 3 ‹ F41 p´1q, F21 p1q ˚ 0 2 4 ‹ F23 ˚ 0 1 2 ‹
A“˚ ˝ 0 1 2 ‚
‹ ùñ ˚
˝ 0 1
‹ ùñ ˚ ‹
2 ‚ ˝ 0 2 4 ‚
1 1 3 0 1 2 0 1 2
¨ ˛
1 0 1
F42 p´1q, F32 p´2q ˚ 0 1 2 ‹
ùñ ˚
˝ 0 0
‹
0 ‚
0 0 0
y esto implica que rangpAq “ 2. Así pues, el sistema de vectores T tiene rango
dos.
Nota 2.2.10 A partir de este momento todos los espacios vectoriales serán de tipo
finito. Así pues, cuando escribamos sea V un K espacio vectorial estaremos
entendiendo que V es un K-espacio vectorial de tipo finito.
88CAPÍTULO 2. ESPACIOS VECTORIALES Y APLICACIONES LINEALES
\
[
B “ t1, x, ¨ ¨ ¨ , xn u.
2.2. INDEPENDENCIA LINEAL. BASES Y DIMENSIÓN 89
x1 u1 ` ¨ ¨ ¨ ` xp up “ θV .
Por lo tanto,
n
ÿ n
ÿ
x1 αi1 ei ` ¨ ¨ ¨ ` xp αip ei “ θV ,
i“1 i“1
y, equivalentemente,
p
ÿ p
ÿ
p α1j xj qe1 ` ¨ ¨ ¨ ` p αnj xj qen “ θV .
i“1 i“1
Por otro lado, como B es libre, todos los coeficientes de la igualdad anterior
deben ser nulos. Esto implica que
p
ÿ p
ÿ
α1j xj “ ¨ ¨ ¨ “ αnj xj “ 0
i“1 i“1
90CAPÍTULO 2. ESPACIOS VECTORIALES Y APLICACIONES LINEALES
y también $
& α11 x1 ` ¨ ¨ ¨ ` α1p xp “ 0
’
.. .. .. ..
’ . . . .
αn1 x1 ` ¨ ¨ ¨ ` αnp xp “ 0
%
x1 u1 ` ¨ ¨ ¨ ` xp up “ θV .
Como por el corolario anterior sabemos que todas las bases de V tienen el mismo
número de elementos, la dimensión de V está bien definida y resulta ser un
invariante de V . Si V “ tθV u se define su dimensión como dimK pV q “ 0.
1) Si V “ R y K “ R, dimK pV q “ 1.
2) Si V “ C y K “ C, dimK pV q “ 1.
3) Si V “ C y K “ R, dimK pV q “ 2.
4) Si V “ Kn , dimK pV q “ n.
5) Si V “ Mmˆn pKq, dimK pV q “ mn.
6) Si V “ Πn pKq, dimK pV q “ n ` 1.
7) Si V “ R3 , K “ R, y
¨ ˛
x
U “ t˝ y ‚ P V { y “ 0u,
z
dimK pU q “ 2.
8) Sea A P Mmˆn pKq y U es subespacio de Kn dado por las soluciones del
sistema homogéneo Ax “ θKn , esto es
¨ ˛ ¨ ˛ ¨ ˛
x1 x1 0
U “ t˝ ... ‚ P Kn { A ˝ .. ‹ “ ˚ .. ‹u
˚ ‹ ˚
. ‚ ˝ . ‚
xn xn 0
Entonces,
dimK pU q “ n ´ rangpAq.
Por ejemplo, si U es el subespacio de R3 dado por
¨ ˛ ¨ ˛
x ˆ ˙ x ˆ ˙
3 1 1 1 ˝ 0
U “t y PR {
˝ ‚ y “‚ u,
1 1 2 0
z z
como rangpAq “ 2, se tiene que
dimR pU q “ 3 ´ rangpAq “ 3 ´ 2 “ 1.
xn
tal que v “ x1 e1 ` ¨ ¨ ¨ ` xn en .
xn
2.3. SISTEMAS DE COORDENADAS. CAMBIO DE BASE 93
tal que v “ x1 e1 ` ¨ ¨ ¨ ` xn en .
v “ x1 e1 ` ¨ ¨ ¨ ` xn en .
qpxq “ y1 p1 pxq`y2 p2 pxq`y3 p3 pxq ô 1`2x`3x2 “ py1 `y2 `y3 q`py1 `y2 qx`y1 x2
y, equivalentemente, $
& y1 ` y2 ` y3 “ 1
y1 ` y2 “ 2
y1 “ 3
%
obtenemos que ¨ ˛
1
qpxqC “ ˝ 2 ‚ P R3 .
3
Así pues si se varía la base, las coordenadas pueden cambiar.
94CAPÍTULO 2. ESPACIOS VECTORIALES Y APLICACIONES LINEALES
2) Sea V “ Rn y
Cn “ te1 , ¨ ¨ ¨ , en u
Para finalizar esta parte hablaremos del cambio de base. Supongamos que
B “ te1 , ¨ ¨ ¨ , en u, D “ tu1 , ¨ ¨ ¨ , un u
xn zn
n
ÿ n
ÿ
p a1j xj qu1 ` ¨ ¨ ¨ ` p anj xj qun .
j“1 j“1
2.3. SISTEMAS DE COORDENADAS. CAMBIO DE BASE 95
Por lo tanto,
$ n
’ ÿ
’
’
’
’ z1 “ a1j xj “ a11 x1 ` ¨ ¨ ¨ ` a1n xn
’
’ j“1
.. .. .. ..
&
’ . . . .
’
’ n
ÿ
’
% zn “ anj xj “ an1 x1 ` ¨ ¨ ¨ ` ann xn
’
’
’
j“1
y, equivalentemente,
¨ ˛ ¨ ˛¨ ˛
z1 a11 ¨ ¨ ¨ a1n x1
˚ .. ‹ ˚ .. . . .. ‹ ˚ .. ‹ .
˝ . ‚“ ˝ . . . ‚˝ . ‚
zn an1 ¨ ¨ ¨ ann xn
Así pues, vD “ PB,D vB siendo
¨ ˛
a11 ¨¨¨ a1n
.. .. .. ‹
PB,D .
˚
“˝ . . ‚
an1 ¨¨¨ ann
la matriz de cambio de base de B a D. Nótese que las columnas de esta matriz
son los vectores de coordenadas en la base D de los vectores de la base B, esto
es: ` ˘
PB,D “ e1D | ¨ ¨ ¨ | enD .
Esta matriz es inversible y su inversa es la matriz PD,B de cambio de base
de D a B. Finalmente, nótese que, si V “ Kn y D “ Cn , para toda base
B “ te1 , ¨ ¨ ¨ , en u, se tiene que
` ˘
PB,Cn “ e1 | ¨ ¨ ¨ | en .
Así pues, en este caso, las columnas de la matriz de cambio de base son los
propios vectores de B, ya que ejCn “ ej .
En primer lugar debemos obtener los vectores de coordenadas e1D , e2D , e3D y
e4D . Para ello, resolvemos las ecuaciones
ej “ x1 u1 ` x2 u2 ` x3 u3 ` x4 u4 , j P t1, 2, 3, 4u
Equivalentemente, debemos resolver los cuatro sistemas:
$ $
’
’ x4 “ 1 ’
’ x4 “ 1
x3 ` x4 “ 1 x3 ` x4 “ 1
& &
’
’ x 2 ` x 3 ` x 4 “ 1 ’
’ x 2 ` x3 ` x4 “ 1
x1 ` x2 ` x3 ` x4 “ 1 x1 ` x2 ` x3 ` x4 “ 0
% %
$ $
’ x4 “ 1
’ ’
’ x4 “ 1
x3 ` x4 “ 1 x3 ` x4 “ 0
& &
’
’ x 2 ` x 3 ` x 4 “ 0 ’
’ x 2 ` x3 ` x4 “ 0
x1 ` x2 ` x3 ` x4 “ 0 x1 ` x2 ` x3 ` x4 “ 0
% %
f A : Kn Ñ Km
definida por ¨ ˛ ¨ ˛
x1 x1
fA ˝ ... ‚ “ A ˝ .. ‹ .
˚ ‹ ˚
. ‚
xn xn
Entonces fA es una aplicación lineal ya que
¨¨ ˛ ¨ ˛˛ ¨¨ ˛ ¨ ˛˛ ¨ ˛ ¨ ˛
x1 y1 x1 y1 x1 y1
fA ˝˝ ... ‚` ˝ ... ‚‚ “ A ˝˝ ... ‚` ˝ .. ‹‹ “ A ˚ .. ‹`A ˚ .. ‹ “
˚˚ ‹ ˚ ‹‹ ˚˚ ‹ ˚
. ‚‚ ˝ . ‚ ˝ . ‚
xn yn xn yn xn yn
¨ ˛ ¨ ˛
x1 y1
fA ˝ ... ‚` fA ˝ .. ‹
˚ ‹ ˚
. ‚
xn yn
y
¨ ¨ ˛˛ ¨ ¨ ˛˛ ¨ ˛ ¨ ˛
x1 x1 x1 x1
fA ˝α ˝ ... ‚‚ “ A ˝α ˝ .. ‹‹ “ αA ˚ .. ‹ “ αf ˚ .. ‹ .
˚ ˚ ‹‹ ˚ ˚
. ‚‚ ˝ . ‚ A˝ . ‚
xn xn xn xn
es lineal.
2.4. APLICACIONES LINEALES. MATRIZ ASOCIADA. NÚCLEO Y RANGO99
Nota 2.4.3 Como se puede comprobar de forma fácil, las dos condiciones dadas en
la definición de aplicación lineal equivalen a
f pαu ` βvq “ αf puq ` βf pvq, @ α, β P K, u, v P V.
Obsérvese que como consecuencia se tiene que
r
ÿ r
ÿ
fp αi vi q “ αi f pvi q
i“1 i“1
r
ÿ
para toda combinación lineal αi vi de vectores de V .
i“1
1. f pθV q “ θW .
2. f p´vq “ ´f pvq.
3. Si U es un subespacio de V , se tiene que
f pU q “ tf puq { u P U u
es un subespacio de W .
4. Si f : V Ñ W y g : W Ñ X son aplicaciones lineales, su composición
g ˝ f : V Ñ X también es lineal.
Por otro lado, si existiese una aplicación lineal g : V Ñ W tal que gpei q “ wi ,
r
ÿ
i P t1, ¨ ¨ ¨ , nu, para todo vector u “ xi ei P V se verifica que
i“1
n
ÿ n
ÿ n
ÿ
f puq “ xi wi “ xi gpei q “ gp xi ei q “ gpuq
i“1 i“1 i“1
y, por lo tanto, f “ g. \
[
Entonces, la única aplicación lineal tal que f pei q “ wi para i P t1, 2, 3, 4u está
dada por:
¨ ˛
x
˚ y ‹
f˚˝ z ‚ “ f pxe1 ` ye2 ` ze3 ` te4 q “ xw1 ` yw2 ` zw3 ` tw4 “
‹
t
¨ ˛ ¨ ˛ ¨ ˛ ¨ ˛ ¨ ˛
x y 0 0 x`y
˝ x ‚` ˝ y ‚` ˝ 0 ‚` ˝ t ‚ “ ˝ x ` y ` t ‚.
x y z 0 x`y`z
2.4.7 Anteriormente vimos que toda matriz A “ paij q P Mmˆn pKq determina
una aplicación lineal fA : Kn Ñ Km definida por
¨ ˛ ¨ ˛
x1 x1
fA ˝ ... ‚ “ A ˝ ... ‚.
˚ ‹ ˚ ‹
xn xn
amj
f pvqD “ M pf qB,D vB
y, entonces, ¨ ˛
a1j
f pej qD “ ˝ ... ‚.
˚ ‹
amj
Por otro lado, como B es una base de V , podemos escribir el vector v como
v “ x1 e1 ` ¨ ¨ ¨ ` xn en y aplicando f se obtiene la siguiente igualdad:
f pvqD “ M pf qB,D vB .
\
[
104CAPÍTULO 2. ESPACIOS VECTORIALES Y APLICACIONES LINEALES
1
el vector de coordenadas de f pvq en la base D es
¨ ˛
¨ ˛ 1 ¨ ˛
1 1 1 0 ˚ 3
1 ‹
f pvqD “ ˝ 0 0 ´1 1 ‚˚˝ 1
‹“˝
‚ 0 ‚.
0 0 0 ´1 ´1
1
106CAPÍTULO 2. ESPACIOS VECTORIALES Y APLICACIONES LINEALES
Entonces, ¨ ˛
1 ¨ ˛
˚ 1 ‹ 2
f˚ ‹ “ 3w1 ´ w3 “ ˝ 3 ‚.
˝ 1 ‚
3
1
M pf qB2 ,D2 “ M pidW ˝ f ˝ idV qB2 ,D2 “ M pidW ˝ f qB1 D2 M pidV qB2 B1 “
Así pues, dos matrices asociadas a la misma aplicación lineal son equivalentes y
de esto se deduce, aplicando el Teorema 1.2.21, que tienen el mismo rango:
rangpM pf qB1 ,D1 q “ rangpM pf qB2 ,D2 q.
Inversamente, si dos matrices A, B P Mmˆn pKq son equivalentes, existen matrices
P P Mmˆm pKq y Q P Mnˆn pKq inversibles tales que P AQ “ B. Como Q es
inversible, sus columnas forman una base B2 de Kn y, análogamente, las columnas
de P ´1 forman una base D2 de Km . Sea la aplicación lineal
fA : Kn Ñ Km .
Se tiene que:
es conmutativo y, entonces,
M pfA qB2 ,D2 “ PCm D2 M pfA qCn ,Cm PB2 Cn “
108CAPÍTULO 2. ESPACIOS VECTORIALES Y APLICACIONES LINEALES
´1
PD2 Cm
M pfA qCn ,Cm PB2 Cn “ pP ´1 q´1 AQ “ P AQ “ B.
Como consecuencia de estos hechos podemos enunciar el siguiente teorema.
Teorema 2.4.14 Dos matrices son equivalentes, si, y sólo si, son matrices asociadas
a una misma aplicación lineal.
Kerpf q “ tv P V { f pvq “ θW u,
Impf q “ f pV q.
Con esta definición ya obtenemos que Impf q es un subespacio de W sin más que
aplicar el apartado tercero de la Proposición 2.4.4. De hecho la imagen de f está
dada por
Impf q “ tf pvq { v P V u.
Por otro lado, el núcleo también es un subespacio, ya que, si u, v P Kerpf q, se
tiene que
f pαu ` βvq “ αf puq ` βf pvq “ αθW ` βθW “ θW
y, lo que es lo mismo, αu ` βv P Kerpf q.
¨ ˛ ¨ ˛
x x
˚ y ‹ ˚ x ` y ‹
f˚
˝ z ‚“ ˝
‹ ˚ ‹.
x`y ‚
t x`y`z`t
Tenemos que
¨ ˛ ¨ ˛ $
x 0 x“0 $
& x“0
’
’
˚ y ‹ ˚ 0 ‹ &
x`y “0
f˚
˝ z ‚“ ˝ 0
‹ ˚ ‹ô
‚ ’ x`y “0 ô y“0
t “ ´z
’ %
t 0 x`y`z`t“0
%
2.4. APLICACIONES LINEALES. MATRIZ ASOCIADA. NÚCLEO Y RANGO109
y, equivalentemente,
¨ ˛
x $
˚ y ‹ & x“0
˚ ‹ P Kerpf q ô
˝ z ‚ y“0 .
t “ ´z
%
t
Así pues,
¨ ˛ ¨ ˛ ¨ ˛
0 0 0
˚ 0 ‹
˚ 0 ‹ P R4 { z P Ru “ă ˚ 0 ‹ ą .
4
˚ ‹ ˚ ‹
Kerpf q “ t˚
˝ z ‚ P R { z P Ru “ tz ˝ 1
‹
‚ ˝ 1 ‚
´z ´1 ´1
dimR pImpf qq “ 3.
D α1 , ¨ ¨ ¨ , αp P K { α1 e1 ` ¨ ¨ ¨ ` αp ep “ αp`1 ep`1 ` ¨ ¨ ¨ ` αn en ô
α1 e1 ` ¨ ¨ ¨ ` αp ep ´ αp`1 ep`1 ´ ¨ ¨ ¨ ´ αn en “ θV .
Como B es base, α1 “ ¨ ¨ ¨ “ αp “ αp`1 “ ¨ ¨ ¨ “ αn “ 0. Así pues, I es libre.
v “ α1 e1 ` ¨ ¨ ¨ ` αp ep ` αp`1 ep`1 ` ¨ ¨ ¨ ` αn en .
Entonces,
f ´1 pwq “ v ô w “ f pvq.
e
In “ M pidW qD,D “ M pf ˝ f ´1 qD,D “ M pf qB,D M pf ´1 qD,B .
Así pues, M pf qB,D es inversible y
M pf q´1
B,D “ M pf
´1
qD,B .
coordB : V Ñ Kn
dada por
coordB pvq “ vB .
Esta aplicación es monomorfismo y epimorfismo. Por lo tanto, es un isomorfismo
cuya inversa es
n
coord´1
B :K ÑV
¨ ˛
x1
´1 ˚ .. ‹
coordB ˝ . ‚ “ x1 e1 ` ¨ ¨ ¨ ` xn en .
xn
Como todas las matrices asociadas a una misma aplicación lineal tienen el
mismo rango por ser equivalentes, podemos enunciar el siguiente resultado cuya
demostración se encuentra en las lineas que preceden a este párrafo.
Teorema 2.4.24 Sea f : V Ñ W una aplicación lineal entre dos K-espacios vectoria-
les. Se tiene que la dimensión de la imagen de f es igual al rango de cualquiera
de sus matrices asociadas.
U “ KerpfA q
es equivalente a
dimK pU q “ n ´ rangpAq.
Capítulo 3
Autovalores y autovectores
Av “ λv.
λ1 v “ Av “ λ2 v,
115
116 CAPÍTULO 3. AUTOVALORES Y AUTOVECTORES
Teorema 3.1.3 Para toda matriz A P Mnˆn pKq el conjunto SppAq coincide con las
raíces de pA pxq. Dicho de otra forma, los autovalores de A coinciden con las
raíces de su polinomio característico.
Demostración. Si λ P SppAq, existe un v ‰ θKn tal que Av “ λv, o bien, tal que
pA´λIn qv “ θKn . Por lo tanto, v P KerpfA´λIn q, con lo cual, dimK pImpfA´λIn qq “
rangpA ´ λIn q ă n. Entonces se tiene que A ´ λIn no es inversible, o equivalen-
temente, detpA ´ λIn q “ 0. Así pues, λ es una raíz del polinomio característico.
\
[
1
D v ‰ θKn { A´1 v “ v ô λ´1 P SppA´1 q.
λ
\
[
V pλq “ KerpfA´λIn q.
Entonces
¨ ˛ ¨ ˛ ¨ ˛
x1 x1 0
V pλq “ t˝ ... ‚ P Kn { pA ´ λIn q ˝ .. ‹ “ ˚ .. ‹u
˚ ‹ ˚
. ‚ ˝ . ‚
xn xn 0
120 CAPÍTULO 3. AUTOVALORES Y AUTOVECTORES
y
dimK pV pλqq “ n ´ rangpA ´ λIn q.
Cuando los coeficientes de A son todos reales y λ P R, se tiene que V pλq es un
subespacio del R-espacio vectorial Rn .
Se tiene que
ˇ ˇ
ˇ 1´x 3 3 ˇ
ˇ ˇ
pA pxq “ detpA ´ xI3 q “ ˇˇ ´3 ´5 ´ x ´3 ˇ
ˇ
ˇ 3 3 1´x ˇ
ˇ ˇ ˇ ˇ
ˇ 1´x 3 3 ˇ ˇ 1´x 3 0 ˇ
ˇ ˇ ˇ ˇ
“ ˇˇ 0 ´2 ´ x ´2 ´ x ˇˇ ““ ˇˇ 0 ´2 ´ x 0 ˇ
ˇ
ˇ 3 3 1´x ˇ ˇ 3 3 ´2 ´ x ˇ
ˇ ˇ
ˇ 1´x 3 ˇ
“ ´p2 ` xq ˇ
ˇ ˇ “ p2 ` xq2 p1 ´ xq.
0 ´2 ´ x ˇ
Así pues, pA pxq “ p2 ` xq2 p1 ´ xq y esto implica que
SppAq “ t´2, 1u
y
map´2q “ 2, map1q “ 1.
Los subespacios propios se calculan como:
¨ ˛ ¨ ˛ ¨ ˛
x x 0
V p´2q “ t˝ y ‚ P R3 { pA ` 2I3 q ˝ y ‚ “ ˝ 0 ‚u “
z z 0
3.1. AUTOVALORES Y AUTOVECTORES. POLINOMIO CARACTERÍSTICO121
¨ ˛ ¨ ˛¨ ˛ ¨ ˛
x 3 3 3 x 0
t˝ y ‚ P R3 { ˝ ´3 ´3 ´3 ‚˝ y ‚ “ ˝ 0 ‚u “
z 3 3 3 z 0
¨ ˛
x
t˝ y ‚ P R3 { x ` y ` z “ 0u “
z
¨ ˛ ¨ ˛ ¨ ˛
x 1 0
t˝ y ‚ P R3 { x, y P Ru “ă ˝ 0 ‚, ˝ 1 ‚ ą .
´x ´ y ´1 ´1
¨ ˛ ¨ ˛ ¨ ˛
x x 0
V p1q “ t˝ y ‚ P R3 { pA ´ I3 q ˝ y ‚ “ ˝ 0 ‚u “
z z 0
¨ ˛ ¨ ˛¨ ˛ ¨ ˛
x 0 3 3 x 0
t˝ y ‚ P R3 { ˝ ´3 ´6 ´3 ‚˝ y ‚ “ ˝ 0 ‚u “
z 3 3 0 z 0
¨ ˛ ¨ ˛ ¨ ˛
x ´y ´1
t˝ y ‚ P R3 { y`z “ 0 “ x`yu “ t˝ y ‚ P R3 { y P Ru “ă ˝ 1 ‚ ą .
z ´y ´1
Así pues, mgp´2q “ 2 y mgp1q “ 1.
2. Dada la matriz ¨ ˛
0 ´1 ´2
A“˝ 0 0 2 ‚,
1 1 1
en el primer ejemplo de 3.1.5 demostramos que SppAq “ t´1, 1 ´ i, 1 ` iu
ya que pA pxq “ px ` 1qpx ´ p1 ´ iqqpx ´ p1 ` iqq. Si pretendemos calcular
los subespacios propios asociados a todos los autovalores, y no sólo a los
reales, debemos pensar la matriz como matriz compleja.
¨ ˛ ¨ ˛ ¨ ˛
x x 0
V p´1q “ t˝ y ‚ P C3 { pA ` I3 q ˝ y ‚ “ ˝ 0 ‚u “
z z 0
¨ ˛ ¨ ˛¨ ˛ ¨ ˛
x 1 ´1 ´2 x 0
t ˝ y ‚ P C3 { ˝ 0 1 2 ‚˝ y ‚ “ ˝ 0 ‚u “
z 1 1 2 z 0
122 CAPÍTULO 3. AUTOVALORES Y AUTOVECTORES
¨ ˛ $ ¨ ˛
x & x ´ y ´ 2z “ 0 x "
3 3 x“0
t y
˝ ‚ PC { y ` 2z “ 0 u“t y˝ ‚ PC { u“
y “ ´2z
z x`y`z “0 z
%
¨ ˛ ¨ ˛
0 0
t˝ ´2z ‚ P C3 { z P Cu “ă ˝ ´2 ‚ ą .
z 1
¨ ˛ ¨ ˛ ¨ ˛
x x 0
V p1 ´ iq “ t˝ y ‚ P C3 { pA ´ p1 ´ iqI3 q ˝ y ‚ “ ˝ 0 ‚u “
z z 0
¨ ˛ ¨ ˛¨ ˛ ¨ ˛
x ´1 ` i ´1 ´2 x 0
t˝ y ‚ P C 3 { ˝ 0 ´1 ` i 2 ‚˝ y ‚ “ ˝ 0 ‚u “
z 1 1 i z 0
¨ ˛ $
x & p´1 ` iqx ´ y ´ 2z “ 0
t ˝ y ‚ P C3 { p´1 ` iqy ` 2z “ 0 u“
z x ` y ` iz “ 0
%
¨ ˛ ¨ ˛
p´1 ´ 2iqz ´1 ´ 2i
t˝ p1 ` iqz ‚ P C3 { z P Cu “ă ˝ 1 ` i ‚ ą .
z 1
De la misma forma
¨ ˛
´1 ` 2i
V p1 ` iq “ă ˝ 1 ´ i ‚ ą .
1
Definición 3.1.9 Sean A, B P Mnˆn pKq. Se dirá que A y B son matrices semejantes,
si existe una matriz inversible P P Mnˆn pKq tal que
P ´1 AP “ B.
Nota 3.1.11 En la anterior proposición hemos demostrado que, si dos matrices son
semejantes, tienen el mismo polinomio característico, lo que implica que tienen
el mismo espectro. El recíproco no es cierto. Las matrices A “ I2 y
ˆ ˙
1 1
B“
0 1
Nota 3.1.12 Existe una interesante relación entre los autovalores de A y los de
P ´1 AP . Si v es un autovector de A asociado al autovalor λ, se tiene que
Av “ λv ô P ´1 Av “ λP ´1 v ô P ´1 AP P ´1 v “ λP ´1 v.
B “ te1 , ¨ ¨ ¨ , er , er`1 , ¨ ¨ ¨ , en u
124 CAPÍTULO 3. AUTOVALORES Y AUTOVECTORES
de Kn . Entonces, como para i P t1, ¨ ¨ ¨ , ru, fA pei q “ Aei “ λei , se tiene que
¨ ˛
λIr | U
M pfA qB,B “ ˝ ´ ´ ´ ´ ´ ‚
Θn´r,r | Q
Teorema 3.1.14 Para toda matriz A P Mnˆn pKq las condiciones siguientes son
equivalentes:
Entonces, usando que dos matrices semejantes tienen el mismo polinomio caracte-
rístico, obtenemos las igualdades pA pxq “ pT pxq “ pa11 ´xqpa22 ´xq ¨ ¨ ¨ pann ´xq.
y entonces
pA1 pxq “ pλ2 ´ xq ¨ ¨ ¨ pλn ´ xq.
Tomemos ahora
¨ ˛
1 | 0 ¨¨¨ 0
˚
˚ ´ | ´´´ ‹
‹
P “˚
˚ 0 | ‹.
‹
˚ .. ‹
˝ . | P2 ‚
0 |
y además
¨ ˛¨ ˛¨ ˛
1 | 0 ¨¨¨ 0 λ1 | u 1 | 0 ¨¨¨ 0
˚
˚ ´ | ´´´ ‹ ˚
‹˚ ´ | ´´´ ‹˚
‹˚ ´ | ´´´ ‹ ‹
P ´1
P1´1 AP1 P
˚
“˚ 0 | ‹˚ 0 | ‹˚ 0 | ‹
‹“
.. .. ..
‹˚ ‹˚
˚ ‹˚ ‹˚ ‹
˝ . | P2´1 ‚˝ . | A1 ‚˝ . | P2 ‚
0 | 0 | 0 |
3.2. MATRICES DIAGONALIZABLES 127
¨ ˛
λ1 | uP2
˚
˚ ´ | ´´´ ‹
‹
˚ 0 | ‹.
‹
..
˚
˚ ‹
˝ . ´1
| P 2 A1 P 2 ‚
0 |
\
[
Corolario 3.1.15 Toda matriz A P Mnˆn pCq es semejante a una matriz triangular
superior.
P ´1 AP “ D
y, equivalentemente,
AP “ P D.
y ¨ ˛
λ1 0 ¨¨¨ 0
˚ 0 λ2 ¨¨¨ 0 ‹
D“˚ .. .. .. ..
˚ ‹
.
‹
˝ . . . ‚
0 0 ¨¨¨ λn
se tiene que la igualdad AP “ P D es equivalente a
` ˘ ` ˘
Au1 | Au2 | ¨ ¨ ¨ | Aun “ λ1 u1 | λ2 u2 | ¨¨¨ | λn un .
Teorema 3.2.2 Una matriz A P Mnˆn pKq es diagonalizable, si, y sólo si, el K-
espacio vectorial Kn admite una base formada por autovectores.
Para obtener una condición que nos permita verificar de forma fácil cuándo una
matriz es diagonalizable, en primer lugar, probaremos unos resultados técnicos:
3.2. MATRICES DIAGONALIZABLES 129
Proposición 3.2.3 Para toda matriz A P Mnˆn pKq se verifica que autovectores
asociados a autovalores distintos son independientes.
Av1 “ λ1 v1 , ¨ ¨ ¨ , Avr “ λr vr .
α1 v1 ` α2 v2 “ θKn ,
θKn “ pA´λ1 In qθKn “ pA´λ1 In qpα1 v1 `α2 v2 q “ α1 pA´λ1 In qv1 `α2 pA´λ1 In qv2 “
Pongamos
α1 v1 ` α2 v2 ` ¨ ¨ ¨ ` αr vr “ θKn
y multipliquemos por A ´ λr In . Entonces,
Proposición 3.2.5 Para toda matriz A P Mnˆn pKq, si tλ1 , ¨ ¨ ¨ , λr u son sus autova-
lores distintos y Bi es una base de V pλi q, se tiene que el sistema B “ B1 Y¨ ¨ ¨YBr
es libre.
α11 v11 `α21 v21 ` ¨ ¨ ¨ `αs11 vs11 ` ¨ ¨ ¨ ¨ ¨ ¨ `α1r´1 v1r´1 `α2r´1 v2r´1 ` ¨ ¨ ¨ `αsrr´1 vsr´1
r´1
`
s1
ÿ sÿ
r´1 sr
ÿ
αi1 pA ´ λr In qvi1 ` ¨ ¨ ¨ ` αir´1 pA ´ λr In qvir´1 ` αir pA ´ λr In qvir “
i“1 i“1 i“1
s1
ÿ sÿ
r´1 sr
ÿ
αi1 pλ1 ´ λr qvi1 ` ¨ ¨ ¨ ` αir´1 pλr´1 ´ λr qvir´1 ` αir pλr ´ λr qvir “
i“1 i“1 i“1
3.2. MATRICES DIAGONALIZABLES 131
s1
ÿ sÿ
r´1
Teorema 3.2.6 Para toda matriz A P Mnˆn pKq las condiciones siguientes son equi-
valentes:
vectores. Así pues, es una base de Kn . Por lo tanto, tenemos una base de Kn
formada por autovectores y, por lo visto al principio de la sección, A es diagona-
lizable. \
[
Corolario 3.2.7 Toda matriz A P Mnˆn pKq con n autovalores distintos es diagona-
lizable.
3.2. MATRICES DIAGONALIZABLES 133
2. Sea la matriz ¨ ˛
2 0 0 0
˚ 0 1 1 ´1 ‹
A“˚
˝ 0
‹.
´1 2 ´1 ‚
0 0 ´1 2
134 CAPÍTULO 3. AUTOVALORES Y AUTOVECTORES
Su polinomio característico es
4 ´ 2 “ 2 ă 3 “ map2q
y A no es diagonalizable (ni como matriz real, ni como matriz compleja).
3. Tomemos la matriz ¨ ˛
1 1 1 1
˚ 1 1 1 1 ‹
A“˚
˝ 1
‹.
1 1 1 ‚
1 1 1 1
Su polinomio característico es
0 0 0 4
t
¨ ˛ ¨ ˛ ¨ ˛ ¨ ˛
x 1 0 0
˚ y ‹ 4
˚ 0 ‹ ˚ 1
‹ P R { x, y, z P Ru “ă ˚
‹ ˚ 0 ‹
˝ 0 ‚, ˝ 0
‹, ˚
t˚ ‚ ˝ 1 ‚ą .
‹ ˚ ‹
˝ z ‚
´x ´ y ´ z ´1 ´1 ´1
136 CAPÍTULO 3. AUTOVALORES Y AUTOVECTORES
¨ ˛ ¨ ˛ ¨ ˛
x x 0
˚ y ‹ y ‹
‹“˚ 0
4
˚ ˚ ‹
V p4q “ t˚
˝ z ‚ P R { pA ´ 4I4 q ˝
‹ ˚ ‹u “
z ‚ ˝ 0 ‚
t t 0
¨ ˛ ¨ ˛¨ ˛ ¨
˛
x ´3 1 1 1 x 0
˚ y ‹ 4
˚ 1 ´3 1 1 ‹ ˚ y ‹ ˚ 0 ‹
t˚
˝ z ‚P R { ˝ 1
‹ ˚ ‹˚ ‹“˚
‚ ˝ 0 ‚u “
‹
1 ´3 1 ‚˝ z
t 1 1 1 ´3 t 0
¨ ˛
x
˚ y ‹ 4
˝ z ‚ P R { x “ y “ z “ tu “
t˚ ‹
t
¨ ˛ ¨ ˛
x 1
˚ x ‹ 4
˚ 1 ‹
˝ x ‚ P R { x P Ru “ă ˝
t˚ ‹ ˚ ‹ą.
1 ‚
x 1
Así pues,
¨ ˛
1 0 0 1
˚ 0 1 0 1 ‹
P “˚
˝ 0
‹.
0 1 1 ‚
´1 ´1 ´1 1
n´2q
An “ P DP ´1 P DP ´1 ¨ ¨ ¨ P DP ´1 P DP ´1 “ P Dn P ´1
3.3. POLINOMIOS ANULADORES. TEOREMA DE CAYLEY-HAMILTON137
donde ¨ ˛
λn1 0 ¨¨¨ 0
˚ 0 λn2 ¨¨¨ 0 ‹
Dn “ ˚ .. .. .. .. ‹.
˚ ‹
˝ . . . . ‚
0 0 ¨¨¨ λnn
Así pues, SppAn q “ tλn1 , ¨ ¨ ¨ , λnr u y V pλi q “ V pλni q.
Definición 3.3.1 Sea ppxq “ a0 `a1 x`¨ ¨ ¨`an´1 xn´1 `an xn un polinomio de grado
n con coeficientes en K. Dada A P Mnˆn pKq se define la matriz ppAq como:
ppAq “ a0 In ` a1 A ` ¨ ¨ ¨ ` an´1 An´1 ` an An .
Ar “ P Dr P ´1
donde ¨ ˛
λr1 0 ¨¨¨ 0
˚ 0 λr2 ¨¨¨ 0 ‹
Dr “ ˚ .. .. .. .. ‹.
˚ ‹
˝ . . . . ‚
0 0 ¨¨¨ λrn
de donde: ¨ ˛
ppλ1 q 0 ¨¨¨ 0
˚ 0 ppλ2 q ¨¨¨ 0 ‹
‹ ´1
ppAq “ P ˚ .. .. .. .. ‹P .
˚
˝ . . . . ‚
0 0 ¨¨¨ ppλn q
Nota 3.3.5 Hemos visto que, si λ P SppAq, se tiene que ppλq P SppppAqq para todo
polinomio ppxq con coeficientes en K. Por lo tanto, si ppxq es un polinomio
anulador, se tiene que ppλq “ 0 y, lo que es lo mismo, λ es raíz de cualquier
polinomio anulador de A.
1
pa1 In ` ¨ ¨ ¨ ` an´1 An´2 ` an An´1 qA “ In .
´a0
Esto es equivalente a decir que, si a0 ‰ 0, la matriz A es inversible y su inversa
está dada por
1
A´1 “ pa1 In ` ¨ ¨ ¨ ` an´1 An´2 ` an An´1 q.
´a0
Nota 3.3.7 Debemos hacer notar que si A es una matriz singular, entonces 0 P SppAq,
por lo tanto, pp0q “ a0 “ 0, de donde deducimos que todos los polinomios
anuladores asociados a matrices singulares tienen el coeficiente a0 “ 0.
140 CAPÍTULO 3. AUTOVALORES Y AUTOVECTORES
Nota 3.3.8 Supongamos que A y B P Mnˆn pKq son matrices semejantes y que
P P Mnˆn pKq es la matriz inversible tal que B “ P ´1 AP . Entonces, para todo
polinomio
ppxq “ a0 ` a1 x ` ¨ ¨ ¨ ` an´1 xn´1 ` an xn
de grado n con coeficientes en K se tiene que
ppAq “ a0 In ` a1 A ` ¨ ¨ ¨ ` an´1 An´1 ` an An
“ a0 In ` a1 P BP ´1 ` ¨ ¨ ¨ ` an´1 P B n´1 P ´1 ` an P B n P ´1
“ a0 P P ´1 ` a1 P BP ´1 ` ¨ ¨ ¨ ` an´1 P B n´1 P ´1 ` an P Dn P ´1
“ P pa0 In ` a1 B ` ¨ ¨ ¨ ` an´1 B n´1 ` an B n qP ´1
“ P ppBqP ´1 .
Por lo tanto, ppxq es un polinomio anulador para A, si, y sólo si, lo es para B.
se tiene que
ˇ ˇ
ˇ 1´x ´2 1 ˇ
ˇ ˇ
pA pxq “ ˇˇ 0 ´1 ´ x 2 ˇ “ ´x3 ´ 3x2 ` 9x ´ 3.
ˇ
ˇ 2 0 3´x ˇ
142 CAPÍTULO 3. AUTOVALORES Y AUTOVECTORES
Vf,A “ Vr,A .
3.4. FUNCIONES DE MATRICES. 143
Para encontrar rpxq no tenemos más que resolver el sistema de ecuaciones lineales
Nota 3.4.4 De todas las funciones posibles que podemos definir sobre una matriz A,
es particularmente importante la exponencial de A debido a que en la teoría de
ecuaciones diferenciales lineales es necesario calcular etA , siendo t un parámetro
real. Si definimos la función f : R Ñ R como f pxq “ etx , observamos que f
y todas sus derivadas sucesivas están definidas para cualquier número real y
gracias a esto podemos definir f pAq “ etA para toda A P Mnˆn pRq tal que
y obtenemos que
t2 t t2
a0 “ p1 ´ t ´ qe , a1 “ pt ´ t2 qet , a2 “ et .
2 2
Por lo tanto,
t2 t t2
etA “ p1 ´ t ´ qe I3 ` pt ´ t2 qet A ` et A2 .
2 2
3.4. FUNCIONES DE MATRICES. 145
2. Tomemos la matriz
¨ ˛
1 2 1 1
˚ 0 0 1 0 ‹
A“˚
˝ 1
‹
2 3 5 ‚
´1 ´2 ´3 ´4
y obtenemos que
t2 t3
a0 “ 1, a1 “ t, a2 “ , a3 “ .
2 6
t2 2 t3 3
Por lo tanto, rpxq “ 1 ` tx ` x ` x y, entonces
2 6
t2 2 t3 3
etA “ I4 ` tA ` A ` A .
2 6
3. Sea ˆ ˙
1 2
A“
´2 1
y la función f pxq “ etx . Veamos si existe etA .
El polinomio característico de la matriz A está dado por
ˇ ˇ
ˇ 1´x 2 ˇˇ
pA pxq “ detpA ´ xI3 q “ ˇ
ˇ “ p1 ´ xq2 ` 4 “ x2 ´ 2x ` 5
´2 1´x ˇ
y, por lo tanto, SppAq “ t1 ` 2i, 1 ´ 2iu siendo map1 ` 2iq “ map1 ´ 2iq “ 1.
En este caso tenemos raíces complejas por lo que, si
rpxq “ a0 ` a1 x
Nota 3.4.6 Si ¨ ˛
λ1 0 ¨¨¨ 0
˚ 0 λ2 ¨¨¨ 0 ‹
D“˚ .. .. .. ..
˚ ‹
.
‹
˝ . . . ‚
0 0 ¨¨¨ λn
es una matriz diagonal y f es una función definida sobre el espectro de A, se
tiene que ¨ ˛
f pλ1 q 0 ¨¨¨ 0
˚ 0 f pλ 2 q ¨¨¨ 0 ‹
f pDq “ ˚ .. .. .. .. ‹.
˚ ‹
˝ . . . . ‚
0 0 ¨¨¨ f pλn q
Por lo tanto, si A es diagonalizable y P es la matriz inversible tal que P ´1 AP “ D
y, equivalentemente, que A “ P DP ´1 , obtenemos la igualdad
¨ ˛
f pλ1 q 0 ¨¨¨ 0
˚ 0 f pλ2 q ¨ ¨ ¨ 0 ‹
f pAq “ P f pDqP ´1 “ P ˚
‹ ´1
.. .. .. . ‹P .
˚
˝ . . . .. ‚
0 0 ¨¨¨ f pλn q
Definición 4.1.1 Sea V un R-espacio vectorial. Una forma bilineal es una aplicación
f :V ˆV ÑR
verificando:
149
150CAPÍTULO 4. ESPACIOS EUCLÍDEOS. FORMAS CUADRÁTICAS
3) f pθV , uq “ f pu, θV q “ 0 @ u P V.
n
ÿ n
ÿ n ÿ
ÿ n
4) f p αi ui , βj vj q “ αi βj f pui , vj q @ αi , βj P R, ui , vj P V, i, j P
i“1 j“1 i“1 j“1
t1, ¨ ¨ ¨ nu.
ă A, B ą“ trpAB t q.
Además, si
n
ÿ n
ÿ
u“ xi ei , v “ yj ej ,
i“1 i“1
152CAPÍTULO 4. ESPACIOS EUCLÍDEOS. FORMAS CUADRÁTICAS
se tiene que
n
ÿ n
ÿ n ÿ
ÿ n n ÿ
ÿ n
ă u, v ą“ă xi ei , yj ej ą“ xi yj ă ei , ej ą“ xi yj gij “ utB GB vB ,
i“1 i“1 i“1 j“1 i“1 j“1
obtenemos que ¨ ˛
2
˚ 1 ‹
ă u, v ą“ p2, 2, 2, 1q ˚
˝ 0 ‚“ 6
‹
0
y que
¨ ˛¨ ˛
4 3 2 1 0
t
˚ 3 3 2 1 ‹ ˚ 0 ‹
ă u, v ą“ uB GB vB “ p1, 1, 0, 0q ˚
˝ 2
‹˚ ‹ “ 6.
2 2 1 ‚˝ 1 ‚
1 1 1 1 1
uD “ PB,D uB , vD “ PB,D vB ,
utB GB vB “ă u, v ą“ utD GD vD .
Por lo tanto:
utB GB vB “ pPB,D
´1
uD qt GB PB,D
´1
vD
“ utD pPB,D
´1 t ´1
q GB PB,D vD “ utD PD,B
t
GB PD,B vD “ utD GD vD
y esto implica que
t
GD “ PD,B GB PD,B .
Si dos matrices cuadradas A y B verifican que existe una matriz P inversible
tal que P t AP “ B, se dice que son congruentes. Así pues, acabamos de probar
que las matrices de Gram de un mismo espacio vectorial euclídeo respecto a
diferentes bases son congruentes.
154CAPÍTULO 4. ESPACIOS EUCLÍDEOS. FORMAS CUADRÁTICAS
se tiene que
t
GD “ PD,C4
GC4 PD,C4
¨ ˛ ¨ ˛ ¨ ˛
1 0 0 0 1 1 1 1 1 1 1 1
˚ 1 1 0 0 ‹ ˚ 0 1 1 1 ‹ ˚ 1 2 2 2 ‹
“˚ ‹ I4 ˚ ‹.
‚ ˝ 0 0 1 1 ‚“ ˝
‹ ˚
˝ 1 1 1 0 1 2 3 3 ‚
1 1 1 1 0 0 0 1 1 2 3 4
Definición 4.1.14 Sea V un R-espacio vectorial. Una norma sobre V es una aplicación
} }:V ÑR
tal que
1) @ u P V }u} ě 0. }u} “ 0 ô u “ θV .
2) }αu} “ |α|}u} @ u P V α P R.
3) }u ` v} ď }u} ` }v} @ u, v P V.
} }:V ÑR
dada por ?
}u} “ ` ă u, u ą
es una norma.
| ă u, v ą | ď }u}}v},
ă u ´ αv, u ´ αv ą ě 0.
Equivalentemente,
ă u, u ą ´2α ă u, v ą `α2 ă v, v ą ě 0.
ă u, v ą
Tomando α “ , la anterior desigualdad se convierte en
ă v, v ą
ă u, v ą2 ă u, v ą2
ă u, u ą ´2 ` ě 0.
ă v, v ą ă v, v ą
Así pues
ă u, v ą2
}u}2 ´ ě 0.
}v}2
Multiplicando la anterior desigualdad por }v}2 se tiene que
y, lo que es lo mismo,
| ă u, v ą | ď }u}}v}.
Entonces, aplicando la desigualdad de Schwartz, para los vectores u y v obtenemos
que
}u ` v}2 “ă u ` v, u ` v ą“ă u, u ą `2 ă u, v ą ` ă v, v ą“
Ejemplos 4.1.16 Veamos cuáles son las normas asociadas a los productos escalares
de los ejemplos 4.1.7.
Nota 4.1.17 La desigualdad de Schwartz indica que, si u, v son dos vectores no nulos
del espacio euclideo V , se verifica que
| ă u, v ą |
ď1
}u}}v}
y como consecuencia
ă u, v ą
´1 ď ď 1.
}u}}v}
Definición 4.1.18 Se llamarán ángulo entre los vectores u y v al unico número real
α P r0, πs de forma que
ă u, v ą
cospαq “ .
}u}}v}
α1 v1 ` ¨ ¨ ¨ ` αj vj ` ¨ ¨ ¨ ` αr vr “ θV .
Entonces,
0 “ ă vj , α1 v1 ` ¨ ¨ ¨ ` αj vj ` ¨ ¨ ¨ ` αr vr ą
“ α1 ă vj , v1 ą ` ¨ ¨ ¨ ` αj ă vj , vj ą ` ¨ ¨ ¨ ` αr ă vj , vr ą
“ αj ă vj , vj ą
\
[
Nota 4.2.5 La ventaja que tiene trabajar con bases ortonormales es que, como
GB “ In , se obtiene que
ă u, v ą“ utB vB , @u, v P V
Nota 4.2.7 Teniendo en cuenta que las columnas o las filas de una matriz inversible Q,
cuadrada de orden n, forman una base se Rn , es trivial probar que las siguientes
afirmaciones son equivalentes:
1) La matriz Q es ortogonal.
4.2. BASES ORTONORMALES. 159
2) La matriz Qt es ortogonal.
3) Las columnas de Q forman una base ortonormal de Rn respecto al producto
escalar usual.
4) Las columnas de Qt forman una base ortonormal de Rn respecto al producto
escalar usual.
\
[
ă vj , v ą
Nota 4.2.9 Los coeficientes xj “ dados en la anterior proposición se llaman
}vj }2
coeficientes de Fourier de v en la base ortogonal B. Si B fuese ortonormal, los
coeficientes de Fourier de v quedan como
xj “ă vj , v ą .
160CAPÍTULO 4. ESPACIOS EUCLÍDEOS. FORMAS CUADRÁTICAS
Por lo tanto,
ă u1 , ¨ ¨ ¨ , ui´1 , ui ą“ă v1 , ¨ ¨ ¨ , vi´1 , vi ą .
4.2. BASES ORTONORMALES. 161
Entonces, @ k ă i,
i´1
vi ÿ ă vi , uj ą
ă ui , uk ą“ă ´ uj , uk ą“
}ei } j“1 }ei }
i´1
ă vi , uk ą ÿ ă vi , uj ą
´ ă uj , uk ą “
}ei } j“1
}ei }
ă vi , uk ą ă vi , uk ą
´ ă uk , uk ą “ 0
}ei } }ei }
ya que ă uk , uk ą“ 1. \
[
´1 ´1 ´1
?1 ?1
¨ ˛ ¨ ˛¨ ˛
1 2 2
˚ 2 ‹ ˚ 0 ‹˚ 0 ‹
e2 “ v2 ´ ă v2 , u1 ą u1 “ ˝
˚ ‹ ´ p1, 2, 0, ´1q ˝
˚ ‹˚ ‹“
0 ‚ 0 ‚˝ 0 ‚
´1 ´ ?12 ´ ?12
162CAPÍTULO 4. ESPACIOS EUCLÍDEOS. FORMAS CUADRÁTICAS
?1
¨ ˛ ¨ ˛ ¨ ˛
1 2 0
‹ ´ ?2 ˚
˚ 2 ‹ ˚ 0 ‹ ˚ 2 ‹
˚ ‹“˚ ‹
˝ 0 ‚ 2˝ 0 ‚ ˝ 0 ‚
´1 ´ ?12 0
¨
˛ ¨ ˛
0 0
e2 1˚ 2 ‹ ˚ 1 ‹
u2 “ “ ˚ ‹“˚ ‹.
}e2 } 2˝ 0 ‚ ˝ 0 ‚
0 0
e3 “ v3 ´ ă v3 , u1 ą u1 ´ ă v3 , u2 ą u2 “
?1 ?1
¨ ˛ ¨ ˛¨ ˛ ¨
˛¨ ˛
3 2 2 0 0
˚ 1 ‹ ˚ 0 ‹˚ 0 ‹ ˚ 1 ‹˚ 1 ‹
˝ 1 ‚´ p3, 1, 1, ´1q ˝
˚ ‹ ˚ ‹˚ ‹ ´ p3, 1, 1, ´1q ˚ ‹˚ ‹“
0 ‚˝ 0 ‚ ˝ 0 ‚˝ 0 ‚
´1 ´ ?12 ´ ?12 0 0
?1
¨ ˛ ¨ ˛ ¨
˛ ¨ ˛
3 2 0 1
‹ ´ ?4 ˚
˚ 1 ‹ ˚ 0 ‹ ˚ 1 ‹ ˚ 0 ‹
‹´˚
‚ ˝ 0 ‚“ ˝ 1
˚ ‹ ˚ ‹
˝ 1 ‚ 2 ˝ 0 ‚
´1 ´ ?12 0 1
˛ ¨
¨ ?1
˛
1 3
e3 1 ˚ 0 ‹ ˚ 0 ‹
u3 “ ‹“˚ ‹.
‹
“? ˚ ?1
3˝ 1 ‚ ˝
˚
}e3 } 3 ‚
1 ?1
3
Nota 4.2.12 Sea pV, ă ąq un espacio vectorial euclídeo y sea T “ tv1 , ¨ ¨ ¨ , vr´1 u un
sistema libre de vectores de V . Si aplicamos el procedimiento de ortonormalización
de Gram-Schmidt al sistema de vectores T , obtenemos un sistema ortonormal
4.2. BASES ORTONORMALES. 163
αj “ă vi , uj ą, j P t1, ¨ ¨ ¨ , r ´ 1u.
Teorema 4.2.13 ( Factorización QR) Sea A P Mmˆn pRq con rango r. Existen dos
matrices Q P Mmˆr pRq, R “ prlj q P Mrˆn pRq, tales que A “ QR, Qt Q “ Ir y
rlj “ 0 si l ą j.
2. Tomamos Q P Mmˆr pRq cuyas columnas son los vectores del sistema
ortonormal obtenido en el punto anterior.
3. Se calcula R como R “ Qt A.
También podemos proceder partiendo del sistema de vectores dado por las
primeras r columnas linealmente independientes de la matriz A. La matriz
Q P Mmˆr pRq es aquella cuyas columnas son los vectores del sistema ortonormal
obtenido al aplicar el procedimiento de ortonormalización de Gram-Schmidt a
este sistema. Finalmente, R “ Qt A.
1. Sea la matriz A cuyas columnas son los vectores del sistema considerado
en el ejemplo 4.2.11. Entonces
¨ ˛
1 1 3
˚ 0 2 1 ‹
A“˚ ‹ P M4ˆ3 pRq.
˝ 0 0 1 ‚
´1 ´1 ´1
y ¨ ˛
¨
?1 0 0 ´ ?12
˛ 1 1 3
2 ˚ 0 2 1 ‹
R “ Qt A “ ˝ 0 1 0 0 ‚˚ ‹“
?1 1 1
˝ 0 0 1 ‚
3
0 ?
3
?
3 ´1 ´1 ´1
?2 ?2 ?4
¨ ˛
2 2 2
˝ 0 2 1 ‚ P M3ˆ3 pRq.
0 0 ?3
3
Por lo tanto, rangpAq “ rangpQq “ rangpRq “ 3.
2. Si, por ejemplo, ¨ ˛
1 1 2
A“˝ 1 0 1 ‚ P M4ˆ3 pRq,
0 1 1
considerando en R4 el producto escalar usual, al aplicar el procedimiento
de ortonormalización de Gram-Schmidt a las columnas de A, obtenemos lo
siguiente:
˛ ¨ ?2 ˛¨
1 ?
e1 2 ˝ ‚ ˚ ?22 ‹
e1 “ v1 , u1 “ “ 1 “˝ ‚.
}e1 } 2 2
0 0
¨ ˛ ¨ ? ˛¨ ? ˛
2 2
1
˚ ?22 ‹ ˚ ?22 ‹
e2 “ v2 ´ ă v2 , u1 ą u1 “ ˝ 0 ´ p1, 0, 1q ˝
‚ ‚˝ 2 ‚ “
2
1 0 0
¨ ˛ ¨ ˛ ¨ 1 ˛
1 1
˝ 0 ‚´ 1 ˝ 1 ‚ “ ˝ ´ 1 ‚
2
2 2
1 0 1
¨ ˛ ¨ ?6 ˛
? 1
e2 6˝ ˚ ?6 ‹
u2 “ “ ´1 ‚ “ ˝ ´ 66 ‚.
}e2 } 6 ?
2 6
3
e3 “ v3 ´ ă v3 , u1 ą u1 ´ ă v3 , u2 ą u2 “
¨ ? ˛¨ ? ˛
¨ ˛ ˜ ? ¸˜ ? ¸ 6 6
2 2 2 ?6 ‹ ˚ ?6 ‹
˝ 1 ‚´ p2, 1, 1q ?2 ?2 ´ p2, 1, 1q ˝ ´ 6 ‚˝ ´ 66 ‚ “
6
˚
2 2 ? ?
1 2 2 6 6
3 3
4.2. BASES ORTONORMALES. 167
¨ ˛ ¨ ˛ ¨ ˛ ¨ ˛
2 1 1 0
3 1
˝ 1 ‚´ ? ˝ 1 ‚´ ? ˝ ´1 ‚ “ ˝ 0 ‚
1 2 0 2 2 0
Así pues, A “ QR, donde
¨ ? ? ˛
2 6
?2 ?6
2
Q“˝ ´ ?66 ‚ P M3ˆ2 pRq
˚ ‹
2
6
0 3
y
? ? ¸¨ ˛
1 1 2
˜
2 2
0
R “ Qt A “ ?2
6
2? ? ˝ 1 0 1 ‚
6 ´ 66 3
6
0 0 1
˜ ? ? ? ¸
2 3 2
2 ?2 ?2
“ 6 6
P M2ˆ3 pRq.
0 2 2
Nota 4.2.16 Aplicando la factorización QR tenemos que, si A P Mmˆn pRq con rango
n, Q P Mmˆn pRq y R “ Qt A P Mnˆn pRq. Como el rangpRq “ n, obtenemos
que R es inversible. Por totro lado, si A P Mnˆn pRq con rango n (A es inversible),
Q P Mnˆn pRq es tal que Qt Q “ QQt “ In y, por lo tanto, Q resulta una matriz
ortogonal. Además R “ Qt A P Mnˆn pRq. Como el rangpRq “ n, obtenemos
que R es inversible.
}v ´ b} “ mint}u ´ b}, u P U u.
Teorema 4.2.20 Sea U un subespacio del espacio vectorial euclídeo pRn , ă ąq con
el producto escalar usual. Un vector v P U es la mejor aproximación de b P Rn
por vectores de U , si ă v ´ b, u ą“ 0, @u P U (v ´ b es ortogonal a todos los
vectores de U ).
}u ´ v}2 ` }v ´ b}2 ` 2 ă u ´ v, v ´ b ą“
}u ´ v}2 ` }v ´ b}2
ya que, como u ´ v P U , se tiene que ă u ´ v, pv ´ bq ą“ 0.
\
[
Teorema 4.2.22 Sea U un subespacio del espacio vectorial euclídeo pRn , ă ąq con
el producto escalar usual. La proyección ortogonal de b sobre el subespacio U
existe siempre y es única.
y, entonces, v “ w.
\
[
Teorema 4.2.24 Sea el espacio vectorial euclídeo pRn , ă ąq con el producto escalar
usual. Sea A P Mmˆn pRq, b P Rm y supongamos que tenemos el sistema de
ecuaciones lineales Ax “ b. El conjunto de soluciones mínimo-cuadráticas del
sistema Ax “ b coincide con el conjunto de soluciones del sistema de ecuaciones
normales At Ax “ At b.
Demostración.
ă At Az ´ At b, y ą, @y P Rm .
Esto implica que At Az ´ At b “ θRn o, lo que es lo mismo, At Az “ At b. Así pues
z es una solución del sistema At Ax “ At b.
@y P Rm ă At Az ´ At b, y ą“
Nota 4.2.25 Del teorema anterior deducimos que, si z, z 1 P Rn son soluciones mínimo-
cuadráticas del sistema Ax “ b, se tiene la igualdad Az “ Az 1 . Por lo tanto,
Apz ´z 1 q “ θRn , equivalentemente, z ´z 1 P KerpfA q. Entonces, si z es una solución
mínimo-cuadrática de Ax “ b, el conjunto global de soluciones del problema de
mínimos cuadrados también viene dado por
z “ pAt Aq´1 At b.
Entonces,
¨ 13
˛ ¨ 13 ˛ ¨ ˛
4 ´ 2y 4 ´2
S “ t˝ y ‚, { y P Ru “ t˝ 0 ‚` y ˝ 1 ‚, { y P Ru “
6 6
5 5 0
172CAPÍTULO 4. ESPACIOS EUCLÍDEOS. FORMAS CUADRÁTICAS
¨ 13
˛
˛ ¨
4 ´2
˝ 0 ‚` ă ˝ 1 ‚ ą
6
5 0
siendo ˛ ¨
´2
KerpfA q “ă ˝ 1 ‚ ą .
0
Teorema 4.2.27 Sea A P Mmˆn pRq con rango r y supongamos que su factorización
QR es A “ QR. Se verifica que z es solución mínimo-cuadrática para Ax “ b,
si, y sólo si, z es solución del sistema Rx “ Qt b.
Teorema 4.3.1 Sea A P Mnˆn R una matriz simétrica. Se verifica que todos los
autovalores de A son reales.
Au “ au ´ bv, Av “ bu ` av.
Como A es simétrica, los productos escalares usuales ă Au, v ą y ă u, Av ą son
iguales y se tiene que
ă u, Av ą“ă u, bu ` av ą“ b ă u, u ą `a ă u, v ą .
Si restamos las expresiones anteriores, obtenemos
bpă u, u ą ` ă v, v ąq “ 0.
Teorema 4.3.2 Sea A P Mnˆn pRq. Se verifica que A es simétrica, si, y sólo si, existe
una matriz ortogonal Q tal que Qt AQ es diagonal.
y, por lo tanto, A “ At .
ô pλi ´ λj q ă u, v ą“ 0 ôă u, v ą“ 0.
Así pues, autovectores asociados a autovalores distintos son ortogonales. Teniendo
en cuenta este hecho, si aplicamos el procedimiento de ortonormalización de
Gram-Schmidt a la base Bλi de cada subespacio propio y unimos los sistemas
resultantes, obtenemos una base ortonormal de Rn formada por vectores propios.
Si P es la matriz cuyas columnas son los vectores de esta base ortonormal, P
resulta ortogonal y P t AP diagonal. \
[
Nota 4.3.3 La demostración del anterior teorema nos indica cómo debemos realizar
el cálculo de la diagonalización ortogonal de una matriz simétrica real. Se siguen
los siguientes pasos:
4. Se unen las bases Cλi . Esta unión da lugar a una base ortonormal de Rn
formada por autovectores.
es ortogonal y ¨ ˛
´1 0 0
P t AP “ ˝ 0 ´1 0 ‚ “ D.
0 0 2
4.4. FORMAS CUADRÁTICAS REALES. CLASIFICACIÓN. 177
se tiene que
ˆ ˙ˆ ˙
1 0 x
px, yq “ x2 ` 2xy ´ y 2 ,
2 ´1 y
ˆ ˙ˆ ˙
1 3 x
px, yq “ x2 ` 2xy ´ y 2 .
´1 ´1 y
Por tanto, es posible que dos matrices distintas den lugar a la misma forma
cuadrática.
ωpαvq “ α2 ωpvq
ωf pvq “ v t GCn v, @ v P Rn
2 pA ` A q es simétrica.
1 t
Por otro lado, si existiese una forma bilineal simétrica g : Rn ˆ Rn Ñ R tal que
ωg “ ω, tenemos que fω “ g, ya que, si GCn es la matriz de Gram de g respecto
a la base canónica de Rn , usando el hecho de que GCn es simétrica, obtenemos
las igualdades
1 1
fω pu, vq “ pωpu ` vq ´ wpuq ´ wpvqq “ pωg pu ` vq ´ wg puq ´ wg pvqq “
2 2
1 t
pu GCn v ` v t GCn uq “ ut GCn v “ gpu, vq.
2
\
[
Proposición 4.4.9 Sea ω : Rn Ñ R una forma cuadrática. Existe una única matriz
simétrica M pωq tal que
ωpvq “ v t M pωqv, @ v P Rn
ωpvq “ v t Av, @ v P Rn
180CAPÍTULO 4. ESPACIOS EUCLÍDEOS. FORMAS CUADRÁTICAS
es suficiente tomar
1
M pωq “ pA ` At q.
2
Entonces, como v t Av “ v t At v @ v P Rn ,
1 1
v t M pωqv “ v t p pA ` At qqv “ pv t Av ` v t At vq “ v t Av “ ωpvq.
2 2
La forma polar asociada a ω será
fω pu, vq “ ut M pωqv.
Por lo tanto, si existiese otra matriz B simétrica tal que ωpvq “ v t Bv, @ v P Rn ,
obtendríamos la igualdad
\
[
Si ¨ ˛
0 1 1 1
˚ 0 1 1 1 ‹
A“˚
˝ 0
‹
1 1 1 ‚
1 1 1 1
4.4. FORMAS CUADRÁTICAS REALES. CLASIFICACIÓN. 181
la matriz asociada a ω es
¨ 1 1
˛
0 2 2 1
1 1
˚ 1 1 1 ‹
M pωq “ pA ` At q “ ˚ 2
1
‹.
2 ˝
2 1 1 1 ‚
1 1 1 1
Nota 4.4.12 En todas las definiciones anteriores hemos tomado coordenadas respecto
a la base canónica de Rn . Si cambiamos la base, la expresión de la forma
cuadrática también lo hace. Sea B otra base de Rn y llamemos PB,Cn la matriz
de cambio de base de B a la base canónica de Rn . Como sabemos, @ v P Rn ,
v “ PB,Cn vB
ωpvq “ v t M pωqv “ vB
t t
PB,Cn
M pωqPB,Cn vB .
A la matriz PB,C
t
n
M pωqPB,Cn se le llama matriz asociada a ω respecto a la base
B y se denota como M pωqB . Evidentemente es simétrica y M pωqCn “ M pωq.
Así pues, la expresión de la forma cuadrática en la base B es
t
ωpvq “ vB M pωqB vB .
Definición 4.4.13 Sea ω : Rn Ñ R una forma cuadrática con matriz asociada M pωq
y sea B una base de Rn . Si la matriz M pωqB es diagonal se dirá que la base B
es ortogonal respecto a ω. En este caso se tiene que si, vB
t
“ px1 , ¨ ¨ ¨ , xn q,
t
ωpvq “ vB M pωqB vB “
¨ ˛¨ ˛
a1 0 ¨¨¨ 0 x1
˚ 0 a2 ¨¨¨ 0 ‹ ‹ ˚ x2 ‹
˚ ‹
2 2 2
px1 , x2 , ¨ ¨ ¨ , xn q ˚ .. .. .. .. ‹ ˚ .. ‹ “ a1 x1 ` a2 x2 ` ¨ ¨ ¨ ` an xn .
˚
˝ . . . . ‚˝ . ‚
0 0 ¨ ¨ ¨ an xn
B “ te1 , ¨ ¨ ¨ , en u
182CAPÍTULO 4. ESPACIOS EUCLÍDEOS. FORMAS CUADRÁTICAS
se tiene que
¨ ˛
0
˚ .. ‹
˚ . ‹
˚ ‹
eiB ˚ 1 ‹
“˚ ‹
˚ . ‹
˝ .. ‚
0
Teorema 4.4.15 Toda matriz simétrica A P Mnˆn pRq es congruente con una matriz
diagonal. Como consecuencia, toda forma cuadrática ω : Rn Ñ R admite una
base ortogonal.
\
[
En nuestro caso
¨ ˛
0 0 0 ´1
1 t
˚ 0 0 1 0 ‹
M pωq “ pA ` A q “ ˝
˚ ‹
2 0 1 0 0 ‚
´1 0 0 0
ya que ¨ ˛
0 0 0 ´1
˚ 0 0 1 0 ‹
A“˚
˝ 0
‹
1 0 0 ‚
´1 0 0 0
es simétrica.
Así pues ¨ ˛
2 0 0 0
˚ 0 2 0 0 ‹
D“˚ ‹
˝ 0 0 ´ 12 0 ‚
0 0 0 ´ 12
y
P t AP “ D
siendo ¨ ˛
1 0 0 ´1
˚ 0 1 1 0 ‹
Pt “ ˚ ‹.
˝ 0 ´ 21 1
2 0 ‚
1 1
2 0 0 2
ωă ą pvq “ }v}2 .
2. La forma cuadrática
¨ ˛
x
˚ y ‹ 2 2 2 2
ω˚
˝ z ‚“ x ` y ` z ` t
‹
es definida positiva y
¨ ˛
x
˚ y ‹ 2 2 2 2
˝ z ‚ “ ´x ´ y ´ z ´ t
ω˚ ‹
es definida negativa.
3. La forma cuadrática
¨ ˛
x
˚ y ‹ 2 2 2 2
ω˚
˝ z ‚ “ ´x ´ y ` z ` t
‹
es no definida ya que
¨ ˛ ¨ ˛
1 0
˚ 0 ‹ ˚ 0 ‹
ω˚
˝ 0 ‚ “ ´1, ω ˝ 0
‹ ˚ ‹ “ 1.
‚
0 ´1
4.4. FORMAS CUADRÁTICAS REALES. CLASIFICACIÓN. 187
fω pu, vq “ ut M pωqv.
N pωq “ tv P Rn , { fω pv, uq “ 0, @ u P Rn u.
Nótese que es muy fácil probar que ω es no degenerada, si, y sólo si, rangpM pωqq “
n, esto es, si, y sólo si, M pωq es inversible.
B1 “ te1 , ¨ ¨ ¨ , er , er`1 , ¨ ¨ ¨ , en u
B2 “ tu1 , ¨ ¨ ¨ , us , us`1 , ¨ ¨ ¨ , un u
tales que las matrices asociadas a las bases B1 y B2 son de la forma (en caso
188CAPÍTULO 4. ESPACIOS EUCLÍDEOS. FORMAS CUADRÁTICAS
donde
ωpe1 q ą 0, ¨ ¨ ¨ , ωper q ą 0, ωper`1 q ď 0, ¨ ¨ ¨ , ωpen q ď 0
y
ωpu1 q ą 0, ¨ ¨ ¨ , ωpus q ą 0, ωpus`1 q ď 0, ¨ ¨ ¨ , ωpun q ď 0.
Consideremos los subespacios
U “ă e1 , ¨ ¨ ¨ , er ą, W “ă us`1 , ¨ ¨ ¨ , un ą .
L “ te1 , ¨ ¨ ¨ , er , us`1 , ¨ ¨ ¨ , un ą
\
[
Definición 4.4.21 Sea ω : Rn Ñ R una forma cuadrática. Sea B una base ortogonal
respecto de ω. Se llama signatura de ω al par:
Nota 4.4.22 Según lo visto en la demostración del teorema anterior, se cumple que
rangpωq “ p ` q.
Así pues, ω es degenerada, si, y sólo si, p ` q ă n y no degenerada, si, y sólo si,
p ` q “ n.
para la cual ¨ ˛
2 0 0 0
˚ 0 2 0 0 ‹
M pωqB “ ˚ ‹.
˝ 0 0 ´ 12 0 ‚
0 0 0 ´ 12
Por tanto, sgpωq “ p2, 2q y la forma cuadrática es no degenerada, ya que 2`2 “ 4.
1. La forma cuadrática ω es definida positiva, si, y sólo si, sgpωq “ pn, 0q.
2. La forma cuadrática ω es definida negativa, si, y sólo si, sgpωq “ p0, nq.
3. La forma cuadrática ω es semidefinida positiva, si, y sólo si, sgpωq “ pr, 0q
con r ă n.
190CAPÍTULO 4. ESPACIOS EUCLÍDEOS. FORMAS CUADRÁTICAS
En nuestro caso
¨ ˛
1 1 2 0
1 ˚ 1 3 2 0 ‹
M pωq “ pA ` At q “ ˚
˝ 2
‹
2 2 7 0 ‚
0 0 0 1
ya que ¨ ˛
1 1 2 0
˚ 1 3 2 0 ‹
A“˚
˝ 2
‹
2 7 0 ‚
0 0 0 1
es simétrica.
Así pues, ¨ ˛
1 0 0 0
˚ 0 2 0 0 ‹
D“˚
˝ 0
‹
0 3 0 ‚
0 0 0 1
y
P t AP “ D
siendo ¨ ˛
1 0 0 0
t
˚ ´1 1 0 0 ‹
P “˚
˝ ´2 0 1
‹.
0 ‚
0 0 0 1
Por lo tanto, ω es definida positiva, ya que sgpωq “ p4, 0q.
Nota 4.4.26 Sea ω : Rn Ñ R una forma cuadrática. Sea M pωq su matriz asociada.
Como esta matriz es simétrica, por el Teorema 4.3.2, sabemos que existe una
matriz ortogonal Q tal que Qt M pωqQ es diagonal. Las columnas de Q dan
lugar a una base ortonormal del espacio Rn , respecto al producto escalar usual,
formada por autovectores y, dado que Qt M pωqQ es diagonal, también dan lugar
a una base ortogonal respecto de ω. Los elementos de la diagonal principal de
D “ Qt M pωqQ son los autovalores de M pωq.
Se verifica lo siguiente: